WO2019016875A1 - タッチ操作判定装置およびタッチ操作の有効性判定方法 - Google Patents

タッチ操作判定装置およびタッチ操作の有効性判定方法 Download PDF

Info

Publication number
WO2019016875A1
WO2019016875A1 PCT/JP2017/026010 JP2017026010W WO2019016875A1 WO 2019016875 A1 WO2019016875 A1 WO 2019016875A1 JP 2017026010 W JP2017026010 W JP 2017026010W WO 2019016875 A1 WO2019016875 A1 WO 2019016875A1
Authority
WO
WIPO (PCT)
Prior art keywords
touch
indicator
input surface
touch input
coordinates
Prior art date
Application number
PCT/JP2017/026010
Other languages
English (en)
French (fr)
Inventor
家田 邦代
下谷 光生
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to JP2019530274A priority Critical patent/JP6639745B2/ja
Priority to PCT/JP2017/026010 priority patent/WO2019016875A1/ja
Priority to CN201780093030.3A priority patent/CN110869891B/zh
Publication of WO2019016875A1 publication Critical patent/WO2019016875A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means

Definitions

  • the present invention relates to a technique for preventing an erroneous operation on a touch input device having two touch input surfaces.
  • Patent Document 1 discloses a vehicle display device provided with two screens each functioning as a touch input surface.
  • the screen to the one with a lower priority is touched. By invalidating, the wrong operation is prevented.
  • the determination of the effectiveness of the touch depends on the priorities of the two screens (touch input surfaces), so the determination is biased. That is, when the two screens are touched almost simultaneously, the touch to the lower priority screen is always invalidated. Therefore, it is conceivable that the determination result of the effectiveness of the touch may be different from the intention of the operator. Specifically, when the operator touches the screen with high priority, when the user touches the screen with low priority by mistake, the judgment result according to the intention of the operator is obtained, but on the contrary, the operator gives priority When a screen with a low priority is touched by mistake when a screen with a high priority is touched, a determination result contrary to the intention of the operator is obtained.
  • the present invention has been made to solve the problems as described above, and in a touch operation determination device that determines the effectiveness of a touch on two touch input surfaces, the bias of the determination is eliminated, and the intention of the operator is improved.
  • the purpose is to enable judgment in accordance with
  • a touch operation determination device includes an indicator position detection unit that detects a position of an indicator in a space in which a touch input device having a first touch input surface and a second touch input surface is disposed; A first touch coordinate acquisition unit that acquires a first touch coordinate indicating a position of a first touch that is a touch of the indicator on the touch input surface of 1; and a touch of the indicator on the second touch input surface A second touch coordinate acquisition unit for acquiring a second touch coordinate indicating a position of the second touch, and a case where a time between the first touch and the second touch is shorter than a predetermined threshold time And determining the effectiveness of each of the first touch and the second touch based on the time-series change of the position of the indicator before the first touch and the second touch are performed. And a unit.
  • the effectiveness of each of the first and second touches is determined based on the time-series change of the position of the indicator at. It is not necessary to set priorities on the first and second touch input surfaces, and it is possible to prevent deviation in determination of the effectiveness of each of the first and second touches. As a result, the determination result of the effectiveness of the touch can be made more in line with the intention of the operator.
  • FIG. 2 is a functional block diagram showing a configuration of a touch operation system according to Embodiment 1. It is a figure which shows the example of a touch input device. It is a figure which shows the example of a touch input device. It is a figure for demonstrating the operation
  • FIG. 7 is a functional block diagram showing a configuration of a touch operation system according to Embodiment 2. It is a figure for demonstrating the operation
  • 15 is a flowchart showing validity determination processing in the second embodiment.
  • FIG. 13 is a functional block diagram showing a configuration of a touch operation system according to Embodiment 3. It is a figure which shows the modification of a touch input device.
  • FIG. 1 is a functional block diagram showing the configuration of the touch operation system according to the first embodiment.
  • the touch operation system includes a touch input device 100 including a first touch panel 10 and a second touch panel 20, a touch operation determination device 30, and an operation target device 40.
  • the first touch panel 10 of the touch input device 100 detects a first touch input surface 11 for receiving an operator's touch operation and a first touch input surface for detecting coordinates indicating the touch position of the operator on the first touch input surface 11. And a touch coordinate detection unit 12.
  • the second touch panel 20 of the touch input device 100 detects the second touch input surface 21 that receives the touch operation of the operator and the coordinates indicating the touch position of the operator on the second touch input surface 21.
  • a second touch coordinate detection unit 22 is a second touch coordinate detection unit 22.
  • the indicator for the operator to touch the first touch panel 10 and the second touch panel 20 uses the indicator as the hand of the operator, but may be, for example, a stylus pen or the like.
  • FIG. 2 and FIG. An example of the touch input device 100 is shown in FIG. 2 and FIG.
  • the first touch input surface 11 and the second touch input surface 21 are each flat, and the first touch input surface 11 and the second touch input surface 21 form an angle of less than 180 °.
  • FIGS. 2 and 3 when the operator tries to touch the first touch input surface 11 with the index finger of the hand 500, the thumb erroneously touches the second touch input surface 21, and the second An example in which an erroneous touch occurs on the touch input surface 21 of FIG.
  • the first touch coordinate detection unit 12 detects the coordinates of the touch position P1 of the operator's hand 500 on the first touch input surface 11, and the second touch coordinate detection unit 22 performs the second touch.
  • the coordinates of the touch position P2 of the operator's hand 500 on the input surface 21 are detected.
  • the first touch input surface 11 and the second touch input surface 21 form an angle of less than 180 °, such an erroneous touch is likely to occur.
  • the false touch is caused not only by the thumb but also by the bent little finger or palm.
  • first touch the touch of the operator on the first touch input surface 11
  • second touch the coordinates indicating the position of the second touch are referred to as “second touch coordinates”.
  • the touch operation determination device 30 includes the first touch coordinate acquisition unit 31, the second touch coordinate acquisition unit 32, the indicator position detection unit 33, and the validity determination unit 34. .
  • the first touch coordinate acquisition unit 31 indicates the presence / absence of the first touch on the first touch input surface 11 and the position of the first touch from the first touch coordinate detection unit 12 of the touch input device 100. 1. Acquire information on touch coordinates of 1.
  • the second touch coordinate acquisition unit 32 is a second touch coordinate detection unit 22 of the touch input device 100.
  • the second touch coordinate acquisition unit 32 indicates the presence / absence of the second touch on the second touch input surface 21 and the second touch position. Acquire the information of 2 touch coordinates.
  • the indicator position detection unit 33 detects the position of the indicator (the operator's hand 500) in the space where the touch input device 100 is disposed.
  • a method of detecting the position of the indicator for example, a method of analyzing an image of an operator taken by a camera (not shown), a method of analyzing the direction and distance of the indicator measured by a sensor (not shown), etc. Conceivable.
  • the validity determination unit 34 is the target of the touch operation on the first touch coordinates acquired by the first touch coordinate acquisition unit 31 and the second touch coordinates acquired by the second touch coordinate acquisition unit 32. Output to the operation target device 40. However, in the case where the time between the first touch and the second touch is shorter than a predetermined threshold time (that is, the first touch and the second touch substantially simultaneously) In the case where it is performed, the validity of each of the first and second touches is determined, and only coordinates indicating the touch position determined to be valid are output to the operation target device 40. The effectiveness of the first and second touches is determined based on the time-series change of the position of the indicator before the first and second touches are performed.
  • the validity determination unit 34 includes a first pointer coordinate calculation unit 341, a second pointer coordinate calculation unit 342, and a determination unit 343.
  • the first indicator coordinate calculation unit 341 recognizes in advance the position at which the first touch input surface 11 is disposed, and based on the position of the indicator detected by the indicator position detection unit 33, the first indicator coordinate calculation unit 341 The coordinates of the position closest to the pointer on the touch input surface 11 (hereinafter referred to as “first pointer coordinates”) are calculated.
  • the second indicator coordinate calculation unit 342 recognizes in advance the position at which the second touch input surface 21 is disposed, and based on the position of the indicator detected by the indicator position detection unit 33, the second indicator coordinate calculation unit 342 The coordinates of the position closest to the pointer on the touch input surface 21 (hereinafter referred to as “second pointer coordinates”) are calculated.
  • the first and second indicator coordinate calculation units 341 and 342 hold the history of the first and second indicator coordinates, that is, the time-series changes for a predetermined time.
  • the first pointer coordinate operation unit 341 determines the operator on the first touch input surface 11. Coordinates indicating a position Q1 closest to the hand 500 are calculated as first indicator coordinates. Further, the second indicator coordinate calculation unit 342 calculates coordinates indicating the position Q2 closest to the operator's hand 500 on the second touch input surface 21 as second indicator coordinates.
  • the determination unit 343 determines the time series of the first indicator coordinates calculated by the first indicator coordinates calculation unit 341.
  • the effectiveness of each of the first touch and the second touch is determined based on the change and the time-series change of the second indicator coordinates calculated by the second indicator coordinate calculation unit 342.
  • the touch panel operator tends to press a finger perpendicular to the touch input surface. Therefore, when the operator tries to touch the first touch input surface 11, the operator's hand 500 moves substantially perpendicularly to the first touch input surface 11, as shown in FIG. In this case, the first indicator coordinates (position Q1) hardly changes, and the second indicator coordinates (position Q2) largely changes. Although illustration is omitted, when the operator tries to touch the second touch input surface 21, the operator's hand 500 moves substantially perpendicularly to the second touch input surface 21, so the second The indicator coordinates (position Q2) hardly change, and the first indicator coordinates (position Q1) largely change.
  • the determination unit 343 determines the amount of change in the first indicator coordinates during a predetermined time immediately before the first touch is performed, and the second indicator coordinates during the predetermined time immediately before the second touch is performed. And the touch corresponding to the smaller change amount is enabled, and the touch corresponding to the larger change amount is invalidated. That is, if the amount of change in the first indicator coordinates is smaller, the determination unit 343 determines that the first touch is valid and the second touch is invalid. Conversely, if the amount of change in the second indicator coordinates is smaller, the determination unit 343 determines that the second touch is valid and the first touch is invalid.
  • either of the first touch and the second touch may be invalidated.
  • the first touch may always be disabled, or the second touch may be disabled.
  • a bias of this degree of judgment is considered to be acceptable.
  • the first one of the first and second touches may be invalidated, or the later one may be invalidated.
  • the operation target device 40 illustrated in FIG. 1 may be any device as long as it can be a target of touch operation using the touch input device 100.
  • a navigation device, an audio display device, or the like is assumed as the operation target device 40.
  • the operation target device 40 may be plural.
  • the first touch panel 10 and the second touch panel 20 may be used to operate different operation target devices 40, respectively.
  • a mode is conceivable in which the first touch panel 10 is used for operating the navigation device and the second touch panel 20 is used for operating the audio display device.
  • the first touch panel 10 and the second touch panel 20 may be used to operate different applications.
  • the first touch panel 10 may be used to operate an application for navigation
  • the second touch panel 20 may be used to operate an application for playing video and music.
  • first touch panel 10 and the second touch panel 20 may be used to operate the same application. That is, the first touch panel 10 and the second touch panel 20 may be used to operate different attributes of the same application.
  • first touch panel 10 may be used for map operation of an application for navigation
  • second touch panel 20 may be used for operation of facility search for the application.
  • the touch input apparatus 100, the touch operation determination apparatus 30, and the operation target apparatus 40 were each shown with the separate block, two or more of these may be comprised integrally.
  • the touch input device 100 may incorporate the touch operation determination device 30.
  • the touch operation system is applied to a portable device such as a smartphone, the touch input device 100, the touch operation determination device 30, and the operation target device 40 are all housed in one case and integrated. It becomes.
  • FIG. 6 is a flowchart showing the operation of the first touch coordinate acquisition unit 31. The operation of the first touch coordinate acquisition unit 31 will be described based on FIG.
  • the first touch coordinate acquisition unit 31 determines the presence or absence of the operator's touch (first touch) on the first touch input surface 11 based on the output signal of the first touch coordinate detection unit 12 (Step S101). If the first touch is not performed (NO in step S101), step S101 is repeated. In addition, when the first touch is performed (YES in step S101), the first touch coordinate acquisition unit 31 receives the first touch coordinates indicating the position of the first touch from the first touch coordinate detection unit 12 It acquires (step S102). Then, the first touch coordinate acquisition unit 31 transmits the acquired first touch coordinates to the determination unit 343 (step S103), and the process returns to step S101.
  • FIG. 7 is a flowchart showing the operation of the second touch coordinate acquisition unit 32. The operation of the second touch coordinate acquisition unit 32 will be described based on FIG. 7.
  • the second touch coordinate acquisition unit 32 determines the presence or absence of the operator's touch (second touch) on the second touch input surface 21 based on the output signal of the second touch coordinate detection unit 22. (Step S201). If the second touch is not performed (NO in step S201), step S201 is repeated. In addition, when the second touch is performed (YES in step S201), the second touch coordinate acquisition unit 32 causes the second touch coordinate detection unit 22 to use the second touch coordinates indicating the position of the second touch. It acquires (step S202). Then, the second touch coordinate acquisition unit 32 transmits the acquired second touch coordinates to the determination unit 343 (step S203), and the process returns to step S201.
  • the time difference from when the first touch is made on the first touch input surface 11 until the first touch coordinates indicating the position are received by the determination unit 343, and After the second touch is made on the second touch input surface 21, the time difference from when the determination unit 343 receives a second touch coordinate indicating the position is ignored. That is, the first touch coordinates are received by the determination unit 343 at the same time as the first touch is performed on the first touch input surface 11, and the second touch is performed on the second touch input surface 21 at the same time. It is assumed that the touch coordinates of 2 are received by the determination unit 343.
  • FIG. 8 is a flowchart showing operations of the indicator position detection unit 33 and the validity determination unit 34. The operations of the indicator position detection unit 33 and the validity determination unit 34 will be described based on FIG. 8.
  • the indicator position detection unit 33 acquires the position of the indicator (the operator's hand 500) in the space where the touch input device 100 is disposed (step S301).
  • the first indicator coordinate calculation unit 341 is a first instruction that is a coordinate of a position closest to the indicator on the first touch input surface 11 based on the position of the indicator acquired by the indicator position detection unit 33.
  • Body coordinates are calculated (step S302).
  • the second pointer coordinate calculation unit 342 is a second coordinate of a position closest to the pointer on the second touch input surface 21 based on the position of the pointer acquired by the pointer position detection unit 33.
  • the pointer coordinates of the target are calculated (step S303).
  • the determination unit 343 confirms whether or not the first touch coordinates have been received from the first touch coordinate acquisition unit 31 (step S304). If determination unit 343 receives the first touch coordinates (YES in step S304), determination unit 343 receives the second touch coordinates before the threshold time has elapsed since the reception of the first touch coordinates. Whether or not it is confirmed (step S305). If the second touch coordinates are not received before the threshold time elapses from the reception of the first touch coordinates (NO in step S305), the determination unit 343 instructs the operation target device 40 to perform the first touch coordinates acquisition unit. The first touch coordinates received from 31 are output (step S306).
  • step S307 the determination unit 343 determines the validity of each of the first and second touches. After executing the "validity determination process" to be determined (step S307), the process returns to step S301.
  • FIG. 9 is a flowchart showing the validity determination process.
  • the determination unit 343 determines a first instruction in a predetermined time immediately before the first touch is performed, based on the history of the first indicator coordinates calculated by the first indicator coordinate calculation unit 341. The amount of change in body coordinates is calculated (step S401).
  • the determination unit 343 changes the second indicator coordinate change during a predetermined time immediately before the second touch is performed, from the history of the second indicator coordinates calculated by the second indicator coordinate calculation unit 342. The amount is calculated (step S402).
  • the determination unit 343 compares the amount of change in the first indicator coordinates calculated in step S401 with the amount of change in the second indicator coordinates calculated in step S402 (step S403). As a result, when the amount of change in the first indicator coordinates is smaller (YES in step S404), determination unit 343 determines that the first touch is valid and the second touch is invalid (step S405). , And outputs only the first touch coordinates acquired from the first touch coordinate acquisition unit 31 to the operation target device 40 (step S406).
  • step S404 determines that the change amount of the second indicator coordinates is smaller (NO in step S404)
  • the determination unit 343 determines that the second touch is valid and the first touch is invalid (step S407)
  • Only the second touch coordinates acquired from the second touch coordinate acquisition unit 32 are output to the operation target device 40 (step S408).
  • the determination unit 343 confirms whether or not the second touch coordinates are received from the second touch coordinate acquisition unit 32 (step S308).
  • determination unit 343 receives the second touch coordinates (YES in step S308)
  • determination unit 343 receives the first touch coordinates before the threshold time has elapsed from the reception of the second touch coordinates. Whether or not it is confirmed (step S309). If the first touch coordinates are not received before the threshold time elapses from the reception of the second touch coordinates (NO in step S309), the determination unit 343 instructs the operation target device 40 to perform the second touch coordinates acquisition unit.
  • the second touch coordinates acquired from 32 are output (step S310).
  • the determination unit 343 determines the validity of each of the first and second touches. After executing the validity determination process to be determined (step S311), the process returns to step S301.
  • step S311 Since the validity determination process of step S311 is the same as the validity determination process (FIG. 9) of step S307, the description here is omitted. If NO in step S308, that is, if neither the first touch coordinate nor the second touch coordinate has been received, the process returns to step S301.
  • the touch operation determination device 30 of the first embodiment when the first touch and the second touch are performed almost simultaneously, the first and second touches are not performed. Based on the time-series change in the position of the indicator (specifically, the amount of change in the first indicator coordinates and the second indicator coordinates), the activation of each of the first touch and the second touch Sex is determined. Therefore, it is not necessary to set the priority on each of the first touch input surface and the second touch input surface, and it is possible to prevent deviation in determination of the effectiveness of each of the first touch and the second touch. It is done. Therefore, the determination of the effectiveness of the touch can be made more in line with the intention of the operator.
  • FIG. 10 and 11 each show an example of the hardware configuration of the touch operation determination device 30.
  • Each element (the first touch coordinate acquisition unit 31, the second touch coordinate acquisition unit 32, the indicator position detection unit 33, and the validity determination unit 34) of the touch operation determination device 30 illustrated in FIG. This is realized by the processing circuit 50 shown in FIG.
  • the processing circuit 50 detects the position of the pointer in the space in which the touch input device 100 having the first touch input surface 11 and the second touch input surface 21 is disposed, and A first touch coordinate acquisition unit 31 for acquiring a first touch coordinate indicating a position of the first touch that is a touch of the indicator on the first touch input surface 11, and an indicator for the second touch input surface 21 A second touch coordinate acquisition unit 32 for acquiring a second touch coordinate indicating a position of the second touch, which is a touch of a second touch, and a time threshold between the first touch and the second touch being predetermined If it is shorter than time, the effectiveness of each of the first touch and the second touch is determined based on the chronological change of the position of the indicator before the first touch and the second touch are performed.
  • Judgment of validity Comprises a section 34, the.
  • a dedicated hardware may be applied to the processing circuit 50, and a processor (central processing unit (CPU: Central Processing Unit), processing unit, arithmetic unit, microprocessor, microprocessor, etc. that executes a program stored in the memory).
  • CPU Central Processing Unit
  • a computer or DSP also called Digital Signal Processor
  • the processing circuit 50 may be, for example, a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, an application specific integrated circuit (ASIC), an FPGA (field-programmable) This corresponds to Gate Array) or a combination thereof.
  • ASIC application specific integrated circuit
  • FPGA field-programmable This corresponds to Gate Array
  • Each function of each element of touch operation determination device 30 may be realized by a plurality of processing circuits, or those functions may be realized collectively by one processing circuit.
  • FIG. 11 shows the hardware configuration of the touch operation determination device 30 when the processing circuit 50 is configured using a processor.
  • the function of each element of the touch operation determination device 30 is realized by a combination of software or the like (software, firmware, or software and firmware).
  • Software and the like are described as a program and stored in the memory 52.
  • the processor 51 as the processing circuit 50 reads out and executes a program stored in the memory 52 to realize the functions of the respective units.
  • the touch operation determination device 30 is a pointer in the space in which the touch input device 100 having the first touch input surface 11 and the second touch input surface 21 is disposed.
  • the memory 52 is non-volatile or non-volatile such as, for example, random access memory (RAM), read only memory (ROM), flash memory, erasable programmable read only memory (EPROM), electrically erasable programmable read only memory (EEPROM). Volatile semiconductor memory, HDD (Hard Disk Drive), magnetic disk, flexible disk, optical disk, compact disk, mini disk, DVD (Digital Versatile Disc), its drive device, etc., or any storage medium used in the future May be
  • RAM random access memory
  • ROM read only memory
  • EPROM erasable programmable read only memory
  • EEPROM electrically erasable programmable read only memory
  • the present invention is not limited to this, and a part of the elements of the touch operation determination device 30 may be realized by dedicated hardware, and another part may be realized by software or the like.
  • the function is realized by the processing circuit 50 as dedicated hardware for some elements, and the processing circuit 50 as the processor 51 reads a program stored in the memory 52 for other elements. It is possible to realize the function by executing it.
  • the touch operation determination device 30 can realize the above-described functions by hardware, software, or the like, or a combination thereof.
  • FIG. 12 is a functional block diagram showing the configuration of the touch operation system according to the second embodiment.
  • the touch operation system shown in FIG. 12 is different from the configuration shown in FIG. 1 in the first indicator coordinate calculation unit 341 and the second indicator coordinate calculation unit 342 of the validity determination unit 34, respectively. 344 and the second incident angle calculation unit 345 are replaced.
  • the first incident angle calculation unit 344 sets the incident angle of the indicator on the first touch input surface 11 based on the time-series change of the position of the indicator detected by the indicator position detection unit 33 (hereinafter referred to as “the Calculate the incident angle of 1).
  • the second incident angle calculation unit 345 sets the incident angle of the indicator on the second touch input surface 21 based on the time-series change of the position of the indicator detected by the indicator position detection unit 33 (hereinafter referred to as “the Calculate the incident angle of 2).
  • the first incident angle calculation unit 344 determines the movement direction of the hand 500 of the operator.
  • An angle ⁇ 1 formed with the first touch input surface 11 is calculated as a first incident angle.
  • the second incident angle calculation unit 345 calculates an angle ⁇ 2 formed by the movement direction of the hand 500 of the operator and the second touch input surface 21 as a second incident angle.
  • the operator of the touch panel tends to press the finger perpendicular to the touch input surface. Therefore, when the operator tries to touch the first touch input surface 11, the operator's hand 500 moves substantially perpendicularly to the first touch input surface 11, as shown in FIG. In this case, the first incident angle ( ⁇ 1) becomes larger (closer to the perpendicular). Although illustration is omitted, when the operator tries to touch the second touch input surface 21, the operator's hand 500 moves substantially perpendicularly to the second touch input surface 21, so the second The incident angle ( ⁇ 2) increases.
  • determination unit 343 determines that the time between the first touch on first touch input surface 11 and the second touch on second touch input surface 21 is shorter than the threshold time. Then, the first incident angle when the first touch is performed is compared with the second incident angle when the second touch is performed. As a result, if the first incident angle is larger, the determination unit 343 determines that the first touch is valid and the second touch is invalid. Conversely, if the second incident angle is larger, the determination unit 343 determines that the second touch is valid and the first touch is invalid.
  • step S307 and step S311 the validity determination process shown in FIG. 14 is executed.
  • the determination unit 343 performs the first touch when the first touch is performed from the history of the first indicator coordinates calculated by the first incident angle calculation unit 344.
  • the incident angle of is calculated (step S501).
  • the determination unit 343 calculates a second incident angle when the second touch is performed, from the history of the second indicator coordinates calculated by the second incident angle calculation unit 345 (step S502). .
  • the determination unit 343 compares the first incident angle calculated in step S501 with the second incident angle calculated in step S502 (step S503). As a result, if the first incident angle is larger (YES in step S504), the determination unit 343 determines that the first touch is valid and the second touch is invalid (step S505). Only the first touch coordinates acquired from the touch coordinate acquisition unit 31 are output to the operation target device 40 (step S506). On the other hand, if the second incident angle is larger (NO in step S504), the determination unit 343 determines that the second touch is valid and the first touch is invalid (step S507), and the second touch is performed. Only the second touch coordinates acquired from the coordinate acquisition unit 32 are output to the operation target device 40 (step S508).
  • either of the first touch and the second touch may be invalidated.
  • the first touch may always be disabled, or the second touch may always be disabled (in FIG. 14, since NO in step S504, the first touch is always disabled). Touch is disabled). A bias of this degree of judgment is considered to be acceptable.
  • the first one of the first and second touches may be invalidated, or the later one may be invalidated.
  • the touch operation determination device 30 of the second embodiment when the first touch and the second touch are performed almost simultaneously, the first and second touches are not performed.
  • the effectiveness of each of the first touch and the second touch is determined based on the first and second incident angles calculated from the time-series change of the position of the indicator. Therefore, it is not necessary to set the priority on each of the first touch input surface and the second touch input surface, and it is possible to prevent deviation in determination of the effectiveness of each of the first touch and the second touch. It is done. Therefore, the determination of the effectiveness of the touch can be made more in line with the intention of the operator.
  • FIG. 15 is a functional block diagram showing the configuration of the touch operation system according to the third embodiment.
  • the touch operation system of FIG. 15 adds the first display screen 13 and the second display screen 23 to the touch input device 100 and the display control unit 35 to the touch operation determination device 30 in the configuration of FIG. It has become a thing.
  • the first display screen 13 and the second display screen 23 of the touch input device 100 are, for example, liquid crystal display devices.
  • the first touch input surface 11 of the first touch panel 10 is transparent and disposed on the first display screen 13.
  • the second touch input surface 21 of the second touch panel 20 is transparent and disposed on the first display screen 13. That is, the first touch panel 10 and the first display screen 13, and the second touch panel 20 and the second display screen 23 constitute a touch panel monitor having both an image display function and a touch operation function. .
  • the display control unit 35 of the touch operation determination device 30 inputs the video signal output from the operation target device 40 to the first display screen 13 and the second display screen 23 to obtain the first display screen 13 and the second display screen 23.
  • the image is displayed on the display screen 23 of FIG.
  • the present invention is also applicable to the touch input device 100 provided with two touch panel monitors.
  • 15 shows an example in which the display control unit 35 is added to the first display screen 13, the second display screen 23, and the touch operation system of FIG. 1, but the third embodiment is not limited to this.
  • a combination with the touch operation system of mode 2 (FIG. 12) is also possible.
  • the operation target device 40 may be plural.
  • a touch panel monitor (hereinafter referred to as “first touch panel monitor”) consisting of the first touch panel 10 and the first display screen 13, and a touch panel consisting of the second touch panel 20 and the second display screen 23 A monitor (hereinafter, referred to as “second touch panel monitor”) may be used to display the operation screen of the operation target device 40 different from one another.
  • first touch panel monitor displays the operation screen of the navigation device
  • the second touch panel monitor displays the operation screen of the audio display device.
  • the first touch panel monitor and the second touch panel monitor may be used to display operation screens of different applications.
  • the first touch panel monitor may display an operation screen of an application for navigation
  • the second touch panel monitor may display an operation screen of an application for reproducing video and music.
  • first touch panel monitor and the second touch panel monitor may be used to display the operation screen of the same application. That is, the first touch panel monitor and the second touch panel monitor may be used to display operation screens of different attributes of the same application.
  • first touch panel monitor is used to display and operate a map of an application for navigation
  • second touch panel monitor displays an operation screen for facility search of the application.
  • first display screen 13 and the second display screen 23 may be provided in the touch input device 100.
  • the touch input device 100 is also assumed to be capable of noncontact gesture operation in which an operator can input an operation without directly touching the first touch input surface 11 and the second touch input surface 21. It is unlikely that a normal (contact) touch operation is performed on the first touch input surface 11 or the second touch input surface 21 while the operator performs a noncontact gesture operation. Therefore, it is effective when the first touch on the first touch input surface 11 and the second touch on the second touch input surface 21 are detected while the non-contact gesture operation is performed by the operator.
  • the sex determination unit 34 may invalidate both of them.
  • the “threshold time” (the threshold of the time difference between the first touch and the second touch), which is the determination criterion of whether to perform the effectiveness determination process, It may be changed according to the traveling state of the vehicle. For example, when the vehicle is traveling, an erroneous touch is likely to occur due to the shaking of the vehicle, so it is preferable to increase the threshold time to increase the detection sensitivity of the erroneous touch.
  • the threshold time may be changed according to the traveling speed of the vehicle. For example, as the traveling speed of the vehicle is higher, it is more difficult for the operator (driver) to direct awareness to the operation of the touch input device 100, and erroneous touch is more likely to occur. Therefore, it is preferable to increase the threshold time to increase the detection sensitivity of the erroneous touch as the traveling speed of the vehicle increases.
  • FIG. 2 shows an example in which the first touch input surface 11 and the second touch input surface 21 of the touch input device 100 are vertically arranged, they may be arranged horizontally.
  • At least one of the first touch input surface 11 and the second touch input surface 21 may be curved. Even when the first touch input surface 11 or the second touch input surface 21 has a curved shape, erroneous touch is likely to occur, and thus the application of the present invention is effective.
  • each embodiment can be freely combined, or each embodiment can be appropriately modified or omitted.
  • SYMBOLS 100 touch input device, 10 1st touch panel, 11 1st touch input surface, 12 1st touch coordinate detection part, 13 1st display screen, 20 2nd touch panel, 21 2nd touch input surface, 22 Second touch coordinate detection unit, 23 second display screen, 30 touch operation determination device, 31 first touch coordinate acquisition unit, 32 second touch coordinate acquisition unit, 33 indicator position detection unit, 34 validity determination Unit, 35 display control unit, 341 first pointer coordinate operation unit, 342 second pointer coordinate operation unit, 343 determination unit, 344 first incident angle operation unit, 345 second incident angle operation unit, 40 Operation target device, 500 operator's hand.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

タッチ操作判定装置(30)は、第1のタッチ入力面(11)および第1のタッチ座標検出部(12)を有するタッチ入力装置(100)が配置された空間内における指示体の位置を検出する指示***置検出部(33)と、第1のタッチ入力面(11)に対する第1のタッチおよび第2のタッチ入力面(21)に対する第2のタッチの有効性を判定する有効性判定部(34)とを備える。有効性判定部(34)は、第1のタッチと第2のタッチとの間の時間が予め定められた閾値時間よりも短い場合に、第1のタッチおよび第2のタッチが行われる前の指示体の位置の時系列的な変化に基づいて、第1のタッチおよび第2のタッチの有効性を判定する。

Description

タッチ操作判定装置およびタッチ操作の有効性判定方法
 本発明は、2つのタッチ入力面を持つタッチ入力装置に対する誤操作を防止する技術に関する。
 2つのタッチ入力面を有するタッチ入力装置が知られている。例えば下記の特許文献1には、それぞれがタッチ入力面として機能する2つの画面を備える車両用表示装置が開示されている。特許文献1の車両用表示装置では、2つの画面の一方の優先度が高く設定されており、操作者により2つの画面がほぼ同時にタッチされた場合に、優先度の低い方の画面へのタッチを無効にすることで、誤操作を防止している。
特開2016-109505号公報
 特許文献1の技術では、タッチの有効性の判定が2つの画面(タッチ入力面)の優先度に依存するため、その判定に偏りがある。つまり、2つの画面がほぼ同時にタッチされると、常に優先度の低い画面へのタッチが無効になる。そのため、タッチの有効性の判定結果が、操作者の意図と異なるものになることが考えられる。具体的には、操作者が優先度の高い画面にタッチするときに優先度の低い画面に誤タッチした場合は、操作者の意図に合った判定結果となるが、反対に、操作者が優先度の低い画面にタッチするときに優先度の高い画面に誤タッチした場合は、操作者の意図に反した判定結果となる。
 本発明は以上のような課題を解決するためになされたものであり、2つのタッチ入力面に対するタッチの有効性を判定するタッチ操作判定装置において、その判定の偏りをなくし、より操作者の意図に沿った判定を可能にすること目的とする。
 本発明に係るタッチ操作判定装置は、第1のタッチ入力面および第2のタッチ入力面を有するタッチ入力装置が配置された空間内における指示体の位置を検出する指示***置検出部と、第1のタッチ入力面に対する指示体のタッチである第1のタッチの位置を示す第1のタッチ座標を取得する第1のタッチ座標取得部と、第2のタッチ入力面に対する指示体のタッチである第2のタッチの位置を示す第2のタッチ座標を取得する第2のタッチ座標取得部と、第1のタッチと第2のタッチとの間の時間が予め定められた閾値時間よりも短い場合に、第1のタッチおよび第2のタッチが行われる前の指示体の位置の時系列的な変化に基づいて、第1のタッチおよび第2のタッチのそれぞれの有効性を判定する有効性判定部と、を備える。
 本発明によれば、第1のタッチ入力面に対する第1のタッチと第2のタッチ入力面に対する第2のタッチとがほぼ同時に行われた場合に、第1および第2のタッチが行われる前における指示体の位置の時系列的な変化に基づいて、第1および第2のタッチのそれぞれの有効性が判定される。第1および第2のタッチ入力面に優先度を設定する必要がなく、第1および第2のタッチのそれぞれの有効性の判定に偏りが生じることが防止される。その結果、タッチの有効性の判定結果を、より操作者の意図に沿ったものにできる。
 本発明の目的、特徴、態様、および利点は、以下の詳細な説明と添付図面とによって、より明白となる。
実施の形態1に係るタッチ操作システムの構成を示す機能ブロック図である。 タッチ入力装置の例を示す図である。 タッチ入力装置の例を示す図である。 第1および第2の指示体座標演算部の動作を説明するための図である。 判定部の動作を説明するための図である。 第1のタッチ座標取得部の動作を示すフローチャートである。 第2のタッチ座標取得部の動作を示すフローチャートである。 指示***置検出部および有効性判定部の動作を示すフローチャートである。 実施の形態1における有効性判定処理を示すフローチャートである。 タッチ操作判定装置のハードウェア構成の例を示す図である。 タッチ操作判定装置のハードウェア構成の例を示す図である。 実施の形態2に係るタッチ操作システムの構成を示す機能ブロック図である。 第1および第2の入射角演算部ならびに判定部の動作を説明するための図である。 実施の形態2における有効性判定処理を示すフローチャートである。 実施の形態3に係るタッチ操作システムの構成を示す機能ブロック図である。 タッチ入力装置の変形例を示す図である。
 <実施の形態1>
 図1は、実施の形態1に係るタッチ操作システムの構成を示す機能ブロック図である。図1に示すように、当該タッチ操作システムは、第1のタッチパネル10および第2のタッチパネル20を備えるタッチ入力装置100と、タッチ操作判定装置30と、操作対象装置40とを含んでいる。
 タッチ入力装置100の第1のタッチパネル10は、操作者のタッチ操作を受け付ける第1のタッチ入力面11と、第1のタッチ入力面11における操作者のタッチ位置を示す座標を検出する第1のタッチ座標検出部12とを備えている。同様に、タッチ入力装置100の第2のタッチパネル20は、操作者のタッチ操作を受け付ける第2のタッチ入力面21と、第2のタッチ入力面21における操作者のタッチ位置を示す座標を検出する第2のタッチ座標検出部22とを備えている。
 ここで、操作者が第1のタッチパネル10および第2のタッチパネル20にタッチするための指示体は、指示体を操作者の手とするが、例えばスタイラスペンなどでもよい。
 図2および図3に、タッチ入力装置100の例を示す。第1のタッチ入力面11および第2のタッチ入力面21はそれぞれ平面であり、第1のタッチ入力面11と第2のタッチ入力面21とは180°未満の角度を成している。また、図2および図3には、操作者が手500の人差し指で第1のタッチ入力面11をタッチしようとした際に、誤って親指が第2のタッチ入力面21に接触し、第2のタッチ入力面21に対する誤タッチが生じた例を示している。この場合、第1のタッチ座標検出部12は、第1のタッチ入力面11における操作者の手500のタッチ位置P1の座標を検出し、第2のタッチ座標検出部22は、第2のタッチ入力面21における操作者の手500のタッチ位置P2の座標を検出する。第1のタッチ入力面11と第2のタッチ入力面21とが180°未満の角度を成す場合には、上記のような誤タッチが生じやすい。誤タッチは、親指に限らず、折り曲げた小指や手のひらなどによっても引き起こされる。
 以下の説明では、第1のタッチ入力面11に対する操作者のタッチを「第1のタッチ」といい、第1のタッチの位置を示す座標を「第1のタッチ座標」という。また、第2のタッチ入力面21に対する操作者のタッチを「第2のタッチ」といい、第2のタッチの位置を示す座標を「第2のタッチ座標」という。
 図1に戻り、タッチ操作判定装置30は、第1のタッチ座標取得部31と、第2のタッチ座標取得部32と、指示***置検出部33と、有効性判定部34とを備えている。
 第1のタッチ座標取得部31は、タッチ入力装置100の第1のタッチ座標検出部12から、第1のタッチ入力面11に対する第1のタッチの有無と、第1のタッチの位置を示す第1のタッチ座標の情報とを取得する。第2のタッチ座標取得部32は、タッチ入力装置100の第2のタッチ座標検出部22から、第2のタッチ入力面21に対する第2のタッチの有無と、第2のタッチの位置を示す第2のタッチ座標の情報とを取得する。
 指示***置検出部33は、タッチ入力装置100が配置された空間内における指示体(操作者の手500)の位置を検出する。指示体の位置の検出方法としては、例えば、カメラ(不図示)が撮影した操作者の映像を解析する方法や、センサ(不図示)が測定した指示体の方向および距離を解析する方法などが考えられる。
 有効性判定部34は、第1のタッチ座標取得部31が取得した第1のタッチ座標、および、第2のタッチ座標取得部32が取得した第2のタッチ座標を、タッチ操作の対象である操作対象装置40へ出力する。ただし、有効性判定部34は、第1のタッチと第2のタッチとの間の時間が予め定められた閾値時間よりも短い場合(つまり、第1のタッチと第2のタッチとがほぼ同時に行われた場合)には、第1および第2のタッチのそれぞれの有効性を判定し、有効と判定した方のタッチ位置を示す座標のみを、操作対象装置40へ出力する。第1および第2のタッチの有効性は、第1および第2のタッチが行われる前における指示体の位置の時系列的な変化に基づいて判定される。
 有効性判定部34は、第1の指示体座標演算部341、第2の指示体座標演算部342および判定部343を備えている。
 第1の指示体座標演算部341は、第1のタッチ入力面11が配置された位置を予め認識しており、指示***置検出部33が検出した指示体の位置に基づいて、第1のタッチ入力面11における指示体から最も近い位置の座標(以下「第1の指示体座標」という)を算出する。第2の指示体座標演算部342は、第2のタッチ入力面21が配置された位置を予め認識しており、指示***置検出部33が検出した指示体の位置に基づいて、第2のタッチ入力面21における指示体から最も近い位置の座標(以下「第2の指示体座標」という)を算出する。また、第1および第2の指示体座標演算部341,342は、第1および第2の指示体座標の履歴、すなわち時系列的な変化を、それぞれ一定時間分だけ保持する。
 例えば、タッチ入力装置100と指示体である操作者の手500とが、図4に示す位置関係である場合、第1の指示体座標演算部341は、第1のタッチ入力面11における操作者の手500から最も近い位置Q1を示す座標を、第1の指示体座標として算出する。また、第2の指示体座標演算部342は、第2のタッチ入力面21における操作者の手500から最も近い位置Q2を示す座標を、第2の指示体座標として算出する。
 判定部343は、第1のタッチと第2のタッチとの間の時間が閾値時間よりも短い場合に、第1の指示体座標演算部341が算出した第1の指示体座標の時系列的な変化と、第2の指示体座標演算部342が算出した第2の指示体座標の時系列的な変化とに基づいて、第1のタッチおよび第2のタッチそれぞれの有効性を判定する。
 一般に、タッチパネルの操作者は、タッチ入力面に対して垂直に指を押し当てる傾向にある。そのため、操作者が第1のタッチ入力面11にタッチしようとするときは、図5のように、操作者の手500が第1のタッチ入力面11に対してほぼ垂直に移動する。この場合、第1の指示体座標(位置Q1)は殆ど変化せず、第2の指示体座標(位置Q2)は大きく変化する。図示は省略するが、操作者が第2のタッチ入力面21にタッチしようとするときは、操作者の手500は第2のタッチ入力面21に対してほぼ垂直に移動するため、第2の指示体座標(位置Q2)は殆ど変化せず、第1の指示体座標(位置Q1)は大きく変化する。
 そこで、判定部343は、第1のタッチが行われた直前の一定時間における第1の指示体座標の変化量と、第2のタッチが行われた直前の一定時間における第2の指示体座標の変化量とを比較し、変化量の小さい方に対応するタッチを有効、変化量の大きい方に対応するタッチを無効にする。すなわち、第1の指示体座標の変化量の方が小さければ、判定部343は、第1のタッチを有効、第2のタッチを無効と判定する。逆に、第2の指示体座標の変化量の方が小さければ、判定部343は、第2のタッチを有効、第1のタッチを無効と判定する。
 なお、第1の指示体座標の変化量と第2の指示体座標の変化量とが等しい場合には、第1のタッチと第2のタッチのどちらが無効にされてもよい。例えば、常に第1のタッチが無効にされるようにしてもよいし、第2のタッチが無効にされるようにしてもよい。この程度の判定の偏りは許容できるものと考えられる。また、例えば、第1および第2のタッチのうちの先に行われた方を無効にしてもよいし、後に行われた方を無効にしてもよい。
 ここで、図1に示した操作対象装置40は、タッチ入力装置100を用いたタッチ操作の対象となり得る装置であれば任意の装置でよい。例えば、タッチ操作システムが車両に搭載される場合、操作対象装置40としてはナビゲーション装置やオーディオディスプレイ装置などが想定される。
 操作対象装置40は複数であってもよい。その場合、第1のタッチパネル10と第2のタッチパネル20とが、それぞれ異なる操作対象装置40の操作に用いられてもよい。例えば、第1のタッチパネル10がナビゲーション装置の操作に用いられ、第2のタッチパネル20がオーディオディスプレイ装置の操作に用いられる形態が考えられる。
 操作対象装置40が複数のアプリケーションを実行であれば、第1のタッチパネル10と第2のタッチパネル20とが、それぞれ異なるアプリケーションの操作に用いられてもよい。例えば、第1のタッチパネル10がナビゲーション用のアプリケーションの操作に用いられ、第2のタッチパネル20が映像や音楽の再生を行うアプリケーションの操作に用いられる形態が考えられる。
 もちろん、第1のタッチパネル10と第2のタッチパネル20とが、同じアプリケーションの操作に用いられてもよい。すなわち、第1のタッチパネル10と第2のタッチパネル20とが、同じアプリケーションの異なる属性の操作に用いられてもよい。例えば、第1のタッチパネル10がナビゲーション用のアプリケーションの地図操作に用いられ、第2のタッチパネル20が同アプリケーションの施設検索の操作に用いられる形態が考えられる。
 また、図1においては、タッチ入力装置100、タッチ操作判定装置30および操作対象装置40をそれぞれ個別のブロックで示したが、これらのうちの2つ以上が一体的に構成されていてもよい。例えば、タッチ入力装置100がタッチ操作判定装置30を内蔵してもよい。また、タッチ操作システムがスマートフォンなどの携帯型装置に適用される場合には、タッチ入力装置100、タッチ操作判定装置30および操作対象装置40の全てが1つの筐体に収められて一体的な構成となる。
 以下、図6~図9のフローチャートに基づいて、タッチ操作判定装置30の各要素の動作を説明する。
 図6は、第1のタッチ座標取得部31の動作を示すフローチャートである。図6に基づき、第1のタッチ座標取得部31の動作を説明する。
 まず、第1のタッチ座標取得部31は、第1のタッチ座標検出部12の出力信号に基づいて、第1のタッチ入力面11に対する操作者のタッチ(第1のタッチ)の有無を判定する(ステップS101)。第1のタッチが行われていなければ(ステップS101でNO)、ステップS101が繰り返される。また、第1のタッチが行われると(ステップS101でYES)、第1のタッチ座標取得部31は、第1のタッチ座標検出部12から第1のタッチの位置を示す第1のタッチ座標を取得する(ステップS102)。そして、第1のタッチ座標取得部31は、取得した第1のタッチ座標を判定部343へ送信して(ステップS103)、ステップS101へ戻る。
 図7は、第2のタッチ座標取得部32の動作を示すフローチャートである。図7に基づき、第2のタッチ座標取得部32の動作を説明する。
 まず、第2のタッチ座標取得部32は、第2のタッチ座標検出部22の出力信号に基づいて、第2のタッチ入力面21に対する操作者のタッチ(第2のタッチ)の有無を判定する(ステップS201)。第2のタッチが行われていなければ(ステップS201でNO)、ステップS201が繰り返される。また、第2のタッチが行われると(ステップS201でYES)、第2のタッチ座標取得部32は、第2のタッチ座標検出部22から第2のタッチの位置を示す第2のタッチ座標を取得する(ステップS202)。そして、第2のタッチ座標取得部32は、取得した第2のタッチ座標を判定部343へ送信して(ステップS203)、ステップS201へ戻る。
 以下の説明では、簡単のため、第1のタッチ入力面11に第1のタッチがなされてから、その位置を示す第1のタッチ座標が判定部343に受信されるまでの時間差、ならびに、第2のタッチ入力面21に第2のタッチがなされてから、その位置を示す第2のタッチ座標が判定部343に受信されるまでの時間差を無視する。つまり、第1のタッチ入力面11に第1のタッチが行われると同時に第1のタッチ座標が判定部343に受信され、第2のタッチ入力面21に第2のタッチが行われると同時に第2のタッチ座標が判定部343に受信されるものとみなす。
 図8は、指示***置検出部33および有効性判定部34の動作を示すフローチャートである。図8に基づき、指示***置検出部33および有効性判定部34の動作を説明する。
 まず、指示***置検出部33が、タッチ入力装置100が配置された空間内における指示体(操作者の手500)の位置を取得する(ステップS301)。第1の指示体座標演算部341は、指示***置検出部33が取得した指示体の位置に基づいて、第1のタッチ入力面11における指示体から最も近い位置の座標である第1の指示体座標を算出する(ステップS302)。また、第2の指示体座標演算部342は、指示***置検出部33が取得した指示体の位置に基づいて、第2のタッチ入力面21における指示体から最も近い位置の座標である第2の指示体座標を算出する(ステップS303)。
 次に、判定部343は、第1のタッチ座標取得部31から第1のタッチ座標を受信したか否かを確認する(ステップS304)。判定部343が第1のタッチ座標を受信していれば(ステップS304でYES)、判定部343は、第1のタッチ座標の受信から閾値時間が経過する前に第2のタッチ座標を受信したか否かを確認する(ステップS305)。第1のタッチ座標の受信から閾値時間が経過する前に第2のタッチ座標を受信しなければ(ステップS305でNO)、判定部343は、操作対象装置40へ、第1のタッチ座標取得部31から受信した第1のタッチ座標を出力する(ステップS306)。しかし、第1のタッチ座標の受信から閾値時間が経過する前に第2のタッチ座標を受信すれば(ステップS305でYES)、判定部343は、第1および第2のタッチそれぞれの有効性を判定する「有効性判定処理」を実行した後(ステップS307)、ステップS301へ戻る。
 図9は、有効性判定処理を示すフローチャートである。有効性判定処理では、判定部343は、第1の指示体座標演算部341が算出した第1の指示体座標の履歴から、第1のタッチが行われた直前の一定時間における第1の指示体座標の変化量を算出する(ステップS401)。また、判定部343は、第2の指示体座標演算部342が算出した第2の指示体座標の履歴から、第2のタッチが行われた直前の一定時間における第2の指示体座標の変化量を算出する(ステップS402)。
 次に、判定部343は、ステップS401で算出した第1の指示体座標の変化量と、ステップS402で算出した第2の指示体座標の変化量とを比較する(ステップS403)。その結果、第1の指示体座標の変化量の方が小さければ(ステップS404でYES)、判定部343は、第1のタッチを有効、第2のタッチを無効と判定して(ステップS405)、第1のタッチ座標取得部31から取得した第1のタッチ座標のみを操作対象装置40へと出力する(ステップS406)。一方、第2の指示体座標の変化量の方が小さければ(ステップS404でNO)、判定部343は、第2のタッチを有効、第1のタッチを無効と判定して(ステップS407)、第2のタッチ座標取得部32から取得した第2のタッチ座標のみを操作対象装置40へと出力する(ステップS408)。
 図8へ戻り、ステップS304でNOと判定された場合、判定部343は、第2のタッチ座標取得部32から第2のタッチ座標を受信したか否かを確認する(ステップS308)。判定部343が第2のタッチ座標が受信していれば(ステップS308でYES)、判定部343は、第2のタッチ座標の受信から閾値時間が経過する前に第1のタッチ座標を受信したか否かを確認する(ステップS309)。第2のタッチ座標の受信から閾値時間が経過する前に第1のタッチ座標を受信しなければ(ステップS309でNO)、判定部343は、操作対象装置40へ、第2のタッチ座標取得部32から取得した第2のタッチ座標を出力する(ステップS310)。しかし、第2のタッチ座標の受信から閾値時間が経過する前に第1のタッチ座標を受信すれば(ステップS309でYES)、判定部343は、第1および第2のタッチそれぞれの有効性を判定する有効性判定処理を実行した後(ステップS311)、ステップS301へ戻る。
 ステップS311の有効性判定処理は、ステップS307の有効性判定処理(図9)と同様であるので、ここでの説明は省略する。なお、ステップS308でNOと判定された場合、すなわち第1のタッチ座標も第2のタッチ座標も受信していない場合には、そのままステップS301へと戻る。
 以上のように、実施の形態1のタッチ操作判定装置30によれば、第1のタッチと第2のタッチとがほぼ同時に行われた場合に、第1および第2のタッチが行われる前の指示体の位置の時系列的な変化(具体的には、第1の指示体座標および第2の指示体座標の変化量)に基づいて、第1のタッチおよび第2のタッチのそれぞれの有効性が判定される。そのため、第1のタッチ入力面および第2のタッチ入力面のそれぞれに優先度を設定する必要がなく、第1のタッチおよび第2のタッチのそれぞれの有効性の判定に偏りが生じることが防止されている。よって、タッチの有効性の判定を、より操作者の意図に沿ったものすることができる。
 図10および図11は、それぞれタッチ操作判定装置30のハードウェア構成の一例を示す図である。図1に示したタッチ操作判定装置30の各要素(第1のタッチ座標取得部31、第2のタッチ座標取得部32、指示***置検出部33および有効性判定部34)は、例えば図10に示す処理回路50により実現される。すなわち、処理回路50は、第1のタッチ入力面11および第2のタッチ入力面21を有するタッチ入力装置100が配置された空間内における指示体の位置を検出する指示***置検出部33と、第1のタッチ入力面11に対する指示体のタッチである第1のタッチの位置を示す第1のタッチ座標を取得する第1のタッチ座標取得部31と、第2のタッチ入力面21に対する指示体のタッチである第2のタッチの位置を示す第2のタッチ座標を取得する第2のタッチ座標取得部32と、第1のタッチと第2のタッチとの間の時間が予め定められた閾値時間よりも短い場合に、第1のタッチおよび第2のタッチが行われる前の指示体の位置の時系列的な変化に基づいて、第1のタッチおよび第2のタッチのそれぞれの有効性を判定する有効性判定部34と、を備える。処理回路50には、専用のハードウェアが適用されてもよいし、メモリに格納されるプログラムを実行するプロセッサ(中央処理装置(CPU:Central Processing Unit)、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、DSP(Digital Signal Processor)ともいう)が適用されてもよい。
 処理回路50が専用のハードウェアである場合、処理回路50は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、またはこれらを組み合わせたものなどが該当する。タッチ操作判定装置30の各要素の機能のそれぞれは、複数の処理回路で実現されてもよいし、それらの機能がまとめて一つの処理回路で実現されてもよい。
 図11は、処理回路50がプロセッサを用いて構成されている場合におけるタッチ操作判定装置30のハードウェア構成を示している。この場合、タッチ操作判定装置30の各要素の機能は、ソフトウェア等(ソフトウェア、ファームウェア、またはソフトウェアとファームウェア)との組み合わせにより実現される。ソフトウェア等はプログラムとして記述され、メモリ52に格納される。処理回路50としてのプロセッサ51は、メモリ52に記憶されたプログラムを読み出して実行することにより、各部の機能を実現する。すなわち、タッチ操作判定装置30は、処理回路50により実行されるときに、第1のタッチ入力面11および第2のタッチ入力面21を有するタッチ入力装置100が配置された空間内における指示体の位置を検出する処理と、第1のタッチ入力面11に対する指示体のタッチである第1のタッチの位置を示す第1のタッチ座標を取得する処理と、第2のタッチ入力面21に対する指示体のタッチである第2のタッチの位置を示す第2のタッチ座標を取得する処理と、第1のタッチと第2のタッチとの間の時間が予め定められた閾値時間よりも短い場合に、第1のタッチおよび第2のタッチが行われる前の指示体の位置の時系列的な変化に基づいて、第1のタッチおよび第2のタッチのそれぞれの有効性を判定する処理と、が結果的に実行されることになるプログラムを格納するためのメモリ52を備える。換言すれば、このプログラムは、タッチ操作判定装置30の各要素の動作の手順や方法をコンピュータに実行させるものであるともいえる。
 ここで、メモリ52は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリー、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)などの、不揮発性または揮発性の半導体メモリ、HDD(Hard Disk Drive)、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD(Digital Versatile Disc)およびそのドライブ装置等、または、今後使用されるあらゆる記憶媒体であってもよい。
 以上、タッチ操作判定装置30の各要素の機能が、ハードウェアおよびソフトウェア等のいずれか一方で実現される構成について説明した。しかしこれに限ったものではなく、タッチ操作判定装置30の一部の要素を専用のハードウェアで実現し、別の一部の要素をソフトウェア等で実現する構成であってもよい。例えば、一部の要素については専用のハードウェアとしての処理回路50でその機能を実現し、他の一部の要素についてはプロセッサ51としての処理回路50がメモリ52に格納されたプログラムを読み出して実行することによってその機能を実現することが可能である。
 以上のように、タッチ操作判定装置30は、ハードウェア、ソフトウェア等、またはこれらの組み合わせによって、上述の各機能を実現することができる。
 <実施の形態2>
 図12は、実施の形態2に係るタッチ操作システムの構成を示す機能ブロック図である。図12のタッチ操作システムは、図1の構成に対し、有効性判定部34の第1の指示体座標演算部341および第2の指示体座標演算部342を、それぞれ第1の入射角演算部344および第2の入射角演算部345に置き換えたものとなっている。
 第1の入射角演算部344は、指示***置検出部33が検出した指示体の位置の時系列的な変化に基づいて、第1のタッチ入力面11に対する指示体の入射角(以下「第1の入射角」という)を算出する。第2の入射角演算部345は、指示***置検出部33が検出した指示体の位置の時系列的な変化に基づいて、第2のタッチ入力面21に対する指示体の入射角(以下「第2の入射角」という)を算出する。
 例えば、タッチ入力装置100と指示体である操作者の手500との位置関係が、図13のように変化した場合、第1の入射角演算部344は、操作者の手500の移動方向と第1のタッチ入力面11とが成す角θ1を、第1の入射角として算出する。また、第2の入射角演算部345は、操作者の手500の移動方向と第2のタッチ入力面21とが成す角θ2を、第2の入射角として算出する。
 実施の形態1でも述べたように、タッチパネルの操作者は、タッチ入力面に対して垂直に指を押し当てる傾向にある。そのため、操作者が第1のタッチ入力面11にタッチしようとするときは、図13のように、操作者の手500は第1のタッチ入力面11に対してほぼ垂直に移動する。この場合、第1の入射角(θ1)は大きくなる(垂直に近くなる)。図示は省略するが、操作者が第2のタッチ入力面21にタッチしようとするときは、操作者の手500は第2のタッチ入力面21に対してほぼ垂直に移動するため、第2の入射角(θ2)が大きくなる。
 そこで、実施の形態2では、判定部343は、第1のタッチ入力面11に対する第1のタッチと第2のタッチ入力面21に対する第2のタッチとの間の時間が閾値時間よりも短い場合に、第1のタッチが行われたときの第1入射角と、第2のタッチが行われたときの第2入射角とを比較する。その結果、第1入射角の方が大きければ、判定部343は、第1のタッチを有効、第2のタッチを無効と判定する。逆に、第2入射角の方が大きければ、判定部343は、第2のタッチを有効、第1のタッチを無効と判定する。
 実施の形態2のタッチ操作判定装置30の動作は、図8と同様である。ただし、ステップS307およびステップS311では、図14に示す有効性判定処理が実行される。
 図14の有効性判定処理においては、まず、判定部343は、第1の入射角演算部344が算出した第1の指示体座標の履歴から、第1のタッチが行われたときの第1の入射角を算出する(ステップS501)。また、判定部343は、第2の入射角演算部345が算出した第2の指示体座標の履歴から、第2のタッチが行われたときの第2の入射角を算出する(ステップS502)。
 次に、判定部343は、ステップS501で算出した第1の入射角と、ステップS502で算出した第2の入射角とを比較する(ステップS503)。その結果、第1の入射角の方が大きければ(ステップS504でYES)、判定部343は、第1のタッチを有効、第2のタッチを無効と判定して(ステップS505)、第1のタッチ座標取得部31から取得した第1のタッチ座標のみを操作対象装置40へと出力する(ステップS506)。一方、第2の入射角の方が大きければ(ステップS504でNO)、判定部343は、第2のタッチを有効、第1のタッチを無効と判定して(ステップS507)、第2のタッチ座標取得部32から取得した第2のタッチ座標のみを操作対象装置40へと出力する(ステップS508)。
 なお、第1の入射角と第2の入射角とが等しい場合には、第1のタッチと第2のタッチのどちらが無効にされてもよい。例えば、常に第1のタッチが無効にされるようにしてもよいし、常に第2のタッチが無効にされるようにしてもよい(図14では、ステップS504でNOとなるため、常に第1のタッチが無効になる)。この程度の判定の偏りは許容できるものと考えられる。また、例えば、第1および第2のタッチのうちの先に行われた方を無効にしてもよいし、後に行われた方を無効にしてもよい。
 以上のように、実施の形態2のタッチ操作判定装置30によれば、第1のタッチと第2のタッチとがほぼ同時に行われた場合に、第1および第2のタッチが行われる前の指示体の位置の時系列的な変化から算出される第1および第2の入射角に基づいて、第1のタッチおよび第2のタッチのそれぞれの有効性が判定される。そのため、第1のタッチ入力面および第2のタッチ入力面のそれぞれに優先度を設定する必要がなく、第1のタッチおよび第2のタッチのそれぞれの有効性の判定に偏りが生じることが防止されている。よって、タッチの有効性の判定を、より操作者の意図に沿ったものすることができる。
 <実施の形態3>
 図15は、実施の形態3に係るタッチ操作システムの構成を示す機能ブロック図である。図15のタッチ操作システムは、図1の構成に対し、タッチ入力装置100に第1の表示画面13および第2の表示画面23を追加し、タッチ操作判定装置30に表示制御部35を追加したものとなっている。
 タッチ入力装置100の第1の表示画面13および第2の表示画面23は、例えば液晶表示装置である。第1のタッチパネル10の第1のタッチ入力面11は透明であり、第1の表示画面13の上に配置される。第2のタッチパネル20の第2のタッチ入力面21は透明であり、第1の表示画面13の上に配置される。つまり、第1のタッチパネル10と第1の表示画面13、および、第2のタッチパネル20と第2の表示画面23は、それぞれ画像の表示機能とタッチ操作機能とを兼ね備えるタッチパネルモニタを構成している。
 タッチ操作判定装置30の表示制御部35は、操作対象装置40が出力する映像信号を第1の表示画面13および第2の表示画面23に入力することで、第1の表示画面13および第2の表示画面23に画像を表示させる。
 このように、本発明は、2つのタッチパネルモニタを備えるタッチ入力装置100に対しても適用可能である。図15においては、図1のタッチ操作システムに対して第1の表示画面13、第2の表示画面23およびに表示制御部35を追加した例を示したが、実施の形態3は、実施の形態2(図12)のタッチ操作システムとの組み合わせも可能である。
 実施の形態3においても、操作対象装置40は複数であってもよい。その場合、第1のタッチパネル10と第1の表示画面13とからなるタッチパネルモニタ(以下「第1のタッチパネルモニタ」という)、および、第2のタッチパネル20と第2の表示画面23とからなるタッチパネルモニタ(以下「第2のタッチパネルモニタ」という)とが、それぞれ異なる操作対象装置40の操作画面の表示に用いられてもよい。例えば、第1のタッチパネルモニタがナビゲーション装置の操作画面を表示し、第2のタッチパネルモニタがオーディオディスプレイ装置の操作画面を表示する形態が考えられる。
 操作対象装置40が複数のアプリケーションを実行であれば、第1のタッチパネルモニタと第2のタッチパネルモニタとが、それぞれ異なるアプリケーションの操作画面の表示に用いられてもよい。例えば、第1のタッチパネルモニタがナビゲーション用のアプリケーションの操作画面を表示し、第2のタッチパネルモニタが映像や音楽の再生を行うアプリケーションの操作画面を表示する形態が考えられる。
 もちろん、第1のタッチパネルモニタと第2のタッチパネルモニタとが、同じアプリケーションの操作画面の表示に用いられてもよい。すなわち、第1のタッチパネルモニタと第2のタッチパネルモニタとが、同じアプリケーションの異なる属性の操作画面の表示に用いられてもよい。例えば、第1のタッチパネルモニタがナビゲーション用のアプリケーションの地図の表示および操作に用いられ、第2のタッチパネルモニタが同アプリケーションの施設検索用の操作画面を表示する形態が考えられる。
 また、タッチ入力装置100には、第1の表示画面13および第2の表示画面23のいずれか片方のみが設けられてもよい。
 <変更例>
 [変形例1]
 タッチ入力装置100としては、操作者が第1のタッチ入力面11および第2のタッチ入力面21に直接触れずに操作を入力できる非接触のジェスチャ操作が可能なものも想定される。操作者が非接触のジェスチャ操作を行いながら、第1のタッチ入力面11または第2のタッチ入力面21に通常の(接触の)タッチ操作が行うことは考えにくい。そのため、操作者によって非接触のジェスチャ操作が行われている間に、第1のタッチ入力面11に対する第1のタッチおよび第2のタッチ入力面21に対する第2のタッチが検出された場合、有効性判定部34はその両方を無効にしてもよい。
 それにより、操作者が非接触ジェスチャの途中に第1のタッチ入力面11または第2のタッチ入力面21に誤ってタッチしても、そのタッチは無効化されるため、誤操作が防止される。
 [変形例2]
 操作者がタッチ座標の移動を伴う操作(例えばドラッグ操作)を行いながら、別のタッチ操作を行うことは考えにくい。そのため、第1のタッチ入力面11の第1のタッチ座標が移動している間に行われた第2のタッチ入力面21に対する第2のタッチ、ならびに、第2のタッチ入力面21の第2のタッチ座標が移動している間に行われた第1のタッチ入力面11に対する第1のタッチは、指示体の位置の時系列的な変化に関わらず、有効性判定部34が無効にしてもよい。
 [変形例3]
 タッチ操作システムが車両に搭載されている場合、有効性判定処理を実施するか否かの判定基準となる「閾値時間」(第1のタッチと第2のタッチとの時間差の閾値)を、車両の走行状態に応じて変化させてもよい。例えば、車両が走行中のときは、車両の揺れにより誤タッチが生じやすいため、閾値時間を長くして誤タッチの検出感度を上げるとよい。
 また、車両の走行速度に応じて、閾値時間を変化させてもよい。例えば、車両の走行速度が速いほど、操作者(運転者)はタッチ入力装置100の操作に意識を向けることが難しくなり、より誤タッチが生じやすくなる。そのため、車両の走行速度が速くなるほど閾値時間を長くして誤タッチの検出感度を上げるとよい。
 [変形例4]
 図2には、タッチ入力装置100の第1のタッチ入力面11と第2のタッチ入力面21とが上下に並べて配置された例を示したが、それらは左右に並べて配置されてもよい。
 また、図16に示すように、第1のタッチ入力面11および第2のタッチ入力面21の少なくとも片方が、曲面状であってもよい。第1のタッチ入力面11または第2のタッチ入力面21が曲面状である場合も誤タッチが生じやすいため、本発明の適用が有効である。
 なお、本発明は、その発明の範囲内において、各実施の形態を自由に組み合わせたり、各実施の形態を適宜、変形、省略することが可能である。
 本発明は詳細に説明されたが、上記した説明は、すべての態様において、例示であって、この発明がそれに限定されるものではない。例示されていない無数の変形例が、この発明の範囲から外れることなく想定され得るものと解される。
 100 タッチ入力装置、10 第1のタッチパネル、11 第1のタッチ入力面、12 第1のタッチ座標検出部、13 第1の表示画面、20 第2のタッチパネル、21 第2のタッチ入力面、22 第2のタッチ座標検出部、23 第2の表示画面、30 タッチ操作判定装置、31 第1のタッチ座標取得部、32 第2のタッチ座標取得部、33 指示***置検出部、34 有効性判定部、35 表示制御部、341 第1の指示体座標演算部、342 第2の指示体座標演算部、343 判定部、344 第1の入射角演算部、345 第2の入射角演算部、40 操作対象装置、500 操作者の手。

Claims (12)

  1.  第1のタッチ入力面および第2のタッチ入力面を有するタッチ入力装置が配置された空間内における指示体の位置を検出する指示***置検出部と、
     前記第1のタッチ入力面に対する前記指示体のタッチである第1のタッチの位置を示す第1のタッチ座標を取得する第1のタッチ座標取得部と、
     前記第2のタッチ入力面に対する前記指示体のタッチである第2のタッチの位置を示す第2のタッチ座標を取得する第2のタッチ座標取得部と、
     前記第1のタッチと前記第2のタッチとの間の時間が予め定められた閾値時間よりも短い場合に、前記第1のタッチおよび前記第2のタッチが行われる前の前記指示体の位置の時系列的な変化に基づいて、前記第1のタッチおよび前記第2のタッチのそれぞれの有効性を判定する有効性判定部と、を備える、
    タッチ操作判定装置。
  2.  前記有効性判定部は、
     前記指示体の位置に基づいて、前記第1のタッチ入力面における前記指示体から最も近い位置の座標である第1の指示体座標を算出する第1の指示体座標演算部と、
     前記指示体の位置に基づいて、前記第2のタッチ入力面における前記指示体から最も近い位置の座標である第2の指示体座標を算出する第2の指示体座標演算部と、
     前記第1のタッチと前記第2のタッチとの間の時間が前記閾値時間よりも短い場合に、前記第1のタッチが行われた直前の一定時間における前記第1の指示体座標の変化量と、前記第2のタッチが行われた直前の一定時間における前記第2の指示体座標の変化量とを比較し、前記第1の指示体座標の変化量の方が小さければ前記第1のタッチを有効、前記第2のタッチを無効と判定し、前記第2の指示体座標の変化量の方が小さければ前記第2のタッチを有効、前記第1のタッチを無効と判定する判定部と、をさらに備える、
    請求項1に記載のタッチ操作判定装置。
  3.  前記有効性判定部は、
     前記指示体の位置の時系列的な変化に基づいて、前記第1のタッチ入力面に対する前記指示体の入射角である第1の入射角を算出する第1の入射角演算部と、
     前記指示体の位置の時系列的な変化に基づいて、前記第2のタッチ入力面に対する前記指示体の入射角である第2の入射角を算出する第2の入射角演算部と、
     前記第1のタッチと前記第2のタッチとの間の時間が前記閾値時間よりも短い場合に、前記第1のタッチが行われたときの前記第1の入射角と、前記第2のタッチが行われたときの前記第2の入射角とを比較して、前記第1の入射角の方が大きければ前記第1のタッチを有効、前記第2のタッチを無効と判定し、前記第2の入射角の方が大きければ前記第2のタッチを有効、前記第1のタッチを無効と判定する判定部と、をさらに備える、
    請求項1に記載のタッチ操作判定装置。
  4.  前記有効性判定部は、前記指示体によって前記第1のタッチ入力面または前記第2のタッチ入力面に対する非接触のジェスチャ操作が行われている間は、前記第1のタッチおよび前記第2のタッチの両方を無効とする、
    請求項1に記載のタッチ操作判定装置。
  5.  前記有効性判定部は、前記第1のタッチ座標が移動している間に行われた前記第2のタッチ、ならびに、前記第2のタッチ座標が移動している間に行われた前記第1のタッチを、前記指示体の位置の時系列的な変化に関わらず無効にする、
    請求項1に記載のタッチ操作判定装置。
  6.  前記タッチ入力装置は、車両に搭載されており、
     前記有効性判定部は、前記車両の走行状態に応じて前記閾値時間を変更する、
    請求項1に記載のタッチ操作判定装置。
  7.  前記第1のタッチ入力面および前記第2のタッチ入力面は上下に並べて配置されている、
    請求項1に記載のタッチ操作判定装置。
  8.  前記第1のタッチ入力面および前記第2のタッチ入力面は左右に並べて配置されている、
    請求項1に記載のタッチ操作判定装置。
  9.  前記第1のタッチ入力面と前記第2のタッチ入力面とが成す角は180°未満である、
    請求項1に記載のタッチ操作判定装置。
  10.  前記第1のタッチ入力面および前記第2のタッチ入力面の少なくとも片方は曲面状である、
    請求項1に記載のタッチ操作判定装置。
  11.  前記第1のタッチ入力面および前記第2のタッチ入力面の少なくとも片方は、表示画面上に配置されている、
    請求項1に記載のタッチ操作判定装置。
  12.  タッチ操作判定装置におけるタッチ操作の有効性判定方法であって、
     前記タッチ操作判定装置の指示***置検出部が、第1のタッチ入力面および第2のタッチ入力面を有するタッチ入力装置が配置された空間内における指示体の位置を検出し、
     前記タッチ操作判定装置の第1のタッチ座標取得部が、前記第1のタッチ入力面に対する前記指示体のタッチである第1のタッチの位置を示す第1のタッチ座標を取得し、
     前記タッチ操作判定装置の第2のタッチ座標取得部が、前記第2のタッチ入力面に対する前記指示体のタッチである第2のタッチの位置を示す第2のタッチ座標を取得し、
     前記タッチ操作判定装置の有効性判定部が、前記第1のタッチと前記第2のタッチとの間の時間が予め定められた閾値時間よりも短い場合に、前記第1のタッチおよび前記第2のタッチが行われる前の前記指示体の位置の時系列的な変化に基づいて、前記第1のタッチおよび前記第2のタッチのそれぞれの有効性を判定する、
    タッチ操作の有効性判定方法。
PCT/JP2017/026010 2017-07-19 2017-07-19 タッチ操作判定装置およびタッチ操作の有効性判定方法 WO2019016875A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019530274A JP6639745B2 (ja) 2017-07-19 2017-07-19 タッチ操作判定装置およびタッチ操作の有効性判定方法
PCT/JP2017/026010 WO2019016875A1 (ja) 2017-07-19 2017-07-19 タッチ操作判定装置およびタッチ操作の有効性判定方法
CN201780093030.3A CN110869891B (zh) 2017-07-19 2017-07-19 触摸操作判定装置及触摸操作的有效性判定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/026010 WO2019016875A1 (ja) 2017-07-19 2017-07-19 タッチ操作判定装置およびタッチ操作の有効性判定方法

Publications (1)

Publication Number Publication Date
WO2019016875A1 true WO2019016875A1 (ja) 2019-01-24

Family

ID=65015904

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/026010 WO2019016875A1 (ja) 2017-07-19 2017-07-19 タッチ操作判定装置およびタッチ操作の有効性判定方法

Country Status (3)

Country Link
JP (1) JP6639745B2 (ja)
CN (1) CN110869891B (ja)
WO (1) WO2019016875A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021163155A (ja) * 2020-03-31 2021-10-11 アルパイン株式会社 操作制御装置

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111642045A (zh) * 2020-05-29 2020-09-08 意诺科技有限公司 智能控制器及其控制方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013025621A (ja) * 2011-07-22 2013-02-04 Nec Corp コンテンツ表示装置、情報処理装置、コンテンツ表示方法およびプログラム
JP2015064783A (ja) * 2013-09-25 2015-04-09 京セラドキュメントソリューションズ株式会社 タッチパネル装置、及びこれを備えた画像形成装置
JP2015232844A (ja) * 2014-06-10 2015-12-24 株式会社デンソー 入力装置
JP2016062183A (ja) * 2014-09-16 2016-04-25 キヤノン株式会社 情報処理装置、その制御方法、プログラム、及び記憶媒体
JP2016109505A (ja) * 2014-12-04 2016-06-20 トヨタ自動車株式会社 車両用表示装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5269648B2 (ja) * 2009-03-02 2013-08-21 パナソニック株式会社 携帯端末装置及び入力装置
JP5557316B2 (ja) * 2010-05-07 2014-07-23 Necカシオモバイルコミュニケーションズ株式会社 情報処理装置、情報生成方法及びプログラム
KR20130102298A (ko) * 2012-03-07 2013-09-17 주식회사 팬택 휴대용 단말기 및 휴대용 단말기의 디스플레이 제어 방법
JP5461735B2 (ja) * 2012-04-27 2014-04-02 パナソニック株式会社 入力装置、入力支援方法及びプログラム
JP6005417B2 (ja) * 2012-06-26 2016-10-12 株式会社東海理化電機製作所 操作装置
JP6221265B2 (ja) * 2013-03-04 2017-11-01 株式会社デンソー タッチパネル操作装置及びタッチパネル操作装置における操作イベント判定方法
JP2017084216A (ja) * 2015-10-30 2017-05-18 京セラドキュメントソリューションズ株式会社 入力処理装置、及びそれを備えた画像形成装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013025621A (ja) * 2011-07-22 2013-02-04 Nec Corp コンテンツ表示装置、情報処理装置、コンテンツ表示方法およびプログラム
JP2015064783A (ja) * 2013-09-25 2015-04-09 京セラドキュメントソリューションズ株式会社 タッチパネル装置、及びこれを備えた画像形成装置
JP2015232844A (ja) * 2014-06-10 2015-12-24 株式会社デンソー 入力装置
JP2016062183A (ja) * 2014-09-16 2016-04-25 キヤノン株式会社 情報処理装置、その制御方法、プログラム、及び記憶媒体
JP2016109505A (ja) * 2014-12-04 2016-06-20 トヨタ自動車株式会社 車両用表示装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021163155A (ja) * 2020-03-31 2021-10-11 アルパイン株式会社 操作制御装置
JP7378902B2 (ja) 2020-03-31 2023-11-14 アルパイン株式会社 操作制御装置

Also Published As

Publication number Publication date
JPWO2019016875A1 (ja) 2019-11-07
CN110869891B (zh) 2023-07-04
CN110869891A (zh) 2020-03-06
JP6639745B2 (ja) 2020-02-05

Similar Documents

Publication Publication Date Title
US9207801B2 (en) Force sensing input device and method for determining force information
US9678606B2 (en) Method and device for determining a touch gesture
WO2014109262A1 (ja) タッチパネルシステム
US9195381B2 (en) Information processing apparatus, method for controlling the same, and storage medium to receive a touch operation for rotating a displayed image
US20120249440A1 (en) method of identifying a multi-touch rotation gesture and device using the same
WO2012129975A1 (en) Method of identifying rotation gesture and device using the same
US20120249487A1 (en) Method of identifying a multi-touch shifting gesture and device using the same
JP6005563B2 (ja) タッチパネル装置、制御方法
JP6188998B2 (ja) タッチパネル制御装置及び車載情報機器
JP2014182657A (ja) 情報処理装置、プログラム
JP6639745B2 (ja) タッチ操作判定装置およびタッチ操作の有効性判定方法
JP6370118B2 (ja) 情報処理装置、情報処理方法、及びコンピュータプログラム
US8952934B2 (en) Optical touch systems and methods for determining positions of objects using the same
US10126856B2 (en) Information processing apparatus, control method for information processing apparatus, and storage medium
US20140320430A1 (en) Input device
JP6877546B2 (ja) タッチ操作判定装置およびタッチ操作の有効性判定方法
JP6112506B2 (ja) 携帯型電子機器
KR102030169B1 (ko) 차량용 터치 오입력 검출 장치 및 그 방법
KR102082696B1 (ko) 정보 처리장치 및 터치패널의 조작 관리방법
US10558270B2 (en) Method for determining non-contact gesture and device for the same
JP2013037481A (ja) 入力装置、情報処理装置、入力制御方法およびプログラム
TWI553531B (zh) 光學觸控裝置及觸控點座標之計算方法
JP2016115303A (ja) 操作検出装置
JP2017207868A (ja) 情報処理装置、入力操作の判別方法、コンピュータプログラム
JP2012234299A (ja) 携帯端末装置、入力制御方法、および入力制御プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17918293

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019530274

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17918293

Country of ref document: EP

Kind code of ref document: A1