WO2016199320A1 - イレーサ装置および指示入力システム - Google Patents

イレーサ装置および指示入力システム Download PDF

Info

Publication number
WO2016199320A1
WO2016199320A1 PCT/JP2015/078405 JP2015078405W WO2016199320A1 WO 2016199320 A1 WO2016199320 A1 WO 2016199320A1 JP 2015078405 W JP2015078405 W JP 2015078405W WO 2016199320 A1 WO2016199320 A1 WO 2016199320A1
Authority
WO
WIPO (PCT)
Prior art keywords
input
input point
range
unit
predetermined
Prior art date
Application number
PCT/JP2015/078405
Other languages
English (en)
French (fr)
Inventor
知弥 石倉
広明 原
Original Assignee
シャープ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャープ株式会社 filed Critical シャープ株式会社
Priority to US15/735,302 priority Critical patent/US10466850B2/en
Priority to CN201580080864.1A priority patent/CN107710109B/zh
Publication of WO2016199320A1 publication Critical patent/WO2016199320A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/039Accessories therefor, e.g. mouse pads
    • G06F3/0393Accessories for touch pads or touch screens, e.g. mechanical guides added to touch screens for drawing straight lines, hard keys overlaying touch screens or touch pads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/04166Details of scanning methods, e.g. sampling time, grouping of sub areas or time sharing with display driving
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • G06F3/0441Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means using active external devices, e.g. active pens, for receiving changes in electrical potential transmitted by the digitiser, e.g. tablet driving signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03543Mice or pucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • G06F3/0383Signal control means within the pointing device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text

Definitions

  • the present invention relates to an eraser device for erasing a display image on a touch panel, and an instruction input system including the eraser device and the touch panel.
  • a mode switching operation for specifying that a next touch operation is an erasing operation (switching between a drawing mode and an eraser mode)
  • a method of performing a touch operation for erasing after performing an operation is known.
  • Patent Document 1 discloses a technique for causing a touch panel to recognize an erasure instruction by performing a touch operation using an input device (eraser device) dedicated to the erasure operation.
  • coordinate instruction units including push buttons are provided at both ends of a diagonal line of a rectangular-shaped eraser device, and the eraser device and the touch panel (information processing device) are communicably connected via a wire.
  • the touch panel is an erasure instruction when the eraser device is pressed against the touch panel and the push button is pressed.
  • Patent Document 1 has a problem that the cost of the apparatus increases because it is necessary to provide a communication function between the eraser device and the touch panel.
  • the present invention has been made in view of the above problems, and an object of the present invention is to provide an eraser device and an instruction input system that can easily perform an erasing operation on a touch panel at a low cost.
  • An eraser device is an eraser device for inputting a display image erasing operation to a touch panel, and the touch panel is a touch operation among a plurality of detection points arranged on a display screen.
  • An input point detection unit that detects the detected point as an input point
  • an erasure operation determination unit that determines whether a user operation is an erasure operation according to the density of the input points
  • the eraser device has a plurality of touch portions that are detected as the input points when being brought into contact with or in proximity to the touch panel, and the density of the plurality of touch portions determined by the erasing operation determination unit as an erasing operation. It is characterized by being formed by.
  • the touch panel by performing a touch operation on the touch panel using the eraser device, the touch panel detects each touch portion of the eraser device as an input point, and it is determined that the erase operation is performed based on the degree of congestion of the input points. Can be made. Therefore, the touch panel can recognize the erasing operation without transmitting information indicating the erasing instruction from the eraser device to the touch panel. For this reason, since it is not necessary to provide a communication function in an eraser apparatus and a touch panel, the manufacturing cost of an eraser apparatus and a touch panel can be reduced. Further, since the user can make the touch panel recognize that it is an erasing operation without performing a mode switching operation for switching between the drawing mode and the eraser mode, the convenience for the user can be improved. Therefore, according to said structure, the instruction
  • FIG. 5 is an exploded perspective view of the eraser device shown in FIG. 4. It is sectional drawing of the electroconductive buffer member with which the eraser apparatus shown in FIG. 4 is equipped. It is a flowchart which shows the flow of the detection process of the instruction
  • FIG. 3 is an explanatory diagram showing input points detected when a touch operation is performed on the touch part of the touch panel with the eraser device in the instruction input system of FIG. 1. It is explanatory drawing which shows the process which determines whether a user's operation is a deletion operation based on the input point shown in FIG.
  • FIG. 1 is an explanatory diagram showing an overall configuration of an instruction input system 100 according to the present embodiment.
  • the instruction input system 100 includes a display device 1, a touch panel 2, an information processing device 3, and an eraser device 4.
  • the information processing device 3 outputs image data to be displayed to the display device 1 and acquires information from the touch panel 2 according to the user's touch operation (operation input) on the display screen on which the image data is displayed. Further, the information processing device 3 updates image data output to the display device 1 based on information according to the user's touch operation acquired from the touch panel 2, or performs various processes according to the user's touch operation. To do.
  • the configuration of the information processing apparatus 3 is not particularly limited, and may be a personal computer, for example.
  • the display device 1 includes a display unit 11, a display drive unit 12, and a display control unit 13.
  • the display unit 11 displays an image corresponding to the image data acquired from the information processing device 3 on a display screen.
  • a liquid crystal display an organic EL (electroluminescence) display, a plasma display, a projector, or the like is used. it can.
  • the resolution and size of the display unit 11 are not particularly limited, and may be, for example, a full high-definition size of 1920 pixels ⁇ 1080 pixels or a 4K size of 3840 pixels ⁇ 2160 pixels.
  • the display driving unit 12 drives each pixel of the display unit 11 in accordance with an instruction from the display control unit 13.
  • the display control unit 13 controls the operation of the display driving unit 12 according to the image data to be displayed, and causes the display unit 11 to display an image according to the image data.
  • the touch panel 2 includes a panel unit 21, a panel driving unit 22, and a touch panel control unit 23.
  • FIG. 2 is an explanatory diagram showing the configuration of the panel unit 21 and the panel drive unit 22.
  • the panel unit 21 is arranged so as to overlap the display screen of the display device 1, and has a function of outputting a signal corresponding to an instruction input from the user to the display image displayed on the display unit 11 to the panel driving unit 22. .
  • the panel unit 21 includes a plurality of drive lines (drive lines) DL arranged in parallel to each other and a plurality of sense lines (sense lines) SL arranged in parallel to each other.
  • the drive line DL extends in the X direction (lateral direction in the drawing)
  • the sense line SL extends in the Y direction (vertical direction in the drawing) perpendicular to the X direction, so that the drive line DL and the sense line SL intersect three-dimensionally. (Arranged in a matrix).
  • the number of drive lines DL and sense lines SL is not particularly limited, but in this embodiment, 4096 drive lines DL and 2160 sense lines SL are provided, and each of 4096 ⁇ 2160 coordinate positions. A change in capacitance is detected.
  • the structure of the panel part 21 is not restricted to the structure mentioned above, The various panel part conventionally used with the capacitive touch panel can be used.
  • the panel drive unit 22 includes a transmission unit 24, a reception unit 25, and a drive control unit 26.
  • the drive control unit 26 controls the operation timing of the transmission unit 24 and the reception unit 25.
  • the transmission unit 24 sequentially applies the drive signal Ds to each drive line DL at a timing corresponding to a predetermined frame rate.
  • the receiving unit 25 acquires a sense signal Ss that is a response signal generated in each sense line SL in response to the application of the drive signal Ds to each drive line DL at a timing synchronized with the application of the drive signal Ds to each drive line DL. To do.
  • the receiving unit 25 When a conductive object (for example, a user's finger, a touch-sensitive pen or the eraser device 4) is in contact with or close to the panel unit 21, electrostatic at the intersection (detection point) between the drive line DL and the sense line SL is detected. The capacity changes.
  • the receiving unit 25 outputs a signal corresponding to the capacitance at each intersection of the drive line DL and the sense line SL and a signal indicating the position of each intersection to the touch panel control unit 23 (input point detection unit 31).
  • the touch panel control unit 23 includes an input point detection unit 31, an erasing operation determination unit 32, and an input information output unit 33.
  • the input point detection unit 31 is based on a signal corresponding to the capacitance at each intersection between the drive line DL and the sense line SL acquired from the panel drive unit 22 and a signal indicating the position of each intersection.
  • a crossing portion whose capacity is different from another crossing portion by a predetermined value or more is detected as a touch operation position (input point) on the panel unit 21 by the user.
  • the touch operation position for one display screen is detected as one frame, each frame is processed every predetermined period (for example, every 5 milliseconds), and the touch operation position is determined for each frame. To detect. Thereby, the movement of the touch operation position between successive frames is detected for each frame.
  • the erasing operation determination unit 32 includes an area setting unit 34, an input point counting unit 35, a mode determination unit 36, and an erasing range setting unit 37. Based on the input points detected by the input point detection unit 31, the user can It is determined whether the performed touch operation is an erasing operation (an operation for erasing an image in a range corresponding to the touch operation in the display image displayed on the display unit 11). Further, when the erasing operation determination unit 32 determines that the touch operation performed by the user is an erasing operation, the erasing operation determination unit 32 sets an erasing range according to the user's touch operation. Details of these processes in the erasing operation determination unit 32 will be described later.
  • the input information output unit 33 outputs information corresponding to the touch operation by the user detected by the input point detection unit 31 and the processing result of the erasing operation determination unit 32 to the information processing device 3.
  • the input information output unit 33 sends information indicating the erasing operation and information indicating the erasing range to the information processing apparatus 3. Output.
  • the input information output unit 33 sends information indicating that the erasing operation is not performed and information indicating the touch operation position of the user to the information processing device 3. Output.
  • the operation is an erasing operation
  • information indicating the erasing range (area information) is output
  • position information (point information) of the input point corresponding to the touch operation is output.
  • the information processing device 3 determines whether or not it is an erasing operation according to whether the information processing device 3 is information (area information) indicated in the erasing range or position information (point information) of the input point. Also good.
  • a desired item is selected from a drawing instruction for inputting a line, a dot, a character, a figure, or the like, or a menu item displayed on the display unit 11. For example, a selection instruction is provided.
  • the information processing device 3 changes the image displayed on the display device 1 according to the user's touch operation or performs various processes according to the touch operation.
  • the information processing apparatus 3 erases the image in the erasing range.
  • the information processing device 3 may display an image (for example, a frame image) indicating the shape of the erasing range at a position corresponding to the user's touch operation. .
  • the information processing apparatus 3 executes menu processing according to the touch operation. Further, the information processing apparatus 3 executes a drawing process when the user's touch operation is not an erasing operation and the touch operation position is a drawing area. In the drawing process, for example, drawing is performed by connecting the coordinates of the touch operation position detected for each frame by a straight line or a curve.
  • the eraser device 4 is an input device for the user to perform an erasing operation on the touch panel 2.
  • the user performs the erasing operation by holding the eraser device 4 and moving the eraser device 4 while contacting or approaching the panel unit 21.
  • the configuration of the eraser device 4 will be described later.
  • FIG. 4 is a perspective view showing the appearance of the eraser device 4.
  • 5A is a top view of the eraser device 4
  • FIG. 5B is a cross-sectional view taken along the line AA shown in FIG. 5A
  • FIG. 5C is a cross-sectional view taken along the line B--shown in FIG. It is sectional drawing of B cross section
  • (d) is sectional drawing of CC cross section shown in (b).
  • FIG. 6 is an exploded perspective view of the eraser device 4.
  • FIG. 7 is a cross-sectional view of the conductive buffer member 46 provided in the eraser device 4.
  • the eraser device 4 includes a grip part 41, a main body part 42, a column protection part 43, a cloth part 44, a screw 45, and a conductive buffer member 46.
  • the shape of the eraser device 4 is a substantially rectangular parallelepiped shape having a length of 100 m, a width of 50 mm, and a height of 40 mm.
  • the grip portion 41 is made of a conductive member such as metal or conductive resin, and is disposed so as to cover the upper surface of the eraser device 4 and the upper surface side end portions of the side surfaces.
  • a plate-like member made of a conductive resin having a thickness of 3 mm is used as the grip portion 41.
  • the main body 42 is made of a conductive member such as a metal or a conductive resin, and has a substantially rectangular base 49 and 13 pillars 48 (first to thirteenth pillars) projecting from the base 49 in a predetermined direction. 48a to 48m).
  • each column part 48 is directed from the base part 49 toward the bottom surface side (touch panel 2 side) of the eraser device 4, that is, the opposing surface of the grip part 41 and the base part 49 (in the case of FIG. 6).
  • the opposing surfaces of the grip portion 41 and the base portion 49 are provided so as to protrude in a direction substantially perpendicular to the flat surface).
  • each column unit 48 may be configured to be in a direction substantially perpendicular to the panel unit 21.
  • the thickness of the base portion 49 is 5 mm
  • the length of the column portion 48 is 30 mm.
  • the cross-sectional shape of the column part 48 was made into the square shape of 8 mm per side.
  • the eraser device 4 is viewed from the bottom side among the thirteen column portions 48 (the first column portion 48a to the thirteenth column portion 48m).
  • the first to fourth column portions 48a to 48d are sometimes arranged at the four corners of the rectangular base 49, and the center of the base 49 (the position corresponding to the intersection of the diagonals of the rectangular shape or the vicinity of the intersection) ),
  • the fifth column portion 48e is disposed
  • the sixth to eighth column portions 48f to 48h are disposed on one long side of the rectangular shape
  • the ninth to eleventh column portions 48i to 48k are disposed on the other long side.
  • the twelfth column 481 is arranged on one short side of the rectangular shape
  • the thirteenth column 48m is arranged on the other short side.
  • the pillar part 48 whose cross-sectional shape is a quadrangle is used, but the shape of the pillar part 48 is not limited to this.
  • the cross-sectional shape is a circle, an ellipse, a polygon, or a polygon.
  • angular part etc. may be sufficient.
  • the number of column portions 48 is not limited to 13 as well.
  • a conductive buffer member 46 is attached to a tip of each column portion 48 in the predetermined direction (an end surface on the bottom surface side of the eraser device 4) so as to be electrically connected to the column portion 48 by a conductive adhesive member 47.
  • the conductive adhesive member 47 is not particularly limited as long as it is a conductive adhesive member.
  • a conductive acrylic pressure-sensitive adhesive or a conductive nonwoven fabric double-sided tape can be used.
  • FIG. 7 is a cross-sectional view of the conductive buffer member 46.
  • the conductive buffer member 46 has a configuration in which the periphery of the buffer member 46a is covered with a conductive film 46b.
  • the configuration of the buffer member 46a is not particularly limited as long as it is a member having moderate elasticity.
  • a foam such as polyurethane foam can be used.
  • the conductive film 46b is not particularly limited as long as it is conductive and has a flexibility to deform following the deformation of the buffer member 46a.
  • a film provided with a conductive material such as nickel or nickel, or a conductive film in which a conductive layer made of copper and nickel is formed on the surface of a resin such as polyimide can be used.
  • the column protection part 43 is made of a non-conductive elastic member such as polyurethane, and is disposed so as to fill a gap between the column parts 48 in a region between the column parts 48.
  • the column protection part 43 has a notch 43a corresponding to the shape of each column part 48 at a position corresponding to each column part 48, and each notch part 43a corresponds to the notch part 43a.
  • the cloth portion 44 is a thin non-conductive cloth-like member such as felt, and is arranged so as to cover the bottom surface of the eraser device 4 and the bottom surface portion of each side surface.
  • the cloth portion 44 includes a portion disposed on the bottom surface and side surface of the main body portion 42 in the eraser device 4, and an upper surface of the main body portion 42 from the upper end portion on the side surface of the main body portion 42. And an end portion 44a that is folded along. And since the edge part 44a is pinched
  • the thickness of the cloth portion 44 is determined when the user grips the eraser device 4 and brings the bottom surface of the eraser device 4 (the surface on the tip side of each column portion 48) close to or in contact with the panel portion 21 of the touch panel 2.
  • the thickness is set such that a change in capacitance due to each column 48 is detected by the touch panel 2.
  • the thickness of the cloth portion 44 is 1 mm.
  • the screw 45 is made of a conductive material such as metal or conductive resin, and fixes the grip part 41 and the main body part 42 with the end 44a of the cloth part 44 sandwiched between the grip part 41 and the main body part 42. To do. Thereby, the grip part 41, the main-body part 42, the electroconductive buffer member 46, and the user holding the grip part 41 are electrically connected.
  • the grip portion 41 and the main body portion 42 are attached by the conductive screw 45, but the present invention is not limited thereto, and for example, by a conductive adhesive member (for example, a conductive adhesive or a conductive double-sided tape). It may be attached. Or you may attach the grip part 41 and the main-body part 42 by engaging the engaging part provided in the grip part 41, and the to-be-engaged part provided in the main-body part 42.
  • FIG. 8 is a flowchart showing a flow of processing for detecting an instruction input from the user to the touch panel 2.
  • the input point detector 31 receives an input point (by the user) based on a signal indicating the capacitance of each intersection (detection point) between the drive line DL and the sense line SL, which is input from the panel driver 22.
  • the touch operation position) is detected (S1).
  • the input point detection unit 31 detects, as an input point, an intersection where the capacitance is different from another intersection (or a predetermined reference value) by a predetermined value or more.
  • each column portion 48 of the eraser device 4 is connected to the panel via the conductive buffer member 46 and the cloth portion 44.
  • a plurality of detection points (for example, detection points 201 to 213 indicated by crosses in FIG. 9) corresponding to positions in contact with or close to the unit 21 are detected as input points on the touch panel 2.
  • the region setting unit 34 sets one of the input points detected in S1 as a target input point (S2), and sets a predetermined range region centered on the target input point as the input point search range. (S3).
  • the region setting unit 34 has a circle 301 having a radius R1 (radius R1 is 70 mm in this embodiment) centered on the target input point (input point 207 in the example of FIG. 10). Is set as the search range.
  • the size of the radius R1 is not limited to 70 mm, and may be set as appropriate according to the size of the eraser device 4, for example. For example, when the radius R1 is the fifth column 48e arranged at the center of the eraser device 4 and the target input point is the radius of the circle including each column 48 (first to thirteenth columns 48a to 48m) May be set.
  • the input point counting unit 35 counts the number of input points included in the search range set in S3 (S4). For example, in the example of FIG. 10, 13 input points 201 to 213 are counted.
  • the region setting unit 34 determines whether or not there remains an unprocessed input point that has not been subjected to the processing of S2 to S4 with the input point as a target input point among all the input points detected in S1. Determination is made (S5), and if unprocessed input points remain, the process from S2 to S4 is performed with one of the unprocessed input points as a target input point.
  • the mode determination unit 36 determines whether or not the user's touch operation is an erasing operation according to the counting result in the process of S4 for each input point. (Whether or not the touch operation is performed by the eraser device 4) is determined (S6). That is, the mode determination unit 36 determines whether the user's touch operation is an erasing operation according to the density of input points.
  • the mode determination unit 36 determines that it is an erasing operation when there is an input point of interest in which the number of input points included in the search range is greater than or equal to a threshold (for example, 13), If it does not exist, it is determined that it is not an erasure operation.
  • a threshold for example, 13
  • the mode determination unit 36 deletes when the number of input points of interest in which the number of input points included in the search range is greater than or equal to the first predetermined number N1 (for example, 3) is greater than or equal to a predetermined threshold (for example, 13). It may be determined that the operation is an operation, and if the number of input points of interest whose number of input points included in the search range is equal to or greater than the first predetermined number N1 is less than the threshold value, it may be determined that the operation is not an erasure operation. .
  • the first predetermined number N1 for example, 3
  • a predetermined threshold for example, 13
  • the erasing range setting unit 37 sets an erasing range based on each input point detected in S1 (S7).
  • the X coordinate maximum value, the X coordinate minimum value, the Y coordinate maximum value, and the Y coordinate minimum value are extracted from the coordinates of each input point detected in S1, and specified by these extracted coordinate values.
  • Rectangular area [x coordinate minimum value, y coordinate minimum value], [x coordinate minimum value, y coordinate maximum value], [x coordinate maximum value, y coordinate minimum value], [x coordinate maximum value, y coordinate maximum value] (Rectangular area having four corners) is set as an erasure range.
  • an area of a rectangle 401 that includes each input point detected in S1 is set as an erasure range.
  • the method for setting the erasure range is not limited to this, and for example, a rectangular area formed by a closed curve formed by connecting the input points detected in S1 may be set as the erasure range.
  • the width 403 in the X-axis direction of the rectangle 401 is represented by the difference between the maximum X-coordinate value and the minimum X-coordinate value
  • the width 404 in the Y-axis direction is represented by the difference between the maximum Y-coordinate value and the minimum Y-coordinate value.
  • the coordinates 402 shown in FIG. 11 indicate the center coordinates or barycentric coordinates of the rectangle 401.
  • the center coordinates of the rectangle 401 can be obtained by ((X coordinate minimum value + X coordinate maximum value) / 2, (Y coordinate minimum value + Y coordinate maximum value) / 2), and the center-of-gravity coordinate is determined by each input detected in S1. It can be obtained from the average value of the coordinate values of the points.
  • the input information output unit 33 After the processing of S7, the input information output unit 33 outputs information indicating the erasing operation and information indicating the erasing range to the information processing apparatus 3 (S8).
  • a reference position (for example, center coordinates) of the rectangle 401, a width 403 in the X-axis direction, and a width 404 in the Y-axis direction are output.
  • the X coordinate maximum value, the X coordinate minimum value, the Y coordinate maximum value, and the Y coordinate minimum value of the erasing range of the rectangular shape may be output.
  • the coordinates of each corner of the rectangular erasure range may be output.
  • the shape of the erasure range is a rectangular shape. Thereby, the calculation process of the erasure
  • the shape of the erasure range is not limited to this, and for example, it may be set to a circle or an ellipse including each input point detected in S1.
  • the input information output unit 33 converts information indicating the erasure range into coordinate values of a coordinate system corresponding to the resolution of the display unit 11 and then performs information processing. You may output to the apparatus 3. Alternatively, the input information output unit 33 outputs information indicating the erasure range to the information processing device 3 with the coordinate value of the coordinate system corresponding to the resolution of the panel unit 21, and the information processing device 3 determines the resolution of the display unit 11 as necessary. You may make it convert into the coordinate system according to.
  • the touch panel control unit 23 determines whether or not to end the touch operation detecting process (S10). If not finished, the process returns to S1.
  • the method for determining whether or not to end the touch operation detection process is not particularly limited. For example, the determination is made according to whether or not a touch operation end instruction or a power-off instruction is received from the user. Alternatively, it may be determined according to whether or not the touch operation on the touch panel 2 has not been performed for a predetermined time or longer, and a touch-off operation (an operation for moving the eraser device 4 away from the panel unit 21) during the erasing operation. ) May be determined according to whether or not.
  • the input information output unit 33 outputs the position information of the input point detected in S1 to the information processing apparatus 3 (S11). At this time, information indicating that the operation is not an erasing operation may be output together with the position information of the input point. Further, when the resolution of the display unit 11 and the resolution of the panel unit 21 are different, the input information output unit 33 converts the position information of the input point into the coordinate value of the coordinate system corresponding to the resolution of the display unit 11 and then performs information processing. You may output to the apparatus 3.
  • the input information output unit 33 outputs the position information of the input point to the information processing device 3 with the coordinate value of the coordinate system corresponding to the resolution of the panel unit 21, and the information processing device 3 resolves the resolution of the display unit 11 as necessary. You may make it convert into the coordinate system according to.
  • the processes of S2 to S6 are omitted. You may make it perform the process of. Thereby, it is possible to simplify the arithmetic processing when it is not an erasing operation.
  • the touch panel control unit 23 determines whether or not to end the touch operation detection process (S10). If not, the touch panel control unit 23 proceeds to the process of S1. Return.
  • the eraser device 4 includes a plurality of column portions (touch portions) 48 that are detected as input points when being brought into contact with or in proximity to the panel portion 21 of the touch panel 2.
  • a plurality of pillars 48 are formed in the density of the erase operation determination unit 32 of the touch panel 2 to be determined as an erase operation.
  • the configuration of the instruction input system 100 can be simplified and the manufacturing cost can be reduced. That is, the instruction input system 100 that can easily perform the erasing operation on the touch panel 2 can be provided at low cost.
  • the number of column parts (touch parts) 48 is set to a number (13) larger than the number of fingers of both hands (10), and it is determined whether or not it is an erasing operation.
  • the threshold value to be set is set to 13, which is the number of pillars 48.
  • the number of pillars 48 installed and the above threshold values are not limited to this.
  • the number of pillars 48 is set to a number (11 or more) greater than the number of fingers of both human hands (10 or more), and the threshold value is greater than the number of fingers of both human hands (10).
  • the number may be set to be equal to or less than the number of column portions 48.
  • the number of pillars 48 is set to a number (6 or more) greater than the number of fingers (5) of one human hand, and the threshold is greater than the number of fingers (5) of one human hand, In addition, the number may be set to be equal to or less than the number of column portions 48. In this case, the touch operation with one human hand and the touch operation with the eraser device 4 can be appropriately distinguished.
  • the interval between the column portions 48 is set to an interval at which it is difficult to simultaneously touch and operate input points corresponding to the column portions 48 with a human finger. Thereby, it can suppress more appropriately that touch operation by a person's fingertip is misjudged as erase operation.
  • the first to fourth columnar portions 48a to 48d disposed at the corners of the rectangular shape and the fifth columnar portion 48e disposed at the center of the rectangular shape are provided.
  • the five pillars 48a to 48e it is difficult for the user to squeeze five fingers and touch the positions corresponding to these five pillars 48a to 48e. The operation and the touch operation by the user's fingertip can be appropriately identified.
  • each pillar part 48 it is preferable to set the space
  • FIG. Thereby, it can prevent that the some pillar part 48 is erroneously detected as one input point by the touch panel 2.
  • FIG. For example, when the interval between the detection points on the touch panel 2 is set to 18 mm, the interval between the column portions 48 is set to an interval sufficiently larger than 18 mm (for example, about 25 mm), thereby a plurality of column portions. 48 can be reliably prevented from being erroneously detected as one input point on the touch panel 2.
  • the conductive buffer member 46 is disposed on the end face (end face on the touch panel 2 side) of each column portion 48 in the eraser device 4. Thereby, it can suppress that the dispersion
  • the cloth portion 44 is provided so as to cover a part of the surface facing the touch panel 2 and part of the side surface of the eraser device 4.
  • the frictional resistance with respect to the touch panel 2 of the eraser apparatus 4 can be reduced, and when the touch panel 2 is slid while being in contact with the touch panel 2, it is possible to suppress the touch panel 2 from being damaged or generating a sound.
  • the design of the eraser device 4 can be improved by providing the cloth portion 44.
  • the number of column parts (touch parts) 48 is set to a number (13) larger than the number of fingers (10) of both human hands, and a threshold value for determining whether or not the operation is an erasing operation is set. It was set to 13, which is the number of column parts 48.
  • the configuration of the eraser device 4 is the same, but the threshold for determining whether or not the erase operation is performed on the touch panel 2 is arranged in the rectangular short-side direction of the eraser device 4. It is set to 3 which is the number of the column parts 48 made. That is, in the present embodiment, the mode determination unit 36 determines that the operation is an erasure operation when there is an input point of interest in which the number of input points included in the search range is 3 or more. Judge that it is not an operation.
  • the erase operation can be performed using only a part of the bottom surface of the eraser device 4 (for example, a portion corresponding to one side of the rectangular shape formed by the bottom surface of the eraser device 4).
  • An erasing operation can be performed.
  • FIG. 12 a case where a touch operation is performed on the panel unit 21 at the rectangular short side portion of the eraser device 4 is considered.
  • the three pillars 48 [first pillar part 48a, second pillar part 48b, twelfth pillar part 48l] or [third pillar part 48c, The input points 601, 602, and 603 corresponding to the fourth column part 48d and the thirteenth column part 48m]) are detected.
  • the threshold value which determines whether it is erase operation in the touch panel 2 is set to 3, it determines with it being erase operation in the touch panel 2.
  • the minimum width of the erase range is set in advance, and when the difference between the X coordinate maximum value and the X coordinate minimum value of the coordinates of each input point is smaller than the minimum width, The width of the erase range in the X-axis direction may be set to the minimum width. Similarly, when the difference between the maximum Y coordinate value and the minimum Y coordinate value among the coordinates of each input point is smaller than the minimum width, the width in the Y-axis direction of the erase range is set to the minimum width. Also good.
  • the minimum width is not particularly limited, but may be set to about 5 mm, for example.
  • the region setting unit 34 sets a circle 301 having a radius R1 centered on the input point of interest (the input point 207 in the example of FIG. 10) as the search range as shown in FIG. Thereafter, as shown in FIG. 14, the radius R1 is equally divided into N (N is an integer of 2 or more). Then, as shown in FIG. 14, for N areas obtained by equally dividing the radius R1 into N, N is the area closest to the center of the circle 301 (input point 207), and N is the next closest area. ⁇ 1, N-2, etc. are assigned to the next closest area, such as N-2, which gradually decreases as the distance from the center increases. A weighting coefficient 1 is assigned to the farthest area, and a weighting coefficient 0 is assigned to an area farther than the radius R1.
  • the input point counting unit 35 assigns a weighting coefficient corresponding to the area to which the input point belongs to each input point, and calculates the total value of the weighting coefficients given to each input point. .
  • the processing of S2 to S5 is performed for all the input points, and after calculating the above total value for each input point when each input point is the target input point, in the processing of S6, the mode determination unit 36 It is determined whether or not the user's touch operation is an erasing operation depending on whether or not there is an input point having a value equal to or greater than the first predetermined value V1.
  • the subsequent processing is the same as in the first embodiment. Note that whether or not the erasing operation is performed may be determined according to whether or not the number of input points where the calculated total value is equal to or greater than the first predetermined value V1 is equal to or greater than a predetermined threshold.
  • the size of the input point search range (circle 301) set in the process of S3 is constant.
  • the size of the search range for the input point is set to be larger than the search range (circle 301) before being determined as the erasing operation during the period during which the erasing operation continues.
  • the radius of the circle used as the search range for the input point is larger than twice the radius of the initial search range (circle 301) before being determined as the erasure operation.
  • the threshold value for determining whether or not the erasing operation is performed in S6 may be set to a value (for example, 1) smaller than the initial threshold value.
  • FIG. 15 is an explanatory diagram showing the concept of the erase range setting method in the present embodiment.
  • a movement vector (see the arrow in the figure) of each detected input point is calculated for each predetermined time, and each input point whose movement vector is within a predetermined deviation is calculated. (Refer to input points surrounded by broken lines in the figure) is handled as one object, and an area including these input points is set as an erasure range.
  • FIG. 16 is a flowchart showing a flow of detection processing of an instruction input from the user in the present embodiment.
  • the input point detection unit 31 inputs an input point (touch operation position) based on a signal that is input from the panel drive unit 22 and indicates a capacitance at each intersection (detection point) between the drive line DL and the sense line SL. Detection is started every predetermined period (for example, 5 milliseconds) (S21). The detection result of the input point is temporarily stored in a storage unit (not shown).
  • the mode determination unit 36 monitors whether a predetermined time (for example, 0.1 second) has elapsed since the input point detection process was started (or when the movement vector was previously calculated) (S22). If it is determined that a movement vector has been determined, a movement vector (movement vector from the coordinates of each input point before the lapse of a predetermined time to the coordinates of each input point after the lapse of the predetermined time) is calculated (S23).
  • a predetermined time for example, 0.1 second
  • the mode determination unit 36 determines whether the input points where the deviation of the movement vector is within a predetermined range (for example, within ⁇ 3 mm for each of the x direction and the y direction) are greater than or equal to the second predetermined number N2 (for example, 2 or more). It is determined whether or not (S24). If it is determined in S24 that the second predetermined number N2 is greater than or equal to the second predetermined number N2, the mode determination unit 36 determines that the operation is an erasing operation.
  • a predetermined range for example, within ⁇ 3 mm for each of the x direction and the y direction
  • the erasure range setting unit 37 determines that the movement vector deviation is within the predetermined range. Are integrated (grouped) (S25).
  • FIG. 17 is an explanatory diagram for explaining processing for determining whether or not to perform an erasing operation and processing for setting an erasing range.
  • the mode determination unit 36 first sorts (searches) the x-coordinates and extracts a group of input points that fall within a deviation of 0.3 mm. As a result, in the example of FIG. 17, the “P1, P3” group and the “P2, P3, P4, P5” group are extracted.
  • the mode determination unit 36 sorts the y-coordinates for each of the groups extracted based on the x-coordinates, and extracts a group of input points that are within a deviation of 0.3 mm as in the case of the x-coordinates.
  • a group (group 1) of “P1, P3” and a group (group 2) of “P2, P3, P4” are extracted.
  • the mode determination unit 36 compares the number of input points included in each group for each group extracted based on the x coordinate and the y coordinate, and extracts a group having a large number of input points.
  • group 2 having a large number of input points is extracted from groups 1 and 2.
  • the mode determination unit 36 determines whether or not the number of input points included in the extracted group (group 2 in the example of FIG. 17) is equal to or greater than the second predetermined number N2, and is greater than or equal to the second predetermined number N2.
  • the erasure range setting unit 37 integrates the input points included in the group.
  • the mode determination unit 36 calculates the movement vector of the group based on the average value of the input points included in the group, and as one object It may be handled.
  • the newly added input point is compared with the movement vector of the existing input point (or the movement vector of the integrated group), and a new input is made. You may make it determine whether it adds to the group which integrated the point.
  • the erasure range setting unit 37 After integrating the input points whose movement vector deviation is within the predetermined range in S25, the erasure range setting unit 37 sets the erasure range based on the integrated input points (S26).
  • the erasure range setting unit 37 extracts the X coordinate maximum value, the X coordinate minimum value, the Y coordinate maximum value, and the Y coordinate minimum value from the coordinates of the input points integrated in S25, and extracts these values.
  • a rectangular area specified by the coordinate value of is set as an erasure range.
  • the input information output unit 33 outputs information indicating the erasing operation and information indicating the erasing range to the information processing apparatus 3 (S27).
  • a reference position (for example, center coordinates) of the rectangle 501, a width 503 in the X-axis direction, and a width 504 in the Y-axis direction are output.
  • the X coordinate maximum value, the X coordinate minimum value, the Y coordinate maximum value, and the Y coordinate minimum value of the erasing range of the rectangular shape may be output.
  • the coordinates of each corner of the rectangular erasure range may be output.
  • the touch panel control unit 23 determines whether or not to terminate the touch operation detection process (S29), and if not, returns to the process of S22.
  • the method for determining whether or not to end the touch operation detection process is not particularly limited. For example, the determination is made according to whether or not a touch operation end instruction or a power-off instruction is received from the user. It may be determined that the touch operation on the touch panel 2 is not performed (when touched up), and the touch operation on the touch panel 2 is not performed for a predetermined time or longer. Judgment may be made depending on whether or not it has been done.
  • the input information output unit 33 detects each input point detected at each predetermined cycle. Is output to the information processing apparatus 3 (S28), and the process proceeds to S29.
  • the movement vector of each input point is calculated every predetermined time, and an area including each input point within which the calculated movement vector is within a predetermined deviation is set as an image erasing range. To do.
  • FIG. 18 is an explanatory diagram showing the concept of the erase range setting method in the present embodiment. As shown in this figure, in this embodiment, for each detected input point, a change in the distance between adjacent input points within a predetermined period is calculated, and each input point whose distance change amount is within a predetermined value is calculated. Treated as one object, and an area including these input points is set as an erasure range.
  • FIG. 19 is a flowchart showing a flow of detection processing of an instruction input from the user in the present embodiment.
  • the input point detection unit 31 is input from the panel drive unit 22 based on a signal indicating the capacitance at each intersection (detection point) between the drive line DL and the sense line SL (for example, every predetermined period (for example, An input point (touch operation position) is detected every 5 milliseconds (S31).
  • the detection results of the input points are sequentially stored in a storage unit (not shown).
  • the mode determination unit 36 calculates the distance between adjacent input points (see arrows in FIG. 18) for each input point detected this time in S31 (S32).
  • the distance calculation results are sequentially stored in a storage unit (not shown).
  • the mode determination unit 36 excludes an input point whose distance from an adjacent input point is equal to or greater than a predetermined determination value (for example, 15 cm) from the determination process of whether or not it is an erasing operation (S33).
  • a predetermined determination value for example, 15 cm
  • the mode determination unit 36 determines whether or not a predetermined period (for example, 50 milliseconds) has elapsed since the detection of the input point was started (S34). If it is determined that the predetermined period has not elapsed, the process returns to S31.
  • a predetermined period for example, 50 milliseconds
  • the mode determination unit 36 determines that the input point whose distance variation between adjacent input points within the predetermined period is equal to or smaller than a second predetermined value V2 (for example, 2 mm) is the third. It is determined whether or not there is a predetermined number N3 (for example, two) or more (S35). If it is determined in S35 that the number is greater than or equal to the third predetermined number N3, the mode determination unit 36 determines that the operation is an erasing operation. If it is determined that the operation is less than the third predetermined number N3, the mode determination unit 36 determines that the operation is not an erasing operation. To do.
  • a predetermined number N3 for example, two
  • S35 the mode determination unit 36 determines that the operation is an erasing operation. If it is determined that the operation is less than the third predetermined number N3, the mode determination unit 36 determines that the operation is not an erasing operation.
  • the erasure range setting unit 37 determines each input whose variation range of the distance from the adjacent input point is equal to or smaller than the second predetermined value V2.
  • the points are integrated (grouped) (S36).
  • FIG. 20A and 20B are explanatory diagrams for explaining a determination process for determining whether or not an erasing operation is performed and an erasing range setting process.
  • FIG. 20A is a coordinate detection value for each predetermined period of each input point
  • FIG. The distance between adjacent input points for each time, (c) shows the erase range set based on each input point.
  • the mode determination unit 36 determines whether there is an input point whose distance from an adjacent input point is equal to or greater than a predetermined determination value (for example, 15 cm) every predetermined cycle, and deletes the input point if it exists. Exclude from operation judgment processing.
  • a predetermined determination value for example, 15 cm
  • the mode determination unit 36 sorts (searches) each input point based on the x coordinate value.
  • P3, P1, P5, P2, P6, and P4 are in order from the smallest x coordinate value. Since the difference between the x-coordinate values of the input point P3 having the smallest x-coordinate value and the input point P4 having the largest x-coordinate value does not exceed the predetermined determination value (15 cm), nothing is excluded from the determination process of the erasing operation.
  • P2, P4, P1, P3, P6 and P5 are in ascending order of y-coordinate value, and there is no input point where the difference in y-coordinate value exceeds a predetermined determination value (15 cm). Therefore, nothing is excluded from the determination process of the erasing operation.
  • the mode determination unit 36 determines the distance between adjacent input points (distance between P3-P1, P1-P5, P5-P2, P2-P6, P6-P4 from the result of sorting based on the x-coordinate values. ) Is calculated. The calculation of the distance between the adjacent input points is continued from time t1 to time t10, during which the fluctuation range of the calculated distance (difference between the minimum value min and the maximum value max) ⁇ max is a second predetermined value V2 (for example, 2 mm). ) If there is an input point that exceeds the above, exclude the input point from the integration target and perform recalculation. Thereby, in the example of FIG. 20, the input point P2 is excluded.
  • the erasure range setting unit 37 integrates the input points whose distance fluctuation range is equal to or less than a predetermined value (S36).
  • a predetermined value S36
  • a group having a large number of input points is selected and integrated.
  • the erasure range setting unit 37 sets an erasure range based on the coordinates of the integrated input points (S37). Specifically, the X coordinate maximum value, the X coordinate minimum value, the Y coordinate maximum value, and the Y coordinate minimum value are extracted from the coordinates of the integrated input points, and the rectangular area specified by these extracted coordinate values Set to the erase range.
  • the input information output unit 33 outputs information indicating the erasing operation and information indicating the erasing range to the information processing apparatus 3 (S38).
  • the touch panel control unit 23 determines whether or not to end the touch operation detection process (S40), and if not, returns to the process of S31.
  • the input information output unit 33 Outputs the position information of the input point detected in S31 to the information processing apparatus 3 (S39), and proceeds to the process of S40.
  • the area at the initial setting of the erasure range is calculated based on the coordinate values of each integrated input point detected every predetermined period, and the integrated input points
  • the area of the rectangular area specified by the X coordinate maximum value, the X coordinate minimum value, the Y coordinate maximum value, and the Y coordinate minimum value is continuously monitored, and the area is compared with the area at the time of initial setting of the erase range.
  • the input point integration processing and the erasure range setting processing may be performed again when the ratio changes by a predetermined ratio or more. Thereby, even if the input points to be integrated are increased or decreased after the erasure range is set, the erasure range can be appropriately set according to the touch operation.
  • the input point P3 is gradually separated from the other input points, and the area of the rectangular area A gradually increases from the rectangular area A (t0) at time t0 to the rectangular area A (t10) at time t10. It gets bigger.
  • at least one of the difference between the maximum value and the minimum value of the x coordinate of the integrated input point and the difference between the maximum value and the minimum value of the y coordinate is a predetermined value (for example, 5 mm) or more than at the time t0.
  • the input points to be integrated are recalculated when they become large, and the input point P3 is excluded from the integration targets.
  • the excluded input point P3 may be used as an input point for a drawing operation instead of an input point for an erasing operation.
  • an area including each input point in which the amount of change in the distance between the input points within a predetermined period is within a predetermined value is set as the erasure range.
  • input points to be included in the erasure range can be determined according to a change in distance between input points for a predetermined period. For this reason, for example, even when an input operation by a device other than the eraser device 4 is performed near the area touched by the eraser device 4, an erasing operation and an operation other than the erasing operation are appropriately identified, and erroneous determination occurs. Can be prevented. Further, even when the touch area by the eraser device 4 moves in a curved line instead of a linear movement, input points to be integrated can be detected appropriately.
  • the input point integration method according to the sixth embodiment described above (a method of integrating each input point whose movement vectors for each predetermined time of the detected input points are within a predetermined deviation);
  • the integration method according to the seventh embodiment (a method of integrating each input point in which the fluctuation range of the distance between adjacent input points within a predetermined period for each detected input point is within the second predetermined value V2).
  • FIG. 22 is an explanatory diagram for explaining a determination process for determining whether or not to perform an erasing operation and an erasing range setting process, in which (a) is a coordinate detection value at each predetermined period of each input point, and (b) is a predetermined period. The distance between adjacent input points for each, (c) shows the detected coordinates of each input point, and (d) shows the movement vector of each input point.
  • the input point detection unit 31 detects an input point every predetermined cycle (5 milliseconds in the present embodiment). Then, the area setting unit 34 calculates the movement vector of each input point every predetermined time (in this embodiment, 30 milliseconds, which is the period from t1 to t7), and the mode determination unit 36 sets the deviation of the movement vector within a predetermined range.
  • An input point that is outside (for example, outside the range of ⁇ 3 mm in each of the x direction and the y direction) is excluded from the integration processing targets. Accordingly, in the example of FIG. 17, since the movement vector of the input point P2 is outside the predetermined range as shown in (a), the input point at time t7 as shown in (c) and (d). P2 is excluded from the target of integration processing.
  • the mode determination unit 36 determines that the operation is not an erasure operation when the input point where the deviation of the movement vector is within a predetermined range is less than a second predetermined number N2 (for example, two).
  • the mode determination unit 36 has a predetermined period (in this embodiment, 50 milliseconds, which is the period from t1 to t10). Every time elapses, a change in distance between adjacent input points within the predetermined period is calculated.
  • the mode determination unit 36 determines that it is not an erasing operation when the input point whose fluctuation range is equal to or smaller than a second predetermined value V2 (for example, 2 mm) is less than a third predetermined number N3 (for example, two).
  • the mode determining unit 36 determines that the erasing operation is performed.
  • the erasure range setting unit 37 sets an area including each input point whose distance fluctuation range is within the second predetermined value V2 as the erasure range.
  • the narrowed input points after narrowing down the input points to be subjected to the integration process based on the deviation of the movement vector for each input point, the narrowed input points based on the change in the distance between the input points. It is determined whether or not to integrate each input point.
  • an input point integration method (a method of integrating input points whose movement vectors for each predetermined time of detected input points are within a predetermined deviation) is according to the seventh embodiment. While the calculation is simpler than the integration method (the method of integrating the input points in which the fluctuation range of the distance between adjacent input points within the predetermined period for each detected input point is within the second predetermined value V2), The accuracy of erasure range setting is higher in the integration method according to the seventh embodiment. Therefore, according to the method of the present embodiment, the advantages of both the input point integration method according to the sixth embodiment and the integration method according to the seventh embodiment can be utilized, and the erasure range can be accurately set by simple calculation. It can be carried out.
  • the input points are narrowed down by the input point integration method according to the sixth embodiment (a method in which input points whose movement vectors of the detected input points per predetermined time are within a predetermined deviation) are integrated. After that, the distance between the input points may be calculated, and the input points whose calculated distance is greater than or equal to a predetermined determination value may be excluded from the integration process at that time.
  • the input point by the sleeve and the input point by the eraser device 4 are Since the distance is longer than the distance between the pillars 48 in the eraser device 4, the input point by the sleeve or the like can be excluded from the target of the integration process. Therefore, it is possible to prevent the image from being erased against the user's intention due to the sleeve or the like coming into contact with the panel portion 21.
  • the touch panel control unit 23 of the touch panel 2 may be realized by a logic circuit (hardware) formed in an integrated circuit (IC chip) or the like, or software using a CPU (Central Processing Unit). It may be realized by.
  • the touch panel control unit 23 includes a CPU that executes instructions of a program that is software for realizing each function, and a ROM (Read Only Memory) in which the program and various data are recorded so as to be readable by the computer (or CPU).
  • a storage device (these are referred to as “recording media”), a RAM (Random Access Memory) for expanding the program, and the like are provided.
  • the objective of this invention is achieved when a computer (or CPU) reads the said program from the said recording medium and runs it.
  • a “non-temporary tangible medium” such as a tape, a disk, a card, a semiconductor memory, a programmable logic circuit, or the like can be used.
  • the program may be supplied to the computer via an arbitrary transmission medium (such as a communication network or a broadcast wave) that can transmit the program.
  • a transmission medium such as a communication network or a broadcast wave
  • the present invention can also be realized in the form of a data signal embedded in a carrier wave in which the program is embodied by electronic transmission.
  • the eraser device 4 is an eraser device 4 for inputting a display image erasing operation to the touch panel 2, and the touch panel 2 includes a large number of detection points arranged on the display screen.
  • An input point detection unit 31 that detects a touch-operated detection point as an input point
  • an erasure operation determination unit 32 that determines whether a user operation is an erasure operation according to the density of the input points.
  • the eraser device 4 includes a plurality of touch portions (column portions 48) that are detected as the input points when the touch panel 2 is brought into contact with or close to the touch panel 2, and the plurality of touch portions (column portions 48). ) Is formed at the density determined by the erasing operation determination unit 32 as an erasing operation.
  • the touch panel 2 by performing touch operation with respect to the touch panel 2 using the eraser apparatus 4, the touch panel 2 is made to detect each touch part (column part 48) of the eraser apparatus 4 as an input point, and each of these input points is detected. It can be determined that the erasing operation is based on the degree of congestion. Therefore, the touch panel 2 can recognize that it is an erasing operation without transmitting information indicating an erasing instruction from the eraser device 4 to the touch panel 2. For this reason, since it is not necessary to provide the eraser device 4 and the touch panel 2 with a communication function, the manufacturing cost of the eraser device 4 and the touch panel 2 can be reduced.
  • the touch panel 2 can recognize the erasing operation without performing a mode switching operation for switching between the drawing mode and the eraser mode, the convenience of the user can be improved. Therefore, according to said structure, the instruction
  • the eraser device 4 according to aspect 2 of the present invention is the above-described aspect 1, wherein the touch panel 2 is a capacitive touch panel, and the eraser device 4 is gripped by the plurality of touch parts (column parts 48) and a user.
  • the touch part (column part 48) and the grip part 41 are both electrically conductive, and the touch part (column part 48) and the grip part 41 are electrically connected to each other. This is a conductive configuration.
  • each touch part (column part 48) with which the eraser apparatus 4 is equipped can be grounded by electrically connecting with the user holding the said eraser apparatus 4, each touch part The detection accuracy of (column part 48) can be improved.
  • the eraser device 4 according to aspect 3 of the present invention is the eraser device 4 according to aspect 2, in which each of the touch portions (column portions 48) includes a conductive column portion 48 protruding in a predetermined direction, and the column portion 48 in the predetermined direction. It is the structure provided with the electroconductive buffer member (conductive buffer member 46) attached so that it might be electrically connected with the said pillar part 48 at the front-end
  • each touch part the column part 48 and the conductive buffer member 46
  • covering each touch part with the cloth part 44, it can suppress that the touch panel 2 is damaged by making the eraser apparatus 4 contact the touch panel 2, or a sound is produced.
  • the eraser device 4 according to the aspect 4 of the present invention has the configuration in the aspect 3 in which the column protection part 43 made of a non-conductive elastic member is disposed in the region between the column parts.
  • the eraser apparatus 4 when the eraser apparatus 4 is made to contact the touch panel 2, the load which acts on each pillar part is reduced by the pillar protection part 43 which consists of a nonelectroconductive elastic member, and each pillar part is damaged. Can be prevented.
  • the eraser device 4 according to the fifth aspect of the present invention is the eraser device 4 according to any one of the first to fourth aspects, wherein the first to fourth touch portions (first column portions 48a to 48th) of the plurality of touch portions (column portions 48). All of the plurality of touch portions (the first column portion 48a to the thirteenth column portion 48m) are arranged in a rectangular region having four corners of the four column portions 48d), and the plurality of touch portions (the first column portions 48a to 48m) are arranged. Among the thirteenth column portion 48m), the plurality of touch portions (first column portion 48a to thirteenth column portion 48m) are arranged such that the fifth touch portion (fifth column portion 48e) is arranged at the center of the rectangular region. ) Of each position is determined.
  • the erasure range can be easily specified based on the detection position of the input point corresponding to each touch part (the first pillar part 48a to the thirteenth pillar part 48m). Also, compared to the case where the touch portions (first column portion 48a to fourth column portion 48d) are provided only at the corners of the rectangular shape, the degree of density of the touch portions (first column portion 48a to thirteenth column portion 48m) is increased. Therefore, the touch operation by the eraser device 4 and the touch operation by a human finger or pen can be easily identified.
  • the instruction input system 100 includes an input point detection unit 31 that detects, as an input point, a detection point that is touch-operated among a large number of detection points arranged on a display screen, and the input points are densely arranged.
  • a touch panel 2 having an erasing operation determination unit 32 that determines whether or not the user's operation is an erasing operation according to the degree, and the eraser device 4 according to any one of the above aspects 1 to 5 are provided. It is said.
  • the touch panel 2 by performing a touch operation on the touch panel 2 with the eraser device 4, the touch panel 2 detects each touch portion (column portion 48) of the eraser device 4 as an input point, and an erase operation is performed according to the degree of congestion. It can be determined that there is. Therefore, the touch panel 2 can recognize that it is an erasing operation without transmitting information indicating an erasing instruction from the eraser device 4 to the touch panel 2. For this reason, since it is not necessary to provide the eraser device 4 and the touch panel 2 with a communication function, the manufacturing cost of the eraser device 4 and the touch panel 2 can be reduced.
  • the touch panel 2 can recognize the erasing operation without performing a mode switching operation for switching between the drawing mode and the eraser mode, the convenience of the user can be improved. That is, according to said structure, the instruction input system 100 which can perform the erasing operation with respect to the touch panel 2 easily can be provided at low cost.
  • the distance between the touch portions (column portions 48) is determined by the input point detection unit 31 so that each touch portion (column portion 48) is input separately. It is the structure set to the space
  • each touch part (column part 48) can be detected as a separate input point, the density of the input points can be appropriately evaluated.
  • the erasure operation determination unit 32 sequentially selects the input points detected by the input point detection unit 31 one by one as the target input points. Then, a region setting unit 34 for setting a region in a predetermined range centered on the selected target input point as a search range for the target input point, and counting the number of input points existing in the search range for each target input point And when the number of input points of interest whose number counted by the input point counting unit 35 is equal to or greater than a first predetermined number N1 is greater than or equal to a predetermined threshold, It is the structure provided with the mode determination part 36 determined to exist.
  • the erase operation is determined. Thereby, it can be appropriately determined whether or not the user's operation is an erasing operation according to the density of the input points.
  • the input point detecting unit 31 performs the operation. Of the detected input points, an image erasing process is performed on an area including each input point included in the integrated determination range of a predetermined size with the input point having the maximum value counted by the input point counting unit 35 as a reference position.
  • the erasure range setting unit 37 is set as an erasure range that is the target range of the image.
  • the range corresponding to the user's touch operation can be set as the erase range by setting the erase range according to the input points included in the integrated determination range.
  • the instruction input system 100 according to the tenth aspect of the present invention is the instruction input system 100 according to the sixth or seventh aspect, wherein the erasing operation determination unit 32 sequentially selects the input points detected by the input point detection unit 31 one by one as the target input points.
  • a region setting unit 34 that sets a region within a predetermined range centered on the selected target input point as a search range for the target input point, and the input point and the target for each input point existing in the search range
  • An input point counting unit 35 that assigns a weighting coefficient that becomes smaller as the distance to the input point becomes longer, counts the total value of the weighting coefficients assigned for each input point for each input point of interest, and the input point counting unit 35
  • a mode in which the user's operation is determined to be the erasing operation when the number of input points of interest whose total number counted is equal to or greater than a first predetermined value V1 is equal to or greater than a predetermined threshold. It is configured to have a tough 36.
  • a weighting coefficient that decreases as the distance from the input point to the other input point increases with respect to another input point existing within a predetermined range with respect to the input point.
  • the erasing operation determination unit 32 determines that the erasing operation is performed by the mode determination unit 36
  • the input point detection unit 31 Among the detected input points, an area including each input point included in the integrated determination range having a predetermined size with the input point having the maximum total value counted by the input point counting unit 35 as a reference position is erased.
  • an erasure range setting unit 37 is set as an erasure range that is a processing target range.
  • the range corresponding to the user's touch operation can be set as the erase range by setting the erase range according to the input points included in the integrated determination range.
  • the input points to be included in the erasure range are selected based on the result weighted according to the distance between the input points, the input points may fluctuate due to changes in the degree of contact with the display screen during the user's touch operation. Even if it occurs, the erasure range can be set appropriately.
  • the erasing operation determination unit 32 calculates the input points detected by the input point detection unit 31 at predetermined time intervals.
  • a mode determining unit that determines that the user's operation is an erasing operation when there are more than a second predetermined number N2 of input points whose movement vectors for each input point are within a predetermined deviation; and the mode determining unit
  • an erasure range setting for setting an area including each of the input points whose movement vector is within a predetermined deviation as an erasure range that is an object erasure process range. And a portion 37.
  • input points to be included in the erasure range can be determined according to how the input points (touch points touched by the user) move. For this reason, for example, even when an input operation (such as a drawing operation) that is different from the erase operation is performed near the erase range, the erase operation and an operation other than the erase operation are appropriately identified to prevent erroneous determination. it can.
  • the erasing operation determination unit 32 is a distance between input points among a plurality of input points detected by the input point detection unit 31.
  • a mode determination unit 36 that determines that the user's operation is an erasure operation when there are at least a third predetermined number N3 of input points whose fluctuation range is within a predetermined value within the predetermined period, and the mode determination unit 36 erases the input point
  • an area including each input point whose fluctuation range within a predetermined period of the distance between the input points is within a second predetermined value V2 is an erasing process target range of the image.
  • This configuration includes an erasing range setting unit 37 that sets the range.
  • input points to be included in the erasure range can be determined according to how the input points (touch points touched by the user) move. For this reason, for example, even when an input operation (such as a drawing operation) that is different from the erase operation is performed near the erase range, the erase operation and an operation other than the erase operation are appropriately identified to prevent erroneous determination. it can.
  • the erasing operation determination unit 32 calculates the input points detected by the input point detection unit 31 at predetermined time intervals. There are at least a second predetermined number N2 of input points whose movement vectors for each input point are within a predetermined deviation, and the fluctuation range of the distance between the input points within a predetermined period is within the second predetermined value V2.
  • the mode determining unit 36 that determines that the user's operation is an erasing operation when the input point is greater than or equal to the third predetermined number N3, and the movement when the erasing operation determining unit 32 determines that the erasing operation is an erasing operation.
  • An area including each input point in which a vector is within a predetermined deviation and a fluctuation range of the distance between the input points within a predetermined period is within a second predetermined value V2 is a pair of image erasing processes.
  • input points to be included in the erasure range can be determined according to how the input points (touch points touched by the user) move. For this reason, for example, even when an input operation (such as a drawing operation) that is different from the erase operation is performed near the erase range, the erase operation and an operation other than the erase operation are appropriately identified to prevent erroneous determination. it can.
  • the present invention can be used for a touch panel.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

イレーサ装置(4)は、タッチパネルに接触または近接させたときに入力点として検出されるタッチ部(柱部(48))を複数有し、それら複数のタッチ部(柱部(48))がタッチパネルに消去操作であると判定される密集度合で形成されている。これにより、タッチパネルに対する消去操作を容易に行うことができる指示入力システムを安価に提供できる。

Description

イレーサ装置および指示入力システム
 本発明は、タッチパネルに対して表示画像の消去操作を行うためのイレーサ装置、および上記イレーサ装置とタッチパネルとを備えた指示入力システムに関するものである。
 従来、ユーザがタッチパネルに対して表示画面に描画された表示画像の消去操作を行う方法として、次に行うタッチ操作が消去操作であることを指定するモード切替操作(描画モードと消しゴムモードとを切り替える操作)を予め行ってから消去のためのタッチ操作を行う方法が知られている。
 しかしながら、この方法では、モード切替操作を行ってから消去操作を行う必要があるので、2段階の操作が必要であり、手間がかかるという問題がある。
 これに対して、特許文献1には、消去操作専用の入力器具(イレーサ装置)を用いてタッチ操作を行うことにより、タッチパネルに消去指示を認識させる技術が示されている。
 具体的には、特許文献1の技術では、矩形形状のイレーサ装置の対角線の両端に押ボタンからなる座標指示部を設けるとともに、イレーサ装置とタッチパネル(情報処理装置)とをワイヤで通信可能に接続しておくことにより、イレーサ装置をタッチパネルに押し当てて押ボタンが押圧されたときにタッチパネルが消去指示であることを認識できるようになっている。
日本国特許公報「特開平8-263212号公報(1996年10月11日公開)」
 しかしながら、特許文献1の技術では、イレーサ装置とタッチパネルとに通信機能を設ける必要があるので、装置コストが増大するという問題がある。
 本発明は、上記の問題点に鑑みてなされたものであり、その目的は、タッチパネルに対する消去操作を容易に行うことができるイレーサ装置および指示入力システムを安価に提供することにある。
 本発明の一態様にかかるイレーサ装置は、タッチパネルに対して表示画像の消去操作を入力するためのイレーサ装置であって、前記タッチパネルは、表示画面上に配置された多数の検知点のうちタッチ操作された検知点を入力点として検出する入力点検出部と、前記入力点の密集度合に応じてユーザの操作が消去操作であるか否かを判定する消去操作判定部とを備えており、前記イレーサ装置は、前記タッチパネルに接触または近接させたときに前記入力点として検出されるタッチ部を複数有し、それら複数のタッチ部が前記消去操作判定部に消去操作であると判定される密集度合で形成されていることを特徴としている。
 上記の構成によれば、イレーサ装置を用いてタッチパネルに対するタッチ操作を行うことにより、タッチパネルにイレーサ装置の各タッチ部を入力点として検知させ、それら各入力点の密集度合によって消去操作であると判定させることができる。したがって、イレーサ装置からタッチパネルへ消去指示を示す情報を送信しなくても、タッチパネルに消去操作であることを認識させることができる。このため、イレーサ装置およびタッチパネルに通信機能を設ける必要がないので、イレーサ装置およびタッチパネルの製造コストを低減することができる。また、ユーザが描画モードと消しゴムモードとを切り替えるモード切替操作を行わなくても、タッチパネルに消去操作であることを認識させることができるので、ユーザの利便性を向上させることができる。したがって、上記の構成によれば、タッチパネルに対する消去操作を容易に行うことができる指示入力システムを安価に提供することができる。
本発明の実施形態1にかかる指示入力システムの全体構成を示す説明図である。 図1の指示入力システムに備えられるタッチパネルのパネル部およびパネル駆動部の構成を示す説明図である。 図1の指示入力システムに対する消去操作の様子を示す説明図である。 図1の指示入力システムに備えられるイレーサ装置の外観を示す斜視図である。 (a)は図4に示したイレーサ装置の上面図であり、(b)は(a)に示したA-A断面の断面図であり、(c)は(a)に示したB-B断面の断面図であり、(d)は(b)に示したC-C断面の断面図である。 図4に示したイレーサ装置の分解斜視図である。 図4に示したイレーサ装置に備えられる導電性緩衝部材の断面図である。 図1の指示入力システムに備えられるタッチパネルにおける指示入力の検出処理の流れを示すフローチャートである。 図1の指示入力システムにおいてタッチパネルのタッチ部にイレーサ装置でタッチ操作を行ったときに検出される入力点を示す説明図である。 図9に示した入力点に基づいてユーザの操作が消去操作であるか否かを判定する処理を示す説明図である。 図9に示した入力点に基づいて消去範囲を設定する処理を示す説明図である。 本発明の実施形態1にかかる指示入力システムにおいて、イレーサ装置の一部のみでタッチ操作を行っている状態を示す説明図である。 図12に示したタッチ操作を行った場合に検出される入力点を示す説明図である。 本発明の実施形態3にかかる指示入力システムにおいて、タッチパネルがユーザの操作が消去操作であるか否かを判定する処理に用いる重み付け係数を示す説明図である。 本発明の実施形態5における消去範囲の設定方法の概念を示す説明図である。 本発明の実施形態5における指示入力の検出処理の流れを示すフローチャートである。 本発明の実施形態5における消去操作か否かの判定処理および消去範囲の設定処理を説明するための説明図である。 本発明の実施形態6における消去範囲の設定方法の概念を示す説明図である。 本発明の実施形態6における指示入力の検出処理の流れを示すフローチャートである。 本発明の実施形態6における消去操作か否かの判定処理および消去範囲の設定処理を説明するための説明図であり、(a)は各入力点の所定周期毎の座標検出値、(b)は所定周期毎の隣接する入力点同士の距離、(c)は各入力点に基づいて設定される消去範囲を示している。 本発明の実施形態6において消去範囲を設定した後に行われる処理を説明するための説明図であり、(a)は各入力点の所定周期毎の座標検出値、(b)は所定周期毎の隣接する入力点同士の距離、(c)は各入力点に基づいて設定される消去範囲を示している。 本発明の実施形態6における消去操作か否かの判定処理および消去範囲の設定処理を説明するための説明図であり、(a)は各入力点の所定周期毎の座標検出値、(b)は所定周期毎の隣接する入力点同士の距離、(c)は各入力点の検出座標、(d)は各入力点の移動ベクトルを示している。
  〔実施形態1〕
 本発明の一実施形態について説明する。
 (1-1.タッチパネルの全体構成)
 図1は、本実施形態にかかる指示入力システム100の全体構成を示す説明図である。図1に示すように、指示入力システム100は、表示装置1、タッチパネル2、情報処理装置3、およびイレーサ装置4を備えている。
 情報処理装置3は、表示装置1に表示対象の画像データを出力するとともに、上記画像データが表示された表示画面に対するユーザのタッチ操作(操作入力)に応じた情報をタッチパネル2から取得する。また、情報処理装置3は、タッチパネル2から取得したユーザのタッチ操作に応じた情報に基づいて、表示装置1に出力する画像データを更新したり、ユーザのタッチ操作に応じた各種処理を行ったりする。なお、情報処理装置3の構成は特に限定されるものではなく、例えば、パーソナルコンピュータなどであってもよい。
 表示装置1は、表示部11、表示駆動部12、および表示制御部13を備えている。
 表示部11は、情報処理装置3から取得した画像データに応じた画像を表示画面に表示させるものであり、例えば液晶ディスプレイ、有機EL(エレクトロルミネセンス)ディスプレイ、プラズマディスプレイ、プロジェクタなどを用いることができる。表示部11の解像度やサイズは特に限定されるものではなく、例えば、1920画素×1080画素のフルハイビジョンサイズであってもよく、3840画素×2160画素の4Kサイズであってもよい。
 表示駆動部12は、表示制御部13からの指示に応じて表示部11の各画素を駆動する。
 表示制御部13は、表示対象の画像データに応じて表示駆動部12の動作を制御し、表示部11に画像データに応じた画像を表示させる。
 タッチパネル2は、パネル部21、パネル駆動部22、およびタッチパネル制御部23を備えている。
 図2は、パネル部21およびパネル駆動部22の構成を示す説明図である。
 パネル部21は、表示装置1の表示画面に重ねて配置され、表示部11に表示された表示画像に対するユーザからの指示入力に応じた信号をパネル駆動部22に出力する機能を有している。
 図2に示したように、パネル部21は、互いに平行に配置された複数の駆動線(ドライブライン)DLと、互いに平行に配置された複数のセンス線(センスライン)SLとを有している。駆動線DLはX方向(紙面横方向)に延伸し、センス線SLはX方向と直交するY方向(紙面縦方向)に延伸しており、駆動線DLとセンス線SLとは立体交差するように配置(マトリクス状に配置)されている。
 なお、駆動線DLおよびセンス線SLの数は特に限定されるものではないが、本実施形態では、駆動線DLを4096本、センス線SLを2160本備え、4096×2160個の座標位置のそれぞれについて静電容量の変化を検出するようになっている。また、パネル部21の構成は上述した構成に限るものではなく、従来から静電容量方式のタッチパネルで用いられている種々のパネル部を用いることができる。
 パネル駆動部22は、送信部24、受信部25、および駆動制御部26を備えている。駆動制御部26は、送信部24および受信部25の動作タイミングを制御する。送信部24は、駆動制御部26の指示に応じて、所定のフレームレートに応じたタイミングで各駆動線DLに駆動信号Dsを順次印加する。受信部25は、各駆動線DLへの駆動信号Dsの印加に応じて各センス線SLに生じる応答信号であるセンス信号Ssを各駆動線DLへの駆動信号Dsの印加と同期したタイミングで取得する。
 導電性を有する物体(例えば、ユーザの指、タッチパネル専用のペンやイレーサ装置4など)がパネル部21に接触あるいは近接すると、駆動線DLとセンス線SLとの交差部(検知点)の静電容量が変化する。受信部25は駆動線DLとセンス線SLとの各交差部の静電容量に応じた信号と各交差部の位置を示す信号とをタッチパネル制御部23(入力点検出部31)に出力する。
 タッチパネル制御部23は、入力点検出部31、消去操作判定部32、および入力情報出力部33を備えている。
 入力点検出部31は、パネル駆動部22から取得した駆動線DLとセンス線SLとの各交差部の静電容量に応じた信号と各交差部の位置を示す信号とに基づいて、静電容量が他の交差部と所定値以上異なる交差部をユーザによるパネル部21に対するタッチ操作位置(入力点)として検出する。なお、本実施形態では、表示画面1画面分のタッチ操作位置の検出を1フレームの処理として、各フレームの処理を所定周期毎(例えば5ミリ秒毎)に行い、フレーム毎にタッチ操作位置を検出する。これにより、連続するフレーム間におけるタッチ操作位置の移動がフレーム毎に検出される。
 消去操作判定部32は、領域設定部34、入力点計数部35、モード判定部36、および消去範囲設定部37を備えており、入力点検出部31が検出した入力点に基づいて、ユーザが行ったタッチ操作が消去操作(表示部11に表示された表示画像におけるタッチ操作に応じた範囲の画像を消去させるための操作)であるか否かを判定する。また、消去操作判定部32は、ユーザが行ったタッチ操作が消去操作であると判断した場合、ユーザのタッチ操作に応じて消去範囲を設定する。なお、消去操作判定部32におけるこれらの処理の詳細については後述する。
 入力情報出力部33は、入力点検出部31が検出したユーザによるタッチ操作と消去操作判定部32の処理結果とに応じた情報を情報処理装置3に出力する。
 具体的には、消去操作判定部32が消去操作であると判定した場合には、入力情報出力部33は、消去操作であることを示す情報と消去範囲を示す情報とを情報処理装置3に出力する。また、消去操作判定部32が消去操作ではないと判定した場合には、入力情報出力部33は、消去操作ではないことを示す情報とユーザのタッチ操作位置を示す情報とを情報処理装置3に出力する。あるいは、消去操作であると判定した場合には消去範囲を示す情報(面積情報)を出力し、消去操作ではないと判定した場合にはタッチ操作に対応する入力点の位置情報(点情報)を出力し、情報処理装置3が消去範囲に示す情報(面積情報)であるか入力点の位置情報(点情報)であるか否かに応じて消去操作であるか否かを判断するようにしてもよい。なお、ユーザが行う消去操作以外の操作としては、例えば、線、点、文字、図形などを入力するための描画指示や、表示部11に表示されたメニュー項目の中から所望の項目を選択するための選択指示などが挙げられる。
 これにより、情報処理装置3は、ユーザのタッチ操作に応じて表示装置1に表示させる画像を変化させたり、タッチ操作に応じた各種処理を行ったりする。
 例えば、情報処理装置3は、ユーザのタッチ操作が消去操作である場合には、消去範囲の画像を消去する。なお、ユーザのタッチ操作が消去操作である場合に、情報処理装置3が、消去範囲の形状を示す画像(例えば枠画像など)をユーザのタッチ操作に応じた位置に表示させるようにしてもよい。
 また、情報処理装置3は、ユーザのタッチ操作が消去操作ではなく、かつ、タッチ操作位置がメニュー選択画面に対応する位置であった場合には、タッチ操作に応じたメニュー処理を実行する。また、情報処理装置3は、ユーザのタッチ操作が消去操作ではなく、かつ、タッチ操作位置が描画領域であった場合には、描画処理を実行する。描画処理では、例えば、フレーム毎に検出されたタッチ操作位置の座標を直線または曲線でつなぐことにより描画が行われる。
 イレーサ装置4は、ユーザがタッチパネル2に対して消去操作を行うための入力器具である。本実施形態では、図3に示すように、ユーザがイレーサ装置4を把持してイレーサ装置4をパネル部21に接触あるいは近接させながら移動させることにより、消去操作を行うようになっている。なお、イレーサ装置4の構成については後述する。
  (1-2.イレーサ装置4の構成)
 図4は、イレーサ装置4の外観を示す斜視図である。また、図5の(a)はイレーサ装置4の上面図であり、(b)は(a)に示したA-A断面の断面図であり、(c)は(a)に示したB-B断面の断面図であり、(d)は(b)に示したC-C断面の断面図である。また、図6は、イレーサ装置4の分解斜視図である。また、図7は、イレーサ装置4に備えられる導電性緩衝部材46の断面図である。
 図4~図6に示したように、イレーサ装置4は、グリップ部41、本体部42、柱保護部43、布部44、ネジ45、および導電性緩衝部材46を備えている。なお、本実施形態では、図4に示したように、イレーサ装置4の形状を、長さ100m、幅50mm、高さ40mmの略直方体形状としている。
 グリップ部41は、金属あるいは導電性樹脂などの導電性部材からなり、イレーサ装置4の上面および各側面における上面側の端部を覆うように配置されている。本実施形態では、グリップ部41として、厚さ3mmの導電性樹脂からなる板状部材を用いた。
 本体部42は、金属あるいは導電性樹脂などの導電性部材からなり、略矩形形状の基台部49と基台部49から所定方向に突出する13本の柱部48(第1~第13柱部48a~48m)とを備えている。具体的には、各柱部48は、基台部49から、イレーサ装置4の底面側(タッチパネル2側)に向けて、すなわちグリップ部41と基台部49との対向面(図6の場合、グリップ部41と基台部49との対向面は平面)に対して略垂直な方向に向けて突出するように設けられている。イレーサ装置4でパネル部21にタッチ操作を行ったとき、各柱部48は、パネル部21に対して略垂直な方向となるように構成されていればよい。なお、本実施形態では、図6に示したように、基台部49の厚さを5mmとし、柱部48の長さを30mmとした。また、柱部48の断面形状を1辺8mmの正方形形状とした。
 また、本実施形態では、図5の(d)に示したように、13本の柱部48(第1柱部48a~第13柱部48m)のうち、イレーサ装置4を底面側から見たときに矩形形状からなる基台部49の4隅に第1~第4柱部48a~48dが配置され、基台部49の中心部(矩形形状の対角線の交点あるいは交点の近傍に相当する位置)に第5柱部48eが配置され、矩形形状の一方の長辺に第6~第8柱部48f~48hが配置され、他方の長辺に第9~第11柱部48i~48kが配置され、矩形形状の一方の短辺に第12柱部48lが配置され、他方の短辺に第13柱部48mが配置されている。
 なお、本実施形態では、断面形状が四角形である柱部48を用いているが、柱部48の形状はこれに限るものではなく、例えば断面形状が円形、楕円形、多角形、多角形の角部を面取りした形状などであってもよい。また、柱部48の数についても13本に限るものではない。
 また、各柱部48における上記所定方向の先端(イレーサ装置4の底面側の端面)には、導電性緩衝部材46が導電性接着部材47によって柱部48と電気的に導通するように取り付けられている。導電性接着部材47は、導電性を有する接着部材であれば特に限定されるものではないが、例えば、導電性アクリル系粘着剤、あるいは導電性不織布両面テープなどを用いることができる。
 図7は、導電性緩衝部材46の断面図である。この図に示すように、導電性緩衝部材46は、緩衝部材46aの周囲を導電性フィルム46bで覆った構成になっている。緩衝部材46aの構成は適度な弾性を有する部材であれば特に限定されるものではないが、例えばポリウレタンフォーム等の発泡体を用いることができる。また、導電性フィルム46bは、導電性を有し、かつ緩衝部材46aの変形に追従して変形する柔軟性を有する材質であれば特に限定されるものではないが、例えばポリイミド等の樹脂に銅やニッケル等の導電性材料を含有させて導電性を付与したフィルム、あるいは、ポリイミド等の樹脂の表面に銅とニッケルからなる導電層を形成した導電性フィルムなどを用いることができる。
 柱保護部43は、ポリウレタン等の非導電性の弾性部材からなり、各柱部48の間の領域に柱部48間の隙間を埋めるように配置されている。具体的には、柱保護部43は、各柱部48に対応する位置に各柱部48の形状に応じた切欠部43aが形成されており、それら各切欠部43aに当該切欠部43aに対応する柱部48を挿入することにより各柱部48の間の領域に配置される。各柱部48同士の間の領域に柱保護部43が配置されることにより、柱部48に作用する外力を軽減し、柱部48が折れたり変形したりすることを防止することができる。
 布部44は、フェルト等の薄い非導電性の布状部材であり、イレーサ装置4の底面および各側面における底面側の部分を覆うように配置されている。具体的には、図6に示したように、布部44は、イレーサ装置4における本体部42の底面および側面に配置される部分と、本体部42の側面の上端部から本体部42の上面に沿って折り込まれた端部44aとを備えている。そして、端部44aが本体部42の上面とグリップ部41との間に挟まれることのより、布部44が本体部42の底面(各柱部48の先端側)および各側面を覆うように配置される。なお、布部44の厚さは、ユーザがイレーサ装置4を把持してイレーサ装置4の底面(各柱部48の先端側の面)をタッチパネル2のパネル部21に近接あるいは接触させたときに、各柱部48による静電容量の変化がタッチパネル2に検知される程度の厚さに設定される。本実施形態では、布部44の厚さを1mmとした。
 ネジ45は、金属あるいは導電性樹脂等の導電性材料からなり、グリップ部41と本体部42との間に布部44の端部44aを挟み込んだ状態でグリップ部41と本体部42とを固定する。これにより、グリップ部41、本体部42、および導電性緩衝部材46と、グリップ部41を把持したユーザとが電気的に導通する。なお、本実施形態ではグリップ部41と本体部42とを導電性のネジ45によって取り付けているが、これに限らず、例えば導電性接着部材(例えば導電性粘着剤や導電性両面テープなど)によって取り付けてもよい。あるいは、グリップ部41に設けた係合部と本体部42に設けた被係合部とを係合させることによりグリップ部41と本体部42とを取り付けてもよい。
  (1-3.タッチ操作による指示入力の検出処理)
 図8は、タッチパネル2に対するユーザからの指示入力の検出処理の流れを示すフローチャートである。
 まず、入力点検出部31が、パネル駆動部22から入力される、駆動線DLとセンス線SLとの各交差部(検知点)の静電容量を示す信号に基づいて、入力点(ユーザによるタッチ操作位置)を検出する(S1)。例えば、入力点検出部31は、静電容量が他の交差部(あるいは所定の基準値)と所定値以上異なる交差部を入力点として検出する。
 なお、例えば、上述した図3に示したように、イレーサ装置4でパネル部21にタッチ操作を行うと、イレーサ装置4の各柱部48が導電性緩衝部材46および布部44を介してパネル部21と接触あるいは近接した位置に対応する複数の検知点(例えば図9に×印で示した検知点201~213)がタッチパネル2に入力点として検出される。
 次に、領域設定部34は、S1で検出した入力点のうちの1つを注目入力点として設定し(S2)、注目入力点を中心とする所定範囲の領域を入力点の探索範囲として設定する(S3)。
 具体的には、領域設定部34は、図10に示すように、注目入力点(図10の例では入力点207)を中心とする半径R1(本実施形態では半径R1は70mm)の円301を探索範囲として設定する。なお、半径R1のサイズは70mmに限定されるものではなく、例えばイレーサ装置4の大きさに応じて適宜設定してもよい。例えば、半径R1を、イレーサ装置4の中心に配置された第5柱部48eを注目入力点としたときに各柱部48(第1~第13柱部48a~48m)が含まれる円の半径に設定してもよい。
 次に、入力点計数部35は、S3で設定した探索範囲に含まれる入力点の数を計数する(S4)。例えば、図10の例では、入力点201~213の13個の入力点が計数される。
 次に、領域設定部34は、S1で検出された全ての入力点のうち、当該入力点を注目入力点としてS2~S4の処理を行っていない未処理の入力点が残っているか否かを判断し(S5)、未処理の入力点が残っている場合には未処理の入力点のうちの1つを注目入力点としてS2~S4の処理を行う。
 一方、S5において未処理の入力点が残っていないと判断した場合、モード判定部36は、各入力点についてのS4の処理における計数結果に応じて、ユーザのタッチ操作が消去操作であるか否か(イレーサ装置4によるタッチ操作であるか否か)を判断する(S6)。すなわち、モード判定部36は、ユーザのタッチ操作が消去操作であるか否かを入力点の密集度合に応じて判断する。
 具体的には、本実施形態では、モード判定部36は、探索範囲に含まれる入力点の数が閾値(例えば13)以上である注目入力点が存在する場合に消去操作であると判断し、存在しない場合には消去操作ではないと判断する。
 あるいは、モード判定部36が、探索範囲に含まれる入力点の数が第1所定数N1(例えば3)以上であった注目入力点の数が所定の閾値(例えば13)以上である場合に消去操作であると判断し、探索範囲に含まれる入力点の数が第1所定数N1以上である注目入力点の数が閾値未満であった場合に消去操作ではないと判断するようにしてもよい。
 S6においてモード判定部36が消去操作であると判断した場合、消去範囲設定部37は、S1で検出した各入力点に基づいて消去範囲を設定する(S7)。
 本実施形態では、S1で検出した各入力点の座標から、X座標最大値、X座標最小値、Y座標最大値、およびY座標最小値を抽出し、抽出したこれらの座標値によって特定される矩形領域(〔x座標最小値,y座標最小値〕、〔x座標最小値,y座標最大値〕、〔x座標最大値,y座標最小値〕、〔x座標最大値,y座標最大値〕を4隅とする矩形領域)を消去範囲に設定する。これにより、図11に示したように、S1で検出した各入力点を内包する矩形401の領域が消去範囲として設定される。ただし、消去範囲の設定方法はこれに限るものではなく、例えば、例えば、S1で検出した各入力点を接続してなる閉曲線によって形成される矩形領域を消去範囲として設定してもよい。
 なお、矩形401のX軸方向の幅403はX座標最大値とX座標最小値との差分で表され、Y軸方向の幅404はY座標最大値とY座標最小値との差分で表される。また、図11に示した座標402は、矩形401の中心座標または重心座標を示している。また、矩形401の中心座標は((X座標最小値+X座標最大値)÷2、(Y座標最小値+Y座標最大値)÷2)で求めることができ、重心座標はS1で検出した各入力点の座標値の平均値から求めることができる。
 S7の処理の後、入力情報出力部33が、消去操作であることを示す情報と消去範囲を示す情報とを情報処理装置3に出力する(S8)。
 消去範囲を示す情報としては、例えば、矩形401の基準位置(例えば中心座標)と、X軸方向の幅403と、Y軸方向の幅404とを出力する。あるいは、矩形形状の消去範囲のX座標最大値、X座標最小値、Y座標最大値、およびY座標最小値を出力してもよい。また、矩形形状の消去範囲の各角部の座標を出力してもよい。
 なお、本実施形態では、消去範囲の形状を矩形形状としている。これにより、情報処理装置3における消去範囲の演算処理を簡略化することができる。ただし、消去範囲の形状はこれに限るものではなく、例えば、S1で検出した各入力点を内包する円形あるいは楕円形に設定してもよい。
 また、表示部11の解像度とパネル部21の解像度とが異なる場合、入力情報出力部33が消去範囲を示す情報を表示部11の解像度に応じた座標系の座標値に変換してから情報処理装置3に出力してもよい。あるいは、入力情報出力部33が消去範囲を示す情報をパネル部21の解像度に応じた座標系の座標値で情報処理装置3に出力し、情報処理装置3が必要に応じて表示部11の解像度に応じた座標系に変換するようにしてもよい。
 S8で消去操作であることを示す情報と消去範囲を示す情報とを情報処理装置3に出力した後、タッチパネル制御部23は、タッチ操作の検出処理を終了するか否かを判断し(S10)、終了しない場合にはS1の処理に戻る。なお、タッチ操作の検出処理を終了するか否かの判断方法は特に限定されるものではなく、例えば、ユーザからのタッチ操作の終了指示あるいは電源オフ指示を受け付けたか否かに応じて判断してもよく、タッチパネル2に対するタッチ操作が行われていない状態が所定時間以上継続したか否かに応じて判断してもよく、消去操作中にタッチオフ操作(イレーサ装置4をパネル部21から離間させる操作)が行われたか否かに応じて判断してもよい。
 また、S6の処理において消去操作ではないと判断した場合、入力情報出力部33は、S1で検出した入力点の位置情報を情報処理装置3に出力する(S11)。この際、消去操作ではないことを示す情報を入力点の位置情報とともに出力してもよい。また、表示部11の解像度とパネル部21の解像度とが異なる場合、入力情報出力部33が入力点の位置情報を表示部11の解像度に応じた座標系の座標値に変換してから情報処理装置3に出力してもよい。あるいは、入力情報出力部33が入力点の位置情報をパネル部21の解像度に応じた座標系の座標値で情報処理装置3に出力し、情報処理装置3が必要に応じて表示部11の解像度に応じた座標系に変換するようにしてもよい。
 なお、S1の処理において検出された入力点の数が上記閾値未満であった場合(あるいは上記閾値未満に設定される所定値以下であった場合)に、S2~S6の処理を省略してS9の処理を行うようにしてもよい。これにより、消去操作ではない場合の演算処理を簡略化することができる。
 S9で入力点の位置情報を情報処理装置3に出力した後、タッチパネル制御部23は、タッチ操作の検出処理を終了するか否かを判断し(S10)、終了しない場合にはS1の処理に戻る。
 以上のように、本実施形態にかかるイレーサ装置4は、タッチパネル2のパネル部21に接触または近接させたときに入力点として検出される柱部(タッチ部)48を複数有しており、それら複数の柱部48がタッチパネル2の消去操作判定部32に消去操作であると判定される密集度合で形成されている。
 これにより、ユーザが描画モードと消しゴムモードとを切り替えるモード切替操作を行ったり、イレーサ装置4からタッチパネル2側へ消去操作であることを示す情報を送信したりしなくても、タッチパネル2に消去操作であることを認識させることができる。したがって、モード切替操作を行う必要がないのでユーザの利便性を向上させることができる。また、イレーサ装置4とタッチパネル2とに通信機能を備える必要がないので、指示入力システム100の構成を簡略化し、製造コストを低減できる。すなわち、タッチパネル2に対する消去操作を容易に行うことができる指示入力システム100を安価に提供することができる。
 なお、実施形態では、柱部(タッチ部)48の数を人間の両手の指の数(10本)よりも多い数(13本)に設定しており、消去操作であるか否かを判定する閾値を柱部48の数である13に設定している。これにより、人間の指によるタッチ操作とイレーサ装置4によるタッチ操作とを適切に区別できるようになっている。
 ただし、柱部48の設置数および上記閾値の設定はこれに限るものではない。例えば、柱部48の数を人間の両手の指の数(10本)よりも多い数(11本以上)に設定し、上記閾値を人間の両手の指の数(10本)よりも多く、かつ柱部48の数以下に設定してもよい。
 あるいは、柱部48の数を人間の片手の指の数(5本)よりも多い数(6本以上)に設定し、上記閾値を人間の片手の指の数(5本)よりも多く、かつ柱部48の数以下に設定してもよい。この場合には、人間の片手によるタッチ操作とイレーサ装置4によるタッチ操作とを適切に区別することができる。
 また、各柱部48同士の間隔は、人間の指で各柱部48に対応する入力点を同時にタッチ操作することが困難な間隔に設定しておくことが好ましい。これにより、人の指先によるタッチ操作が消去操作として誤判定されることをより適切に抑制できる。
 また、本実施形態では、矩形形状の各隅部に配置された第1~第4柱部48a~48dと、矩形形状の中心に配置された第5柱部48eとを備えている。これら5本の柱部48a~48eを備えることにより、これら5本の柱部48a~48eに対応する位置をユーザが5本の指をすぼめてタッチ操作するのは困難なので、イレーサ装置4によるタッチ操作とユーザの指先によるタッチ操作とを適切に識別できる。
 なお、各柱部48同士の間隔は、タッチパネル2における検知点の解像度に応じて、タッチパネル2が各柱部48を別々の入力点として検知できる程度の間隔に設定しておくことが好ましい。これにより、複数の柱部48がタッチパネル2に1つの入力点として誤検知されることを防止できる。例えば、タッチパネル2における検知点間の間隔が18mmに設定されている場合、柱部48同士の間隔を18mmよりも十分に大きい間隔(例えば25mm程度)に設定しておくことにより、複数の柱部48がタッチパネル2に1つの入力点として誤検知されることを確実に防止できる。
 また、本実施形態では、イレーサ装置4における各柱部48の端面(タッチパネル2側の端面)に導電性緩衝部材46が配置されている。これにより、各柱部48のタッチパネル2に対する当り具合によって検出精度のばらつきが生じることを抑制することができる。また、導電性緩衝部材46を布部44で覆うことにより、イレーサ装置4をタッチパネル2に接触させることによってタッチパネル2が傷ついたり、音が生じたりすることを抑制できる。
 また、本実施形態では、イレーサ装置4におけるタッチパネル2との対向面および側面の一部を覆うように布部44が設けられている。これにより、イレーサ装置4のタッチパネル2に対する摩擦抵抗を低減し、タッチパネル2に接触させながら摺動させたときにタッチパネル2が傷ついたり音が生じたりすることを抑制できる。また、布部44を設けることにより、イレーサ装置4の意匠性を向上させることができる。
  〔実施形態2〕
 本発明の他の実施形態について説明する。なお、説明の便宜上、実施形態1と同じ機能を有する部材については同じ符号を付し、その説明を省略する。
 実施形態1では、柱部(タッチ部)48の数を人間の両手の指の数(10本)よりも多い数(13本)に設定し、消去操作であるか否かを判定する閾値を柱部48の数である13に設定していた。
 これに対して、本実施形態では、イレーサ装置4の構成は同じであるが、タッチパネル2において消去操作であるか否かを判定する際の閾値をイレーサ装置4における矩形形状の短辺方向に配置された柱部48の数である3に設定している。すなわち、本実施形態では、モード判定部36は、探索範囲に含まれる入力点の数が3個以上である注目入力点が存在する場合に消去操作であると判断し、存在しない場合には消去操作ではないと判断する。
 これにより、イレーサ装置4の底面の一部(例えばイレーサ装置4の底面が成す矩形形状の1辺に相当する部分)のみを用いて消去操作を行うことができるので、より面積が小さい消去範囲の消去操作を行うことができる。
 例えば、図12に示すように、イレーサ装置4における矩形形状の短辺側部分でパネル部21にタッチ操作した場合を考える。この場合、図13に示すように、短辺側に配置された3つの柱部48(〔第1柱部48a、第2柱部48b、第12柱部48l〕あるいは〔第3柱部48c、第4柱部48d、第13柱部48m〕)に対応する入力点601,602,603が検出される。これにより、本実施形態では、タッチパネル2において消去操作であるか否かを判定する閾値を3に設定しているので、タッチパネル2において消去操作であると判定される。
 なお、消去範囲を設定する際、消去範囲の最小幅を予め設定しておき、各入力点の座標うちのX座標最大値とX座標最小値との差分が上記最小幅よりも小さい場合に、消去範囲のX軸方向の幅を上記最小幅に設定するようにしてもよい。同様に、各入力点の座標うちのY座標最大値とY座標最小値との差分が上記最小幅よりも小さい場合に、消去範囲のY軸方向の幅を上記最小幅に設定するようにしてもよい。上記最小幅は特に限定されるものではないが、例えば5mm程度に設定してもよい。
  〔実施形態3〕
 本発明の他の実施形態について説明する。なお、説明の便宜上、上述した実施形態と同じ機能を有する部材については同じ符号を付し、その説明を省略する。
 実施形態1では、各入力点について、当該入力点を中心とする所定サイズの探索範囲(半径R1の円内)に含まれる入力点の数が所定の閾値以上である注目入力点が存在するか否かに応じて消去操作であるか否かを判定する構成について説明した。
 これに対して、本実施形態では、各入力点について、当該入力点を中心とする所定サイズの探索範囲に含まれる他の入力点に対して中心(注目入力点)からの距離に応じた重み付け係数を付与し、各入力点に付与した重み付け係数の総和を算出し、算出した値が第1所定値V1以上であるか否かに応じて消去操作であるか否かを判定する。
 具体的には、領域設定部34は、S3の処理において、図10に示すように注目入力点(図10の例では入力点207)を中心とする半径R1の円301を探索範囲として設定した後、図14に示すように半径R1をN等分する(Nは2以上の整数)。そして、図14に示すように、半径R1をN等分して得られたN個の区域に対して、円301の中心(入力点207)に最も近い区域にN、次に近い区域にN-1、次に近い区域にN-2というように、中心から離れるほど順次小さくなる重み付け係数を割り当てる。なお、最も遠い区域には重み付け係数1を割り当て、半径R1より遠い領域には重み付け係数0を割り当てる。
 次に、S4の処理において、入力点計数部35は、各入力点に対して当該入力点が属する区域に応じた重み付け係数を付与し、各入力点に付与した重み付け係数の合計値を算出する。
 そして、S2~S5の処理を全ての入力点について行い、各入力点を注目入力点とした場合の上記合計値を入力点毎に算出した後、S6の処理において、モード判定部36が、合計値が第1所定値V1以上である入力点が存在するか否かに応じて、ユーザのタッチ操作が消去操作であるか否かを判断する。その後の処理は実施形態1と同様である。なお、算出した上記合計値が第1所定値V1以上である入力点の数が所定の閾値以上であるか否かに応じて消去操作であるか否かを判定するようにしてもよい。
 これにより、ユーザが消去操作のために手の平等を表示画面上で移動させる際に、例えば、腕時計、ブレスレット、衣類、ボタン等が表示画面に接触した場合でも、それらに起因して不適切な入力点が消去範囲に含まれることを抑制し、消去範囲を安定させることができる。
  〔実施形態4〕
 本発明のさらに他の実施形態について説明する。なお、説明の便宜上、上述した実施形態と同じ機能を有する部材については同じ符号を付し、その説明を省略する。
 実施形態1では、S3の処理において設定する入力点の探索範囲(円301)の大きさを一定としていた。
 これに対して、本実施形態では、消去操作が継続している期間中に、入力点の探索範囲の大きさを消去操作であると判定される前の探索範囲(円301)よりも大きく設定する。例えば、消去操作が継続している期間中、入力点の探索範囲とする円の半径を、消去操作であると判定される前の当初の探索範囲(円301)の半径の2倍以上の大きさに設定する。
 これにより、例えば、消去操作中にイレーサ装置4の底面の一部(複数の柱部48のうちの一部に対応する領域)が表示画面(パネル部21)から一時的に浮いたりした場合であっても、消去操作がユーザの意図に反して解除されることを抑制し、消去処理を安定して行うことができる。
 なお、消去操作が継続している期間中に、S6において消去操作であるか否かを判定するための上記閾値を、当初の閾値よりも小さい値(例えば1)に設定してもよい。これにより、例えば、消去操作中にユーザの手の平等の一部が表示画面(パネル部21)から一時的に浮いたりした場合でも、消去処理を安定して行うことができる。
  〔実施形態5〕
 本発明のさらに他の実施形態について説明する。なお、説明の便宜上、上述した実施形態と同じ機能を有する部材については同じ符号を付し、その説明を省略する。
 図15は、本実施形態における消去範囲の設定方法の概念を示す説明図である。この図に示すように、本実施形態では、検出された各入力点の所定時間毎の移動ベクトル(図中の矢印参照)を算出し、移動ベクトルが予め定められた偏差内である各入力点(図中の破線で囲った入力点参照)を1つのオブジェクトとして取り扱い、それら各入力点を含む領域を消去範囲として設定する。
 図16は、本実施形態におけるユーザからの指示入力の検出処理の流れを示すフローチャートである。
 まず、入力点検出部31が、パネル駆動部22から入力される、駆動線DLとセンス線SLとの各交差部(検知点)の静電容量を示す信号に基づく入力点(タッチ操作位置)の所定周期(例えば5ミリ秒)毎の検出を開始する(S21)。入力点の検出結果は、図示しない記憶部に一時的に記憶される。
 また、モード判定部36は、入力点の検出処理を開始してから(あるいは移動ベクトルを前回算出したときから)所定時間(例えば0.1秒)が経過することを監視し(S22)、経過したと判断した場合には所定時間毎の移動ベクトル(所定時間経過前の各入力点の座標から所定時間経過後の当該各入力点の座標までの移動ベクトル)を算出する(S23)。
 そして、モード判定部36は、移動ベクトルの偏差が所定範囲内(例えばx方向およびy方向についてそれぞれ±3mmの範囲内)である入力点が第2所定数N2以上(例えば2個以上)あるか否かを判断する(S24)。S24において第2所定数N2以上であると判断した場合、モード判定部36は消去操作であると判断し、第2所定数N2未満であると判断した場合には消去操作ではないと判断する。
 S24においてモード判定部36が移動ベクトルの偏差が所定範囲内である入力点の数が第2所定数N2以上であると判断した場合、消去範囲設定部37は、移動ベクトルの偏差が所定範囲内である入力点を統合(グループ化)する(S25)。
 図17は、消去操作か否かの判定処理および消去範囲の設定処理を説明するための説明図である。図17に示す例は、時刻t0=0秒から時刻t1=0.1秒の期間中に入力点P1~P5が検出され、それら入力点P1~P5の時刻t0からt1までの移動ベクトル(x,y)がP1=(2.2,1.4)、P2=(1.8,1.3)、P3=(1.9,1.6)、P4=(1.7,1.5)、P5=(1.6,3.8)であった場合を示している。
 モード判定部36は、まず、x座標についてソート(探索)し、0.3mmの偏差に入っている入力点のグループを抽出する。これにより、図17の例では、「P1,P3」のグループと「P2,P3,P4,P5」グループとが抽出される。
 次に、モード判定部36は、x座標に基づいて抽出した上記各グループについてy座標のソートを行い、x座標の場合と同様に0.3mmの偏差内である入力点のグループを抽出する。図17の例では、「P1,P3」のグループ(グループ1)と「P2,P3,P4」のグループ(グループ2)とが抽出される。
 次に、モード判定部36は、x座標およびy座標に基づいて抽出した各グループについて、それぞれのグループに含まれる入力点の数を比較し、入力点の数が多いグループを抽出する。図17の例では、グループ1,2のうち、入力点の数が多いグループ2が抽出される。その後、モード判定部36は、抽出したグループ(図17の例ではグループ2)に含まれる入力点の数が第2所定数N2以上であるか否かを判断し、第2所定数N2以上である場合には消去範囲設定部37が当該グループに含まれる入力点を統合する。
 なお、移動ベクトルの偏差が所定範囲内である入力点を統合した後、モード判定部36が当該グループの移動ベクトルを当該グループに含まれる入力点の平均値に基づいて算出し、1つのオブジェクトとして取り扱うようにてもよい。
 また、新規で入力点(タッチ点)が追加された場合に、その新規に追加された入力点と既存の入力点の移動ベクトル(あるいは統合したグループの移動ベクトル)とを比較し、新規の入力点を統合したグループに追加するか否かを判断するようにしてもよい。
 例えば、上記の図17の例において、時刻t2に移動ベクトルがP6=(1.7,1.6)である入力点P6(図示せず)が出現した場合、グループ2の移動ベクトルをGP2=(1.7,1.4)とすると、P1,P5は±0.3mmの偏差内に入っていないので除外され、P6はx座標・y座標ともに±0.3mmの偏差内に入っているのでグループ2に含められる。グループ2に含まれていない入力点P1,P5は、消去操作以外の入力と考えられる。統合したグループの移動ベクトルは、例えば当該グループに含まれる入力点の座標値の平均値に基づいて算出する。
 S25において移動ベクトルの偏差が所定範囲内である入力点を統合した後、消去範囲設定部37は、統合した各入力点に基づいて消去範囲を設定する(S26)。
 具体的には、消去範囲設定部37は、S25で統合した各入力点の座標から、X座標最大値、X座標最小値、Y座標最大値、およびY座標最小値を抽出し、抽出したこれらの座標値によって特定される矩形領域を消去範囲に設定する。
 次に、入力情報出力部33が、消去操作であることを示す情報と消去範囲を示す情報とを情報処理装置3に出力する(S27)。
 消去範囲を示す情報としては、例えば、矩形501の基準位置(例えば中心座標)と、X軸方向の幅503と、Y軸方向の幅504とを出力する。あるいは、矩形形状の消去範囲のX座標最大値、X座標最小値、Y座標最大値、およびY座標最小値を出力してもよい。また、矩形形状の消去範囲の各角部の座標を出力してもよい。
 その後、タッチパネル制御部23は、タッチ操作の検出処理を終了するか否かを判断し(S29)、終了しない場合にはS22の処理に戻る。なお、タッチ操作の検出処理を終了するか否かの判断方法は特に限定されるものではなく、例えば、ユーザからのタッチ操作の終了指示あるいは電源オフ指示を受け付けたか否かに応じて判断してもよく、タッチパネル2に対するタッチ操作が行われていない状態になったとき(タッチアップされたとき)に終了すると判断してもよく、タッチパネル2に対するタッチ操作が行われていない状態が所定時間以上継続したか否かに応じて判断してもよい。
 また、S24の処理においてモード判定部36が第2所定数N2未満であると判断した場合(消去操作ではないと判断した場合)、入力情報出力部33は、所定周期毎に検出した各入力点の位置情報を情報処理装置3に出力し(S28)、S29の処理に進む。
 以上のように、本実施形態では、所定時間毎に各入力点の移動ベクトルを算出し、算出した移動ベクトルが予め定められた偏差内である各入力点を含む領域を画像の消去範囲として設定する。
 これにより、入力点の動き方に応じて消去範囲に含める入力点を決定することができる。このため、例えば、消去範囲の近くで消去操作とは異なる入力操作(描画操作等)が行われた場合でも、消去操作と消去操作以外の操作とを適切に識別し、誤判定が生じることを防止できる。特に、イレーサ装置4により消去操作を行う場合、イレーサ装置4の各柱部48に対応する入力点の移動ベクトルは類似した値になりやすいので、消去操作と消去操作以外の操作とを適切に識別することができる。
  〔実施形態6〕
 本発明のさらに他の実施形態について説明する。なお、説明の便宜上、上述した実施形態と同じ機能を有する部材については同じ符号を付し、その説明を省略する。
 図18は、本実施形態における消去範囲の設定方法の概念を示す説明図である。この図に示すように、本実施形態では、検出された各入力点について所定期間内における隣接する入力点同士の距離の変化を算出し、距離の変化量が所定値以内である各入力点を1つのオブジェクトとして取り扱い、それら各入力点を含む領域を消去範囲として設定する。
 図19は、本実施形態におけるユーザからの指示入力の検出処理の流れを示すフローチャートである。
 まず、入力点検出部31が、パネル駆動部22から入力される、駆動線DLとセンス線SLとの各交差部(検知点)の静電容量を示す信号に基づいて、所定周期毎(例えば5ミリ秒毎)に入力点(タッチ操作位置)を検出する(S31)。入力点の検出結果は、図示しない記憶部に順次記憶される。
 次に、モード判定部36は、S31で今回検出した各入力点について、隣接する入力点同士の距離(図18の矢印参照)を算出する(S32)。距離の算出結果は、図示しない記憶部に順次記憶される。
 次に、モード判定部36は、隣接する入力点との距離が所定の判定値(例えば15cm)以上である入力点を消去操作であるか否かの判定処理から除外する(S33)。
 次に、モード判定部36は、入力点が検出開始されてから所定期間(例えば50ミリ秒)が経過したか否かを判断する(S34)。そして、所定期間が経過していないと判断した場合、S31の処理に戻る。
 一方、所定期間が経過したと判断した場合、モード判定部36は、所定期間内における隣接する入力点との距離の変動幅が第2所定値V2(例えば2mm)以下である入力点が第3所定数N3(例えば2個)以上あるか否かを判断する(S35)。そして、S35において第3所定数N3以上であると判断した場合、モード判定部36は消去操作であると判断し、第3所定数N3未満であると判断した場合には消去操作ではないと判断する。
 また、S35においてモード判定部36が第3所定数N3以上であると判断した場合、消去範囲設定部37は、隣接する入力点との距離の変動幅が第2所定値V2以下である各入力点を統合(グループ化)する(S36)。
 図20は、消去操作か否かの判定処理および消去範囲の設定処理を説明するための説明図であり、(a)は各入力点の所定周期毎の座標検出値、(b)は所定周期毎の隣接する入力点同士の距離、(c)は各入力点に基づいて設定される消去範囲を示している。なお、図20に示す例は、時刻t0=0秒から時刻t10=50ミリ秒の期間中に入力点P1~P6が検出された場合を示している。
 モード判定部36は、所定周期毎に、隣接する入力点との距離が所定の判定値(例えば15cm)以上である入力点が存在するかを判断し、存在する場合には当該入力点を消去操作の判定処理から除外する。
 具体的には、モード判定部36は、各入力点をx座標値に基づいてソート(探索)する。図20の例では、x座標値が小さい順に、P3,P1,P5,P2,P6,P4となる。x座標値が最も小さい入力点P3と最も大きい入力点P4のx座標値の差は所定の判定値(15cm)を超えていないので、消去操作の判定処理から除外されるものはいない。同様に、y座標でソートすると、y座標値が小さい順に、P2,P4,P1,P3,P6,P5となり、y座標値の差が所定の判定値(15cm)を超えている入力点はないので、消去操作の判定処理から除外されるものはいない。
 次に、モード判定部36は、x座標値に基づいてソートした結果から、隣接する入力点間の距離(P3-P1,P1-P5,P5-P2,P2-P6,P6-P4間の距離)を算出する。この隣接する入力点間の距離の算出を時刻t1~t10の間続け、その間に、算出した距離の変動幅(最小値minと最大値maxとの差)Δmaxが第2所定値V2(例えば2mm)以上になる入力点があった場合、当該入力点を統合対象から除外して再計算を行う。これにより、図20の例では、入力点P2が除外される。
 その後、消去範囲設定部37が、距離の変動幅が所定値以下であった各入力点を統合する(S36)。なお、距離の変動幅が所定値以下であった入力点のグループが複数存在する場合、入力点の数が多いグループを選択して統合する。
 次に、消去範囲設定部37は、統合した各入力点の座標に基づいて消去範囲を設定する(S37)。具体的には、統合した各入力点の座標から、X座標最大値、X座標最小値、Y座標最大値、およびY座標最小値を抽出し、抽出したこれらの座標値によって特定される矩形領域を消去範囲に設定する。
 次に、入力情報出力部33が、消去操作であることを示す情報と消去範囲を示す情報とを情報処理装置3に出力する(S38)。
 その後、タッチパネル制御部23は、タッチ操作の検出処理を終了するか否かを判断し(S40)、終了しない場合にはS31の処理に戻る。
 また、S35の処理において変動幅が第2所定値V2未満である入力点の数が第3所定数N3未満であると判断した場合(消去操作ではないと判断した場合)、入力情報出力部33は、S31で検出した入力点の位置情報を情報処理装置3に出力し(S39)、S40の処理に進む。
 なお、入力点を統合して消去範囲を設定した後、所定周期毎に検出される統合した各入力点の座標値に基づいて消去範囲の初期設定時の面積を算出するとともに、統合した入力点におけるX座標最大値、X座標最小値、Y座標最大値、およびY座標最小値によって特定される矩形領域の面積を継続的に監視し、その面積が消去範囲の初期設定時の面積に対して所定割合以上変化した場合に入力点の統合処理および消去範囲の設定処理をやり直すようにしてもよい。これにより、消去範囲を設定した後に統合すべき入力点が増減した場合であっても、タッチ操作に応じて消去範囲を適切に設定することができる。また、この方法では、上記面積が所定条件以上大きくなるまでは統合した各入力点の座標に基づいて消去範囲の位置を設定するだけでよく、入力点間の距離の算出等の処理を省略できるので、演算処理を簡略化することができる。
 例えば、図21に示すように、時刻t0において統合された入力点P1(t0),P3(t0),P4(t0),P5(t0),P6(t0)がある場合、これら各入力点のX座標最大値、X座標最小値、Y座標最大値、およびY座標最小値によって特定される矩形領域A(t0)の面積を算出して図示しない記憶部に記憶させておく。
 その後、これら各入力点P1,P3~P6によって特定される矩形領域Aの面積を監視し、時刻t0からの矩形領域の面積の変化量が所定条件以上になった場合に、他の入力点からの距離が大きく変動する入力点があると判断し、統合する入力点の再設定を行う。
 図21の場合、入力点P3が他の入力点から徐々に離れていっており、矩形領域Aの面積が、時刻t0における矩形領域A(t0)から時刻t10における矩形領域A(t10)にかけて徐々に大きくなっていく。この場合、統合された入力点のx座標の最大値と最小値との差、およびy座標の最大値と最小値との差の少なくとも一方が時刻t0のときよりも所定値(例えば5mm)以上大きくなった時点で統合する入力点の再計算を行い、入力点P3を統合対象から除外する。なお、除外した入力点P3を消去操作の入力点ではなく描画操作の入力点とするようにしてもよい。
 以上のように、本実施形態では、入力点同士の距離の所定期間内における変化量が所定値以内である各入力点を含む領域を消去範囲として設定する。
 これにより、入力点同士の所定期間毎の距離の変化に応じて消去範囲に含める入力点を決定することができる。このため、例えば、イレーサ装置4によってタッチ操作した領域の近くでイレーサ装置4以外による入力操作が行われた場合でも、消去操作と消去操作以外の操作とを適切に識別し、誤判定が生じることを防止できる。また、イレーサ装置4によるタッチ領域が直線的移動ではなく曲線的に移動した場合であっても、統合すべき入力点を適切に検出することができる。
  〔実施形態7〕
 本発明のさらに他の実施形態について説明する。なお、説明の便宜上、上述した実施形態と同じ機能を有する部材については同じ符号を付し、その説明を省略する。
 本実施形態では、上述した実施形態6にかかる入力点の統合方法(検出された各入力点の所定時間毎の移動ベクトルが予め定められた偏差内である各入力点を統合する方法)と、実施形態7にかかる統合方法(検出された各入力点について所定期間内における隣接する入力点同士の距離の変動幅が第2所定値V2以内である各入力点を統合する方法)とを組み合わせて用いる。
 図22は、消去操作か否かの判定処理および消去範囲の設定処理を説明するための説明図であり、(a)は各入力点の所定周期毎の座標検出値、(b)は所定周期毎の隣接する入力点同士の距離、(c)は各入力点の検出座標、(d)は各入力点の移動ベクトルを示している。なお、図22に示す例は、図20と同様の測定データに基づくものであり、時刻t0=0秒から時刻t10=50ミリ秒の期間中に入力点P1~P6が検出された場合を示している。
 まず、入力点検出部31が、所定周期(本実施形態では5ミリ秒)毎に入力点を検出する。そして、領域設定部34が所定時間(本実施形態ではt1からt7までの期間である30ミリ秒)毎に各入力点の移動ベクトルを算出し、モード判定部36が移動ベクトルの偏差が所定範囲外(例えばx方向およびy方向についてそれぞれ±3mmの範囲外)である入力点を統合処理の対象から除外する。これにより、図17の例では、(a)に示したように入力点P2の移動ベクトルが所定範囲外であるので、(c),(d)に示したように時刻t7の時点で入力点P2が統合処理の対象から除外される。
 そして、モード判定部36は、移動ベクトルの偏差が所定範囲内である入力点が第2所定数N2(例えば2個)未満である場合には消去操作ではないと判断する。
 一方、モード判定部36は、移動ベクトルの偏差が所定範囲内である入力点が第2所定数N2以上である場合、所定期間(本実施形態ではt1からt10までの期間である50ミリ秒)が経過する毎に当該所定期間内における隣接する入力点同士の距離の変化を算出する。
 そして、モード判定部36は、変動幅が第2所定値V2(例えば2mm)以下である入力点が第3所定数N3(例えば2個)未満である場合には消去操作ではないと判断する。
 一方、モード判定部36は、変動幅が第2所定値V2以下である入力点が第3所定数N3以上である場合、消去操作であると判断する。この場合、消去範囲設定部37が、距離の変動幅が第2所定値V2以内である各入力点を含む領域を消去範囲として設定する。
 このように、本実施形態では、入力点毎の移動ベクトルの偏差に基づいて統合処理の対象とする入力点を絞り込んだ後に、絞り込まれた入力点について入力点同士の距離の変化に基づいて当該各入力点を統合するか否かを判断する。
 このため、入力点同士の距離の変化に基づいて入力点を統合するための演算処理を簡略化することができる。
 例えば、図22の場合、時刻t7の時点で入力点P2が除外されるので、時刻t10で入力点同士の距離の変化に基づいて当該各入力点を統合するか否かを判断するときには入力点P2を除外した入力点P1,P3~P6についてのみ演算を行えばよく、演算量を低減できる。
 なお、実施形態6にかかる入力点の統合方法(検出された各入力点の所定時間毎の移動ベクトルが予め定められた偏差内である各入力点を統合する方法)は、実施形態7にかかる統合方法(検出された各入力点について所定期間内における隣接する入力点同士の距離の変動幅が第2所定値V2以内である各入力点を統合する方法)よりも演算が簡易である一方、消去範囲設定の正確性は実施形態7にかかる統合方法の方が高い。したがって、本実施形態の方法によれば、実施形態6にかかる入力点の統合方法および実施形態7にかかる統合方法の両者の利点を活かすことができ、消去範囲の設定を簡易な演算により正確に行うことができる。
 なお、実施形態6にかかる入力点の統合方法(検出された各入力点の所定時間毎の移動ベクトルが予め定められた偏差内である各入力点を統合する方法)により入力点の絞り込みを行った後、入力点間の距離を算出し、算出した距離が所定の判定値以上である入力点についてはその時点で統合処理の対象から除外するようにしてもよい。これにより、例えば、イレーサ装置4を用いて消去操作を行う際、ユーザの衣服の袖等がパネル部21に接触した場合であっても、袖等による入力点とイレーサ装置4による入力点との距離は、イレーサ装置4における柱部48間の距離よりも長くなるので、袖等による入力点を統合処理の対象から除外することができる。したがって、袖等がパネル部21に接触してしまうことによってユーザの意図に反して画像が消去されてしまうことを防止できる。
  〔実施形態8〕
 上記各実施形態において、タッチパネル2のタッチパネル制御部23は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
 後者の場合、タッチパネル制御部23は、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、上記プログラムおよび各種データがコンピュータ(またはCPU)で読み取り可能に記録されたROM(Read Only Memory)または記憶装置(これらを「記録媒体」と称する)、上記プログラムを展開するRAM(Random Access Memory)などを備えている。そして、コンピュータ(またはCPU)が上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
  〔まとめ〕
 本発明の態様1にかかるイレーサ装置4は、タッチパネル2に対して表示画像の消去操作を入力するためのイレーサ装置4であって、前記タッチパネル2は、表示画面上に配置された多数の検知点のうちタッチ操作された検知点を入力点として検出する入力点検出部31と、前記入力点の密集度合に応じてユーザの操作が消去操作であるか否かを判定する消去操作判定部32とを備えており、前記イレーサ装置4は、前記タッチパネル2に接触または近接させたときに前記入力点として検出されるタッチ部(柱部48)を複数有し、それら複数のタッチ部(柱部48)が前記消去操作判定部32に消去操作であると判定される密集度合で形成されていることを特徴としている。
 上記の構成によれば、イレーサ装置4を用いてタッチパネル2に対するタッチ操作を行うことにより、タッチパネル2にイレーサ装置4の各タッチ部(柱部48)を入力点として検知させ、それら各入力点の密集度合によって消去操作であると判定させることができる。したがって、イレーサ装置4からタッチパネル2へ消去指示を示す情報を送信しなくても、タッチパネル2に消去操作であることを認識させることができる。このため、イレーサ装置4およびタッチパネル2に通信機能を設ける必要がないので、イレーサ装置4およびタッチパネル2の製造コストを低減することができる。また、ユーザが描画モードと消しゴムモードとを切り替えるモード切替操作を行わなくても、タッチパネル2に消去操作であることを認識させることができるので、ユーザの利便性を向上させることができる。したがって、上記の構成によれば、タッチパネル2に対する消去操作を容易に行うことができる指示入力システム100を安価に提供することができる。
 本発明の態様2にかかるイレーサ装置4は、上記態様1において、前記タッチパネル2は静電容量方式のタッチパネルであり、前記イレーサ装置4は、複数の前記タッチ部(柱部48)とユーザが掴むグリップ部41とを備えており、前記タッチ部(柱部48)と前記グリップ部41とはいずれも導電性であり、かつ前記タッチ部(柱部48)と前記グリップ部41とが電気的に導通している構成である。
 上記の構成によれば、イレーサ装置4に備えられる各タッチ部(柱部48)を、当該イレーサ装置4を掴んでいるユーザと電気的に導通させることによって接地させることができるので、各タッチ部(柱部48)の検出精度を向上させることができる。
 本発明の態様3にかかるイレーサ装置4は、上記態様2において、前記各タッチ部(柱部48)は、所定方向に突出する導電性の柱部48と、前記柱部48における前記所定方向の先端に前記柱部48と電気的に導通するように取り付けられた導電性の緩衝部材(導電性緩衝部材46)とを備えている構成である。
 上記の構成によれば、各タッチ部(柱部48および導電性緩衝部材46)のタッチパネル2に対する当り具合によって検出精度のばらつきが生じることを抑制することができる。また、各タッチ部を布部44で覆うことにより、イレーサ装置4をタッチパネル2に接触させることによってタッチパネル2が傷ついたり、音が生じたりすることを抑制できる。
 本発明の態様4にかかるイレーサ装置4は、上記態様3において、前記柱部同士の間の領域が非導電性の弾性部材からなる柱保護部43が配置されている構成である。
 上記の構成によれば、イレーサ装置4をタッチパネル2に接触させたときに各柱部に作用する負荷を非導電性の弾性部材からなる柱保護部43によって低減し、各柱部が破損することを防止できる。
 本発明の態様5にかかるイレーサ装置4は、上記態様1から4のいずれかにおいて、前記複数のタッチ部(柱部48)のうちの第1~第4タッチ部(第1柱部48a~第4柱部48d)を4隅とする矩形領域内に前記複数のタッチ部(第1柱部48a~第13柱部48m)の全てが配置され、前記複数のタッチ部(第1柱部48a~第13柱部48m)のうちの第5タッチ部(第5柱部48e)が前記矩形領域の中心部に配置されるように前記複数のタッチ部(第1柱部48a~第13柱部48m)の各々の位置関係が定められている構成である。
 上記の構成によれば、各タッチ部(第1柱部48a~第13柱部48m)に対応する入力点の検出位置に基づいて消去範囲を容易に特定することができる。また、矩形形状の角部にのみにタッチ部(第1柱部48a~第4柱部48d)を設ける場合に比べて、タッチ部(第1柱部48a~第13柱部48m)の密集度合を増加させることができるので、イレーサ装置4によるタッチ操作と人の指やペンによるタッチ操作とを容易に識別させることができる。
 本発明の態様6にかかる指示入力システム100は、表示画面上に配置された多数の検知点のうちタッチ操作された検知点を入力点として検出する入力点検出部31と、前記入力点の密集度合に応じてユーザの操作が消去操作であるか否かを判定する消去操作判定部32とを有するタッチパネル2と、上記態様1から5のいずれかのイレーサ装置4とを備えていることを特徴としている。
 上記の構成によれば、イレーサ装置4によりタッチパネル2に対するタッチ操作を行うことにより、タッチパネル2にイレーサ装置4の各タッチ部(柱部48)を入力点として検知させ、その密集度合によって消去操作であると判定させることができる。したがって、イレーサ装置4からタッチパネル2へ消去指示を示す情報を送信しなくても、タッチパネル2に消去操作であることを認識させることができる。このため、イレーサ装置4およびタッチパネル2に通信機能を備える必要がないので、イレーサ装置4およびタッチパネル2の製造コストを低減することができる。また、ユーザが描画モードと消しゴムモードとを切り替えるモード切替操作を行わなくても、タッチパネル2に消去操作であることを認識させることができるので、ユーザの利便性を向上させることができる。すなわち、上記の構成によれば、タッチパネル2に対する消去操作を容易に行うことができる指示入力システム100を安価に提供することができる。
 本発明の態様7にかかる指示入力システム100は、上記態様6において、前記タッチ部(柱部48)同士の間隔は、前記入力点検出部31によって各タッチ部(柱部48)が別々の入力点として検出される間隔に設定されている構成である。
 上記の構成によれば、各タッチ部(柱部48)をそれぞれ別々の入力点として検出することができるので、入力点の密集度合を適切に評価することができる。
 本発明の態様8にかかる指示入力システム100は、上記態様6または7において、前記消去操作判定部32は、前記入力点検出部31によって検出された入力点を注目入力点として1つずつ順次選択し、選択した注目入力点を中心とする所定範囲の領域を当該注目入力点についての探索範囲として設定する領域設定部34と、前記探索範囲に存在する入力点の数を注目入力点毎に計数する入力点計数部35と、前記入力点計数部35の計数した数が第1所定数N1以上である注目入力点の数が所定の閾値以上である場合に、ユーザの操作を前記消去操作であると判定するモード判定部36とを備えている構成である。
 上記の構成によれば、各入力点について、当該入力点を注目入力点としたときに当該注目入力点を中心とする所定範囲内に存在する入力点の数を計数し、所定範囲内に存在する入力点の数が第1所定数N1以上である入力点の数が閾値以上である場合に消去操作であると判定する。これにより、入力点の密集度合に応じてユーザの操作が消去操作であるか否かを適切に判定することができる。
 本発明の態様9にかかる指示入力システム100は、上記態様8において、前記消去操作判定部32は、前記モード判定部36によって消去操作であると判定された場合に、前記入力点検出部31によって検出された入力点のうち、前記入力点計数部35によって計数された値が最大である入力点を基準位置とする所定サイズの統合判定範囲に含まれる各入力点を含む領域を画像の消去処理の対象範囲である消去範囲として設定する消去範囲設定部37を備えている構成である。
 上記の構成によれば、統合判定範囲に含まれる入力点に応じて消去範囲を設定することにより、ユーザのタッチ操作に応じた範囲を消去範囲として設定することができる。
 本発明の態様10にかかる指示入力システム100は、上記態様6または7において、前記消去操作判定部32は、前記入力点検出部31によって検出された入力点を注目入力点として1つずつ順次選択し、選択した注目入力点を中心とする所定範囲の領域を当該注目入力点についての探索範囲として設定する領域設定部34と、前記探索範囲に存在する各入力点に対して当該入力点と注目入力点との距離が長くなるほど小さくなる重み付け係数を割り当て、各入力点について割り当てた重み付け係数を合計した合計値を注目入力点毎に計数する入力点計数部35と、前記入力点計数部35の計数した合計数が第1所定値V1以上である注目入力点の数が所定の閾値以上である場合に、ユーザの操作を前記消去操作であると判定するモード判定部36とを備えている構成である。
 上記の構成によれば、各入力点について、当該入力点に対して所定範囲内に存在する他の入力点に対して当該入力点から前記他の入力点までの距離が長くなるほど小さくなる重み付け係数を割り当て、それを合計した合計値が第1所定値V1以上である入力点の数が閾値以上である場合に消去操作であると判定する。これにより、入力点の密集度合に応じてユーザの操作が消去操作であるか否かを適切に判定することができる。
 本発明の態様11にかかる指示入力システム100は、上記態様10において、前記消去操作判定部32は、前記モード判定部36によって消去操作であると判定された場合に、前記入力点検出部31によって検出された入力点のうち、前記入力点計数部35によって計数された合計値が最大である入力点を基準位置とする所定サイズの統合判定範囲に含まれる各入力点を含む領域を画像の消去処理の対象範囲である消去範囲として設定する消去範囲設定部37を備えている構成である。
 上記の構成によれば、統合判定範囲に含まれる入力点に応じて消去範囲を設定することにより、ユーザのタッチ操作に応じた範囲を消去範囲として設定することができる。また、入力点同士の距離に応じて重み付けされた結果に基づいて消去範囲に含める入力点が選択されるので、ユーザのタッチ操作の際に表示画面に対する接触度合の変化等により入力点の変動が生じた場合でも、消去範囲を適切に設定することができる。
 本発明の態様12にかかる指示入力システム100は、上記態様6または7において、前記消去操作判定部32は、前記入力点検出部31によって検出された複数の入力点のうち、所定時間毎に算出する入力点毎の移動ベクトルが予め定められた偏差内である入力点が第2所定数N2以上存在する場合にユーザの操作が消去操作であると判定するモード判定部36と、前記モード判定部36によって消去操作であると判定された場合に、前記移動ベクトルが予め定められた偏差内である前記各入力点を含む領域を画像の消去処理の対象範囲である消去範囲として設定する消去範囲設定部37とを備えている構成である。
 上記の構成によれば、入力点(ユーザがタッチ操作したタッチ点)の動き方に応じて消去範囲に含める入力点を決定することができる。このため、例えば、消去範囲の近くで消去操作とは異なる入力操作(描画操作等)を行った場合でも、消去操作と消去操作以外の操作とを適切に識別し、誤判定が生じることを防止できる。
 本発明の態様13にかかる指示入力システム100は、上記態様6または7において、前記消去操作判定部32は、前記入力点検出部31によって検出された複数の入力点のうち、入力点同士の距離の所定期間内における変動幅が所定値以内である入力点が第3所定数N3以上存在する場合にユーザの操作が消去操作であると判定するモード判定部36と、前記モード判定部36によって消去操作であると判定された場合に、前記入力点同士の距離の所定期間内における変動幅が第2所定値V2以内である前記各入力点を含む領域を画像の消去処理の対象範囲である消去範囲として設定する消去範囲設定部37とを備えている構成である。
 上記の構成によれば、入力点(ユーザがタッチ操作したタッチ点)の動き方に応じて消去範囲に含める入力点を決定することができる。このため、例えば、消去範囲の近くで消去操作とは異なる入力操作(描画操作等)を行った場合でも、消去操作と消去操作以外の操作とを適切に識別し、誤判定が生じることを防止できる。
 本発明の態様14にかかる指示入力システム100は、上記態様6または7において、前記消去操作判定部32は、前記入力点検出部31によって検出された複数の入力点のうち、所定時間毎に算出する入力点毎の移動ベクトルが予め定められた偏差内である入力点が第2所定数N2以上存在し、かつ入力点同士の距離の所定期間内における変動幅が第2所定値V2以内である入力点が第3所定数N3以上存在する場合にユーザの操作が消去操作であると判定するモード判定部36と、前記消去操作判定部32によって消去操作であると判定された場合に、前記移動ベクトルが予め定められた偏差内であり、かつ前記入力点同士の距離の所定期間内における変動幅が第2所定値V2以内である前記各入力点を含む領域を画像の消去処理の対象範囲である消去範囲として設定する消去範囲設定部37とを備えている構成である。
 上記の構成によれば、入力点(ユーザがタッチ操作したタッチ点)の動き方に応じて消去範囲に含める入力点を決定することができる。このため、例えば、消去範囲の近くで消去操作とは異なる入力操作(描画操作等)を行った場合でも、消去操作と消去操作以外の操作とを適切に識別し、誤判定が生じることを防止できる。
 本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。
 本発明は、タッチパネルに利用可能である。
1 表示装置
2 タッチパネル
3 情報処理装置
4 イレーサ装置
11 表示部
12 表示駆動部
13 表示制御部
21 パネル部
22 パネル駆動部
23 タッチパネル制御部
24 送信部
25 受信部
26 駆動制御部
31 入力点検出部
32 消去操作判定部
33 入力情報出力部
34 領域設定部
35 入力点計数部
36 モード判定部
37 消去範囲設定部
41 グリップ部
42 本体部
43 柱保護部
43a 切欠部
44 布部
44a 端部
45 ネジ
46 導電性緩衝部材
46a 緩衝部材
46b 導電性フィルム
47 導電性接着部材
48(48a~48m) 柱部(タッチ部)
49 基台部
100 指示入力システム

Claims (14)

  1.  タッチパネルに対して表示画像の消去操作を入力するためのイレーサ装置であって、
     前記タッチパネルは、表示画面上に配置された多数の検知点のうちタッチ操作された検知点を入力点として検出する入力点検出部と、前記入力点の密集度合に応じてユーザの操作が消去操作であるか否かを判定する消去操作判定部とを備えており、
     前記イレーサ装置は、
     前記タッチパネルに接触または近接させたときに前記入力点として検出されるタッチ部を複数有し、それら複数のタッチ部が前記消去操作判定部に消去操作であると判定される密集度合で形成されていることを特徴とするイレーサ装置。
  2.  前記タッチパネルは静電容量方式のタッチパネルであり、
     前記イレーサ装置は、複数の前記タッチ部とユーザが掴むグリップ部とを備えており、
     前記タッチ部と前記グリップ部とはいずれも導電性であり、かつ前記タッチ部と前記グリップ部とが電気的に導通していることを特徴とする請求項1に記載のイレーサ装置。
  3.  前記各タッチ部は、所定方向に突出する導電性の柱部と、前記柱部における前記所定方向の先端に前記柱部と電気的に導通するように取り付けられた導電性の緩衝部材とを備えていることを特徴とする請求項2に記載のイレーサ装置。
  4.  前記柱部同士の間の領域に非導電性の弾性部材からなる柱保護部が配置されていることを特徴とする請求項3に記載のイレーサ装置。
  5.  前記複数のタッチ部のうちの第1~第4タッチ部を4隅とする矩形領域内に前記複数のタッチ部の全てが配置され、前記複数のタッチ部のうちの第5タッチ部が前記矩形領域の中心部に配置されるように前記複数のタッチ部の各々の位置関係が定められていることを特徴とする請求項1に記載のイレーサ装置。
  6.  表示画面上に配置された多数の検知点のうちタッチ操作された検知点を入力点として検出する入力点検出部と、前記入力点の密集度合に応じてユーザの操作が消去操作であるか否かを判定する消去操作判定部とを有するタッチパネルと、
     請求項1に記載のイレーサ装置とを備えていることを特徴とする指示入力システム。
  7.  前記タッチ部同士の間隔は、前記入力点検出部によって各タッチ部が別々の入力点として検出される間隔に設定されていることを特徴とする請求項6に記載の指示入力システム。
  8.  前記消去操作判定部は、
     前記入力点検出部によって検出された入力点を注目入力点として1つずつ順次選択し、選択した注目入力点を中心とする所定範囲の領域を当該注目入力点についての探索範囲として設定する領域設定部と、
     前記探索範囲に存在する入力点の数を注目入力点毎に計数する入力点計数部と、
     前記入力点計数部の計数した数が第1所定数以上である注目入力点の数が所定の閾値以上である場合に、ユーザの操作を前記消去操作であると判定するモード判定部とを備えていることを特徴とする請求項6に記載の指示入力システム。
  9.  前記消去操作判定部は、
     前記モード判定部によって消去操作であると判定された場合に、前記入力点検出部によって検出された入力点のうち、前記入力点計数部によって計数された値が最大である入力点を基準位置とする所定サイズの統合判定範囲に含まれる各入力点を含む領域を画像の消去処理の対象範囲である消去範囲として設定する消去範囲設定部を備えていることを特徴とする請求項8に記載の指示入力システム。
  10.  前記消去操作判定部は、
     前記入力点検出部によって検出された入力点を注目入力点として1つずつ順次選択し、選択した注目入力点を中心とする所定範囲の領域を当該注目入力点についての探索範囲として設定する領域設定部と、
     前記探索範囲に存在する各入力点に対して当該入力点と注目入力点との距離が長くなるほど小さくなる重み付け係数を割り当て、各入力点について割り当てた重み付け係数を合計した合計値を注目入力点毎に計数する入力点計数部と、
     前記入力点計数部の計数した合計数が第1所定値以上である注目入力点の数が所定の閾値以上である場合に、ユーザの操作を前記消去操作であると判定するモード判定部とを備えていることを特徴とする請求項6に記載の指示入力システム。
  11.  前記消去操作判定部は、
     前記モード判定部によって消去操作であると判定された場合に、前記入力点検出部によって検出された入力点のうち、前記入力点計数部によって計数された合計値が最大である入力点を基準位置とする所定サイズの統合判定範囲に含まれる各入力点を含む領域を画像の消去処理の対象範囲である消去範囲として設定する消去範囲設定部を備えていることを特徴とする請求項10に記載の指示入力システム。
  12.  前記消去操作判定部は、
     前記入力点検出部によって検出された複数の入力点のうち、所定時間毎に算出する入力点毎の移動ベクトルが予め定められた偏差内である入力点が第2所定数以上存在する場合にユーザの操作が消去操作であると判定するモード判定部と、
     前記モード判定部によって消去操作であると判定された場合に、前記移動ベクトルが予め定められた偏差内である前記各入力点を含む領域を画像の消去処理の対象範囲である消去範囲として設定する消去範囲設定部を備えていることを特徴とする請求項6に記載の指示入力システム。
  13.  前記消去操作判定部は、
     前記入力点検出部によって検出された複数の入力点のうち、入力点同士の距離の所定期間内における変動幅が第2所定値以内である入力点が第3所定数以上存在する場合にユーザの操作が消去操作であると判定するモード判定部と、
     前記モード判定部によって消去操作であると判定された場合に、前記入力点同士の距離の所定期間内における変動幅が第2所定値以内である前記各入力点を含む領域を画像の消去処理の対象範囲である消去範囲として設定する消去範囲設定部とを備えていることを特徴とする請求項6に記載の指示入力システム。
  14.  前記消去操作判定部は、
     前記入力点検出部によって検出された複数の入力点のうち、所定時間毎に算出する入力点毎の移動ベクトルが予め定められた偏差内である入力点が第2所定数以上存在し、かつ入力点同士の距離の所定期間内における変動幅が第2所定値以内である入力点が第3所定数以上存在する場合にユーザの操作が消去操作であると判定するモード判定部と、
     前記モード判定部によって消去操作であると判定された場合に、前記移動ベクトルが予め定められた偏差内であり、かつ前記入力点同士の距離の所定期間内における変動幅が第2所定値以内である前記各入力点を含む領域を画像の消去処理の対象範囲である消去範囲として設定する消去範囲設定部とを備えていることを特徴とする請求項6に記載の指示入力システム。
PCT/JP2015/078405 2015-06-12 2015-10-06 イレーサ装置および指示入力システム WO2016199320A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US15/735,302 US10466850B2 (en) 2015-06-12 2015-10-06 Eraser device and command input system
CN201580080864.1A CN107710109B (zh) 2015-06-12 2015-10-06 输入装置和指示输入***

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015-119596 2015-06-12
JP2015119596A JP6546455B2 (ja) 2015-06-12 2015-06-12 イレーサ装置および指示入力システム

Publications (1)

Publication Number Publication Date
WO2016199320A1 true WO2016199320A1 (ja) 2016-12-15

Family

ID=57503753

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/078405 WO2016199320A1 (ja) 2015-06-12 2015-10-06 イレーサ装置および指示入力システム

Country Status (4)

Country Link
US (1) US10466850B2 (ja)
JP (1) JP6546455B2 (ja)
CN (1) CN107710109B (ja)
WO (1) WO2016199320A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI694374B (zh) * 2018-08-30 2020-05-21 禾瑞亞科技股份有限公司 電子拭除裝置
WO2020095710A1 (ja) * 2018-11-09 2020-05-14 株式会社ワコム 電子消去具及び筆記情報処理システム
US20200371680A1 (en) * 2019-05-20 2020-11-26 Microsoft Technology Licensing, Llc Method and system for touch screen erasing
JP7482706B2 (ja) * 2020-07-08 2024-05-14 株式会社ワコム スタイラス及びセンサコントローラによって実行される方法、スタイラス、及びセンサコントローラ

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011134298A (ja) * 2009-11-30 2011-07-07 Takashi Yamamoto 情報処理装置用の駆動装置及びマルチタッチ機能を利用した情報処理システム
JP2012099093A (ja) * 2010-10-08 2012-05-24 Ag Ltd タッチパッド用の入力デバイス、プログラム、データ処理方法およびデータ処理装置
JP2013012057A (ja) * 2011-06-29 2013-01-17 Panasonic Corp 認証鍵及び認証装置
WO2014147880A1 (ja) * 2013-03-19 2014-09-25 株式会社ビーツーエンジン タッチパネル用操作器具

Family Cites Families (65)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5475401A (en) * 1993-04-29 1995-12-12 International Business Machines, Inc. Architecture and method for communication of writing and erasing signals from a remote stylus to a digitizing display
JPH08263212A (ja) * 1995-03-27 1996-10-11 Canon Inc 座標入力装置及び該装置を用いた情報処理装置
US5793360A (en) * 1995-05-05 1998-08-11 Wacom Co., Ltd. Digitizer eraser system and method
US6362440B1 (en) * 1998-03-27 2002-03-26 International Business Machines Corporation Flexibly interfaceable portable computing device
JP3587435B2 (ja) * 1998-10-16 2004-11-10 株式会社タカラ 表示パネル
US6046420A (en) * 1998-12-17 2000-04-04 Electronics For Imaging, Inc. Silicon switch
US6529122B1 (en) * 1999-12-10 2003-03-04 Siemens Technology-To-Business Center, Llc Tactile sensor apparatus and methods
US6948210B1 (en) * 2002-09-26 2005-09-27 Chirag Shah Automated board eraser
US7262764B2 (en) * 2002-10-31 2007-08-28 Microsoft Corporation Universal computing device for surface applications
US20040246236A1 (en) * 2003-06-02 2004-12-09 Greensteel, Inc. Remote control for electronic whiteboard
US20080143691A1 (en) * 2005-11-23 2008-06-19 Quiteso Technologies, Llc Systems and methods for enabling tablet PC/pen to paper space
TWI361995B (en) * 2007-07-03 2012-04-11 Elan Microelectronics Corp Input device of capacitive touchpad
US8243028B2 (en) * 2008-06-13 2012-08-14 Polyvision Corporation Eraser assemblies and methods of manufacturing same
EP2226704B1 (en) * 2009-03-02 2012-05-16 Anoto AB A digital pen
KR20120095852A (ko) * 2009-10-15 2012-08-29 스마트 테크놀러지스 유엘씨 디스플레이 표면상에서 손글씨 잉크 객체를 그리기 및 지우기 하는 방법 및 장치
KR101144724B1 (ko) * 2009-12-17 2012-05-24 이성호 터치패널의 터치셀 구조
CN201626217U (zh) * 2010-01-25 2010-11-10 岳敏 多用静电除尘板擦
US20120028228A1 (en) * 2010-07-27 2012-02-02 Angela Loggins myLegalpen
CN201886421U (zh) * 2010-09-26 2011-06-29 广东威创视讯科技股份有限公司 一种无线板擦装置
US8988398B2 (en) * 2011-02-11 2015-03-24 Microsoft Corporation Multi-touch input device with orientation sensing
TWI506487B (zh) * 2011-03-30 2015-11-01 Hon Hai Prec Ind Co Ltd 觸摸屏及其控制方法
CN102736759B (zh) * 2011-04-08 2017-02-15 富泰华工业(深圳)有限公司 触摸屏及其控制方法
KR101820410B1 (ko) * 2011-05-16 2018-03-02 삼성전자주식회사 디지타이저 시스템에서 디지타이저 펜의 지우개 기능을 지원하기 위한 장치 및 방법
US20140055400A1 (en) * 2011-05-23 2014-02-27 Haworth, Inc. Digital workspace ergonomics apparatuses, methods and systems
EP2715490B1 (en) * 2011-05-23 2018-07-11 Haworth, Inc. Digital whiteboard collaboration apparatuses, methods and systems
US9007302B1 (en) * 2011-11-11 2015-04-14 Benjamin D. Bandt-Horn Device and user interface for visualizing, navigating, and manipulating hierarchically structured information on host electronic devices
TWI482100B (zh) * 2011-12-06 2015-04-21 Wistron Corp 電子系統與軌跡偵測方法
CN103176626B (zh) * 2011-12-23 2017-04-12 技嘉科技股份有限公司 触控笔
CN103197870B (zh) * 2012-01-05 2017-03-29 汉王科技股份有限公司 一种移动终端中切换功能状态的方法及装置
US20130201162A1 (en) * 2012-02-05 2013-08-08 Ian Daniel Cavilia Multi-purpose pen input device for use with mobile computers
US9400592B2 (en) * 2012-03-26 2016-07-26 Sharp Laboratories Of America, Inc. Methods, systems and apparatus for digital-marking-surface space and display management
JP5787843B2 (ja) * 2012-08-10 2015-09-30 株式会社東芝 手書き描画装置、方法及びプログラム
KR101967727B1 (ko) * 2012-08-28 2019-04-10 삼성전자 주식회사 터치펜 및 이를 구비하는 휴대단말장치
JP2014203305A (ja) * 2013-04-05 2014-10-27 株式会社東芝 電子機器、電子機器の制御方法、電子機器の制御プログラム
CN104182137B (zh) * 2013-05-28 2017-06-16 福建福昕软件开发股份有限公司 一种擦除记录板上的电子笔迹的方法
CN104423869A (zh) * 2013-09-09 2015-03-18 中兴通讯股份有限公司 文本擦除方法及装置
CN103605477A (zh) * 2013-11-25 2014-02-26 向火平 基于电容屏手写笔迹的手势定位方法及电容屏
CN103606315B (zh) * 2013-11-28 2016-05-18 王滨 一种触摸屏书画练习方法及其练习装置
US9232409B2 (en) * 2013-12-12 2016-01-05 Microsoft Technology Licensing, Llc Binding of an apparatus to a computing device
US9671877B2 (en) * 2014-01-27 2017-06-06 Nvidia Corporation Stylus tool with deformable tip
US20150212600A1 (en) * 2014-01-27 2015-07-30 Nvidia Corporation Stylus tool with deformable tip
US10146424B2 (en) * 2014-02-28 2018-12-04 Dell Products, Lp Display of objects on a touch screen and their selection
US20170192549A1 (en) * 2014-06-30 2017-07-06 Sharp Kabushiki Kaisha Touch panel controller, stylus pen, touch panel system, and electronic device
US20160041635A1 (en) * 2014-08-08 2016-02-11 Kabushiki Kaisha Toshiba Active stylus pen, electronic device and data input system
US20160098142A1 (en) * 2014-10-07 2016-04-07 Microsoft Technology Licensing, Llc Palm gesture detection
JP6564249B2 (ja) * 2015-01-09 2019-08-21 シャープ株式会社 タッチパネルおよび操作判定方法
US10698504B2 (en) * 2015-06-15 2020-06-30 Microsoft Technology Licensing, Llc Detecting input pressure on a stylus pen
IN2015CH03991A (ja) * 2015-07-31 2015-08-14 Wipro Ltd
WO2017022966A1 (en) * 2015-08-05 2017-02-09 Samsung Electronics Co., Ltd. Electric white board and control method thereof
TWM522406U (zh) * 2015-09-18 2016-05-21 翰碩電子股份有限公司 無線觸控筆
JP6620494B2 (ja) * 2015-09-30 2019-12-18 株式会社リコー 通信システム、情報処理装置、通信方法、プログラム
CN108139825B (zh) * 2015-09-30 2021-10-15 株式会社理光 电子黑板、存储介质和信息显示方法
TWI571775B (zh) * 2015-12-01 2017-02-21 Egalax_Empia Tech Inc Electronic erasure device
US10129335B2 (en) * 2016-01-05 2018-11-13 Quirklogic, Inc. Method and system for dynamic group creation in a collaboration framework
CN108780438A (zh) * 2016-01-05 2018-11-09 夸克逻辑股份有限公司 以交互式内容交换视觉元素及填入个人相关显示的方法
US20180046345A1 (en) * 2016-01-05 2018-02-15 Quirklogic, Inc. Method and system for erasing an enclosed area on an interactive display
US10067731B2 (en) * 2016-01-05 2018-09-04 Quirklogic, Inc. Method and system for representing a shared digital virtual “absolute” canvas
US20180074775A1 (en) * 2016-06-06 2018-03-15 Quirklogic, Inc. Method and system for restoring an action between multiple devices
US10198177B2 (en) * 2016-07-14 2019-02-05 Ricoh Company, Ltd. Image processing apparatus, image processing method, and recording medium
US10534449B2 (en) * 2016-08-19 2020-01-14 Microsoft Technology Licensing, Llc Adjustable digital eraser
US10162518B2 (en) * 2017-02-03 2018-12-25 Microsoft Technology Licensing, Llc Reversible digital ink for inking application user interfaces
US20180275830A1 (en) * 2017-03-22 2018-09-27 Flatfrog Laboratories Ab Object characterisation for touch displays
US10429954B2 (en) * 2017-05-31 2019-10-01 Microsoft Technology Licensing, Llc Multi-stroke smart ink gesture language
US10430924B2 (en) * 2017-06-30 2019-10-01 Quirklogic, Inc. Resizable, open editable thumbnails in a computing device
JP6902423B2 (ja) * 2017-07-31 2021-07-14 シャープ株式会社 筆記入力システム、ボードおよび識別子

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011134298A (ja) * 2009-11-30 2011-07-07 Takashi Yamamoto 情報処理装置用の駆動装置及びマルチタッチ機能を利用した情報処理システム
JP2012099093A (ja) * 2010-10-08 2012-05-24 Ag Ltd タッチパッド用の入力デバイス、プログラム、データ処理方法およびデータ処理装置
JP2013012057A (ja) * 2011-06-29 2013-01-17 Panasonic Corp 認証鍵及び認証装置
WO2014147880A1 (ja) * 2013-03-19 2014-09-25 株式会社ビーツーエンジン タッチパネル用操作器具

Also Published As

Publication number Publication date
US20180181231A1 (en) 2018-06-28
CN107710109A (zh) 2018-02-16
CN107710109B (zh) 2021-04-09
JP6546455B2 (ja) 2019-07-17
US10466850B2 (en) 2019-11-05
JP2017004381A (ja) 2017-01-05

Similar Documents

Publication Publication Date Title
US11449224B2 (en) Selective rejection of touch contacts in an edge region of a touch surface
US9454255B2 (en) Device and method for localized force sensing
KR102450301B1 (ko) 중간 차폐 전극층을 채용한 포스 및 근접 센싱을 위한 디바이스 및 방법
CN107231814B (zh) 检测错误边界触摸输入的方法和设备
US20130154938A1 (en) Combined touchpad and keypad using force input
US9405383B2 (en) Device and method for disambiguating region presses on a capacitive sensing device
JP6564249B2 (ja) タッチパネルおよび操作判定方法
WO2016199320A1 (ja) イレーサ装置および指示入力システム
US10185427B2 (en) Device and method for localized force sensing
CN109101127B (zh) 具有浮动接地或薄触摸面板的触摸屏设备中手掌触摸检测
US20160034092A1 (en) Stackup for touch and force sensing
US9898130B2 (en) Grip management
AU2013100574A4 (en) Interpreting touch contacts on a touch surface
WO2016111062A1 (ja) タッチパネルおよび操作判定方法
US20170277265A1 (en) Single axis gesture recognition
KR101385018B1 (ko) 터치 센싱 장치 및 터치 제스쳐 인식 방법
AU2017219061A1 (en) Interpreting touch contacts on a touch surface

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15895004

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15735302

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15895004

Country of ref document: EP

Kind code of ref document: A1