WO2013114499A1 - 入力装置、入力制御方法、および入力制御プログラム - Google Patents

入力装置、入力制御方法、および入力制御プログラム Download PDF

Info

Publication number
WO2013114499A1
WO2013114499A1 PCT/JP2012/007801 JP2012007801W WO2013114499A1 WO 2013114499 A1 WO2013114499 A1 WO 2013114499A1 JP 2012007801 W JP2012007801 W JP 2012007801W WO 2013114499 A1 WO2013114499 A1 WO 2013114499A1
Authority
WO
WIPO (PCT)
Prior art keywords
input
coordinate
area
detection
input device
Prior art date
Application number
PCT/JP2012/007801
Other languages
English (en)
French (fr)
Inventor
山口 武
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to US14/359,168 priority Critical patent/US9395838B2/en
Publication of WO2013114499A1 publication Critical patent/WO2013114499A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup

Definitions

  • the present invention relates to an input device, an input control method, and an input control program.
  • the present invention relates to an electronic device having a touch panel that can detect the approach and contact of an object as input.
  • a mobile terminal such as a smartphone has various functions of different types, and it is desirable that a function desired by the user can be selectively executed from the various functions by a user input operation.
  • a general input device identifies a user operation only by touching the touch panel, in order to select and execute a desired function from various functions, the user performs many touch operations. I had to do it. That is, the input device is not easy to operate from the viewpoint of the user.
  • Patent Document 1 proposes to perform an operation related to selection of a three-dimensional menu using a control stick capable of detecting an input operation in three axis directions of the X axis, the Y axis, and the Z axis.
  • Patent Document 2 it is proposed to detect the movement of the device body in the three-axis direction using a three-axis acceleration sensor. Further, it discloses that the display size of information on the screen is changed with respect to movement in the Z-axis direction.
  • operation is performed using, for example, a touch panel that can detect input operations in the three-axis directions.
  • the apparatus may recognize that the X-axis and Y-axis directions are simultaneously operated, and an erroneous operation may be executed.
  • the apparatus may recognize that the user has also operated the Z-axis direction at the same time, and an erroneous operation may be executed.
  • the present invention has been made in view of the above circumstances, and provides an input device, an input control method, and an input control program capable of preventing erroneous detection of Z-direction coordinates when inputting in the X and Y directions. For the purpose.
  • An input device includes an input detection unit that detects an input, a coordinate detection unit that detects input coordinates that are coordinates of an input detected by the input detection unit, and a surface on which the input detection unit is mounted.
  • a control unit that validates a Z coordinate in a direction orthogonal to the input detection surface among the input coordinates detected by the coordinate detection unit when an input to a certain input detection surface is detected.
  • the input control method of the present invention includes a step of detecting input coordinates, which are coordinates of an input detected by an input detection unit that detects an input, and an input to an input detection surface on which the input detection unit is mounted. A step of validating a Z coordinate that is a coordinate in a direction orthogonal to the input detection surface among the detected input coordinates.
  • the input control program of the present invention is a program for causing a computer to execute each step of the input control method.
  • the Z coordinate is not recognized until contact with the input detection surface is detected. Therefore, it is possible to prevent erroneous detection of the Z coordinate when inputting in the X and Y directions.
  • the block diagram which shows the structural example of the input device in the 1st Embodiment of this invention (A), (B) The figure which shows the structural example of the table used in order to manage the rectangular area
  • the schematic diagram which shows the relationship between the motion of the finger
  • the flowchart which shows the main operation examples by the input device in the 1st Embodiment of this invention.
  • the block diagram which shows the structural example of the input device in the 2nd Embodiment of this invention.
  • FIG. 13 is a schematic diagram showing an example of finger movement in the operation shown in FIGS.
  • the flowchart which shows the main operation examples by the input device in the 3rd Embodiment of this invention.
  • the block diagram which shows the structural example of the input device in the 4th Embodiment of this invention.
  • the flowchart which shows the main operation examples by the input device in the 4th Embodiment of this invention.
  • the block diagram which shows the structural example of the input device in the 5th Embodiment of this invention.
  • the perspective view which shows the 1st example of the hover coordinate detection sensor employable for the input device in the 5th Embodiment of this invention.
  • the flowchart which shows the main operation examples by the input device in the 5th Embodiment of this invention. State transition diagram showing another operation example of a specific application by the input device according to the first embodiment of the present invention
  • FIG. 1 is a block diagram showing a configuration example of an input device according to the first embodiment of the present invention.
  • the input device 100 includes a sensor 10, a coordinate acquisition unit 11, an effective area storage unit 12, a pull operation determination unit 13, a pull operation region storage unit 14, a pull operation start determination unit 15, and a touch operation processing unit. 16, a hover coordinate invalidation unit 17 and a hover operation processing unit 18 are provided.
  • the input device 100 actually includes a display unit having a screen capable of displaying various visible information such as characters, graphics, and images.
  • the input device 100 is assumed to be commercialized by being incorporated into various devices such as a smartphone, a mobile phone terminal, a portable information terminal, a portable music player, and a personal computer. Further, the main control system of the input device 100 can be configured by dedicated hardware, or can be configured mainly by a microcomputer. When a microcomputer is used, a necessary function can be realized by reading a control program prepared in advance and executing it with the microcomputer.
  • Sensor 10 is a touch panel sensor.
  • the sensor 10 detects the presence / absence and position of a finger that touches (contacts) an operation surface TP1 (touch panel surface) (see FIG. 6 described later) of the touch panel or a finger that approaches the touch surface.
  • this touch panel is arrange
  • the coordinate acquisition unit 11 acquires coordinate information representing the position coordinates of a finger or the like based on a signal output from the sensor 10.
  • the coordinate acquisition unit 11 has a function as a coordinate detection unit that detects input coordinates (input coordinates) detected by the input detection unit.
  • coordinate information of the X axis and Y axis parallel to the operation surface TP1 of the touch panel (X coordinate, Y coordinate, also simply described as “X”, “Y”), and Z in a direction orthogonal to these.
  • Axial coordinate information (Z coordinate) is included.
  • the position information in the Z-axis direction corresponds to the height from the operation surface TP1 of the touch panel. The determination may be made using not only the position information but also the signal intensity of the sensor 10 corresponding to the position information.
  • the pulling operation determination unit 13 performs determination processing related to the pulling operation.
  • the pulling operation corresponds to the height in the Z-axis direction (Z coordinate, also simply described as “Z”) by the user lifting his finger in the Z-axis direction (moving it away) from the operation surface TP1 of the touch panel. Means to perform the operation.
  • the pull operation area storage unit 14 holds in advance information on pull operation areas in all displayable screens.
  • the effective area storage unit 12 temporarily holds information on the effective pulling operation area on the currently displayed screen.
  • the pulling operation determination unit 13 refers to information on the effective pulling operation area held in the effective area storage unit 12.
  • the pull operation determination unit 13 outputs the hover coordinates (X / Y / Z) to the hover coordinate invalidation unit 17 when the pull operation is not effective and the Z coordinate recognition has not started.
  • the hover is a state in which the hover is close to the operation surface TP1 of the touch panel, and an input is detected by the sensor 10.
  • the pull operation determination unit 13 outputs the hover coordinates (X / Y / Z) to the hover operation processing unit 18 when the pull operation is effective and the recognition of the Z coordinate is started.
  • the pull operation start determination unit 15 performs a determination process related to the start of the pull operation. For example, when the user touches the touch panel within a specific pull operation area, it is determined that the pull operation has started. Further, it may be determined that the pulling operation is started when the touch state is maintained for a predetermined time or longer (long press). Thereby, it is possible to prevent a pulling operation from being started by an unintended touch. Furthermore, after the long press, when the user releases (releases the touch state), it may be determined that the pulling operation has started.
  • the touch operation processing unit 16 performs processing related to the user's touch operation. For example, when a touch on the operation surface TP ⁇ b> 1 of the touch panel is detected, touch coordinates (X / Y) are input from the pull operation determination unit 13 and given to the pull operation start determination unit 15. Further, when the touch operation processing unit 16 detects the release of the finger, the pull operation region information (Xo / Yo, Xt / Yt) (see FIG. 2), which is information on the pull operation region including the released finger, This is given to the pulling operation determination unit 13.
  • the hover coordinate invalidation unit 17 invalidates the hover coordinates (X / Y / Z) detected when the finger is away from the operation surface TP1 of the touch panel.
  • the hover operation processing unit 18 performs processing for performing a predetermined hover operation based on the hover coordinates (X / Y / Z) output from the pull operation determination unit 13. Accordingly, the hover operation processing unit 18 performs processing in consideration of not only the detected X coordinate and Y coordinate but also the Z coordinate. For example, when operating an application that handles a telephone book (address book), an operation as shown in FIG. 5 is made possible. Details of the operation performed by the hover operation processing unit 18 will be described later.
  • the range (space) in which the pull operation can be performed is limited to a predetermined pull operation region.
  • the pull operation area information is held in the effective area storage unit 12 and the pull operation area storage unit 14.
  • the coordinates of the two points on the diagonal of the corresponding rectangle on the X / Y plane that is, the coordinates (Xo, Yo) of the upper left starting point in FIG.
  • the information specifying the coordinates (Xt, Yt) of the end point of is used.
  • a “pull operation area ID” can be assigned to each pull operation area, and information on a plurality of pull operation areas can be held in the pull operation area storage unit 14.
  • the pull operation area in which the input is detected is recognized as an effective pull operation area. Then, the information on the pull operation area is held on the effective area storage unit 12 by the pull operation determination unit 13.
  • the information of the start point coordinate Xo in the area table TB1 is 100, Yo is 100, the end point coordinate Xt is 200, and the information is Yt 150.
  • the effective area storage unit 12 is 100, Yo is 100, the end point coordinate Xt is 200, and the information is Yt 150.
  • the shape of the pulling operation area is a circle
  • information that specifies coordinates representing the center of the corresponding circle and information representing the radius of the circle is used.
  • the coordinates of the start point (Xo1, Yo1) of the rectangle that touches the outside of the region A2 the coordinates (Xt1, Yt1) of the end point
  • the pattern data of the bitmap M1 representing the distinction between the area A2 in the rectangle and the other background is stored in the area table TB1B in association with “1” of the “pull operation area ID”.
  • “1” at each pixel position represents the inside of the region, and “0” represents the outside of the region.
  • the pattern data of the bitmap MN representing the distinction between the area A3 in the area and the other background is stored in the area table TB1B in association with “N” of the “pull operation area ID”.
  • “1” at each pixel position represents the inside of the region, and “0” represents the outside of the region.
  • FIG. 4 is a diagram illustrating an example of a relationship between a finger movement assumed in the operation of the user and a grasped coordinate.
  • FIG. 4 it is assumed that the user's finger F moves in the Z-axis direction with respect to the operation surface TP1 (front surface) of the touch panel.
  • the proximity detection region illustrated in FIG. 4 indicates a range in which the sensor 10 can detect the user's finger F in the proximity state.
  • the position of the user's finger F changes sequentially as P11-P12-P13-P14-P15.
  • the sensor 10 does not detect the user's finger F because the distance from the operation surface TP1 of the touch panel is too large. That is, it is an undetected state.
  • the sensor enters the proximity detection region, and the sensor 10 detects the user's finger F as a proximity state.
  • the input device 100 recognizes this state as “hover-in”.
  • the sensor 10 detects as a touch, that is, a touch.
  • a touch that is, a touch.
  • the sensor 10 detects non-contact, that is, release.
  • the sensor 10 does not detect the finger because it moves outside the proximity detection area. The input device 100 recognizes this state as hover out.
  • the input device 100 recognizes a non-contact coordinate detected between the user's finger F being in the hover-in state and the hover-out state as “hover coordinate”. To do.
  • the input device 100 recognizes coordinates detected between the time when the user's finger F touches the operation surface TP ⁇ b> 1 of the touch panel and then releases as “touch coordinates”.
  • the sensor 10 always performs input detection in all directions of the X axis / Y axis / Z axis. If the detection signal in the Z-axis direction (here, it is assumed that the intensity of the detection signal becomes stronger as the touch panel is closer) exceeds a predetermined threshold value, it is recognized as touch coordinates, and if the predetermined threshold value is not exceeded , Recognized as hover coordinates.
  • FIG. 5 is a diagram illustrating a state transition of a specific application operation example by the input device 100.
  • FIG. 6 is a diagram illustrating an example of finger movement in the operation illustrated in FIG.
  • the input device 100 executes an application having a function of operating the contents of a telephone book (or address book) that is a database registered in the input device 100.
  • the input device 100 includes a screen of the display unit 110 and a touch panel 120 superimposed on the screen. On the screen of the display unit 110, an area for displaying “contact information” and an index operation area 130 are displayed.
  • the index operation area 130 has a plurality of independent tabs (operation units for selection) representing classifications such as “A line”, “Ka line”, “Sa line”, “Ta line”, and “Na line”. is doing.
  • contact information that begins with “A, I, U, E, O” at the beginning is arranged in the order of “A, I, U, E, O”, for example.
  • the contact information starting with “ka, ki, k, ke, ko” is placed in the “ka line” category.
  • contact information beginning with “sa, shi, shi, se, so” is arranged.
  • contact information that begins with “ta, chi, te, toto” is arranged.
  • contact information starting with “na, ni, n, ne, no” is arranged.
  • the hover operation processing unit 18 accesses the contact information whose head reading begins with “A, I, U, E, O”.
  • the hover operation processing unit 18 changes the displayed item to “A”.
  • the first item in the “row” to the last item are sequentially switched according to the height (Z coordinate) in the Z-axis direction.
  • this operation is started after recognizing that the user is expecting a pulling operation. Specifically, if the state where the user touches the finger in the area 130 a in the index operation area 130 for a long time is input to the input apparatus 100, the input apparatus 100 recognizes and starts the pulling operation. When the user lifts his / her finger in the Z-axis direction along with the pulling operation, the item of contact information displayed (selected) is sequentially switched according to the height in the Z-axis direction.
  • the input device 100 maintains the state of the item being displayed, End the pull operation. That is, the switching of the contact information item is finished, and the display state is maintained.
  • the user moves his / her finger in the XY direction from the pulling operation area and moves the finger out of the pulling operation area, so that the processing by the pulling operation can be confirmed. Therefore, the confirmation operation can be performed with a small amount of movement and a short time.
  • FIG. 23 is a diagram illustrating another state transition of a specific application operation example performed by the input device 100. A difference from FIG. 5 is that an index operation area 131 is used instead of the index operation area 130.
  • the index operation area 131 has a plurality of independent tabs (operation units for selection) representing classifications such as “abc”, “def”, “ghi”, “jkl”, “mno”, and the like.
  • the hover operation processing unit 18 accesses the contact information whose head reading begins with “a, b, c”.
  • the operation method and the operation of the input device 100 during operation are the same as described above.
  • FIG. 7 is a flowchart showing a main operation example by the input device 100.
  • step S11 and S12 the coordinate acquisition unit 11 monitors a signal output from the sensor 10 and waits for an input operation.
  • the process proceeds from step S12 to S13.
  • step S13 the pull operation determination unit 13 identifies whether the pull operation is in a valid state. It is invalid in the initial state, and becomes valid when a condition described later is satisfied. If invalid, the process proceeds to step S14, and if valid, the process proceeds to step S20.
  • step S14 the pulling operation determination unit 13 distinguishes between the hover operation and the touch operation based on the detected Z coordinate of the finger. If it is a hover operation, the process proceeds to step S19, and if it is a touch operation, the process proceeds to step S15.
  • step S15 the touch operation processing unit 16 performs predetermined processing based on touch coordinates (X / Y) detected when a finger touches the operation surface TP1 of the touch panel. For example, an object (for example, an icon) displayed at the corresponding coordinate position is selected as an operation target, or a function assigned to the object is executed.
  • step S ⁇ b> 16 the pull operation start determination unit 15 acquires information on all available pull operation regions displayed on the screen from the pull operation region storage unit 14. Then, the pulling operation start determination unit 15 compares the touch coordinates (X / Y) input from the touch operation processing unit 16 to identify whether or not the pulling operation start condition is satisfied. For example, when the touch coordinates belong to the range of one pull operation region, this touch state is maintained for a predetermined time or longer (long press), and then the finger is released, it is identified that the start condition is satisfied. In this case, the process proceeds to the next step S17.
  • step S17 the pull operation determination unit 13 sets the pull operation region in which touch and release are detected as an effective region according to the result of the start determination by the pull operation start determination unit 15.
  • the pull operation determination unit 13 stores information on the effective area in the effective area storage unit 12.
  • This effective area information (Xo / Yo, Xt / Yt) is extracted from the pull operation area storage unit 14 and written to the effective area storage unit 12 via the touch operation processing unit 16 and the pull operation determination unit 13.
  • the areas of the tabs “A”, “K”, “S”, “T”, and “N” in the index operation area 130 are pulled. It is taken out from the area storage unit 14 and compared with the touch coordinates in step S16. Then, as shown in FIG. 5, when the user performs a long press operation within the range of the “A row” tab, information of one pull operation area representing the range of the corresponding “A row” tab is selected, This is written in the effective area storage unit 12 as an effective area.
  • step S18 the pull operation determination unit 13 switches the pull operation from the invalid state to the valid state.
  • step S19 the hover coordinate invalidation unit 17 invalidates the hover coordinates. That is, the hover coordinates are invalidated when the position of the finger is outside the range of the pull operation area or when the pull operation is not started. Thereby, it is possible to prevent the hover operation from being erroneously performed by affecting the operation of the input device 100 by the user changing the height of the finger in the Z-axis direction.
  • step S ⁇ b> 20 the pull operation determination unit 13 compares the range of the pull operation region held as the effective region in the effective region storage unit 12 with the coordinates (X / Y) input from the coordinate acquisition unit 11. , It is determined whether or not the input coordinates are within the valid area. If it is within the effective area, the process proceeds to step S22, and if it is outside the area, the process proceeds to step S21.
  • step S20 the inside / outside segment of the area 130a where the position of the user's finger is “A” is identified in step S20.
  • step S21 since the finger has moved out of the effective area, the pull operation determination unit 13 switches the pull operation from the valid state to the invalid state.
  • step S22 the hover operation processing unit 18 executes a predetermined process according to the hover coordinates acquired by the coordinate acquisition unit 11. For example, as in the situation on the right side shown in FIG. 5, when the “A row” area 130a is the target of the pulling operation, the contact information of many items belonging to “A row” registered in the phone book From the information, the item to be displayed is changed according to the Z coordinate where the finger is positioned as shown in FIG.
  • the pull operation determination unit 13 is orthogonal to the input detection surface of the input coordinates accompanying the input to the input detection surface after the contact to the input detection surface in the input detection unit is detected. Control is performed so as to start recognition of the Z coordinate, which is the coordinate in the direction to be performed. That is, the Z coordinate is valid.
  • the control unit is, for example, a pull operation determination unit 13.
  • the input detection surface in the input detection unit is, for example, the operation surface TP1 on the touch panel.
  • control unit provides a Z coordinate detection area in which the Z coordinate is detected on the input detection surface.
  • Z coordinate detection area is, for example, a pull operation area.
  • control unit starts recognizing the Z coordinate among the input coordinates accompanying the input to the Z coordinate detection region after the input detection unit detects a contact for a predetermined time or more to the Z coordinate detection region.
  • the contact for a predetermined time or longer is, for example, a long press.
  • control unit detects a predetermined function assigned to the Z coordinate detection region based on the Z coordinate of the input coordinate detected by the coordinate detection unit after the input detection unit detects contact with the Z coordinate detection region. Change the parameter.
  • the control unit is, for example, the hover operation processing unit 18.
  • the parameter of the predetermined function is, for example, a parameter for searching for the “a” line of the telephone book function.
  • control unit may invalidate the input coordinates detected by the coordinate detection unit until the input detection unit detects contact with the input detection surface.
  • the control unit is, for example, the hover coordinate invalidation unit 17.
  • control unit may stop detecting the Z coordinate in the input coordinates by the coordinate detection unit until the input detection unit detects contact with the input detection surface.
  • the control unit is, for example, a pull operation determination unit 13.
  • FIG. 8 is a block diagram showing a configuration example of the input device according to the second embodiment of the present invention.
  • components equivalent to those of the input device in the above-described embodiment are denoted by the same reference numerals as those in FIG.
  • the input device 100B includes a sensor 10, a coordinate acquisition unit 11, an effective area storage unit 12, a pull operation determination unit 13, a pull operation region storage unit 14, a pull operation start determination unit 15B, and a touch operation processing unit. 16, a hover coordinate invalidation unit 17 and a hover operation processing unit 18 are provided.
  • the pulling operation start determining unit 15B is a different component from the input device 100, and the pulling operation start determining process is different from that of the first embodiment.
  • the other elements are the same as the components of the input device in the above-described embodiment, and thus the following description is omitted.
  • the pull operation start determination unit 15B performs a determination process related to the start of the pull operation. For example, an object to which a specific function is assigned (for example, an icon displayed on the screen) is selected by the user touching the touch panel with a finger, and the object is dragged within a specific pull operation area (touch the touch panel). If the finger is released within the range, it is determined that the pulling operation is started.
  • a specific function for example, an icon displayed on the screen
  • FIGS. 9A and 9B are diagrams showing state transitions of a specific application operation example by the input device 100B.
  • FIG. 10 is a diagram showing an example of finger movement in the operation shown in FIGS. 9 (A) and 9 (B).
  • FIGS. 9A and 9B it is assumed that the input device 100 executes a paint software application having a function for drawing and editing a drawing.
  • the application operation area 200 shown in FIGS. 9A and 9B tool areas 201 to 208 and a pulling operation area 210 are provided.
  • Each of the tool areas 201 to 208 is associated with objects to which different functions are assigned. That is, as shown in FIGS. 9A and 9B, in the tool areas 201 to 208, “brush”, “pencil”, “straight line”, “line type”, “transparency”, “brightness”, respectively. Objects having functions of “sa”, “eraser”, and “spray” are associated with each other. Further, the tool areas 201 to 208 are arranged in a ring shape, and a circular pulling operation area 210 is arranged inside thereof.
  • Each object in the tool areas 201 to 208 can be dragged by a user operation.
  • FIG. 9A it is assumed that the user touches the tool area 201 with a finger to select this object, and drags the selected object to the range of the pull operation area 210.
  • the sensor 10 and the coordinate acquisition unit 11 detect this drag operation, and the touch operation processing unit 16 switches display contents in the operation area 200 as shown in FIG. That is, the touch operation processing unit 16 displays that the object having the “brush” function has been dragged from the tool area 201 into the pull operation area 210.
  • the objects in the tool areas 201 to 208 are dragged within the range of the pull operation area 210.
  • the pull operation start determination unit 15B recognizes this as the start of the pull operation.
  • the hover operation processing unit 18 starts changing the parameters regarding each tool accompanying the pulling operation. That is, as shown in FIG. 10, when the user moves his / her finger in the Z-axis direction within the range of the positions P31 to P32 within the range of the pull operation area 210, the parameter relating to the selected object is changed according to the Z coordinate. Is done.
  • the hover operation processing unit 18 uses, for example, a drawing as a “brush” parameter. Change the thickness.
  • the thickness parameter is changed so that the drawing becomes thinner, and as the finger moves away (increases) from the operation surface TP1, the thickness increases. Change the parameter of so that the drawing becomes thicker.
  • the pull operation determination unit 13 determines that the pull operation has been completed. The parameter does not change even if the height of is changed.
  • FIG. 11 is a flowchart showing an operation example by the pulling operation start determination unit 15B.
  • the operation in FIG. 11 corresponds to, for example, steps S16 to S18 in FIG.
  • step S ⁇ b> 31 the pulling operation start determination unit 15 ⁇ / b> B monitors the state of the signal output from the sensor 10 and identifies whether or not finger release has been detected. If a finger release is detected, the process proceeds to step S32. If not detected, the process proceeds to step S35.
  • step S32 the pulling operation start determination unit 15B inputs the coordinates (X / Y) when the release of the finger is detected, and compares these coordinates with the range of the pulling operation area (Xo / Yo, Xt / Yt). To do. If the release is detected within the pull operation area, the process proceeds to step S33. If the release is outside the pull operation area, the process proceeds to step S35.
  • step S33 the pulling operation start determination unit 15B identifies whether or not the object has been dragged when the release of the finger is detected. If the object has been dragged, the process proceeds to step S34. If not, the process proceeds to step S35.
  • step S34 when the “brush” object in the tool area 201 is touched with the finger and dragged to the pull operation area 210, the user ends the drag operation and releases the finger. Sometimes, go to step S34.
  • step S34 the pull operation start determination unit 15B recognizes the start of the pull operation. Thereby, for example, the state transitions to the state of the operation area 200 shown in FIG. 9B, and the pulling operation becomes possible.
  • step S35 the pull operation start determination unit 15B does not start the pull operation. That is, the state where the pulling operation is impossible is maintained.
  • the input detection surface has a Z coordinate detection region and a functional region to which a predetermined function is assigned.
  • the functional areas are, for example, tool areas 201 to 208.
  • the control unit is dragged based on the Z coordinate of the input coordinates detected by the coordinate detection unit after the input detection unit detects an input indicating that the drag operation is performed from the functional area to the Z coordinate detection area.
  • Controls parameters of functions assigned to functional areas are, for example, the hover operation processing unit 18.
  • the function parameters assigned to the function area are, for example, brush, spray, and eraser parameters.
  • FIG. 12 is a block diagram illustrating a configuration example of the input device 100 according to the third embodiment of the present invention.
  • components equivalent to those of the input device 100 in the above-described embodiment are denoted by the same reference numerals.
  • the input device 100C includes a sensor 10, a coordinate acquisition unit 11, an effective area storage unit 12, a pull operation determination unit 13, a pull operation start determination unit 15, a touch operation processing unit 16B, and a hover coordinate invalidation unit. 17, a hover operation processing unit 18, and a pull operation region generation unit 19.
  • the input device 100C includes a pull operation region generation unit 19 instead of the pull operation region storage unit 14 in the input device 100, and includes a touch operation processing unit 16B instead of the touch operation processing unit 16 in the input device 100. Since the other elements are the same as those of the input device in the above-described embodiment, the following description is omitted.
  • the pull operation region generation unit 19 inputs touch coordinates (X / Y) from the touch operation processing unit 16B, and generates a pull operation region based on the touch coordinates.
  • the specific input operation means a touch on an object (for example, a folder) that can be pulled, a long press on the object, and the like.
  • the pull operation start determination unit 15 determines the start of the pull operation based on the range of the pull operation region.
  • the pull operation area generation unit 19 also has a function as the pull operation area storage unit 14. In other words, the pull operation area generation unit 19 holds information on the generated pull operation area.
  • FIGS. 13A to 13C are diagrams showing state transitions of specific application operation examples by the input device 100C.
  • FIG. 14 is a diagram showing an example of finger movement in the operation shown in FIGS. 13 (A) to (C).
  • folder areas 301, 302, and 303 are arranged in the operation area 300 of the application on the touch panel.
  • the folder areas 301, 302, and 303 are assigned objects of the respective folders.
  • Each folder functions as a storage area for storing various data files such as photographs.
  • the application operation area 300 is provided, for example, on the entire touch panel arranged on the screen.
  • FIG. 13A it is assumed that the user touches the folder area 301 with a finger.
  • the object of the folder area 301 is assigned a function for displaying the pull operation area 310 in a pop-up as shown in FIG. 13B by long pressing the folder area 301 with a finger.
  • the pull operation area 310 is generated, for example, in the vicinity of the touch coordinates, that is, in the vicinity of the folder area 301 by the pull operation area generation unit 19.
  • the “peep” function is assigned to the pull operation area 310.
  • the user drags the object in the folder area 301 with the finger to the position of the displayed pulling operation area 310 (S103). That is, the finger touches the folder area 301, and the finger is moved into the pull operation area 310 while maintaining the touch state.
  • a preview area 320 is newly displayed on the screen (S104).
  • a file such as a photo in the folder being operated is previewed.
  • the pulling operation is started together with the preview display. That is, the hover operation processor 18 changes the object (inside the folder) displayed in the preview area 320 when the user changes the Z coordinate of the finger within the range of the positions P41 to P42 shown in FIG. Switch the file (such as a photo selected in) according to the height.
  • the pull operation determination unit 13 determines that the pull operation has ended. Therefore, after this movement, the displayed object is not switched even if the user changes the finger height.
  • FIG. 15 is a flowchart showing a main operation example by the input device 100C. The operation of FIG. 15 is performed, for example, between steps S12 and S13 in FIG.
  • step S41 the pull operation region generation unit 19 monitors the touch coordinates (X / Y) output from the touch operation processing unit 16B and identifies whether or not the operation region on the touch panel has been pressed for a long time. If long press is detected, the process proceeds to step S42, and if not detected, the process proceeds to step S44.
  • step S42 the pull operation area generation unit 19 identifies whether or not the coordinate where the long press is detected is within the area of the object that can be pulled. If it is within this region, the process proceeds to step S43, and if it is outside this region, the process proceeds to step S44.
  • step S42 when a long press is detected in the region 301 of the pullable folder, the process proceeds from step S42 to S43.
  • the pull operation area generation unit 19 generates a pull operation area 310 having a predetermined size at a position away from the touch coordinates (X / Y) by a predetermined distance.
  • the pull operation region 310 having a predetermined size may be generated at a position away from a predetermined position (center portion, corner portion, etc.) of the object region including the touch coordinates that can be pulled.
  • a pulling operation area 310 having a predetermined size may be generated at a predetermined position on the touch panel.
  • step S44 the pull operation area generation unit 19 does not generate the pull operation area 310. Therefore, the pull operation start determination unit 15 maintains a state in which the pull operation is not possible.
  • the input detection surface has a functional area to which a predetermined function is assigned.
  • a control part produces
  • the control unit is, for example, a pull operation region generation unit 19.
  • control unit generates a Z coordinate detection region on the input detection surface when the input detection unit detects a contact with the functional region for a predetermined time or more.
  • the Z coordinate detection area is not generated, and malfunction due to unintended contact can be prevented.
  • the drag movement amount decreases, so that the pull operation can be started with a small movement amount from the contact position.
  • the screen can be used effectively.
  • FIG. 16 is a block diagram illustrating a configuration example of an input device according to the fourth embodiment of the present invention.
  • the same components as those of the input device in the above-described embodiment are denoted by the same reference numerals.
  • the input device 100D includes a sensor 10, a coordinate acquisition unit 11, an effective area storage unit 12, a pull operation determination unit 13, a pull operation start determination unit 15, a touch operation processing unit 16B, and a hover coordinate invalidation unit. 17, a hover operation processing unit 18B, and a pull operation region generation unit 19B.
  • the input device 100D includes a touch operation processing unit 16B instead of the touch operation processing unit 16, a hover operation processing unit 18B instead of the hover operation processing unit 18, and a pull operation region generation unit 19B instead of the pull operation region generation unit 19. Is provided. Since the other elements are the same as those of the input device in the above-described embodiment, the following description is omitted.
  • the pulling operation area generation unit 19B generates a pulling operation area in accordance with a user input operation. For example, the pull operation area generation unit 19B acquires the touch coordinates (X / Y) from the touch operation processing unit 16B, and when one or more specific objects on the touch panel are long pressed, Generate a position with a predetermined size.
  • the pull operation area generation unit 19B also has a function as the pull operation area storage unit 14. That is, the information on the generated pull operation area is held by the pull operation area generation unit 19B.
  • the pull operation region generation unit 19B outputs the generated pull operation region information (Xo / Yo, Xt / Yt) to the pull operation start determination unit 15 and the hover operation processing unit 18B.
  • the hover operation processing unit 18B performs processing for performing a predetermined hover operation based on the hover coordinates (X / Y / Z) output from the pulling operation determination unit 13. At this time, the hover operation processing unit 18B performs processing assigned to the effective area.
  • FIGS. 17A and 17B are diagrams illustrating state transitions of a specific application operation example by the input device 100D.
  • the information indicating the range of each of the pulling operation areas 401, 402, and 403 is the pulling operation area generating unit 19B when the tool area having a brush function is pressed for a long time. Are generated respectively.
  • parameters of “thickness”, “line type”, and “transmission” are assigned to the pull operation areas 401, 402, and 403, respectively.
  • the object in the tool area 410 can be dragged by the user.
  • the user touches the tool area 410 with a finger and selects an object corresponding to the tool area 410. Then, it is assumed that the touched object is dragged within the generated pull operation area 403.
  • the pull operation start determination unit 15 determines to start the pull operation in the pull operation area 403.
  • the hover operation processing unit 18B refers to the effective area information output from the pull operation determination unit 13 and the hover coordinates, and recognizes that the pull operation area 403 is the effective area among the pull operation areas 401 to 403. .
  • the hover operation processing unit 18B displays the display state (as in the pull operation area 403B) in order to clearly indicate that the pull operation area 403 to which the object belongs after the drag operation is an effective area that can be pulled.
  • the display color or the like may be changed.
  • FIG. 17B assumes a state during the pulling operation.
  • the hover operation processing unit 18B executes processing according to the position of the finger. That is, when the Z coordinate at which the user's finger is positioned within the pulling operation area 403B, which is an effective area, is changed, the parameter of the “brush” object to be operated is changed according to the Z coordinate of the finger.
  • the “transparent” parameter is assigned to the pull operation area 403B, the “transparent” parameter of the “brush” object changes.
  • FIG. 18 is a flowchart showing a main operation example by the input device 100D.
  • the operation in FIG. 18 corresponds to, for example, step S22 in FIG.
  • step S51 the hover operation processing unit 18B inputs information on the effective area (for example, the pulling operation area 403 in FIG. 17A) from the pulling operation determination unit 13, and specifies an ID (FIG. 2, FIG. 2). 3).
  • step S52 the hover operation processing unit 18B compares the IDs of the acquired pull operation areas with “1”, “2”, and “3”, respectively.
  • step S52 if the ID of the pull operation area matches “1”, the process proceeds to step S56.
  • step S53 if the ID of the pull operation area matches “2”, the process proceeds to step S57. If it is determined in step S54 that the ID of the pull operation area matches “3”, the process proceeds to step S58.
  • step S56 the hover operation processing unit 18B executes a process assigned in advance to the pull operation area ID “1”. For example, when the pull operation area ID “1” is an ID corresponding to the pull operation area 401 shown in FIG. 17A, the pull for changing the “thickness” parameter of the object being operated is performed. Execute the operation process.
  • step S57 the hover operation processing unit 18B executes a process assigned in advance to the pull operation area ID “2”. For example, when the pull operation area ID “2” is an ID corresponding to the pull operation area 402 shown in FIG. 17A, the pull for changing the “line type” parameter of the object being operated is performed. Execute the operation process.
  • step S58 the hover operation processing unit 18B executes a process assigned in advance to the pull operation area ID “3”. For example, when the pulling operation area ID “3” is an ID corresponding to the pulling operation area 403 shown in FIG. 17A, a pulling operation for changing the “transparent” parameter of the object being operated is performed. Execute the process.
  • the input detection surface has a functional area to which a predetermined function is assigned and a Z coordinate detection area to which a predetermined parameter type of the function is assigned.
  • the parameter types are, for example, thickness, line type, and transparency.
  • the control unit is assigned to the function region based on the Z coordinate of the input coordinates detected by the coordinate detection unit after the input indicating that the function region has been dragged to the Z coordinate detection region by the input detection unit.
  • the parameter type parameter assigned to the Z coordinate detection area of the assigned function is controlled.
  • the control unit is, for example, a hover operation processing unit 18B.
  • the pull operation area generation unit 19 generates the pull operation areas 401 to 403 has been described.
  • the pull operation areas 401 to 403 may be generated in advance and displayed on the screen in advance.
  • FIG. 19 is a block diagram illustrating a configuration example of an input device according to the fifth embodiment of the present invention.
  • the same components as those of the input device in the above-described embodiment are denoted by the same reference numerals.
  • the input device 100E includes a touch coordinate detection sensor 10A, a hover coordinate detection sensor 10B, a touch coordinate acquisition unit 11A, a hover coordinate acquisition unit 11B, an effective area storage unit 12, a pull operation determination unit 13B, and a pull operation.
  • An area storage unit 14, a pull operation start determination unit 15, a touch operation processing unit 16, a hover coordinate invalidation unit 17, a hover operation processing unit 18, and a sensor control unit 20 are provided.
  • the input device 100E includes a touch coordinate detection sensor 10A and a hover coordinate detection sensor 10B instead of the sensor 10. Further, instead of the coordinate acquisition unit 11, a touch coordinate acquisition unit 11A and a hover coordinate acquisition unit 11B are provided. Further, instead of the pulling operation determination unit 13, a pulling operation determination unit 13B is provided. A sensor control unit 20 is added to the input device 100E. Since the other elements are the same as those of the input device in the above-described embodiment, the following description is omitted.
  • the touch coordinate detection sensor 10A and the hover coordinate detection sensor 10B detect position coordinates of a user's finger or the like within an operable range on the touch panel of the input device 100E.
  • the touch coordinate detection sensor 10A and the hover coordinate detection sensor 10B can detect the same region in association with the same coordinate.
  • the touch coordinate detection sensor 10A is a general two-dimensional touch panel sensor, and is a sensor for detecting only touch coordinates (X / Y).
  • the touch coordinate detection sensor 10A detects the presence or absence of a touch based on the intensity of a signal detected by the sensor.
  • the touch coordinate detection sensor 10A can be realized by using a technique similar to that of a general touch panel.
  • the hover coordinate detection sensor 10B is a three-dimensional touch panel sensor and detects hover coordinates (X / Y / Z).
  • the touch coordinate acquisition unit 11A acquires information representing touch coordinates (X / Y) based on a physical signal (for example, an electric signal) output from the touch coordinate detection sensor 10A. For example, the X coordinate and the Y coordinate are detected based on the position where the object is detected by the touch coordinate detection sensor 10A.
  • a physical signal for example, an electric signal
  • the hover coordinate acquisition unit 11B acquires information representing the hover coordinates (X / Y / Z) based on the physical signal output by the hover coordinate detection sensor 10B. For example, the X coordinate and the Y coordinate are detected based on the position where the object is detected by the hover coordinate detection sensor 10B. In addition, the Z coordinate is detected based on the intensity of the detection signal (here, it is assumed that the intensity of the detection signal increases as the position is closer to the touch panel).
  • the sensor control unit 20 switches on and off the detection operation of the hover coordinate detection sensor 10B according to the output of the pull operation determination unit 13B.
  • the pulling operation determination unit 13B pulls based on the touch coordinates (including presence / absence of touch) output by the touch coordinate acquisition unit 11A, the hover coordinates output by the hover coordinate acquisition unit 11B, and information on the pulling operation area. Performs operation-related determination processing. Further, the pulling operation determination unit 13B identifies whether or not the hover coordinates are necessary, and gives a signal for controlling on / off of the detection operation of the hover coordinate detection sensor 10B to the sensor control unit 20 according to the result.
  • FIG. 20 is a diagram showing a first specific example of the hover coordinate detection sensor 10B.
  • ultrasonic sensors 51, 52, 53, and 54 are arranged in the vicinity of each of the four corners of the rectangular touch panel 120 of the input device 100E.
  • the four ultrasonic sensors 51 to 54 are composed of an ultrasonic transmitter and a receiver.
  • These ultrasonic sensors 51 to 54 transmit ultrasonic waves to an object such as a user's finger that has touched or approached the touch panel 120, and receive ultrasonic waves reflected from the object. Then, a control unit (not shown) detects the time difference from transmission to reception of ultrasonic waves and the reception time difference between the plurality of ultrasonic sensors 51 to 54, thereby determining the Z coordinate and X / Y coordinate of the object. Detect each.
  • the ultrasonic sensors 51 to 54 have a function as the hover coordinate detection sensor 10B.
  • FIG. 20 is a diagram showing a second specific example of the hover coordinate detection sensor 10B.
  • a camera 60 capable of capturing an image in the Z-axis direction is installed on the casing of the input device 100E.
  • the camera 60 repeatedly captures a subject including an object such as a user's finger that has touched or approached the touch panel 120.
  • a control unit (not shown) detects the Z coordinate and the X / Y coordinate of the object by analyzing the image obtained by the photographing.
  • the camera 60 has a function as the hover coordinate detection sensor 10B. If a plurality of cameras 60 are installed, the accuracy of position detection can be increased.
  • FIG. 22 is a flowchart showing a main operation example by the input device 100E. Most of the operations of the input device 100E shown in FIG. 22 are the same as the operations of the input device 100 shown in FIG. 7, but the contents of step S61 and step S62 are different. These processes will be described below.
  • the hover coordinate detection sensor 10B is off.
  • step S16 the pulling operation start determining unit 15 detects the start of the pulling operation, and in step S17, the pulling operation determining unit 13B is in an effective pulling operation area. Is stored in the effective area storage unit 12.
  • step S61 the pull operation determination unit 13B switches the pull operation from the invalid state to the valid state. Further, the pulling operation determination unit 13B instructs the sensor control unit 20 to turn on detection by the hover coordinate detection sensor 10B. In response to this instruction, the sensor control unit 20 controls the hover coordinate detection sensor 10B to start the hover coordinate detection operation.
  • step S62 After the start of the pulling operation, when the detected finger position coordinates are outside the effective operation area, the process proceeds to step S62 through steps S13 and S20 in FIG.
  • step S62 since the finger has moved out of the valid operation area, the pull operation determination unit 13B switches the pull operation from the valid state to the invalid state. Further, the pulling operation determination unit 13B instructs the sensor control unit 20 to turn off detection by the hover coordinate detection sensor 10B. In response to this instruction, the sensor control unit 20 controls the hover coordinate detection sensor 10B to end the hover coordinate detection operation.
  • Stopping the detection operation of the hover coordinate detection sensor 10B can suppress power consumption related to the hover coordinate detection sensor 10B.
  • the coordinate detection unit detects the X coordinate and the Y coordinate that are the coordinates in the direction parallel to the input detection surface, and the second coordinate detection unit detects the Z coordinate. And comprising.
  • the first coordinate detection unit is, for example, the touch coordinate acquisition unit 11A.
  • the second coordinate detection unit is, for example, the hover coordinate acquisition unit 11B.
  • the control unit starts detection of the Z coordinate by the second coordinate detection unit after the input detection unit detects contact with the input detection surface in the input detection unit.
  • the control unit is, for example, the sensor control unit 20.
  • the power consumption can be suppressed.
  • the detection performance (the accuracy of the coordinates and the height of the proximity detection area) can be improved by using the most suitable sensor for detecting each of the touch coordinates and the hover coordinates.
  • power saving can be achieved by detecting the hover coordinates only as much as necessary.
  • the hover coordinate detection sensor 10B detects coordinates in the three-axis directions (X / Y / Z). Instead, the output of the touch coordinate detection sensor 10A may be used for the X coordinate and the Y coordinate. Therefore, even a sensor that can detect only the position in the Z-axis direction can be used as the hover coordinate detection sensor 10B.
  • the technique of the fifth embodiment can be applied to any of the first to fourth embodiments. That is, a touch coordinate detection sensor 10A and a hover coordinate detection sensor 10B are provided, and a function for switching on and off the detection operation of the hover coordinate detection sensor 10B can be added.
  • the pulling operation may be performed at a plurality of locations at the same time. There may also be a plurality of effective areas for the pulling operation.
  • the present invention is not limited to the configuration of the above-described embodiment, and any configuration can be used as long as the functions shown in the claims or the functions of the configuration of the present embodiment can be achieved. Is also applicable.
  • the touch panel is operated with a finger, but the touch panel may be operated with other objects.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

 入力装置は、入力を検知するタッチパネルと、タッチパネルにより検知された入力の座標である入力座標を検出する座標取得部11と、タッチパネルが搭載されている面である入力検知面に対する入力を検出した場合、座標取得部11により検出された入力座標のうちの入力検知面に直交する方向のZ座標を有効とする引っ張り操作判定部13と、を備える。

Description

入力装置、入力制御方法、および入力制御プログラム
 本発明は、入力装置、入力制御方法、および入力制御プログラムに関する。特に、物体の接近及び接触を入力として検知可能なタッチパネルを有する電子機器等に関する。
 近年のスマートフォンを代表とする様々な携帯端末や、パーソナルコンピュータ等の電子機器においては、入力操作用のデバイスとして表示画面に重ねて配置されたタッチパネルを備えているものが多い。また、タッチパネルを用いた一般的な入力デバイスにおいては、タッチパネルの表面に対するユーザの指の接触/非接触の2種類の状態に基づいて入力操作を検出している。
 一方、スマートフォンのような携帯端末においては、種類が異なる様々な機能が備わっており、様々な機能の中からユーザが所望する機能をユーザの入力操作により選択的に実行できることが望ましい。しかし、一般的な入力デバイスではタッチパネルに対するタッチの有無だけでユーザの操作を識別しているので、様々な機能の中から所望の機能を選択して実行するために、ユーザは多くのタッチ操作を行わざるを得なかった。すなわち、ユーザからみて操作性の良い入力デバイスではなかった。
 また、タッチパネル以外の入力デバイスを用いる装置においては、X、Y(入力操作面に平行な方向)、Z(入力操作面に垂直な方向)の3軸方向の操作を検知して表示に反映する技術が知られている。
 例えば、特許文献1においては、X軸、Y軸、Z軸の3軸方向の入力操作の検知が可能なコントロールスティックを用いて、3次元メニューの選択に関する操作を行うことを提案している。
 また、特許文献2においては、3軸加速度センサを用いて機器本体の3軸方向の移動を検知することを提案している。また、Z軸方向の移動に対して、画面上の情報の表示サイズを変更することを開示している。
日本国特開平10-260671号公報 日本国特開2008-077655号公報
 3軸方向の入力操作を検知可能な例えばタッチパネルを用いて操作する場合を想定する。この場合、ユーザがZ軸方向だけ操作しようと意図していても、同時にX軸、Y軸方向も操作したものとして装置が認識し、誤った動作が実行されてしまう可能性がある。また、ユーザがX軸、Y軸方向だけを操作しようと意図していても、同時にZ軸方向も操作したものとして装置が認識し、誤った動作が実行されてしまう可能性がある。
 本発明は、上記事情に鑑みてなされたものであって、X、Y方向の入力時にZ方向座標の誤検知を防止することが可能な入力装置、入力制御方法、および入力制御プログラムを提供することを目的とする。
 本発明の入力装置は、入力を検知する入力検知部と、前記入力検知部により検知された入力の座標である入力座標を検出する座標検出部と、前記入力検知部が搭載されている面である入力検知面に対する入力を検出した場合、前記座標検出部により検出された前記入力座標のうちの前記入力検知面に直交する方向のZ座標を有効とする制御部と、を備える。
 本発明の入力制御方法は、入力を検知する入力検知部により検知された入力の座標である入力座標を検出するステップと、前記入力検知部が搭載されている面である入力検知面に対する入力を検出した場合、検出された前記入力座標のうちの前記入力検知面に直交する方向の座標であるZ座標を有効とするステップと、を有する。
 本発明の入力制御プログラムは、上記入力制御方法の各ステップをコンピュータに実行させるためのプログラムである。
 この構成、方法、またはプログラムによれば、入力検知面への接触が検知されるまでは、Z座標の認識を行わない。従って、X、Y方向の入力時にZ座標の誤検知を防止することが可能である。
 本発明によれば、X、Y方向の入力時にZ方向座標の誤検知を防止することが可能である。
本発明の第1の実施形態における入力装置の構成例を示すブロック図 (A),(B)本発明の第1の実施形態における矩形の領域を管理するために用いるテーブルの構成例を示す図 (A),(B)本発明の第1の実施形態における自由形状の領域を管理するために用いるテーブルの構成例を示す図 本発明の第1の実施形態におけるユーザの操作の際に想定される指の動きと把握される座標との関係を示す模式図 本発明の第1の実施形態における入力装置による具体的なアプリケーションの操作例を示す状態遷移図 図5に示した操作における指の動きの一例を示す模式図 本発明の第1の実施形態における入力装置による主要な動作例を示すフローチャート 本発明の第2の実施形態における入力装置の構成例を示すブロック図 (A),(B)本発明の第2の実施形態における入力装置による具体的なアプリケーションの操作例を示す状態遷移図 図9(A),(B)に示した操作における指の動きの一例を示す模式図 本発明の第2の実施形態における入力装置による主要な動作例を示すフローチャート 本発明の第3の実施形態における入力装置の構成例を示すブロック図 (A)~(C)本発明の第3の実施形態における入力装置による具体的なアプリケーションの操作例を示す状態遷移図 図13(A)~(C)に示した操作における指の動きの一例を示す模式図 本発明の第3の実施形態における入力装置による主要な動作例を示すフローチャート 本発明の第4の実施形態における入力装置の構成例を示すブロック図 (A),(B)本発明の第4の実施形態における入力装置による具体的なアプリケーションの操作例を示す状態遷移図 本発明の第4の実施形態における入力装置による主要な動作例を示すフローチャート 本発明の第5の実施形態における入力装置の構成例を示すブロック図 本発明の第5の実施形態における入力装置に採用可能なホバー座標検知センサの第1例を示す斜視図 本発明の第5の実施形態における入力装置に採用可能なホバー座標検知センサの第2例を示す斜視図 本発明の第5の実施形態における入力装置による主要な動作例を示すフローチャート 本発明の第1の実施形態における入力装置による具体的なアプリケーションの他の操作例を示す状態遷移図
 本発明の実施形態について、図面を参照しながら以下に説明する。
(第1の実施形態)
 図1は本発明の第1の実施形態における入力装置の構成例を示すブロック図である。図1に示すように、入力装置100は、センサ10、座標取得部11、有効領域記憶部12、引っ張り操作判定部13、引っ張り操作領域記憶部14、引っ張り操作開始判定部15、タッチ操作処理部16、ホバー座標無効化部17、およびホバー操作処理部18を備える。
 また、図1には示されていないが、入力装置100は、実際には文字、図形、画像などの様々な可視情報を表示可能な画面を有する表示部も備えている。
 入力装置100は、例えば、スマートフォン、携帯電話端末、携帯型情報端末、携帯型音楽プレーヤ、パーソナルコンピュータなど様々な機器に組み込んで製品化することが想定される。また、入力装置100の主要な制御系については、専用のハードウェアで構成することもできるし、マイクロコンピュータを主体として構成することもできる。マイクロコンピュータを用いる場合には、予め用意した制御プログラムを読み込んでマイクロコンピュータで実行することにより、必要な機能を実現することができる。
 センサ10は、タッチパネルのセンサである。センサ10は、タッチパネルの操作面TP1(タッチパネル面)(後述する図6参照)にタッチ(接触)した指や、接近した指について、その有無や位置を検出する。なお、このタッチパネルは表示部に重ねて配置され、入力を検知する入力検知部として機能する。
 座標取得部11は、センサ10が出力する信号に基づいて、指等の位置座標を表す座標情報を取得する。座標取得部11は、入力検知部により検知された入力の座標(入力座標)を検出する座標検出部としての機能を有する。
 この座標情報には、タッチパネルの操作面TP1と平行なX軸、Y軸の座標情報(X座標,Y座標、単に「X」,「Y」とも記載する)と、これらと直交する方向のZ軸方向の座標情報(Z座標)が含まれている。Z軸方向の位置情報は、タッチパネルの操作面TP1からの高さに相当する。なお、位置情報のみならず、位置情報に相当する前記センサ10の信号強度を用いて判断しても良い。
 引っ張り操作判定部13は、引っ張り操作に関する判定処理を行う。引っ張り操作とは、タッチパネルの操作面TP1からユーザが指をZ軸方向に持ち上げる(離れる方向に移動させる)ことにより、Z軸方向の高さ(Z座標、単に「Z」とも記載する)に応じた操作を行うことを意味している。
 引っ張り操作を行う範囲を限定するための領域を表す情報(引っ張り操作領域情報)が、有効領域記憶部12および引っ張り操作領域記憶部14に保持される。引っ張り操作領域記憶部14には、表示可能な全ての画面における引っ張り操作領域の情報が予め保持されている。有効領域記憶部12は、現在表示中の画面において有効な引っ張り操作領域の情報が一時的に保持される。引っ張り操作判定部13は、有効領域記憶部12に保持されている有効な引っ張り操作領域の情報を参照する。
 また、引っ張り操作判定部13は、引っ張り操作が有効でなく、Z座標の認識を開始していない場合には、ホバー座標(X/Y/Z)をホバー座標無効化部17へ出力する。なお、ホバーとは、タッチパネルの操作面TP1に近接した状態であり、センサ10により入力が検知される状態である。一方、引っ張り操作判定部13は、引っ張り操作が有効であり、Z座標の認識を開始している場合には、ホバー座標(X/Y/Z)をホバー操作処理部18へ出力する。
 引っ張り操作開始判定部15は、引っ張り操作の開始に関する判定処理を行う。例えば、特定の引っ張り操作領域内でユーザがタッチパネルにタッチした場合に、引っ張り操作を開始したと判定する。また、上記タッチの状態を所定時間以上維持した(長押しした)場合に、引っ張り操作を開始したと判定してもよい。これにより、意図しないタッチにより引っ張り操作を開始することを防止できる。さらに、上記長押し後に、ユーザがリリース(タッチ状態を解除)した場合に、引っ張り操作を開始したと判定してもよい。
 タッチ操作処理部16は、ユーザのタッチ操作に関する処理を行う。例えば、タッチパネルの操作面TP1へのタッチを検出した時に、タッチ座標(X/Y)を引っ張り操作判定部13から入力し、引っ張り操作開始判定部15へ与える。また、タッチ操作処理部16は、指のリリースを検出した時には、リリースされた指を含む引っ張り操作領域の情報である引っ張り操作領域情報(Xo/Yo,Xt/Yt)(図2参照)を、引っ張り操作判定部13へ与える。
 ホバー座標無効化部17は、指がタッチパネルの操作面TP1から離れている時に検出されるホバー座標(X/Y/Z)を無効化する。
 ホバー操作処理部18は、引っ張り操作判定部13から出力されるホバー座標(X/Y/Z)に基づいて所定のホバー操作を行うための処理を行う。従って、ホバー操作処理部18は、検出されたX座標,Y座標だけでなく、Z座標も考慮して処理を行う。例えば、電話帳(アドレス帳)を扱うアプリケーションを操作する場合には、図5に示すような操作を可能にする。具体的なホバー操作処理部18による動作の内容については後で説明する。
 次に、引っ張り操作領域の詳細について説明する。
 入力装置100では、引っ張り操作が可能な範囲(空間)が予め定めた引っ張り操作領域のみに限定される。引っ張り操作領域情報は、有効領域記憶部12および引っ張り操作領域記憶部14に保持される。
 引っ張り操作領域としては、矩形、円形、自由形状など様々な形状の領域が考えられる。引っ張り操作領域の形状が矩形の場合に用いるテーブルの構成例が図2(A),(B)に示されている。また、自由形状の場合に用いるテーブルの構成例が図3(A),(B)に示されている。
 引っ張り操作領域の形状が矩形の場合には、X/Y平面上で該当する矩形の対角線上の2点の座標、すなわち図2(A)における左上の始点の座標(Xo,Yo)と右下の終点の座標(Xt,Yt)とを特定する情報を用いる。
 1つの画面内に複数の独立した「引っ張り操作領域」を配置したり、画面毎に異なる「引っ張り操作領域」を配置したりすることが想定される。従って、図2(B)に示す領域テーブルTB1のように、引っ張り操作領域毎に「引っ張り操作領域ID」を割り当てて、複数の引っ張り操作領域の情報を引っ張り操作領域記憶部14上に保持できる。また、どの引っ張り操作領域の範囲で入力が検知されたかを識別する必要があるので、入力が検知された引っ張り操作領域を有効な引っ張り操作領域として認識する。そして、この引っ張り操作領域の情報が、引っ張り操作判定部13によって有効領域記憶部12上に保持される。
 例えば、引っ張り操作領域IDが「1」の引っ張り操作領域に注目する時には、領域テーブルTB1における始点の座標Xoが100、Yoが100の情報と、終点の座標Xtが200、Ytが150の情報と、が有効領域記憶部12に保持される。
 引っ張り操作領域の形状が円形の場合には、該当する円の中心を表す座標と、この円の半径を表す情報とを特定する情報を用いる。
 引っ張り操作領域の形状が自由形状の場合には、図3(A),(B)に示すように、X/Y平面上で該当する矩形の情報と、矩形の内側の例えばビットマップを表す情報と、を用いる。
 例えば、図3(A)に示す菱形の領域A2を特定する場合には、この領域A2の外側に接する矩形の始点の座標(Xo1,Yo1)と、終点の座標(Xt1,Yt1)と、この矩形内の領域A2とそれ以外の背景との区別を表すビットマップM1のパターンデータと、を「引っ張り操作領域ID」の「1」に対応付けて領域テーブルTB1Bに保持する。ビットマップM1において、各画素位置の「1」が領域内を表し、「0」が領域外を表す。
 また、図3(A)に示す三角形の領域A3を特定する場合には、この領域A3の外側に接する矩形の始点の座標(XoN,YoN)、終点の座標(XtN,YtN)と、この矩形内の領域A3とそれ以外の背景との区別を表すビットマップMNのパターンデータと、を「引っ張り操作領域ID」の「N」に対応付けて領域テーブルTB1Bに保持する。ビットマップMNにおいて、各画素位置の「1」が領域内を表し、「0」が領域外を表す。
 次に、本実施形態において想定される指の動きと入力装置100の動作について説明する。
 図4はユーザの操作の際に想定される指の動きと把握される座標との関係の一例を示す図である。図4では、タッチパネルの操作面TP1(表面)に対してユーザの指FがZ軸方向に動く場合を想定している。図4に示す近接検知領域は、センサ10が近接状態としてユーザの指Fを検出できる範囲を示している。
 図4に示すように、ユーザの指Fの位置はP11-P12-P13-P14-P15のように順次に変化する。位置P11においては、タッチパネルの操作面TP1からの距離が離れすぎているため、センサ10はユーザの指Fを検知しない。つまり、未検知状態である。ユーザが指を近づけて位置P12になると、近接検知領域に入り、センサ10が近接状態としてユーザの指Fを検出する。この状態を入力装置100は「ホバーイン」として認識する。
 ユーザの指Fがタッチパネルの操作面TP1に接触した位置P13においては、センサ10が接触すなわちタッチとして検出する。タッチ後にユーザの指Fがタッチパネルの操作面TP1から離れた位置P14に移動すると、センサ10は非接触すなわちリリースとして検出する。ユーザが指を更に持ち上げて位置P15に移動すると、近接検知領域の外側に出るためセンサ10は指を検出しない。この状態を入力装置100はホバーアウトとして認識する。
 また、入力装置100は、図4に示すように、ユーザの指Fのホバーイン状態になってからホバーアウト状態になるまでの間に検出される非接触時の座標を、「ホバー座標」として認識する。また、入力装置100は、図4に示すように、ユーザの指Fがタッチパネルの操作面TP1をタッチしてからリリースするまでの間に検出される座標を、「タッチ座標」として認識する。
 本実施形態では、センサ10は、X軸/Y軸/Z軸の全方向における入力検出を常時行う。Z軸方向の検出信号(ここではタッチパネルに近いほど検出信号の強度が強くなることを想定)が所定の閾値を超過した場合には、タッチ座標として認識され、所定の閾値を超過しない場合には、ホバー座標と認識される。
 次に、入力装置100によるアプリケーションの操作について説明する。
 図5は入力装置100による具体的なアプリケーションの操作例の状態遷移を示す図である。また、図6は、図5に示した操作における指の動きの一例を示す図である。
 図5に示す例では、入力装置100に登録されたデータベースである電話帳(あるいはアドレス帳)の内容を操作する機能を有するアプリケーションを、入力装置100が実行する場合を想定している。
 図5に示すように、入力装置100は、表示部110の画面と、画面に重ねられたタッチパネル120と、を備える。表示部110の画面上には、「連絡先情報」を表示する領域と、インデックス操作領域130と、が表示されている。
 インデックス操作領域130は、「あ行」、「か行」、「さ行」、「た行」、「な行」等の分類を表す独立した複数のタブ(選択のための操作部)を有している。
 「あ行」の分類には、先頭の読みが「あ、い、う、え、お」で始まる連絡先の情報が例えば「あ、い、う、え、お」順に並んでデータが配置される。「か行」の分類には「か、き、く、け、こ」で始まる連絡先の情報が配置される。「さ行」の分類には「さ、し、す、せ、そ」で始まる連絡先の情報が配置される。「た行」の分類には「た、ち、つ、て、と」で始まる連絡先の情報が配置される。「な行」の分類には「な、に、ぬ、ね、の」で始まる連絡先の情報が配置される。
 例えば、インデックス操作領域130のあ行の領域130aを操作することで、ホバー操作処理部18は、先頭の読みが「あ、い、う、え、お」で始まる連絡先の情報にアクセスする。
 本実施形態では、図6に示すように、ユーザが指の位置をP21~P22のようにZ軸方向に変化させる引っ張り操作を行うと、ホバー操作処理部18は、表示される項目を「あ行」の中の最初の項目から最後の項目までZ軸方向の高さ(Z座標)に応じて順次に切り替える。
 ユーザの意図しない動作が行われるのを防止するため、引っ張り操作をユーザが期待していると認識した後でこの動作を開始する。具体的には、入力装置100に対して、ユーザがインデックス操作領域130のあ行の領域130aで指をタッチした状態を長く維持すると、入力装置100が認識して引っ張り操作を開始する。引っ張り操作に伴いユーザが指をZ軸方向に引き上げると、表示(選択)される連絡先情報の項目がZ軸方向の高さに応じて順次に切り替わる。
 一方、図6における引っ張り操作領域に相当するインデックス操作領域130(特にあ行の領域130a)の外側の位置P23に指が移動すると、入力装置100は、表示中の項目の状態を維持したまま、引っ張り操作を終了する。つまり、連絡先情報の項目の切り替えは終了し、表示状態は維持する。
 従って、引っ張り操作を開始した後、ユーザが引っ張り操作領域からXY方向に指をずらし、指を引っ張り操作領域外へ移動させることで、引っ張り操作による処理を確定させることができる。従って、少ない移動と短い時間で確定操作ができる。
 図23は入力装置100による具体的なアプリケーションの操作例の他の状態遷移を示す図である。図5との違いは、インデックス操作領域130の代わりに、インデックス操作領域131となっている点である。
 インデックス操作領域131は、「abc」、「def」、「ghi」、「jkl」、「mno」等の分類を表す独立した複数のタブ(選択のための操作部)を有している。
 「abc」の分類には、先頭の読みが「a、b、c」で始まる連絡先の情報が例えば「a、b、c」順に並んでデータが配置される。「def」の分類には「d、e、f」で始まる連絡先の情報が配置される。「ghi」の分類には「g、h、i」で始まる連絡先の情報が配置される。「jkl」の分類には「j,k、l」で始まる連絡先の情報が配置される。「mno」の分類には「m、n、o」で始まる連絡先の情報が配置される。
 例えば、インデックス操作領域131の「abc」の領域131aを操作することで、ホバー操作処理部18は、先頭の読みが「a、b、c」で始まる連絡先の情報にアクセスする。操作方法及び操作時の入力装置100の動作については、前述と同様である。
 次に、入力装置100の動作について説明する。
 図7は入力装置100による主要な動作例を示すフローチャートである。
 ステップS11、S12では、座標取得部11が、センサ10の出力する信号を監視して、入力操作があるまで待機する。ユーザの指等の移動により何らかの変化をセンサ10が検出すると、ステップS12からS13に進む。
 ステップS13では、引っ張り操作判定部13が、引っ張り操作が有効な状態か否かを識別する。初期状態では無効であり、後述する条件を満たすと有効になる。無効の場合はステップS14に進み、有効の場合はステップS20に進む。
 ステップS14では、引っ張り操作判定部13が、検出された指のZ座標に基づきホバー操作とタッチ操作とを区別する。ホバー操作であればステップS19に進み、タッチ操作であればステップS15に進む。
 ステップS15では、タッチ操作処理部16が、タッチパネルの操作面TP1への指の接触時に検出されるタッチ座標(X/Y)に基づき、所定の処理を実行する。例えば、該当する座標の位置に表示されているオブジェクト(例えばアイコンなど)を操作対象として選択したり、そのオブジェクトに割り当てられた機能を実行したりする。
 ステップS16では、引っ張り操作開始判定部15が、画面に表示されている利用可能な全ての引っ張り操作領域の情報を引っ張り操作領域記憶部14から取得する。そして、引っ張り操作開始判定部15は、タッチ操作処理部16から入力されるタッチ座標(X/Y)と比較して、引っ張り操作の開始条件を満たすか否かを識別する。例えば、タッチ座標が1つの引っ張り操作領域の範囲内に属し、このタッチ状態が所定時間以上維持され、(長押しされ)、その後に指がリリースされた場合、開始条件を満たす、と識別する。この場合、次のステップS17に進む。
 ステップS17では、引っ張り操作判定部13が、引っ張り操作開始判定部15による開始決定の結果に従い、タッチおよびリリースが検出された引っ張り操作領域を有効領域として設定する。この場合、引っ張り操作判定部13は、有効領域の情報を有効領域記憶部12に記憶する。この有効領域の情報(Xo/Yo,Xt/Yt)は、引っ張り操作領域記憶部14から抽出され、タッチ操作処理部16、引っ張り操作判定部13を経由して有効領域記憶部12に書き込まれる。
 例えば、図5に示した状況においては、インデックス操作領域130の「あ行」、「か行」、「さ行」、「た行」、「な行」のタブのそれぞれの領域が、引っ張り操作領域記憶部14から取り出されてステップS16でタッチ座標と比較される。そして、図5のように、ユーザが「あ行」のタブの範囲内を長押し操作した場合には、該当する「あ行」タブの範囲を表す1つの引っ張り操作領域の情報が選択され、これが有効領域として有効領域記憶部12に書き込まれる。
 ステップS18では、引っ張り操作判定部13が、引っ張り操作が無効な状態から有効な状態に切り替える。
 ステップS19では、ホバー座標無効化部17が、ホバー座標を無効化する。つまり、指の位置が引っ張り操作領域の範囲外にある場合や、引っ張り操作を開始していない場合に、ホバー座標を無効化する。これにより、ユーザが指のZ軸方向の高さを変更することで入力装置100の動作に影響し、ホバー操作が誤って実行されることを防止できる。
 ステップS20では、引っ張り操作判定部13が、有効領域記憶部12に有効領域として保持されている引っ張り操作領域の範囲と、座標取得部11から入力される座標(X/Y)と、を比較し、この入力座標が有効領域内か否かを識別する。有効領域内であればステップS22に進み、領域外であればステップS21に進む。
 例えば、図5に示す右側の状況においては、ユーザの指の位置が「あ行」の領域130aの内側/外側の区分がステップS20で識別される。
 ステップS21では、有効領域の範囲外に指が移動したので、引っ張り操作判定部13は、引っ張り操作が有効な状態から無効な状態に切り替える。
 ステップS22では、ホバー操作処理部18が、座標取得部11により取得されているホバー座標に応じて、予め定めた処理を実行する。例えば、図5に示す右側の状況のように、「あ行」の領域130aが引っ張り操作の対象になっている時には、電話帳に登録されている「あ行」に属する多数の項目の連絡先情報の中から、表示する項目を図6に示すように指が位置するZ座標に応じて変更する。
 このように、入力装置100は、引っ張り操作判定部13が、入力検知部における入力検知面への接触が検出されてから、入力検知面への入力に伴う入力座標のうちの入力検知面に直交する方向の座標であるZ座標の認識を開始するよう制御する。つまり、Z座標を有効とする。制御部は、例えば引っ張り操作判定部13である。入力検知部における入力検知面は、例えばタッチパネルにおける操作面TP1である。
 これにより、入力検知面への接触が検知されるまでは、Z座標の認識を行わない。従って、X、Y方向の入力時にZ座標の誤検知を防止することが可能である。例えば、タッチ状態からリリースしたことを契機としてZ座標の利用を開始するので、ユーザが意図していない時に、Z軸方向の位置に応じて動作状態が変化するという誤動作を抑制できる。
 また、制御部は、入力検知面に、Z座標が検出されるZ座標検出領域を設ける。また、入力検知部によりZ座標検出領域への接触が検知されてから、Z座標検出領域への入力に伴う入力座標のうちのZ座標の認識を開始する。Z座標検出領域は、例えば引っ張り操作領域である。
 これにより、ユーザがタッチパネルにおけるZ座標検出領域へ指をタッチしない限り、Z座標の変化は制御に反映されない。従って、ユーザの意図しない操作による誤動作が抑制される。例えば、引っ張り操作領域を表示されている特定のオブジェクトに限定することで、意図しない接触による誤動作を抑制できる。
 また、制御部は、入力検知部によりZ座標検出領域への所定時間以上の接触が検知されてから、Z座標検出領域への入力に伴う入力座標のうちのZ座標の認識を開始する。所定時間以上の接触は、例えば長押しである。
 これにより、ユーザが誤ってZ座標検出領域に短時間だけ触れた場合であっても、Z座標の認識が開始されないので、ユーザの意図する操作と意図しない操作とを明確に区別することが可能になる。
 また、制御部は、入力検知部によりZ座標検出領域への接触が検知されてから、座標検出部により検出された入力座標のZ座標に基づいて、Z座標検出領域に割り当てられた所定の機能のパラメータを変更する。制御部は、例えばホバー操作処理部18である。所定の機能のパラメータは、例えば電話帳機能の「あ」行を検索するためのパラメータである。
 これにより、ユーザは引っ張り操作が行われるZ座標検出領域に割り当てられた機能のパラメータを調整できる。
 また、制御部は、入力検知部により入力検知面への接触が検知されるまで、座標検出部により検出された前記入力座標を無効化してもよい。制御部は、例えばホバー座標無効化部17である。
 これにより、例えば、引っ張り操作を開始していない時に、Z座標の変化に伴ってユーザの意図しない誤動作が生じることを防止できる。
 また、制御部は、入力検知部により入力検知面への接触が検知されるまで、座標検出部による前記入力座標におけるZ座標の検出を中止させてもよい。制御部は、例えば引っ張り操作判定部13である。
 これにより、引っ張り操作を開始していない時に、Z座標の変化に伴ってユーザの意図しない誤動作が生じるのを防止可能になり、電力消費の抑制も可能になる。
(第2の実施形態)
 図8は本発明の第2の実施形態における入力装置の構成例を示すブロック図である。なお、図8において前述の実施形態における入力装置と同等の構成要素については、図1中の各要素と同じ符号を付けて示してある。
 図8に示すように、入力装置100Bは、センサ10、座標取得部11、有効領域記憶部12、引っ張り操作判定部13、引っ張り操作領域記憶部14、引っ張り操作開始判定部15B、タッチ操作処理部16、ホバー座標無効化部17、およびホバー操作処理部18を備える。
 すなわち、引っ張り操作開始判定部15Bのみが入力装置100と異なる構成要素であり、引っ張り操作開始の判定処理が第1の実施形態とは異なっている。それ以外の要素については、前述の実施形態における入力装置の構成要素と同様であるので、以下の説明を省略する。
 引っ張り操作開始判定部15Bは、引っ張り操作の開始に関する判定処理を行う。例えば、特定の機能が割り当てられたオブジェクト(例えば画面上に表示されたアイコン)をユーザが指でタッチパネルにタッチして選択し、このオブジェクトを特定の引っ張り操作領域の範囲内へドラッグ(タッチパネルにタッチしたまま移動)し、その範囲内で指をリリースした場合に、引っ張り操作の開始と判定する。
 次に、入力装置100Bによるアプリケーションの操作について説明する。
 図9(A),(B)は入力装置100Bによる具体的なアプリケーションの操作例の状態遷移を示す図である。また、図10は、図9(A),(B)に示した操作における指の動きの一例を示す図である。
 図9(A),(B)の例では、作図や図の編集を行うための機能を有するペイント用ソフトウェアのアプリケーションを入力装置100により実行する場合を想定している。図9(A),(B)に示したアプリケーションの操作領域200の中には、ツールの領域201~208と、引っ張り操作領域210と、が設けられている。
 ツールの領域201~208のそれぞれには、互いに異なる機能が割り当てられたオブジェクトが対応付けられている。すなわち、図9(A),(B)に示すように、ツールの領域201~208には、それぞれ、「筆」、「鉛筆」、「直線」、「線種」、「透明度」、「明るさ」、「消しゴム」、および「スプレー」の機能を有するオブジェクトが対応付けられている。また、ツールの領域201~208がリング状に配置され、この内側に円形の引っ張り操作領域210が配置されている。
 ツールの領域201~208における各々のオブジェクトは、ユーザの操作によるドラッグが可能になっている。図9(A)では、ユーザがツールの領域201に指でタッチしてこのオブジェクトを選択し、選択されたオブジェクトを引っ張り操作領域210の範囲内までドラッグ操作することを想定している。
 このドラッグ操作をセンサ10および座標取得部11が検出し、タッチ操作処理部16が図9(B)のように操作領域200における表示内容を切り替える。すなわち、タッチ操作処理部16は、「筆」の機能を有するオブジェクトがツールの領域201から引っ張り操作領域210内にドラッグされた旨を表示する。
 図9(B)では、ツールの領域201~208におけるオブジェクトが引っ張り操作領域210の範囲内にドラッグされている。これを引っ張り操作開始判定部15Bは引っ張り操作の開始として認識する。
 引っ張り操作の開始が認識されると、ホバー操作処理部18は、引っ張り操作に伴う各ツールに関するパラメータの変更を開始する。すなわち、図10に示すように、引っ張り操作領域210の範囲内において、ユーザが指を位置P31~P32の範囲でZ軸方向に移動すると、Z座標に応じて、選択中のオブジェクトに関するパラメータが変更される。
 図9(A),(B)に示す例では、引っ張り操作領域210に「筆」のオブジェクトをユーザがドラッグしているので、ホバー操作処理部18は、「筆」のパラメータとして、例えば描画の太さを変更する。
 例えば、図10に示すように、タッチパネルの操作面TP1に指が近くなるにつれて、太さのパラメータを描画が細くなるように変更し、操作面TP1から指が離れる(高くなる)につれて、太さのパラメータを描画が太くなるように変更する。
 また、図10に示すように、指が引っ張り操作領域210の範囲外の位置P33に移動すると、引っ張り操作判定部13は引っ張り操作が終了したと判定する、従って、この移動後は、ユーザが指の高さを変更してもパラメータは変化しなくなる。
 次に、入力装置100Bの動作について説明する。
 ここでは、引っ張り操作開始判定部15Bの動作について説明する。他の構成部の動作については、図7で示した動作と同様である。
 図11は引っ張り操作開始判定部15Bによる動作例を示すフローチャートである。図11の動作は、例えば図7におけるステップS16~S18に対応する動作である。
 ステップS31では、引っ張り操作開始判定部15Bは、センサ10が出力する信号の状態を監視して、指のリリースを検出したか否かを識別する。指のリリースを検出した場合はステップS32に進み、検出しない場合はステップS35に進む
 ステップS32では、引っ張り操作開始判定部15Bは、指のリリースを検出した時の座標(X/Y)を入力し、この座標と引っ張り操作領域の範囲(Xo/Yo,Xt/Yt)とを比較する。引っ張り操作領域内でのリリース検出の場合はステップS33に進み、引っ張り操作領域外ならステップS35に進む。
 ステップS33では、引っ張り操作開始判定部15Bは、指のリリースを検出した時に、オブジェクトのドラッグ操作を行っていたか否かを識別する。オブジェクトのドラッグ操作を行っていた場合はステップS34に進み、そうでない場合はステップS35に進む。
 例えば、図9(A)のように、ツールの領域201の「筆」のオブジェクトを指でタッチして引っ張り操作領域210にドラッグした場合には、ユーザがドラッグ操作を終了して指をリリースする時に、ステップS34に進む。
 ステップS34では、引っ張り操作開始判定部15Bは、引っ張り操作の開始を認識する。これにより、例えば、図9(B)に示した操作領域200の状態に遷移し、引っ張り操作が可能になる。
 ステップS35では、引っ張り操作開始判定部15Bは、引っ張り操作を開始しない。つまり、引っ張り操作が不可能な状態を維持する。
 このように、入力装置100Bは、入力検知面が、Z座標検出領域および所定の機能が割り当てられた機能領域を有する。機能領域は、例えばツールの領域201~208である。制御部は、入力検知部により機能領域からZ座標検出領域へドラッグ操作されたことを示す入力が検知されてから、座標検出部により検出された入力座標のZ座標に基づいて、ドラッグ操作された機能領域に割り当てられた機能のパラメータを制御する。制御部は、例えばホバー操作処理部18である。機能領域に割り当てられた機能のパラメータは、例えば筆、スプレー、消しゴム、のパラメータである。
 これにより、パラメータ変更の対象になる機能をユーザは簡単なドラッグ操作で選択し、指の引っ張り高さの調整によりパラメータを変更することが可能になる。また、指のリリースと引っ張り操作領域の限定だけでは排除できない、意図しない接触による誤動作を抑制できる。
(第3の実施形態)
 図12は本発明の第3の実施形態における入力装置100の構成例を示すブロック図である。なお、図12において前述の実施形態における入力装置100と同等の構成要素については、同じ符号を付けて示してある。
 図12に示すように、入力装置100Cは、センサ10、座標取得部11、有効領域記憶部12、引っ張り操作判定部13、引っ張り操作開始判定部15、タッチ操作処理部16B、ホバー座標無効化部17、ホバー操作処理部18、および引っ張り操作領域生成部19を備えている。
 すなわち、入力装置100Cでは、入力装置100における引っ張り操作領域記憶部14の代わりに引っ張り操作領域生成部19を備え、入力装置100におけるタッチ操作処理部16の代わりにタッチ操作処理部16Bを備える。これら以外の要素については、前述の実施形態における入力装置と同様であるので、以下の説明を省略する。
 引っ張り操作領域生成部19は、特定の入力操作を検出した時に、タッチ操作処理部16Bからタッチ座標(X/Y)を入力し、このタッチ座標に基づいて引っ張り操作領域を生成する。特定の入力操作とは、引っ張り操作が可能なオブジェクト(例えばフォルダ)に対するタッチ、当該オブジェクトに対する長押し、などを意味している。
 引っ張り操作領域生成部19が生成した引っ張り操作領域の範囲を表す情報(Xo/Yo,Xt/Yt)は、引っ張り操作開始判定部15に入力される。引っ張り操作開始判定部15は、この引っ張り操作領域の範囲に基づいて引っ張り操作開始の判定を行う。
 また、引っ張り操作領域生成部19は、引っ張り操作領域記憶部14としての機能も有する。つまり、生成された引っ張り操作領域の情報を引っ張り操作領域生成部19が保持する。
 次に、入力装置100Cによるアプリケーションの操作について説明する。
 図13(A)~(C)は入力装置100Cによる具体的なアプリケーションの操作例の状態遷移を示す図である。また、図14は、図13(A)~(C)に示した操作における指の動きの一例を示す図である。
 図13(A)~(C)に示す例では、タッチパネルにおけるアプリケーションの操作領域300に、フォルダの領域301,302,303が配置されている。フォルダの領域301,302,303には、それぞれのフォルダのオブジェクトが割り当てられている。各々のフォルダは、写真などの様々なデータファイルを格納するための記憶領域として機能する。アプリケーションの操作領域300は、例えば画面に配置されたタッチパネル全体に設けられる。
 図13(A)では、フォルダの領域301をユーザが指でタッチした状態を想定している。フォルダの領域301のオブジェクトには、指でフォルダの領域301を長押しすることにより、図13(B)のように引っ張り操作領域310をポップアップで表示する機能が割り当ててある。この引っ張り操作領域310は、引っ張り操作領域生成部19により、例えば、タッチ座標の近傍すなわちフォルダの領域301の近傍に生成される。
 また、引っ張り操作領域310には「覗き見」の機能が割り当ててある。図13(B)では、ユーザは指でフォルダの領域301のオブジェクトを表示された引っ張り操作領域310の位置までドラッグする(S103)ことを想定している。つまり、指をフォルダの領域301にタッチし、タッチ状態を維持したまま、引っ張り操作領域310内に指を移動する。
 フォルダの領域301のオブジェクトを引っ張り操作領域310にドラッグすることにより、図13(C)の状況に操作領域300の表示が遷移する。図13(C)では、新たにプレビュー領域320が画面上に表示される(S104)。このプレビュー領域320には、操作中のフォルダ内の写真などのファイルがプレビュー表示される。
 また、図13(C)では、プレビュー表示とともに引っ張り操作が開始される。すなわち、ホバー操作処理部18は、引っ張り操作領域310において、図14に示す位置P41~P42の範囲でユーザが指のZ座標を変更することにより、プレビュー領域320に表示される対象物(フォルダ内で選択された写真等のファイル)を高さに応じて切り替える。
 また、図14に示すように、ユーザの指が引っ張り操作領域310の範囲外の位置P43に移動すると、引っ張り操作判定部13が引っ張り操作を終了したと判定する。従って、この移動後は、ユーザが指の高さを変更しても表示される対象物の切り替えが行われない。
 次に、入力装置100Cの動作例について説明する。
 ここでは、引っ張り操作領域生成部19の動作について説明する。他の構成部の動作については、図7または図11で示した動作と同様である。
 図15は入力装置100Cによる主要な動作例を示すフローチャートである。図15の動作は、例えば図7におけるステップS12とS13との間に行われる。
 ステップS41では、引っ張り操作領域生成部19は、タッチ操作処理部16Bから出力されるタッチ座標(X/Y)を監視して、タッチパネルにおける操作領域が長押しされたか否かを識別する。長押しを検出するとステップS42に進み、検出しない場合はステップS44に進む。
 ステップS42では、引っ張り操作領域生成部19は、長押しを検出した座標が、引っ張り操作可能なオブジェクトの領域内か否かを識別する。この領域内であればステップS43に進み、この領域外であればステップS44に進む。
 例えば、図13(A)のように、引っ張り操作可能なフォルダの領域301内で長押しが検出された場合に、ステップS42からS43に進む。
 ステップS43では、引っ張り操作領域生成部19は、タッチ座標(X/Y)から所定の距離離れた位置に、所定の大きさの引っ張り操作領域310を生成する。あるいは、タッチ座標が含まれる引っ張り操作可能なオブジェクト領域の所定の位置(中心部や角部など)から所定の距離離れた位置に、所定の大きさの引っ張り操作領域310を生成してもよい。また、タッチパネルの所定の位置に、所定の大きさの引っ張り操作領域310を生成してもよい。
 ステップS44では、引っ張り操作領域生成部19は、引っ張り操作領域310を生成しない。従って、引っ張り操作開始判定部15は、引っ張り操作が不可能な状態を維持する。
 このように、入力装置100Cは、入力検知面が、所定の機能が割り当てられた機能領域を有する。制御部は、入力検知部により機能領域への接触が検知された場合、入力検知面にZ座標検出領域を生成する。制御部は、例えば引っ張り操作領域生成部19である。
 これにより、ユーザが様々な機能を利用するときに特別な操作を必要とする場合に、機能領域への接触により、Z座標検出領域を生成することができる。従って、有限の広さのタッチパネル上の領域を有効に活用できる。
 また、制御部は、入力検知部により機能領域への所定時間以上の接触が検知された場合、入力検知面にZ座標検出領域を生成する。
 これにより、ユーザが誤って短時間だけ機能領域をタッチした場合であっても、Z座標検出領域を生成せず、意図しない接触による誤動作を防止することができる。
 また、例えば、接触位置の近傍に引っ張り操作領域を生成した場合には、ドラッグの移動量が減少するので、接触位置から少ない移動量によって引っ張り操作を開始できる。
 また、例えば、引っ張り操作領域をタッチパネル上に固定的に用意することがないので、画面を有効に活用できる。
(第4の実施形態)
 図16は本発明の第4の実施形態における入力装置の構成例を示すブロック図である。なお、図16において前述の実施形態における入力装置と同等の構成要素については、同じ符号を付けて示してある。
 図16に示すように、入力装置100Dは、センサ10、座標取得部11、有効領域記憶部12、引っ張り操作判定部13、引っ張り操作開始判定部15、タッチ操作処理部16B、ホバー座標無効化部17、ホバー操作処理部18B、および引っ張り操作領域生成部19Bを備える。
 すなわち、入力装置100Dは、タッチ操作処理部16の代わりにタッチ操作処理部16B、ホバー操作処理部18の代わりにホバー操作処理部18B、引っ張り操作領域生成部19の代わりに引っ張り操作領域生成部19Bを備える。これら以外の要素については、前述の実施形態における入力装置と同様であるので、以下の説明を省略する。
 引っ張り操作領域生成部19Bは、ユーザの入力操作に応じて引っ張り操作領域を生成する。例えば、引っ張り操作領域生成部19Bは、タッチ座標を(X/Y)をタッチ操作処理部16Bから取得し、タッチパネルにおける特定のオブジェクトを長押ししたときに、1つ以上の引っ張り操作領域を所定の位置に所定の大きさで生成する。
 また、引っ張り操作領域生成部19Bは、引っ張り操作領域記憶部14としての機能も有する。つまり、生成された引っ張り操作領域の情報を引っ張り操作領域生成部19Bが保持する。
 引っ張り操作領域生成部19Bは、生成された引っ張り操作領域の情報(Xo/Yo,Xt/Yt)を引っ張り操作開始判定部15及びホバー操作処理部18Bへ出力する。
 ホバー操作処理部18Bは、引っ張り操作判定部13から出力されるホバー座標(X/Y/Z)に基づいて、所定のホバー操作を行うための処理を行う。このとき、ホバー操作処理部18Bは、有効領域に割り当てられた処理を行う。
 次に、入力装置100Dによるアプリケーションの操作について説明する。
 図17(A),(B)は入力装置100Dによる具体的なアプリケーションの操作例の状態遷移を示す図である。
 図17(A),(B)に示す例では、作図や図の編集を行うための機能を有するペイント用ソフトウェアのアプリケーションを入力装置100Dにより実行することを想定している。図17(A),(B)に示すタッチパネルにおけるアプリケーションの操作領域400の中には、「筆」の機能を有するオブジェクトが割り当てられたツールの領域410と、引っ張り操作領域401,402,403と、が設けられている。
 図17(A),(B)に示す引っ張り操作領域401、402、403の各々の範囲を表す情報は、筆の機能を有するツールの領域が長押しされたときに、引っ張り操作領域生成部19Bによりそれぞれ生成される。また、引っ張り操作領域401,402,403には、それぞれ「太さ」、「線種」、「透過」のパラメータが割り当てられている。
 ツールの領域410のオブジェクトは、ユーザによるドラッグ操作が可能になっている。図17(A)では、ユーザがツールの領域410に指でタッチし、ツールの領域410に対応するオブジェクトを選択する。そして、タッチされたオブジェクトを、生成された引っ張り操作領域403の範囲内までドラッグ操作することを想定している。
 ユーザがタッチされたオブジェクトを引っ張り操作領域403の範囲内までドラッグし、指をリリースすると、引っ張り操作開始判定部15が、引っ張り操作領域403において引っ張り操作を開始すると判定する。
 ホバー操作処理部18Bは、引っ張り操作判定部13から出力される有効領域の情報とホバー座標とを参照して、引っ張り操作領域401~403のうち、引っ張り操作領域403が有効領域であると認識する。
 これにより、図17(A)の状態から図17(B)の状態へ遷移する。この場合、ホバー操作処理部18Bは、ドラッグ操作された後にオブジェクトが属する引っ張り操作領域403は、引っ張り操作が可能な有効領域であることを明示するために、引っ張り操作領域403Bのように表示状態(表示色等)を変化させてもよい。
 図17(B)では、引っ張り操作中の状態を想定している。図17(B)の状態では、ホバー操作処理部18Bが、指の位置に応じて処理を実行する。すなわち、有効領域である引っ張り操作領域403Bの範囲内でユーザの指が位置するZ座標を変更すると、操作対象の「筆」のオブジェクトのパラメータが、指のZ座標に応じて変更される。また、図17(B)の例では、引っ張り操作領域403Bに「透過」のパラメータが割り当ててあるので、「筆」のオブジェクトの「透過」のパラメータが変化する。
 なお、ユーザの指の位置が引っ張り操作領域403Bの範囲外になると、この引っ張り操作は終了する。
 同様に、ツールの領域410に対応するオブジェクトを引っ張り操作領域401にドラッグ操作すると、「筆」のオブジェクトにおけるツールの領域410に割り当てられた「太さ」のパラメータを変更するための引っ張り操作が可能になる。
 また、ツールの領域410に対応するオブジェクトを引っ張り操作領域402にドラッグ操作すると、「筆」のオブジェクトにおけるツールの領域410に割り当てられた「線種」のパラメータを変更するための引っ張り操作が可能になる。
 次に、入力装置100Dの動作例について説明する。
 ここでは、ホバー操作処理部18Bの動作について説明する。他の構成部の動作については、図7、図11、図15で示した動作と同様である。
 図18は入力装置100Dによる主要な動作例を示すフローチャートである。図18の動作は、例えば図7におけるステップS22に対応する動作である。
 ステップS51では、ホバー操作処理部18Bは、引っ張り操作判定部13からの有効領域(例えば図17(A)の引っ張り操作領域403)の情報を入力し、この領域を特定するID(図2、図3を参照)を取得する。
 ステップS52~S54では、ホバー操作処理部18Bは、それぞれ、取得された引っ張り操作領域のIDを「1」,「2」,「3」と比較する。ステップS52において、引っ張り操作領域のIDが「1」と一致する場合には、ステップS56に進む。ステップS53において、引っ張り操作領域のIDが「2」と一致する場合には、ステップS57に進む。ステップS54において、引っ張り操作領域のIDが「3」と一致する場合には、ステップS58に進む。
 ステップS56では、ホバー操作処理部18Bは、引っ張り操作領域IDの「1」に事前に割り当てられた処理を実行する。例えば、引っ張り操作領域ID「1」が、図17(A)に示した引っ張り操作領域401に対応するIDである場合には、操作中のオブジェクトの「太さ」のパラメータを変更するための引っ張り操作の処理を実行する。
 ステップS57では、ホバー操作処理部18Bは、引っ張り操作領域IDの「2」に事前に割り当てられた処理を実行する。例えば、引っ張り操作領域ID「2」が、図17(A)に示した引っ張り操作領域402に対応するIDである場合には、操作中のオブジェクトの「線種」のパラメータを変更するための引っ張り操作の処理を実行する。
 ステップS58では、ホバー操作処理部18Bは、引っ張り操作領域IDの「3」に事前に割り当てられた処理を実行する。例えば、引っ張り操作領域ID「3」が、図17(A)に示した引っ張り操作領域403に対応するIDである場合には、操作中のオブジェクトの「透過」のパラメータを変更するための引っ張り操作の処理を実行する。
 このように、入力装置100Cは、入力検知面が、所定の機能が割り当てられた機能領域および機能の所定のパラメータ種別が割り当てられたZ座標検出領域を有する。パラメータ種別は、例えば太さ、線種、透過、である。制御部は、入力検知部により機能領域がZ座標検出領域へドラッグ操作されたことを示す入力が検知されてから、座標検出部により検出された入力座標のZ座標に基づいて、機能領域に割り当てられた機能のZ座標検出領域に割り当てられたパラメータ種別のパラメータを制御する。制御部は、例えばホバー操作処理部18Bである。
 これにより、パラメータ変更の対象になる機能およびパラメータの変更対象のパラメータを、ユーザが簡単なドラッグ操作で選択でき、指のZ軸方向の高さの調整により、パラメータを変更することができる。また、1つのオブジェクトに割り当てられた機能において、容易に複数の種類のパラメータを使い分けることができる。
 なお、本実施形態では、引っ張り操作領域401~403を引っ張り操作領域生成部19が生成する場合について示したが、事前に生成され、あらかじめ画面上に表示されていてもよい。
(第5の実施形態)
 図19は本発明の第5の実施形態における入力装置の構成例を示すブロック図である。なお、図19において前述の実施形態における入力装置と同等の構成要素については、同じ符号を付けて示してある。
 図19に示すように、入力装置100Eは、タッチ座標検出センサ10A、ホバー座標検出センサ10B、タッチ座標取得部11A、ホバー座標取得部11B、有効領域記憶部12、引っ張り操作判定部13B、引っ張り操作領域記憶部14、引っ張り操作開始判定部15、タッチ操作処理部16、ホバー座標無効化部17、ホバー操作処理部18、およびセンサ制御部20を備える。
 すなわち、入力装置100Eは、センサ10の代わりに、タッチ座標検出センサ10Aおよびホバー座標検出センサ10Bを備える。また、座標取得部11の代わりに、タッチ座標取得部11Aおよびホバー座標取得部11Bを備える。また、引っ張り操作判定部13の代わりに引っ張り操作判定部13Bを備える。また、入力装置100Eには、センサ制御部20が追加されている。それ以外の要素については、前述の実施形態における入力装置と同様であるので、以下の説明を省略する。
 タッチ座標検出センサ10A及びホバー座標検出センサ10Bは、入力装置100Eにおけるタッチパネル上の操作可能な範囲内で、ユーザの指等の位置座標を検出する。タッチ座標検出センサ10Aとホバー座標検出センサ10Bとは互いに同じ領域を同じ座標に対応付けて検出できる。
 タッチ座標検出センサ10Aは、一般的な二次元タッチパネルのセンサであり、タッチ座標(X/Y)のみを検出するためのセンサである。また、タッチ座標検出センサ10Aは、センサにより検知される信号の強度により、タッチの有無を検出する。タッチ座標検出センサ10Aは、一般的なタッチパネルと同様の技術を用いることで実現できる。
 ホバー座標検出センサ10Bは、三次元タッチパネルのセンサであり、ホバー座標(X/Y/Z)をそれぞれ検出する。
 タッチ座標取得部11Aは、タッチ座標検出センサ10Aが出力する物理信号(例えば電気信号)に基づき、タッチ座標(X/Y)を表す情報を取得する。例えば、タッチ座標検出センサ10Aにより物体が検出された位置に基づいて、X座標,Y座標を検出する。
 ホバー座標取得部11Bは、ホバー座標検出センサ10Bが出力する物理信号に基づき、ホバー座標(X/Y/Z)を表す情報を取得する。例えば、ホバー座標検出センサ10Bにより物体が検出された位置に基づいて、X座標,Y座標を検出する。また、検出信号(ここではタッチパネルに近いほど検出信号の強度が強くなることを想定)の強度に基づいて、Z座標を検出する。
 センサ制御部20は、引っ張り操作判定部13Bの出力に従い、ホバー座標検出センサ10Bの検出動作のオンオフを切り替える。
 引っ張り操作判定部13Bは、タッチ座標取得部11Aが出力するタッチ座標(タッチの有無を含む)と、ホバー座標取得部11Bが出力するホバー座標と、引っ張り操作領域の情報と、に基づいて、引っ張り操作に関する判定処理を行う。また、引っ張り操作判定部13Bは、ホバー座標が必要か否かを識別し、その結果に応じてホバー座標検出センサ10Bの検出動作のオンオフを制御するための信号をセンサ制御部20に与える。
 次に、ホバー座標検出センサ10Bの具体例について説明する。
 図20はホバー座標検出センサ10Bの第1具体例を示す図である。
 図20に示す例では、入力装置100Eの矩形形状のタッチパネル120の4つの角の各々の近傍に、超音波センサ51,52,53,54がそれぞれ配置されている。4つの超音波センサ51~54は、超音波の発信機と受信機とで構成されている。
 これらの超音波センサ51~54は、タッチパネル120に接触または接近したユーザの指などの物体へ超音波を発信し、物体から反射した超音波を受信する。そして、図示しない制御部が、超音波の送信から受信までの時間差と、複数の超音波センサ51~54間の受信時間差と、を検出することにより、物体のZ座標およびX/Yの座標をそれぞれ検出する。
 つまり、超音波センサ51~54は、ホバー座標検出センサ10Bとしての機能を有する。
 図20はホバー座標検出センサ10Bの第2具体例を示す図である。
 図20に示す例では、入力装置100Eの筐体上に、Z軸方向を撮像可能なカメラ60が設置してある。カメラ60は、タッチパネル120に接触または接近したユーザの指などの物体を含む被写体の撮影を繰り返す。図示しない制御部が、この撮影により得られた画像を解析することにより、物体のZ座標およびX/Yの座標をそれぞれ検出する。
 つまり、カメラ60は、ホバー座標検出センサ10Bとしての機能を有する。なお、カメラ60を複数設置すれば、位置検出の精度を高めることができる。
 次に、入力装置100Eの動作について説明する。
 図22は入力装置100Eによる主要な動作例を示すフローチャートである。図22に示す入力装置100Eの動作の大部分は、図7に示した入力装置100の動作と同様であるが、ステップS61及びステップS62の内容が異なる。これらの処理について、以下に説明する。なお、初期状態では、ホバー座標検出センサ10Bはオフとなっている。
 引っ張り操作を開始する時には、第1の実施形態と同様に、ステップS16において、引っ張り操作開始判定部15が引っ張り操作の開始を検出し、ステップS17において、引っ張り操作判定部13Bが有効な引っ張り操作領域を表す有効領域の情報を有効領域記憶部12に記憶させる。
 ステップS61では、引っ張り操作判定部13Bが、引っ張り操作が無効な状態から有効な状態に切り替える。更に、引っ張り操作判定部13Bが、センサ制御部20に対してホバー座標検出センサ10Bによる検出オンを指示する。この指示により、センサ制御部20は、ホバー座標検出センサ10Bがホバー座標の検出動作を開始するように制御する。
 一方、引っ張り操作を開始した後に、検出された指の位置座標が、有効操作領域外になると、図22のステップS13,S20を通り、ステップS62の処理に進む。
 ステップS62では、有効操作領域の範囲外に指が移動したので、引っ張り操作判定部13Bは、引っ張り操作が有効な状態から無効な状態に切り替える。また、引っ張り操作判定部13Bが、センサ制御部20に対してホバー座標検出センサ10Bによる検出オフを指示する。この指示により、センサ制御部20は、ホバー座標検出センサ10Bがホバー座標の検出動作を終了するように制御する。
 ホバー座標検出センサ10Bの検出動作を停止することにより、ホバー座標検出センサ10Bに関連する電力消費を抑制できる。
 このように、入力装置100Dは、座標検出部が、入力検知面に平行する方向の座標であるX座標およびY座標を検出する第1座標検出部と、Z座標を検出する第2座標検出部と、を備える。第1座標検出部は、例えばタッチ座標取得部11Aである。第2座標検出部は、例えばホバー座標取得部11Bである。また、制御部は、入力検知部により入力検知部における入力検知面への接触が検出されてから、第2座標検出部によるZ座標の検出を開始させる。制御部は、例えばセンサ制御部20である。
 これにより、Z座標の検出が不要な時には、例えばホバー座標検出センサ10Bの動作を停止することで、電力消費を抑制できる。
 また、タッチ座標およびホバー座標のそれぞれの検出に最適なセンサを利用することで、検出性能(座標の精度や、近接検知領域の高さ)を向上させることができる。また、ホバー座標の検知を必要最低限のみ行うことで、省電力化を図ることができる。
 なお、図19に示した入力装置100Eの構成においては、ホバー座標検出センサ10Bが(X/Y/Z)の3軸方向の座標を検出する場合を想定している。この代わりに、X座標,Y座標についてはタッチ座標検出センサ10Aの出力を流用してもよい。従って、Z軸方向の位置だけを検出可能なセンサであっても、ホバー座標検出センサ10Bとして利用できる。
 また、第1の実施形態~第4の実施形態のいずれについても、第5の実施形態の技術を適用することが可能である。すなわち、タッチ座標検出センサ10Aおよびホバー座標検出センサ10Bを設け、更にホバー座標検出センサ10Bの検出動作のオンオフを切り替える機能を追加することができる。
 なお、第1の実施形態~第5の実施形態のいずれについても、引っ張り操作を同時に複数個所で行われても良い。また、引っ張り操作の有効領域も複数あっても良い。
 なお、本発明は、上記実施形態の構成に限られるものではなく、特許請求の範囲で示した機能、または本実施形態の構成が持つ機能が達成できる構成であればどのようなものであっても適用可能である。
 上記実施形態では、タッチパネルを指で操作することを主に想定したが、その他の物体により操作してもよい。
 本発明を詳細にまた特定の実施態様を参照して説明したが、本発明の精神と範囲を逸脱することなく様々な変更や修正を加えることができることは当業者にとって明らかである。
 本出願は、2012年2月1日出願の日本特許出願No.2012-020005に基づくものであり、その内容はここに参照として取り込まれる。
 10 センサ
 10A タッチ座標検出センサ
 10B ホバー座標検出センサ
 11 座標取得部
 11A タッチ座標取得部
 11B ホバー座標取得部
 12 有効領域記憶部
 13,13B 引っ張り操作判定部
 14 引っ張り操作領域記憶部
 15,15B 引っ張り操作開始判定部
 16,16B タッチ操作処理部
 17 ホバー座標無効化部
 18,18B ホバー操作処理部
 19,19B 引っ張り操作領域生成部
 20 センサ制御部
 51~54 超音波センサ
 60 カメラ
 100,100B,100C,100D,100E 入力装置
 110 表示部
 120 タッチパネル
 130,131 インデックス操作領域
 130a 「あ行」の領域
 131a 「abc」の領域
 200,300,400 アプリケーションの操作領域
 201~208,410 ツールの領域
 210,310,401,402,403 引っ張り操作領域
 301~303 フォルダの領域
 320 プレビュー領域
 A1,A2,A3 領域
 F ユーザの指
 P11,P12,P13,P14,P15 位置
 TB1,TB1B 領域テーブル
 TP1 タッチパネルの操作面

Claims (13)

  1.  入力を検知する入力検知部と、
     前記入力検知部により検知された入力の座標である入力座標を検出する座標検出部と、
     前記入力検知部が搭載されている面である入力検知面に対する入力を検出した場合、前記座標検出部により検出された前記入力座標のうちの前記入力検知面に直交する方向のZ座標を有効とする制御部と、
     を備える入力装置。
  2.  請求項1に記載の入力装置であって、
     前記制御部は、
     前記入力検知面に、前記Z座標が検出されるZ座標検出領域を設け、
     前記入力検知部により前記Z座標検出領域への接触が検知されてから、前記Z座標検出領域への入力に伴う前記入力座標のうちの前記Z座標を有効とする入力装置。
  3.  請求項2に記載の入力装置であって、
     前記制御部は、前記入力検知部により前記Z座標検出領域への所定時間以上の接触が検知されてから、前記Z座標検出領域への入力に伴う前記入力座標のうちの前記Z座標の認識を開始する入力装置。
  4.  請求項2または3に記載の入力装置であって、
     前記制御部は、前記入力検知部により前記Z座標検出領域への接触が検知されてから、前記座標検出部により検出された前記入力座標の前記Z座標に基づいて、前記Z座標検出領域に割り当てられた所定の機能のパラメータを変更する入力装置。
  5.  請求項2または3に記載の入力装置であって、
     前記入力検知面は、前記Z座標検出領域および所定の機能が割り当てられた機能領域を有し、
     前記制御部は、前記入力検知部により前記機能領域から前記Z座標検出領域へドラッグ操作されたことを示す入力が検知されてから、前記座標検出部により検出された前記入力座標の前記Z座標に基づいて、前記ドラッグ操作された前記機能領域に割り当てられた機能のパラメータを制御する入力装置。
  6.  請求項2または3に記載の入力装置であって、
     前記入力検知面は、所定の機能が割り当てられた機能領域および前記機能の所定のパラメータ種別が割り当てられた前記Z座標検出領域を有し、
     前記制御部は、前記入力検知部により前記機能領域が前記Z座標検出領域へドラッグ操作されたことを示す入力が検知されてから、前記座標検出部により検出された前記入力座標の前記Z座標に基づいて、前記機能領域に割り当てられた機能の前記Z座標検出領域に割り当てられたパラメータ種別のパラメータを制御する入力装置。
  7.  請求項2ないし6のいずれか1項に記載の入力装置であって、
     前記入力検知面は、所定の機能が割り当てられた機能領域を有し、
     前記制御部は、前記入力検知部により前記機能領域への接触が検知された場合、前記入力検知面に前記Z座標検出領域を生成する入力装置。
  8.  請求項7に記載の入力装置であって、
     前記入力検知面は、所定の機能が割り当てられた機能領域を有し、
     前記制御部は、前記入力検知部により前記機能領域への所定時間以上の接触が検知された場合、前記入力検知面に前記Z座標検出領域を生成する入力装置。
  9.  請求項2ないし8のいずれか1項に記載の入力装置であって、
     前記座標検出部は、前記入力検知面に平行する方向の座標であるX座標およびY座標を検出する第1座標検出部と、少なくとも前記Z座標を検出する第2座標検出部と、を備え、
     前記制御部は、前記入力検知部により前記入力検知部における入力検知面への接触が検出されてから、前記第2座標検出部によるZ座標の検出を開始させる入力装置。
  10.  請求項1ないし9のいずれか1項に記載の入力装置であって、
     前記制御部は、前記入力検知部により前記入力検知面への接触が検知されるまで、前記座標検出部により検出された前記入力座標を無効化する入力装置。
  11.  請求項1ないし9のいずれか1項に記載の入力装置であって、
     前記制御部は、前記入力検知部により前記入力検知面への接触が検知されるまで、前記座標検出部による前記入力座標の検出を中止させる入力装置。
  12.  入力を検知する入力検知部により検知された入力の座標である入力座標を検出するステップと、
     前記入力検知部が搭載されている面である入力検知面に対する入力を検出した場合、検出された前記入力座標のうちの前記入力検知面に直交する方向の座標であるZ座標を有効とするステップと、
     を有する入力制御方法。
  13.  請求項12に記載の入力制御方法の各ステップをコンピュータに実行させるための入力制御プログラム。
PCT/JP2012/007801 2012-02-01 2012-12-05 入力装置、入力制御方法、および入力制御プログラム WO2013114499A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US14/359,168 US9395838B2 (en) 2012-02-01 2012-12-05 Input device, input control method, and input control program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012020005A JP5814147B2 (ja) 2012-02-01 2012-02-01 入力装置、入力制御方法、および入力制御プログラム
JP2012-020005 2012-02-01

Publications (1)

Publication Number Publication Date
WO2013114499A1 true WO2013114499A1 (ja) 2013-08-08

Family

ID=48904589

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/007801 WO2013114499A1 (ja) 2012-02-01 2012-12-05 入力装置、入力制御方法、および入力制御プログラム

Country Status (3)

Country Link
US (1) US9395838B2 (ja)
JP (1) JP5814147B2 (ja)
WO (1) WO2013114499A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014041732A1 (ja) 2012-09-13 2014-03-20 パナソニック株式会社 携帯電子機器
TW201426434A (zh) * 2012-12-21 2014-07-01 Ind Tech Res Inst 非接觸式控制系統
US9563406B1 (en) * 2013-05-15 2017-02-07 The Mathworks, Inc. Graphical user interface replacement of function signatures
CN104375698A (zh) * 2014-07-17 2015-02-25 深圳市钛客科技有限公司 一种触控设备
USD841035S1 (en) * 2016-08-26 2019-02-19 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
JP6938426B2 (ja) * 2018-05-22 2021-09-22 京セラ株式会社 電子機器

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004086733A (ja) * 2002-08-28 2004-03-18 Hitachi Ltd タッチパネルを備えた表示装置
JP2010128545A (ja) * 2008-11-25 2010-06-10 Sony Corp 情報処理装置、情報処理方法および情報処理用プログラム
US20110291945A1 (en) * 2010-05-26 2011-12-01 T-Mobile Usa, Inc. User Interface with Z-Axis Interaction

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10260671A (ja) 1997-03-21 1998-09-29 Sony Corp 画像表示制御装置および方法
US6954899B1 (en) * 1997-04-14 2005-10-11 Novint Technologies, Inc. Human-computer interface including haptically controlled interactions
US7058204B2 (en) * 2000-10-03 2006-06-06 Gesturetek, Inc. Multiple camera control system
AU2002243265A1 (en) * 2000-11-19 2002-06-24 Canesta, Inc. Method for enhancing performance in a system utilizing an array of sensors that sense at least two-dimensions
JP3987009B2 (ja) * 2002-08-16 2007-10-03 日本電信電話株式会社 偏波モード分散補償方法及び偏波モード分散補償装置
JP2008077655A (ja) 2003-06-09 2008-04-03 Casio Comput Co Ltd 電子機器、表示制御方法及びプログラム
JP4144555B2 (ja) 2003-06-09 2008-09-03 カシオ計算機株式会社 電子機器、表示制御方法及びプログラム
WO2011137518A1 (en) * 2010-05-03 2011-11-10 Forensic Technology Wai, Inc. Linking of microscopes for analysis of objects comprising tool marks
WO2012116746A1 (en) * 2011-03-02 2012-09-07 Mevis Medical Solutions Ag Image processing device for finding corresponding regions in two image data sets of an object

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004086733A (ja) * 2002-08-28 2004-03-18 Hitachi Ltd タッチパネルを備えた表示装置
JP2010128545A (ja) * 2008-11-25 2010-06-10 Sony Corp 情報処理装置、情報処理方法および情報処理用プログラム
US20110291945A1 (en) * 2010-05-26 2011-12-01 T-Mobile Usa, Inc. User Interface with Z-Axis Interaction

Also Published As

Publication number Publication date
JP5814147B2 (ja) 2015-11-17
US9395838B2 (en) 2016-07-19
JP2013161124A (ja) 2013-08-19
US20140362017A1 (en) 2014-12-11

Similar Documents

Publication Publication Date Title
US10521109B2 (en) Touch event model
KR102188097B1 (ko) 페이지 운용 방법 및 그 전자 장치
JP6009454B2 (ja) コンピューティング装置の動きを利用するコンピューティング装置と相互作用するときに発生する入力イベントの解釈の強化
JP5610644B2 (ja) 入力装置、入力支援方法及びプログラム
US9146676B2 (en) Method and apparatus for notifying a user about a manipulation region on the back surface of the apparatus
US9448714B2 (en) Touch and non touch based interaction of a user with a device
JP5814147B2 (ja) 入力装置、入力制御方法、および入力制御プログラム
US9430089B2 (en) Information processing apparatus and method for controlling the same
US20130067397A1 (en) Control area for a touch screen
JP2010244132A (ja) タッチパネル付きユーザインタフェース装置、ユーザインタフェース制御方法およびユーザインタフェース制御プログラム
KR20120038788A (ko) 모션 기반 사용자 인터페이스 제어 장치 및 방법
CN102253709A (zh) 手势判断的方法与装置
JP2015007949A (ja) 表示装置、表示制御方法及びコンピュータプログラム
US20140327659A1 (en) Electronic Apparatus
JP5461735B2 (ja) 入力装置、入力支援方法及びプログラム
JP2016110518A (ja) 情報処理装置、その制御方法、プログラム、及び記憶媒体
KR102323440B1 (ko) 페이지 운용 방법 및 그 전자 장치
KR102301652B1 (ko) 페이지 운용 방법 및 그 전자 장치
JP2016009436A (ja) 情報処理装置及び表示制御方法
KR101165388B1 (ko) 이종의 입력 장치를 이용하여 화면을 제어하는 방법 및 그 단말장치
KR20210123920A (ko) 에어 제스처에 의한 편집 기능을 제공하기 위한 전자 장치, 그 동작 방법 및 저장 매체

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12867257

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14359168

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12867257

Country of ref document: EP

Kind code of ref document: A1