WO2006104132A1 - ユーザインタフェイスシステム - Google Patents

ユーザインタフェイスシステム Download PDF

Info

Publication number
WO2006104132A1
WO2006104132A1 PCT/JP2006/306245 JP2006306245W WO2006104132A1 WO 2006104132 A1 WO2006104132 A1 WO 2006104132A1 JP 2006306245 W JP2006306245 W JP 2006306245W WO 2006104132 A1 WO2006104132 A1 WO 2006104132A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
finger
gui
user interface
interface system
Prior art date
Application number
PCT/JP2006/306245
Other languages
English (en)
French (fr)
Inventor
Takuya Hirai
Atsushi Yamashita
Atsushi Iisaka
Tomohiro Terada
Original Assignee
Matsushita Electric Industrial Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co., Ltd. filed Critical Matsushita Electric Industrial Co., Ltd.
Priority to US11/884,955 priority Critical patent/US7810050B2/en
Priority to JP2007510518A priority patent/JP4702959B2/ja
Priority to EP06730193A priority patent/EP1865404A4/en
Publication of WO2006104132A1 publication Critical patent/WO2006104132A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected

Definitions

  • the present invention relates to a user interface system, and more particularly to a user interface system that allows a user to specify a function to be executed for a computer device.
  • each subgroup is associated with the finger of the user, and the finger recognition system identifies the subgroup by recognizing the finger currently operating the key. To do. In other words, because the keypad does not display alphabets, numbers, and command descriptions, the user must remember which fingers are associated with which subgroups, which is inefficient and unusable. There are problems.
  • an object of the present invention is to provide a user interface system that is easier to use.
  • a first aspect of the present invention provides a user interface system. It is aimed at.
  • the present invention includes an operation unit that receives a user's instruction input, a finger position detection unit that detects a first coordinate value group indicating a current position of a user's fingertip on the operation surface of the operation unit, and a graphical user interface (GUI)
  • GUI graphical user interface
  • a component storage unit that stores component data representing a component, an allocation unit that uniquely allocates component data held in the component storage unit to each of the first coordinate values detected by the finger position detection unit, and an allocation unit allocation
  • the GUI image representing the user interface in which the GUI component represented by the component data stored in the component storage unit and each of the first coordinate values detected by the finger position detection unit are uniquely associated is generated.
  • An image creation unit and a display control unit configured to display a GUI image generated by the image creation unit on a display screen.
  • an imaging device installed so as to be capable of photographing the user's manual operation
  • the finger position detection unit is configured to detect a current position of the user's fingertip on the operation surface of the operation unit from an image captured by the imaging device It is preferable to detect a coordinate value group indicating.
  • the image creation unit extinguishes the GUI part associated with the finger bent by the user among the fingers of the hand image acquired by the imaging device, and the coordinates indicating the current position of the fingertip remaining last It is preferable to further include a function execution unit that executes the function of the GUI component assigned to the value.
  • the image creation unit connects the position indicated by each of the first coordinate values detected by the finger position detection unit and the GUI component represented by the component data allocated by the allocation unit with a line.
  • the image creation unit further includes a history information holding unit for storing functions executed in the past, and creates a GUI image to be added to the fingertip based on the history information. Is preferred.
  • the image creating unit synthesizes a GUI component represented by the component data assigned by the assigning unit at or around the position indicated by each of the first coordinate values detected by the finger position detecting unit.
  • the image creation unit further includes a left and right hand discriminating unit for discriminating left and right hands, and the GUI component added to the first coordinate value is changed when operating with the left hand and when operating with the right hand. It is preferable to do.
  • the display control unit displays a hand image including first coordinate values indicating the positions of the plurality of types of fingertips identified by the finger identifying unit, and the allocating unit is configured to represent the plurality of types identified by the finger identifying unit. It is preferable to delete the displayed hand image after uniquely assigning the GUI component to each of the first coordinate values indicating the position of the fingertip.
  • the display control unit displays the number of fingers corresponding to the GUI component assigned to each of the first coordinate values indicating the positions of the plurality of types of fingertips identified by the finger identifying unit by the assigning unit. It is preferable.
  • the image creation unit creates a GUI image in which the size of the GUI component stored in the component storage unit is changed according to the type of the finger identified by the finger identification unit.
  • the display control unit applies the fingertip represented by the specific first coordinate value detected by the finger position detection unit.
  • the GUI component assigned by the assigning unit is displayed so as to follow the movement of the fingertip.
  • the display control unit moves the GUI component assigned to the fingertip by the assigning unit according to the operation of the fingertip represented by the specific first coordinate value detected by the finger position detection unit. U, prefer to display.
  • the assigning unit maintains only the assignment for the specific first coordinate value detected by the finger position detecting unit, and assigns the other first coordinate value detected by the finger position detecting unit. U, prefer to change.
  • a touch position detection unit that detects a second coordinate value indicating a position where the user touches the operation surface of the operation unit, a second coordinate value detected by the touch position detection unit, and an allocation unit From the first coordinate value uniquely assigned by, the contact finger that determines how many fingers the user touches the operation surface and further identifies the GUI part assigned to the determined finger It is preferable to further include a determination unit and a function execution unit having a function assigned to the GUI component specified by the contact finger determination unit.
  • the assigning unit preferably reassigns the component data once assigned to the first coordinate value detected by the finger position detecting unit to another GUI component.
  • the assigning unit does not assign the part to the first coordinate value indicating the position of the specific type of finger, and the first coordinate value indicating the position to the remaining finger is interchanged between the plurality of devices. Different parts data are assigned uniquely, and the image creation unit can select multiple devices with a specific finger and respond to operations with a specific finger for the currently selected device.
  • the G UI in which the first coordinate value indicating the position of the remaining finger whose type has been identified by the above and the part data stored in the part storage unit and assigned to the remaining finger by the assigning part are associated with each other Prefer to produce images.
  • the contact position detection unit detects a second coordinate value indicating the first contact position in response to each contact, The second coordinate value indicating the second contact position is detected, and the contact finger determination unit detects the first second coordinate value detected by the contact position detection unit and the first coordinate value uniquely assigned by the assignment unit. From the coordinate value of 1 and GUI parts, it is determined how many fingers the user is touching the operation surface of the operation unit, and the second coordinate value of the second time detected by the contact position detection unit. Therefore, it is preferable that the GUI component specified by the user this time is specified.
  • the contact position detection unit When the user traces between at least two points on the operation surface of the operation unit, the contact position detection unit periodically detects a second coordinate value indicating the current contact position in response to each contact. Then, the contact finger determination unit calculates the operation surface of the operation unit from the second coordinate value periodically detected by the contact position detection unit, the first coordinate value uniquely assigned by the assignment unit, and the GUI component. It is preferable to determine how many fingers the user is touching, and to identify the GUI component specified by the user this time.
  • a second aspect of the present invention is directed to a display method used in a user interface system.
  • the present invention provides a finger position detection step for detecting a first coordinate value group indicating a current position of a user's fingertip on an operation surface of an operation unit provided in a user interface system and receiving an instruction input from the user, and a user interface A component that is stored in the storage device of the system and represents a GUI (Graphical User Interface) component
  • An assignment step that uniquely assigns data to each of the first coordinate values detected by the finger position detection step, and a GUI component stored in the storage device according to the assignment step assignment and the finger position detection step.
  • An image creation step for generating a GUI image representing a user interface that is uniquely associated with each of the first coordinate values, and the GUI image generated by the image creation step are stored in the user interface system.
  • a display control step for displaying on the provided display screen.
  • each GUI component As described in each aspect above, a predetermined function is assigned to each GUI component. Each of these GUI parts is displayed on the display screen as part of the GUI image. The displayed GUI component is associated with each fingertip of the user, that is, assigned to each fingertip. Since each GUI component is displayed in this manner, the user interface system according to each aspect can present to the user in a visible manner at least what functions can be realized. This makes it possible to provide a user interface system that is easier to use.
  • FIG. 1 is a schematic diagram showing a schematic configuration of a user interface system 1 according to an embodiment of the present invention.
  • FIG. 2 is a schematic diagram showing a functional block configuration of the computer apparatus 3 shown in FIG. 1.
  • FIG. 3 is a flowchart showing display processing of the computer apparatus 3 shown in FIG.
  • FIG. 4 is a flowchart showing a detailed processing procedure of finger position detection unit 32 shown in FIG.
  • FIG. 5A is a first schematic diagram showing an example of processing of the finger identification unit 33 shown in FIG.
  • FIG. 5B is a second schematic diagram showing an example of processing of the finger identification unit 33 shown in FIG.
  • FIG. 6A is a first schematic diagram showing a GUI image created by the image creation unit 36 shown in FIG.
  • FIG. 6B is a second schematic diagram showing a GUI image created by the image creation unit 36 shown in FIG.
  • FIG. 6C is a third schematic diagram showing a GUI image created by the image creation unit 36 shown in FIG.
  • FIG. 6D is a fourth schematic diagram showing a GUI image created by the image creation unit 36 shown in FIG.
  • FIG. 7 is a flowchart showing a function execution process of the computer apparatus 3 shown in FIG.
  • FIG. 8 is a schematic diagram showing a schematic configuration of a user interface system 11 according to a modified example of the present invention.
  • FIG. 9 is a schematic diagram showing a functional block configuration of the computer apparatus 14 shown in FIG. 8.
  • FIG. 10 is a flowchart showing display processing of the computer device 14 shown in FIG.
  • FIG. 11A is a first schematic diagram showing a GUI image created by the image creation unit 146 shown in FIG.
  • FIG. 11B is a second schematic diagram showing a GUI image created by the image creation unit 146 shown in FIG.
  • FIG. 12 is a flowchart showing the function execution processing of the computer device 14 shown in FIG.
  • FIG. 13 is a schematic diagram showing a first example of a multi-function assignment method in the user interface system 1 or 11 shown in FIG. 1 or FIG.
  • FIG. 14 is a schematic diagram showing a second example of the multifunctional assignment method in the user interface system 1 or 11 shown in FIG. 1 or FIG.
  • FIG. 15 is a schematic diagram showing a third example of the multi-function assignment method in the user interface system 1 or 11 shown in FIG. 1 or FIG.
  • FIG. 16 is a schematic diagram showing a fourth example of the multi-function assignment method in the user interface system 1 or 11 shown in FIG. 1 or FIG.
  • FIG. 17 is a schematic diagram showing an example of a GUI component assignment changing method in the user interface system 1 or 11 shown in FIG. 1 or FIG. 8.
  • FIG. 18A is an example of a display when a GUI component of the main menu in the user interface system 1 or 11 shown in FIG. 1 or FIG. 8 is assigned.
  • FIG. 18B is a sub-menu display example displayed by selecting a function from the main menu of FIG. 18A.
  • FIG. 19A is an example of a display when GUI parts are assigned in the user interface system 1 or 11 shown in FIG. 1 or FIG.
  • FIG. 19B is an example in which the assignment of GUI parts in the user interface system 1 or 11 shown in FIG. 1 or FIG. 8 is changed and a button follows a specific finger.
  • FIG. 20 is an example of a display in which a button is followed by a specific finger when operating the GUI.
  • FIG. 21 shows an example of the display when the GUI parts are assigned in the user interface system 1 or 11 shown in FIG. 1 or FIG. 8 and the display when the finger is not separated from the contact position detection unit force. It is an example.
  • FIG. 22 is an example of erasing the display of the hand shape when the GUI part is displayed.
  • FIG. 23 is an example of a display when a function is added to a finger and a GUI is operated.
  • FIG. 24A is an example when a finger is associated with a GUI and a GUI component is operated.
  • FIG. 24B is an example of a finger movement when operating the GUI component in FIG. 24A.
  • FIG. 25A is an example of a display when functions in the user interface system 1 or 11 shown in FIG. 1 or FIG. 8 are assigned.
  • FIG. 25B is an example of a display when the remaining finger functions in FIG. 25A are executed.
  • FIG. 1 is a schematic diagram showing a schematic configuration of a user interface system 1 according to an embodiment of the present invention.
  • FIG. 1 shows a two-dimensional coordinate system including an X axis and a y axis on the display device 21 side.
  • a user interface system 1 includes a touch screen 2, a computer device 3, a storage device 4, and an imaging device 5 as a schematic configuration.
  • the touch screen 2 is displayed on the touch screen 2 when the user touches the display screen 21 having a predetermined size with each of, for example, five fingers F to F.
  • the computer device 3 typically includes at least a processor and various memories, and operates according to a computer program stored in a memory such as a ROM.
  • FIG. 2 is a schematic diagram showing a functional block configuration of such a computer apparatus 3.
  • the computer device 3 executes the above-described computer program, whereby an image receiving unit 31, a finger position detecting unit 32, a finger identifying unit 33, a component assigning unit 34, an image creating unit 35, The function of the display control unit 36 is realized.
  • the storage device 4 stores GUI component data necessary for generating a GUI (Graphical User Interface) image to be displayed on the display screen 21.
  • GUI Graphic User Interface
  • a predetermined function is assigned to the GUI part data
  • the GUI part data is image data representing a GUI part such as an icon or a button.
  • FIG. 1 shows two GUI parts C and C as an example.
  • the imaging device 5 is installed so that at least the display area (that is, the display screen) 21 of the touch screen 2 is covered by the angle of view of itself.
  • the imaging device 5 installed in this way captures the range of its angle of view at a predetermined time interval and outputs the captured image to the computer device 3.
  • the user places his / her hand H (see FIG. 1) on the display screen 21.
  • the imaging device 5 captures a state within its own angle of view, and outputs a captured image obtained thereby to the computer device 3 (step S31).
  • the hand H is on the display screen 21, the hand H is reflected in the photographed image.
  • the image reception unit 31 receives the captured image output from the imaging device 5 (step S32), and the finger position detection unit 32 determines each finger F of the user from the received captured image.
  • Coordinate value indicating position on F display screen 21 hereinafter, current position coordinate value
  • the finger position detection unit 32 captures the captured image data received by the image reception unit 31 into a frame memory (not shown) (step S41).
  • the finger position detection unit 32 performs body region extraction processing.
  • partial image data representing an area in which the user's hand H is shown is created from the captured image data in the frame memory (step S42).
  • the region of the user's hand H and the region of the background (mostly the display screen 21) in the captured image in the frame memory are distinguished, and only the region of the user's hand H is extracted.
  • the finger position detection unit 32 acquires in advance image data showing only the display screen 21 via the image reception unit 31 as background image data.
  • the finger position detection unit 32 compares such background image data with the captured image data captured in step S41 for each pixel or block, and manually captures a region different from the background portion in the captured image. Extract as H region.
  • the background of the hand H does not need to be a single color when the imaging device 5 captures an image. Therefore, the display screen 21 of the touch screen 2 is displayed on the display system and the operation system as in this embodiment. It is effective when sharing as.
  • the finger position detection unit 32 performs fingertip position detection processing, and uses the partial image data as described above to indicate the current position coordinate value indicating the position of the user's fingertip.
  • a group is detected (step S43).
  • the finger position detection unit 32 determines one candidate point for each finger F — F.
  • a typical example of a landmark is a nail
  • the finger position detection unit 32 determines the brightness of the mark or the mark from the partial image data as described above. The hue is detected, and the current position coordinate value indicating the position of the tip of each finger F-F is thereby obtained.
  • the finger position detection unit 32 performs calibration and tracks the tip of the finger FF placed at a predetermined initial position according to the movement of the hand H. To do. Than
  • the user places the tip of the finger FF at a position (initial position) determined on the display screen 21. In this state, the image is taken by the imaging device 5.
  • the finger position detection unit 32 acquires the captured image and the brightness of the initial position (that is, the tip of the finger F-F) is obtained.
  • the finger position detection unit 32 Detect the degree or hue. Thereafter, each time the finger position detection unit 32 acquires a captured image from the imaging device 5, the finger position detection unit 32 has substantially the same luminance and the same as the tip of the finger FF during calibration.
  • the finger identification unit 33 acquires the current position coordinate value group acquired by the finger position detection unit 32, and the current position coordinate value is the thumb F and the index finger F. , Middle finger F, ring finger F and little finger F
  • the type of finger is identified using the distance between the fingertips. Specifically, first, the finger identification unit 33 sets a combination of the current position coordinate value at the end and the current position coordinate value next to it from the five current position coordinate values obtained from the finger position detection unit 32. Select two. Thereafter, the finger identification unit 33 calculates the distance between the two current position coordinate values belonging to one set and the distance between the two current position coordinate values belonging to the other set, and the longer one is the thumb F and the index finger F. Between
  • finger identification The unit 33 identifies which current position coordinate value belongs to which finger.
  • the finger identification unit 33 includes the thumb F and the index finger in order from the smallest or largest X coordinate value of the five current position coordinate values obtained from the finger position detection unit 32.
  • the finger identification unit 33 uses the five current position coordinate values obtained from the finger position detection unit 32 as shown in FIG. 5A. Select the coordinate value P with the smallest X coordinate value and the coordinate value P with the largest X coordinate value. Also, the finger identification unit 33 is generated by the finger position detection unit 32 and max
  • the thicknesses W and W of the fingers at both ends are detected as shown in FIG.
  • the finger identification unit 33 One is regarded as thumb F and the thin one is regarded as little finger F. Furthermore, the finger identification unit 33
  • the current position coordinate value P is identified as the thumb F.
  • Positional coordinates can also be identified.
  • the calculation improves the accuracy of identification at least once.
  • the component allocation unit 34 identifies the identification result from the finger identification unit 33, that is, the current position coordinate value of the thumb F, the current position coordinate value of the index finger F, and the middle finger F.
  • the five current position coordinate values received this time are uniquely assigned to each of the five GUI part data stored in the storage device 4 and the current assignment status is held (step S35).
  • the current position coordinate value of thumb F is shown in FIG.
  • the image creating unit 35 creates GUI image data representing a GUI image in a frame memory (not shown) (step S36). Specifically, in the GUI image, each of the five GUI parts represented by the GUI part data is synthesized at coordinate positions that do not overlap each other. Furthermore, in the GUI image, the component assignment unit 34 is assigned to the current position coordinate value of thumb F held by 34 and the component assignment unit 34.
  • FIGS. 6A to 6D four GUI images rendered by the image creation unit 35 will be exemplified.
  • the image creating unit 35 calculates the current position coordinate value P of the thumb F and
  • Lines L — L are of different types (ie typically line types, line colors, line thicknesses)
  • the line type may be changed according to the number of times the user specified to execute the function specified by the GUI component! /.
  • each GUI component C C is synthesized toward the end of the display screen 21.
  • each GUI component C-C and line L-L are translucent by the user.
  • Line L — L is displayed on display screen 21.
  • Each finger F — is preferably drawn to bypass the area where F is placed.
  • the image creation unit 35 displays the current position coordinate value of the thumb F.
  • the target GUI part C is synthesized at the position specified by P. Similarly, other fingers F — F
  • the target GUI component C-C is aligned with the position specified by the current position coordinate value P-P of 1 1 2 5
  • each GUI component C C 1S is a description that represents a predetermined function.
  • the image creating unit 35 performs a process around the current position coordinate value P of the thumb F.
  • UI component c 2 -c is synthesized.
  • the finger identification unit 33 can identify whether the user H is currently using the left or right hand H, so the component assignment unit 34 can It is also possible to assign part data belonging to a predetermined first group to each finger and assign part data belonging to a second group different from the first group to each finger of the right hand. .
  • the image creating unit 35 also changes the usage history or usage frequency of the GUI component C C according to the usage history or the usage frequency.
  • GUI parts For GUI parts that are infrequent, they can be combined with a GUI image or combined with a GUI image to flash.
  • step S36 the display control unit 36 displays the GUI image (FIGS. 1 and 6A) on the display screen 21 of the touch screen 2 according to the GUI image data created this time in the frame memory. —See Figure 6D) (step S37).
  • the current position coordinate value P indicating the position of the thumb F and the GU
  • the current position coordinate value P indicating the position of the index finger F, which is connected to the part I by the line L
  • GUI part C is connected with line L, but for the convenience of illustration, it is attached to the other finger F-F.
  • the processing described with reference to FIGS. 1 and 2 is executed at a predetermined time interval.
  • the imaging device 5 captures the captured image at the above time interval.
  • Output to computer device 3 periodically.
  • a series of processes of the image receiving unit 31, the finger position detecting unit 32, the finger identifying unit 33, the component assigning unit 34, the image creating unit 35, and the display control unit 36 are periodically performed at the above time intervals. To be done. Therefore, while each finger F — F is moving on the display screen 21, the current position coordinate value of each finger F — F is
  • the computer device 3 operates according to a computer program stored in an internal memory, and as shown in FIG. 2, a contact position detection unit 37, a contact finger determination unit 38, The function execution unit 39 is further realized.
  • the user touches the display screen 21 with one of the fingers to which a specific function is assigned by the above-described display process, and increases the force. Then, the touch screen 2 gives a signal (hereinafter referred to as a position signal) that can specify the current contact position to the computer device 3.
  • a position signal a signal that can specify the current contact position to the computer device 3.
  • the contact position detection unit 37 is in contact with the user on the display screen 21.
  • a coordinate value indicating the position (hereinafter referred to as a contact coordinate value) is detected (step S72).
  • the contact finger determination unit 38 checks the allocation status held in the component allocation unit 34, and selects a current position coordinate value that substantially matches the contact coordinate value detected by the contact position detection unit 37. (Step S73). Further, the contact finger determination unit 38 specifies a GUI component that is assigned to the selected current position coordinate value (step S74).
  • the function execution unit 39 executes a function assigned to the GUI component recognized by the contact finger determination unit 38 (step S75).
  • the component allocation unit 34 holds the current position of each finger and the GUI component allocated to each finger. Further, the contact finger determination unit 38 determines the finger currently used by the user based on the position signal sent from the touch screen 2 and the allocation status held in the component allocation unit 34, and further, The function that the user wants to execute this time is specified. According to the user interface system 1 as described above, the user does not need to bring a finger to a GUI component arranged at a predetermined location as in the prior art. Thus, it is possible to provide the user interface system 1 that can be operated quickly by the user.
  • the user interface system 1 can be realized by combining a touch panel, a touch pad, or a touch tracer with a projector.
  • the projector projects a GUI image on the touch panel, touch pad, or touch tracer.
  • the user interface system 1 includes the touch screen 2, and as a result, the display screen 21 is a user operation area and a GUI image display area.
  • the user operation area and the GUI image display area may be located away from each other.
  • the user interface system 11 in which the user operation area and the GUI image display area are provided at independent positions will be described with reference to FIG.
  • a user interface system 11 includes, as a rough configuration, a pointing device 12, an imaging device 13, a computer device 14, a storage device 15, and a display device. 16 and.
  • the pointing device 12 defines an area (hereinafter referred to as an operation area) 121 in which the user can move his / her finger in order to instruct the computer device 3 to execute a predetermined function.
  • the contact position signal indicating the position where the user has touched with the finger is output.
  • Examples of such pointing devices 12 include pressure sensitive or optical devices such as touch panels, touch pads or touch tracers.
  • Another example of the pointing device 12 is an ultrasonic device.
  • the imaging device 13 is installed so that at least the operation area 121 is covered by its own angle of view.
  • the imaging device 13 installed in this way captures the range of its field angle at predetermined time intervals, and outputs the captured image to the computer device 14.
  • the computer device 14 typically includes at least a processor and various memories, and operates according to a computer program stored in a memory such as a ROM.
  • FIG. 9 is a schematic diagram showing a functional block configuration of such a computer device 14.
  • the computer device 14 executes the above-described computer program, whereby an image receiving unit 141, a finger position detecting unit 142, a finger identifying unit 143, a component allocating unit 144, and an image creating unit 145
  • the display control unit 146, the contact position detection unit 147, the contact finger determination unit 148, and the function execution unit 149 are realized.
  • the storage device 15 stores the same GUI part data as the storage device 4 described above.
  • the display device 16 is created by at least the computer device 14 that does not allow the user to specify a GUI part using a finger on the display screen as in the touch screen as described above. It would be nice if it had a function to display GUI images.
  • Typical examples of such a display device 16 include a liquid crystal display, a CRT display, an organic EL display, a far-focus display, or a projector.
  • the user places his / her hand H in the operation area 121.
  • the imaging device 13 outputs a captured image in which the hand H is reflected to the computer device 14 (step S 101).
  • the image receiving unit 141 receives a captured image (step S). 102), the finger position detection unit 142 operates the user's fingers FF from the received captured image.
  • a coordinate value indicating the position on the work area 121 (hereinafter referred to as the current position coordinate value) is detected, and a coordinate value group (hereinafter referred to as the contour coordinate value) that defines the shape (contour) of the hand H. (Referred to as a group) (step S103).
  • the finger position detection unit 142 creates partial image data similar to that of the above-described embodiment by the brightness threshold method as the first method. That is, the finger position detection unit 142 distinguishes the background (operation area 121) and the user's hand H in the captured image based on the luminance value of each pixel. Therefore, it is preferable that the color of the operation area 121 is black or a color close to it, and that the surface of the operation area 121 is matted. Further, the threshold value is set in advance to be a value larger than any luminance value of the pixel in which the background is reflected in the captured image.
  • the finger position detection unit 142 can create partial image data representing the region of the hand H by comparing the luminance of each pixel of the captured image with the threshold value. Further, in order to stably generate partial image data even in a dark environment, the imaging device 13 irradiates, for example, visible light or near-infrared light in the range of its field angle, and the hand H Make it appear brighter than the threshold.
  • the finger position detection unit 142 creates partial image data by a chromak processing method. Chromaki processing is often used for television broadcasting, and it is possible to extract parts other than blue against the background of blue, which is the most distinguishable from human skin color. Create data.
  • the operation region 121 is colored in blue, and the imaging device 13 irradiates visible light, for example, in the range of its field angle so that the hand H and the background are clearly reflected.
  • the finger identification unit 143 identifies which finger of each current position coordinate value group is the same as in the above-described embodiment. (Step S 10 4).
  • the component assigning unit 144 receives the identification result from the finger identifying unit 143, and adds the five current position coordinate values received this time to each of the five GUI component data stored in the storage device 15. Uniquely assigned and the current assignment status is maintained (step S105).
  • the image creating unit 155 performs a frame memory (not shown).
  • GUI image data representing the GUI image is created in the memory (step S106).
  • an object I representing the shape of the hand is synthesized in the region defined by the above-described contour coordinate value group, as compared with the above-described embodiment. It is different in point.
  • the display control unit 146 displays a GUI image on the display screen 161 of the display device 16 according to the GUI image data created this time in the frame memory (step S107).
  • this user interface system 11 also operates in the same manner as in the above-described embodiment, and as a result, it is easy to recognize which finger the GUI component is assigned to, so that there is a technical effect. become.
  • the user touches the operation area 121 with one of the fingers to which a specific function is assigned by the display process described above, and applies force. Then, the pointing device 12 gives a position signal that can identify the current contact position to the computer device 14.
  • the contact position detection unit 147 is a coordinate value indicating a position where the user is currently in contact! Hereinafter, this is referred to as a contact coordinate value) (step S122).
  • the contact finger determination unit 148 checks the allocation status held in the component allocation unit 144, and the current position that substantially matches the contact coordinate value converted by the contact position detection unit 147. A position coordinate value is selected (step S123). Further, the contact finger determination unit 148 recognizes the GUI component assigned to the selected current position coordinate value (step S124).
  • the function execution unit 149 executes the function assigned to the GUI component recognized by the contact finger determination unit 148 (step S125).
  • the user interface system 11 operates in the same manner as in the above-described embodiment, and as a result, the user interface system that can be operated quickly by the user. System 11 can be provided.
  • GUI parts are uniquely assigned to each finger, so that the user interface systems 1 and 11 can use only a maximum of five GUI parts. Therefore, as shown in FIG. 13, a state transition function is assigned to a predetermined finger (thumb F in the illustrated example), and the user force S is used to display the display screen 21 or the operation area.
  • the component allocation unit 34 or 144 changes the GUI component allocated to the remaining fingers. This makes it possible to assign up to 8 GUI parts to each finger before and after specifying the state transition function.
  • GUI parts can be assigned to fingers as follows.
  • each of the display screen 21 and the operation area 121 is divided into a plurality of partial areas by a predetermined method.
  • the display screen 21 or the operation area 121 is divided into four rectangular areas.
  • a plurality of target devices are uniquely assigned to each partial area.
  • One device may be assigned to a plurality of areas.
  • the component allocation unit 34 or 144 changes the allocation of fingers and GUI components for each area (each device).
  • a certain area is allocated to the navigation system, and the parts allocation unit 34 or 144 has a memory for the thumb F in this area.
  • the other area is allocated to the audio device, and the component allocation unit 34 or 144 has a GUI component of mode change for the thumb F in this area.
  • the contact finger determination unit 38 or 148 refers to the allocation status held by the component allocation unit 34 or 144, and based on the current position coordinate value, the display screen 21 or the operation area. Determine which area of 121 is operated with which finger, and the determination result power Identify the device to be controlled this time and the function to be executed by that device.
  • GUI parts can be assigned to fingers as follows.
  • the parts allocating unit 34 or 144 as shown in FIG.
  • the thumb F is not assigned a GUI part
  • the GUI part is assigned to the remaining fingers for each device.
  • audio device is played on index finger F.
  • GUI part C for the feed function and the little finger F are assigned GUI part C for the volume control function.
  • GUI parts are assigned to each finger other than the thumb.
  • a GUI component SC-SC for specifying a device is synthesized at a predetermined position in the GUI image in order to select a device to be controlled.
  • GUI image creation unit 35 or 145 is configured so that a predetermined finger (thumb F) contact position is determined.
  • the contact finger determination unit 38 or 148 refers to the allocation status held by the component allocation unit 34 or 144, and displays it based on the current position coordinate value. It is determined with which finger the screen 21 or the operation area 121 is operated, and the function to be executed by the device to be controlled this time is specified.
  • GUI parts can be assigned to fingers as follows.
  • the component assigning unit 34 or 144 has a predetermined number of fingers (three in the illustrated example) GUI components C on a predetermined finger (middle finger F in the illustrated example).
  • GUI image creation unit 35 or 145 displays the current position coordinate value of the middle finger F.
  • GUI image creation unit 35 or 145 also includes a mark indicating the reference position (that is, the position indicated by the coordinate value P) on the current position coordinate value P.
  • the user After such a GUI image is displayed, the user first touches the reference position P on the display screen 21 or the operation area 121. After that, the user can specify what he wants to specify this time.
  • the first position signal that can specify the reference position P is sent from the mapping device 12.
  • the contact finger determination unit 38 or 148 holds the reception time of the first position signal (hereinafter referred to as the reference time) and also determines the type of finger (in this case, the middle finger F) in response to the reception of the first position signal. ). In addition, the finger contact determination unit 3
  • 8 or 148 When the second position signal is sent, 8 or 148 indicates the continuity between the first contact of the finger and the second contact based on the time difference between the reception time of the second position signal and the reference time.
  • each GUI component C — C is the reference point P
  • It is preferably composed of an arrow indicating the direction with respect to 3 1 3 3.
  • GUI parts C-C are assigned to one finger F.
  • GUI parts may be assigned to each of a plurality of fingers.
  • the user specified two points.
  • the present invention is not limited to this, and the user may specify the GUI component displayed on the display screen 21 or the operation area 121 by tracing.
  • Such a designation method is suitable for a case where an optimum value within a certain range is set, for example, when the volume is adjusted.
  • the component allocation unit 34 or 144 may change the GUI component assigned to each finger to another GUI component. It is assumed that the GUI parts to be assigned to each finger in the parts assignment part 34 or 144 are determined by default. Further, the user interface system 1 or 11 has an assignment change mode, and in the assignment change mode, as shown in FIG. 17, the GUI image creation unit 35 or 145 is illustratively a GUI component that can be changed. C — C overlaps each other
  • a main menu as shown in Fig. 18A is displayed by the first position signal indicating the contact position of the finger, and a function to be executed is determined from the displayed main menu.
  • the user interface system displays a submenu of functions determined by the first position signal as shown in FIG. 18B. At this time, each menu may be displayed around the finger contact position 1 801 represented by the first position signal. In this way, many GUI parts can be assigned to fingers by the hierarchical structure.
  • 18A and 18B show a state where the FM button is selected by the first position signal.
  • GUI parts displayed after being selected by the first position signal are not limited to icons, buttons, and arrows, and GUI parts such as a slider bar may be displayed.
  • the display when the TV function is executed from the first position signal in the state where the screen of FIG. 19A is displayed is shown.
  • the channel button is displayed as shown in Fig. 19B.
  • the contact position represented by the first position signal is the position 1901.
  • the finger 1902 farthest from the fixed display menu is detected without losing the relevance of all GUIs to the fingertip, and only the fingertip is detected.
  • the GUI parts that can escape the already executed functions such as cancel and return are displayed in association with the fingertips. In this way, even if the hand is moved, a specific GUI component always follows the movement of the finger, so the user can operate with peace of mind.
  • FIG. 20 shows a scene where the user is inputting characters using the software keyboard.
  • the correction button is associated with only the finger 2001, when the user operates the GUI with a finger other than the finger 2001, the software keyboard interface responds to the finger other than the finger 2001.
  • the correction button follows the finger 2001, so that the user can execute the correction function regardless of the position at which the finger 2001 touches the pointing device 12.
  • the function associated with a specific finger is not limited to the correction function, and it is desirable to add a function frequently required by the user.
  • the timing of function execution during GUI operation is
  • the function may be executed when the user's finger is separated from the pointing device 12.
  • the cancel button 2101 can be displayed as shown in FIG. 21, so when the user notices an error after pressing the pointing device 1 2 to execute the function, You can cancel the function you tried to execute.
  • FIG. 21 also shows a case where the user keeps pressing the TV button 2102. At this time, the function of the pressed button is executed, and the next button to be displayed is not limited to the cancel button, and GUI parts such as the setting button 2103 that can make detailed settings before executing the function But you can.
  • the user interface system displays the hand shape.
  • the image creation unit 145 draws a GUI part associated with the fingertip, it displays the hand shape.
  • the visibility of the screen can be improved by performing the processing without performing the above.
  • Fig. 22 shows an example of GUI component display when the hand shape is not displayed.
  • the hand shape 2 201 is displayed. /.
  • the finger names displayed on the GUI component are not limited to this.
  • a method of displaying the corresponding number such as 1 for the thumb and 2 for the index finger, can be considered.
  • the corresponding number is preferably displayed on the display device 16.
  • GUI component to be allocated to the component allocation units 34 and 144 does not issue a single control command.
  • a character string re-conversion function as shown in FIG. 23 can be raised. This is because the computer side cannot determine what should be reconverted by only the reconversion control command that is a GUI component alone attached to the fingertip, and an object to be reconverted is required.
  • the finger 2301 is assigned to the re-transformation, and the text existing at the position indicated by the finger 2301 can be re-transformed.
  • a GUI component such as a slider bar that allows continuous values to be input may be displayed. In this case, the contact position detection units 37 and 146 detect the movement of the finger position from the state in which the contact is detected, thereby detecting the drag operation and operating the slider bar.
  • a GUI component that can input continuous values such as a slider bar is displayed according to the range to be adjusted.
  • the hand-shaped movement on the contact position detection unit when the GUI part is displayed as shown in FIG. 24A performs a pulling force movement as shown in FIG. 24B.
  • the slider bar can be moved up and down by moving the position while keeping the finger corresponding to the GUI part of each finger displayed in FIG. 24A in contact.
  • this device includes finger identification units 33 and 143, and determines which function is assigned to which finger.
  • the timing at which the function is executed is when the finger is touched in the contact position detection units 37 and 147.
  • the function is assigned to each finger as shown in Fig. 25A
  • the finger is bent and only one finger is extended as shown in Fig. 25B, that is, the fingertip can be detected only. It is possible to perform the function assigned to that finger when it is in a state.
  • FIG. 25B is an example when the scale changing function assigned to the finger 2501 is executed. As shown in FIG. 25B, the finger 2501 remains at the end, the function is executed, and the scale is changed with the slider bar.
  • the user interface system according to the present invention is suitable for a computer-related product or the like that requires good usability.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

 より使い勝手の良いユーザインタフェイスシステムを提供すること。ユーザインタフェイスシステムであって、ユーザの指示入力を受け付ける操作部(21)と、操作部の操作面上におけるユーザの指先の現在位置を示す第1の座標値群を検出する指位置検出部(32)と、GUI(Graphical User Interface)部品を表す部品データを格納する部品格納部(4)と、指位置検出部(32)により検出された第1の座標値それぞれに、前記部品格納部に保持される部品データを一意に割り当てる割り当て部(34)と、割り当て部の割り当てに従って、部品格納部(4)に格納された部品データが表すGUI部品と、指位置検出部(32)により検出された第1の座標値それぞれとが一意に関連付けられたユーザインタフェイスを表すGUI画像を生成する画像作成部(35)と、画像作成部(35)により生成されたGUI画像を表示画面に表示させる表示制御部(36)とを備える。

Description

明 細 書
ユーザインタフェイスシステム
技術分野
[0001] 本発明は、ユーザインタフェイスシステムに関し、より特定的には、コンピュータ装置 に対し、実行すべき機能をユーザが指定可能なユーザインタフェイスシステムに関す る。
背景技術
[0002] 近年、様々なユーザインタフェイスシステムが提案されて!、る。その中のある種のュ 一ザインタフェイスシステムでは、アルファベット、数字、及びコマンドを含むグループ が登録されており、これらはサブグループに分類される。各サブグループは、ユーザ の指の一部分に関連づけられている。また、そのユーザインタフェイスシステムは、複 数のキーを含むキーパッドを備えており、各キーには、上記アルファベット、数字及び コマンドの中の少なくとも 1つが割り当てられている。また、そのユーザインタフェイス システムには、指認識システムが備わっており、指認識システムは、キーに触れてい る指を認識し、キーと相互作用する指に割り当てられたサブグループを選択する。 特許文献 1:特表 2003— 529130号公報
発明の開示
発明が解決しょうとする課題
[0003] 上記のように、ユーザインタフェイスシステムでは、各サブグループがユーザの指に 関連づけられており、指認識システムは、現在キーを操作している指を認識して、サ ブグループを特定する。言い換えれば、キーパッドには、アルファベット、数字、及び コマンドの説明が表示されないため、ユーザは、どの指がどのサブグループに関連 づけられて 、るかを覚えなければならず、使 、勝手が悪 、と 、う問題点がある。
[0004] それ故に、本発明の目的は、より使い勝手の良いユーザインタフェイスシステムを提 供することである。
課題を解決するための手段
[0005] 上記目的を達成するために、本発明の第 1の局面は、ユーザインタフェイスシステ ムに向けられている。本発明は、ユーザの指示入力を受け付ける操作部と、操作部 の操作面上におけるユーザの指先の現在位置を示す第 1の座標値群を検出する指 位置検出部と、 GUI (Graphical User Interface)部品を表す部品データを格納 する部品格納部と、指位置検出部により検出された第 1の座標値それぞれに、部品 格納部に保持される部品データを一意に割り当てる割り当て部と、割り当て部の割り 当てに従って、部品格納部に格納された部品データが表す GUI部品と、指位置検 出部により検出された第 1の座標値それぞれとが一意に関連付けられたユーザインタ フェイスを表す GUI画像を生成する画像作成部と、画像作成部により生成された GU I画像を表示画面に表示させる表示制御部とを備える。
[0006] また、ユーザの手操作を撮影可能に設置される撮像装置をさらに備え、指位置検 出部は、前記撮像装置による撮影画像から、操作部の操作面上におけるユーザの 指先の現在位置を示す座標値群を検出することが好ましい。
[0007] また、画像作成部は、撮像装置により取得した手画像の指のうち、ユーザが折り曲 げた指に関連付けられたの GUI部品を消滅させ、最後に残存する指先の現在位置 を示す座標値に割り当てられた GUI部品の機能を実行する機能実行部をさらに備え ることが好ましい。
[0008] 画像作成部は、指位置検出部で検出された第 1の座標値それぞれが示す位置と、 割り当て部により割り当てられた部品データが表す GUI部品との間が線で結ばれる
GUI画像を作成することが好ま 、。
[0009] 画像作成部は、過去に実行された機能を記憶しておくための履歴情報保持部をさ らに備え、前記履歴情報をもとに、指先に付加される GUI画像を作成することが好ま しい。
[0010] 画像作成部は、指位置検出部で検出された第 1の座標値それぞれが示す位置又 はその周辺に、割り当て部により割り当てられた部品データが表す GUI部品を合成 することが好ましい。
[0011] 画像作成部は、さらに左右の手を判別する左右手判別部をさらに備え、左手で操 作するときと右手で操作するときとで先の第 1の座標値に付加する GUI部品を変更 することが好ましい。 [0012] 指位置検出部で検出された第 1の座標値のそれぞれが何指のものかを識別する指 識別部をさらに備えることが好ましい。
[0013] 表示制御部は、指識別部により識別された複数種の指先の位置を示す第 1の座標 値を含む手画像を表示し、割り当て部が、指識別部により識別された複数種の指先 の位置を示す第 1の座標値それぞれに前記 GUI部品を一意に割り当てた後、表示し た手画像を消去することが好ま 、。
[0014] 表示制御部は、割り当て部によって指識別部により識別された複数種の指先の位 置を示す第 1の座標値それぞれに割り当てられた GUI部品が、何指に対応するかを 表示させることが好ましい。
[0015] 画像作成部は、指識別部に識別された指の種類に応じて、部品格納部に格納され た GUI部品の大きさを変更した GUI画像を作成することが好ましい。
[0016] 表示制御部は、指位置検出部により検出された特定の第 1の座標値の表す指先に
、割り当て部により割り当てられた GUI部品を当該指先の動作に追従するように表示 させることが好ましい。
[0017] 表示制御部は、指位置検出部により検出された特定の第 1の座標値の表す指先の 動作に応じて、当該指先に前記割り当て部により割り当てられた GUI部品が移動す るように表示させることが好ま U、。
[0018] 割り当て部は、指位置検出部により検出された特定の第 1の座標値についての割 当のみ維持し、指位置検出部により検出されたその他の第 1の座標値については割 り当てを変更することが好ま U、。
[0019] 操作部の操作面をユーザが触って 、る位置を示す第 2の座標値を検出する接触位 置検出部と、接触位置検出部により検出された第 2の座標値と、割り当て部により一 意に割り当てられた第 1の座標値とから、操作面をユーザが何指を使って触っている かを判定し、さらに、判定した指に割り当てられている GUI部品を特定する接触指判 定部と、接触指判定部により特定された GUI部品に割り当てられている機能を機能 実行部とをさらに備えることが好ましい。
[0020] ユーザの操作に応答して、割り当て部は、指位置検出部により検出された第 1の座 標値に一旦割り当てた部品データを、別の GUI部品に割り当て直すことが好ましい。 [0021] ユーザの操作に応じて、第 2の座標位置を検出したときに、検出した位置を基準と して、第 1の座標位置の変位を検出し、変位に応じた機能を実行することが好ましい
[0022] 割り当て部は、特定種類の指の位置を示す第 1の座標値には部品を割り当てず、 残りの指に位置を示す第 1の座標値に、複数の機器の間で互 、に異なる部品データ を一意に割り当て、画像作成部は、特定の指で複数の機器を選択可能で、かつ、特 定の指での操作に応答して、現在選択されている機器について、指識別部により種 類が識別された残りの指の位置を示す第 1の座標値と、部品格納部に格納されかつ 割り当て部により残りの指に割り当てられた部品データとがー意に関連づけられた G UI画像を生成することが好ま 、。
[0023] 接触位置検出部は、ユーザが前記操作部の操作面の少なくとも 2点に接触すると、 それぞれの接触に応答して、最初の接触位置を示す第 2の座標値を検出し、さら〖こ、 2回目の接触位置を示す第 2の座標値を検出し、接触指判定部は、接触位置検出部 により検出された最初の第 2の座標値と、割り当て部により一意に割り当てられた第 1 の座標値及び GUI部品とから、操作部の操作面を前記ユーザが何指を使って触つ ているかを判定し、さらに、接触位置検出部により検出された 2回目の第 2の座標値 から、前記ユーザが今回指定した GUI部品を特定することが好ましい。
[0024] 接触位置検出部は、ユーザが前記操作部の操作面の少なくとも 2点間をなぞると、 それぞれの接触に応答して、現在の接触位置を示す第 2の座標値を定期的に検出 し、接触指判定部は、接触位置検出部により定期的に検出された第 2の座標値と、 割り当て部により一意に割り当てられた第 1の座標値及び GUI部品とから、操作部の 操作面をユーザが何指を使って触っているかを判定し、さらに、ユーザが今回指定し た GUI部品を特定することが好ま 、。
[0025] 本発明の第 2の局面は、ユーザインタフェイスシステムにおいて用いられる表示方 法に向けられている。本発明は、ユーザインタフェイスシステムに備わりかつユーザの 指示入力を受け付ける操作部の操作面上におけるユーザの指先の現在位置を示す 第 1の座標値群を検出する指位置検出ステップと、ユーザインタフェイスシステムに 備わる記憶装置に格納され、 GUI (Graphical User Interface)部品を表す部品 データを、指位置検出ステップにより検出された第 1の座標値それぞれに一意に割り 当てる割り当てステップと、割り当てステップの割り当てに従って、記憶装置に格納さ れた GUI部品と、指位置検出ステップにより検出された第 1の座標値それぞれとがー 意に関連づけられたユーザインタフェイスを表す GUI画像を生成する画像作成ステ ップと、画像作成ステップにより生成された GUI画像を、前記ユーザインタフェイスシ ステムに備わる表示画面に表示させる表示制御ステップとを備える。
発明の効果
[0026] 上記各局面に記載した通り、各 GUI部品には予め定められた機能が割り当てられ ている。このような GUI部品のそれぞれは、 GUI画像の一部として表示画面に表示さ れる。表示された GUI部品は、ユーザの各指先に関連づけられ、つまり、各指先に割 り当てられる。このように各 GUI部品が表示されるので、各局面に係るユーザインタフ ェイスシステムは、ユーザに、少なくともどのような機能が実現可能であるのかを視認 可能に提示することが可能となる。これによつて、より使い勝手の良いユーザインタフ ェイスシステムを提供することができる。
[0027] 本発明の上記及びその他の目的、特徴、局面及び利点は、以下に述べる本発明 の詳細な説明を添付の図面とともに理解したとき、より明らかになる。
図面の簡単な説明
[0028] [図 1]図 1は、本発明の一実施形態に係るユーザインタフェイスシステム 1の概略構成 を示す模式図である。
[図 2]図 2は、図 1に示すコンピュータ装置 3の機能的なブロック構成を示す模式図で ある。
[図 3]図 3は、図 2に示すコンピュータ装置 3の表示処理を示すフローチャートである。
[図 4]図 4は、図 2に示す指位置検出部 32の詳細な処理手順を示すフローチャートで ある。
[図 5A]図 5Aは、図 2に示す指識別部 33の処理の一例を示す第 1の模式図である。
[図 5B]図 5Bは、図 2に示す指識別部 33の処理の一例を示す第 2の模式図である。
[図 6A]図 6Aは、図 2に示す画像作成部 36で作成される GUI画像を示す第 1の模式 図である。 [図 6B]図 6Bは、図 2に示す画像作成部 36で作成される GUI画像を示す第 2の模式 図である。
[図 6C]図 6Cは、図 2に示す画像作成部 36で作成される GUI画像を示す第 3の模式 図である。
[図 6D]図 6Dは、図 2に示す画像作成部 36で作成される GUI画像を示す第 4の模式 図である。
[図 7]図 7は、図 2に示すコンピュータ装置 3の機能実行処理を示すフローチャートで ある。
[図 8]図 8は、本発明の変形例に係るユーザインタフェイスシステム 11の概略構成を 示す模式図である。
[図 9]図 9は、図 8に示すコンピュータ装置 14の機能的なブロック構成を示す模式図 である。
[図 10]図 10は、図 9に示すコンピュータ装置 14の表示処理を示すフローチャートで ある。
[図 11 A]図 11 Aは、図 9に示す画像作成部 146で作成される GUI画像を示す第 1の 模式図である。
[図 11B]図 11Bは、図 9に示す画像作成部 146で作成される GUI画像を示す第 2の 模式図である。
[図 12]図 12は、図 9に示すコンピュータ装置 14の機能実行処理を示すフローチヤ一 トである。
[図 13]図 13は、図 1又は図 8に示すユーザインタフェイスシステム 1又は 11における 多機能割り当て方法の第 1例を示す模式図である。
[図 14]図 14は、図 1又は図 8に示すユーザインタフェイスシステム 1又は 11における 多機能割り当て方法の第 2例を示す模式図である。
[図 15]図 15は、図 1又は図 8に示すユーザインタフェイスシステム 1又は 11における 多機能割り当て方法の第 3例を示す模式図である。
[図 16]図 16は、図 1又は図 8に示すユーザインタフェイスシステム 1又は 11における 多機能割り当て方法の第 4例を示す模式図である。 [図 17]図 17は、図 1又は図 8に示すユーザインタフェイスシステム 1又は 11における GUI部品の割り当て変更方法の一例を示す模式図である。
[図 18A]図 18Aは、図 1又は図 8に示すユーザインタフェイスシステム 1又は 11におけ るメインメニューの GUI部品を割り当てたときの表示の一例である。
[図 18B]図 18Bは、図 18Aのメインメニューから機能を選択して表示されるサブメニュ 一表示例である。
[図 19A]図 19Aは、図 1又は図 8に示すユーザインタフェイスシステム 1又は 11におけ る GUI部品を割り当てたときの表示の一例である。
[図 19B]図 19Bは、図 1又は図 8に示すユーザインタフェイスシステム 1又は 11におけ る GUI部品の割り当てを変更し、特定の指にはボタンが追従する一例である。
[図 20]図 20は、 GUIを操作する際に、特定の指にはボタンを追従させる表示の一例 である。
[図 21]図 21は、図 1又は図 8に示すユーザインタフェイスシステム 1又は 11における GUI部品を割り当てたときの表示の一例と、指が接触位置検出部力も離れていない 状態での表示の一例である。
[図 22]図 22は、 GUI部品を表示したときに手形状の表示を消去する一例である。
[図 23]図 23は、指に機能を付加し、 GUIを操作するときの表示の一例である。
[図 24A]図 24Aは、指と GUIとの対応付けを行い、 GUI部品を操作する際の一例で ある。
[図 24B]図 24Bは、図 24Aにおける GUI部品を操作するときの指の動作の一例であ る。
[図 25A]図 25Aは、図 1又は図 8に示すユーザインタフェイスシステム 1又は 11におけ る機能を割り当てたときの表示の一例である。
[図 25B]図 25Bは、図 25Aにおける残った指の機能を実行する際の表示の一例であ る。
符号の説明
1, 11ユーザインタフェイスシステム
2 タッチスクリーン 21 表示画面
3, 14 コンピュータ装置
31, 141 画像受信部
32, 142 指位置検出部
33, 143 指識別部
34, 144 部品割り当て部
35, 145 画像作成部
36, 146 表示制御部
37, 147 接触位置検出部
38, 148 接触指判定部
39, 149 機能実行部
4, 15 記 装置
5, 13 撮像装置
12 ポインティングデバイス
121 操作領域
発明を実施するための最良の形態
[0030] (実施形態)
図 1は、本発明の一実施形態に係るユーザインタフェイスシステム 1の概略構成を 示す模式図である。なお、説明の便宜上、図 1には、表示装置 21の側に、 X軸及び y 軸カゝらなる 2次元座標系が示されている。図 1において、ユーザインタフェイスシステ ム 1は、大略的な構成として、タッチスクリーン 2と、コンピュータ装置 3と、記憶装置 4と 、撮像装置 5とを備える。
[0031] タッチスクリーン 2は、本実施形態では、予め定められたサイズを有する表示画面 2 1にユーザが例えば 5本の指 F — Fのそれぞれで触れることで、タッチスクリーン 2に
1 5
接続されたコンピュータ装置 3にユーザが所定の機能を実行するよう指示を与えるこ とができる入力装置である。
[0032] コンピュータ装置 3は、典型的にはプロセッサと、各種メモリとを少なくとも含んでおり 、例えば ROMのようなメモリに格納されたコンピュータプログラムに従って動作する。 ここで、図 2は、このようなコンピュータ装置 3の機能的なブロック構成を示す模式図で ある。図 2において、コンピュータ装置 3は、上記のコンピュータプログラムを実行する ことで、画像受信部 31と、指位置検出部 32と、指識別部 33と、部品割り当て部 34と 、画像作成部 35と、表示制御部 36という機能を実現する。
[0033] 再度図 1を参照する。記憶装置 4は、上記表示画面 21に表示すべき GUI (Graphi cal User Interface)画像を生成するために必要となる GUI部品データを格納す る。 GUI部品データには、予め定められた機能が割り当てられており、 GUI部品デー タは、例えばアイコン又はボタンのような GUI部品を表す画像データである。なお、本 実施形態では便宜上、記憶装置 4には、 5個の GUI部品それぞれを表す画像データ が格納されると仮定する。また、図 1には例示的に、 2個の GUI部品 C及び Cが表
1 2 示画面 21に表示されて!、る様子が示されて!/、る。
[0034] 撮像装置 5は、少なくともタッチスクリーン 2の表示エリア(つまり表示画面) 21を自 身の画角がカバーするように設置される。このように設置される撮像装置 5は、自身の 画角の範囲内を、予め定められた時間間隔で撮影し、撮影画像をコンピュータ装置 3に出力する。
[0035] 次に、図 3を参照して、上記のような構成のユーザインタフェイスシステム 1の表示処 理について説明する。ユーザは、自身の手 H (図 1参照)を表示画面 21に載せる。撮 像装置 5は、自身の画角内の様子を撮影し、これによつて得られる撮影画像をコンビ ユータ装置 3に出力する(ステップ S31)。ここで、上記のように、表示画面 21に手 H が載っている場合には、撮影画像には手 Hが映っている。
[0036] コンピュータ装置 3において、画像受信部 31は、撮像装置 5から出力された撮影画 像を受け取り (ステップ S32)、指位置検出部 32は、受け取った撮影画像から、ユー ザの各指 F — Fの表示画面 21上での位置を示す座標値 (以下、現在位置座標値
1 5
と称する)を検出する (ステップ S33)。
[0037] ここで、図 4のフローチャートを参照して、図 2に示す指位置検出部 32の詳細な処 理、つまり、図 3のステップ S33の詳細な処理について説明する。まず、指位置検出 部 32は、画像受信部 31により受信された撮影画像データを、図示しないフレームメ モリに取り込む (ステップ S41)。次に、指位置検出部 32は、身体領域抽出処理を行 つて、フレームメモリ内の撮影画像データから、ユーザの手 Hが映っている領域を表 す部分画像データを作成する (ステップ S42)。身体領域抽出処理では、フレームメ モリ内の撮影画像におけるユーザの手 Hの領域と背景(大部分は表示画面 21)の領 域とが区別され、ユーザの手 Hの領域のみが抽出される。
[0038] 上記のような手 H及び背景を区別する手法としては、例えば背景差分法がある。背 景差分法では、指位置検出部 32は、画像受信部 31を介して、表示画面 21のみが 映っている画像データを背景画像データとして予め取得しておく。指位置検出部 32 は、このような背景画像データと、ステップ S41で取り込まれた撮影画像データとを画 素毎又はブロック毎に比較し、撮影画像にお!、て背景部分と異なる領域を手 Hの領 域として抽出する。背景差分法によれば、撮像装置 5が撮影する際に手 Hの背景を 単一色にする必要が無 、ので、本実施形態のようにタッチスクリーン 2の表示画面 21 を、表示系及び操作系として共用する場合に有効である。
[0039] 上述したようなステップ S42の次に、指位置検出部 32は、指先位置検出処理を行 つて、上述のような部分画像データを使って、ユーザの指先の位置を示す現在位置 座標値群を検出する (ステップ S43)。
[0040] 上記のような指先の位置を検出する手法としては、 3通り例示される。
[0041] 第 1に、上述のような手 Hを表す部分画像データに対してパターンマッチングを行 い、指先の位置を推定する方法がある。具体的には、指先が丸みを帯びているという 特徴を利用し、円形のテンプレートを用いて、部分画像における手 Hの領域周辺で パターンマッチングが実行される。このようなパターンマッチングにより、指位置検出 部 32は、指 F — Fの先端の候補点を取得する。なお、第 1の手法では指先を誤認
1 5
識する可能性もあるので、指位置検出部 32は、各指 F — F について候補点を 1つ
1 5
に絞り込み、これによつて、各指 F — Fの先端の位置を示す現在位置座標値を得る
1 5
[0042] 第 2の手法は、ユーザが本ユーザインタフェイスシステム 1を使う場合に、各指 F -
1
Fの先端に、予め定められた目印をつける方法である。 目印の典型例としては、爪
5
に塗られたマ-キュアがある。このような目印は予め定められた輝度又は色相を有し ているので、指位置検出部 32は、上述のような部分画像データから目印の輝度又は 色相を検出し、これによつて、各指 F -Fの先端の位置を示す現在位置座標値を
1 5
得る。上記のような第 2の手法によれば、外光に代表されるノイズが少ない場所に撮 像装置 5が設置されている場合、目印の輝度又は色相に変化が少なくなるので有効 であり、各指 F — Fの先端の位置を示す現在位置座標値を正確に取得して検知で
1 5
きる。
[0043] また、第 3の手法では、指位置検出部 32は、キャリブレーションを行って、予め定め られた初期位置に置かれた指 F — Fの先端を、手 Hの動きに応じて追跡する。より
1 5
具体的には、キャリブレーション時にユーザは、表示画面 21において定められた位 置 (初期位置)に指 F — Fの先端を置く。このような状態で撮像装置 5により撮影さ
1 5
れた画像を、指位置検出部 32は取得し、初期位置 (つまり、指 F -Fの先端)の輝
1 5
度又は色相を検出する。その後、指位置検出部 32は、撮像装置 5からの撮影画像を 取得するたびに、キャリブレーション時の指 F — Fの先端と実質的に同じ輝度及び
1 5
色相の位置を検出し、それぞれをそのときの各指 F — Fの先端の位置を示す現在
1 5
位置座標値として取得する。
[0044] 以上で、指位置検出部 32の詳細な処理の説明を終了し、再度、図 3を参照する。
上述のようなステップ S33が終了すると、コンピュータ装置 3において、指識別部 33 は、指位置検出部 32で取得された現在位置座標値群を取得し、どの現在位置座標 値が親指 F、人差し指 F、中指 F、薬指 F及び小指 Fのものかを、つまり指の種
1 2 3 4 5
類を識別する (ステップ S34)。
[0045] 以下、図 2に示す指識別部 33の詳細な処理、つまり、図 3のステップ S34の詳細な 処理について説明する。指識別部 33の処理については、以下の 2つの方法が例示 される。
[0046] 第 1の方法では、指先間の距離を用いて、指の種類が識別される。具体的には、ま ず、指識別部 33は、指位置検出部 32から得られる 5個の現在位置座標値から、一 番端の現在位置座標値とその隣の現在位置座標値との組を 2個選択する。その後、 指識別部 33は、一方の組に属する 2現在位置座標値間の距離と、他方の組に属す る 2現在位置座標値間の距離とを算出し、長い方を親指 F及び人差し指 Fの間の
1 2 距離とみなし、そうでない方を薬指 F及び小指 Fとみなす。このようにして、指識別 部 33は、どの現在位置座標値がどの指のものかを識別する。
[0047] 第 2の方法としては、指識別部 33は、指位置検出部 32から得られる 5個の現在位 置座標値の X座標値が小さい方又は大きい方から順番に、親指 F、人差し指 F、中
1 2 指 F、薬指 F及び小指 Fと見なしても良い。ただし、この場合、表示画面 21に対し
3 4 5
て、手 Hは定められた向きに置かれなければならない。また、表示画面 21上の手 H が右手力左手か不明な場合があるので、指識別部 33は、指位置検出部 32から得ら れる 5個の現在位置座標値から、図 5Aに示すような X座標値が最小の座標値 P と min 最大の座標値 P を選択する。また、指識別部 33は、指位置検出部 32で生成され max
た部分画像データから、図 5Bに示すよう両端の指の太さ W及び Wを検出し、太い
1 5
方を親指 Fとみなし、細い方を小指 Fとみなす。さらに、指識別部 33は、親指 Fが
1 5 1 小指 Fよりも X座標値が大きい側にある場合、現在位置座標値 P を親指 Fと識別
5 max 1 する。このように親指 Fの現在位置座標値を識別できると、他の指 F — Fの現在位
1 2 5 置座標値も識別することができる。また、このような演算は、撮影画像が到着するたび に行われると、識別の精度が向上する力 少なくとも 1回行われれば良い。
[0048] なお、ユーザが右手を使って!/、る力、左手を使って!/、るかは上記のような手法で判 断せずとも、ユーザが図示しな 、入力装置を用いて指定しても構わな!/、。
[0049] また、コンピュータ装置 3において、部品割り当て部 34は、指識別部 33からの識別 結果、つまり、親指 Fの現在位置座標値、人差し指 Fの現在位置座標値、中指 F
1 2 3 の現在位置座標値、薬指 Fの現在位置座標値及び小指 Fの現在位置座標値を受
4 5
け取り、記憶装置 4に格納されている 5個の GUI部品データのそれぞれに、今回受け 取った 5個の現在位置座標値を一意に割り当て、現在の割り当て状況を保持する (ス テツプ S35)。図 2には、例示的に、親指 Fの現在位置座標値に GUI部品 C力 人
1 1 差し指 Fの現在位置座標値に GUI部品 Cが割り当てられていることが示されている
2 2
[0050] その後、コンピュータ装置 3において、画像作成部 35は、図示しないフレームメモリ に GUI画像を表す GUI画像データを作成する(ステップ S36)。具体的には、 GUI画 像においては、上記 GUI部品データが表す 5個の GUI部品のそれぞれが互いに重 なり合わない座標位置に合成される。さらに、 GUI画像においては、部品割り当て部 34に保持される親指 Fの現在位置座標値と、部品割り当て部 34により、これに割り
1
当てられた GUI部品 Cとを関連付けをユーザが視認可能に描く。他の指 F — F に
1 2 5 ついても同様に、部品割り当て部 34により保持される指 F — Fの現在位置座標値
2 5
それぞれと、対象となる現在位置座標値に割り当てられた GUI部品との関連づけが ユーザにより視認可能に描かれる。
[0051] 以下、図 6A—図 6Dを参照して、上記の画像作成部 35により描画される GUI画像 を 4個例示する。図 6Aにおいて、画像作成部 35は、親指 Fの現在位置座標値 Pと
1 1
、対象となる現在位置座標値 P に割り当てられた GUI部品 Cとの間に線 Lを描き、
1 1 1 これによつて両者を関連づける。同様に、他の指 F — Fの現在位置座標値 P — P
2 5 2 5 と、対象となる GUI部品 C — Cとが線 L — Lで結ばれる。この場合、より好ましくは
2 5 2 5
、線 L — Lは、互いに異なる種類 (つまり、典型的には、線種、線の色、線の太さ)で
1 5
ある。また、線種については、 GUI部品により特定される機能の実行をユーザが指定 した回数に応じて変更しても構わな!/、。
[0052] また、図 6Aの例では、各 GUI部品 C Cは、表示画面 21の端の方に合成されて
1 5
いるが、これによつて、例えば車載用ナビゲーシヨンシステムで表示される地図又は テレビ映像を表示する領域を確保することが可能となる。また、地図又はテレビ映像 の視認性を確保するため、各 GUI部品 C -C及び線 L -Lがユーザにより半透
1 5 1 5
明で視認されるよう、これらは、周知のブレンディング処理により、地図画像上又はテ レビ映像上に合成されることが好ましい。また、線 L — Lは、表示画面 21において
1 5
各指 F — Fが置かれている領域を迂回するように描かれることが好ましい。
1 5
[0053] また、図 6B又は図 6Cに示すように、画像作成部 35は、親指 Fの現在位置座標値
1
Pで特定される位置に、対象となる GUI部品 Cを合成する。同様に、他の指 F — F
1 1 2 5 の現在位置座標値 P -Pで特定される位置に、対象となる GUI部品 C -Cが合
2 5 2 5 成される。なお、図 6Cに示すように、各 GUI部品 C C 1S 所定の機能を表す記
1 5
号を含んでいる場合、指 F — Fの後ろ側に GUI部品 C — Cが隠れたとしても、ュ
1 5 1 5
一ザは、どの GUI部品にどの機能が割り当てられているかを、文字で機能を表現し た場合と比較して認識し易くなる。これによつて、ユーザが表示画面 21を注視する時 間を短くすることができるため、ユーザインタフェイスシステム 1を、画面注視が問題と なりやす 、車載用途に組み込むことが容易になる。
[0054] また、図 6Dに示すように、画像作成部 35は、親指 F の現在位置座標値 P の周辺
1 1 に、対象となる GUI部品 Cを合成する。ここで、好ましくは、 GUI部品 Cは、現在位
1 1
置座標値 P
1で特定される位置を基準として、 y軸の正方向に予め定められた距離だ け離れた位置に合成されることが好ましい。これによつて、 GUI部品 Cは、図 6Dに
1
示すように、親指 F の後ろ側に隠れに《なるので、ユーザは GUI部品 Cを視認し
1 1 易くなる。同様に、他の指 F — Fの現在位置座標値 P — Pの周辺に、対象となる G
2 5 2 5
UI部品 c 2 -cが合成される。
5
[0055] なお、前述のように、指識別部 33では、ユーザが現在使って 、る手 Hが左右 、ず れのものかを識別することも可能であるため、部品割り当て部 34は、左手の各指に予 め定められた第 1のグループに属する部品データを割り当て、右手の各指には、第 1 のグループとは異なる第 2のグループに属する部品データを割り当てるようにしても 構わない。
[0056] また、画像作成部 35は、 GUI部品 C C の使用履歴又は使用頻度に応じて、又
1 5
は各指の座標値群の値に応じて、 GUI部品 C — Cの大きさ、色、形又は透明度、さ
1 5
らには GUI部品 C — C に用いられているフォントを変更しても構わない。また、使用
1 5
頻度の低い GUI部品に関しては、 GUI画像に合成しな力つたり、点滅表示するよう に GUI画像に合成したりしても構わな 、。
[0057] 以上で、画像作成部 35の詳細な処理の説明を終了し、再度、図 3を参照する。上 述のようなステップ S36が終了すると、コンピュータ装置 3において、表示制御部 36 は、フレームメモリに今回作成された GUI画像データに従って、タッチスクリーン 2の 表示画面 21に GUI画像(図 1、図 6A—図 6Dを参照)を表示する (ステップ S37)。な お、図 1に例示した GUI画像では、親指 F の位置を示す現在位置座標値 Pと、 GU
1 1
I部品 Cとが線 Lで結ばれており、かつ人差し指 F の位置を示す現在位置座標値 P
1 1 2
と、 GUI部品 Cとが線 Lで結ばれているが、図示の都合上、他の指 F -F につい
2 2 2 3 5 て、現在位置座標値、線及び GUI部品は示されていない。
[0058] 以上の図 1及び図 2を参照して説明したような処理は、予め定められた時間間隔で 実行される。以上のような処理により、撮像装置 5は、上記時間間隔で、撮影画像を コンピュータ装置 3に定期的に出力する。また、コンピュータ装置 3において、画像受 信部 31、指位置検出部 32、指識別部 33、部品割り当て部 34、画像作成部 35及び 表示制御部 36の一連の処理は、上記時間間隔で定期的に行われる。従って、表示 画面 21上で各指 F — Fが動いている間、各指 F — Fの現在位置座標値は、それ
1 5 1 5
ぞれの動きに追従して経時変化する。その結果、図 6Aに示すような GUI画像では、 GUI部品の合成位置を基準として、各 GUI部品と各指の現在位置座標値を結ぶ線 もまた、時間経過に応じて、各指の動きに追従して伸縮及び回転する。言い換えれ ば、ユーザからは、あた力も自分の指と GUI部品とが線で結ばれているように見える ことになる。これによつて、ユーザからは、たとえ自分の指 F -Fが動いても、上記の
1 5
ように伸縮及び回転する線のおかげで、どの指にどの GUI部品が割り当てられて ヽ るか容易に認識することができる。
[0059] また、図 6B—図 6Cに示すような GUI画像では、 GUI部品自体力 時間経過に応 じて、各指の動きに追従して変位するように、ユーザは感じる。これによつて、ユーザ は、たとえ自分の指 F — Fが動いても、その動きに追従する GUI部品のおかげで、
1 5
どの指にどの GUI部品が割り当てられて 、るか容易に認識することができる。
[0060] 以上、本ユーザインタフェイスシステム 1につ 、て、 GUI画像が表示されるまでの処 理について説明した。次に、本ユーザインタフェイスシステム 1において、表示画面 2 1に表示された GUI部品に割り当てられる機能を実行する処理につ!ヽて説明する。こ のような処理のために、コンピュータ装置 3は、内部のメモリに格納されたコンピュータ プログラムに従って動作することで、図 2に示すように、接触位置検出部 37と、接触 指判定部 38と、機能実行部 39という機能をさらに実現する。
[0061] 次に、図 7を参照して、図 2に示すユーザインタフェイスシステム 1における機能実 行処理について説明する。ユーザは、前述の表示処理により、特定の機能が割り当 てられていることになるいずれかの指で、表示画面 21に接触し、力をカ卩える。すると、 タッチスクリーン 2からは、今回の接触位置を特定可能な信号 (以下、位置信号と称 する)がコンピュータ装置 3に与えられる。
[0062] コンピュータ装置 3において、接触位置検出部 37は、タッチスクリーン 2から位置信 号が与えられると (ステップ S 71)、表示画面 21にお 、てユーザが現在接触して 、る 位置を示す座標値 (以下、接触座標値と称する)を検出する (ステップ S72)。
[0063] 接触指判定部 38は、部品割り当て部 34に保持される割り当て状況をチェックして、 接触位置検出部 37で検出された接触座標値と実質的に一致する現在位置座標値 を選択する (ステップ S73)。さらに、接触指判定部 38は、選択した現在位置座標値 に割り当てられて!/、る GUI部品を特定する (ステップ S74)。
[0064] 機能実行部 39は、接触指判定部 38により認識された GUI部品に割り当てられてい る機能を実行する (ステップ S75)。
[0065] 以上説明したように、本ユーザインタフェイスシステム 1では、部品割り当て部 34に 、各指の現在位置と、それぞれに割り当てられている GUI部品とが保持される。また 、接触指判定部 38は、タッチスクリーン 2から送られてくる位置信号と、部品割り当て 部 34に保持される割り当て状況とに基づいて、ユーザが現在使った指を判定し、さら には、ユーザが今回実行したい機能を特定する。このような本ユーザインタフェイスシ ステム 1によれば、ユーザは、従来のような予め定められた場所に配置される GUI部 品まで指を持っていく必要が無くなる。これによつて、ユーザが素早く操作することが 可能なユーザインタフェイスシステム 1を提供することが可能となる。
[0066] なお、以上の実施形態では、ユーザインタフェイスシステム 1は、タッチスクリーン 2 を備えるとして説明した力 同様の機能は、タツチパネル、タツチパッド又はタツチトレ ーサと、プロジェクタとを組み合わせても実現できる。この場合、プロジェクタは、タツ チパネル、タツチパッド又はタツチトレーサ上に GUI画像を投影することになる。
[0067] (変形例)
前述の実施形態では、ユーザインタフェイスシステム 1は、タッチスクリーン 2を備え 、その結果、表示画面 21は、ユーザの操作領域でありかつ GUI画像の表示領域で あった。しかし、このようなユーザの操作領域と GUI画像の表示領域とは互いに離れ た位置にあっても良い。以下、図 8を参照して、このようなユーザの操作領域と GUI画 像の表示領域とが独立した位置に備わるユーザインタフェイスシステム 11につ 、て 説明する。
[0068] 図 8において、ユーザインタフェイスシステム 11は、大略的な構成として、ポインティ ングデバイス 12と、撮像装置 13と、コンピュータ装置 14と、記憶装置 15と、表示装置 16とを備えている。
[0069] ポインティングデバイス 12は、コンピュータ装置 3に所定の機能を実行するよう指示 を与えるために、ユーザが自分の指を動かすことが可能な領域 (以下、操作領域と称 する) 121を規定し、ユーザが指で接触した位置を示す接触位置信号を出力する。こ のようなポインティングデバイス 12の例としては、タツチパネル、タツチパッド又はタツ チトレーサのような感圧式又は光学式のものがある。ポインティングデバイス 12の他 の例として、超音波式のものがある。
[0070] 撮像装置 13は、少なくとも操作領域 121を自身の画角がカバーするように設置され る。このように設置される撮像装置 13は、自身の画角の範囲内を、予め定められた時 間間隔で撮影し、撮影画像をコンピュータ装置 14に出力する。
[0071] コンピュータ装置 14は、典型的にはプロセッサと、各種メモリとを少なくとも含んでお り、例えば ROMのようなメモリに格納されたコンピュータプログラムに従って動作する 。ここで、図 9は、このようなコンピュータ装置 14の機能的なブロック構成を示す模式 図である。図 9において、コンピュータ装置 14は、上記のコンピュータプログラムを実 行することで、画像受信部 141と、指位置検出部 142と、指識別部 143と、部品割り 当て部 144と、画像作成部 145と、表示制御部 146と、接触位置検出部 147と、接触 指判定部 148と、機能実行部 149という機能を実現する。
[0072] 記憶装置 15は、前述の記憶装置 4と同様の GUI部品データを格納する。
[0073] 表示装置 16は、本変形例の場合、前述のようなタッチスクリーンのようにユーザが 表示画面上で指を使って GUI部品を指定するものでは無ぐ少なくともコンピュータ 装置 14で作成された GUI画像を表示する機能を備えて 、れば良 、。このような表示 装置 16の典型例としては、液晶ディスプレイ、 CRTディスプレイ、有機 ELディスプレ ィ、遠焦点ディスプレイ又はプロジェクタが挙げられる。
[0074] 次に、図 10を参照して、上記のような構成のユーザインタフェイスシステム 11の表 示処理について説明する。ユーザは、自身の手 Hを操作領域 121に置く。撮像装置 13は、手 Hが映って ヽる撮影画像をコンピュータ装置 14に出力する(ステップ S 101
) o
[0075] コンピュータ装置 14において、画像受信部 141は、撮影画像を受け取り(ステップ S 102)、指位置検出部 142は、受け取った撮影画像から、ユーザの各指 F -Fの操
1 5 作領域 121上での位置を示す座標値 (以下、現在位置座標値と称する)を検出し、さ らに、手 Hの形状 (輪郭)を規定する座標値群 (以下、輪郭座標値群と称する)する( ステップ S 103)。
[0076] 具体的には、指位置検出部 142は、第 1の手法としての輝度閾値法により、前述の 実施形態と同様の部分画像データを作成する。つまり、指位置検出部 142は、撮影 画像における背景 (操作領域 121)とユーザの手 Hとを、各画素の輝度値によって区 別する。従って、操作領域 121の色は黒一色又はそれに近い色一色であり、さらに、 操作領域 121の表面がつや消し処理されていることが好ましい。さらに、閾値は、撮 影画像内における背景が映っている画素のどの輝度値よりも大きい値になる予め設 定される。これによつて、指位置検出部 142は、撮影画像の各画素の輝度を閾値と 比較することで、手 Hの領域を表す部分画像データを作成することができる。また、周 囲が暗い状況下でも安定的に部分画像データを作成できるように、撮像装置 13は、 例えば、自身の画角の範囲に可視光又は近赤外光を照射して、手 Hが閾値よりも明 るく映るようにする。
[0077] また、第 2の手法として、指位置検出部 142は、クロマキ一処理法により、部分画像 データを作成する。クロマキ一処理はテレビジョン放送にしばしば使用されており、人 間の肌の色と最も区別しやすい青色を背景として、青色以外の部分を抽出可能であ り、このようにして抽出された部分画像データを作成する。この場合、操作領域 121 は、青で着色され、また、撮像装置 13は、手 H及び背景が明確に映るように、例えば 、自身の画角の範囲に可視光を照射する。
[0078] 次に、上述のようなステップ S103の次に、指識別部 143は、前述の実施形態と同 様にして、各現在位置座標値群のどれが、どの指のものかを識別する (ステップ S 10 4)。
[0079] 部品割り当て部 144は、指識別部 143からの識別結果を受け取り、記憶装置 15に 格納されている 5個の GUI部品データのそれぞれに、今回受け取った 5個の現在位 置座標値を一意に割り当て、現在の割り当て状況を保持する (ステップ S105)。
[0080] その後、コンピュータ装置 14において、画像作成部 155は、図示しないフレームメ モリに GUI画像を表す GUI画像データを作成する (ステップ S 106)。本変形例では 、前述の実施形態と比較すると、図 8、図 11A及び図 11Bに示すように、上述の輪郭 座標値群で規定される領域に、手の形状を表すオブジェクト Iが合成される点で相違 する。
[0081] 次に、コンピュータ装置 14において、表示制御部 146は、フレームメモリに今回作 成された GUI画像データに従って、表示装置 16の表示画面 161に GUI画像を表示 する(ステップ S 107)。
[0082] 以上のようなステップ S101— S107のような処理は予め定められた時間間隔で実 行される。これによつて、本ユーザインタフェイスシステム 11もまた、前述の実施形態 と同様に作用し、その結果、 GUI部品がどの指に割り当てられているかを認識し易い t 、う技術的効果を奏するようになる。
[0083] 次に、図 12を参照して、図 8に示すユーザインタフェイスシステム 11における機能 実行処理について説明する。ユーザは、前述の表示処理により、特定の機能が割り 当てられていることになるいずれかの指で、操作領域 121に接触し、力を加える。す ると、ポインティングデバイス 12からは、今回の接触位置を特定可能な位置信号がコ ンピュータ装置 14に与えられる。
[0084] コンピュータ装置 14において、接触位置検出部 147は、ポインティングデバイス 12 から位置信号が与えられると (ステップ S121)、操作領域 121においてユーザが現在 接触して!/ヽる位置を示す座標値 (以下、接触座標値と称する)を検出する (ステップ S 122)。
[0085] 次に、接触指判定部 148は、部品割り当て部 144に保持される割り当て状況をチェ ックして、接触位置検出部 147で変換された接触座標値と実質的に一致する現在位 置座標値を選択する (ステップ S 123)。さらに、接触指判定部 148は、選択した現在 位置座標値に割り当てられて 、る GUI部品を認識する (ステップ S 124)。
[0086] 機能実行部 149は、接触指判定部 148により認識された GUI部品に割り当てられ て 、る機能を実行する (ステップ S 125)。
[0087] 以上説明したように、本ユーザインタフェイスシステム 11は、前述の実施形態と同様 に作用し、その結果、ユーザが素早く操作することが可能なユーザインタフェイスシス テム 11を提供することが可能となる。
[0088] なお、前述の実施形態、及び変形例では、各指に GUI部品が一意に割り当てられ るので、ユーザインタフェイスシステム 1及び 11は最大 5個の GUI部品しか使うことが できなかった。そこで、図 13に示すように、予め定められた指(図示した例では親指 F )に状態遷移機能を割り当て、ユーザ力 Sこの指を使って表示画面 21又は操作領域
1
121を操作したことを検出すると、部品割り当て部 34又は 144は、残りの指に割り当 てる GUI部品を変更する。これによつて、状態遷移機能の指定前後で合計 8個まで GUI部品を各指に割り当てることが可能となる。
[0089] また、他にも以下のようにして、多くの GUI部品を指に割り当てることが可能となる。
つまり、表示画面 21又は操作領域 121のそれぞれは予め定められた方法で複数の 部分領域に分割される。例えば、図 14の例では、表示画面 21又は操作領域 121は 、 4個の矩形領域に分割される。また、各部分領域には、対象となる複数の機器が一 意に割り当てられる。なお、複数の領域に一つの機器を割り当てても構わない。部品 割り当て部 34又は 144は、各領域 (各機器)毎で、指及び GUI部品の割り当てを変 更する。
[0090] 上述の具体例としては、図 14に示すように、ある領域はナビゲーシヨンシステムに 割り当てられており、部品割り当て部 34又は 144は、この領域では、親指 Fにはメ-
1 ユー表示という GUI部品を割り当て、他の指 F — Fにも、ナビゲーシヨンシステム用
2 5
の GUI部品を一意に割り当てる。
[0091] また、図 14に示すように、他の領域はオーディオ機器に割り当てられており、部品 割り当て部 34又は 144は、この領域では、親指 Fにはモード変更という GUI部品を
1
割り当て、他の指 F — F にも、オーディオ機器の GUI部品を一意に割り当てる。
2 5
[0092] このような条件で、接触指判定部 38又は 148は、部品割り当て部 34又は 144が保 持する割り当て状況を参照して、現在位置座標値に基づいて、表示画面 21又は操 作領域 121のどの領域をどの指で操作したかを判定し、判定結果力 今回制御すベ き機器及びその機器で実行すべき機能を特定する。
[0093] また、他にも以下のようにして、多くの GUI部品を指に割り当てることが可能となる。
つまり、部品割り当て部 34又は 144は、図 15に示すように、予め定められた指(図示 した例では親指 F )には GUI部品を割り当てず、残りの指に GUI部品を機器毎に一
1
意に割り当てる。図示した例では、オーディオ機器について、人差し指 Fには再生
2 機能用の GUI部品 C、中指 F には巻き戻し機能用の GUI部品 C、薬指 F には早
1 3 2 4 送り機能用の GUI部品 C、さらに小指 Fには、音量調節機能用の GUI部品 Cが割
3 5 4 り当てられる。他の機器についても、同様に、親指以外の各指に、 GUI部品が割り当 てられる。また、 GUI画像において予め定められた位置には、制御対象となる機器を 選択するために機器指定用の GUI部品 SC -SCが合成される。
1 4
[0094] さらに、 GUI画像作成部 35又は 145は、予め定められた指 (親指 F )の接触位置
1
に基づいて、機器選択用の GUI部品 SC -SCのいずれが指定されたかを判定し
1 4
、その機器用に各指に割り当てられている GUI部品 C — Cを合成した GUI画像を
1 4
作成する。
[0095] このような GUI画像が表示された後、接触指判定部 38又は 148は、部品割り当て 部 34又は 144が保持する割り当て状況を参照して、現在位置座標値に基づ 、て、 表示画面 21又は操作領域 121がどの指で操作されたかを判定し、判定結果力も今 回制御すべき機器で実行すべき機能を特定する。
[0096] また、他にも以下のようにして、多くの GUI部品を指に割り当てることが可能となる。
つまり、部品割り当て部 34又は 144は、図 16に示すように、予め定められた指(図示 した例では中指 F )に、予め定められた個数(図示した例では 3個)の GUI部品 C
3 1
Cを割り当てる。また、 GUI画像作成部 35又は 145は、中指 Fの現在位置座標値
3 3
P の周辺であってかつ互いに重複しない場所に、割り当てた GUI部品 C Cを合
3 1 3 成した GUI画像を生成する。より好ましくは、 GUI画像作成部 35又は 145は、この時 、現在位置座標値 P に基準位置 (つまり、座標値 Pで示される位置)を示すマークも
3 3
合成される。
[0097] このような GUI画像が表示された後、ユーザは、まず、表示画面 21又は操作領域 1 21において基準位置 Pを触る。その後、ユーザは、今回自身が指定したい内容を
3
有する GUI部品 C — C のいずれかを触る。その結果、タッチスクリーン 2又はポイン
1 3
ティングデバイス 12からは、まず、基準位置 Pを特定可能な第 1の位置信号が送出
3
され、その後に、今回指定された GUI部品 C 、C又は Cの合成領域に含まれる位 置を特定可能な第 2の位置信号が送られてくる。接触指判定部 38又は 148は、第 1 の位置信号の受信時刻(以下、基準時刻と称する)を保持すると共に、第 1の位置信 号の受信に応じて指の種類 (今回の場合中指 F )を特定する。また、指接触判定部 3
3
8又は 148は、第 2の位置信号が送られてくると、第 2の位置信号の受信時刻と、基準 時刻との時間差から、指の最初の接触と、 2回目の接触との連続性を特定し、第 1の 位置信号により特定される基準位置 Pと、第 2の位置信号により特定される位置とか
3
ら、ユーザが指定した GUI部品を、つまり、今回実行すべき機能を特定する。
[0098] なお、以上のような指定方法の場合、ユーザは、表示画面 21又は操作領域 121に おける少なくとも 2点を指定する必要がある。言い換えれば、このような場合、ユーザ は、基準点 P に対する方向を指定する。それ故、各 GUI部品 C — Cは、基準点 P
3 1 3 3 に対する方向を示す矢印で構成されることが好ましい。
[0099] また、以上の説明では、 1つの指 F に 3個の GUI部品 C —Cが割り当てられてい
3 1 3
た。しかし、これに限らず、複数の指のそれぞれに 1つ又は複数の GUI部品が割り当 てられても構わない。
[0100] さらに、以上の説明では、ユーザが 2点を指定していた。しかし、これに限らず、ュ 一ザは、表示画面 21又は操作領域 121に表示された GUI部品をなぞって指定して も構わない。このような指定方法は、例えば音量の調整のように、ある範囲内の最適 な値に設定するような場合に好適である。
[0101] また、前述の実施形態又は前述の変形例において、部品割り当て部 34又は 144 は、各指にー且割り当てた GUI部品を、別の GUI部品に変更しても構わない。部品 割り当て部 34又は 144において、各指に割り当てるべき GUI部品はデフォルトで定 められていると仮定する。また、ユーザインタフェイスシステム 1又は 11は、割り当て 変更モードを備えており、割り当て変更モードにおいて、図 17に示すように、 GUI画 像作成部 35又は 145は、例示的に、変更可能な GUI部品 C — C を互いに重複し
1 10
ない位置に合成した GUI画像を作成する。ユーザは、表示された GUI画像を確認し た後、どの指にどの機能を割り当てたいかを考えた後、表示画面 21又は操作領域 1 21で対象となる指を使って対象となる GUI部品を指定する。これに応じて、部品割り 当て部 34又は 144は、割り当て状況を更新する。 [0102] また、指の接触位置を示す第 1の位置信号により、図 18Aに示すようなメインメ-ュ 一が表示され、表示されたメインメニューの中から実行する機能が決定される。次に、 ユーザインタフェイスシステムは、図 18Bに示すような第 1の位置信号により決定され た機能のサブメニューを表示する。このとき、第 1の位置信号の表す指の接触位置 1 801を中心に各メニューが表示される構成としてもよい。このように、階層構造からな る割り当てにより、多くの GUI部品を指に割り当てることができる。なお、図 18A、図 1 8Bでは、第 1の位置信号により FMボタンが選択された様子を示している。
[0103] また、第 1の位置信号により選択された後に表示される GUI部品は、アイコン、ボタ ン及び矢印に限らず、スライダーバーなどの GUI部品が表示されてもよい。
[0104] 一例として、図 19Aの画面が表示されている状態において、第 1の位置信号から T V機能が実行されたときの表示を示す。 TVボタンが押下された場合、チャンネルボタ ンが図 19Bのように表示される。この時、第 1の位置信号の表す接触位置は 1901の 位置である。
[0105] なお、図 19Bで示すように、すべての GUIを指先との関連性をなくさずに、固定表 示しているメニューからもっとも離れている指 1902を検知し、その指先だけにはキヤ ンセルや戻るなどの既に実行されている機能力も脱出することができる GUI部品を指 先と関連付けて表示する。このようにすれば、手を移動させても、常に特定の GUI部 品が指の動作に追従するので、ユーザーは安心して操作することが可能となる。
[0106] さらに、特定の指との関連付けだけを保持して、 GUIを操作する場合の例を図 20を 用いて説明する。
[0107] 図 20では、ユーザが、ソフトウェアキーボードを用いて、文字を入力している場面で ある。ここで、指 2001にのみ修正ボタンが関連付けられることで、ユーザが、指 2001 以外の指で GUIを操作するときには、指 2001以外の指にソフトウェアキーボードのィ ンターフェイスが反応する。指 2001には修正ボタンが追従することで、ユーザは、ど の位置で指 2001をポインティングデバイス 12に接触させても修正機能を実行できる 。なお、特定の指に関連付ける機能は修正機能に限るものでなぐユーザーが頻繁 に必要とする機能を付加することが望ま 、。
[0108] また、 GUI操作時の機能実行タイミングを、指が接触したときではなぐ接触した後 にユーザーの指がポインティングデバイス 12から離れたタイミングで機能を実行する ようにしてもよい。このようにすれば、図 21に示すように、キャンセルボタン 2101を表 示することが可能となるため、ユーザーが機能を実行しようとポインティングデバイス 1 2を押下した後、間違いに気づいたときに、実行しょうとした機能をキャンセルすること ができる。
[0109] また、図 21では、ユーザーが TVボタン 2102を押下したままの状態の場合も示して いる。このとき、押下したままのボタンの機能が実行され、次に、表示されるボタンは キャンセルボタンだけに限らず、機能を実行する前に詳細な設定を行うことができる 設定ボタン 2103などの GUI部品でもよい。
[0110] ところで、前述の形態においては、ユーザインタフェイスシステムは、手形状を表示 していたが、画像作成部 145において、指先に付随する GUI部品を描画していると きは手形状の表示を行わな 、処理を実施することで、画面の視認性を向上させること ができる。
[0111] なお、ユーザインタフェイスシステムが手形状を表示しないときには、どの指にどの GUI部品が対応しているかユーザーにわかりにくいため、部品割り当て部 144にお いて割り当てた部品の上に何指に対応しているかを表示することが望ましい。図 22 は手形状を表示しな 、場合の GUI部品の表示の一例を示したものである。手形状 2 201は表示を行って 、な!/、。
[0112] なお、 GUI部品に表示する指名称は、これに限ったものではない。一例としては、 親指は 1、人差し指は 2といったように、対応する番号を表示するなどの方法が考えら れる。このとき、対応する番号は表示装置 16に表示していることが望ましい。
[0113] さらに、前述の実施形態および前述の変形例において、部品割り当て部 34及び 1 44にお 、て割り当てる GUI部品は、単独での制御命令を発しな ヽ場合も想定される 。具体的には、図 23に示すような文字列の再変換機能などが上げられる。これは、指 先に付随して 、る GUI部品単体である再変換制御命令だけでは、何を再変換すベ きか計算機側では判定できず、再変換すべき対象が必要となる。図 23では、指 230 1を再変 能に割り当て、指 2301によって指示されたされた位置に存在するテキ ストを再変換することを可能として 、る。 [0114] さらに、スライダーバーなどの連続値を入力することが可能な GUI部品を表示して もよい。この場合、接触位置検出部 37および 146において、接触したことを検知した 状態から、指位置の移動が確認できる動作を検知することで、ドラッグ動作を検知し、 スライダーバーの操作が可能となる。
[0115] 具体的には、図 24に示すような車内の音響環境を調整するような場合に調整した い音域に合わせてスライダーバーなどの連続値を入力することが可能な GUI部品を 表示させ、音響環境を調整する場合などである。このとき、図 24Aのように GUI部品 が表示されているときの接触位置検出部上での手形状の動作は、図 24Bに示すよう に、引つ力べような動作を行う。このように動作することで、図 24Aに表示されている各 指の GUI部品に対応した指を接触させたまま位置を移動させて、スライダーバーを 上下させることができる。なお、スライダーバーを表示する際には、図 24Aに示すよう に、どの指がどのスライダーバーを操作するかを表示して 、ることが好まし!/、。
[0116] また、本装置では、指識別部 33、 143を具備しており、どの指にどの機能が割り当 てるかを決定している。前述の実施形態又は前述の変形例においては、接触位置検 出部 37、 147において指が接触したときを機能実行のタイミングとしていた。ここで、 図 25Aのように各指に機能が割り当てられているときに、指を折り曲げていき、図 25 Bに示すように一本だけ指を伸ばした状態、すなわち、唯一指先が検出できている状 態になったときに、その指に割り当てられている機能を実行することが可能である。す なわち、図 25Bは、指 2501に割り当てられている縮尺変更機能が実行されたときの 例である。図 25Bに示すように、最後に指 2501が残り、機能が実行され、スライダー バーで縮尺が変更される。
[0117] 以上、本発明を詳細に説明したが、上記説明はあらゆる意味において例示的なも のであり限定的なものではない。本発明の範囲力 逸脱することなしに多くの他の改 変例及び変形例が可能であることが理解される。
産業上の利用可能性
[0118] 本発明に係るユーザインタフェイスシステムは、良好な使い勝手が要求されるコンビ ユータ関連製品等に好適である。

Claims

請求の範囲
[1] ユーザインタフェイスシステムであって、
ユーザの指示入力を受け付ける操作部と、
前記操作部の操作面上におけるユーザの指先の現在位置を示す第 1の座標値群 を検出する指位置検出部と、
GUI (Graphical User Interface)部品を表す部品データを格納する部品格納 部と、
前記指位置検出部により検出された第 1の座標値それぞれに、前記部品格納部に 保持される部品データを一意に割り当てる割り当て部と、
前記割り当て部の割り当てに従って、前記部品格納部に格納された部品データが 表す GUI部品と、前記指位置検出部により検出された第 1の座標値それぞれとがー 意に関連付けられたユーザインタフェイスを表す GUI画像を生成する画像作成部と 前記画像作成部により生成された GUI画像を表示画面に表示させる表示制御部と を備える、ユーザインタフェイスシステム。
[2] ユーザの手操作を撮影可能に設置される撮像装置をさらに備え、
前記指位置検出部は、前記撮像装置による撮影画像から、前記操作部の操作面 上における前記ユーザの指先の現在位置を示す座標値群を検出する、請求項 1に 記載のユーザインタフェイスシステム。
[3] 前記画像作成部は、前記撮像装置により取得した手画像の指のうち、前記ユーザ が折り曲げた指に関連付けられたの GUI部品を消滅させ、
最後に残存する指先の現在位置を示す座標値に割り当てられた前記 GUI部品の 機能を実行する機能実行部をさらに備える、請求項 2に記載のユーザインタフェイス システム。
[4] 前記画像作成部は、前記指位置検出部で検出された第 1の座標値それぞれが示 す位置と、前記割り当て部により割り当てられた部品データが表す GUI部品との間が 線で結ばれる GUI画像を作成する、請求項 1に記載のユーザインタフェイスシステム
[5] 前記画像作成部は、過去に実行された機能を記憶しておくための履歴情報保持部 をさらに備え、前記履歴情報をもとに、指先に付加される GUI画像を作成する請求項 1記載のユーザインタフェイスシステム。
[6] 前記画像作成部は、前記指位置検出部で検出された第 1の座標値それぞれが示 す位置又はその周辺に、前記割り当て部により割り当てられた部品データが表す GU I部品を合成する、請求項 1に記載のユーザインタフェイスシステム。
[7] 前記画像作成部は、さらに左右の手を判別する左右手判別部をさらに備え、左手 で操作するときと右手で操作するときとで先の第 1の座標値に付加する GUI部品を変 更することを特徴とする請求項 1記載のユーザインタフェイスシステム。
[8] 前記指位置検出部で検出された第 1の座標値のそれぞれが何指のものかを識別 する指識別部をさらに備える、請求項 1に記載のユーザインタフェイスシステム。
[9] 前記表示制御部は、前記指識別部により識別された複数種の指先の位置を示す 第 1の座標値を含む手画像を表示し、前記割り当て部が、前記指識別部により識別 された複数種の指先の位置を示す第 1の座標値それぞれに前記 GUI部品を一意に 割り当てた後、表示した前記手画像を消去する、請求項 8に記載のユーザインタフエ イスシステム。
[10] 前記表示制御部は、前記割り当て部によって前記指識別部により識別された複数 種の指先の位置を示す第 1の座標値それぞれに割り当てられた前記 GUI部品が、何 指に対応するかを表示させる、請求項 9に記載のユーザインタフェイスシステム。
[11] 前記画像作成部は、前記指識別部に識別された指の種類に応じて、前記部品格 納部に格納された GUI部品の大きさを変更した GUI画像を作成する、請求項 8に記 載のユーザインタフェイスシステム。
[12] 前記表示制御部は、前記指位置検出部により検出された特定の第 1の座標値の表 す指先に、前記割り当て部により割り当てられた前記 GUI部品を当該指先の動作に 追従するように表示させる、請求項 1に記載のユーザインタフェイスシステム。
[13] 前記表示制御部は、前記指位置検出部により検出された特定の第 1の座標値の表 す指先の動作に応じて、当該指先に前記割り当て部により割り当てられた前記 GUI 部品が移動するように表示させる、請求項 1に記載のユーザインタフェイスシステム。
[14] 前記割り当て部は、前記指位置検出部により検出された特定の第 1の座標値につ いての割当のみ維持し、前記指位置検出部により検出されたその他の第 1の座標値 につ ヽては割り当てを変更する、請求項 1に記載のユーザインタフェイスシステム。
[15] 前記操作部の操作面を前記ユーザが触って!/ヽる位置を示す第 2の座標値を検出 する接触位置検出部と、
前記接触位置検出部により検出された第 2の座標値と、前記割り当て部により一意 に割り当てられた第 1の座標値とから、前記操作面を前記ユーザが何指を使って触 つているかを判定し、さらに、判定した指に割り当てられている GUI部品を特定する 接触指判定部と、
前記接触指判定部により特定された GUI部品に割り当てられている機能を機能実 行部とをさらに備える、請求項 1に記載のユーザインタフェイスシステム。
[16] 前記ユーザの操作に応答して、前記割り当て部は、前記指位置検出部により検出 された第 1の座標値に一旦割り当てた部品データを、別の GUI部品に割り当て直す 、請求項 1に記載のユーザインタフェイスシステム。
[17] 前記ユーザの操作に応じて、第 2の座標位置を検出したときに、検出した位置を基 準として、第 1の座標位置の変位を検出し、変位に応じた機能を実行することを特徴 とする請求項 15記載のユーザインタフェイスシステム。
[18] 前記割り当て部は、特定種類の指の位置を示す第 1の座標値には部品を割り当て ず、残りの指に位置を示す第 1の座標値に、複数の機器の間で互いに異なる部品デ ータを一意に割り当て、
前記画像作成部は、前記特定の指で前記複数の機器を選択可能で、かつ、前記 特定の指での操作に応答して、現在選択されている機器について、前記指識別部に より種類が識別された前記残りの指の位置を示す第 1の座標値と、前記部品格納部 に格納されかつ前記割り当て部により前記残りの指に割り当てられた部品データとが 一意に関連づけられた GUI画像を生成する、請求項 1に記載のユーザインタフェイス システム。
[19] 前記接触位置検出部は、前記ユーザが前記操作部の操作面の少なくとも 2点に接 触すると、それぞれの接触に応答して、最初の接触位置を示す第 2の座標値を検出 し、さらに、 2回目の接触位置を示す第 2の座標値を検出し、
接触指判定部は、前記接触位置検出部により検出された最初の第 2の座標値と、 前記割り当て部により一意に割り当てられた第 1の座標値及び GUI部品とから、前記 操作部の操作面を前記ユーザが何指を使って触っているかを判定し、さらに、前記 接触位置検出部により検出された 2回目の第 2の座標値から、前記ユーザが今回指 定した GUI部品を特定する、請求項 15に記載のユーザインタフェイスシステム。
[20] 前記接触位置検出部は、前記ユーザが前記操作部の操作面の少なくとも 2点間を なぞると、それぞれの接触に応答して、現在の接触位置を示す第 2の座標値を定期 的に検出し、
接触指判定部は、前記接触位置検出部により定期的に検出された第 2の座標値と 、前記割り当て部により一意に割り当てられた第 1の座標値及び GUI部品とから、前 記操作部の操作面を前記ユーザが何指を使って触っているかを判定し、さらに、前 記ユーザが今回指定した GUI部品を特定する、請求項 15に記載のユーザインタフ イスシステム。
[21] ユーザインタフェイスシステムにおいて用いられる表示方法であって、
前記ユーザインタフェイスシステムに備わりかつユーザの指示入力を受け付ける操 作部の操作面上におけるユーザの指先の現在位置を示す第 1の座標値群を検出す る指位置検出ステップと、
前記ユーザインタフェイスシステムに備わる記憶装置に格納され、 GUI (Graphical User Interface)部品を表す部品データを、前記指位置検出ステップにより検出 された第 1の座標値それぞれに一意に割り当てる割り当てステップと、
前記割り当てステップの割り当てに従って、前記記憶装置に格納された GUI部品と
、前記指位置検出ステップにより検出された第 1の座標値それぞれとが一意に関連 づけられたユーザインタフェイスを表す GUI画像を生成する画像作成ステップと、 前記画像作成ステップにより生成された GUI画像を、前記ユーザインタフェイスシス テムに備わる表示画面に表示させる表示制御ステップとを備える、表示方法。
PCT/JP2006/306245 2005-03-28 2006-03-28 ユーザインタフェイスシステム WO2006104132A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US11/884,955 US7810050B2 (en) 2005-03-28 2006-03-28 User interface system
JP2007510518A JP4702959B2 (ja) 2005-03-28 2006-03-28 ユーザインタフェイスシステム
EP06730193A EP1865404A4 (en) 2005-03-28 2006-03-28 USER INTERFACE SYSTEM

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005092434 2005-03-28
JP2005-092434 2005-03-28

Publications (1)

Publication Number Publication Date
WO2006104132A1 true WO2006104132A1 (ja) 2006-10-05

Family

ID=37053388

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/306245 WO2006104132A1 (ja) 2005-03-28 2006-03-28 ユーザインタフェイスシステム

Country Status (5)

Country Link
US (1) US7810050B2 (ja)
EP (1) EP1865404A4 (ja)
JP (1) JP4702959B2 (ja)
CN (1) CN101180599A (ja)
WO (1) WO2006104132A1 (ja)

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008078603A1 (ja) 2006-12-22 2008-07-03 Panasonic Corporation ユーザインターフェイス装置
JP2008234594A (ja) * 2007-03-23 2008-10-02 Denso Corp 操作入力装置
WO2009031633A1 (en) * 2007-09-04 2009-03-12 Canon Kabushiki Kaisha Image projection apparatus and control method for same
WO2009031457A1 (en) * 2007-09-04 2009-03-12 Canon Kabushiki Kaisha Image projection apparatus and control method for same
JP2009075685A (ja) * 2007-09-19 2009-04-09 Sony Corp 画像処理装置および画像処理方法、並びにプログラム
JP2009276926A (ja) * 2008-05-13 2009-11-26 Ntt Docomo Inc 情報処理装置及び情報処理装置の表示情報編集方法
JP2009301094A (ja) * 2008-06-10 2009-12-24 Sharp Corp 入力装置及び入力装置の制御方法
JP2010009311A (ja) * 2008-06-26 2010-01-14 Panasonic Corp ユーザインタフェイス装置
JP2010140458A (ja) * 2008-03-19 2010-06-24 Denso Corp 表示方法、表示装置、及び操作入力装置
US20110206239A1 (en) * 2008-03-12 2011-08-25 Denso Corporation Input apparatus, remote controller and operating device for vehicle
JP2011180843A (ja) * 2010-03-01 2011-09-15 Sony Corp 情報処理装置、情報処理方法、およびプログラム
JP2012512453A (ja) * 2008-12-15 2012-05-31 ソニー エリクソン モバイル コミュニケーションズ, エービー 光学マーカを有するユーザ入力デバイスを検出する電子デバイス、システム、方法およびコンピュータプログラム
JP2012527657A (ja) * 2009-05-18 2012-11-08 日本電気株式会社 タッチスクリーン、関連した操作方法及びシステム
JP2013093031A (ja) * 2012-11-16 2013-05-16 Sony Corp 情報処理装置、記憶媒体、情報処理システム、および情報処理方法、並びにプログラム
WO2013136776A1 (ja) * 2012-03-15 2013-09-19 パナソニック株式会社 ジェスチャ入力操作処理装置
JP2013257904A (ja) * 2008-03-12 2013-12-26 Atlab Inc 接触センサ装置
WO2014045953A1 (ja) * 2012-09-20 2014-03-27 ソニー株式会社 情報処理装置および方法、並びにプログラム
JP2014096107A (ja) * 2012-11-12 2014-05-22 Toshiba Alpine Automotive Technology Corp 車室内カメラのスキャン方法、車室内カメラにおける対象物の探索方法及び車室内カメラ
US8766910B2 (en) * 2007-07-04 2014-07-01 Cypress Semiconductor Corporation Capacitive sensing control knob
JP2014179072A (ja) * 2013-03-14 2014-09-25 Honda Motor Co Ltd 三次元指先トラッキング
JP2014179097A (ja) * 2013-03-13 2014-09-25 Honda Motor Co Ltd ポインティングによる情報クエリ
WO2015105044A1 (ja) * 2014-01-10 2015-07-16 日本電気株式会社 インターフェース装置、可搬装置、制御装置、モジュール、制御方法およびプログラム記憶媒体
JP2015534304A (ja) * 2012-08-20 2015-11-26 ウォルジエン エルエルシー ビデオ通話センター
JP2016507112A (ja) * 2013-03-05 2016-03-07 インテル コーポレイション 複合的な知覚感知入力の対話
JP2017073090A (ja) * 2015-10-09 2017-04-13 献平 陳 データ入力装置
JP2017529024A (ja) * 2014-06-30 2017-09-28 ザ ビデオ コール センター,エルエルシー ビデオ通話センター
JP2020530631A (ja) * 2017-08-14 2020-10-22 シェンジェン ピーアールテック カンパニー リミテッド インタラクション位置決定方法、システム、記憶媒体、およびスマートデバイス
WO2023140340A1 (ja) * 2022-01-19 2023-07-27 メタマティクス プライベート リミテッド 指識別に基づくユーザー・インターフェースを実現するためのシステム、方法及びそのためのプログラム

Families Citing this family (220)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8645137B2 (en) 2000-03-16 2014-02-04 Apple Inc. Fast, language-independent method for user authentication by voice
US8677377B2 (en) 2005-09-08 2014-03-18 Apple Inc. Method and apparatus for building an intelligent automated assistant
US7958456B2 (en) 2005-12-23 2011-06-07 Apple Inc. Scrolling list with floating adjacent index symbols
US7996792B2 (en) 2006-09-06 2011-08-09 Apple Inc. Voicemail manager for portable multifunction device
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US20080168395A1 (en) * 2007-01-07 2008-07-10 Bas Ording Positioning a Slider Icon on a Portable Multifunction Device
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
CN101369249B (zh) * 2007-08-14 2011-08-17 国际商业机器公司 标识软件的gui部件的方法和装置
EP2731037B1 (en) 2007-09-24 2019-08-07 Apple Inc. Embedded authentication systems in an electronic device
KR20090058073A (ko) * 2007-12-04 2009-06-09 삼성전자주식회사 단말 및 그의 기능 수행 방법
US10002189B2 (en) 2007-12-20 2018-06-19 Apple Inc. Method and apparatus for searching using an active ontology
US9330720B2 (en) 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
US8405621B2 (en) * 2008-01-06 2013-03-26 Apple Inc. Variable rate media playback methods for electronic devices with touch interfaces
EP2258587A4 (en) * 2008-03-19 2013-08-07 Denso Corp OPERATING DEVICE FOR A VEHICLE
US8996376B2 (en) 2008-04-05 2015-03-31 Apple Inc. Intelligent text-to-speech conversion
US10496753B2 (en) 2010-01-18 2019-12-03 Apple Inc. Automatically adapting user interfaces for hands-free interaction
JP4982430B2 (ja) * 2008-05-27 2012-07-25 株式会社エヌ・ティ・ティ・ドコモ 文字入力装置及び文字入力方法
US20100030549A1 (en) 2008-07-31 2010-02-04 Lee Michael M Mobile device having human language translation capability with positional feedback
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
EP2196891A3 (en) * 2008-11-25 2013-06-26 Samsung Electronics Co., Ltd. Device and method for providing a user interface
US9477396B2 (en) 2008-11-25 2016-10-25 Samsung Electronics Co., Ltd. Device and method for providing a user interface
WO2010067118A1 (en) 2008-12-11 2010-06-17 Novauris Technologies Limited Speech recognition involving a mobile device
JP4771183B2 (ja) * 2009-01-30 2011-09-14 株式会社デンソー 操作装置
US8839155B2 (en) * 2009-03-16 2014-09-16 Apple Inc. Accelerated scrolling for a multifunction device
US8689128B2 (en) * 2009-03-16 2014-04-01 Apple Inc. Device, method, and graphical user interface for moving a current position in content at a variable scrubbing rate
JP4840620B2 (ja) * 2009-04-30 2011-12-21 株式会社デンソー 車載用電子機器操作装置
US10706373B2 (en) 2011-06-03 2020-07-07 Apple Inc. Performing actions associated with task items that represent tasks to perform
US9858925B2 (en) 2009-06-05 2018-01-02 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
US10241644B2 (en) 2011-06-03 2019-03-26 Apple Inc. Actionable reminder entries
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US20100310136A1 (en) * 2009-06-09 2010-12-09 Sony Ericsson Mobile Communications Ab Distinguishing right-hand input and left-hand input based on finger recognition
US9431006B2 (en) 2009-07-02 2016-08-30 Apple Inc. Methods and apparatuses for automatic speech recognition
DE102009033882A1 (de) * 2009-07-20 2011-01-27 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Betrieb eines Dialogsystems mit einem Touchscreen
JP2011028366A (ja) * 2009-07-22 2011-02-10 Sony Corp 操作制御装置および操作制御方法
US8624933B2 (en) * 2009-09-25 2014-01-07 Apple Inc. Device, method, and graphical user interface for scrolling a multi-section document
US20110102333A1 (en) * 2009-10-30 2011-05-05 Wayne Carl Westerman Detection of Gesture Orientation on Repositionable Touch Surface
US20110113329A1 (en) * 2009-11-09 2011-05-12 Michael Pusateri Multi-touch sensing device for use with radiological workstations and associated methods of use
DE102009059866A1 (de) * 2009-12-21 2011-06-22 Volkswagen AG, 38440 Verfahren zum Betreiben einer Bedienvorrichtung und Bedienvorrichtung dafür, insbesondere in einem Fahrzeug
JP4719296B1 (ja) * 2009-12-25 2011-07-06 株式会社東芝 情報処理装置及び情報処理方法
US8510677B2 (en) * 2010-01-06 2013-08-13 Apple Inc. Device, method, and graphical user interface for navigating through a range of values
US20110163967A1 (en) * 2010-01-06 2011-07-07 Imran Chaudhri Device, Method, and Graphical User Interface for Changing Pages in an Electronic Document
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US10553209B2 (en) 2010-01-18 2020-02-04 Apple Inc. Systems and methods for hands-free notification summaries
US10679605B2 (en) 2010-01-18 2020-06-09 Apple Inc. Hands-free list-reading by intelligent automated assistant
US10705794B2 (en) 2010-01-18 2020-07-07 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US8682667B2 (en) 2010-02-25 2014-03-25 Apple Inc. User profiling for selecting user specific voice input processing information
JP2011210188A (ja) * 2010-03-30 2011-10-20 Sony Corp 画像処理装置、画像表示方法、画像表示プログラム、および画像表示プログラムを記録した記録媒体
EP2395418A3 (en) * 2010-06-14 2015-10-28 Sony Computer Entertainment Inc. Information processor, device, and information processing system
US20130201155A1 (en) * 2010-08-12 2013-08-08 Genqing Wu Finger identification on a touchscreen
CN102375714A (zh) * 2010-08-16 2012-03-14 慧荣科技股份有限公司 计算机***及相关的影像绘图装置和显示装置
JP5434997B2 (ja) * 2010-10-07 2014-03-05 株式会社ニコン 画像表示装置
US10762293B2 (en) 2010-12-22 2020-09-01 Apple Inc. Using parts-of-speech tagging and named entity recognition for spelling correction
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
US8553001B2 (en) * 2011-03-22 2013-10-08 Adobe Systems Incorporated Methods and apparatus for determining local coordinate frames for a human hand
US20130132903A1 (en) * 2011-03-22 2013-05-23 Aravind Krishnaswamy Local Coordinate Frame User Interface for Multitouch-Enabled Applications
US8593421B2 (en) 2011-03-22 2013-11-26 Adobe Systems Incorporated Local coordinate frame user interface for multitouch-enabled devices
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
US9043042B2 (en) * 2011-07-19 2015-05-26 GM Global Technology Operations LLC Method to map gaze position to information display in vehicle
US8994660B2 (en) 2011-08-29 2015-03-31 Apple Inc. Text correction processing
US9772759B2 (en) 2011-10-14 2017-09-26 Apple Inc. Device, method, and graphical user interface for data input using virtual sliders
CN110275607A (zh) * 2011-11-21 2019-09-24 株式会社尼康 显示装置及显示控制程序
JP5830644B2 (ja) * 2011-12-06 2015-12-09 パナソニックIpマネジメント株式会社 下受けピン配置判定装置および下受けピン配置判定方法
JP2013120434A (ja) * 2011-12-06 2013-06-17 Denso It Laboratory Inc 操作者識別装置及び方法並びに車載用ナビゲーション装置
WO2013095678A1 (en) 2011-12-23 2013-06-27 Intel Corporation Mechanism to provide feedback regarding computing system command gestures
TW201335833A (zh) * 2012-02-29 2013-09-01 Hon Hai Prec Ind Co Ltd 電子設備編輯工具變更方法及系統
US10134385B2 (en) 2012-03-02 2018-11-20 Apple Inc. Systems and methods for name pronunciation
US9483461B2 (en) 2012-03-06 2016-11-01 Apple Inc. Handling speech synthesis of content for multiple languages
FR2989207A1 (fr) * 2012-04-06 2013-10-11 Bic Soc Orientation d'une tablette
JP5594910B2 (ja) * 2012-04-09 2014-09-24 京セラドキュメントソリューションズ株式会社 表示入力装置及びこれを備えた画像形成装置
US9280610B2 (en) 2012-05-14 2016-03-08 Apple Inc. Crowd sourcing information to fulfill user requests
KR101710771B1 (ko) 2012-05-18 2017-02-27 애플 인크. 지문 센서 입력에 기초하여 사용자 인터페이스를 조작하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스
DE102012011177A1 (de) * 2012-06-06 2013-12-24 GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) Verfahren zur Bedienung von Funktionen einesFahrzeuges sowie entsprechende Vorrichtung
US9721563B2 (en) 2012-06-08 2017-08-01 Apple Inc. Name recognition system
US9495129B2 (en) 2012-06-29 2016-11-15 Apple Inc. Device, method, and user interface for voice-activated navigation and browsing of a document
DE112012006199T5 (de) * 2012-06-30 2014-12-24 Hewlett-Packard Development Company, L.P. Virtuelle Hand basierend auf kombinierten Daten
US9305229B2 (en) 2012-07-30 2016-04-05 Bruno Delean Method and system for vision based interfacing with a computer
US9041689B1 (en) * 2012-08-02 2015-05-26 Amazon Technologies, Inc. Estimating fingertip position using image analysis
US9576574B2 (en) 2012-09-10 2017-02-21 Apple Inc. Context-sensitive handling of interruptions by intelligent digital assistant
KR102026882B1 (ko) * 2012-09-10 2019-09-30 삼성전자주식회사 터치 스크린을 포함한 전자 장치에서 다섯 손가락을 구별하기 위한 방법 및 장치
US9547647B2 (en) 2012-09-19 2017-01-17 Apple Inc. Voice-based media searching
US9904414B2 (en) * 2012-12-10 2018-02-27 Seiko Epson Corporation Display device, and method of controlling display device
CN103926999B (zh) * 2013-01-16 2017-03-01 株式会社理光 手掌开合手势识别方法和装置、人机交互方法和设备
BR112015018905B1 (pt) 2013-02-07 2022-02-22 Apple Inc Método de operação de recurso de ativação por voz, mídia de armazenamento legível por computador e dispositivo eletrônico
CN104981764A (zh) * 2013-02-08 2015-10-14 摩托罗拉解决方案公司 管理触摸屏设备上的用户接口元件的方法和装置
US9081418B1 (en) 2013-03-11 2015-07-14 Rawles Llc Obtaining input from a virtual user interface
US9368114B2 (en) 2013-03-14 2016-06-14 Apple Inc. Context-sensitive handling of interruptions
US9922642B2 (en) 2013-03-15 2018-03-20 Apple Inc. Training an at least partial voice command system
WO2014144579A1 (en) 2013-03-15 2014-09-18 Apple Inc. System and method for updating an adaptive speech recognition model
WO2014197334A2 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
US9582608B2 (en) 2013-06-07 2017-02-28 Apple Inc. Unified ranking with entropy-weighted information for phrase-based semantic auto-completion
WO2014197336A1 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for detecting errors in interactions with a voice-based digital assistant
WO2014197335A1 (en) 2013-06-08 2014-12-11 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
EP3937002A1 (en) 2013-06-09 2022-01-12 Apple Inc. Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant
EP3008964B1 (en) 2013-06-13 2019-09-25 Apple Inc. System and method for emergency calls initiated by voice command
DE112014003653B4 (de) 2013-08-06 2024-04-18 Apple Inc. Automatisch aktivierende intelligente Antworten auf der Grundlage von Aktivitäten von entfernt angeordneten Vorrichtungen
US9857971B2 (en) * 2013-12-02 2018-01-02 Industrial Technology Research Institute System and method for receiving user input and program storage medium thereof
US10296160B2 (en) 2013-12-06 2019-05-21 Apple Inc. Method for extracting salient dialog usage from live data
KR20150087666A (ko) * 2014-01-22 2015-07-30 삼성전자주식회사 휴대 단말의 입력 인터페이스 제공 방법 및 그 장치
KR102184402B1 (ko) * 2014-03-06 2020-11-30 엘지전자 주식회사 글래스 타입의 이동 단말기
JP2015170102A (ja) * 2014-03-06 2015-09-28 トヨタ自動車株式会社 情報処理装置
US9620105B2 (en) 2014-05-15 2017-04-11 Apple Inc. Analyzing audio input for efficient speech and music recognition
US10592095B2 (en) 2014-05-23 2020-03-17 Apple Inc. Instantaneous speaking of content on touch devices
US9502031B2 (en) 2014-05-27 2016-11-22 Apple Inc. Method for supporting dynamic grammars in WFST-based ASR
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US9633004B2 (en) 2014-05-30 2017-04-25 Apple Inc. Better resolution when referencing to concepts
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US10289433B2 (en) 2014-05-30 2019-05-14 Apple Inc. Domain specific language for encoding assistant dialog
TWI566107B (zh) 2014-05-30 2017-01-11 蘋果公司 用於處理多部分語音命令之方法、非暫時性電腦可讀儲存媒體及電子裝置
US9734193B2 (en) 2014-05-30 2017-08-15 Apple Inc. Determining domain salience ranking from ambiguous words in natural speech
US9842101B2 (en) 2014-05-30 2017-12-12 Apple Inc. Predictive conversion of language input
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
US9760559B2 (en) 2014-05-30 2017-09-12 Apple Inc. Predictive text input
US9785630B2 (en) 2014-05-30 2017-10-10 Apple Inc. Text prediction using combined word N-gram and unigram language models
US10078631B2 (en) 2014-05-30 2018-09-18 Apple Inc. Entropy-guided text prediction using combined word and character n-gram language models
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US10659851B2 (en) 2014-06-30 2020-05-19 Apple Inc. Real-time digital assistant knowledge updates
DE102014012550A1 (de) * 2014-08-20 2016-02-25 e.solutions GmbH Kraftfahrzeug-Bedienungsvorrichtung
US10446141B2 (en) 2014-08-28 2019-10-15 Apple Inc. Automatic speech recognition based on user feedback
US9818400B2 (en) 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US10789041B2 (en) 2014-09-12 2020-09-29 Apple Inc. Dynamic thresholds for always listening speech trigger
US9606986B2 (en) 2014-09-29 2017-03-28 Apple Inc. Integrated word N-gram and class M-gram language models
US9646609B2 (en) 2014-09-30 2017-05-09 Apple Inc. Caching apparatus for serving phonetic pronunciations
US9886432B2 (en) 2014-09-30 2018-02-06 Apple Inc. Parsimonious handling of word inflection via categorical stem + suffix N-gram language models
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US10552013B2 (en) 2014-12-02 2020-02-04 Apple Inc. Data detection
US9711141B2 (en) 2014-12-09 2017-07-18 Apple Inc. Disambiguating heteronyms in speech synthesis
US20160179323A1 (en) * 2014-12-18 2016-06-23 Avaya Inc. In-place web communications related to content of a webpage
US10152299B2 (en) 2015-03-06 2018-12-11 Apple Inc. Reducing response latency of intelligent automated assistants
US9865280B2 (en) 2015-03-06 2018-01-09 Apple Inc. Structured dictation using intelligent automated assistants
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US9899019B2 (en) 2015-03-18 2018-02-20 Apple Inc. Systems and methods for structured stem and suffix language models
US9842105B2 (en) 2015-04-16 2017-12-12 Apple Inc. Parsimonious continuous-space phrase representations for natural language processing
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US10127220B2 (en) 2015-06-04 2018-11-13 Apple Inc. Language identification from short strings
US9578173B2 (en) 2015-06-05 2017-02-21 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US10101822B2 (en) 2015-06-05 2018-10-16 Apple Inc. Language input correction
US10186254B2 (en) 2015-06-07 2019-01-22 Apple Inc. Context-based endpoint detection
US10255907B2 (en) 2015-06-07 2019-04-09 Apple Inc. Automatic accent detection using acoustic models
US11025565B2 (en) 2015-06-07 2021-06-01 Apple Inc. Personalized prediction of responses for instant messaging
WO2017034425A1 (en) * 2015-08-21 2017-03-02 Motorola Solutions, Inc. System and method for disambiguating touch interactions
JP2017047781A (ja) * 2015-09-01 2017-03-09 三菱自動車工業株式会社 車載情報処理装置
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US9697820B2 (en) 2015-09-24 2017-07-04 Apple Inc. Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks
US11010550B2 (en) 2015-09-29 2021-05-18 Apple Inc. Unified language modeling framework for word prediction, auto-completion and auto-correction
US10366158B2 (en) 2015-09-29 2019-07-30 Apple Inc. Efficient word encoding for recurrent neural network language models
US11587559B2 (en) 2015-09-30 2023-02-21 Apple Inc. Intelligent device identification
KR102324716B1 (ko) * 2015-11-02 2021-11-10 에스케이텔레콤 주식회사 멀티 터치 패턴을 이용한 유저 인터페이스 메뉴 디스플레이 장치 및 방법
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
DE102016003072A1 (de) * 2016-03-12 2017-09-14 Audi Ag Bedienvorrichtung und Verfahren zum Erfassen einer Benutzerauswahl zumindest einer Bedienfuktion der Bedienvorrichtung
US10446143B2 (en) 2016-03-14 2019-10-15 Apple Inc. Identification of voice inputs providing credentials
CN107203320A (zh) * 2016-03-18 2017-09-26 大陆汽车投资(上海)有限公司 基于多点触摸的用户界面控制方法
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
DK179588B1 (en) 2016-06-09 2019-02-22 Apple Inc. INTELLIGENT AUTOMATED ASSISTANT IN A HOME ENVIRONMENT
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
US10490187B2 (en) 2016-06-10 2019-11-26 Apple Inc. Digital assistant providing automated status report
US10509862B2 (en) 2016-06-10 2019-12-17 Apple Inc. Dynamic phrase expansion of language input
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
DK179049B1 (en) 2016-06-11 2017-09-18 Apple Inc Data driven natural language event detection and classification
DK179343B1 (en) 2016-06-11 2018-05-14 Apple Inc Intelligent task discovery
US10474753B2 (en) 2016-09-07 2019-11-12 Apple Inc. Language identification using recurrent neural networks
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
US11281993B2 (en) 2016-12-05 2022-03-22 Apple Inc. Model and ensemble compression for metric learning
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
US11204787B2 (en) 2017-01-09 2021-12-21 Apple Inc. Application integration with a digital assistant
EP3355178B1 (en) * 2017-01-25 2023-05-24 Canon Medical Systems Corporation Ultrasound diagnosis apparatus
DE102017101669A1 (de) * 2017-01-27 2018-08-02 Trw Automotive Electronics & Components Gmbh Verfahren zum Betreiben einer Mensch-Maschinen-Schnittstelle sowie Mensch-Maschinen-Schnittstelle
DK201770383A1 (en) 2017-05-09 2018-12-14 Apple Inc. USER INTERFACE FOR CORRECTING RECOGNITION ERRORS
US10417266B2 (en) 2017-05-09 2019-09-17 Apple Inc. Context-aware ranking of intelligent response suggestions
US10395654B2 (en) 2017-05-11 2019-08-27 Apple Inc. Text normalization based on a data-driven learning network
DK201770439A1 (en) 2017-05-11 2018-12-13 Apple Inc. Offline personal assistant
US10726832B2 (en) 2017-05-11 2020-07-28 Apple Inc. Maintaining privacy of personal information
DK201770427A1 (en) 2017-05-12 2018-12-20 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
US11301477B2 (en) 2017-05-12 2022-04-12 Apple Inc. Feedback analysis of a digital assistant
DK201770432A1 (en) 2017-05-15 2018-12-21 Apple Inc. Hierarchical belief states for digital assistants
DK201770431A1 (en) 2017-05-15 2018-12-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
US10311144B2 (en) 2017-05-16 2019-06-04 Apple Inc. Emoji word sense disambiguation
US20180336275A1 (en) 2017-05-16 2018-11-22 Apple Inc. Intelligent automated assistant for media exploration
US10403278B2 (en) 2017-05-16 2019-09-03 Apple Inc. Methods and systems for phonetic matching in digital assistant services
DK179560B1 (en) 2017-05-16 2019-02-18 Apple Inc. FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES
US10657328B2 (en) 2017-06-02 2020-05-19 Apple Inc. Multi-task recurrent neural network architecture for efficient morphology handling in neural language modeling
US10445429B2 (en) 2017-09-21 2019-10-15 Apple Inc. Natural language understanding using vocabularies with compressed serialized tries
US10755051B2 (en) 2017-09-29 2020-08-25 Apple Inc. Rule-based natural language processing
DE102017217914A1 (de) * 2017-10-09 2019-04-11 Bayerische Motoren Werke Aktiengesellschaft Fortbewegungsmittel, Anwenderschnittstelle und Verfahren zum Bedienen einer Anwenderschnittstelle
US10636424B2 (en) 2017-11-30 2020-04-28 Apple Inc. Multi-turn canned dialog
DE102018100197A1 (de) * 2018-01-05 2019-07-11 Bcs Automotive Interface Solutions Gmbh Verfahren zum Betreiben einer Mensch-Maschinen-Schnittstelle sowie Mensch-Maschinen-Schnittstelle
DE102018100196A1 (de) * 2018-01-05 2019-07-11 Bcs Automotive Interface Solutions Gmbh Verfahren zum Betreiben einer Mensch-Maschinen-Schnittstelle sowie Mensch-Maschinen-Schnittstelle
US10733982B2 (en) 2018-01-08 2020-08-04 Apple Inc. Multi-directional dialog
US10733375B2 (en) 2018-01-31 2020-08-04 Apple Inc. Knowledge-based framework for improving natural language understanding
US10789959B2 (en) 2018-03-02 2020-09-29 Apple Inc. Training speaker recognition models for digital assistants
US10592604B2 (en) 2018-03-12 2020-03-17 Apple Inc. Inverse text normalization for automatic speech recognition
US10818288B2 (en) 2018-03-26 2020-10-27 Apple Inc. Natural assistant interaction
US10909331B2 (en) 2018-03-30 2021-02-02 Apple Inc. Implicit identification of translation payload with neural machine translation
US11145294B2 (en) 2018-05-07 2021-10-12 Apple Inc. Intelligent automated assistant for delivering content from user experiences
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
US10984780B2 (en) 2018-05-21 2021-04-20 Apple Inc. Global semantic word embeddings using bi-directional recurrent neural networks
US10892996B2 (en) 2018-06-01 2021-01-12 Apple Inc. Variable latency device coordination
DK179822B1 (da) 2018-06-01 2019-07-12 Apple Inc. Voice interaction at a primary device to access call functionality of a companion device
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
DK201870355A1 (en) 2018-06-01 2019-12-16 Apple Inc. VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS
US11386266B2 (en) 2018-06-01 2022-07-12 Apple Inc. Text correction
US11076039B2 (en) 2018-06-03 2021-07-27 Apple Inc. Accelerated task performance
US10838544B1 (en) * 2019-08-21 2020-11-17 Raytheon Company Determination of a user orientation with respect to a touchscreen device
US11409410B2 (en) 2020-09-14 2022-08-09 Apple Inc. User input interfaces
US20230136028A1 (en) * 2021-11-03 2023-05-04 Jin Alexander Yu Ergonomic eyes-off-hand multi-touch input

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02132510A (ja) * 1988-11-12 1990-05-22 Sony Corp 入力装置
JPH0683523A (ja) * 1991-12-13 1994-03-25 American Teleph & Telegr Co <Att> ワークサーフェスシステム及びその実現方法、及びセンサ利用方法及び人物識別方法
JPH1040014A (ja) * 1996-06-13 1998-02-13 Internatl Business Mach Corp <Ibm> 仮想ポインティング・デバイスの生成指示方法及び装置
JP2001070293A (ja) * 1999-09-06 2001-03-21 Toshiba Corp X線診断装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69204045T2 (de) * 1992-02-07 1996-04-18 Ibm Verfahren und Vorrichtung zum optischen Eingang von Befehlen oder Daten.
US6600480B2 (en) * 1998-12-31 2003-07-29 Anthony James Francis Natoli Virtual reality keyboard system and method
EP1717677B1 (en) * 1998-01-26 2015-06-17 Apple Inc. Method and apparatus for integrating manual input
CN100391103C (zh) 1999-10-27 2008-05-28 菲罗兹·加萨比安 集成袖珍键盘***
US6519607B1 (en) * 1999-10-28 2003-02-11 Hewlett-Packard Company Image driven operating system
US6611253B1 (en) * 2000-09-19 2003-08-26 Harel Cohen Virtual input environment
US20020075334A1 (en) * 2000-10-06 2002-06-20 Yfantis Evangelos A. Hand gestures and hand motion for replacing computer mouse events
FI113094B (fi) * 2000-12-15 2004-02-27 Nokia Corp Parannettu menetelmä ja järjestely toiminnon aikaansaamiseksi elektronisessa laitteessa ja elektroninen laite
WO2002059868A1 (en) * 2001-01-24 2002-08-01 Interlink Electronics, Inc. Game and home entertainment device remote control
CN100350363C (zh) * 2001-12-21 2007-11-21 拉尔夫·特拉赫特 灵活的计算机输入***
US7461356B2 (en) * 2002-06-03 2008-12-02 Fuji Xerox Co., Ltd. Function control unit and method thereof
CN1570960A (zh) 2004-05-09 2005-01-26 万发良 一种以手指动作识别为基础的输入装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02132510A (ja) * 1988-11-12 1990-05-22 Sony Corp 入力装置
JPH0683523A (ja) * 1991-12-13 1994-03-25 American Teleph & Telegr Co <Att> ワークサーフェスシステム及びその実現方法、及びセンサ利用方法及び人物識別方法
JPH1040014A (ja) * 1996-06-13 1998-02-13 Internatl Business Mach Corp <Ibm> 仮想ポインティング・デバイスの生成指示方法及び装置
JP2001070293A (ja) * 1999-09-06 2001-03-21 Toshiba Corp X線診断装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1865404A4 *

Cited By (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008078603A1 (ja) 2006-12-22 2008-07-03 Panasonic Corporation ユーザインターフェイス装置
JP5179378B2 (ja) * 2006-12-22 2013-04-10 パナソニック株式会社 ユーザインターフェイス装置
EP2124139A4 (en) * 2006-12-22 2013-01-09 Panasonic Corp USER INTERFACE DEVICE
EP2124139A1 (en) * 2006-12-22 2009-11-25 Panasonic Corporation User interface device
US8284168B2 (en) 2006-12-22 2012-10-09 Panasonic Corporation User interface device
JP2008234594A (ja) * 2007-03-23 2008-10-02 Denso Corp 操作入力装置
US8766910B2 (en) * 2007-07-04 2014-07-01 Cypress Semiconductor Corporation Capacitive sensing control knob
US8405626B2 (en) 2007-09-04 2013-03-26 Canon Kabushiki Kaisha Image projection apparatus and control method for same
KR101198727B1 (ko) 2007-09-04 2012-11-12 캐논 가부시끼가이샤 화상투영장치 및 그 제어 방법
EP2191352A4 (en) * 2007-09-04 2016-12-28 Canon Kk IMAGE PROJECTION DEVICE AND CONTROL METHOD THEREFOR
WO2009031633A1 (en) * 2007-09-04 2009-03-12 Canon Kabushiki Kaisha Image projection apparatus and control method for same
WO2009031457A1 (en) * 2007-09-04 2009-03-12 Canon Kabushiki Kaisha Image projection apparatus and control method for same
US8118433B2 (en) 2007-09-04 2012-02-21 Canon Kabushiki Kaisha Image projection apparatus and control method for same
JP2009075685A (ja) * 2007-09-19 2009-04-09 Sony Corp 画像処理装置および画像処理方法、並びにプログラム
US8896535B2 (en) 2007-09-19 2014-11-25 Sony Corporation Image processing apparatus and method, and program therefor
US8643598B2 (en) 2007-09-19 2014-02-04 Sony Corporation Image processing apparatus and method, and program therefor
US20110206239A1 (en) * 2008-03-12 2011-08-25 Denso Corporation Input apparatus, remote controller and operating device for vehicle
JP2013257904A (ja) * 2008-03-12 2013-12-26 Atlab Inc 接触センサ装置
JP2010140458A (ja) * 2008-03-19 2010-06-24 Denso Corp 表示方法、表示装置、及び操作入力装置
JP2009276926A (ja) * 2008-05-13 2009-11-26 Ntt Docomo Inc 情報処理装置及び情報処理装置の表示情報編集方法
JP2009301094A (ja) * 2008-06-10 2009-12-24 Sharp Corp 入力装置及び入力装置の制御方法
JP2010009311A (ja) * 2008-06-26 2010-01-14 Panasonic Corp ユーザインタフェイス装置
JP2012512453A (ja) * 2008-12-15 2012-05-31 ソニー エリクソン モバイル コミュニケーションズ, エービー 光学マーカを有するユーザ入力デバイスを検出する電子デバイス、システム、方法およびコンピュータプログラム
JP2012527657A (ja) * 2009-05-18 2012-11-08 日本電気株式会社 タッチスクリーン、関連した操作方法及びシステム
JP2011180843A (ja) * 2010-03-01 2011-09-15 Sony Corp 情報処理装置、情報処理方法、およびプログラム
WO2013136776A1 (ja) * 2012-03-15 2013-09-19 パナソニック株式会社 ジェスチャ入力操作処理装置
JPWO2013136776A1 (ja) * 2012-03-15 2015-08-03 パナソニックIpマネジメント株式会社 ジェスチャ入力操作処理装置
JP7394822B2 (ja) 2012-08-20 2023-12-08 ウォルジエン エルエルシー ビデオ通話センター
JP2015534304A (ja) * 2012-08-20 2015-11-26 ウォルジエン エルエルシー ビデオ通話センター
JP2022046513A (ja) * 2012-08-20 2022-03-23 ウォルジエン エルエルシー ビデオ通話センター
JP2019033503A (ja) * 2012-08-20 2019-02-28 ウォルジエン エルエルシー ビデオ通話センター
WO2014045953A1 (ja) * 2012-09-20 2014-03-27 ソニー株式会社 情報処理装置および方法、並びにプログラム
US10168784B2 (en) 2012-09-20 2019-01-01 Sony Corporation Information processing apparatus and method, and program
US10754435B2 (en) 2012-09-20 2020-08-25 Sony Corporation Information processing apparatus and method, and program
JP2014096107A (ja) * 2012-11-12 2014-05-22 Toshiba Alpine Automotive Technology Corp 車室内カメラのスキャン方法、車室内カメラにおける対象物の探索方法及び車室内カメラ
JP2013093031A (ja) * 2012-11-16 2013-05-16 Sony Corp 情報処理装置、記憶媒体、情報処理システム、および情報処理方法、並びにプログラム
JP2016507112A (ja) * 2013-03-05 2016-03-07 インテル コーポレイション 複合的な知覚感知入力の対話
JP2014179097A (ja) * 2013-03-13 2014-09-25 Honda Motor Co Ltd ポインティングによる情報クエリ
JP2014179072A (ja) * 2013-03-14 2014-09-25 Honda Motor Co Ltd 三次元指先トラッキング
WO2015105044A1 (ja) * 2014-01-10 2015-07-16 日本電気株式会社 インターフェース装置、可搬装置、制御装置、モジュール、制御方法およびプログラム記憶媒体
JPWO2015105044A1 (ja) * 2014-01-10 2017-03-23 日本電気株式会社 インターフェース装置、可搬装置、制御装置、モジュール、制御方法およびコンピュータプログラム
JP2017529024A (ja) * 2014-06-30 2017-09-28 ザ ビデオ コール センター,エルエルシー ビデオ通話センター
JP2017073090A (ja) * 2015-10-09 2017-04-13 献平 陳 データ入力装置
JP2020530631A (ja) * 2017-08-14 2020-10-22 シェンジェン ピーアールテック カンパニー リミテッド インタラクション位置決定方法、システム、記憶媒体、およびスマートデバイス
WO2023140340A1 (ja) * 2022-01-19 2023-07-27 メタマティクス プライベート リミテッド 指識別に基づくユーザー・インターフェースを実現するためのシステム、方法及びそのためのプログラム

Also Published As

Publication number Publication date
US20080163131A1 (en) 2008-07-03
JPWO2006104132A1 (ja) 2008-09-11
EP1865404A4 (en) 2012-09-05
US7810050B2 (en) 2010-10-05
JP4702959B2 (ja) 2011-06-15
CN101180599A (zh) 2008-05-14
EP1865404A1 (en) 2007-12-12

Similar Documents

Publication Publication Date Title
JP4702959B2 (ja) ユーザインタフェイスシステム
US11048333B2 (en) System and method for close-range movement tracking
JP6393341B2 (ja) 投射型映像表示装置
US9389779B2 (en) Depth-based user interface gesture control
KR101136153B1 (ko) 지문 인식 또는 멀티 터치가 가능한 센서 그리드 방식의 투명 패널 사용자 입력 장치, 사용자 지문 인식 방법, 및 사용자 터치 인식 방법
US8666115B2 (en) Computer vision gesture based control of a device
US8085243B2 (en) Input device and its method
US9448714B2 (en) Touch and non touch based interaction of a user with a device
US20120327125A1 (en) System and method for close-range movement tracking
KR101930225B1 (ko) 터치스크린 동작모드의 제어방법 및 제어장치
US20090002342A1 (en) Information Processing Device
US20100231522A1 (en) Method and apparatus for data entry input
WO2007061057A1 (ja) ジェスチャー入力装置、及び方法
TWI463355B (zh) 多點觸控介面之訊號處理裝置、訊號處理方法及使用者介面圖像選取方法
GB2470654A (en) Data input on a virtual device using a set of objects.
US20150186037A1 (en) Information processing device, information processing device control method, control program, and computer-readable recording medium
US20140055385A1 (en) Scaling of gesture based input
CN102314301A (zh) 虚拟触控感应***及方法
JP2011203830A (ja) 投写システム及びその制御方法
JP2011192081A (ja) 情報処理装置及びその制御方法
JP2005301668A (ja) 情報処理装置および情報処理プログラム
KR102118421B1 (ko) 카메라 커서 시스템
JP5062898B2 (ja) ユーザインタフェイス装置
JP2009282637A (ja) 表示方法および表示装置
JP2012146017A (ja) 電子黒板システム、電子黒板システムの制御方法、プログラムおよびその記録媒体

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200680010552.4

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2007510518

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 11884955

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2006730193

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

NENP Non-entry into the national phase

Ref country code: RU

WWP Wipo information: published in national office

Ref document number: 2006730193

Country of ref document: EP