WO2017006670A1 - 触覚再現装置 - Google Patents

触覚再現装置 Download PDF

Info

Publication number
WO2017006670A1
WO2017006670A1 PCT/JP2016/066563 JP2016066563W WO2017006670A1 WO 2017006670 A1 WO2017006670 A1 WO 2017006670A1 JP 2016066563 W JP2016066563 W JP 2016066563W WO 2017006670 A1 WO2017006670 A1 WO 2017006670A1
Authority
WO
WIPO (PCT)
Prior art keywords
finger
operating body
input device
reaction force
image
Prior art date
Application number
PCT/JP2016/066563
Other languages
English (en)
French (fr)
Inventor
萩原 康嗣
渉 佐藤
譲 川名
高井 大輔
Original Assignee
アルプス電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アルプス電気株式会社 filed Critical アルプス電気株式会社
Priority to JP2017527128A priority Critical patent/JP6588547B2/ja
Priority to EP16821141.5A priority patent/EP3321774A1/en
Priority to CN201680039978.6A priority patent/CN107735750A/zh
Publication of WO2017006670A1 publication Critical patent/WO2017006670A1/ja
Priority to US15/861,869 priority patent/US20180129288A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0362Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 1D translations or rotations of an operating part of the device, e.g. scroll wheels, sliders, knobs, rollers or belts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text

Definitions

  • the present invention relates to a tactile reproduction device that can receive a reaction force imitating that a finger touches a predetermined object when the finger touches an input device with a hand.
  • Patent Document 1 describes an invention related to a virtual space display device.
  • This virtual space display device can communicate with a terminal communication unit and a server, and the terminal communication unit is equipped with a touch panel including a liquid crystal display and an input unit.
  • the shopping mall image is displayed on the LCD of the touch panel through communication from the server.
  • the user drags the touch panel the displayed scene in the shopping mall can be moved, and when the user taps a product thumbnail in the shopping mall screen, detailed information on the product is displayed on the screen.
  • the user can temporarily collect the products to be purchased in the stock area, and can purchase the products by performing a settlement process on the stock products.
  • the present invention solves the above-described conventional problems, and an object thereof is to provide a tactile reproduction device that can mechanically generate a reaction force imitating a tactile sensation when a predetermined object is touched with a hand. Yes.
  • the tactile reproduction device of the present invention has an input device and a control unit
  • the input device is provided with an operating body that can be pressed with a finger and moves forward and backward, a detection member that detects a movement position of the operating body, and a motor that applies force to the operating body
  • the control unit holds information about the tactile sensation of a predetermined contact object
  • In the control unit when it is detected that the operation body is pressed with a finger based on a detection signal from the detection member, a reaction force imitating the tactile sensation of the contacted object is applied from the operation body to the finger. As is given, the output of the motor is controlled.
  • the control unit holds information about the size of the contacted object, and the movement until the finger touches the contacted object by the detection signal from the detection member.
  • the control unit detects that the operating body has moved a distance corresponding to the amount, the output of the motor is controlled so that reaction force starts to be generated from the operating body to the finger at the detection position. .
  • the input device is provided with a posture detection unit that detects the posture of the input device.
  • a schematic image of the contacted object and a simulated image of the hand are displayed on the display panel, and are displayed on the display panel according to the state of the screen displayed on the display panel.
  • the schematic image of the hand and finger changes, and in the input device, the protruding position of the operating body of the input device or the reaction force applied to the finger from the operating body so as to correspond to the change of the schematic image of the hand and finger Is preferably changed.
  • the menu image and the list image is displayed on the display panel, and the schematic image of the hand changes so that any finger indicates the menu image or the list image, and the input is made accordingly.
  • the operation body touched by the finger indicating the menu image or the list image is set to a position where the operation body can be operated.
  • the input device can be configured as a plurality of tactile sensation generating units each including the operating body, a detection member, and a motor.
  • the input device has a case, and the case is provided with a first surface and a second surface that are directed to opposite sides in the first direction. And the protrusion direction of the said operation body provided in the said tactile sense generation unit is reverse by the said 1st surface and the said 2nd surface.
  • a plurality of first operating bodies protrudes side by side on the first surface, one second operating body protrudes on the second surface, and the arrangement direction of the first operating bodies is determined.
  • the length dimension in the second direction of the second operating body is larger than the length dimension in the second direction of each of the first operating bodies. preferable.
  • one second operating body and a plurality of the first operating bodies face each other in the first direction.
  • the haptic reproduction apparatus can perform the second operation with a thumb from either side of the third direction, which is a direction intersecting both the first direction and the second direction. It is preferable that the first operation body can be held by a plurality of fingers other than the thumb.
  • a schematic image of an object is displayed on the display panel, and the input device corresponds to a state in which the schematic image of the object is grasped with a finger,
  • the reaction force applied to the finger from the operating body can be determined.
  • the tactile reproduction device of the present invention can feel the same tactile sensation as touching a predetermined object with the finger when touching the operating body with the finger, and can feel the hardness, softness, repulsive force, etc. of the contacted object. it can.
  • the input device used in the haptic reproduction device of the present invention can be structured such that a plurality of operating bodies protrude from the case, and performs the same operation as picking an object with a finger, grasping with an hand, or pushing with an finger. In this operation, a reaction force imitating the sense of touch of an object can be felt.
  • a schematic image of a predetermined object is displayed, and a schematic image of a finger corresponding to the finger holding the operating body is displayed so as to hold the contacted object, so that the object visually is also displayed. You can feel the sense of touch.
  • FIG. 2 illustrates an input device provided in the tactile reproduction device shown in FIG. 1
  • A is a perspective view seen from above
  • B is a perspective view seen from below
  • FIG. 3 is an exploded perspective view of the input device shown in FIG.
  • the block diagram which shows the structure of the tactile reproduction apparatus of embodiment of this invention
  • FIG. 4 is a diagram illustrating a usage example of the tactile reproduction device according to the embodiment, and is an explanatory diagram illustrating a display image when pointing a menu display on a display screen with one finger;
  • FIG. 4 is a diagram illustrating a usage example of the tactile reproduction device of the embodiment, and is an explanatory diagram illustrating a display image reproducing a tactile sensation when an object is picked by two fingers;
  • FIG. 4 is a diagram illustrating a usage example of the tactile sensation reproducing device according to the embodiment, and is an explanatory diagram illustrating a display image reproducing a tactile sensation when an object is grasped by a plurality of fingers FIG.
  • FIG. 3 is a diagram illustrating a usage example of the tactile sensation reproducing device according to the embodiment, and is an explanatory diagram illustrating a display image reproducing a tactile sensation when an object is pressed with one finger
  • a diagram showing an example of a reaction force action line showing the relationship between the moving distance of the operating body and the reaction force A diagram showing an example of a reaction force action line showing the relationship between the moving distance of the operating body and the reaction force
  • (A) is a diagram showing an example of a reaction force action line showing the relationship between the moving distance of the operating body and the reaction force
  • B) is a diagram showing an example of energizing the motor for reproducing (A)
  • a diagram showing an example of a reaction force action line showing the relationship between the moving distance of the operating body and the reaction force
  • FIG. 1 shows a state where the tactile reproduction device 1 of the present invention is used.
  • the tactile sensation reproducing device 1 includes a device main body 10 and an input device 20.
  • two identical input devices 20 are used, one input device 20 is used with the right hand, and the other input device 20 is used with the left hand.
  • only one input device 20 may be used and operated with one hand.
  • the apparatus main body 10 has a mask type main body 11 to be mounted in front of the eyes and a strap 12 for mounting the mask type main body 11 to the head.
  • the mask type main body 11 of the apparatus main body 10 is provided with a display panel 13.
  • the display panel 13 is installed in front of the eyes of the operator and is visible.
  • a display panel driver 14 for driving the display panel 13 and a control unit 15 for controlling the display form of the display panel driver 14 are provided inside the mask type main body 11.
  • the control unit 15 is composed mainly of a CPU and a memory.
  • the mask type main body 11 is provided with an interface 16 for exchanging signals between the control unit 15 and each input device 20.
  • the display panel 13 is not limited to the one provided on the mask-type main body 11, and the display panel is installed on a table or the like.
  • the display panel 13 is a personal computer display screen, a television display screen, or a game. It may be used as a display screen of the device.
  • FIG. 2A is a perspective view showing the external appearance of the input device 20 from above
  • FIG. 2B is a perspective view showing the external appearance of the input device 20 viewed from below
  • FIG. 3 is an exploded perspective view of the input device 20.
  • FIG. 4 shows the structure of the first tactile sensation generating unit 30 built in the input device 20.
  • 2A, FIG. 3 and FIG. 4 show XYZ coordinates based on the input device 20.
  • the input device 20 is held with both hands in a posture in which the Y direction, which is the second direction, is directed up and down.
  • the input device 20 has a case 21 made of synthetic resin.
  • the case 21 is large enough to be held with one hand.
  • the case 21 is configured by combining an upper case 22 and a lower case 23.
  • the upper case 22 and the lower case 23 can be divided in the Z direction, which is the first direction.
  • the upper case 22 and the lower case 23 are fixed to each other by screwing means or the like, and a mechanism housing space is formed inside the two cases 22 and 23.
  • the surface of the upper case 22 facing the Z direction is the first surface 22a
  • the surface of the lower case 23 facing the Z direction is the second surface 23a.
  • the upper case 22 has operation holes 24, 24 penetrating in the Z direction on the first surface 22a.
  • the lower case 23 has an operation hole 25 penetrating the second surface 23a in the Z direction.
  • the operation holes 24, 24 are formed side by side in the second direction (Y direction), and the opening size in the second direction (Y direction) is such that the operation holes 25 are larger than the individual operation holes 24. Yes.
  • a connector mounting hole 26 is opened on the end surface of the upper case 22 facing the second direction (Y direction), and a power plug mounting hole 27 is opened on the end surface of the lower case 23 facing the Y direction. .
  • a mechanism chassis 28 is stored in a mechanism storage space inside the case 21.
  • the mechanism chassis 28 is bent from a metal plate to form a mounting plate portion 28a parallel to the XY plane and a partition plate portion 28b parallel to the YZ plane.
  • a plurality of sets of first tactile sensation generating units 30 are fixed to one side of the third direction (X direction) of the sorting plate portion 28b.
  • two sets of the first tactile sensation generating units 30 are arranged side by side in the second direction (Y direction).
  • One set of second tactile sensation generating units 40 is disposed on the other side in the X direction of the sorting plate portion 28b.
  • FIG. 4 shows the structure of the first tactile sensation generating unit 30.
  • the first tactile sensation generating unit 30 has a frame 31 formed by bending a metal plate 30.
  • the first tactile sensation generating unit 30 is mounted on the mechanism chassis 28 by attaching the frame 31 to the sorting plate portion 28b.
  • a moving member 32 is provided on the frame 31.
  • the moving member 32 is formed of a synthetic resin material, and a first operation body 33 is fixed to the front portion thereof.
  • the first operation body 33 is made of a synthetic resin material. As shown in FIG. 2, the first operation body 33 protrudes outside from an operation hole 24 formed in the upper case 22.
  • a guide long hole 31c extending in the first direction (Z direction) is formed in one side plate portion 31a of the frame 31, and a sliding protrusion 32a is integrally formed on the side portion of the moving member 32.
  • the moving member 32 has a recess 32b.
  • a compression coil spring 34 is interposed between the moving member 32 and the lower end of the frame 31 inside the recess 32b. Due to the elastic force of the compression coil spring 34, the moving member 32 is urged upward in the figure in the Z direction, which is the direction in which the first operating body 33 protrudes from the upper case 22.
  • the motor 35 is fixed to one side wall 31a of the frame 31.
  • An output gear 36 a is fixed to the output shaft of the motor 35.
  • a reduction gear 36b is rotatably supported on the outer surface of the side wall 31a, and the output gear 36a and the reduction gear 36b are engaged with each other.
  • a gear box 37 is fixed to the side wall 31 a of the frame 31, and a speed reduction mechanism is housed inside the gear box 37. The rotational force of the reduction gear 36 b is reduced by a reduction mechanism in the gear box 37.
  • the speed reduction mechanism in the gear box 37 includes a sun gear and a planetary gear.
  • the pinion gear 37a is fixed to the reduction output shaft of the gear box 37.
  • a rack portion 32c is formed on the surface of the thick portion of the moving member 32, and the pinion gear 37a and the rack portion 32c are engaged with each other.
  • the tooth part of the pinion gear 38a and the tooth part of the rack part 32c are helical teeth inclined with respect to the Y direction orthogonal to the moving direction of the moving member 32.
  • the compression coil spring 34 By providing the compression coil spring 34, it is possible to eliminate backlash between the pinion gear 38a and the rack portion 32c. However, the compression coil spring 34 may not be provided.
  • the encoder 38 is fixed to the other side wall 31b of the frame 31.
  • the encoder 38 is a detection member having a stator portion fixed to the side wall portion 31b and a rotor portion that rotates to face the stator portion.
  • the rotor shaft provided in the rotor portion rotates together with the pinion gear 37a.
  • the encoder 38 is a resistance change type, and an arc-shaped resistor pattern is provided in the stator portion, and a slider that slides the resistor pattern is provided in the rotor portion.
  • the encoder 38 is of a magnetic detection type, in which a rotating magnet is fixed to the rotor portion, a magnetic detection element such as a GMR element is provided in the stator portion, and the rotation angle of the rotor portion is detected by the magnetic detection element. It may be a member. Alternatively, the encoder 38 may be an optical encoder.
  • the second tactile sensation generating unit 40 is provided on the other side of the partition plate portion 28 b of the mechanism chassis 28.
  • the second tactile sensation generating unit 40 has the same basic structure as the first tactile sensation generating unit 30.
  • a moving member 42 is supported by a frame 41 so as to be movable in the Z direction, and a second operating body 43 is fixed to a front portion of the moving member 42.
  • the second operation body 43 protrudes downward from the operation hole 25 of the lower case 23 in the figure.
  • the moving member 42 is biased by a compression coil spring 44 in a direction in which the second operating body 43 protrudes from the operating hole 25.
  • a motor 45 is fixed to the frame 41, and an output gear 46a fixed to the output shaft of the motor 45 meshes with the reduction gear 46b.
  • the rotational force of the reduction gear 46b is reduced by a reduction mechanism in the gear box 47, and the reduction output is transmitted from the pinion gear to the rack portion formed on the moving member 42.
  • the rotation of the pinion gear is detected by the encoder 48.
  • a signal connector 17 and a power plug 29 are built in the case 21.
  • the signal connector 17 is exposed inside a connector mounting hole 26 formed in the upper case 22, and the power plug 29 is exposed inside a power plug mounting hole 27 formed in the lower case 23.
  • a motor driver 51 is provided in each input device 20.
  • the motor 35 provided in the first tactile sensation generating unit 30 and the motor 45 provided in the second tactile sensation generating unit 40 are rotationally driven by the motor driver 35.
  • the signal connector 17 is a USB interface.
  • the same reference numeral 17 as that of the signal connector 17 shown in FIG. 3 is attached to the interface provided in the input device 20.
  • the interface 16 of the apparatus main body 10 and the interface 17 of each input device 20 are connected by a cord 52.
  • the cord 52 includes a power line, and the power line is connected to the power plug 29. Electric power is supplied from the apparatus main body 10 to the input apparatus 20 through this power supply line.
  • the apparatus main body 10 and each input device 20 can communicate with each other by an RF signal, and the input device 20 may include a battery.
  • the cord 52 that connects the apparatus main body 10 and the input device 20 is not necessary.
  • the apparatus main body 10 further has a communication function with the server.
  • the plurality of first operating bodies 33 are arranged in the second direction (Y direction), but the length dimension of the second operating body 43 in the Y direction is the same as that of the first operating body 33 in the Y direction. It is larger than the length dimension.
  • the two first operating bodies 33 and 33 are both opposed to the second operating body 43 in the first direction (Z direction). Therefore, the second operating body 43 can be held in a wide range by the thumb while the first operating bodies 33 and 33 are being pressed with the index finger and the middle finger.
  • first operating bodies 33 and 33 and the second operating body 43 are located in the central portion of the case 21 in the X direction (third direction).
  • the input device 20 is substantially plane symmetric with respect to the XZ plane and is substantially plane symmetric with respect to the YZ plane. Therefore, it is possible to hold the input device 20 from the right side or the left side in the X direction in the same manner. Therefore, handling is easy.
  • a control command is given from the control unit 15 to the motor driver 51, and the motor 35 of the first haptic generation unit 30 and the motor 45 of the second haptic generation unit 40 are operated based on the control command. It is done.
  • the moving member 32 and the moving member 42 can be moved to arbitrary positions and stopped at those positions.
  • the operating body 33 and the operating body 43 can be stopped at a position where the operating body 33 and the operating body 43 protrude from the case 21 to the maximum extent, or stopped at a position where the operating body 33 and the operating body 33 are retracted to the maximum extent inside the case 21 Can be made.
  • the operating body 33 and the operating body 43 can be stopped at any position between the maximum protruding position and the maximum retracted position.
  • the rotors of the motors 35 and 45 are moved with a strong force so that the operation body 33 or the operation body 43 protruding from the case 21 does not move even if it is pushed with a finger. Can be retained.
  • the control unit 15 recognizes the movement position of the operation body 33 or the operation body 43.
  • the control unit 15 holds a reaction force action line (reaction force action coefficient) indicating the relationship between the movement distance and the reaction force, and the motor 35 or the motor 35 is operated according to the operation body 43 or the movement position of the operation body 43.
  • 45 generates a torque corresponding to the reaction force action line, and a reaction force is applied from the operation body 33 or the operation body 43 to the finger.
  • information such as the shape and size of an object to be held by hand in a simulated manner, the hard feeling, soft texture, and elasticity of the surface is held in the control unit 15.
  • control unit 15 holds the information related to a plurality of products in a product catalog that includes a predetermined product group. These pieces of information are downloaded from the server to the control unit 15 through the Internet or the like. Alternatively, the information on the object may be held in the control unit 15 by connecting a storage medium storing a product catalog or the like to the apparatus main body 10.
  • a menu image Mv for causing the display panel 13 to perform a display operation and a list image Lv of the product catalog are displayed.
  • menu selection or list selection can be performed, and any product to be displayed can be selected.
  • the tactile sensation reproducing device depending on the state of the screen displayed on the display panel 13, in the input device 20, the protruding positions of the operating bodies 33 and 34 from the case 21 or the operating bodies 33 and 34 are given to the fingers. The reaction force is changed.
  • the schematic image of the hand H appearing on the display screen is displayed such that only the index finger F2 extends and the other fingers are closed.
  • a state setting command is given from the control unit 15 to the input device 20, and only one first operating body 33 held by the index finger is operable or operable in the input device 20.
  • the other first operating body 33 and the second operating body 43 are retracted so as not to protrude so much from the case 21, or the operating bodies 33, 43 held by fingers other than the index finger are motors 35, 45. It is set so that it will not move due to the increased load.
  • the input device 20 is provided with an attitude detection unit 53.
  • the posture detection unit 53 is, for example, a magnetic sensor that detects a geomagnetic sensor or a vibration type gyro device, and can detect the posture of the input device 20 in the operation space and the position in the operation space.
  • the schematic image of the hand H in the display screen is moved, and the menu image Mv or list image Lv is moved with the index finger F2. Is selected, and a product to be displayed is selected by the selection operation.
  • the operation is detected by the encoder 38, and a detection signal from the encoder 38 is sent to the control unit 15. Thereby, it is detected by the control unit 15 that the first operating body 33 has been pressed, and the selection of the product is determined.
  • the operation of selecting and determining the menu image Mv or the list image Lv shown in FIG. 6 may be performed by the operation of the middle finger or the thumb instead of the index finger.
  • the menu image Mv or the list image Lv is a contacted object.
  • the product When a product is selected, the product is identified as an object to be touched with a hand. As shown in FIGS. 7 to 9, when an object touched by a hand is specified, an image of the specified object W1, W2, or W3 and a schematic image imitating the hand H of the operator are displayed on the display panel 13. Is done.
  • the position and posture of the input device 20 held by hand in the space are detected by the posture detection unit 53, and the detection information is given to the control unit 15.
  • a schematic image to be displayed on the display panel 13 is generated corresponding to the posture of the input device 20, and the positions and postures of the hand H schematic image and the finger schematic image displayed on the display panel 13 are determined.
  • the input device 20 is changed corresponding to the position and posture.
  • the image of various shops is displayed on the display panel 13, and the user operates the input device 20 with his / her hand to select one of the products displayed in the displayed shop as an object to be touched with the hand. It can also be specified.
  • the object W1 shown in FIG. 7 has a size that can be picked by the thumb F1 and the index finger F2.
  • the schematic image of the thumb F1 and the schematic image of the index finger F2 are displayed as if the object W1 is grasped.
  • a state setting command is given from the control unit 15 to the motor driver 51 of the input device 20, and the second operation body 43 touched by the thumb F1 and one first operation touched by the index finger F2 are performed.
  • the body 33 becomes operable.
  • the motor 35 of the first tactile sensation generating unit 30 is operated to move the first operating body 33 facing the middle finger from the first surface 22a of the case 21. Retract so that it does not protrude.
  • a large load is applied to the motor 35 of the first tactile sensation generating unit 30 so that the rotor does not easily rotate, and the first operating body 33 touched by the middle finger is prevented from moving.
  • the input device 20 gives the finger to the protruding position of the operating bodies 33 and 43 from the case 21 or the operating bodies 33 and 43.
  • the reaction force is changing.
  • the position information is given from the encoders 38 and 48 to the control unit 15.
  • the first operating body 33 and the first operating body 33 The display state is controlled so that the schematic image of the thumb F1 and the schematic image of the index finger F2 displayed on the display panel 13 approach each other according to the approach distance of the second operation body 43.
  • the movement of the schematic image of the hand and fingers changes according to the movement of the operating bodies 33 and 43 provided in the input device 20.
  • the detection signal from the encoder 38 of the first tactile sensation generating unit 30 touched by the index finger F2 and the detection signal from the encoder 48 of the second tactile sensation generating unit 40 touched by the thumb F1 are given to the control unit 15, In the control unit 15, the shape and size information of the object W ⁇ b> 1 is compared with the detection signals from the encoders 38 and 48.
  • the rotational load of the motors 35 and 45 is set so as to hardly occur, and the thumb F1 and the index finger F2 are hardly Without feeling the load, the operator feels that the thumb F1 and the index finger F2 are moving freely in the space.
  • the control unit 15 gives a control designation to the motor driver 51, and the motor 35 45, a rotational load is applied to the thumb F1 and the index finger F2 as if a reaction force as if the object W1 was picked.
  • the protruding position from the case 21 may be determined.
  • the object W2 shown in FIG. 8 has a size that can be held with one hand, that is, a size that can be held with the thumb F1, the index finger F2, and the middle finger F3.
  • the schematic image of the hand H or the finger changes to hold the object W.
  • a state setting command is given from the control unit 15 to the input unit 20, and the input device 20 changes according to the shape and size of the object W2 or according to the schematic image of the hand.
  • the protruding positions of the operating body 33 and the second operating body 43 are set. Thereby, it can be felt that the object W2 displayed on the screen is held by an actual hand.
  • the detection output from the encoders 38 and 38 provided in the two tactile generation units 30 provided in the input device 20 and the detection output from the encoder 48 provided in the tactile generation unit 40 are the control unit 15.
  • the three motors 35, 35, 45 are controlled by the control unit 15.
  • the load is applied to the motors 35, 35, 45 when starting to push.
  • the moving bodies 32, 32, 42 are moved in the direction in which the operating bodies 33, 33 and the operating body 34 approach each other, and the fingers F1, F2, F3 are moving in the space. You can feel it.
  • a load is applied to the motors 35, 35, and 45. Thereby, it is also possible to perform control so that the same reaction force as when the object W2 is grasped by the fingers F1, F2, and F3.
  • the object W3 shown in FIG. 9 can be touched with the index finger F2 of one hand.
  • the rotation load of the motor 35 of the first tactile sensation generating unit 30 touched by the middle finger F3 is increased by the state setting command from the control unit 15, and the thumb
  • the rotational load of the motor 45 of the second tactile sensation generating unit 40 touched by F1 is increased to move the first operating body 33 touched by the middle finger F3 and the second operating body 43 touched by the thumb F1. It is set so that only the first operating body 33 touched by the index finger F2 can move.
  • the input device 20 has the operating bodies 33 and 43 in a state that matches the schematic image of the object (contacted object) W2 displayed on the display panel 13 and the schematic image of the hand H. Is set.
  • the posture and position of the hand are detected by the posture detection unit 53 built in the input device 20.
  • the hand holding the input device 20 is in a posture in which the back of the hand is facing upward so that the image of the object W ⁇ b> 3 is approached. Move your hand forward.
  • no load is applied to the motor 35 of the first tactile sensation generating unit 30 touched by the index finger F2, and the operator feels as if the index finger F2 is freely moving in the space.
  • the control unit 15 monitors the detection signals of the encoders 38 and 48, and as shown in FIGS. 7 to 9, it is determined that the distance between the fingers is the distance at which the objects W1 and W2 are grasped, or the finger is moved. When it is determined that it has moved and reached the position where it touches the object W3, a control signal for causing the motor driver 51 to feel the texture is given. Then, the strength of the reaction force applied to each finger from the first operating body 33 and the second operating body 43 is controlled, and the hard feeling, soft texture, and elasticity of the objects W1, W2, and W3 with respect to the finger are controlled. Reaction force to give a feeling is given.
  • FIG. 10 shows an example of a reaction force action line (reaction force action coefficient) L1 indicating the relationship between the pressing stroke of the operation bodies 33 and 43 and the reaction force applied to the finger from the operation bodies 33 and 43. .
  • the reaction force is related to the pressing stroke at that time based on the reaction force action line L1. Is determined. In the reaction force action line L1 shown in FIG. 10, the reaction force felt by the finger increases as the operating bodies 33 and 43 are pushed by the finger.
  • the reaction force of fa acts on the finger.
  • the reaction force fa may be the sum of the reaction force applied to the thumb F1 and the reaction force applied to the index finger F2, or the same reaction force fa may be applied to both the thumb f1 and the index finger F2. This is the same when a reaction force is applied to the thumb F1, the index finger F2, and the middle finger F3. Further, as shown in FIG. 9, when the object W3 is pressed only with the index finger F2, a reaction force fa is applied to the index finger F2.
  • the object W1 picked by the finger, the object W2 grasped by the finger, or the object W3 pushed by the index finger can be made to feel elastic. Note that by changing the reaction force action line shown in FIG. 10, it is possible to freely set a hard feeling, a soft texture, and a feeling of elasticity.
  • the reaction force action line given to the finger when pushing the operating bodies 33 and 43 is L2
  • the reaction force action line given to the finger when the operation bodies 33 and 43 return is L3 is set as a different curve.
  • reaction force felt on the finger gradually increases according to the reaction force action line L2 until the operation body 33, 43 is pushed with the finger and the pressing stroke reaches about 5 mm.
  • the force pressing the operating body with the finger is weakened when the pressing stroke reaches 5 mm, the finger is returned by the reaction force set by the reaction force action line L2, but the operating bodies 33 and 43 are returned together with the finger. If this is detected by the encoders 38 and 48, thereafter, a reaction force at the time of returning to the finger from the operating bodies 33 and 43 is given based on the reaction force action line L3.
  • the reaction force gradually increases as the pressing strokes of the operating bodies 33 and 43 increase, but the reaction force seems to vibrate in a short cycle. It is changing in small increments. That is, as the pressing stroke becomes longer, the electric power supplied to the motors 35 and 45 increases and the reaction force gradually increases. At this time, the electric current supplied to the motor is as shown in FIG. Furthermore, it is controlled to increase or decrease at a predetermined cycle.
  • the energization cycle is, for example, 10 msec or less.
  • the reaction force action lines L5 and L6 shown in FIG. 13 are set by imitating an operation reaction force when the object displayed on the display panel 13 is an electronic mechanism component, for example, a push switch.
  • the reaction force to the finger that can be generated by the tactile generation units 30 and 40 of the input device 20
  • the reaction force exerts elasticity when it is first pushed with the finger, and when it is pushed halfway, the reaction force is generated at that time. It may be so hard that it can no longer be pressed with a finger. This mimics the feel of a human hand pressing the surface of a hand with a finger.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】 指で物体を掴んだのを模した反力を指に与えることができる触覚再現装置を提供する。 【解決手段】 入力装置20を有している。入力装置20はケース21から2つの第1の操作体33,33と1つの第2の操作体43が突出している。親指で第2の操作体43を保持し、人差し指と中指でそれぞれ第1の操作体33を保持して物品を掴んだのと同じ動作が行われる。制御部からケース21の内部のモータに制御信号が与えられ、第1の操作体33と第2の操作体43の反力が指に与えられる。このとき指に対して物体の硬質感や軟質感または弾力感を模した反力を与えることができる。

Description

触覚再現装置
 本発明は、手で入力装置に指を触れたときに、所定の物体に指を触れたことを模した反力を受けることができる触覚再現装置に関する。
 特許文献1に仮想空間表示装置に関する発明が記載されている。
 この仮想空間表示装置は、端末通信部とサーバーとで通信可能とされており、端末通信部に液晶ディスプレイと入力部とを含むタッチパネルが装備されている。
 サーバーからの通信により、タッチパネルの液晶ディスプレイにショッピングモールの画像が表示される。ユーザがタッチパネルをドラッグすると、表示されているショッピングモール内の情景を移動させることができ、ショッピングモールの画面内の商品サムネイルをユーザがタップすると、商品の詳細情報が画面に表示される。ユーザは、購入する予定の商品をストックエリアに一時的に集めておくことができ、ストック商品について決済処理を行うことで、商品を購入できるようになっている。
特開2012-234355号公報
 特許文献1に記載された仮想空間表示装置では、ショッピングモールのストアに表示されている商品の価格や色を確かめ、さらに商品の詳細情報を参酌して購入しようとする商品を探すことができる。
 しかし、実際に商品に触れることができないので、その商品の大きさや質感などを手で感じることはできない。
 本発明は、上記従来の課題を解決するものであり、所定の物体に手で触れたときの触覚を模した反力を機械的に生成することができる触覚再現装置を提供することを目的としている。
 本発明の触覚再現装置は、入力装置と制御部とを有し、
 前記入力装置には、指で押圧操作可能で進退移動する操作体と、前記操作体の移動位置を検知する検知部材と、前記操作体に力を与えるモータとが設けられ、
 前記制御部には、所定の被接触物の触覚に関する情報が保持されており、
 制御部では、前記検知部材からの検知信号に基づいて前記操作体が指で押されたことが検知されると、前記操作体から指に対して前記被接触物の触覚を模した反力が与えられるように、前記モータの出力が制御されることを特徴とするものである。
 また、本発明の触覚再現装置では、前記制御部に、前記被接触物の大きさに関する情報が保持されており、前記検知部材からの検知信号によって、指が前記被接触物に触れるまでの移動量に相当する距離を前記操作体が移動したことが前記制御部で検知されると、その検知位置で前記操作体から指に反力が発生し始めるように、前記モータの出力が制御される。
 本発明の触覚再現装置は、前記入力装置に、前記入力装置の姿勢を検知する姿勢検知部が設けられているものが好ましい。
 本発明の触覚再現装置は、前記表示パネルに前記被接触物の模式画像と手の模擬画像が表示され、前記表示パネルに表示されている画面の状況に応じて、前記表示パネルに表示されている手と指の模式画像が変化し、前記入力装置では、手と指の模式画像の変化に対応するように前記入力装置の前記操作体の突出位置または前記操作体から指に与えられる反力が変化することが好ましい。
 例えば、前記表示パネルにメニュー画像とリスト画像の少なくとも一方が表示されるとともに、手の模式画像はいずれかの指が前記メニュー画像またはリスト画像を指示するように変化し、これに応じて前記入力装置では、前記メニュー画像またはリスト画像を指示している指が触れている前記操作体が操作可能な位置に設定される。
 この場合に、前記指の模式画像でメニュー画像またはリスト画像のいずれかを選択し、前記指で前記操作体が押されると、決定動作となる。
 本発明の触覚再現装置では、前記入力装置に、前記操作体と検知部材およびモータとから成る触覚発生ユニットが複数組設けられているものとして構成できる。
 例えば、本発明の触覚再現装置は、前記入力装置がケースを有し、前記ケースには、第1の方向で互いに相反する側に向けられた第1の面と第2の面が設けられており、前記第1の面と前記第2の面とで、前記触覚発生ユニットに設けられた前記操作体の突出方向が逆向きである。
 この場合に、前記第1の面に第1の操作体が複数個並んで突出し、前記第2の面に第2の操作体が1個突出しており、前記第1の操作体の配列方向を第2の方向としたときに、個々の前記第1の操作体の第2の方向の長さ寸法に対し、前記第2の操作体の第2の方向の長さ寸法の方が大きいことが好ましい。
 また、1個の前記第2の操作体と、複数の前記第1の操作体とが、第1の方向において対向していることが好ましい。
 さらに、本発明の触覚再現装置は、前記第1の方向と前記第2の方向の双方に交差する方向である第3の方向のいずれの側からであっても、親指で前記第2の操作体を保持し、親指以外の複数の指で前記第1の操作体を保持することが可能であることが好ましい。
 上記においては、前記表示パネルに物体の模式画像が表示され、前記入力装置は、前記物体の模式画像を指で掴んでいる状態に対応するようにそれぞれの前記操作体の突出位置またはそれぞれの前記操作体から指に与えられる反力が決められるものとして構成できる。
 本発明の触覚再現装置は、操作体を指で触ると、所定の物体に触れたのと同じ触覚を指で感じることができ、被接触物の硬さや柔らかさ、反発力などを感じることができる。
 本発明の触覚再現装置に使用される入力装置は、ケースから複数の操作体が突出する構造にでき、物体を指で摘まんだり、手で掴んだり、あるいは指で押すのと同じ操作を行うことができ、この操作の際に物体の触覚を模した反力を感じることができる。
 また、所定の物体の模式画像を表示し、操作体を保持している指に相当する指の模式画像が前記被接触物を保持しているように表示することで、視覚的にも物体の触覚を感じることができるようになる。
本発明の実施の形態の触覚再現装置を使用している例を示す説明図、 図1に示す触覚再現装置に設けられた入力装置を示すものであり、(A)は上方から見た斜視図、(B)は下方から見た斜視図、 図2に示す入力装置の分解斜視図、 図2に示す入力装置に設けられた触覚発生ユニットを示す斜視図、 本発明の実施の形態の触覚再現装置の構成を示すブロック図、 実施の形態の触覚再現装置の使用例を示しており、1つの指で表示画面のメニュー表示を指さしているときの表示画像を示す説明図、 実施の形態の触覚再現装置の使用例を示しており、2つの指で物体を摘まむときの触覚を再現している表示画像を示す説明図、 実施の形態の触覚再現装置の使用例を示しており、複数の指で物体を掴むときの触覚を再現している表示画像を示す説明図、 実施の形態の触覚再現装置の使用例を示しており、1つ指で物体を押すときの触覚を再現している表示画像を示す説明図、 操作体の移動距離と反力との関係を示す反力作用線の一例を示す線図、 操作体の移動距離と反力との関係を示す反力作用線の一例を示す線図、 (A)は操作体の移動距離と反力との関係を示す反力作用線の一例を示す線図、(B)は(A)を再現するためのモータへの通電例を示す線図、 操作体の移動距離と反力との関係を示す反力作用線の一例を示す線図、
<全体の構造>
 図1には、本発明の触覚再現装置1を使用している状態が示されている。
 触覚再現装置1は、装置本体10と入力装置20とから構成されている。図1では、同じ入力装置20が2個使用され、一方の入力装置20が右手で使用され、他方の入力装置20が左手で使用されている。ただし、触覚再現装置1の使用例としては、入力装置20を1個のみ使用し片手で操作してもよい。
 装置本体10は、目の前方に装着するマスク型本体11と、このマスク型本体11を頭部に装着するためのストラップ12を有している。
 図5のブロック図に示すように、装置本体10のマスク型本体11には、表示パネル13が設けられている。表示パネル13は、操作者の目の前方に設置されて目視可能となっている。マスク型本体11の内部には、表示パネル13を駆動するための表示パネルドライバー14と、表示パネルドライバー14の表示形態を制御する制御部15とが設けられている。制御部15はCPUとメモリを主体として構成されている。またマスク型本体11には、制御部15とそれぞれの入力装置20との間で信号を授受するためのインターフェース16が設けられている。
 なお、前記表示パネル13はマスク型本体11に設けられるものに限られず、表示パネルが、テーブル上などに設置されるものであって、例えばパーソナルコンピュータの表示画面やテレビジョンの表示画面、あるいはゲーム装置の表示画面として使用されているものであってもよい。
 図2(A)には入力装置20を上方から外観が斜視図で示され、図2(B)には入力装置20を下方から見た外観が斜視図で示されている。図3は、入力装置20の分解斜視図である。図4には、入力装置20に内蔵されている第1の触覚発生ユニット30の構造が示されている。図2(A)と図3および図4には、入力装置20を基準としたX-Y-Z座標が示されている。入力装置20はZ方向が第1の方向であり、Y方向が第2の方向であり、X方向が第3の方向である。
 図1に示す使用例では、入力装置20は、第2の方向であるY方向が上下に向けられた姿勢となって両手で保持されている。
 図2に示すように、入力装置20は合成樹脂製のケース21を有している。ケース21は片手で保持可能な大きさである。ケース21は上部ケース22と下部ケース23とが組み合わされて構成されている。図3に示すように、上部ケース22と下部ケース23は、第1の方向であるZ方向に分割可能である。上部ケース22と下部ケース23は、ねじ止め手段などで互いに固定されており、2つのケース22,23の内部に機構収納空間が形成されている。
 上部ケース22はZ方向に向く表面が第1の面22aであり、下部ケース23はZ方向に向く表面が第2の面23aである。図3に示すように、上部ケース22には、第1の面22aでZ方向に貫通する操作穴24,24が開口している。下部ケース23には、第2の面23aをZ方向に貫通する操作穴25が開口している。操作穴24,24は第2の方向(Y方向)に並んで形成されており、第2の方向(Y方向)での開口寸法は、操作穴25が個々の操作穴24よりも大きくなっている。
 上部ケース22の第2の方向(Y方向)に向く端面には、コネクタ装着穴26が開口しており、下部ケース23のY方向に向く端面には、電源プラグ装着穴27が開口している。
 図3に示すように、ケース21の内部の機構収納空間に、機構シャーシ28が収納されている。機構シャーシ28は、金属板から折り曲げられて、X-Y平面と平行な取付け板部28aと、Y-Z平面と平行な区分板部28bとが形成されている。
 区分板部28bの第3の方向(X方向)の一方の側に、複数組の第1の触覚発生ユニット30が固定されている。実施の形態の入力装置20では、第1の触覚発生ユニット30が第2の方向(Y方向)に並んで2組配置されている。区分板部28bのX方向の他方の側には、第2の触覚発生ユニット40が1組配置されている。
<触覚発生ユニットの構造>
 図4には、第1の触覚発生ユニット30の構造が示されている。
 第1の触覚発生ユニット30は、金属板30を折り曲げたフレーム31を有している。このフレーム31が区分板部28bに取付けられることで、機構シャーシ28に第1の触覚発生ユニット30が搭載されている。
 フレーム31に移動部材32が設けられている。移動部材32は合成樹脂材料で形成されており、その先部に第1の操作体33が固定されている。第1の操作体33は合成樹脂材料で形成されている。図2に示すように、第1の操作体33は、上部ケース22に形成された操作穴24から外部に突出している。
 フレーム31の一方の側板部31aには第1の方向(Z方向)に延びる案内長穴31cが形成され、移動部材32の側部には摺動突部32aが一体に形成されている。摺動突部32aが案内長穴31cの内部を摺動することで、移動部材32がフレーム31上で第1の方向(Z方向)へ移動自在に支持されている。移動部材32は凹部32bを有している。この凹部32bの内部では、移動部材32とフレーム31の下端部との間の圧縮コイルばね34が介在している。この圧縮コイルばね34の弾性力によって、移動部材32は第1の操作体33が上部ケース22から突出する方向であるZ方向の図示上方に向けて付勢されている。
 フレーム31の一方の側壁部31aにモータ35が固定されている。モータ35の出力軸には出力歯車36aが固定されている。側壁部31aの外面に減速歯車36bが回転自在に支持されており、出力歯車36aと減速歯車36bとが噛み合っている。フレーム31の側壁部31aにギヤボックス37が固定されており、ギヤボックス37の内部に減速機構が収納されている。前記減速歯車36bの回転力は、ギヤボックス37内の減速機構で減速される。ギヤボックス37内の減速機構は、太陽歯車と遊星歯車などから構成されている。
 ギヤボックス37の減速出力軸にピニオン歯車37aが固定されている。移動部材32には厚肉部の表面にラック部32cが形成されており、ピニオン歯車37aとラック部32cとが噛み合っている。ピニオン歯車38aの歯部とラック部32cの歯部は、移動部材32の移動方向と直交するY方向に対して傾けられたはす歯である。
 前記圧縮コイルばね34を設けることで、ピニオン歯車38aとラック部32cとのバックラッシュを解消することができる。ただし、圧縮コイルばね34が設けられていないものであってもよい。
 フレーム31の他方の側壁部31bにエンコーダ38が固定されている。エンコーダ38は、側壁部31bに固定されたステータ部と、ステータ部に対向して回転するロータ部とを有する検知部材である。ロータ部に設けられたロータ軸がピニオン歯車37aと一緒に回転する。エンコーダ38は抵抗変化式であり、ステータ部に円弧状の抵抗体パターンが設けられ、ロータ部に前記抵抗体パターンを摺動する摺動子が設けられている。なお、エンコーダ38は磁気検知型であって、ロータ部に回転マグネットが固定され、ステータ部にGMR素子などの磁気検知素子が設けられて、ロータ部の回転角度が磁気検知素子によって検知される検知部材であってもよい。または、エンコーダ38は、光学式のエンコーダであってもよい。
 図3に示すように、機構シャーシ28の区分板部28bの他方の側に第2の触覚発生ユニット40が設けられている。
 第2の触覚発生ユニット40は、第1の触覚発生ユニット30と基本的な構造が同じである。第2の触覚発生ユニット40は、フレーム41に移動部材42がZ方向へ移動自在に支持されており、移動部材42の先部に第2の操作体43が固定されている。第2の操作体43は、下部ケース23の操作穴25から図示下方へ突出している。移動部材42は圧縮コイルばね44によって、第2の操作体43が操作穴25から突出する方向へ付勢されている。
 フレーム41にはモータ45が固定されており、モータ45の出力軸に固定された出力歯車46aが減速歯車46bと噛み合っている。前記減速歯車46bの回転力は、ギヤボックス47内の減速機構で減速され、その減速出力がピニオン歯車から、移動部材42に形成されたラック部に伝達される。そしてピニオン歯車の回転がエンコーダ48で検知される。
 図3に示すように、ケース21の内部には、信号コネクタ17と電源プラグ29が内蔵されている。信号コネクタ17は、上部ケース22に形成されたコネクタ装着穴26の内部に露出しており、電源プラグ29は、下部ケース23に形成された電源プラグ装着穴27の内部に露出している。
 図5のブロック図に示すように、それぞれの入力装置20の内部にはモータドライバ51が設けられている。第1の触覚発生ユニット30に設けられたモータ35と、第2の触覚発生ユニット40に設けられたモータ45は、モータドライバ35によって回転駆動される。前記信号コネクタ17はUSBインターフェースであり、図5では、入力装置20に設けられているインターフェースに、図3に示す信号コネクタ17と同じ符号17を付している。
 図1に示すように、装置本体10のインターフェース16と、個々の入力装置20のインターフェース17とがコード52で接続されている。このコード52には電源ラインが含まれており、電源ラインが電源プラグ29に接続されている。この電源ラインを通じて装置本体10から入力装置20に電力が供給される。
 なお、装置本体10とそれぞれの入力装置20とがRF信号によって通信可能とされており、入力装置20に電池が内蔵されていてもよい。この場合には、装置本体10と入力装置20とを繋ぐコード52が不要である。
 また、装置本体10は、さらにサーバーとの通信機能を有しているものが好ましい。
 次に、前記触覚再現装置1の操作方法と動作について説明する。
<手による入力装置20の保持>
 図2に示すように、入力装置20は、ケース21の第1の面22aに複数の第1の操作体33が突出し、第2の面22bに1個の第2の操作体43が突出しており、第1の操作体33と第2の操作体43が、第1の方向(Z方向)において互いに逆向きに突出している。よって、図1に示すように、親指で第2の操作体43を押し、人差し指と中指でそれぞれ第1の操作体33,33を押すようにして、片手で入力装置20を保持することが可能である。
 複数の第1の操作体33は第2の方向(Y方向)に向けて並んでいるが、第2の操作体43のY方向の長さ寸法は、第1の操作体33のY方向の長さ寸法よりも大きくなっている。その結果、2個の第1の操作体33,33は、共に第2の操作体43と第1の方向(Z方向)において対向している。そのため、人差し指と中指で第1の操作体33,33を押している状態で、親指によって広い範囲で第2の操作体43を保持することが可能である。
 また、第1の操作体33,33と第2の操作体43は、ケース21においてX方向(第3の方向)の中央部に位置している。入力装置20はX-Z面に対してほぼ面対称で、Y-Z面に対してほぼ面対称である。そのため、入力装置20をX方向の図示右側からでも、左側からでも同様に保持することが可能である。よって、取扱いが容易である。
<入力装置20の動作>
 入力装置20では、制御部15からモータドライバ51に制御指令が与えられ、第1の触覚発生ユニット30のモータ35と第2の触覚発生ユニット40のモータ45とが前記制御指令に基づいて動作させられる。モータ35とモータ45の回転を制御することにより、移動部材32と移動部材42を任意の位置へ移動させて、その位置で停止させることができる。例えば、操作体33と操作体43をケース21から最大限まで突出させた位置で停止させることができ、または操作体33と操作体33をケース21の内部に最大限に後退させた位置で停止させることができる。また、操作体33と操作体43を最大突出位置と最大後退位置の途中の任意の位置で停止させることもできる。
 そして、モータ35とモータ45に与えられる電力を制御することにより、ケース21から突出している操作体33または操作体43を指で押しても動かないように、モータ35,45のロータを強い力で保持させることができる。
 移動部材32と移動部材42とが移動できる状態のときに、操作体33または操作体43が押され、移動部材32または42が押し込み方向へ移動すると、エンコーダ38またはエンコーダ48からの検知出力が制御部15に与えられ、制御部15において、操作体33または操作体43の移動位置が認識される。制御部15には、移動距離と反力との関係を示す反力作用線(反力作用係数)が保持されており、操作体43または操作体43の移動位置に応じて、モータ35またはモータ45が前記反力作用線に応じたトルクを発生し、操作体33または操作体43から指へ反力が与えられる。
<触覚再現装置1で生成される触覚反力>
 触覚再現装置1では、模擬的に手で保持しようとする対象である物体の形状と大きさ、その表面の硬質感や軟質感さらには弾性感などの情報が制御部15に保持される。
 例えば、所定の商品群をそろえた商品カタログ内の複数の商品に関する前記情報が制御部15に保持される。これら情報は、インターネットなどを通じ、サーバーから制御部15にダウンロードされる。あるいは、商品カタログなどを記憶した記憶媒体を装置本体10に接続することで、物体の情報を制御部15に保持させてもよい。
 図6に示すように、触覚再現装置1を始動すると、表示パネル13に表示動作を行わせるためのメニュー画像Mvや商品カタログのリスト画像Lvが表示される。その表示内容を見ながら入力装置20を動かすことで、メニュー選択やリスト選択を行うことができ、表示させるべきいずれかの商品を選択することができる。
 触覚再現装置1では、表示パネル13に表示されている画面の状況に応じて、入力装置20において、ケース21からの各操作体33,34の突出位置または前記操作体33,34から指に与えられる反力が変化する。
 表示パネル13の表示画像が図6のようなメニュー表示のときには、表示画面に現れている手Hの模式画像は、人差し指F2のみが延び、他の指は閉じているように表示される。これに対応させるように、制御部15から入力装置20に状態設定指令が与えられ、入力装置20は人差し指で保持されている1つの第1の操作体33のみが操作可能または動作可能になり、他の第1の操作体33と第2の動作体43は、ケース21からあまり突出しないように後退させられ、あるいは人差し指以外の指で保持されている操作体33,43は、モータ35,45の負荷が大きくなって動かないように設定される。
 図5に示すように、入力装置20には姿勢検知部53が設けられている。姿勢検知部53は、例えば地磁気センサを検知する磁気センサであり、あるいは振動型ジャイロ装置であり、入力装置20の操作空間内での姿勢や操作空間上での位置を検知することができる。
 表示パネル13に表示された商品カタログを見ながら、入力装置20を移動させさらにその姿勢を変化させると、表示画面内の手Hの模式画像が移動し、人差し指F2でメニュー画像Mvまたはリスト画像Lvのいずれかが選択され、その選択操作で表示させるべき商品が選択される。そして、操作体33が人差し指で押されると、その動作がエンコーダ38で検知され、エンコーダ38からの検知信号が制御部15に送られる。これにより、制御部15で第1の操作体33が押されたことが検知されて、商品の選択が決定される。
 なお、図6に示すメニュー画像Mvまたはリスト画像Lvを選択し、決定する操作は、人差し指の代わりに、中指や親指の操作で行えるようにしてもよい。
 図6に示す表示形態では、メニュー画像Mvまたはリスト画像Lvが被接触物となる。
 商品が選択されると、その商品が手で触るべき被接触物である物体として特定される。図7ないし図9に示すように、手で触る物体が特定されると、表示パネル13に、特定された物体W1またはW2あるいはW3の画像と、操作者の手Hを模した模式画像が表示される。
 手で保持している入力装置20の空間内での位置や姿勢は前記姿勢検知部53で検知され、その検知情報が制御部15に与えられる。制御部15では、入力装置20の姿勢に対応して表示パネル13に表示されるべき模式画像が生成され、表示パネル13に表示される手Hの模式画像や指の模式画像の位置と姿勢が、入力装置20の位置と姿勢に対応して変化させられる。
 なお、表示パネル13に、各種ショップの画像が表示され、入力装置20を手で持って操作し、表示されているショップに陳列されているいずれかの商品を選択して、手で触る物体として特定することもできる。
 図7に示す物体W1は、親指F1と人差し指F2で摘まむことができる大きさである。表示パネル13では、親指F1の模式画像と人差し指F2の模式画像とで物体W1が掴まれているように表示される。
 図7の表示例では、親指F1と人差し指F2のみで物体W1が摘ままれているため、表示パネル13に表示されている手Hの模式画像では、中指やその他の指が閉じられているように表示される。
 この場合には、制御部15から入力装置20のモータドライバ51に状態設定指令が与えられ、親指F1が触れている第2の操作体43と、人差し指F2が触れている一方の第1の操作体33が操作可能になる。中指に対向する第1の操作体33に関しては、第1の触覚発生ユニット30のモータ35を動作させて、中指が対向している第1の操作体33をケース21の第1の面22aから突出しないように後退させておく。あるいは、前記第1の触覚発生ユニット30のモータ35にロータが容易に回転しないように大きな負荷を与えておき、中指が触れている第1の操作体33が動かないようにしておく。
 すなわち、前記表示パネル13に表示されている物体の種類に応じて、前記入力装置20では、前記ケース21からの前記操作体33,43の突出位置または前記操作体33,43から指に与えられる反力が変化するようになっている。
 実際の指で第1の操作体33と第2の操作体43が押されるとその位置情報がエンコーダ38,48から制御部15に与えられ、制御部15では、第1の操作体33と第2の操作体43の接近距離に応じて、表示パネル13に表示されている親指F1の模式画像と人差し指F2の模式画像が互いに接近するように、表示状態が制御される。
 すなわち、前記入力装置20に設けられた前記操作体33,43の動きに応じて、手と指の模式画像の動きが変化する。
 人差し指F2が触れている第1の触覚発生ユニット30のエンコーダ38からの検知信号と、親指F1が触れている第2の触覚発生ユニット40のエンコーダ48からの検知信号は制御部15に与えられ、制御部15では、物体W1の形状ならびに大きさの情報と、エンコーダ38,48からの検知信号とが比較される。親指F1と人差し指F2で、第2の操作体43と第1の操作体33を押し始めたときは、モータ35,45の回転負荷がほとんど生じないように設定され、親指F1と人差し指F2がほとんど負荷を感じることがなく、操作者は親指F1と人差し指F2が空間上で自由に動いているように感じる。
 エンコーダ38,48からの検知信号によって、親指F1と人差し指F2の間隔が、物体W1の大きさに該当する距離となったときに、制御部15からモータドライバ51に制御指定が与えられ、モータ35,45に回転負荷が与えられて、親指F1と人差し指F2に対して、あたかも物体W1を摘まんだかのような反力が与えられる。
 なお、親指F1と人差し指F2で、第2の操作体43と第1の操作体33を押し始めたときに、モータ35,45に弱い駆動力を発生させて、第2の操作体43と第1の操作体33に対して、その距離を接近させる方向への移動力を与え、親指F1と人差し指F2の間隔が物体W1の大きさに該当する距離となったときに、モータ35,45に負荷を与えてもよい。このように動作させると、親指F1と人差し指F2を操作し始めたときに指に抵抗が全くなくなるように感じさせることができ、また、圧縮コイルばね34,44の弾性力も打ち消すことができる。よって、親指F1と人差し指F2を空間内で自由に移動させて物体W1を摘まんだように感じさせやすくなる。
 あるいは、表示パネル13に表示されている物体W1の模式画像の形状と大きさに合わせて、人差し指F2が触れている第1の操作体33と、親指F1が触れている第2の操作体43のケース21からの突出位置が決められていてもよい。
 次に、図8に示す物体W2は、片手で保持できる大きさ、すなわち親指F1と人差し指F2および中指F3で保持できる大きさである。
 被接触部として物体W2が選択されて表示パネル13に物体W2の模式画像が表示されると、手Hや指の模式画像が、物体Wを保持するように状態に変化する。制御部15から入力部20に状態設定指令が与えられて、入力装置20が、物体W2の形状や大きさに応じて、または手の模式画像に合わせて変化し、入力装置20では、第1の操作体33と第2の操作体43の突出位置が設定される。これにより、実際の手で画面に表示されている物体W2を掴んでいるように感じることができる。
 この場合には、入力装置20に設けられた2つの触覚発生ユニット30に設けられたエンコーダ38,38からの検知出力と、触覚発生ユニット40に設けられたエンコーダ48からの検知出力が制御部15に与えられ、制御部15によって3個のモータ35,35,45が制御される。
 また、親指F1で第2の操作体43が押され、人差し指F2と中指F3で2つの第1の操作体33,33が押されると、押し始めたときは、モータ35,35,45に負荷が与えられず、あるいは操作体33,33と操作体34を互いに接近させる方向へ移動体32,32,42が移動させられ、指F1,F2,F3が空間内を移動しているかのように感じさせることができる。指F1,F2,F3の間隔が、物体W2の外形の該当する距離に一致したときに、モータ35,35,45に負荷が与えられる。これにより、指F1,F2,F3で物体W2を掴んだのと同じ感触の反力が発生するように制御することもできる。
 次に、図9に示す物体W3は、片手の人差し指F2で触ることができるものである。
 表示パネル13にこの物体W3の画像が表示されているときには、制御部15からの状態設定指令により、中指F3が触れている第1の触覚発生ユニット30のモータ35の回転負荷を大きくし、親指F1が触れている第2の触覚発生ユニット40のモータ45の回転負荷を大きくして、中指F3が触れている第1の操作体33と親指F1が触れている第2の操作体43を動かないようにしておき、人差し指F2が触れている第1の操作体33のみを動けるようにしておく。
 このようにして、入力装置20は、表示パネル13に表示されている物体(被接触物)W2の模式画像に合わせて、また手Hの模式画像に合わせて、操作体33,43の状態が設定される。
 実際に人差し指F2で物体W2に触れるときの動作では、入力装置20に内蔵されている姿勢検知部53によって、手の姿勢および位置が検知される。図9に示すように、表示パネル13に表示されている手Hの画像を見ながら、入力装置20を保持している手をその甲が上に向く姿勢とし、物体W3の画像に近づくように手を前方へ移動させる。この時点では、人差し指F2が触れている第1の触覚発生ユニット30のモータ35に負荷が与えられておらず、操作者に人差し指F2を空間内で自由に動かしているかのように感じさせる。そして、画像内で人差し指F2が物体W3の表面に触れたときに、前記第1の触覚発生ユニット30のモータ35の回転負荷を増大させ、人差し指F2が物体W3の表面に当たように感じさせる反力を第1の操作体33から人差し指F2に与える。
 この場合に、表示パネル18に表示されている手Hの模式画像では、図9に示すように、人差し指F2以外の指は閉じているように表示される。
<硬質感、軟質感、反発感など>
 制御部15では、エンコーダ38,48の検知信号を監視しており、図7ないし図9に示すように、指の間隔があたかも物体W1,W2を掴んだ距離となったと判定され、または指が移動してあたかも物体W3に触れる位置に至ったと判定されると、モータドライバ51に質感を感じさせるための制御信号が与えられる。そして、第1の操作体33と第2の操作体43から各指に与えられる反力の強さが制御されて、指に対して物体W1,W2,W3の硬質感や軟質感さらには弾力感を感じさせるための反力が与えられる。
 図10には、操作体33,43の押圧ストロークと、操作体33,43から指に与えられる反力との関係を示す反力作用線(反力作用係数)L1の一例が示されている。
 質感を感じさせる制御では、エンコーダ38,48からの検知出力によって、操作体33,43の位置が検知されると、反力作用線L1に基づいて、そのときの押圧ストロークとの関係で反力が決定される。図10に示す反力作用線L1では、指で操作体33,43が押し込まれるにしたがって指に感じる反力が大きくなる。
 例えば、操作体33,43の押圧ストロークが6mmに達すると、指にfaの反力が作用する。この反力faは、親指F1へ与えられる反力と人差し指F2に与えられる反力の合計であってもよいし、親指f1と人差し指F2の双方に同じ反力faが与えられてもよい。これは、親指F1と人差し指F2と中指F3に反力が与えられるときも同じである。また、図9に示すように、人差し指F2だけで物体W3が押されているときには、人差し指F2に反力faが与えられる。
 図10に示す反力作用線L1において、押圧ストローク6mmまで押し込んだ指の力を弱めると、そのときの反力faによって移動体32,32,42が突出方向へ駆動され、操作体33,43で指が押し戻される。その後は、押圧ストロークが5mm,4mm,3mmと戻っていくにしたがって、指に感じる反力が弱くなる。
 前記反力作用線L1が設定されると、指で摘まんだ物体W1,指で掴んだ物体W2または人差し指で押した物体W3が弾力性を有するよう感じさせることができる。なお、図10に示す反力作用線を変えることで、硬質感や軟質感そして弾力感を自由に設定することができる。
 図11に示す反力の設定では、操作体33,43を押していくときに指に与えられる反力作用線がL2と、操作体33,43が戻るときに指に与えられる反力作用線がL3とが異なる曲線で設定されている。
 この反力の設定では、例えば、指で操作体33,43を押してその押圧ストロークが5mm程度に達するまで、指に感じる反力は、反力作用線L2に従って徐々に大きくなる。押圧ストロークが5mmに達したときに指で操作体を押している力を弱めると、反力作用線L2で設定される反力で指が戻されるが、指と共に操作体33,43が戻されたことがエンコーダ38,48で検知されると、その後は、反力作用線L3に基づいて操作体33,43から指に戻し時の反力が与えられる。
 図11に示す反力の設定では、弾力があり、しかも押された後は戻りが遅くなるような粘性を有する弾力感を生じさせることができる。
 次に、図12(A)に示す反力作用線L4は、操作体33,43の押圧ストロークの増加にしたがって反力が徐々に大きくなっているが、この反力が短いサイクルで振動するように小刻みに変化している。すなわち、押圧ストロークが長くなるにしたがってモータ35,45へ通電される電力が大きくなって、反力が徐々に大きくなっていくが、このとき、モータへの通電は図12(B)に示すように、所定の周期で増減するように制御されている。通電周期は例えば10msec以下である。
 このように、モータ35,45のトルクを小刻みに変化させることで、操作体33,43から操作者の指に与えられる反力をねっとりした感触とすることができる。すなわち指で粘弾性体を押したのと類似した反力を得ることができる。このねっとり感は、図12(B)に示す通電サイクルの周期やデューティ比を変えることで設定することができる。
 図13に示す反力作用線L5,L6は、表示パネル13に表示されている物体が、電子機構部品であって例えばプッシュスイッチの場合の操作反力を模して設定されている。
 画面に現れているプッシュスイッチの操作ノブを人差し指で押しているかのうようにして、人差し指F2で第1の操作体33が押されると、押圧時には図13に示す反力作用線L5にしたがって反力が発生し、指の力を弱めると、反力作用線L6にしたがって指に反力が与えられる。
 これにより、画像として選択したプッシュスイッチの操作感触がどのようなものであるのか、指の感触として知ることが可能になる。
 なお、入力装置20の触覚発生ユニット30,40で発生させることができる指への反力として、例えば指で押し始めは反力が弾力性を発揮し、途中まで押すとその時点で反力が硬くなりそれ以上指で押せなくなるようにしてもよい。これは、人での手の表面を指で押したときの感触を模したものとなる。
 また、操作体33,43を振動させて、その振動を指に感じさせることで、あたかも指で小動物を触っているかのような反力を得ることもできる。
W1,W2,W3 物体
1 触覚再現装置
10 装置本体
11 マスク型本体
13 表示パネル
15 制御部
20 入力装置
21 ケース
22a 第1の面
23a 第2の面
24,25 操作穴
28 機構シャーシ
30 第1の触覚発生ユニット
32 移動部材
33 第1の操作体
35 モータ
38 エンコーダ(検知部材)
40 第2の触覚発生ユニット
42 移動体
43 第2の操作体
45 モータ
48 エンコーダ
W1,W2,W3 物体
L1,L2,L3,L4,L5,L6 反力作用線

Claims (12)

  1.  入力装置と制御部とを有し、
     前記入力装置には、指で押圧操作可能で進退移動する操作体と、前記操作体の移動位置を検知する検知部材と、前記操作体に力を与えるモータとが設けられ、
     前記制御部には、所定の被接触物の触覚に関する情報が保持されており、
     制御部では、前記検知部材からの検知信号に基づいて前記操作体が指で押されたことが検知されると、前記操作体から指に対して前記被接触物の触覚を模した反力が与えられるように、前記モータの出力が制御されることを特徴とする触覚再現装置。
  2.  前記制御部には、前記被接触物の大きさに関する情報が保持されており、前記検知部材からの検知信号によって、指が前記被接触物に触れるまでの移動量に相当する距離を前記操作体が移動したことが前記制御部で検知されると、その検知位置で前記操作体から指に反力が発生し始めるように、前記モータの出力が制御される請求項1記載の触覚再現装置。
  3.  前記入力装置に、前記入力装置の姿勢を検知する姿勢検知部が設けられている請求項1または2記載の触覚再現装置。
  4.  前記表示パネルに前記被接触物の模式画像と手の模擬画像が表示され、前記表示パネルに表示されている画面の状況に応じて、前記表示パネルに表示されている手と指の模式画像が変化し、前記入力装置では、手と指の模式画像の変化に対応するように前記入力装置の前記操作体の突出位置または前記操作体から指に与えられる反力が変化する請求項1ないし3のいずれかに記載の触覚再現装置。
  5.  前記表示パネルにメニュー画像とリスト画像の少なくとも一方が表示されるとともに、手の模式画像はいずれかの指が前記メニュー画像またはリスト画像を指示するように変化し、これに応じて前記入力装置では、前記メニュー画像またはリスト画像を指示している指が触れている前記操作体が操作可能な位置に設定される請求項4記載の触覚再現装置。
  6.  前記指の模式画像でメニュー画像またはリスト画像のいずれかを選択し、前記指で前記操作体が押されると、決定動作となる請求項5記載の触覚再現装置。
  7.  前記入力装置には、前記操作体と検知部材およびモータとから成る触覚発生ユニットが複数組設けられている請求項1ないし3のいずれかに記載の触覚再現装置。
  8.  前記入力装置はケースを有し、前記ケースには、第1の方向で互いに相反する側に向けられた第1の面と第2の面が設けられており、前記第1の面と前記第2の面とで、前記触覚発生ユニットに設けられた前記操作体の突出方向が逆向きである請求項7記載の触覚再現装置。
  9.  前記第1の面に第1の操作体が複数個並んで突出し、前記第2の面に第2の操作体が1個突出しており、前記第1の操作体の配列方向を第2の方向としたときに、個々の前記第1の操作体の第2の方向の長さ寸法に対し、前記第2の操作体の第2の方向の長さ寸法の方が大きい請求項8記載の触覚再現装置。
  10.  1個の前記第2の操作体と、複数の前記第1の操作体とが、第1の方向において対向している請求項9記載の触覚再現装置。
  11.  前記1の方向と前記第2の方向の双方に交差する方向である第3の方向のいずれの側か
    らであっても、親指で前記第2の操作体を保持し、親指以外の複数の指で前記第1の操作体を保持することが可能である請求項9または10記載の触覚再現装置。
  12.  前記表示パネルに物体の模式画像が表示され、前記入力装置は、前記物体の模式画像を指で掴んでいる状態に対応するようにそれぞれの前記操作体の突出位置またはそれぞれの前記操作体から指に与えられる反力が決められる請求項4
    記載の触覚再現装置。
PCT/JP2016/066563 2015-07-08 2016-06-03 触覚再現装置 WO2017006670A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017527128A JP6588547B2 (ja) 2015-07-08 2016-06-03 触覚再現装置
EP16821141.5A EP3321774A1 (en) 2015-07-08 2016-06-03 Tactile sensation reproduction device
CN201680039978.6A CN107735750A (zh) 2015-07-08 2016-06-03 触觉再现装置
US15/861,869 US20180129288A1 (en) 2015-07-08 2018-01-04 Tactile-sensation-reproducing apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015137054 2015-07-08
JP2015-137054 2015-07-08

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/861,869 Continuation US20180129288A1 (en) 2015-07-08 2018-01-04 Tactile-sensation-reproducing apparatus

Publications (1)

Publication Number Publication Date
WO2017006670A1 true WO2017006670A1 (ja) 2017-01-12

Family

ID=57684992

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/066563 WO2017006670A1 (ja) 2015-07-08 2016-06-03 触覚再現装置

Country Status (5)

Country Link
US (1) US20180129288A1 (ja)
EP (1) EP3321774A1 (ja)
JP (1) JP6588547B2 (ja)
CN (1) CN107735750A (ja)
WO (1) WO2017006670A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018143418A1 (ja) * 2017-02-06 2018-08-09 アルプス電気株式会社 触覚呈示装置

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6595597B2 (ja) * 2015-07-29 2019-10-23 京セラ株式会社 ウェアラブル装置、制御方法及び制御プログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010020526A (ja) * 2008-07-10 2010-01-28 Ritsumeikan 操作システム
JP2010102560A (ja) * 2008-10-24 2010-05-06 National Institute Of Information & Communication Technology 把持感覚提示装置
JP2011048651A (ja) * 2009-08-27 2011-03-10 National Institute Of Information & Communication Technology 把持感覚提示装置
JP2011059862A (ja) * 2009-09-08 2011-03-24 National Institute Of Information & Communication Technology 非接地型力覚提示装置
JP2013080327A (ja) * 2011-10-03 2013-05-02 Sony Corp 力覚提示装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN202694260U (zh) * 2012-05-10 2013-01-23 孙晓颖 一种基于静电力触觉再现的装置
WO2014083751A1 (ja) * 2012-11-30 2014-06-05 パナソニック株式会社 触感呈示装置および触感呈示方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010020526A (ja) * 2008-07-10 2010-01-28 Ritsumeikan 操作システム
JP2010102560A (ja) * 2008-10-24 2010-05-06 National Institute Of Information & Communication Technology 把持感覚提示装置
JP2011048651A (ja) * 2009-08-27 2011-03-10 National Institute Of Information & Communication Technology 把持感覚提示装置
JP2011059862A (ja) * 2009-09-08 2011-03-24 National Institute Of Information & Communication Technology 非接地型力覚提示装置
JP2013080327A (ja) * 2011-10-03 2013-05-02 Sony Corp 力覚提示装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018143418A1 (ja) * 2017-02-06 2018-08-09 アルプス電気株式会社 触覚呈示装置

Also Published As

Publication number Publication date
US20180129288A1 (en) 2018-05-10
EP3321774A1 (en) 2018-05-16
CN107735750A (zh) 2018-02-23
JPWO2017006670A1 (ja) 2018-04-05
JP6588547B2 (ja) 2019-10-09

Similar Documents

Publication Publication Date Title
Sinclair et al. Capstancrunch: A haptic vr controller with user-supplied force feedback
Choi et al. Claw: A multifunctional handheld haptic controller for grasping, touching, and triggering in virtual reality
Whitmire et al. Haptic revolver: Touch, shear, texture, and shape rendering on a reconfigurable virtual reality controller
US10564730B2 (en) Non-collocated haptic cues in immersive environments
US6636161B2 (en) Isometric haptic feedback interface
Teng et al. Touch&fold: A foldable haptic actuator for rendering touch in mixed reality
JP2019192242A (ja) 没入型現実インターフェースモードを提供するシステム、デバイス及び方法
US20110148607A1 (en) System,device and method for providing haptic technology
WO1998008159A2 (en) Force feedback mouse
JP6588547B2 (ja) 触覚再現装置
KR102234776B1 (ko) 햅틱 휠을 이용한 vr 또는 게임 컨트롤러 및 그 제어 방법, 이를 구비한 vr 시스템
WO2017006671A1 (ja) 触覚再現装置
CN113508355A (zh) 虚拟现实控制器
Arasan et al. Haptic stylus with inertial and vibro-tactile feedback
JP6571539B2 (ja) 触覚再現装置
JP6567087B2 (ja) 触覚再現装置
JP6594990B2 (ja) 触覚再現装置
JP6554605B2 (ja) 触覚再現装置およびその制御方法
WO2017061178A1 (ja) 触覚再現装置
JP6474115B2 (ja) 触覚再現装置
WO2015045755A1 (ja) 触力覚提示装置、情報端末、触力覚提示方法、およびコンピュータ読み取り可能な記録媒体
WO2018042718A1 (ja) 操作装置および前記操作装置を使用した触覚再現装置
Paley Designing special-purpose input devices
Teng et al. Experience Haptics Seamlessly Across Virtual and Real Worlds

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16821141

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017527128

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2016821141

Country of ref document: EP