WO2011107278A1 - Verfahren und vorrichtung zur steuerung eines roboters - Google Patents

Verfahren und vorrichtung zur steuerung eines roboters Download PDF

Info

Publication number
WO2011107278A1
WO2011107278A1 PCT/EP2011/001045 EP2011001045W WO2011107278A1 WO 2011107278 A1 WO2011107278 A1 WO 2011107278A1 EP 2011001045 W EP2011001045 W EP 2011001045W WO 2011107278 A1 WO2011107278 A1 WO 2011107278A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
governor
actuators
sensors
signals
Prior art date
Application number
PCT/EP2011/001045
Other languages
English (en)
French (fr)
Inventor
Marcel Reese
Original Assignee
Marcel Reese
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Marcel Reese filed Critical Marcel Reese
Publication of WO2011107278A1 publication Critical patent/WO2011107278A1/de

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J3/00Manipulators of master-slave type, i.e. both controlling unit and controlled unit perform corresponding spatial movements
    • B25J3/04Manipulators of master-slave type, i.e. both controlling unit and controlled unit perform corresponding spatial movements involving servo mechanisms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0006Exoskeletons, i.e. resembling a human figure
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality

Definitions

  • the present invention relates to the control of a governor by a user.
  • a corresponding user can be a human or another living being.
  • the governor to be controlled may be a real machine, a virtual machine, or some other virtual creature.
  • a preferred machine is a real or virtual robot.
  • This invention relates to the field of motion simulation.
  • Simulators are known, for example, as flight simulators for pilot training or for use in gaming halls. Different movements are applied to a human body while displaying a simulated environment.
  • exoskeletons are known. They are similar to orthotics that are for the support of individual limbs, such as for a hand or a
  • CONFIRMATION COPY Knee joint may be suitable.
  • Such an exoskeleton is described for example in DE 10 2007 035 401 A1.
  • Exoskeletons can support or enhance movements of the wearer by actively driving joints on the exoskeleton by servomotors. These are driven by sensor signals that are a measure of
  • Exoskeletons which are a type of robotic suit, are known by Raytheon Company (www.ravtheon.com, last accessed June 2010). These are essentially a portable robot that reinforces the power, endurance and maneuverability of the user. They include a combination of sensors, actuators and controls, allowing the user to carry a human on his back or lift heavy loads hundreds of times without getting tired. On the other hand, this suit is agile enough that its users can play football, climb a staircase and the like.
  • the movement of the robot is in the said article by means of a
  • governor such as a machine or a virtual being, allow, at which the governor understands essential movements that are given by a user.
  • signals are detected and evaluated by user sensors whose signals are a measure of positions, postures and / or movements of individual body parts of the user and / or a measure of the forces or torques acting on them.
  • Such sensors may, for example, be in direct or indirect contact with the user body and be designed as stretch marks, electrical sensors for muscle impulses or the like.
  • sensors are also possible which are located at some distance from the user and detect their positions and / or movements visually, acoustically, capacitively or the like.
  • the user sensor signals are used to control governor actuators that bring or move a governor in a predetermined position accordingly
  • a governor can in particular a real machine, a virtual
  • Machine or another virtual being is a preferred machine.
  • a preferred machine is a real or virtual robot. Such a position may be, for example, sitting, lying or the like. A movement can go, run etc. be.
  • Appropriate actuators may include electric motors, but also hydraulic or pneumatic elements.
  • the user sensor signals can also be detected and processed and used to control user actuators. This serves in particular when using an exoskeleton to reduce the user perceived weight forces and dynamic forces exerted by the exoskeleton on the user.
  • governor sensors that detect the positions and movements of the governor and / or on him from the outside or by themselves acting forces, torques or deformations.
  • These sensors can basically be designed and arranged similar to user sensors. Their signals are detected and processed in such a way that they serve to control user actuators that influence the user or individual parts of his body accordingly. Such an influence can on the one hand be the cause of a posture or movement by the application of forces and torques. But it is also possible that the user such forces, torques or deformations are exercised, which are comparable to a haptic feedback when touching an object.
  • the governor sensor signals can also be recorded and processed and used to control governor actuators. This serves in particular to make the user not feel the weight and the dynamic forces of the governor.
  • the user sensors detect the positions, positions, movements, forces and / or torques of at least one body part, such as a leg, an arm, a hand, a foot or the like, and a part, ie leg, arm, hand, foot or the like, the governor is moved accordingly.
  • the controlling body part and the controlled part may be similar, such as arm-arm, leg-leg and the like.
  • they it is also conceivable that they
  • exoskeletons are disparate, so that, for example, a user's hand controls a governor's leg.
  • the use of an exoskeleton is particularly advantageous if suitable actuators and / or sensors are contained therein. It is particularly advantageous if the user and the governor wear or use identical exoskeletons.
  • a suitable motion simulator is provided in one embodiment of the invention. This may for example be designed as (a) gimbals in conjunction with a translation unit, (b) stewart motion platform, (c) multi-axis industrial robots or (d) more spherical
  • the governor is designed as a real robot, or other real machine, various teleoperations are possible.
  • the user can control a robot, for example, in a life-threatening environment, such as in a radioactive space, in a combat mission or the like.
  • the task of such a system is therefore the applicability of real robots to areas and To broaden problems in which they can act autonomously or semi-autonomously, not or only to a limited extent. This includes, for example, locomotion of a robot in desert sand, swamps, forests, complex situations in buildings, interaction with sensitive organisms, etc.
  • Complex movements such as
  • the robot transmits its state, such as movements, forces, torques, etc., to the user via said sensors and actuators, it can adequately control the robot through its body control, which is possibly assisted by an exoskeleton.
  • Information can be obtained by the user on the basis of optical, acoustic or other impressions, which are recorded by means of suitable sensors in the area of the robot and appropriately processed and forwarded to the user.
  • the master robot is preferably designed as an exoskeleton for this purpose.
  • the number of degrees of freedom of the robots may generally be different.
  • Moving state of the slave experienced by the master The more realistic the user's impression of the slave's environment is, the greater is the "transparency" of the tele-operative connection, including the type of control and communication involved, and the bilateral teleoperation also allows multiple users to haptically interact or use multiple masters and a shared slave interact with the environment, especially the slave and slave environment can be simulated, so be virtually trained. It is also important to the user of the sensation of the immediate
  • the body weight of the user or of parts of the user should also be borne by the robots. Both, the (partial) isolation of the user of master and slave properties, as well as the (partial) removal of his body weight by the robot, is established by so-called gravity compensation.
  • Teleoperation methods commonly also use the scaling of distances and forces. This is especially important for non-identical master and slave robots. This means that a user can also experience larger or smaller forces and other distances (also angular distances) at the master than at the slave.
  • Position-force control means that the actual position of the master is transmitted to the slave, which uses it as a setpoint around its position
  • the forces and / or torques measured by the slave are then transmitted to the master, where they are used as desired forces and transmitted to the user by actuators.
  • the methods can only be realized with actuator sensors (angle, angular velocity, torque) or with additional force and torque sensors.
  • the invention then becomes easily applicable if it controls the reality or the virtual reality by the governor according to their laws. That means he has to get used to it.
  • a task of the user would then be to regulate, for example, the balance of the governor.
  • the governor will usually have a different geometry and body dynamics than the user. If, however, the body dynamics of the governor is transferred to the user through the use of a movement simulator, the latter notes, for example, by means of an equally accelerated movement of the head forward, that the governor begins to fall over. He must compensate for this with appropriate measures, such as shifting the governor's weight, using his own legs, which control the legs of the governor until the acceleration stops.
  • the user can never fall over himself in the exoskeleton in the movement simulator, as long as his governor does not fall over.
  • dynamic and static forces of the governor can be passed on to the user.
  • any linear or non-linear transformation between the parameter spaces of the governor and the user can be made. This can be used to speed up habituation or improve customization.
  • the regulation of the exoskeleton and the motion simulator can be effected by applying proven concepts and techniques of machine and robot kinematics as well as teleoperation.
  • the simulation of virtual worlds based on physical models has found widespread use in computer games, scientific simulation and film.
  • the same hardware and software can be used for efficient simulation of the necessary control signals and also for image calculation.
  • the governor can also be designed as a virtual being, as virtual
  • Robot or virtual creature in a video game or the like can serve the user to certain movements in To practice dependency on different environments that can also be represented virtually.
  • Another embodiment of the invention allows the user to experience predetermined influences. These can be movement sequences or other haptic impressions.
  • the user can experience a kind of haptic film, which can be supplemented accordingly by means of suitable output means for optical, acoustic and other signals.
  • suitable output means for optical, acoustic and other signals In the interaction between the user and the robot may be too
  • Time delays occur, which can be caused in particular by the response times of sensors and actuators, computing speed of control units and transit times of the various signals.
  • Time delays can be largely compensated if time derivatives of the quantities measured by the sensors are evaluated.
  • sensors such as ultrasound transducers, for example, are provided, which quickly detect the distance to the object in the manner of a parking aid , By using this data for contact prediction, the impression of a contact and a realistic feedback can be generated in time for the user.
  • Movement in partial or complete weightlessness is simulated.
  • This situation is very similar to weightlessness in space, but differs in the high damping of any movement through the fluid.
  • the actuators that move his body or individual parts of his body driven accordingly to support movements.
  • sub-water motion with scaled damping or motion in space without damping or the like can be simulated.
  • the transparency of the teleoperation with real or virtual machines, real or virtual robots or virtual beings in situations in space or under water or the like can thus be improved.
  • a further embodiment of the invention provides that the user in the master (user side) influences another user in the slave (governor side). Both users are preferably humans.
  • the master is designed here as an exoskeleton with rototranslator and the slave as a freely movable exoskeleton.
  • the master and slave are interconnected by a bilateral haptic connection of all or some body parts and other signals, such as acoustic or the like.
  • the degree of influence of the master by the slave and vice versa is controlled by the control unit, under default of the master and / or slave side. This makes it possible to accompany a user of a freely movable exoskeleton on the slave side from a distance and to support or to take over the control of the exoskeleton in whole or in part.
  • This embodiment is particularly interesting for training purposes in sports exercises or other tasks with high physical share.
  • a further embodiment of the invention provides that several users interact in their own user units via a common control unit with the same governor. Both users thus experience the state of the governor and can generally influence him cooperatively but to a different degree. Users can generally influence different functions and body parts of the governor. The users can thus share tasks of governing the governor, coping with them, or even participating in an observational and advisory role. This embodiment is particularly interesting for training purposes in sports exercises or other tasks with a high physical share. Further features and advantages of the invention are explained below with reference to preferred embodiments. Show
  • Fig. 1 A system for controlling a robot by means of an exoskeleton
  • Fig. 2 is a side view of a user in the exoskeleton
  • FIG. 1 symbolically illustrates a system that allows a user 10 to control a robot 110.
  • the user 10 is preferably a human with a corresponding body comprising a trunk 12 and arms 14, legs 16, feet 17 and a head 18.
  • a user exoskeleton 20 is attached, which is drawn hatched. This is located in particular on the arms 14, on the fuselage 12, on the back 13 (see FIG. 2), on the legs 16 and on the feet 17, which in the preferred embodiment do not touch the ground but only stop on the user exoskeleton 20.
  • This is designed such that it partially or completely encloses the body parts mentioned in such a way that it can detect and also influence movements of the body.
  • a helmet 22 which in the preferred embodiment is part of the exoskeleton 20 and in which a visual display unit 24 and an acoustic display unit 26 are included.
  • Display unit 24 generates different displays for the right and left eyes, such as LCD displays, projection devices, or the like, and thus can provide a stereo effect.
  • the acoustic reproduction unit 26 preferably comprises two headphones or loudspeakers, which may allow the user 10 a surround sound. Furthermore, a microphone 28
  • the robot 110 is here designed as a humanoid robot consisting essentially of a robot exoskeleton with corresponding body parts, such as robot body 112, robot arms 1 4, robot legs 16, robot feet 17 and robot head 118.
  • the robotic exoskeleton is at this preferred
  • Embodiment largely mechanically identical to the user exoskeleton 20.
  • the robot exoskeleton is connected to a work space which is subdivided into various chambers, which can be roughly designated as the trunk work space 130, the arms work space 132, the leg work space 134 and the head work space 136.
  • a work space which is subdivided into various chambers, which can be roughly designated as the trunk work space 130, the arms work space 132, the leg work space 134 and the head work space 136.
  • operating materials In these work spaces, operating materials , Aggregates, tools and means for
  • Control, power supply and the like can be accommodated.
  • the robot head 118 includes a camera system 122, which preferably consists of two individual cameras mounted at the locations where
  • a loudspeaker 124 which can emit acoustic signals into the environment of the robot 110.
  • a loudspeaker 124 which can emit acoustic signals into the environment of the robot 110.
  • the ear area is a loudspeaker 124
  • Microphone system 126 that can pick up sounds from the environment. It is particularly advantageous if the microphone system is designed as a dummy head stereomicrophone.
  • the nose area contains olfactory sensors 128 that can pick up olfactory signals from the environment. For these sensors 128 work chemically, optically and / or the like.
  • the user 10 and the robot 110 are connected to one another via an electronic control, which is indicated only symbolically in FIGS. 1, 2 and in particular contains an electronic control unit 30.
  • These user sensors NS include, in particular, the microphone 28 and user body sensors, not shown, which can absorb movements, spatial position, forces and / or torques of the user 10 or his body parts.
  • trunk 12, back 13, arms 14, legs 16, feet 17 and head 18, these body parts also include other parts of the body, in particular the hands, the fingers and the like.
  • These user body sensors may be at least partially contained in the exoskeleton 20.
  • the controller 30 also receives signals from sensors provided on the robot 110 side via a second sensor line 33. These are indicated in Fig. 1 with RS and include in particular the camera system 122, the microphone system 126, the odor sensors 128 and not shown robot body sensors that record movements of the robot 110 and can be arranged and configured similar to the user described above. body sensors.
  • the electronic control unit 30 outputs various signals.
  • first all signals that drive on the part of the user 10 user output units ND via a first playback line 34, such as the optical display unit 24 or the acoustic playback unit 26.
  • first signals are emitted
  • User actuators can control NA. These may be at least partially part of the exoskeleton 20 and may be designed so that they can exert pressure and deformations on different parts of the body of the user. They may also be arranged and designed so that movements of user body parts can be initiated or inhibited. For example servomotors, hydraulic or pneumatic elements or the like are conceivable.
  • the use of hydraulic and pneumatic elements offers the possibility of tempering the liquids or gases used and thereby additionally giving the user, or possibly also via other means, a temperature feedback. Since in the preferred embodiment, the helmet 22 is part of the exoskeleton 20, and the attitude of the head 18 can be detected and also influenced.
  • the electronic control unit 30 outputs various signals. These include the signals output via a second reproduction line 35 for the robot output units RD, to which in particular the loudspeaker system 124 belongs. Further optical and / or acoustic output units are conceivable.
  • control signals for robot actuators RA are output via a second control line 37. This includes in particular positioning elements within the robot 110, which can cause or inhibit movements of robot body parts.
  • Fig. 2 shows symbolically a side view of the user 10 and other elements of the system. It can be clearly seen that in the preferred embodiment, the user body parts in particular at the back and on the outer sides of the
  • Exoskeleton 20 are surrounded.
  • the electronic control unit 30 receives various sensor signals from the exoskeleton 20 and also outputs various control signals to associated actuators, so that the user body can be influenced accordingly.
  • various sensor signals from the exoskeleton 20 and also outputs various control signals to associated actuators, so that the user body can be influenced accordingly.
  • a user camera 38 and a user motion sensor 39 are connected to the control unit 30. These record optical and / or acoustic signals from the environment of the user 10. In the preferred
  • the camera 38 is arranged and configured so that it can capture the facial expressions of the user.
  • the exemplary embodiment serves to enable a substantial part of the body of user 10 to be used to control the robot 1 10, by sensors being arranged directly or indirectly on the user body, which sensors can detect as many movements or other reactions as possible. This is supplemented by further sensors, such as camera 38 and motion sensor 39, which are arranged in the area of the user 10 and also detect its movements. In addition, further signals from the area of the user 10 can be detected, such as by means of the microphone 28, which can be reproduced in a corresponding manner on the part of the robot 110.
  • the embodiment is not only for the control of the robot 110 by the user 10, but conversely also signals on the part of Robot 110 are supplied to the user in a suitable manner.
  • signals on the part of Robot 110 are supplied to the user in a suitable manner.
  • actuators which may be part of the exoskeleton 20.
  • This is supplemented by acoustic, optical, olfactory and / or gustatory signals, which are detected by suitable sensors in the area of the robot 110 and fed to the user 10 via corresponding output means.
  • FIGS. 1 and 2 can not give the user 10 an optimal impression of the position, speed and acceleration of the robot 110.
  • a motion simulator is necessary.
  • Fig. 3 shows a preferred example of a suitable motion simulator.
  • This is a rototranslator 40, which contains a first part 40a and a second part 40b.
  • the first part 40a is a translation unit that allows three degrees of freedom due to their Cartesian structure along the axes, x, y and z.
  • the second part 40b is a rotation unit, which also allows three degrees of freedom and is designed here as a gimbal.
  • the preferred embodiment to avoid the so-called gimbal-lock effect 4 axes 42, 44, 46 and 48, on which rotatable elements 43, 45, 47 and 49 are attached.
  • the preferred embodiment to avoid the so-called gimbal-lock effect 4 axes 42, 44, 46 and 48, on which rotatable elements 43, 45, 47 and 49 are attached.
  • the preferred embodiment the first part 40a is a translation unit that allows three degrees of freedom due to their Cartesian structure along the axes, x, y and z
  • Elements 43, 45, 47 a ring-like shape and the fourth element 49 is almost semi-annular.
  • an attachment point 50 On the underside there is an attachment point 50, on which the user 10 can be arranged. This can be done, for example, by attaching the exoskeleton 20 or a user capsule at point 50, or in a similar manner.
  • Fig. 4 shows a preferred embodiment of such attachment.
  • the exoskeleton 20, with which the user 10 is firmly connected is fastened to the back side via a fastening element 52 and a fastening arm 54 at the point 50.
  • the fastener 52 preferably includes a
  • High-frequency rotation translation unit which is suitably controlled by the controller 30, to move the user 10 quickly, thereby For example, a shaking as in a car ride on bumpy track can be simulated.
  • the rototranslator 40 is likewise controlled by the control unit 30.
  • a multiplicity of actuators (not illustrated here) are provided which allow movements in all possible degrees of freedom both in the translation unit 40a and in the rotation unit 40b.
  • the pose can no longer be transmitted one-to-one. Then, the actuators of the rototranslator 40 are controlled by the controller 30 such that a motion-cueing process is realized. This makes it possible to transmit the pose of the robot 1 10 to the user 10 such that the working space of the rototranslator 40 does not leave, but nevertheless a realistic overall impression for the user 10 is generated.
  • a second display unit 56 is arranged in the field of view of the user 10, which can be used additionally or instead to the first display unit 24.
  • the display unit 56 can, in particular in such cases, the first
  • the display unit 24 in which by means of the camera 38 (Fig. 2), the facial expression of the user 10 should be detected as completely as possible.
  • the display unit 56 may be curved, spherical or flat and configured such that a
  • Playback of 2- and / or 3-dimensional images is possible.
  • loudspeakers not shown here for surround sound can be provided.
  • the user 10 and the robot 110 are at a local distance from each other, such as in different rooms, different buildings, or the like. It is particularly advantageous if at least some of the lines 32 - 37 are designed wirelessly. For this, different technologies are suitable, such as transmission via
  • the lines 32-37 which are shown in the figures as simple lines, can be designed in many ways. It is important that signals from sensors and signals to actuators and display units are transmitted in a suitable manner via suitable channels. It is also possible that the control unit 30 shown in the figures as a central unit is designed decentralized, so that, for example, parts of the control can take place directly on the master, on the slave, on individual joints and / or anywhere else. For this purpose, lines within the control system can be wireless and / or wired. For the most accurate control of the robot 110 is a variety of
  • Body sensors provided on the user 10 and in its surroundings. These sensors can be designed in various ways. So are measurements of angles and / or torques between individual body parts whose
  • the body sensors may be located at various locations, such as directly at the user 10, within the exoskeleton 20, and / or in between.
  • a plurality of actuators is provided there. These can act on manipulated variables such as Angle, positions, forces or torques and their time derivatives. It is particularly advantageous if the control of at least one of the actuators by means of a control process takes place. For that will be
  • corresponding sensor signals of the line 32 are evaluated as an actual value in the control unit 30, whereupon the control of the associated actuators is adapted to a predetermined setpoint.
  • the control of the Rototranslators 40 can be based on a
  • Control process done by actual signals corresponding sensors are received in the control unit 30 and evaluated appropriately, with a desired spatial position and position can be adjusted.
  • a desired spatial position and position can be adjusted.
  • additional time derivatives of such values are determined.
  • sensors are arranged on the body of the robot 110 and in the vicinity of a plurality of sensors. This can be done in a similar manner as in the user 10. These sensors also describe the current spatial position and position and, where appropriate, their time derivatives.
  • the control unit 30 controls the actuators and display units based on the received sensor signals such that a bilateral haptic teleoperability is made possible.
  • the actuators on the user side and the robot can be controlled such that in addition also a
  • time delays may be caused in particular by the response times of sensors and actuators, computing speed of the control unit 30 and transit times of the various signals.
  • Time delays can be largely compensated if time derivatives of the quantities measured by the sensors are evaluated and values are estimated in the future.
  • time derivatives of the quantities measured by the sensors are evaluated and values are estimated in the future.
  • such an estimation can lead to problems especially when the robot 110 is in contact with an object of its environment occurs, are in a development of the
  • Embodiment provided ultrasonic transducers, which can quickly recognize the distance to the object in the manner of a parking aid.
  • the described embodiments allow the user 10 and the robot 110 to assume the same postures as standing, sitting, lying, headstand, as well as performing joint movements such as walking, running, jumping, somersaulting, etc.
  • the user 10 gets one haptic feedback. Because if he moves the robot 110 and this with any of his
  • the preferred embodiment also has the advantage of achieving a complete, unlimited mobility in six degrees of freedom (6-dof mobility) of the governor and to provide the user at any time complete realistic power feedback.
  • 6-dof mobility six degrees of freedom
  • the user 10 may control the robot 110, for example, in a life-threatening environment such as a radioactive space, a combat mission or the like.
  • the task of such a system is thus to extend the applicability of real robots to areas and problems in which they can not act autonomously or semi-autonomously. This includes, for example, locomotion of the robot 110 in desert sand, swamps, forests, complex situations in buildings, interaction with sensitive animals, etc.
  • the user exoskeleton 20 and the robot exoskeleton may be different or identical.
  • the slave may also be a humanoid or other robotic general body.
  • a memory unit is present, the predetermined - calculated, for example, based on existing 3-dimensional movement sequences - or already carried out by the user 10 or by another user positions and / or movements and / or forces and / or other to be reproduced
  • the embodiments of the invention may also be used to allow multiple users to communicate and interact over a greater distance.
  • one or more additional users are located in the area of the robot 110, each of which likewise carries an exoskeleton or the like and thereby controls a second robot which is located in the area of the user 10.
  • therapeutic measures, gymnastic exercises or the like can be trained.
  • the controlled robots regardless of location and number of users, can interact in the same room and communicate with users.
  • both or more users each use an exoskeleton or the like and each control a governor in a common virtual reality. This allows the haptic, acoustic, visual, etc.
  • the exoskeleton 20 may be attached.
  • the whole can be mounted on a translation unit to obtain a total of six degrees of freedom.
  • a tilting and pivoting bar mounted on the floor or on the ceiling of a room where the exoskeleton is movably mounted, may be sufficient to represent many movements in a realistic manner.
  • a gimbal also two or three axles are sufficient, if appropriate restrictions are accepted.
  • the physical robot 110 in a real environment may be replaced by another governor, such as a virtual model of a robot or a living being in a virtual environment. This eliminates all associated robot sensors and robot actuators; These are replaced by a corresponding simulation.
  • another governor such as a virtual model of a robot or a living being in a virtual environment. This eliminates all associated robot sensors and robot actuators; These are replaced by a corresponding simulation.

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Manipulator (AREA)

Abstract

Die vorliegende Erfindung betrifft die Steuerung eines Statthalters durch einen Nutzer. Ein solcher Statthalter ist insbesondere ein Roboter oder ein virtuelles Wesen. Dabei wird der Statthalter gesteuert durch Signale von Sensoren, die an dem Nutzer angebracht sind oder sich in dessen Umgebung befinden, und Positionen und Bewegungen des Nutzers aufnehmen können. Weiterhin befinden sich an dem Statthalter oder in dessen Umgebung weitere Sensoren, die seine Lage und Bewegungen aufnehmen können. Signale dieser Sensoren dienen dazu, Bewegungsabläufe bei dem Nutzer zu steuern. Die erfindungsgemäße Lösung zeichnet sich dadurch aus, dass die genannten Sensoren Haltungen, Positionen, Bewegungen, Kräfte und/oder Drehmomente zumindest von einem Körperteil des Nutzers erfassen und Teile des Statthalters entsprechend bewegt werden können. Die Erfindung lässt sich beispielsweise verwenden bei Teleoperationen.

Description

VERFAHREN UND VORRICHTUNG ZUR STEUERUNG EINES ROBOTERS
Die vorliegende Erfindung betrifft die Steuerung eines Statthalters durch einen Nutzer. Ein entsprechender Nutzer kann ein Mensch oder ein sonstiges Lebewesen sein. Der zu steuernde Statthalter kann eine reale Maschine, eine virtuelle Maschine oder ein sonstiges virtuelles Lebewesen sein. Eine bevorzugte Maschine ist ein realer bzw. virtueller Roboter.
Diese Erfindung bezieht sich auf das Gebiet der Bewegungssimulation. Simulatoren sind beispielsweise bekannt als Flugsimulatoren für die Pilotenausbildung oder für den Einsatz in Spielhallen. Dabei werden verschiedene Bewegungen auf einen menschlichen Körper ausgeübt bei gleichzeitiger Anzeige einer simulierten
Umgebung. Es ist auch möglich, dass durch geeignete Mittel auch passende Geräusche generiert und dem menschlichen Körper als Schall- und/oder
Körperwellen zugeführt werden.
Weiterhin bekannt ist das Gebiet der„Virtual Reality", wobei menschlichen
Sinnesorganen bestimmte optische, akustische und/oder haptische Reize oder auch Gerüche simuliert werden, wodurch ein Mensch angeregt wird, bestimmte
Handlungen oder Bewegungen auszuführen.
Außerdem sind Roboter bekannt, die aufgrund von Steuersignalen
unterschiedlichste Bewegungen ausführen können. Je nachdem, wie viele Gelenke mit zugehörigen Achsen und Aktuatoren ein solcher Roboter aufweist, können sie ganz bestimmte Tätigkeiten unterstützen oder erledigen, wie im Rahmen eines Produktionsprozesses, bei der Reinigung eines Haushalts oder dergleichen.
Insbesondere dann, wenn die Feinmotorik im Bereich der„Hände" bei Robotern optimiert ist, können sie sich auch entsprechend genau bewegen. Zur Koordination derartiger Roboterbewegungen sind außerdem Sensoren und Kontrolleinheiten bekannt, die diese Bewegungen steuern oder regeln.
Weiterhin sind sogenannte Exoskelette bekannt. Sie sind vergleichbar mit Orthesen, die für die Unterstützung einzelner Gliedmaßen, wie für eine Hand oder ein
BESTÄTIGUNGSKOPIE Kniegelenk, geeignet sein können. Ein derartiges Exoskelett ist beispielsweise beschrieben in DE 10 2007 035 401 A1. Je nach Ähnlichkeit zum menschlichen Körper unterscheidet man anthropomorphe und nicht-anthropomorphe Exoskelette. Exoskelette können Bewegungen des Trägers unterstützen bzw. verstärken, indem am Exoskelett Gelenke durch Servomotoren aktiv angetrieben werden. Diese werden angesteuert aufgrund von Sensorsignalen, die ein Maß sind für
Bewegungen, die der Träger durchführt oder durchführen will. Solche Signale können beispielsweise erzeugt werden aufgrund von Elektroden, die auf der Haut angebracht sind und elektrische Impulse von Muskeln empfangen, aufgrund gemessener Abstände, Kräfte und Drehmomente zwischen Nutzer und Exoskelett, und/oder aufgrund von Positionen, Geschwindigkeiten, Beschleunigungen, Kräften und Drehmomenten der Aktuatoren des Exoskeletts. Exoskelette, die eine Art robotischen Anzug darstellen, sind bekannt von der Firma Raytheon Company (www. ra vtheon . com ; letzter Abruf Juni 2010). Diese sind im Wesentlichen ein tragbarer Roboter, die die Kraft, die Ausdauer und die Wendigkeit des Nutzers verstärken. Sie beinhalten eine Kombination von Sensoren, Aktuatoren und Reglern und ermöglichen es dem Nutzer beispielsweise, einen Menschen auf dem Rücken zu tragen oder schwere Lasten mehrere Hundert Mal zu heben ohne zu ermüden. Andererseits ist dieser Anzug wendig genug, dass sein Nutzer Fußball spielen, eine Treppe steigen kann und dergleichen.
Aus dem Artikel„Development of Teleoperation Master System with a Kinesthetic Sensation of Presence", Hitoshi Hasunuma et al., ICAT '99 (siehe
http://www.yrsi.org/ic-at/papers/99053.pdf ; letzter Abruf Juni 2010), ist bekannt, einen Roboter durch die natürliche Verwendung der Arme eines Nutzers und unter bilateraler haptischer Kontrolle zu steuern. Der Nutzer spürt also die Kräfte, die auf den Roboter wirken und kann ihn steuern. Dabei werden nur die Bewegungen der Arme, der Hände und die Haltung des Kopfes des Nutzers auf den Roboter übertragen. Dazu wird für die Arme ein Exoskelett mit 7 Freiheitsgraden (7 dof, dof = degrees of freedom) verwendet und für die Hände ein anderer exoskelletaler Aufbau. Sicht, Gehör und schnelle Bewegungen des Körperschwerpunkts werden auch vom Roboter an den Nutzer übertragen. Ein Kraft-Feedback erfolgt auf Hände und Arme.
Die Bewegung des Roboters wird in dem genannten Artikel mittels einer
Computermaus gesteuert, durch welche der Nutzer die Bewegungsrichtung des Roboters vorgibt. Die Beingelenke und sein Gleichgewicht werden vom Roboter autonom gesteuert.
Es ist somit die Aufgabe der vorliegenden Erfindung, eine Steuerung eines
Statthalters, wie einer Maschine oder eines virtuellen Wesens, zu ermöglichen, bei der der Statthalter wesentliche Bewegungen nachvollzieht, die von einem Nutzer vorgegeben werden.
Diese Aufgabe wird gelöst durch das Verfahren nach dem Hauptanspruch sowie durch die Vorrichtung nach dem ersten Vorrichtungsanspruch. Durch die
Unteransprüche sind vorteilhafte Ausgestaltungen angegeben.
Erfindungsgemäß werden Signale von Nutzer-Sensoren erfasst und ausgewertet, deren Signale ein Maß für Positionen, Haltungen und/oder Bewegungen einzelner Körperteile des Nutzers und/oder ein Maß für die auf sie wirkenden Kräfte oder Drehmomente sind. Derartige Sensoren können beispielsweise in direktem oder indirektem Kontakt mit dem Nutzer-Körper sein und als Dehnungsstreifen, elektrische Sensoren für Muskelimpulse oder dergleichen ausgebildet sein. Ferner sind auch Sensoren möglich, die sich in einigem Abstand vom Nutzer befinden und seine Positionen und/oder Bewegungen optisch, akustisch, kapazitiv oder dergleichen erfassen.
Die Nutzer-Sensor-Signale dienen zur Ansteuerung von Statthalter-Aktuatoren, die einen Statthalter entsprechend in eine vorgegebene Position bringen oder bewegen Ein solcher Statthalter kann insbesondere eine reale Maschine, eine virtuelle
Maschine oder ein sonstiges virtuelles Lebewesen sein. Eine bevorzugte Maschine ist ein realer bzw. virtueller Roboter. Eine solche Position kann beispielsweise ein Sitzen, Liegen Stehen oder dergleichen sein. Eine Bewegung kann Gehen, Laufen usw. sein. Passende Aktuatoren können Elektromotoren, aber auch hydraulische oder pneumatische Elemente enthalten. Die Nutzer-Sensor-Signale können auch erfasst und aufbereitet und zur Ansteuerung von Nutzer-Aktuatoren genutzt werden. Dieses dient insbesondere bei Verwendung eines Exoskeletts zur Reduktion der vom Nutzer empfundenen Gewichtskräfte und dynamischer Kräfte, welche das Exoskelett auf den Nutzer ausübt.
Weiterhin gibt es Statthalter-Sensoren, die Positionen und Bewegungen des Statthalters und/oder die auf ihn von außen oder durch sich selbst wirkenden Kräfte, Drehmomente oder Verformungen erfassen. Diese Sensoren können grundsätzlich ähnlich gestaltet und angeordnet sein wie Nutzer-Sensoren. Deren Signale werden erfasst und derart aufbereitet, dass sie zur Ansteuerung von Nutzer-Aktuatoren dienen, die den Nutzer bzw. einzelne seiner Körperteile entsprechend beeinflussen. Eine solche Beeinflussung kann einerseits die Veranlassung einer Haltung oder Bewegung unter Anwendung von Kräften und Drehmomenten sein. Es ist aber auch möglich, dass auf den Nutzer solche Kräfte, Drehmomente oder Verformungen ausgeübt werden, die vergleichbar sind mit einer haptischen Rückkopplung beim Berühren eines Gegenstandes. Die Statthalter-Sensor-Signale können auch erfasst und aufbereitet und zur Ansteuerung von Statthalter-Aktuatoren genutzt werden. Dies dient insbesondere dazu, den Nutzer das Gewicht und die dynamischen Kräfte des Statthalters nicht spüren zu lassen.
Damit der Nutzer den Statthalter auf einfache Weise steuern kann, ist weiterhin vorgesehen, dass die Nutzer-Sensoren die Haltungen, Positionen, Bewegungen, Kräfte und/oder Drehmomente von mindestens einem Körperteil erfassen, wie einem Bein, einem Arm, einer Hand, einem Fuß oder dergleichen, und ein Teil, also Bein, Arm, Hand, Fuß oder dergleichen, des Statthalters entsprechend bewegt wird. Dabei können das steuernde Körperteil und das gesteuerte Teil gleichartig sein, wie Arm-Arm, Bein-Bein und dergleichen. Denkbar ist jedoch auch, dass sie
ungleichartig sind, so dass beispielsweise eine Nutzer-Hand ein Statthalter-Bein steuert. Die Verwendung eines Exoskeletts ist insbesondere dann vorteilhaft, wenn darin passende Aktuatoren und/oder Sensoren enthalten sind. Dabei ist es besonders vorteilhaft, wenn der Nutzer und der Statthalter baugleiche Exoskelette tragen bzw. verwenden.
Für eine optimale Bewegungssimulation ist es notwendig, dass der Nutzer auch als Ganzes bewegt oder in eine bestimmte Position gebracht werden kann. Eine solche Bewegung kann translatorisch - wie vor/zurück, rechts/links, hoch/runter - oder rotatorisch sein. Dafür ist bei einer Ausgestaltung der Erfindung ein passender Bewegungssimulator vorgesehen. Dieser kann beispielsweise ausgestaltet sein als (a) Kardanische Aufhängung im Verbund mit einer Translationseinheit, (b) Stewart- Bewegungsplattform, (c) Mehrachsenindustrieroboter oder (d) sphärischer
Bewegungssimulator, wie er beispielsweise beschrieben ist in dem Artikel„Novel 3- DOF Reconfigurable Spherical Motion Generator with Unlimited Workspace"; Shiu Hang Ip et al., ACRA 2009 (siehe
http://www.araa.asn.au/acra/acra2009/papers/pap145s1.pdf ; letzter Abruf Juni 2010), im Verbund mit einer Translationseinheit, oder durch andere bekannte Bewegungssimulatoren. Bei der Ansteuerung des Bewegungssimulators kann ein Motion-Cueing Prozess angewendet werden. Dieser ermöglicht es, die Pose des Roboters auf den Nutzer derart zu übertragen, dass der Arbeitsraum des Bewegungssimulators nicht verlassen, aber dennoch ein realistischer Gesamteindruck für den Nutzer erzeugt wird. Weiterhin kann bei der Ansteuerung des Bewegungssimulators vorgesehen sein, dass die Raumlage und die Position - sowie ggf. deren Ableitungen, wie Geschwindigkeiten und Beschleunigungen - des Statthalters auf den Nutzer abgebildet werden.
Wenn der Statthalter als realer Roboter, oder sonstige reale Maschine, gestaltet ist, sind verschiedene Teleoperationen möglich. Dafür kann der Nutzer einen Roboter beispielsweise in einer lebensgefährlichen Umgebung steuern, wie in einem radioaktiven Raum, bei einem Kampfeinsatz oder dergleichen. Aufgabe eines solchen Systems ist also, die Anwendbarkeit von realen Robotern auf Gebiete und Probleme zu erweitern, in denen sie autonom oder semi-autonom, nicht oder nur beschränkt handeln können. Dieses umfasst zum Beispiel die Fortbewegung eines Roboters in Wüstensand, Sümpfen, Wäldern, komplexen Situationen in Gebäuden, Interaktion mit empfindlichen Lebewesen, usw. Komplexe Bewegungen, wie
Robben, Nahkampf, Rollen Springen, usw. sind möglich. Ein Großteil der
Steuerung, der Wahrnehmung, der Interpretation der Daten und auch der
Entscheidungen, werden nun direkt und in Echtzeit durch den Nutzer, wie einen Menschen, erbracht. Da der Roboter seinen Zustand, wie Bewegungen, Kräfte, Drehmomente, usw., über die genannten Sensoren und Aktuatoren an den Nutzer überträgt, kann dieser durch seine Körpersteuerung, die gegebenenfalls durch ein Exoskelett unterstützt wird, den Roboter angemessen steuern. Zusätzliche
Informationen kann der Nutzer erhalten aufgrund von optischen, akustischen oder sonstigen Eindrücken, die mittels passender Sensoren im Bereich des Roboters aufgenommen und entsprechend aufbereitet an den Nutzer geleitet werden.
Im Bereich der Teleoperation sind verschiedene Techniken bekannt, wie aus dem Springer Handbook of Robotics, Spinger, 2008, um kinematisch gleiche,
kinematisch ähnliche und kinematisch unterschiedliche Roboter zu verwenden, um durch einen Nutzer zumindest einen der Roboter (Master) zu verwenden, um den anderen Roboter (Slave) zu steuern. Im Rahmen der vorliegenden Erfindung ist der Master-Roboter dafür bevorzugterweise als Exoskelett ausgebildet. Die Zahl der Freiheitsgrade der Roboter darf im Allgemeinen unterschiedlich sein. Man unterscheidet unilaterale und bilaterale Methoden, wobei bei ersteren vom Master nur Steuersignale an den Slave geschickt werden, und bei letzterem auch Signale vom Slave an den Master. Letzteres ermöglicht die Erzeugung einer
Kraftrückkopplung an den Nutzer. Er kann dadurch die Umgebung oder den
Bewegungszustand des Slave durch den Master erfahren. Je realistischer der Eindruck des Nutzers von der Umgebung des Slave ist, desto höher ist die „Transparenz" der teleoperativen Verbindung. Dabei spielt auch die Art der Kontrolle und der Kommunikation eine Rolle. Durch bilaterale Teleoperation vermittelt können auch mehrere Nutzer haptisch interagieren oder unter Verwendung mehrerer Master und eines gemeinsamen Slave mit der Umgebung interagieren. Besonders Slave und Slave-Umgebung können simuliert, also virtuell ausgebildet sein. Wichtig ist weiterhin, den Nutzer von der Empfindung der unmittelbaren
Eigenschaften des Master und Slave Roboters zu befreien. So sollte er
vorzugsweise nicht deren Gewichtskräfte, Trägheitskräfte und Scheinkräfte sowie sonstige aufgrund von Bewegungen und Beschleunigungen verursachte
dynamische Kräfte spüren. Ggf. soll auch das Körpergewicht des Nutzers oder von Teilen des Nutzers durch die Roboter getragen werden. Beides, die (teilweise) Isolation des Nutzers von Master- und Slaveeigenschaften, als auch das (teilweise) Abnehmen seines Körpergewichts durch den Roboter, ist durch sogenannte Schwerkraftkompensation (gravity compensation) etabliert.
Methoden zur Teleoperation verwenden gemeinhin auch die Skalierung der Distanzen und Kräfte. Dies ist besonders bei nicht identischen Master und Slave Robotern wichtig. Das heißt, dass ein Nutzer am Master auch größere oder kleiner Kräfte und andere Distanzen (auch Winkeldistanzen) erfahren kann als am Slave vorliegen.
Methoden der Kraftrückkopplung werden prinzipiell mit verschiedensten
Kontrollstrategien realisiert. So unterschiedet man unter anderem Position-Position, Position-Kraft und Kraft-Positions Methoden (Master- Slave Konvention). Position- Kraft Kontrolle bedeutet hier, dass die Ist-Position des Masters an den Slave übertragen wird, welche diese als Sollgröße benutzt um seine Position
einzunehmen. Die vom Slave gemessenen Kräfte und/oder Drehmomente werden dann an den Master übertragen, dort als Sollkräfte verwendet und durch Aktuatoren dem Nutzer vermittelt. Die Methoden können ausschließlich mit Aktuatorsensoren (Winkel, Winkelgeschwindigkeit, Drehmoment) oder auch mit zusätzlichen Kraft- und Drehmomentsensoren realisiert werden.
Für den Nutzer wird die Erfindung dann einfach anwendbar, wenn er die Realität oder die virtuelle Realität durch den Statthalter gemäß ihrer Gesetze steuert. Das heißt, dass er sich daran gewöhnen muss. Eine Aufgabe des Nutzers wäre dann beispielsweise das Gleichgewicht des Statthalters zu regulieren. Der Statthalter wird aber üblicherweise eine andere Geometrie und Körperdynamik haben als der Nutzer. Wird die Körperdynamik des Statthalters aber durch die Verwendung eines Bewegungssimulators auf den Nutzer übertragen, merkt dieser z.B. anhand einer gleichmäßig beschleunigten Bewegung des Kopfes nach vorne, dass der Statthalter beginnt, umzufallen. Das muss er durch geeignete Maßnahmen ausgleichen, wie Gewichtsverlagerung des Statthalters, unter Verwendung seiner eigenen Beine, welche die Beine des Statthalters steuern, bis die Beschleunigung aufhört. Dabei fühlt der Nutzer mit seinen Füßen den Boden auf der Seite des Statthalters, ohne selbst auf einem zu stehen, vermittelt durch die bilaterale teleoperative Verbindung und die Füße des Nutzer-Exoskeletts. Der Benutzer kann im Exoskelett im Bewegungssimulator niemals selbst umfallen, solange sein Statthalter nicht umfällt. Um die Anpassung zu erleichtern, können auch dynamische und statische Kräfte des Statthalters an den Nutzer weiter gereicht werden. Allgemein kann, um den Eindruck des Nutzers zu optimieren, eine beliebige lineare oder nicht-lineare Transformation zwischen den Parameterräumen des Statthalters und des Nutzers erfolgen. Dies kann genutzt werden, um die Gewöhnung zu beschleunigen oder die Anpassung zu verbessern.
Die Regelung des Exoskeletts und des Bewegungssimulators kann durch die Anwendung bewährter Konzepte und Techniken der Kinematik von Maschinen und Robotern sowie der Teleoperation bewirkt werden. Die Simulation von virtuellen Welten nach physikalischem Vorbild hat weite Verbreitung in Computerspielen, der wissenschaftlichen Simulation und dem Film gefunden. Die gleiche Hardware und Software kann zur effizienten Simulation der nötigen Steuersignale und auch zur Bildberechnung verwendet werden. Der Statthalter kann auch als virtuelles Wesen gestaltet sein, wie als virtueller
Roboter oder als virtuelles Lebewesen in einem Videospiel oder dergleichen. Dann kann die Erfindung dem Nutzer dazu dienen, bestimmte Bewegungsabläufe in Abhängigkeit von verschiedenen Umgebungen zu üben, die ebenfalls virtuell dargestellt werden können.
Eine weitere Ausgestaltung der Erfindung erlaubt es, dass der Nutzer vorgegebene Beeinflussungen erfährt. Dabei kann es sich um Bewegungsabläufe oder um sonstige haptische Eindrücke handeln. Somit kann der Nutzer quasi einen haptischen Film erleben, der mithilfe von geeigneten Ausgabemitteln für optische, akustische und sonstige Signale entsprechend ergänzt werden kann. Bei der Interaktion zwischen dem Nutzer und dem Roboter kann es zu
Zeitverzögerungen kommen, die insbesondere durch die Reaktionszeiten von Sensoren und Aktuatoren, Rechengeschwindigkeit von Steuereinheiten sowie Laufzeiten der verschiedenen Signale verursacht werden kann. Diese
Zeitverzögerungen können weitestgehend kompensiert werden, wenn zeitliche Ableitungen der von den Sensoren gemessenen Größen ausgewertet werden. Da eine derartige Abschätzung jedoch insbesondere dann zu Problemen führen kann, wenn der Roboter in Kontakt mit einem Gegenstand seiner Umgebung tritt, sind bei einer Weiterbildung der Erfindung Sensoren, wie beispielsweise Ultraschallwandler vorgesehen, die nach Art einer Parkhilfe die Entfernung zu dem Gegenstand schnell erkennen lassen. Durch die Verwendung dieser Daten zur Kontaktvorhersage kann der Eindruck eines Kontaktes und ein realitätsnahes Feedback rechtzeitig beim Nutzer erzeugt werden.
Eine weitere Ausgestaltung der Erfindung sieht vor, dass dem Nutzer eine
Bewegung in teilweiser oder vollständiger Schwerelosigkeit simuliert wird. Dazu ist die Nutzung der Master-Einheit in einer Flüssigkeit, unter Verwendung geeigneter Atemmittel und ggf. einem (auch flüssigkeitsbefüllten) Anzug, vorgesehen, so dass das Gewicht des Nutzers schon durch den Auftrieb der Flüssigkeit zumindest teilweise aufgehoben wird. Diese Situation ist der Schwerelosigkeit im Weltraum sehr ähnlich, unterscheidet sich jedoch bezüglich der hohen Dämpfung jeder Bewegung durch die Flüssigkeit. Um diese Dämpfung zumindest teilweise zu kompensieren, werden die Aktuatoren, die seinen Körper bzw. einzelne seiner Körperteile bewegen, entsprechend angesteuert um Bewegungen zu unterstützen. Dadurch kann zum Beispiel eine Unter-Wasser-Bewegung mit skalierter Dämpfung oder eine Bewegung im Weltraum ohne Dämpfung oder dergleichen simuliert werden. Die Transparenz der Teleoperation mit realen oder virtuellen Maschinen, realen oder virtuellen Robotern oder virtuellen Lebewesen in Situationen im Weltraum oder unter Wasser oder dergleichen kann so verbessert werden.
Eine weitere Ausgestaltung der Erfindung sieht vor, dass der Nutzer im Master (Nutzer-Seite) einen anderen Nutzer im Slave (Statthalter-Seite) beeinflusst. Beide Nutzer sind dabei bevorzugterweise Menschen. Bevorzugt ist hier der Master als Exoskelett mit Rototranslator und der Slave als frei bewegliches Exoskelett ausgelegt. Die Master und Slave sind durch eine bilaterale haptische Verbindung aller oder einiger Körperteile und andere Signale, wie akustisch oder dergleichen, miteinander verbunden. Der Grad der Beeinflussung des Masters durch den Slave und umgekehrt wird durch die Steuereinheit, unter Vorgaben der Master und/oder Slave Seite gesteuert. Hierdurch wird es möglich einen Nutzer eines frei beweglichen Exoskeletts auf der Slave-Seite aus der Ferne zu begleiten und zu unterstützen oder auch die Kontrolle über dessen Exoskelett ganz oder teilweise zu übernehmen. Diese Ausgestaltung ist besonders für zu Trainingszwecken bei sportlichen Übungen oder sonstigen Aufgaben mit hohem körperlichem Anteil interessant.
Eine weitere Ausgestaltung der Erfindung sieht vor, dass mehrere Nutzer in jeweils eigenen Nutzereinheiten über eine gemeinsame Steuereinheit mit demselben Statthalter interagieren. Beide Nutzer erfahren so den Zustand des Statthalters und können ihn im Allgemeinen kooperativ, aber zu einem unterschiedlichen Grad beeinflussen. Die Nutzer können im Allgemeinen unterschiedliche Funktionen und Körperteile des Statthalters beeinflussen. Die Nutzer können sich so Aufgaben der Regelung des Statthalters teilen, gemeinsam bewältigen oder aber auch nur beobachtend und beratend teilhaben. Diese Ausgestaltung ist besonders zu Trainingszwecken bei sportlichen Übungen oder sonstigen Aufgaben mit hohem körperlichem Anteil interessant. Weitere Merkmale und Vorteile der Erfindung werden im Folgenden anhand bevorzugter Ausführungsbeispiele erläutert. Dabei zeigen
Fig. 1 Ein System zur Steuerung eines Roboters mit Hilfe eines Exoskeletts
Fig. 2 Eine Seitenansicht eines Nutzers im Exoskelett
Fig. 3 Einen Rototranslator
Fig. 4 Den Nutzer mit Exoskelett im Rototranslator.
Fig. 1 zeigt symbolisch ein System, das es einem Nutzer 10 ermöglicht, einen Roboter 110 zu steuern. Der Nutzer 10 ist bevorzugterweise ein Mensch mit einem entsprechenden Körper, der einen Rumpf 12 sowie Arme 14, Beine 16, Füße 17 und einen Kopf 18 umfasst. An dem Körper des Nutzers 10 ist ein Nutzer-Exoskelett 20 angebracht, das schraffiert gezeichnet ist. Dieses befindet sich insbesondere an den Armen 14, am Rumpf 12, am Rücken 13 (siehe Fig. 2), an den Beinen 16 und an den Füßen 17, die im bevorzugten Ausführungsbeispiel keinen Boden berühren sondern ausschließlich am Nutzer-Exoskelett 20 Halt finden. Dieses ist dabei derart gestaltet, dass es die genannten Körperteile teilweise oder vollständig derart umschließt, dass es Bewegungen des Körpers erfassen und auch beeinflussen kann. Um den Kopf 18 herum befindet sich ein Helm 22, der in der bevorzugten Ausführung Teil des Exoskeletts 20 ist und in dem eine optische Anzeigeeinheit 24 und eine akustische Wiedergabeeinheit 26 enthalten sind. Die optische
Anzeigeeinheit 24 erzeugt für das rechte und das linke Auge unterschiedliche Anzeigen, wie mittels LCD Anzeigen, Projektionseinrichtungen oder dergleichen, und kann somit einen Stereoeffekt ermöglichen. Die akustische Wiedergabeeinheit 26 umfasst bevorzugterweise zwei Kopfhörer bzw. Lautsprecher, die für den Nutzer 10 einen Raumklang ermöglichen können. Weiterhin ist ein Mikrofon 28
vorgesehen, über das der Nutzer 10 akustische Signale, wie insbesondere Sprache, eingeben kann.
Der Roboter 110 ist hier als Humanoidroboter ausgebildet, der im Wesentlichen aus einem Roboter-Exoskelett mit entsprechenden Körperteilen, wie Roboter-Rumpf 112, Roboter-Armen 1 4, Roboter-Beinen 16, Roboter-Füßen 17 und Roboter- Kopf 118 besteht. Das Roboter-Exoskelett ist bei diesem bevorzugten
Ausführungsbeispiel weitgehend mechanisch baugleich mit dem Nutzer-Exoskelett 20. Das Roboter-Exoskelett ist verbunden mit einem Nutzraum, der in verschiedene Kammern untergliedert ist, die grob bezeichnet werden können als Rumpf-Nutzraum 130, Arme-Nutzraum 132, Beine-Nutzraum 134 und Kopf-Nutzraum 136. In diesen Nutzräumen können Betriebsstoffe, Aggregate, Werkzeuge sowie Mittel zur
Steuerung, zur Energieversorgung und dergleichen untergebracht werden.
Der Roboterkopf 118 enthält ein Kamerasystem 122, das bevorzugterweise aus zwei Einzelkameras besteht, die an den Stellen angebracht sind, wo sich
üblicherweise die Augen befinden. Damit ist es möglich, Stereobilder aufzunehmen. Im Mundbereich befindet sich ein Lautsprecher 124, der akustische Signale in das Umfeld des Roboters 110 abgeben kann. Im Ohrenbereich befindet sich ein
Mikrofonsystem 126, das Geräusche aus der Umgebung aufnehmen kann. Dabei ist es besonders vorteilhaft, wenn das Mikrofonsystem als Kunstkopf-Stereomikrofon ausgebildet ist. Im Nasenbereich befinden sich Geruchssensoren 128, die olfaktorische Signale aus der Umgebung aufnehmen können. Dafür arbeiten diese Sensoren 128 chemisch, optisch und/oder dergleichen.
Der Nutzer 10 und der Roboter 110 sind über eine elektronische Steuerung miteinander verbunden, die in Fig. 1 , 2 nur symbolisch angedeutet ist und insbesondere ein elektronisches Steuergerät 30 enthält. Dieses empfängt unter anderem über eine erste Sensorleitung 32 Signale von Sensoren, die auf Seiten des Nutzers 10 vorhanden sind und in Fig. 1 gemeinsam durch die Referenz NS angedeutet sind. Zu diesen Nutzersensoren NS gehören insbesondere das Mikrofon 28 sowie nicht dargestellte Nutzer-Körpersensoren, die Bewegungen, Raumlage, Kräfte und/oder Drehmomente des Nutzers 10 bzw. seiner Körperteile aufnehmen können. Zu diesen Körperteilen gehören neben Rumpf 12, Rücken 13, Armen 14, Beinen 16, Füßen 17 und Kopf 18 auch sonstige Körperteile, wie insbesondere die Hände, die Finger und dergleichen. Diese Nutzer-Körpersensoren können zumindest teilweise in dem Exoskelett 20 enthalten sein. Denkbar ist auch, dass sie zwischen dem Körper und dem Exoskelett 20 oder an anderen Stellen angeordnet sind. Diese Sensoren können auf verschiedenste Weise gestaltet sein, wie als Drucksensoren, Dehnungsmessstreifen, Stromsensoren in Elektromoren oder dergleichen. Das Steuergerät 30 empfängt außerdem über eine zweite Sensorleitung 33 Signale von Sensoren, die auf Seiten des Roboters 110 vorhanden sind. Diese sind in Fig. 1 mit RS angedeutet und umfassen insbesondere das Kamerasystem 122, das Mikrofonsystem 126, die Geruchssensoren 128 sowie nicht dargestellte Roboter- Körpersensoren, die Bewegungen des Roboters 110 aufnehmen und ähnlich angeordnet und gestaltet sein können, wie die oben beschriebenen Nutzer- Körpersensoren. Das elektronische Steuergerät 30 gibt verschiedene Signale aus. Dazu gehören zunächst alle Signale, die auf Seiten des Nutzers 10 Nutzer-Ausgabeeinheiten ND über eine erste Wiedergabeleitung 34 ansteuern, wie die optische Anzeigeeinheit 24 oder die akustische Wiedergabeeinheit 26. Außerdem werden auf Seiten des Nutzers 10 über eine Steuerleitung 36 erste Signale abgegeben, die hier nicht dargestellte Nutzer-Aktuatoren NA ansteuern können. Diese können zumindest teilweise Teil des Exoskeletts 20 sein und können derart gestaltet sein, dass sie Druck und Verformungen an verschiedenen Körperteilen des Nutzers ausüben können. Sie können auch derart angeordnet und gestaltet sein, dass Bewegungen von Nutzer-Körperteilen veranlasst oder gehemmt werden können. Dafür sind zum Beispiel Stellmotoren, hydraulische oder pneumatische Elemente oder dergleichen denkbar. Die Verwendung von hydraulischen und pneumatischen Elementen bietet die Möglichkeit, die verwendeten Flüssigkeiten bzw. Gase zu temperieren und dadurch dem Nutzer, ggf. auch über andere Mittel, zusätzlich eine Temperatur- Rückmeldung zu geben. Da bei der bevorzugten Ausführung auch der Helm 22 Teil des Exoskeletts 20 ist, kann auch die Haltung des Kopfes 18 erfasst und auch beeinflusst werden.
Auch auf Seiten des Roboters 110 gibt das elektronische Steuergerät 30 verschiedene Signale aus. Dazu gehören die über eine zweite Wiedergabeleitung 35 abgegebenen Signale für die Roboter-Ausgabeeinheiten RD, wozu insbesondere das Lautsprechersystem 124 gehört. Auch weitere optische und/oder akustische Ausgabeeinheiten sind denkbar. Außerdem werden über eine zweite Steuerleitung 37 Steuersignale für Roboter-Aktuatoren RA abgegeben. Dazu gehören insbesondere Stellelemente innerhalb des Roboters 110, die Bewegungen von Roboter-Körperteilen veranlassen oder hemmen können.
Fig. 2 zeigt symbolisch eine Seitenansicht des Nutzers 10 sowie weitere Elemente des Systems. Dabei ist gut zu erkennen, dass bei der bevorzugten Ausführung die Nutzer-Körperteile insbesondere hinten und an den Außenseiten von dem
Exoskelett 20 umgeben sind.
Das elektronische Steuergerät 30 empfängt verschiedene Sensor-Signale von dem Exoskelett 20 und gibt auch verschiedene Stellsignale an zugehörige Aktuatoren ab, so dass der Nutzer-Körper entsprechend beeinflusst werden kann. An Stellen, an denen der Körper besonders sensibel reagiert, wie an Händen 10a, am Ellenbogen 10b oder an den Kniegelenken 10c, sind die Sensoren und Aktuatoren des
Exoskeletts 20 entsprechend ausgelegt.
Außerdem sind an das Steuergerät 30 eine Nutzer-Kamera 38 und ein Nutzer- Bewegungssensor 39 angeschlossen. Diese nehmen optische und/oder akustische Signale aus der Umgebung des Nutzers 10 auf. In der bevorzugten
Ausführungsform ist die Kamera 38 derart angeordnet und ausgebildet, dass sie die Mimik des Nutzers erfassen kann.
Das Ausführungsbeispiel dient dazu, dass ein wesentlicher Teil des Körpers von Nutzer 10 zur Steuerung des Roboters 1 10 verwendet werden kann, indem direkt oder indirekt am Nutzer-Körper Sensoren angeordnet sind, die möglichst viele Bewegungen oder sonstige Reaktionen erfassen können. Ergänzt wird das durch weitere Sensoren, wie Kamera 38 und Bewegungssensor 39, die im Bereich des Nutzers 10 angeordnet sind und ebenfalls dessen Bewegungen erfassen. Zusätzlich können weitere Signale aus dem Bereich des Nutzers 10 erfasst werden, wie beispielsweise mittels des Mikrofons 28, die in entsprechender Weise auf Seiten des Roboters 110 wiedergegeben werden können.
Das Ausführungsbeispiel dient jedoch nicht nur zur Steuerung des Roboters 110 durch den Nutzer 10, sondern umgekehrt sollen auch Signale auf Seiten des Roboters 110 dem Nutzer in geeigneter weise zugeführt werden. Dazu gehören insbesondere die Einwirkungen auf den Nutzer-Körper durch Aktuatoren, die Teil des Exoskeletts 20 sein können. Ergänzt wird das durch akustische, optische, olfaktorische und/oder gustatorische Signale, die durch passende Sensoren im Bereich des Roboters 110 detektiert und über entsprechende Ausgabemittel dem Nutzer 10 zugeführt werden.
Die in Fig. 1 und 2 beschriebenen Mittel können jedoch dem Nutzer 10 keinen optimalen Eindruck über Lage, Geschwindigkeit und Beschleunigung des Roboters 110 vermitteln. Dafür ist zusätzlich ein Bewegungssimulator notwendig.
Fig. 3 zeigt ein bevorzugtes Beispiel für einen geeigneten Bewegungssimulator. Dabei handelt es sich um einen Rototranslator 40, der einen ersten Teil 40a und einen zweiten Teil 40b enthält. Der erste Teil 40a ist eine Translationseinheit, die drei Freiheitsgrade ermöglicht und zwar aufgrund ihres kartesischen Aufbaus entlang der Achsen, x, y und z. Der zweite Teil 40b ist eine Rotationseinheit, die ebenfalls drei Freiheitsgrade ermöglicht und hier als kardanische Aufhängung gestaltet ist. Die bevorzugte Ausführung weist zur Vermeidung des so genannten gimbal-lock Effektes 4 Achsen 42, 44, 46 und 48 auf, an denen drehbare Elemente 43, 45, 47 und 49 befestigt sind. In der bevorzugten Ausführung haben die
Elemente 43, 45, 47 eine ring-ähnliche Form und das vierte Element 49 ist nahezu halb-ringförmig. An dessen Unterseite befindet sich ein Befestigungspunkt 50, an dem der Nutzer 10 angeordnet werden kann. Das kann beispielsweise dadurch geschehen, dass das Exoskelett 20 oder eine Nutzerkapsel an dem Punkt 50 befestigt wird, oder auf ähnliche Weise.
Fig. 4 zeigt eine bevorzugte Ausführung einer solchen Befestigung. Dabei ist das Exoskelett 20, mit dem der Nutzer 10 fest verbunden ist, an dessen Rückenseite über ein Befestigungselement 52 und einen Befestigungsarm 54 an dem Punkt 50 befestigt. Das Befestigungselement 52 beinhaltet bevorzugterweise eine
Hochfrequenz-Rotations-Translationseinheit, die bei entsprechender Ansteuerung durch das Steuergerät 30 geeignet ist, den Nutzer 10 schnell zu bewegen, wodurch beispielsweise ein Schütteln wie bei einer Autofahrt auf holpriger Strecke simuliert werden kann.
Der Rototranslator 40 wird ebenfalls durch das Steuergerät 30 angesteuert. Dafür ist eine Vielzahl von hier nicht dargestellten Aktuatoren vorhanden, die Bewegungen in alle möglichen Freiheitsgrade sowohl bei der Translationseinheit 40a als auch bei der Rotationseinheit 40b ermöglichen.
Durch eine eins-zu-eins Übertragung der Posen des Roboters 1 10 auf den Nutzer 10 wird es ermöglicht, dass alle Körperbeschleunigungen des Roboters 110 für den Nutzer 10 erfahrbar werden. Dazu gehören auch lang anhaltende
Körperbeschleunigungen, wie beim Laufen einer Kurve. Die eins-zu-eins
Übertragung der Pose, besonders der translatorischen Beschleunigungen auf den Körperschwerpunkt des Roboters 110, findet ihre Grenze im verfügbaren
Arbeitsraum des Rototranslators 40. Sollte beispielsweise der translatorische Arbeitsraum des Roboters 110 den translatorischen Arbeitsraum der
Translationseinheit 40a übersteigen, kann die Pose nicht mehr eins-zu-eins übertragen werden. Dann werden die Aktuatoren des Rototranslators 40 durch das Steuergerät 30 derart angesteuert, dass ein Motion-Cueing Prozess realisiert wird. Dieser ermöglicht es, die Pose des Roboters 1 10 auf den Nutzer 10 derart zu übertragen, dass der Arbeitsraum des Rototranslators 40 nicht verlassen, aber dennoch ein realistischer Gesamteindruck für den Nutzer 10 erzeugt wird.
Eine zweite Anzeigeeinheit 56 ist im Sichtfeld des Nutzers 10 angeordnet, die zusätzlich oder stattdessen zu der ersten Anzeigeeinheit 24 verwendet werden kann. Die Anzeigeeinheit 56 kann insbesondere in solchen Fällen die erste
Anzeigeeinheit 24 ersetzen, in denen mittels der Kamera 38 (Fig. 2) die Mimik des Nutzers 10 möglichst vollständig erfasst werden soll. Die Anzeigeeinheit 56 kann gekrümmt, sphärisch oder flach sein und derart gestaltet sein, dass eine
Wiedergabe von 2- und/oder 3-dimensionalen Bildern möglich ist. Im Bereich des Nutzers 10 können außerdem hier nicht dargestellte Lautsprecher für Raumklang vorgesehen sein. Durch die Befestigung des Nutzers 10 an dem Befestigungspunkt 50 können mittels des Rototranslators 40 verschiedene Bewegungen simuliert werden, die der Roboter 110 durchführt bzw. die ihm von seiner Umgebung zugefügt werden. Bei dem bevorzugten Ausführungsbeispiel befinden sich der Nutzer 10 und der Roboter 110 in örtlicher Distanz voneinander, wie in verschiedenen Räumen, verschiedenen Gebäuden oder dergleichen. Dabei ist es besonders vorteilhaft, wenn zumindest einzelne der Leitungen 32 - 37 drahtlos gestaltet sind. Dafür sind unterschiedliche Technologien geeignet, wie eine Übermittlung über
elektromagnetische Wellen, optische, akustische Signale oder dergleichen.
Außerdem können die Leitungen 32 - 37, die in den Figuren als einfache Leitungen dargestellt sind, in vielfacher Weise ausgeführt sein. Wichtig ist, dass Signale von Sensoren sowie Signale an Aktuatoren und Anzeigeeinheiten in geeigneter Weise über passende Kanäle übertragen werden. Es ist ebenfalls möglich, dass das in den Figuren als zentrale Einheit dargestellte Steuergerät 30 dezentral ausgeführt ist, so dass beispielsweise Teile der Steuerung direkt am Master, am Slave, an einzelnen Gelenken und/oder irgendwo sonst stattfinden können. Dafür können Leitungen innerhalb des Steuerungssystems drahtlos und/oder drahtgebunden sein. Zur möglichst genauen Steuerung des Roboters 110 ist eine Vielzahl von
Körpersensoren am Nutzer 10 sowie in seiner Umgebung vorgesehen. Diese Sensoren können auf verschiedene Weise gestaltet sein. So sind Messungen von Winkeln und/oder Drehmomenten zwischen einzelnen Körperteilen, deren
Positionen sowie Messungen von optischen, akustischen und/oder bio-elektrischen (Elektromyographie) Signalen denkbar. Dabei ist es besonders vorteilhaft, wenn nicht nur Istwerte der Messungen ermittelt werden, sondern auch erste und zweite Ableitungen davon, um so eine Entwicklung entsprechender Werte für die nahe Zukunft abschätzen zu können. Die Körpersensoren können an verschiedenen Stellen angeordnet sein, wie direkt am Nutzer 10, innerhalb des Exoskeletts 20 und/oder dazwischen.
Um den Körper des Nutzers 10 umfangreich beeinflussen zu können, ist dort eine Vielzahl von Aktuatoren vorgesehen. Diese können auf Stellgrößen einwirken wie Winkel, Positionen, Kräfte oder Drehmomente sowie deren zeitliche Ableitungen. Dabei ist es besonders vorteilhaft, wenn die Ansteuerung zumindest von einzelnen der Aktuatoren mittels eines Regelungsprozesses erfolgt. Dafür werden
entsprechende Sensorsignale der Leitung 32 als Istwert im Steuergerät 30 ausgewertet, woraufhin die Ansteuerung der zugehörigen Aktuatoren einem vorgegebenen Sollwert angepasst wird.
Auch die Ansteuerung des Rototranslators 40 kann anhand eines
Regelungsverfahrens erfolgen, indem Istsignale entsprechender Sensoren in dem Steuergerät 30 empfangen und passend ausgewertet werden, wobei eine gewünschte Raumlage und Position eingestellt werden kann. Auch hierbei ist es vorteilhaft, wenn zusätzlich zeitliche Ableitungen solcher Werte bestimmt werden.
Auch an dem Körper des Roboters 110 und in dessen Umgebung ist eine Vielzahl von Sensoren angeordnet. Dies kann in ähnlicher Weise erfolgen wie bei dem Nutzer 10. Diese Sensoren beschreiben auch die aktuelle Raumlage und Position sowie gegebenenfalls deren zeitliche Ableitungen.
Das Steuergerät 30 steuert die Aktuatoren und Anzeigeeinheiten aufgrund der empfangenen Sensorsignale derart, dass eine bilaterale haptische Teleoperabilität ermöglicht wird. Außerdem können die Aktuatoren auf der Nutzerseite und des Roboters derart angesteuert werden, dass zusätzlich auch eine
Schwerkraftkompensation und/oder Kompensation von dynamischen Kräften stattfindet.
Bei der Interaktion zwischen dem Nutzer 10 und dem Roboter 1 10 kann es zu Zeitverzögerungen kommen, die insbesondere durch die Reaktionszeiten von Sensoren und Aktuatoren, Rechengeschwindigkeit des Steuergerätes 30 sowie Laufzeiten der verschiedenen Signale verursacht werden kann. Diese
Zeitverzögerungen können weitestgehend kompensiert werden, wenn zeitliche Ableitungen der von den Sensoren gemessenen Größen ausgewertet und daraus Werte in der Zukunft abgeschätzt werden. Da eine derartige Abschätzung jedoch insbesondere dann zu Problemen führen kann, wenn der Roboter 110 in Kontakt mit einem Gegenstand seiner Umgebung tritt, sind bei einer Weiterbildung des
Ausführungsbeispiels Ultraschallwandler vorgesehen, die nach Art einer Parkhilfe die Entfernung zu dem Gegenstand schnell erkennen lassen. Durch die
Verwendung dieser Daten zur Kontaktvorhersage kann der Eindruck eines
Kontaktes und ein realitätsnahes Feedback rechtzeitig beim Nutzer 10 erzeugt werden.
Die beschriebenen Ausführungsbeispiele erlauben also, dass der Nutzer 10 und der Roboter 110 die gleichen Haltungen einnehmen, wie Stehen, Sitzen, Liegen, Kopfstand, sowie gemeinsame Bewegungen durchführen, wie Gehen, Laufen, Springen, Salto, usw. Außerdem erhält der Nutzer 10 ein haptisches Feedback. Denn wenn er den Roboter 110 bewegt und dieser mit irgendeinem seiner
Körperteile in Kontakt mit seiner Umgebung kommt, wird das von den
entsprechenden Sensoren aufgenommen und über das Steuergerät 30 an den Nutzer 10 weiter gegeben.
Die bevorzugte Ausführung hat außerdem den Vorteil, eine völlige, unbegrenzte Beweglichkeit in sechs Freiheitsgraden (6-dof Beweglichkeit) des Statthalters zu erreichen und dem Nutzer jederzeit komplettes realitätsnahes Kraft-Feedback zu vermitteln. Dadurch wird es dem Nutzer möglich, komplexe reale oder virtuelle Welten in ihrer Körperlichkeit und Beschaffenheit besser zu erfahren als bisher. Dabei sind verschiedene Teleoperationen möglich. Dafür kann der Nutzer 10 den Roboter 110 beispielsweise in einer lebensgefährlichen Umgebung steuern, wie in einem radioaktiven Raum, bei einem Kampfeinsatz oder dergleichen. Aufgabe eines solchen Systems ist also, die Anwendbarkeit von realen Robotern auf Gebiete und Probleme zu erweitern, in denen sie autonom oder semi-autonom nicht handeln können. Dieses umfasst zum Beispiel die Fortbewegung des Roboters 110 in Wüstensand, Sümpfen, Wäldern, komplexen Situationen in Gebäuden, Interaktion mit empfindlichen Lebewesen, usw. Komplexe Bewegungen, wie Robben,
Nahkampf, Rollen Springen, usw. sind möglich. Ein Großteil der Steuerung, der Wahrnehmung, der Interpretation der Daten und auch der Entscheidungen, werden nun direkt und in Echtzeit durch den Nutzer 10, wie einen Menschen, erbracht. Die beschriebenen Ausführungsbeispiele können in vielfacher Weise abgewandelt werden. Dabei sind insbesondere denkbar:
- Das Nutzer-Exoskelett 20 und das Roboter-Exoskelett können verschieden oder baugleich sein. Insbesondere kann der Slave auch ein humanoider oder ein andersartiger Roboter allgemeiner Körperform sein.
- In dem Steuergerät 30 ist eine Speichereinheit vorhanden, die vorgegebene - beispielsweise berechnet, ausgehend von vorhandenen 3-dimensionalen Bewegungssequenzen - oder bereits vom Nutzer 10 oder von einem anderen Nutzer durchgeführte Positionen und/oder Bewegungsabläufe und/oder wirkende Kräfte und/oder andere wiederzugebende
Sinneseindrücke speichert. Diese können dann nach Belieben umgesetzt werden. Dadurch kann der Nutzer 10 seine Körperkoordination trainieren oder einen haptischen Film erleben.
- Die erfindungsgemäßen Ausführungsbeispiele können auch dazu verwendet werden, dass mehrere Nutzer über eine größere Distanz miteinander kommunizieren und interagieren können. Bei einer solchen Anwendung befindet sich im Bereich des Roboters 110 ein oder mehrere weitere Nutzer, von denen jeder ebenfalls ein Exoskelett oder dergleichen trägt und dadurch einen zweiten Roboter steuert, der sich im Bereich des Nutzers 10 befindet. Dadurch können beispielsweise Therapiemaßnahmen, Turnübungen oder dergleichen trainiert werden. Auch können die gesteuerten Roboter, unabhängig vom Aufenthaltsort und Anzahl der Nutzer, gemeinsam im gleichen Raum interagieren und die Nutzer so kommunizieren.
Alternativ benutzen beide oder mehrere Nutzer jeweils ein Exoskelett oder dergleichen und steuern jeweils einen Statthalter in einer gemeinsamen virtuellen Realität. Dies erlaubt die haptische, akustische, visuelle, etc.
Kommunikation.
- Anstelle des Rototranslators 40 können andere Mittel verwendet werden, die die notwendigen Translations- und Rotationsfreiheitsgrade abdecken. Dazu gehören insbesondere die Stewart-Bewegungsplattform, ein
Mehrachsenindustrieroboter oder dergleichen. Weiterhin sind kugel-ähnliche Räume bekannt die reibungsarm gelagert und von außen gedreht werden können, wie aus US 6,629,896 B2 und US2, 344,454 sowie dem Artikel „Novel 3-DOF Reconfigurable Spherical Motion Generator with Unlimited Workspace", Shiu Hang Ip et al., ACRA 2009 (siehe
http://www.araa.asn.au/acra/acra2009/papers/pap145s1.pdf ; letzter Abruf Juni 2010). In einem solchen kugel-ähnlichen Raum, der drei
Rotationsfreiheitsgrade hat, kann das Exoskelett 20 angebracht werden. Das Ganze kann auf einer Translationseinheit montiert werden, um insgesamt sechs Freiheitsgrade zu erhalten.
Für einfache und preiswerte Systeme ist es ebenfalls möglich, die Anzahl der Freiheitsgrade zu reduzieren oder ihren Parameterraum einzuschränken. So kann ein kipp- und schwenkbarer Balken, montiert am Boden oder an der Decke eines Raumes, an dem das Exoskelett beweglich befestigt ist, ausreichen, um viele Bewegungen realitätsnah darzustellen. Bei einer kardanischen Aufhängung reichen auch zwei oder drei Achsen aus, sofern entsprechende Einschränkungen in Kauf genommen werden.
Der körperlich vorhandene Roboter 110 in einer realen Umgebung kann ersetzt werden durch einen sonstigen Statthalter, wie ein virtuelles Modell eines Roboters oder eines Lebewesens in einer virtuellen Umgebung. Dabei entfallen also alle zugehörigen Roboter-Sensoren und Roboter-Aktuatoren; diese werden ersetzt durch eine entsprechende Simulation.
Referenzzeichenliste
10 Nutzer
10a Nutzer-Hände
10b Nutzer-Ellenbogen
10c Nutzer-Kniegelenke
12 Nutzer-Rumpf
13 Nutzer-Rücken
14 Nutzer-Arme
16 Nutzer-Beine
17 Nutzer-Füße
18 Nutzer-Kopf
20 Nutzer-Exoskelett
22 Helm
24 optische Anzeigeeinheit
26 akustische Wiedergabeeinheit
28 Mikrofon
30 elektronisches Steuergerät
32 erste Sensorleitung
33 zweite Sensorleitung
34 erste Wiedergabeleitung
35 zweite Wiedergabeleitung
36 erste Steuerleitung
37 zweite Steuerleitung
38 Nutzer-Kamera
39 Nutzer-Bewegungssensor
40 Rototranslator
40a Translationseinheit
40b Rotationseinheit
42, 44, 46, 48 Achsen der Rotationseinheit
43, 45, 47, 49 Elemente der Rotationseinheit
50 Befestigungspunkt
52 Befestigungselement 54 Befestigungsarm
56 zweite Anzeigeeinheit
110 Roboter
112 Roboter-Rumpf
114 Roboter-Arme
116 Roboter-Beine
117 Roboter-Füße
118 Roboter-Kopf
122 Roboter-Kamerasystem 124 Roboter-Lautsprechersystem
126 Roboter-Mikrofonsystem
128 Roboter-Geruchssensoren
130 Rumpf-Nutzraum
132 Arme-Nutzraum
134 Beine-Nutzraum
136 Kopf-Nutzraum
NS Nutzer-Sensoren
ND Nutzer-Ausgabeeinheiten NA Nutzer-Aktuatoren
RS Roboter-Sensoren
RD Roboter-Ausgabeeinheiten
RA Roboter-Aktuatoren

Claims

Patentansprüche
Verfahren zur Steuerung eines Statthalters (110) durch Bewegungen des Körpers eines Nutzers (10) wobei erste Signale von Nutzer-Sensoren (NS) erfasst und ausgewertet werden und aufgrund der ersten Signale Statthalter- Aktuatoren (RA) bei dem Statthalter (110) derart angesteuert werden, dass zumindest einzelne seiner Teile (112, 114, 116, 118) von diesem Haltungen, Positionen, Bewegungen, Kräfte und/oder Drehmomente wie der Körper des Nutzers (10) durchführen können, wobei außerdem zweite Signale von Statthalter-Sensoren (RS) erfasst und ausgewertet werden und aufgrund dieser zweiten Signale Nutzer-Aktuatoren (NA) derart angesteuert werden, dass zumindest einzelne Körperteile des Nutzers (10) beeinflusst werden, dadurch gekennzeichnet, dass die Nutzer-Sensoren (NS) Haltungen, Positionen, Bewegungen, Kräfte und/oder Drehmomente zumindest von einem Körperteil (12 - 18) des Nutzers (10) erfassen und Teile (112 - 118) des Statthalters (110) entsprechend bewegt werden.
Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass die Nutzer- Sensoren (NS) Haltungen, Positionen, Bewegungen, Kräfte und/oder Drehmomente zumindest von einem Bein (16) des Nutzers (10) erfassen können und dass Teile (114, 116) des Statthalters (110) entsprechend bewegt werden.
Verfahren nach einem der vorigen Ansprüche, dadurch gekennzeichnet, dass die Nutzer-Sensoren (NS) Haltungen, Positionen, Bewegungen, Kräfte und/oder Drehmomente zumindest von einem Arm (14) und einem Bein (16) des Nutzers (10) erfassen können und dass Teile (114, 116) des Statthalters (110) entsprechend bewegt werden. 4. Verfahren nach einem der vorigen Ansprüche, dadurch gekennzeichnet, dass zumindest einzelne der Körperteile des Nutzers (10) und/oder des Statthalters (110) mit einem Exoskelett (20) verbunden sind und dass dieses mindestens einen der Aktuatoren (NA; RA) und/oder mindestens einen der Sensoren (NS; RS) enthält.
Verfahren nach einem der vorigen Ansprüche, dadurch gekennzeichnet, dass Signale der Nutzer-Sensoren (NS) erfasst und ausgewertet werden und zur Ansteuerung der Nutzer-Aktuatoren (NA) genutzt werden.
Verfahren nach einem der vorigen Ansprüche, dadurch gekennzeichnet, dass Signale der Statthalter-Sensoren (RS) erfasst und ausgewertet werden und zur Ansteuerung der Statthalter-Aktuatoren (RA) genutzt werden.
Verfahren nach einem der vorigen Ansprüche, dadurch gekennzeichnet, dass die Nutzer-Aktuatoren (NA) Mittel zur Ansteuerung eines
Bewegungssimulators (40) umfassen, die derart gestaltet und angeordnet sind, dass der Nutzer (10) bei Vorliegen entsprechender Steuersignale als Ganzes bewegt wird.
Verfahren nach einem der vorigen Ansprüche, dadurch gekennzeichnet, dass der Statthalter (110) als reale Maschine, als virtuelle Maschine, als realer Roboter, als virtueller Roboter und/oder als virtuelles Modell eines Lebewesens gestaltet sein kann, wobei die zugehörigen Statthalter- Sensoren (RS) und Statthalter-Aktuatoren (RA) entsprechend gestaltet sind.
Verfahren nach einem der vorigen Ansprüche, dadurch gekennzeichnet, dass die Nutzer-Aktuatoren (NA) und/oder Nutzer-Ausgabeeinheiten (ND) durch abgespeicherte Signale angesteuert werden, die vorgegebene Beeinflussungen von Körperteilen bzw. von Sinneseindrücken des Nutzers (10) darstellen.
10. Verfahren nach einem der vorigen Ansprüche, dadurch gekennzeichnet, dass Bewegungen des Nutzers (10) und/oder des Statthalters (110) gesteuert werden in Abhängigkeit von Signalen von Sensormitteln, die den Abstand zwischen dem Nutzer (10) und/oder dem Statthalter (1 10) und Gegenständen der jeweiligen Umgebung ermitteln.
11. Verfahren nach einem der vorigen Ansprüche, dadurch gekennzeichnet, dass die Nutzer-Aktuatoren (NA) derart angesteuert werden, dass der Nutzer (10), wenn er sich in einer Flüssigkeit befindet, derart beeinflusst wird, dass ihm eine Bewegung wie bei teilweiser oder vollständiger Schwerelosigkeit simuliert wird.
12. Verfahren nach Anspruch 1 1 , dadurch gekennzeichnet, dass die Dämpfung der Bewegung des Nutzers (10) in der Nutzer-Einheit in der Flüssigkeit skaliert wird.
13. Verfahren nach einem der vorigen Ansprüche, dadurch gekennzeichnet, dass sowohl auf der Nutzer-Seite als auch auf der Statthalter-Seite ein Nutzer Einfluss auf eine bilaterale Interaktion nehmen kann.
1 . Verfahren nach einem der vorigen Ansprüche, dadurch gekennzeichnet, dass zwei oder mehr Nutzer-Einheiten und/oder zwei oder mehr Statthalter (110) beeinflusst werden.
15. Verfahren nach einem der vorigen Ansprüche, dadurch gekennzeichnet, dass mindestens zwei Nutzer (10) vorhanden sind, die gemeinsam einen Statthalter (110) mit jeweils vorgegebenen Anteilen steuern.
16. Verfahren nach einem der vorigen Ansprüche, dadurch gekennzeichnet, dass zwei oder mehr Nutzer (10) vorhanden sind, die unterschiedliche Statthalter (1 10) steuern können.
17. Vorrichtung zur Steuerung eines Statthalters (110) durch Bewegungen des Körpers eines Nutzers (10) wobei Nutzer-Sensoren (NS) vorhanden sind, deren Signale von einer Steuereinheit (30) erfasst und ausgewertet werden und die aufgrund dieser Nutzer-Sensor-Signale Statthalter-Aktuatoren (RA) bei dem Statthalter (1 10) derart ansteuert, dass zumindest einzelne seiner Teile (1 12, 1 14, 1 16, 118) von diesem Haltungen, Positionen, Bewegungen, Kräfte und/oder Drehmomente wie der Körper des Nutzers (10) durchführen können, wobei außerdem Statthalter-Sensoren (RS) vorhanden sind, deren Signale von der Steuereinheit (30) erfasst und ausgewertet werden und die aufgrund dieser Statthalter-Sensor-Signale Nutzer-Aktuatoren (NA) derart ansteuert, dass zumindest einzelne Körperteile des Nutzers (10) beeinflusst werden, dadurch gekennzeichnet, dass die Nutzer-Sensoren (NS)
Haltungen, Positionen, Bewegungen, Kräfte und/oder Drehmomente zumindest von einem Körperteil (12 - 18) des Nutzers (10) erfassen und Teile (112 - 118) des Statthalters (110) durch die Statthalter-Aktuatoren (RA) entsprechend bewegt werden.
18. Vorrichtung nach Anspruch 17, dadurch gekennzeichnet, dass die Nutzer- Sensoren (NS) derart ausgebildet und angeordnet sind, dass sie Haltungen, Positionen, Bewegungen, Kräfte und/oder Drehmomente zumindest von einem Bein (16) des Nutzers (10) erfassen können und dass die
Steuereinheit (30) die Statthalter-Aktuatoren (RA) derart ansteuert, dass Teile (11 , 116) des Statthalters (110) entsprechend bewegt werden.
19. Vorrichtung nach einem der vorigen Vorrichtungsansprüche, dadurch
gekennzeichnet, dass die Nutzer-Sensoren (NS) derart ausgebildet und angeordnet sind, dass sie Haltungen, Positionen, Bewegungen, Kräfte und/oder Drehmomente zumindest von einem Arm (14) und einem Bein (16) des Nutzers (10) erfassen können und dass die Steuereinheit (30) die Statthalter-Aktuatoren (RA) derart ansteuert, dass Teile (114, 116) des Statthalters (110) entsprechend bewegt werden.
20. Vorrichtung nach einem der vorigen Vorrichtungsansprüche, dadurch
gekennzeichnet, dass ein Exoskelett (12) vorhanden ist, mit dem zumindest einzelne der Körperteile des Nutzers (10) und/oder des Statthalters (110) verbunden sind und dass dieses mindestens einen der Aktuatoren (NA, RA) und/oder mindestens einen der Sensoren (NS, RS) enthält.
21. Vorrichtung nach einem der vorigen Vorrichtungsansprüche, dadurch
gekennzeichnet, dass die Steuereinheit (30) Signale der Nutzer-Sensoren (NS) erfasst und auswertet und zur Ansteuerung der Nutzer-Aktuatoren (NA) nutzt.
22. Vorrichtung nach einem der vorigen Vorrichtungsansprüche, dadurch
gekennzeichnet, dass die Steuereinheit (30) Signale der Statthalter-
Sensoren (RS) erfasst und auswertet und zur Ansteuerung der Statthalter- Aktuatoren (RA) nutzt.
23. Vorrichtung nach einem der vorigen Vorrichtungsansprüche, dadurch
gekennzeichnet, dass die Nutzer-Aktuatoren (NA) Mittel zur Ansteuerung eines Bewegungssimulators (40) umfassen, die derart gestaltet und angeordnet sind, dass der Nutzer (10) bei Vorliegen entsprechender Steuersignale als Ganzes bewegt wird.
24. Vorrichtung nach einem der vorigen Vorrichtungsansprüche, dadurch
gekennzeichnet, dass der Statthalter (110) als reale Maschine, als virtuelle Maschine, als realer Roboter, als virtueller Roboter und/oder als virtuelles Modell eines Lebewesens gestaltet sein kann, wobei die zugehörigen Statthalter-Sensoren (RS) und Statthalter-Aktuatoren (RA) entsprechend gestaltet sind.
25. Vorrichtung nach einem der vorigen Vorrichtungsansprüche, dadurch
gekennzeichnet, dass die Steuereinheit (30) einen Speicher enthält, in den Signale abgespeichert sein können, aufgrund derer die Nutzer-Aktuatoren (NA) und/oder Nutzer-Ausgabeeinheiten (ND) derart angesteuert werden können, dass sie vorgegebene Beeinflussungen von Körperteilen bzw. von Sinneseindrücken des Nutzers (10) bewirken.
26. Vorrichtung nach einem der vorigen Vorrichtungsansprüche, dadurch
gekennzeichnet, dass die Steuereinheit (30) Bewegungen des Nutzers (10) und/oder des Statthalters (110) in Abhängigkeit von Signalen von
Sensormitteln steuert, die den Abstand zwischen dem Nutzer (10) und/oder dem Statthalter (110) und Gegenständen der jeweiligen Umgebung ermitteln.
27. Vorrichtung nach einem der vorigen Vorrichtungsansprüche, dadurch
gekennzeichnet, dass die Steuereinheit (30) die Nutzer-Aktuatoren (NA) derart ansteuert, dass der Nutzer ( 0), wenn er sich in einer Flüssigkeit befindet, derart beeinflusst wird, dass ihm eine Bewegung wie bei teilweiser oder vollständiger Schwerelosigkeit simuliert wird.
28. Vorrichtung nach Anspruch 27, dadurch gekennzeichnet, dass die
Steuereinheit (30) die Nutzer-Aktuatoren (NA) derart ansteuert, dass die Dämpfung der Bewegung des Nutzers (10) in der Nutzer-Einheit skaliert wird.
29. Vorrichtung nach einem der vorigen Vorrichtungsansprüche, dadurch
gekennzeichnet, dass sowohl auf der Nutzer-Seite als auch auf der Statthalter-Seite Sensoren (NS, RS), Aktuatoren (NA, RA) und/oder Ausgabeeinheiten (ND, RD) derart gestaltet sind, dass ein Nutzer Einfluss auf eine bilaterale Interaktion nehmen kann.
30. Vorrichtung nach einem der vorigen Vorrichtungsansprüche, dadurch
gekennzeichnet, dass zwei oder mehr Nutzer-Einheiten und/oder zwei oder mehr Statthalter (1 10) vorhanden sind.
31. Vorrichtung nach einem der vorigen Vorrichtungsansprüche, dadurch
gekennzeichnet, dass Mittel vorhanden sind, die es ermöglichen, dass mindestens zwei Nutzer (10) gemeinsam einen Statthalter (110) mit jeweils vorgegebenen Anteilen steuern können.
32. Vorrichtung nach einem der vorigen Vorrichtungsansprüche, dadurch
gekennzeichnet, dass die Steuereinheit (30) derart gestaltet ist, dass zwei oder mehr Nutzer (10) unterschiedliche Statthalter (1 10) steuern können.
33. Vorrichtung nach einem der vorigen Vorrichtungsansprüche, dadurch
gekennzeichnet, dass der Statthalter (110) einen Nutzraum (130, 132, 134, 136) umfasst, der geeignet ist, Mittel zur Steuerung, Mittel zur Energieversorgung, Betriebsstoffe, Aggregate, Werkzeuge und/oder dergleichen aufzunehmen.
PCT/EP2011/001045 2010-03-02 2011-03-02 Verfahren und vorrichtung zur steuerung eines roboters WO2011107278A1 (de)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
DE102010010010 2010-03-02
DE102010010010.2 2010-03-02
DE102010010246 2010-03-03
DE102010010246.6 2010-03-03
DE201010023914 DE102010023914A1 (de) 2010-03-02 2010-06-16 Verfahren und Vorrichtung zur Steuerung eines Statthalters
DE102010023914.3 2010-06-16

Publications (1)

Publication Number Publication Date
WO2011107278A1 true WO2011107278A1 (de) 2011-09-09

Family

ID=44503053

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2011/001045 WO2011107278A1 (de) 2010-03-02 2011-03-02 Verfahren und vorrichtung zur steuerung eines roboters

Country Status (2)

Country Link
DE (1) DE102010023914A1 (de)
WO (1) WO2011107278A1 (de)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2800908A4 (de) * 2012-01-06 2015-09-30 Marvel Tech Inc Interaktive elektrisch-hydraulische doppelfeedback-schleife
US10166680B2 (en) 2015-07-31 2019-01-01 Heinz Hemken Autonomous robot using data captured from a living subject
US10195738B2 (en) 2015-07-31 2019-02-05 Heinz Hemken Data collection from a subject using a sensor apparatus
US20200249654A1 (en) * 2019-02-06 2020-08-06 Cy-Fighter LLC Robotic control via a virtual world simulation

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101317383B1 (ko) * 2011-10-12 2013-10-11 한국과학기술연구원 로봇을 이용한 인지 능력 훈련 장치 및 그 방법
DE102012002786B4 (de) * 2012-02-15 2017-06-01 Festo Ag & Co. Kg Manipulatorsystem und Verfahren zum Betreiben eines Manipulatorsystems
DE102012211190B4 (de) * 2012-06-28 2019-07-18 Deutsches Zentrum für Luft- und Raumfahrt e.V. Bewegungssimulator
CN103257027B (zh) * 2013-05-24 2015-10-21 山东泰山体育器材有限公司 一种体操器材运动仿真测试***
DE102016007741A1 (de) 2016-06-27 2017-12-28 Marcel Reese Erfindung das Gebiet betreffend von Exoskeletten, humanoiden Robotern und auch deren Verwendung in teleoperativen Anwendungen in virtuellen Welten oder der realen Welt
DE102016117760A1 (de) 2016-09-21 2018-03-22 Andre HERZOG Anordnung für einen Bewegungssimulator in Kombination mit einem stationären Ganzkörperexoskelett, einem Head-Mounted-Display und einem virtuellen Raum
US10821614B2 (en) 2016-11-11 2020-11-03 Sarcos Corp. Clutched joint modules having a quasi-passive elastic actuator for a robotic assembly
US10843330B2 (en) * 2017-12-07 2020-11-24 Sarcos Corp. Resistance-based joint constraint for a master robotic system

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US2344454A (en) 1942-12-07 1944-03-14 Bell Telephone Labor Inc Training device
WO1997009153A1 (en) * 1995-09-08 1997-03-13 Ross-Hime Designs, Inc. Robotic manipulator
US6016385A (en) * 1997-08-11 2000-01-18 Fanu America Corp Real time remotely controlled robot
US6629896B2 (en) 2001-12-29 2003-10-07 Steven Jones Nimble virtual reality capsule using rotatable drive assembly
GB2400686A (en) * 2003-04-04 2004-10-20 Christopher Charles Box Motion logging and robotic control and display system
DE102007035401A1 (de) 2007-07-26 2009-01-29 Technische Universität Berlin Anordnung für ein Exoskelett und Gliedmaßen-Exoskelett

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1997002520A1 (en) * 1995-06-30 1997-01-23 Ross-Hime Designs, Inc. Robotic manipulator
JPH09109069A (ja) * 1995-10-13 1997-04-28 Gen Sugano パワード・インテリジェント方法及びユニット
US6007338A (en) * 1997-11-17 1999-12-28 Disney Enterprises, Inc. Roller coaster simulator
JP2007276052A (ja) * 2006-04-06 2007-10-25 Sony Corp 制御システム、記録システム、情報処理装置および方法、プログラム、並びに記録媒体
JP5093498B2 (ja) * 2008-07-09 2012-12-12 花王株式会社 マニプレータシステム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US2344454A (en) 1942-12-07 1944-03-14 Bell Telephone Labor Inc Training device
WO1997009153A1 (en) * 1995-09-08 1997-03-13 Ross-Hime Designs, Inc. Robotic manipulator
US6016385A (en) * 1997-08-11 2000-01-18 Fanu America Corp Real time remotely controlled robot
US6629896B2 (en) 2001-12-29 2003-10-07 Steven Jones Nimble virtual reality capsule using rotatable drive assembly
GB2400686A (en) * 2003-04-04 2004-10-20 Christopher Charles Box Motion logging and robotic control and display system
DE102007035401A1 (de) 2007-07-26 2009-01-29 Technische Universität Berlin Anordnung für ein Exoskelett und Gliedmaßen-Exoskelett

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
"Springer Handbook of Robotics", 2008, SPINGER
HASUNUMA H ET AL: "A tele-operated humanoid robot drives a backhoe", 2003 IEEE INTERNATIONAL CONFERENCE ON ROBOTICS AND AUTOMATION, PISCATAWAY, NJ, USA; [PROCEEDINGS OF THE IEEE INTERNATIONAL CONFERENCE ON ROBOTICS AND AUTOMATION],, vol. 3, 14 September 2003 (2003-09-14), pages 2998 - 3004, XP010668435, ISBN: 978-0-7803-7736-3, DOI: DOI:10.1109/ROBOT.2003.1242051 *
HITOSHI HASUNUMA ET AL: "The Tele-operation of the Humanoid Robot-Whole Body Operation for Humanoid Robots in Contact with Environment-", HUMANOID ROBOTS, 2006 6TH IEEE-RAS INTERNATIONAL CONFERENCE ON, IEEE, PI, 1 December 2006 (2006-12-01), pages 333 - 339, XP031053041, ISBN: 978-1-4244-0199-4 *
SHIU HANG IP ET AL.: "Novel 3-DOF Reconfigurable Spherical Motion Generator with Unlimited Workspace", ACRA, 2009, Retrieved from the Internet <URL:http://www.araa.asn.au/acralacra2009/papers/pap145s1.pdf>

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2800908A4 (de) * 2012-01-06 2015-09-30 Marvel Tech Inc Interaktive elektrisch-hydraulische doppelfeedback-schleife
US10166680B2 (en) 2015-07-31 2019-01-01 Heinz Hemken Autonomous robot using data captured from a living subject
US10195738B2 (en) 2015-07-31 2019-02-05 Heinz Hemken Data collection from a subject using a sensor apparatus
US20200249654A1 (en) * 2019-02-06 2020-08-06 Cy-Fighter LLC Robotic control via a virtual world simulation
US11762369B2 (en) 2019-02-06 2023-09-19 Sensory Robotics, Inc. Robotic control via a virtual world simulation

Also Published As

Publication number Publication date
DE102010023914A1 (de) 2011-09-08

Similar Documents

Publication Publication Date Title
WO2011107278A1 (de) Verfahren und vorrichtung zur steuerung eines roboters
Culbertson et al. Haptics: The present and future of artificial touch sensation
US10875188B2 (en) Universal motion simulator
JP5946767B2 (ja) 触覚フィードバックにより特有の動きを模擬する方法および該方法を実行する装置
DE102016122340A1 (de) Fußknöchellose Gehunterstützungsvorrichtung und Verfahren zum Steuern derselben
CN104823225A (zh) 遥控载具组合仿真及控制方法及装置
Mauro et al. Dynamic flight simulation with a 3 dof parallel platform
O'Malley et al. Passive and active assistance for human performance of a simulated underactuated dynamic task
CN109213306A (zh) 一种机器人远程控制平台及其设计方法
Karpushkin et al. Structural model of software and hardware platform for the training complex based on a controlled treadmill
Schmidtler et al. Influence of size-weight illusion on usability in haptic human-robot collaboration
EP3587043A1 (de) Anordnung und verfahren zur haptischen immersion eines nutzers
Rodriguez et al. A 3-D hand rehabilitation system using haptic device
DE102005024667A1 (de) Haptische Schnittstelle
Otis et al. Cartesian control of a cable-driven haptic mechanism
Tanaka Robot-aided rehabilitation methodology for enhancing movement smoothness by using a human hand trajectory generation model with task-related constraints
Mizanoor Rahman Grasp rehabilitation of stroke patients through object manipulation with an intelligent power assist robotic system
Puerto et al. Control strategies applied to kinesthetic haptic devices
Gourmelen Embodied robot systems: control and learning for skill-transfer from humans
Kwon et al. 7-DOF horseback riding simulator based on a crank mechanism with variable radius and its inverse kinematics solution
CN116901066A (zh) 基于场景信息和神经调制机制驱动的机器人社会行为同步控制方法
Santamato et al. Anywhere is possible: An Avatar Platform for Social Telepresence with Full Perception of Physical Interaction
Gleeson Remotely operated telepresent robotics
DE102020104356A1 (de) Aufstellort eines Robotermanipulators
Nitsch et al. Assistance functions for collaborative haptic interaction in virtual environments and their effect on performance and user comfort

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11709868

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 11709868

Country of ref document: EP

Kind code of ref document: A1