DE29719995U1 - System for converting visually recorded room data into tangible and tactile information - Google Patents

System for converting visually recorded room data into tangible and tactile information

Info

Publication number
DE29719995U1
DE29719995U1 DE29719995U DE29719995U DE29719995U1 DE 29719995 U1 DE29719995 U1 DE 29719995U1 DE 29719995 U DE29719995 U DE 29719995U DE 29719995 U DE29719995 U DE 29719995U DE 29719995 U1 DE29719995 U1 DE 29719995U1
Authority
DE
Germany
Prior art keywords
instruments
user
information
sensors
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE29719995U
Other languages
German (de)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to DE29719995U priority Critical patent/DE29719995U1/en
Publication of DE29719995U1 publication Critical patent/DE29719995U1/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F9/00Methods or devices for treatment of the eyes; Devices for putting-in contact lenses; Devices to correct squinting; Apparatus to guide the blind; Protective devices for the eyes, carried on the body or in the hand
    • A61F9/08Devices or methods enabling eye-patients to replace direct visual perception by another kind of perception
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute
    • G09B21/001Teaching or communicating with blind persons
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute
    • G09B21/001Teaching or communicating with blind persons
    • G09B21/003Teaching or communicating with blind persons using tactile presentation of the information, e.g. Braille displays

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Educational Administration (AREA)
  • Business, Economics & Management (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Educational Technology (AREA)
  • Vascular Medicine (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Ophthalmology & Optometry (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Eye Examination Apparatus (AREA)

Description

t« *tt« *t

Beschreibung: System zur Umwandlung von visuell aufgenommenen Daten in erfühl - und ertastbare InformationenDescription: System for converting visually recorded data into tangible and palpable information

Oben beschriebenes System dient zur Umwandlung von visuell aufgenommenen Daten in durch einen menschlichen Benutzer erfühl - und ertastbare Informationen. Beim Einsatz des System ist es einem menschlichen Benutzer möglich, sich in einem Raum zu orientieren, ohne dabei auf eigene visuelle Informationen angewiesen zu sein. Ein potentielles Einsatzgebiet liegt damit vor allem im Bereich der Rehabilitationstechnik: mit vorgestelltem System kann eine blinde Person, der keine eigenen visuellen Daten mehr zugänglich sind, sich in ihrer Umwelt orientieren, indem sie die für das System erforderliche Sensorik und Aktorik trägt und die verarbeitende Elektronik angeschlossen ist. Die optischen Sensoren, vorzugsweise Kameras, erfassen das Bild des Raumes. Zur Erfassung von Texturen und Farben genügt eine Kamera. Soll das Relief des Raumes, die dreidimensionale Struktur, erfaßt werden, so muß eine zweite Kamera, die aus einer anderen Position den Raum aufnimmt, hinzugefügt werden. Ebenso kann letzere Erfassung mit Sensorik zur Entfernungsmessung durchgeführt werden.The system described above is used to convert visually recorded data into information that can be felt and touched by a human user. When using the system, a human user is able to orient themselves in a room without having to rely on their own visual information. One potential area of application is therefore primarily in the field of rehabilitation technology: with the system presented, a blind person who no longer has access to their own visual data can orient themselves in their environment by wearing the sensors and actuators required for the system and by connecting the processing electronics. The optical sensors, preferably cameras, capture the image of the room. One camera is sufficient to capture textures and colors. If the relief of the room, the three-dimensional structure, is to be captured, a second camera must be added that captures the room from a different position. The latter capture can also be carried out using sensors for distance measurement.

Die so aufgenommenen Daten werden vom verarbeitenden Computer - oder Elektroniksystem zunächst umgewandelt in eine als Daten vorliegenden dreidimensionale Struktur. Der Computer bildet diese Struktur nun für den Benutzer ab, indem er sie in Signale umsetzt, die die Person durch bestimmte Kontakte, die er an einem Körperteil trägt, fühlen kann. Sind diese Kontakte beispielsweise in den Fingerkuppen eines Handschuhs untergebracht, so kann der Benutzer diesen Handschuh anziehen und bewegen. Bewegt er seine Hand in einem vor ihm befindlichen virtuellen Würfel mit der Kantenlänge von einem Meter, so überträgt der Computer die dreidimensionalen Daten der entsprechenden Stelle des aufgenommenen Raumes auf den Handschuh des Benutzers. Der Benutzer kann also spüren, wenn er im verkleinerten, virtuellen Raum (dem der virtuelle Würfel entspricht) auf einThe data recorded in this way is first converted by the processing computer or electronic system into a three-dimensional structure in the form of data. The computer then displays this structure for the user by converting it into signals that the person can feel through certain contacts that he or she wears on a part of his or her body. If these contacts are located in the fingertips of a glove, for example, the user can put on and move the glove. If he or she moves his or her hand in a virtual cube in front of him or her with an edge length of one meter, the computer transfers the three-dimensional data of the corresponding point in the recorded space to the user's glove. The user can therefore feel when he or she touches a part of the reduced, virtual space (which the virtual cube corresponds to).

massives Objekt trifft, das sich im realen Raum an äquivalenter Position befindet. Befindet sich gegenüber des Benutzers beispielsweise eine offene Tür, so erkennt der Computer an dieser Stelle beispielsweise ein „Loch" in einem massiven Objekt, nämlich der Wand. Bewegt der Benutzer nun seinen Handschuh (relativ zu seinem Brustkorb) einen Meter nach vorne, so durchfahrt er mit dieser Bewegung den ganzen realen Raum längs; er spürt dabei alle vorkommenden massiven Objekte oder Kanten. Kommt er am Ende des virtuellen Würfels an, so spürt er die massive Wand; durch eine Bewegung zur Seite, senkrecht zur vorigen Bewegungsrichtung seines Arms bzw. seiner Hand, fühlt er, daß in dieser Wand jedoch ein Loch ist; dieses wird er aufgrund der Form als Tür identifizieren können. Befinden sich im Handschuh Kontakte, die (z.B. durch Kontraktion) Druck auf die Fingerkuppen des Benutzers ausüben können, so entspricht ein massives Objekt erhöhtem Druck, während freier Raum keinem Druck entspricht.solid object that is in an equivalent position in real space. If, for example, there is an open door opposite the user, the computer will recognize a "hole" in a solid object, namely the wall, at this point. If the user now moves his glove one meter forward (relative to his chest), he will travel through the entire real space lengthways with this movement; he will feel all of the solid objects or edges that are present. If he reaches the end of the virtual cube, he will feel the solid wall; by moving to the side, perpendicular to the previous direction of movement of his arm or hand, he will feel that there is a hole in this wall; he will be able to identify this as a door based on its shape. If there are contacts in the glove that can exert pressure on the user's fingertips (e.g. through contraction), a solid object corresponds to increased pressure, while free space corresponds to no pressure.

Auch im Bereich der virtuellen Realität und der Bewegung in virtuellen Räumen sind Anwendungen denkbar - die Illusion einer realen Welt wird durch ein zusätzliches Sinnesmoment Defekter.Applications are also conceivable in the field of virtual reality and movement in virtual spaces - the illusion of a real world is enhanced by an additional sensory moment.

Gegenüber anderen Methoden, visuelle Daten aufzubereiten und zu transformieren in eine andere Sinnesdarstellung, wie beispielsweise der Orientierung in einem Raum durch Tonsignale, ergeben sich bei obigem System einige Vorteile. So bieten sich als Ansatzpunkt für das „gefühlgebende" Instrumentarium viele Körperteile, an denen ein Mensch über sehr feinfühlige Sinneswahrnehmung verfügt. Damit können viele unterschiedliche Informationen, so auch Färb - und Texturinformationen, „fühlbar" gemacht werden. In der Version, die speziell für Blinde konzipiert ist, kann der Benutzer das System einsetzen als elektronischen Ersatz für einen Blindenstock. Im Gegensatz zu diesem bietet das System weit mehr Ausbaumöglichkeiten - so ist auch ein Umschalten zwischen Färb - und Texturerfuhlung sowie Relieferfühlung denkbar. Zudem kann der Blinde einen Raum von einem Standort aus erfassen.Compared to other methods of processing visual data and transforming it into another sensory representation, such as orientation in a room using sound signals, the above system has a number of advantages. Many parts of the body where a person has very sensitive sensory perception are a starting point for the "feeling" instrumentation. This means that many different pieces of information, including color and texture information, can be made "tangible". In the version that is specially designed for the blind, the user can use the system as an electronic replacement for a cane. In contrast to this, the system offers far more expansion options - switching between color and texture sensations as well as relief sensations is also conceivable. In addition, the blind person can perceive a room from one location.

Den Zeitpunkt der Erfassung des Raumes aus durch die optischen Sensoren betreffend gibt es mehrere Verfahrensmöglichkeiten: bei genügend großer Rechenleistung durch das verarbeitende Computersystem kann eine Erfassung mehrmalig pro Sekunde erfolgen. Alternativ ist auch eine Erfassung auf Kommando des Benutzers hin möglich; dieses erfolgt, wenn der Benutzer einen neuen Raum bzw. eine neue Umgebung betritt. In der aktuellen Ausführung trägt der Benutzer zwei kleine Kameras (4) auf dem Kopf, die beide geradeaus filmen. Aus den beiden Bildern setzt der Computer ein dreidimensionalesThere are several possible ways of determining the time at which the optical sensors capture the room: if the processing computer system has sufficient computing power, capture can occur several times per second. Alternatively, capture can be performed on the user's command; this occurs when the user enters a new room or a new environment. In the current version, the user wears two small cameras (4) on their head, both of which film straight ahead. The computer creates a three-dimensional image from the two images.

Kantenbild zusammen; dazu extrahiert eine Bildverarbeitungssoftware Kanten und Texturen und bestimmt aus deren Positionen auf beiden Bildern deren Lage im Raum (1). Die aktuell bestehende Ausfertigung des Systems ist mit Hilfe der Zeichnungen grafisch vereinfacht dargestellt. Bild 1 zeigt eine Ansicht von oben. Bild 2 zeigt eine Ansicht von der Seite. Bild 3 zeigt ein stark vereinfachtes Modell des Handschuhs, den der Benutzer trägt. Der Benutzer (3) trägt oben beschriebenen Handschuh ((6); ebenso Bild 3). In dessen Fingerkuppen sind Instrumente angebracht, die Druck ausüben können auf die Fingerkuppen des Benutzers; diese Instrumente sind fingerhutähnlich, sie lassen sich jedoch zusätzlich über Anlegen von geringer Spannung kontrahieren, um ein Druckgefühl zu erzeugen (7). Am Handschuh sind zudem Ultraschallgeber angebracht (8). Über das Auffangen von deren gepulsten Signalen durch Mikrofone, die der Benutzer am Körper trägt, lassen sich die Positionen der Ultraschallgeber und damit der markanten Stellen des Handschuhs im Raum bestimmen. Das verarbeitende Computersystem besteht aus dem Board eines Pentiumcomputers, auf dem die verarbeitende Software läuft. Der Computer digitalisiert die Bilder beider Kameras, extrahiert ein dreidimensionales Bild und steuert dann die Instrumente des Handschuhs an: nachdem er die Position des Handschuhs erfaßt hat, prüft er, ob der Benutzer im verkleinerten „virtuellen" Raum (5) mit den Fingerkuppen ein Objekt (2) berührt bzw. sich in einem Objekt befindet. Ist dies der Fall, so gibt der Computer entsprechenden Druck auf die Fingerkuppen, indem er geringe Spannung an die entsprechenden Instrumente im Handschuh legt ((7), Datenleitungen zum Computer idealisiert bei (9)). Die Überprüfung der Position des Handschuhs und die Ansteuerung der Instrumente findet mehrmals in der Sekunde statt; die Erfassung des Raumes erfolgt auf Kommando des Benutzers, der hierzu einen an den Mausport des Computers angeschlossenen Taster trägt.Edge image; image processing software extracts edges and textures and uses their positions in both images to determine their position in space (1). The current version of the system is shown in a simplified graphical form using the drawings. Figure 1 shows a view from above. Figure 2 shows a view from the side. Figure 3 shows a highly simplified model of the glove that the user is wearing. The user (3) is wearing the glove described above ((6); also Figure 3). Instruments are attached to the fingertips of the glove that can exert pressure on the user's fingertips; these instruments are thimble-like, but they can also be contracted by applying a small voltage to create a feeling of pressure (7). Ultrasound transmitters are also attached to the glove (8). By picking up their pulsed signals using microphones that the user wears on his body, the positions of the ultrasound transmitters and thus of the prominent points on the glove in space can be determined. The processing computer system consists of the board of a Pentium computer on which the processing software runs. The computer digitizes the images from both cameras, extracts a three-dimensional image and then controls the instruments in the glove: after it has detected the position of the glove, it checks whether the user is touching an object (2) with his fingertips in the reduced "virtual" space (5) or is located in an object. If this is the case, the computer applies appropriate pressure to the fingertips by applying a low voltage to the corresponding instruments in the glove ((7), data lines to the computer idealized at (9)). The position of the glove is checked and the instruments are controlled several times per second; the space is detected on command from the user, who wears a button connected to the computer's mouse port for this purpose.

Bei der unten grafisch dargestellten Form des Systems wird, zwecks Vereinfachung und Übersichtlichkeit, idealisiert davon ausgegangen, daß der Benutzer seine Hand während der korrekten Benutzung des Systems ausstreckt sowie die Finger aneinanderlegt. Notwendig ist dies, da bei der in der Zeichnung gewählten Konstruktion der verarbeitende Computer keine Möglichkeit hat, abhängig von der Position des Handschuhs noch über die Position der einzelnen Fingerkuppen Informationen zu erlangen. Dieses Problem wird in der Praxis umgangen mit Streifen, die von den Fingerkuppen bis an den Handballen reichen; deren Zug, der sich bei gebogenen Fingern vergrößert, wird wiederum von einer Elektronik demIn the form of the system shown graphically below, it is ideally assumed, for the sake of simplicity and clarity, that the user stretches out his hand and puts his fingers together when using the system correctly. This is necessary because, with the design chosen in the drawing, the processing computer has no way of obtaining information about the position of the individual fingertips, depending on the position of the glove. In practice, this problem is avoided with strips that extend from the fingertips to the ball of the hand; the tension of these strips, which increases when the fingers are bent, is in turn transmitted to the

• · ··· CDI· ··· CDI

datenverarbeitenden Computer als zusätzliche Parameter geliefert. Damit können sich die Finger der Hand unabhängig voneinander bewegen, ohne daß das System falsche Daten an den Benutzer transportiert.data processing computer as additional parameters. This allows the fingers of the hand to move independently of each other without the system transmitting incorrect data to the user.

Kommerziell plazieren läßt sich das System mit Sicherheit im Rehabilitationsbereich. Auch in der Virtual Reality sind Systeme, die möglichst viele Sinneseindrücke zur Simulation einer artifiziellen Welt leisten können, sehr begehrt.The system can certainly be placed commercially in the rehabilitation sector. In virtual reality, too, systems that can provide as many sensory impressions as possible to simulate an artificial world are very popular.

Claims (11)

Antrag auf Gebrauchsmusterschutz System zur Umwandlung von visuell aufgenommenen Raumdaten in erfühl - und ertastbare Informationen SchutzansprücheApplication for utility model protection System for converting visually recorded spatial data into tangible and palpable information Protection claims 1. System nach einem oder mehreren der obengenannten Ansprüche, gekennzeichnet dadurch, daß die Erfassung der visuellen Daten durch geeignete optische Sensoren vorgenommen wird, vorzugsweise durch zwei Kameras.1. System according to one or more of the above claims, characterized in that the visual data is recorded by suitable optical sensors, preferably by two cameras. 2. System nach einem oder mehreren der obengenannten Ansprüche, gekennzeichnet dadurch, daß die Erfassung der visuellen Daten durch optische Sensoren unterstützt wird über den Einsatz von Entfernungsmessern, die zusätzlich Aufschluß geben über Entfernungen von Objekten.2. System according to one or more of the above claims, characterized in that the acquisition of the visual data by optical sensors is supported by the use of rangefinders, which additionally provide information about the distances of objects. 3. System nach einem oder mehreren der obengenannten Ansprüche, gekennzeichnet dadurch, daß die von der Sensorik zur Erfassung der visuellen Daten aufgenommenen Informationen über einen Raum durch eine geeignetes System verarbeitet und in Daten umgewandelt werden, die auf einem geeigneten Instrumentarium als erfühl- und ertastbare Informationen an den menschlichen Benutzer weitergegeben werden können.3. System according to one or more of the above claims, characterized in that the information about a room recorded by the sensor system for recording the visual data is processed by a suitable system and converted into data that can be passed on to the human user as tactile and palpable information using suitable instruments. 4. System nach einem oder mehreren der obengenannten Ansprüche, gekennzeichnet dadurch, daß das die visuellen Daten verarbeitende System ein Computer bzw. eine Elektronik mit einer für die Umwandlung der Informationen geeigneten Software ist.4. System according to one or more of the above claims, characterized in that the system processing the visual data is a computer or electronics with software suitable for converting the information. 5. System nach einem oder mehreren der obengenannten Ansprüche, gekennzeichnet dadurch,5. System according to one or more of the above claims, characterized in that tt * ·· fttt * ·· ft daß die in Kontakt mit dem Benutzer stehenden Instrumente in einem Handschuh integriert und so angeordnet sind, daß sie an den Händen bzw. Fingerkuppen des Benutzers durch die Haut bzw. Nerven des Benutzers erkennbare Signale bzw. Reize erzeugen können.that the instruments in contact with the user are integrated into a glove and arranged in such a way that they can generate signals or stimuli on the user's hands or fingertips that can be recognized through the user's skin or nerves. 6. System nach einem oder mehreren der obengenannten Ansprüche, gekennzeichnet dadurch,6. System according to one or more of the above claims, characterized in that daß <ÜQ von obengenannten Instrumenten erzeugten Signale Druck, Wärme oder andere durch den Benutzer erfuhlbare Signale sind.that <ÜQ signals generated by the above instruments are pressure, heat or other signals perceptible by the user. 7. System nach einem oder mehreren der obengenannten Ansprüche, gekennzeichnet dadurch,7. System according to one or more of the above claims, characterized in that daß die Positionen von obengenannten Instrumenten relativ zu den die visuellen Informationen aufnehmenden Sensoren dem obengenannten, die Daten verarbeitenden System bekannt sind.that the positions of the above-mentioned instruments relative to the sensors recording the visual information are known to the above-mentioned data processing system. 8. System nach einem oder mehreren der obengenannten Ansprüche, gekennzeichnet dadurch,8. System according to one or more of the above claims, characterized in that daß die Erfassung der Positionen der obengenannten Instrumenten durch geeignete Sensorik vorgenommen wird.that the positions of the above-mentioned instruments are recorded using suitable sensors. 9. System nach einem oder mehreren der obengenannten Ansprüche, gekennzeichnet dadurch,9. System according to one or more of the above claims, characterized in that daß die zur Erfassung der Positionen der obengenannten Instrumenten benötigte Sensorik die Positionen über Trägheitssensoren, Ortungssensoren auf der Basis von Signallaufzeiten oder anderen geeigneten Sensoren einpeilen kann.that the sensors required to record the positions of the above-mentioned instruments can determine the positions using inertial sensors, positioning sensors based on signal propagation times or other suitable sensors. 10. System nach einem oder mehreren der obengenannten Ansprüche, gekennzeichnet dadurch,10. System according to one or more of the above claims, characterized in that daß das die visuellen Daten verarbeitende, obengenannte System das zur Erzeugung der durch den Benutzer erfühl - und ertastbaren Informationen Instrumentarium in Abhängigkeit der erfaßten visuellen Daten und der Positionen des Instrumentariums ansteuert und schaltet.that the above-mentioned system processing the visual data controls and switches the instruments used to generate the information that can be felt and touched by the user, depending on the visual data recorded and the positions of the instruments. 11. System nach einem oder mehreren der obengenannten Ansprüche, gekennzeichnet dadurch,11. System according to one or more of the above claims, characterized in that daß die Informationen, die der Benutzer erfühlen und ertasten kann, Färb -, Textur - oder Reliefdaten des um ihn liegenden Raumes sein können, die durch unterschiedliche Signale über das dazu geeignete, obengenannte Instrumentarium an seinen Körper weitergegeben werden.that the information that the user can feel and touch can be color, texture or relief data of the space around him, which are transmitted to his body by different signals via the appropriate instruments mentioned above.
DE29719995U 1997-11-11 1997-11-11 System for converting visually recorded room data into tangible and tactile information Expired - Lifetime DE29719995U1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE29719995U DE29719995U1 (en) 1997-11-11 1997-11-11 System for converting visually recorded room data into tangible and tactile information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE29719995U DE29719995U1 (en) 1997-11-11 1997-11-11 System for converting visually recorded room data into tangible and tactile information

Publications (1)

Publication Number Publication Date
DE29719995U1 true DE29719995U1 (en) 1998-02-19

Family

ID=8048463

Family Applications (1)

Application Number Title Priority Date Filing Date
DE29719995U Expired - Lifetime DE29719995U1 (en) 1997-11-11 1997-11-11 System for converting visually recorded room data into tangible and tactile information

Country Status (1)

Country Link
DE (1) DE29719995U1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19815073A1 (en) * 1998-04-05 1999-10-14 Gfal Sachsen Ev PC audio tactile information system for the blind and those with vision problems
DE19853915A1 (en) * 1998-11-23 2000-05-31 Jurca Optoelektronik Gmbh Detecting three-dimensional structure and displaying to blind or visually impaired person by converting optically detected structure into tactile relief
DE19855375A1 (en) * 1998-12-01 2000-06-08 Faks Forschungs Und Entwicklun Method to display physical quantity; involves converting quantity using transformation relation into display value that is displayed as temperature of tactile surface
DE102005011432A1 (en) * 2005-03-12 2006-09-14 Volkswagen Ag Data glove for virtual-reality-system, has reference body comprising hand reference points identified as reference points by infrared camera, and retaining unit retaining person`s finger tip and comprising finger reference points

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19815073A1 (en) * 1998-04-05 1999-10-14 Gfal Sachsen Ev PC audio tactile information system for the blind and those with vision problems
DE19815073C2 (en) * 1998-04-05 2000-04-27 Gfal Sachsen Ev Innovative Tec Information system, especially for the blind
DE19853915A1 (en) * 1998-11-23 2000-05-31 Jurca Optoelektronik Gmbh Detecting three-dimensional structure and displaying to blind or visually impaired person by converting optically detected structure into tactile relief
DE19855375A1 (en) * 1998-12-01 2000-06-08 Faks Forschungs Und Entwicklun Method to display physical quantity; involves converting quantity using transformation relation into display value that is displayed as temperature of tactile surface
DE102005011432A1 (en) * 2005-03-12 2006-09-14 Volkswagen Ag Data glove for virtual-reality-system, has reference body comprising hand reference points identified as reference points by infrared camera, and retaining unit retaining person`s finger tip and comprising finger reference points
DE102005011432B4 (en) 2005-03-12 2019-03-21 Volkswagen Ag Data glove

Similar Documents

Publication Publication Date Title
Noel et al. Full body action remapping of peripersonal space: the case of walking
DE69738073T2 (en) SYSTEM FOR THE TRAINING OF PERSONS FOR THE PERFORMANCE OF MINIMALLY INVASIVE SURGICAL PROCEDURES
EP3143478B1 (en) Method for displaying a virtual interaction on at least one screen and input device
DE112018005530T5 (en) IMU-based glove
Noë On what we see
EP3067874A1 (en) Method and device for testing a device operated in an aircraft
EP3709133B1 (en) Virtual object haptic interaction system for virtual reality applications
DE102015206110A1 (en) SYSTEM AND METHOD FOR PRODUCING COMPUTER CONTROL SIGNALS FROM ATATOR ATTRIBUTES
DE112018001457T5 (en) SENSOR CONTROL
EP1047014A2 (en) Method and input device for controlling the position of a graphically displayed object in a virtual reality space
Bach-y-Rita Sensory substitution and qualia
Schwartz Useful signals from motor cortex
DE2264123B2 (en) Method for the computer-aided generation of trick sequence projection images of multi-dimensional objects
DE69532536T2 (en) DEVICE WITH MECHANICAL INPUT / OUTPUT FOR COMPUTER SYSTEMS WITH AN INTERFACE FOR FLEXIBLE LONG STRETCHED ITEMS
Hirano et al. Psychophysical influence of mixed-reality visual stimulation on sense of hardness
DE60213769T2 (en) METHOD AND SYSTEM FOR REMOTE CONTROLLED AREA RECONSTRUCTION
DE112017004242T5 (en) TOUCH-SENSITIVE OBJECTS
White Perceptual findings with the vision-substitution system
Sheridan Human and machine haptics in historical perspective
DE10138537B4 (en) Tactile feedback to visualize tissue elasticity
DE29719995U1 (en) System for converting visually recorded room data into tangible and tactile information
DE10258952A1 (en) Input device, especially for training operators in the use of medical ultrasonic imaging technology, whereby a mouse-type device is used that is moved over a surface and its position reproduced on a computer monitor
EP2827224A1 (en) Method and device for tactile interaction with visualised data
AT520385B1 (en) Device with a detection unit for the position and posture of a first limb of a user
Fritschi et al. Construction and first evaluation of a newly developed tactile shear force display

Legal Events

Date Code Title Description
R086 Non-binding declaration of licensing interest
R207 Utility model specification

Effective date: 19980402

R156 Lapse of ip right after 3 years

Effective date: 20010801