WO1999046612A1 - Optisches sensorsystem zur detektion der position eines objektes - Google Patents

Optisches sensorsystem zur detektion der position eines objektes Download PDF

Info

Publication number
WO1999046612A1
WO1999046612A1 PCT/DE1999/000620 DE9900620W WO9946612A1 WO 1999046612 A1 WO1999046612 A1 WO 1999046612A1 DE 9900620 W DE9900620 W DE 9900620W WO 9946612 A1 WO9946612 A1 WO 9946612A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
sensor system
optical sensor
photoelectric converter
imaging element
Prior art date
Application number
PCT/DE1999/000620
Other languages
English (en)
French (fr)
Inventor
Wendelin Feiten
Laszlo Domjan
Janos Giber
Laszlo Kocsanyi
Peter Richter
Gabor Szarvas
Sandor Varkonyi
Original Assignee
Siemens Aktiengesellschaft
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Aktiengesellschaft filed Critical Siemens Aktiengesellschaft
Priority to KR1020007009913A priority Critical patent/KR20010041694A/ko
Priority to CA002322419A priority patent/CA2322419A1/en
Priority to JP2000535942A priority patent/JP2002506976A/ja
Priority to EP99919045A priority patent/EP1062524A1/de
Publication of WO1999046612A1 publication Critical patent/WO1999046612A1/de

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4814Constructional features, e.g. arrangements of optical elements of transmitters alone
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4817Constructional features, e.g. arrangements of optical elements relating to scanning

Definitions

  • Optical sensor system for determining the position of an object.
  • the invention relates to an optical sensor system for exploring objects and for determining their positions.
  • This sensor system can preferably be arranged on autonomous mobile systems in order to enable them to find their way in an unknown environment.
  • Optical sensor systems which perform the detection of objects by triangulation are known from the prior art.
  • a special measurement method is, for example, to carry out an active optical triangulation with strip lighting.
  • the main elements of such a measuring system consist, for example, of a light source that illuminates a strip in space, an optical imaging system, a two-dimensional image receiver and electronics for processing and evaluating the images 2 signals received by the receiver.
  • a light source that only illuminates a strip of space.
  • An important feature of this light source is the surface density of its emitted light output. The requirements for such light sources are that the power density must be large enough to be able to recognize even dark objects.
  • Another feature of such light sources is the thickness of the illuminated strip, which influences both the size of the detectable spatial area and the resolution when measuring the position of detected objects.
  • a cylindrical lens in front of a collimator lens which collimates the light from a laser source or an incandescent, halogen or arc lamp; the parallelization of light from an incandescent or halogen lamp with the aid of a collimator lens and its fanning out by a cone mirror.
  • the imaging system used must above all meet two main requirements. On the one hand, it has to map the spatial area to be measured onto the surface of the two-dimensional image detector; on the other hand, it must ensure the desired position resolution with regard to the objects to be measured. In this context, the position resolution capability is understood to be the smallest distance between objects, which can still be resolved after being imaged on the optoelectric converter.
  • the distance in the image plane between the images of the backscattered light from two neighboring objects that are close to the imaging system is shown larger than with two neighboring objects that are further away from the imaging system. This leads to the position resolution becoming increasingly poorer with increasing distance from the lens or imaging system.
  • normal or aspherical refractive surfaces such as are common with normal lenses, objects that are far away cannot be imaged sufficiently from one another by the imaging system.
  • the imaging of such objects would require the use of an optical imaging element optimized for this special purpose, which is not known from the literature, however.
  • PAL optics-based instruments for space research and robot technology in lasers and optoelectronics 28 (5) / 1996, pages 43-49 a PAL lens for the use of navigation tasks at au is known - use tonomobile mobile robots.
  • Greguss is a wide-angled imaging element that contains two reflective and one refractive aspherical surface and that is capable of imaging an entire half-space.
  • the application of PAL optics as an imaging element of an active triangulating obstacle detection system for robots is also described there.
  • the invention has for its object to provide an optical sensor system that on mobile vehicles such.
  • B. autonomous mobile robots can be used, which is technically simple and which enables detection of obstacles in all directions around the vehicle, whereby 5 whose imaging system has both the position of objects in the vicinity of the system at distances of less than 50 cm, and in the far area of the system at distances of more than 2 m, a sufficient position resolution of approximately 5-10 cm and an angular resolution of ⁇ 1 °.
  • the sensor system described advantageously consists of light sources which illuminate the surroundings of the autonomous mobile unit in the form of strips around the unit, since this enables simultaneous detection of obstacles or objects around the unit.
  • a plurality of light sources arranged one above the other can advantageously also be provided, which are switched on at different intervals, so that different height dimensions of the room can be detected or measured.
  • the light, which is backscattered by objects that are illuminated is advantageously carried out by using a special wide-angle imaging element that has only a single curved, spherical or aspherical, reflective surface for guiding the light in connection with an objective and a filter, as well as a photoelectric converter , the environment being projected onto the transducer by the imaging system.
  • the best spatial coverage and the best position resolution is advantageously achieved by describing the shape of the aspherical reflecting surface of the wide-angle imaging element with the aid of spline functions.
  • the spline function describes the shape of the imaging element in the following way: the spline function expands areas that are further away depending on the type of lens used.
  • the 6 distance ranges and the partial areas of the aspherical imaging element that are valid for the respective distance areas are described in such a way that the neighboring polynomial functions in the respective transition points of the detection areas have the same value and the same derivatives, whereby the function used becomes continuous and unbreakable.
  • Figure 1 shows an embodiment of a sensor system.
  • Figure 2 shows a possible arrangement of a light source used in side view.
  • Figure 3 shows a possible arrangement for generating a light streak around the sensor system.
  • Figure 4 shows a further embodiment for producing a light strip around the sensor system.
  • Figure 5 shows a further embodiment for producing a light strip around the imaging device.
  • Figure 6 shows a possible installation of the sensor system on a vehicle or robot in a side view.
  • Figure 7 shows a top view of the sensor system and a vehicle.
  • Figure 8 shows a sensor system for use with a one-dimensional photoelectric converter.
  • Figure 9 shows an embodiment with a two-dimensional optical position detector.
  • FIG. 1 shows, there is a possible embodiment of a sensor system described, which illuminates a room strip all around from 4 light sources 1.
  • these light sources When arranging these light sources for illuminating a light strip, it should be noted in particular that these light strips lie in a plane which is essentially plane-parallel to the The surface on which the autonomous mobile unit to which the sensor is attached moves. If this plane-parallel arrangement is not possible, the triangulation is made more difficult by taking into account when evaluating the reflected light beams that they have hit the reflecting objects at different angular positions, so that the triangulation is used to determine the distance of the objects result in different triangulation angles.
  • the light sources 1 generate light strips 2 that illuminate the room.
  • the imaging element 4 used projects the light backscattered from the objects 3 through the lens 6 onto the photoelectric converter 7, which in this arrangement is designed as a two-dimensional CCD image detector of a camera 5.
  • the photoelectric converter 7 is connected to an evaluation electronics 8, for example in a computer, which is part of the sensor system for determining object positions.
  • the evaluation electronics 8 determine the position of objects 3 based on the image projected on the photoelectric converter 7 using the principle of active optical 8 triangulation, the imaging properties of the objective 6 and the imaging element 4 in particular being used in conjunction with the height of the plane at which the light strip is emitted.
  • the sensor system is advantageous on mobile vehicles 12, such as. B. used a mobile robot.
  • the current information about the control of the vehicle 12 or the robot can be determined by the evaluation electronics 8 and, based on this information, the further travel path of the unit can be planned.
  • This information gives z. B. the positions of objects 3, under which the vehicle 12 moves through, or between which the vehicle 12 must move.
  • the optical axis of the imaging element 4 is advantageously aligned perpendicular to the light strip 2, which are emitted by the light sources 1.
  • the imaging element 4 is designed as such an optical element which has a spherical or aspherical reflecting surface 9, the outside of the reflecting surface 9 being used for imaging the reflected light beams in the imaging system.
  • the light strips emitted by the light sources and light beams reflected by the objects 3 are projected via the imaging element 4 through the lens 3 onto the light detector 7, as is shown schematically by the numbered beam paths.
  • the distance of the light rays incident on the photodetector 7 is dependent on the imaging properties of the objective and the imaging element 4 and is characteristic of the distance of the objects 3 from the sensor system.
  • any two-dimensional image detector 7 can be used.
  • a photodiode matrix can be used as a photoelectric converter 7 instead of a two-dimensional CCD sensor.
  • 9 Figure two shows a possible basic embodiment of the applied light source 1 in a side view.
  • the light source 1 shown in Figure 2 consists of a cylindrical mirror 11, which suitably has an aspherical cross section and consists of light emitters 10, which can be light-emitting diodes, for example. These light emitters are located in the focus line of the cylinder mirror 11.
  • the light emitters 10 are arranged one after the other in the focus line of the aspherical cylinder mirror 11, so that the light-emitting surfaces of the light emitters 10 point in the direction of the aspherical cylinder mirror 11.
  • the light emitted by the light emitters 10 first reaches the aspherical cylindrical mirror 11 and then emerges as a strip of light 2 projected through the mirror.
  • the light source 1 illuminates a parallelized light strip.
  • LED light-emitting diodes
  • FIG. 3 shows, there is a possible basic arrangement for generating a light strip 2 from part of a cylinder mirror.
  • the cylinder mirror 11 is in a so-called off-axis arrangement with the light emitters 10, which is why only part of the cylinder mirror 11 previously described in FIG. 2 is used.
  • the light emitters 10 are advantageously designed as LEDs and are arranged in succession on the focal line of the aspherical cylinder mirror in such a way that their light-emitting surfaces are directed in the direction of the aspherical cylinder mirror 11.
  • the parallelized light beam valid for the sensor system can also be generated. This is indicated by the beam path provided with the arrows. 1 0
  • FIG. 4 Another possible solution for producing a light strip 2 which shines all around the imaging device is that a parallelized light beam is set in rotation.
  • the rotating light beam 2 is generated in such a way that both the light emitter 10 and the collimator optics 14 are set in rotation about an axis t.
  • a further embodiment of this type can consist, for example, in that both the light emitter 10 and the collimator optics 14 are fixed and the light steel 2 is moved all around with the aid of a rotating mirror.
  • Figure 5 shows a further possible embodiment for producing a light strip 2 emitted all around.
  • the light strip 2 is generated by a conical mirror 15.
  • the light emitted by the light emitter 10 is first parallelized by collimator optics 14 and then fanned out into the desired light strip 2 by a conical mirror 15.
  • an incandescent lamp, halogen lamp, arc lamp or laser can be used as the light emitter 10.
  • Figure 6 shows the possible structure of a sensor system on an autonomous mobile unit 12, which can be, for example, a service robot.
  • Figure 6 shows a side view.
  • a plurality of light strips arranged one above the other, which are emitted by a plurality of light sources 1 lying one above the other, can advantageously be generated on mobile systems.
  • the light strips 2 are preferably generated at different times and illuminated in a pulsed manner.
  • two imaging elements 4 are preferably used with the cameras 5 associated with them 11 provided at two opposite corners of the mobile vehicle 12.
  • the evaluation electronics ensure that when triangulating obstacles, the corresponding altitude of the currently switched on light source is used to evaluate the triangulation results.
  • Figure 7 shows the top view of a mobile vehicle 12 provided with the sensor system, e.g. B. A robot with the reception area of the detection system 13.
  • the individual imaging elements 4 are attached to 2 opposite corners of the mobile system 12. If two imaging elements 4 are arranged in the manner shown in Figure 7, the detection area 13 of the optical sensor system can be extended to the entire environment of the mobile system 12 or to the entire space surrounding the mobile system.
  • Figure 8 shows a possible embodiment of the photoelectric converter 7 in the form of a one-dimensional photoelectric converter 7.
  • the light from the imaging element 4 is projected through the lens 6 onto the one-dimensional light detector, which moves in the image plane or is advantageously rotated.
  • This photoelectric converter 7 can be used, for example, as a one-dimensional position-sensitive detector, e.g. B. as a CCD or PSD. Because the one-dimensional light detector is moved in the image plane or is advantageously rotated, it detects the light intensity distribution in the entire image plane, whereupon the imaging element 4 and the lens 6 image the area around the mobile vehicle 12. The measurement results obtained in this way can preferably be temporarily stored or the evaluation is carried out synchronously with the speed of the photoelectric sensor.
  • Figure 9 shows another possible embodiment of a photoelectric converter 7, which here is a two-dimensional positive 12 position-sensitive detector is shown.
  • the photoelectric converter 7 is designed as a two-dimensional position-sensitive detector, which is located behind the lens 6 in its image plane.
  • an impermeable disk 16 in this embodiment, which is provided with a gap 17.
  • the gap 17 on the opaque pane 16 only allows the light from a well-defined spatial area to pass through, for example with the opening angle of 1 °. In this way, a directional resolution capability with an arbitrarily small angle can be achieved.
  • the slit width to be selected depends on how much light is reflected back, or with what sensitivity the detector works and with what intensity the light strip is illuminated by the light source.
  • the use of the disk 16 is not necessary because the directional resolution is already ensured by the rotating light source.
  • the advantage of the sensor system described is that its reception range is larger than in known embodiments and that the image is more uniform than in other known triangulating sensor systems. The wide-angle image enables the positions of objects that are far from the sensor system to be measured.
  • the special shape of the imaging element 4 ensures the uniform resolution of the distance measurement in the entire detection range of the sensor system by virtually correcting the lack of resolution of the lens 6 in the distance of the sensor system, because it scatters reflected light rays and thus pulls apart more distant objects .

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

Mit der Erfindung wird eine spezielle Lichtquelle vorgeschlagen, die einen horizontalen Lichtstreifen erzeugt. Dieser Lichtstreifen wird von Objekten in der Umgebung des Sensorsystems reflektiert und über eine spezielle Abbildungsvorrichtung zu einem photoelektrischen Wandler geleitet. Diese Abbildungsvorrichtung ist so beschrieben, daß sie weiter entfernte Objekte etwas weiter auseinander darstellt, damit von einem gängigen Objektiv mit einer linearen Auflösung über die gesamte Bildfläche eine bessere Positionsauflösung von Objekten erzielt werden kann, welche sich vom Sensorsystem weiter entfernt befinden. Vorteilhaft werden als lichtemmittierende Elemente Leuchtdioden auf der optischen Achse eines Zylinderspiegels vorgesehen. Die vom photoelektrischen Wandler abgegebenen elektrischen Signale werden bezüglich ihrer Position von einer Auswerteeinheit ausgewertet, die mittels Triangulation die Entfernung der Objekte bestimmt, welche das Licht reflektiert haben.

Description

1 Beschreibung
Optisches Sensorsystem zur Dete tion der Position eines Objektes .
Die Erfindung betrifft ein optisches Sensorsystem zur Erkundung von Objekten und für die Bestimmung von deren Positionen. Bevorzugt kann dieses Sensorsystem an autonomen mobilen Systemen angeordnet sein, um diesen ihre Orientierung in ei- ner unbekannten Umgebung zu ermöglichen.
In der Entwicklung und Planung befindliche autonome mobile Systeme, werden in Zukunft immer häufiger auch in Haushaltsumgebungen anzutreffen sein. Sie werden dort Transport- und Reinigungsaufgaben erledigen, indem sie die ihnen auferlegten Aufgaben autonom unter Zuhilfenahme eines Orientie- rungssystems ausführen, das es ihnen ermöglicht sich ein Bild von ihrer Umgebung zu verschaffen. Neben den unterschiedlichen Wegeplanungs- und Bewertungsalogrithmen kommt dabei dem Sensorsystem für die Detektion von Hindernissen in der Umgebung der autonomen mobilen Einheit eine starke Bedeutung zu. Um autonome mobile Systeme für Konsumenten attraktiv zu machen, ist es besonders wichtig, daß diese in großen Stückzahlen kostengünstig und technisch einfach gefertigt werden kön- nen. Die Sensorsysteme zur Detektion der Position von Objekten in der Umgebung der autonomen mobilen Systeme müssen daher robust sein und kostengünstig hergestellt werden können.
Optische Sensorsysteme, welche durch Triangulation die Detek- tion von Objekten durchführen sind aus dem Stand der Technik bekannt. Eine spezielle Meßmethode besteht beispielsweise darin, eine aktive optische Triangulation mit Streifenbeleuchtung durchzuführen. Die Hauptelemente eines derartigen Meßsystems bestehen beispielsweise aus einer Lichtquelle, die einen Streifen im Raum beleuchtet, einem optischen Abbildungssystem, einem zweidimensionalen Bildempfänger und einer Elektronik für die Verarbeitung und Auswertung der vom Bil- 2 dempfanger empfangenen Signale. Zur Durchf hrung der Triangulation benotigt ein derartiges System eine Lichtquelle, die ausschließlich einen Raumstreifen ausleuchtet. Ein wichtiges Merkmal dieser Lichtquelle besteht m der Oberflachendichte ihrer abgestrahlten Lichtleistung. Die Anforderungen an solche Lichtquellen besteht darin, daß die Leistungsdichte groß genug sein muß, um auch dunkle Objekte erkennen zu können. Ein weiteres Merkmal derartiger Lichtquellen ist die Dicke des beleuchteten Streifens, welche sowohl die Große des de- tektierbaren Raumbereiches, als auch die Auflosung bei der Positionsmessung detektierter Objekte beeinflußt.
Derzeit sind folgende Möglichkeiten für die Ausführung von Lichtquellen zur Abgabe von Leuchtstreifen bekannt: eine zy- lmdrische Linse vor einem Kollimatorobjektiv, das das Licht einer Laserquelle oder einer Glüh-, Halogen- oder Bogenlampe kollimiert; die Parallelisierung von Licht, aus einer Gluh- oder Halogenlampe mit Hilfe eines Kollimatorobπektivs und dessen Auffächerung durch einen Kegelspiegel. Das verwendete Abbildungssystem muß dabei vor allen Dingen zwei Hauptanforderungen gerecht werden. Zum einen muß es den zu messenden Raumbereich auf die Oberflache des zweidimensionalen Bilddetektors abbilden; zum anderen muß es die gewünschte Postions- auflosung bezüglich der zu messenden Objekte sicherstellen. Als Postionsauflösungsvermogen wird in diesem Zusammenhang die kleinste Entfernung zwischen Objekten, die nach der Abbildung auf den optoelektrischen Wandler noch auflösbar ist, verstanden. Sie ist ebenso durch den verwendeten Wandler, wie auch durch das Abbildungssystem bestimmt. Die Aufgabe einen großen Raumbereich, möglichst in Form eines ganzen Halbraumes weitwinkelig abzubilden und dabei ein ausreichendes Entfernungsauflosungsvermogen mit dem gleichen Objektiv zu erzeugen, stellen dabei widerspruchliche Erfordernisse dar. Ein mögliches Mittel zur Vergrößerung des meßbaren Raumbereiches durch ein solches Abbildungssystem, besteht m der Anwendung eines Weitwinkelobjektivs, das ein verzerrungsfreies Bild erzeugt. Solche Objektive mit mehreren Linsen haben aber den 3 Nachteil, daß sie nicht den gesamten Halbraum um das Objektiv herum abbilden können. Andere Objektive wiederum, die einen ganzen Halbraum abbilden arbeiten nicht mehr verzerrungslos und sind teuer in der Anschaffung. Verzerrende Objektive be- einflussen auch die Positionsauflösung bei der Triangulation. Dabei wird die Entfernung in der Bildebene zwischen den Abbildungen des rückgestreuten Lichtes von zwei benachbarten Gegenständen, die nahe am Abbildungssystem liegen, größer dargestellt, als bei zwei benachbarten Gegenständen, die sich weiter entfernt vom Abbildungssystem befinden. Dies führt dazu, daß die Positionsauflösung mit zunehmender Entfernung vom Objektiv, bzw. Abbildungssystem immer schlechter wird. Durch Anwendung von normalen oder asphärischen Brechflächen, wie sie bei normalen Objektiven üblich sind, sind weit entfernte Gegenstände vom Abbildungssystem nicht ausreichend voneinander abbildbar. Für die Abbildung solcher Gegenstände wäre die Anwendung eines auf diesen speziellen Zweck optimierten optischen Abbildungselementes erforderlich, welches jedoch aus der Literatur nicht bekannt ist.
Aus der europäischen Veröffentlichung EP 0 358 628 A2 mit dem Titel „Visual navigation and obstacle avoidance structured light System", ist ein Triangulationssystem für die Anwendung an mobilen Fahrzeugen bekannt, welches mittels Streifenbe- leuchtung und einem normalen Objektiv in einem Abbildungssystem arbeitet. Die Nachteile dieser Lösung bestehen darin, daß einerseits das Fahrzeug nur vorne, in Fahrtrichtung liegende Gegenstände detektieren kann und andererseits durch die Verwendung eines normalen Objektives nur ein begrenzter Be- reich oder naheliegende Objekte mit ausreichender Auflösung zur Entfernungsmessung von Objekten verwendet werden kann. Aus den Artikeln von R. A. Jarvis, J. C. Byrne: „An automated guided vehicle with map building and path finding capabili- ties"; in R. C. Bolles und B. Roth, Herausgeber, 4th Interna- tional Symposium on Robotics Research, p. 497-504, MIT Press, Cambridge, Massachusetts, 1988, - und Y. Yagi, Y. Nishizawa, M. Yachida: „Map based navigation of the mobile robot using 4 omnidirectional image sensor COPIS, Proc. Of the 1992 IEEE International Conference on Robotics and Automation, Nice, France, May 1992, ist es bekannt, die Abbildung der Umgebung mittels eines Kegelspiegels und eines Objektivs durchzufüh- ren. Der verwendete Kegelspiegel ändert das Auflösungsvermögen des Systems bei weit entfernt liegenden Objektiven nicht. Es ist weiterhin durch das Kameraobjektiv bestimmt. Im Artikel von J. Hong, X. Tan, B. Pinette, R. Weiss, E. M. Riseman; „Image-based Homing, Proc. Of the 1991 IEEE International Conference on Robotics and Automation, Sacramento, California, April 1991 ist es bekannt die Abbildung der Umgebung mittels einer sphärischen Kugel durchzuführen. Dabei wird jedoch keine Streifenbeleuchtung, welche zur Triangulation dienen könnte, eingesetzt. Solche sogenannten passiven Systeme haben den Nachteil, daß die Objekte nicht von einem Lichtstrahl mit bekannter Höhenlage beleuchtet sind und damit Positionsinformation sehr schwer herleitbar ist, da keine Triangulation durchgeführt werden kann. Zur Auswertung müssen Echtzeitbildbearbeitungssysteme herangezogen werden, welche einen großen Aufwand an Rechnerkapazität erfordern. Weiterhin ist aus dem Artikel von P. Greguss: „PAL-Optik basierende Instrumente für Raumforschung und Robot-Technik, in Laser und Optoelektronik 28 (5)/1996, Seite 43-49 bekannt ein PAL- Objektiv für die Anwendungen von Navigationsaufgaben bei au- tonomen mobilen Robotern einzusetzen. Das PAL-Objektiv von
Greguss ist ein weitwinkliges Abbildungselement, welches zwei spiegelnden und eine brechende asphärische Oberfläche enthält und welches in der Lage ist einen ganzen Halbraum abzubilden. Dort wird auch die Anwendung der PAL-Optik als Abbildungsele- ent eines aktiven triangulierenden Hinderniserkennungssystems für Roboter beschrieben.
Der Erfindung liegt die Aufgabe zugrunde, ein optisches Sensorsystem anzugeben, das an mobilen Fahrzeugen, wie z. B. au- tonomen mobilen Robotern angesetzt werden kann, das technisch einfach ausgeführt ist, das in allen Richtungen um das Fahrzeug herum eine Detektion von Hindernissen ermöglicht, wobei 5 dessen Abbildungssystem sowohl die Position von Objekten im Nahbereich des Systems bei Entfernungen von kleiner 50 cm, wie auch im Fernbereich des Systems bei Entfernungen von über 2 m ein ausreichendes Positionsauflösungsvermögen von ungefähr 5-10 cm und einer Winkelauflösung von < 1° besitzt.
Diese Aufgabe wird gemäß den Merkmalen des Patentanspruches 1 gelöst. Weiterbildungen der Erfindung ergeben sich aus den abhängigen Ansprüchen.
Vorteilhaft besteht das beschriebene Sensorsystem aus Lichtquellen die die Umgebung der autonomen mobilen Einheit in Form von Streifen rund um die Einheit herum ausleuchten, da damit die simultane Detektion von Hindernissen bzw. Objekten rund um die Einheit herum gegeben ist. Vorteilhaft können dabei auch mehrere übereinander geordnete Lichtquellen vorgesehen sein, die zeitlich in verschiedenen Abständen eingeschalten werden, so daß unterschiedliche Höhendimensionen des Raumes detektierbar bzw. vermessbar sind. Vorteilhaft wird das Licht, welches von Objekten die angestrahlt werden zurückgestreut wird, durch Anwendung eines speziellen weitwinkeligen Abbildungselementes, das lediglich eine einzige gewölbte, sphärische oder asphärische, spiegelnde Oberfläche zur Lichtführung besitzt in Verbindung mit einem Objektiv und einem Filter, sowie einem photoelektrischen Wandler durchgeführt, wobei die Umgebung durch das Abbildungssystem auf den Wandler projiziert wird. Mit dieser Anordnung kann die Aufgabe mit möglichst geringem technischen Aufwand gelöst werden. Vorteilhaft wird bei einer Weiterbildung der Erfindung die beste Raumabdeckungs- und das beste Positionsauflösevermögen erreicht, indem die Gestalt der asphärischen spiegelnden Oberfläche des weitwinkeligen Abbildungselementes mit Hilfe von Spline-Funktionen beschrieben wird. Die Spline-Funktion beschreibt die Gestalt des Abbildungselementes dabei auf fol- gende Weise: durch die Spline-Funktion werden weiter entfernte Bereiche je nach Art des verwendeten Objektives gedehnt dargestellt. Mittels der Spline-Funktion werden dabei die 6 Entfernungsbereiche und die für die jeweiligen Entfernungsbereiche gültigen Teilbereiche des asphärischen Abbildungselementes so beschrieben, daß die benachbarten Polynomfunktionen in den jeweiligen Übergangspunkten der Detektionsbereiche den gleichen Wert und dieselben Ableitungen haben, wodurch die verwendete Funktion kontinuierlich und bruchfrei wird. Durch die Verwendung eines derartigen Abbildungselementes wird vorteilhaft erreicht, daß einfache Objektive mit einem gewöhnlichen Sichtwinkel für die bei der Weiterbildung der Erfindung benötigte weitwinklige lineare Abbildungscharakteristik eingesetzt werden können. Durch den Einsatz von Spline- Funktionen kann erreicht werden, daß Licht, welches von weiter entfernten Bereichen zurückgestreut wird, gezielt vorverzerrt wird, bevor es durch das Objektiv durchtritt, so daß weiter entfernte Bereiche mit einer höheren Auflösung dargestellt werden können, als es normalerweise durch das verwendete Objektiv möglich wäre. Auf diese Art wird ein Abbildungssystem zur Verfügung gestellt, daß eine einfache ökonomische Lösung für die Herstellung von weitwinkligen, linearen optischen Systemen bietet.
Im Folgenden werden Ausführungsbeispiele der Erfindung anhand von Abbildungen weiter erläutert.
Abbildung 1 zeigt ein Ausführungsbeispiel eines Sensorsystems . Abbildung 2 zeigt eine mögliche Anordnung einer eingesetzten Lichtquelle in Seitenansicht. Abbildung 3 zeigt eine mögliche Anordnung zur Erzeugung eines Lichtstreifens rund um das Sensorsystem herum. Abbildung 4 zeigt eine weitere Ausführungsform zur Erzeugung eines Lichtstreifens rund um das Sensorsystem herum. Abbildung 5 zeigt eine weitere Ausführungsform zur Erzeugung eines Lichtstreifens rund um die Abbildungsvorrichtung herum. 7 Abbildung 6 zeigt einen möglichen Aufbau des Sensorsystems auf einem Fahrzeug, bzw. Roboter in Seitenansicht. Abbildung 7 zeigt eine Draufsicht auf das Sensorsystem und ein Fahrzeug.
Abbildung 8 zeigt ein Sensorsystem zur Verwendung mit einem eindimensionalen photoelektrischen Wandler. Abbildung 9 zeigt eine Ausführungsform mit zweidimensiona- len optischem Positionsdetektor.
Wie Abbildung 1 zeigt, besteht eine mögliche Ausführungsform eines beschriebenen Sensorsystems, welches einen Raumstreifen rundherum ausleuchtet aus 4 Lichtquellen 1. Bei der Anordnung dieser Lichtquellen zur Ausleuchtung eines Lichtstreifens ist insbesondere zu beachten, daß diese Lichtstreifen in einer Ebene liegen, die im wesentlichen planparallel zur Unterlage ist, auf der sich die autonome mobile Einheit, an der der Sensor angebracht ist, bewegt. Falls diese planparallele An- Ordnung nicht möglich ist, so wird die Triangulation erschwert, indem bei der Auswertung der reflektieren Lichtstrahlen zu beachten ist, daß diese die reflektierenden Objekte unter unterschiedlichen Winkellagen getroffen haben, so daß sich für die Triangulation zur Bestimmung der Entfernung der Objekte unterschiedlich Triangulationswinkel ergeben. Die Lichtquellen 1 erzeugen dabei Lichtstreifen 2, die den Raum ausleuchten. Das verwendete Abbildungselement 4 projiziert das von den Objekten 3 zurückgestreute Licht durch das Objektiv 6 auf den photelektrischen Wandler 7, der in dieser An- ordnung als zweidimensionaler CCD-Bilddetektor einer Kamera 5 ausgeführt ist. Der photoelektrische Wandler 7 befindet sich in Verbindung mit einer an eine beispielsweise in einem Rechner bestehenden Auswertungselektronik 8, die Teil des Sensorsystems zur Bestimmung von Objektpositionen ist. Die Auswer- tungselektronik 8 bestimmt die Position von Objekten 3, aufgrund des auf dem photoelektrischen Wandler 7 projizierten Bildes unter Anwendung des Prinzips der aktiven optischen 8 Triangulation, wobei insbesondere die Abbildungseigenschaften des Objektivs 6 und des Abbildungselementes 4 in Verbindung mit der Höhe der Ebene, in welcher der Lichtstreifen ausgestrahlt wird, Verwendung finden. Vorteilhaft wird das Sensor- System auf mobilen Fahrzeugen 12, wie z. B. einem mobilen Roboter eingesetzt. Dabei können die aktuellen Informationen über die Steuerung des Fahrzeuges 12, bzw. des Roboters von der Auswertungselektronik 8 bestimmt und infolge dieser Informationen kann der weitere Fahrweg der Einheit geplant wer- den. Diese Informationen geben z. B. die Positionen von Objekten 3 an, unter denen sich das Fahrzeug 12 hindurchbewegt, oder zwischen denen sich das Fahrzeug 12 hindurchbewegen muß.
Bei der in Abbildung 1 dargestellten Ausführungsform ist die optische Achse des Abbildungselementes 4 vorteilhaft senkrecht auf den Lichtstreifen 2 ausgerichtet, welche von den Lichtquellen 1 abgegeben werden. Bei dieser Ausführungsform ist das Abbildungselement 4 als solches optisches Element ausgeführt, das eine sphärische oder asphärische spiegelnde Oberfläche 9 aufweist, wobei die Außenseite der spiegelnden Oberfläche 9 für die Abbildung der reflektierten Lichtstrahlen im Abbildungssystem eingesetzt wird. Die von den Lichtquellen abgegebenen Lichtstreifen und von den Objekten 3 reflektierten Lichtstrahlen werden über das Abbildungselement 4 durch das Objektiv 3 auf den Lichtdetektor 7 geworfen, wie dies durch die mit Zahlen versehenen Strahlengänge schematisch dargestellt ist. Die Entfernung der auf dem Photodetektor 7 auftreffenden Lichtstrahlen ist dabei in Abhängigkeit der Abbildungseigenschaften des Objektivs und des Abbildung- selementes 4 kennzeichnend für die Entfernung der Objekte 3 vom Sensorsystem. Bei der in Abbildung 1 dargestellten Ausführungsform des Sensorsystems kann jeder beliebige zweidi- mensionale Bilddetektor 7 eingesetzt werden. Beispielsweise kann eine Fotodiodenmatrix anstatt eines zweidimensionalen CCD-Sensors als photoelektrischer Wandler 7 angewendet werden. 9 Abbildung zwei zeigt eine mögliche prinzipielle Ausführungs- form der angewandten Lichtquelle 1 in Seitenansicht. Die in Abbildung 2 dargestellte Lichtquelle 1 besteht dabei aus einem Zylinderspiegel 11, der zweckgemäß einen asphärischen Querschnitt besitzt und aus Lichtemittern 10 besteht, welche beispielsweise Leuchtdioden sein können. Diese Lichtemitter befinden sich in der Fokuslinie des Zylinderspiegels 11. Dabei sind die Lichtemitter 10 der Reihe nach nebeneinander in der Fokuslinie des asphärischen Zylinderspiegels 11 angeord- net, so daß die lichtemmittierenden Oberflächen der Lichtemitter 10 in Richtung des asphärischen Zylinderspiegels 11 zeigen. Das von den Lichtemittern 10 emmitierte Licht erreicht dabei zunächst den asphärischen Zylinderspiegel 11 und im Anschluß tritt es als Lichtstreif 2 durch den Spiegel pro- jiziert aus. Durch den Einsatz einer an die Lichtemitter 10 angepaßten asphärischen Spiegelgestalt kann erreicht werden, daß die Lichtquelle 1 einen parallelisierten Lichtstreif ausleuchtet. In diesem Zusammenhang ist zu erwähnen, das Leuchtdioden (LED) eine preisgünstige, einfache und kleine Licht- quelle darstellen und das durch die gewählte Anordnung der
Leuchtdioden auf der Achse des Zylinderspiegels eine kostengünstige Lichtquelle zur Verfügung gestellt werden kann.
Wie Abbildung 3 zeigt besteht eine mögliche prinzipielle An- Ordnung zur Erzeugung eines Lichtstreifens 2 aus einem Teil eines Zylinderspiegels. Hierbei steht der Zylinderspiegel 11 zu den Lichtemittern 10 in einer sogenannten off-achsen Anordnung, weswegen nur ein Teil des zuvor in Abbildung 2 beschriebenen Zylinderspiegels 11 Verwendung findet. Die Lich- temitter 10 sind dabei vorteilhaft als LEDs ausgebildet und der Reihe nach auf der Fokuslinie des asphärischen Zylinderspiegels so angeordnet, daß ihre lichtemmittierenden Oberflächen in Richtung des asphärischen Zylinderspiegels 11 gerichtet sind. Mit einer derartigen Lichtquelle kann ebenfalls der für das Sensorsystem gültige prallelisierte Lichtstrahl erzeugt werden. Angedeutet ist dies durch den mit den Pfeilen versehenen Strahlenverlauf. 1 0
Wie Abbildung 4 zeigt, besteht eine andere mögliche Lösung zur Erzeugung eines rundum um die Abbildungsvorrichtung leuchtenden Lichtstreifens 2 darin, daß ein parallelisierter Lichtstrahl in Rotation versetzt wird. Der rotierende Lichtstrahl 2 wird dabei in der Weise erzeugt, daß sowohl der Lichtemitter 10, als auch die Kollimatoroptik 14 um eine Achse t herum in Drehung versetzt wird. Eine weitere derartige Ausführungsform kann beispielsweise darin bestehen, daß so- wohl der Lichtemitter 10 als auch die Kollimatoroptik 14 feststehen und der Lichtstahl 2 mit Hilfe eines rotierenden Spiegels rundum bewegt wird.
Abbildung 5 zeigt eine weitere mögliche Ausführungsform zur Erzeugung eines rundherum abgegebenen Lichtstreifens 2. Der Lichtstreifen 2 wird in dieser Ausführungsform durch einen Kegelspiegel 15 erzeugt. Dabei wird das vom Lichtemitter 10 abgegebene Licht zunächst durch eine Kollimatoroptik 14 par- allelisiert und im Anschluß durch einen Kegelspiegel 15 in den gewünschten Lichtstreifen 2 aufgefächert. Bei dieser Ausführungsform kann als Lichtemitter 10 beispielsweise eine Glühlampe, Halogenlampe, Bogenlampe oder Laser verwendet werden.
Abbildung 6 zeigt den möglichen Aufbau eines Sensorsystems an einer autonomen mobilen Einheit 12, die beispielsweise ein Serviceroboter sein kann. Abbildung 6 zeigt die Darstellung in Seitenansicht. Vorteilhaft können an mobilen Systemen mehrere übereinander angeordnete Lichtstreifen erzeugt werden, welche von mehreren übereinander liegenden Lichtquellen 1 abgegeben werden. Vorzugsweise werden die Lichtstreifen 2 zeitlich versetzt übereinander erzeugt und pulsiert ausgeleuchtet. Durch die Anordnung mehrerer Lichtquellen übereinander wird eine bessere Höhendifferenzierung der Hindernisse er- reicht. Um möglichst alle Hindernisse um das mobile Fahrzeug 12 herum detektieren und vermessen zu können, werden vorzugsweise 2 Abbildungselemente 4 mit den in zugehörigen Kameras 5 11 an zwei entgegengesetzten Ecken des mobilen Fahrzeuges 12 vorgesehen. Durch die Auswertungselektronik wird sichergestellt, daß bei der Triangulation von Hindernissen die entsprechende Höhenlage der aktuell eingeschalteten Lichtquelle zur Auswertung der Triangulationsergebnisse herangezogen wird.
Abbildung 7 zeigt die Draufsicht auf einen mit dem Sensorsystem versehenes mobiles Fahrzeug 12, z. B. einen Roboter mit dem Empfangsbereich des Detektionssystems 13. Wie Abbildung 7 weiter zeigt, sind die einzelnen Abbildungselemente 4 an jeweils 2 entgegengesetzten Ecken des mobilen Systems 12 angebracht. Fall zwei Abbildungselemente 4 in der Weise angeordnet sind, wie dies in Abbildung 7 dargestellt ist, so kann der Detektionsbereich 13 des optischen Sensorsystems auf die gesamte Umgebung des mobilen Systems 12 bzw. auf den gesamten Raum ausgedehnt werden, der das mobile System umgibt.
In Abbildung 8 ist eine mögliche Ausführungsform des photo- elektrischen Wandlers 7 in Form eines eindimensionalen photoelektrischen Wandlers 7 dargestellt. Von dem Abbildungselement 4 wird das Licht durch das Objektiv 6 auf den eindimensionalen Lichtdetektor projiziert, der in der Bildebene bewegt, bzw. vorteilhaft rotiert wird. Dieser photoelektrische Wandler 7 kann beispielsweise als eindimensionaler positionsempfindlicher Detektor, z. B. als CCD oder PSD ausgeführt sein. Dadurch, daß der eindimensionale Lichtdetektor in der Bildebene bewegt, bzw. vorteilhaft rotiert wird, detektiert er die Lichtintensitätsverteilung in der gesamten Bildebene, worauf das Abbildungselement 4 und das Objektiv 6 den um das mobile Fahrzeug 12 liegenden Raumbereich abbildet. Die Meßergebnisse die so erhalten werden, können vorzugsweise zwischengespeichert werden oder die Auswertung erfolgt synchron zur Drehzahl des photoelektrischen Sensors.
Abbildung 9 zeigt eine weitere mögliche Ausführung eines photoelektrischen Wandlers 7, der hier als zweidimensionaler po- 12 sitionsempfindlicher Detektor dargestellt ist. In dieser Ausfuhrungsform ist der photoelektrische Wandler 7 als zweidimensionaler positionsempfindlicher Detektor ausgeführt, der sich hinter dem Objektiv 6 in dessen Bildebene befindet. Zwi- sehen dem Ob ektiv 6 und dem photoelektrischen Wandler 7 befindet sich bei dieser Ausführungsform eine undurchlässige Scheibe 16, welche mit einem Spalt 17 versehen ist. Bei der Rotation dieser Scheibe wird immer der Bereich über dem positionsempfindlichen Detektor freigegeben, der aktuell vom Spalt 17 überstrichen wird. Beispielsweise laßt der Spalt 17 auf der lichtundurchlassigen Scheibe 16 nur das Licht von einem gut definierten Raumbereich beispielsweise mit dem Off- nungswinkel von 1° durch. Auf diese Weise kann ein Richtungsauflosungsvermogen mit beliebig kleinem Winkel erreicht wer- den. Die zu wahlende Spaltbreite ist davon abhangig, wieviel Licht zurückgestrahlt wird, bzw. mit welcher Empfindlichkeit der Detektor arbeitet und mit welcher Lichtstarke der Lichtstreifen von der Lichtquelle ausgeleuchtet wird. Bei der Anwendung eines rotierenden parallelisierten Lichtstrahles als Lichtstreif 2, wie dies im Ausfuhrungsbeispiel von Abbildung 4 dargestellt ist, ist die Anwendung der Scheibe 16 nicht notig, weil die Richtungsauflosung durch die rotierende Lichtquelle schon gesichert ist. Alles in allem wird mit dem beschriebenen Sensorsystem der Vorteil erzielt, daß sein Emp- fangsbereich größer ist als bei bekannten Ausführungsformen und das die Abbildung gleichmäßiger ist, als bei anderen bekannten triangulierenden Sensorsystemen. Durch die weitwmke- lige Abbildung können die Positionen von Objekten, die vom Sensorsystem einen großen Abstand aufweisen, gemessen werden. Dabei stellt die spezielle Gestalt des Abbildungselementes 4 die gleichmäßige Auflösung der Entfernungsmessung im gesamten Detektionsbereich des Sensorsystems sicher, indem es quasi das mangelnde Auslosungsvermogen des Objektives 6 in der Entfernung des Sensorsystems korrigiert, weil es von dort re- flektierte Lichtstrahlen streut und so entferntere Objekte auseinanderzieht .

Claims

13 Patentansprüche
1. Optisches Sensorsystem zur Detektion der Position eines Objektes, mit einer Lichtquelle zur Beleuchtung der Umgebung, einem photoelektrischen Wandler, der die Intensitätsverteilung des von Objekten zurückgestreuten Lichtes in elektrische Signale umwandelt und an ein Sensorsignalauswertesystem weitergibt, dadurch gekennzeichnet, daß das Sensorsystem eine Lichtquelle (1) aufweist, wodurch ein oder mehrere Lichtstreifen in horizontaler Richtung in mehreren Raumrichtungen erzeugt werden, und das ein optisches Abbildungselement (4) aufweist, um das von Objekten (3) zurückgestreute Licht zu reflektieren und auf den photoelektrischen Wandler (7) zu projizieren, wobei das optische Abbildungselement (4) lediglich eine einzige spiegelnde Oberfläche (9) besitzt.
2. Optisches Sensorsystem nach Anspruch 1, das im Strahlengang zwischen dem Abbildungselement (4) und dem photoelektrischen Wandler (7) ein Objektiv (6) aufweist.
3. Optisches Sensorsystem nach einem der Ansprüche 1 oder 2, bei dem die optische Achse des Abbildungselementes (4) senk- recht zu dem beleuchteten Lichtstreifen (2) ist und das vier Lichtquellen (1) aufweist.
4. Optisches Sensorsystem nach einem der vorangehenden Ansprüche, welches ein weitwinkeliges Abbildungselement (4) aufweist, das lediglich eine sphärische oder asphärische spiegelnde Oberfläche (9) aufweist.
5. Optisches Sensorsystem nach einem der vorangehenden An- sprüche, 14
bei der das Abbildungselement (4) mindesten eine durch zwei Spline-Funktionen beschreibbare asphärische spiegelnde Oberfläche (9) aufweist.
6. Optisches Sensorsystem nach einem der vorangehenden Ansprüche, das mindestens 2 übereinanderliegende Lichtquellen (1) aufweist, um zwei übereinanderliegende Lichtstreifen (2) zu er- zeugen.
7. Optisches Sensorsystem nach einem der vorangehenden Ansprüche, das als photoelektrischen Wandler (7) einen eindimensionalen positionsempfindlichen Lichtdetektor aufweist, der bewegt wird.
8. Optisches Sensorsystem nach einem der Ansprüche 1-6, das als photoelektrischen Wandler (7) einen zweidimensionalen positionsempfindlichen Detektor aufweist, wobei im Strahlengang zwischen dem Abbildungselement (4) und dem photoelektrischen Wandler (7) ein räumlicher Lichtmodulator angebracht ist.
9. Optisches Sensorssystem nach Anspruch 8, bei dem als räumlicher Lichtmodulator eine rotierende mit einem Spalt versehene Scheibe (16) , oder ein Flüssigkristallmo- dulator vorgesehen ist.
10. Optisches Sensorsystem nach einem der Ansprüche 1-6, bei dem der photoelektrische Wandler (7) als zweidimensionaler Bilddetektormatrix ausgeführt ist.
11. Optisches Sensorsystem nach einem der Ansprüche 1-5, Bei dem die Lichtquelle (1) als rotierende Lichtquelle ausgeführt ist. 15
12. Optisches Sensorsystem nach einem der Ansprüche 1-10, bei dem die Lichtquelle (1) aus lichtemmittierenden Elementen (10) aufgebaut ist und aus einer zylindrischen spiegelnden Oberfläche (11) mit einem asphärischen Querschnitt besteht, wobei die lichtemmittierenden Elemente (10) als Leuchtdioden in der Fokuslinie der zylindrischen Spiegelfläche (11) so plaziert sind, daß die lichtemmittierenden Flächen der Elemente (10) dem zylindrischen Spiegel (11) zugewandt sind.
13. Optisches Sensorsystem nach einem der Ansprüche 1-10, bei dem die Lichtquelle (1) zur Erzeugung des Lichtstreifens
(2) aus einem bekannten lichtemmittierenden Element, wie einer Glühlampe, einer Halogenlampe, einer Lichtbogenlampe oder einem Laser, aus einer Kollimatoroptik (14) und aus einem Kegelspiegel (15) aufgebaut ist.
14. Autonome mobile Einheit mit einem Sensorsystem nach einem der Ansprüche 1 bis 13
PCT/DE1999/000620 1998-03-10 1999-03-09 Optisches sensorsystem zur detektion der position eines objektes WO1999046612A1 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020007009913A KR20010041694A (ko) 1998-03-10 1999-03-09 물체 위치 검출용 광 센서 시스템
CA002322419A CA2322419A1 (en) 1998-03-10 1999-03-09 Optical sensor system for detecting the position of an object
JP2000535942A JP2002506976A (ja) 1998-03-10 1999-03-09 物体の位置を検出するための光学的センサシステム
EP99919045A EP1062524A1 (de) 1998-03-10 1999-03-09 Optisches sensorsystem zur detektion der position eines objektes

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE19810368.9 1998-03-10
DE19810368 1998-03-10

Publications (1)

Publication Number Publication Date
WO1999046612A1 true WO1999046612A1 (de) 1999-09-16

Family

ID=7860414

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/DE1999/000620 WO1999046612A1 (de) 1998-03-10 1999-03-09 Optisches sensorsystem zur detektion der position eines objektes

Country Status (6)

Country Link
EP (1) EP1062524A1 (de)
JP (1) JP2002506976A (de)
KR (1) KR20010041694A (de)
CN (1) CN1292878A (de)
CA (1) CA2322419A1 (de)
WO (1) WO1999046612A1 (de)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6972834B1 (en) 2000-12-11 2005-12-06 Mitsubishi Denki Kabushiki Kaisha Optical distance sensor
EP1653251A2 (de) 2004-10-29 2006-05-03 Deere & Company Verfahren und System zur Hinderniserkennung
KR100787565B1 (ko) 2006-09-04 2007-12-21 한국외국어대학교 산학협력단 정다각형 형태로 배치된 광 플로우 센서를 이용한 이동체의 자기 위치 추정 장치 및 그 방법
DE102012107727A1 (de) * 2012-03-23 2013-09-26 Atlas Elektronik Gmbh Abstandsermittlungsverfahren, Abstandsregelverfahren und Verfahren zum Untersuchen eines gefluteten Tunnels damit sowie Abstandsermittlungseinrichtung, Abstandsregeleinrichtung und Unterwasserfahrzeug damit
EP2672287A1 (de) * 2012-06-07 2013-12-11 Samsung Electronics Co., Ltd Hinderniswahrnehmungsmodul und Reinigungsroboter damit
DE102013100192A1 (de) * 2013-01-10 2014-07-10 Miele & Cie. Kg Selbstfahrender Roboter und Verfahren zur Abstandsbestimmung bei einem selbstfahrenden Roboter
CN105141921A (zh) * 2015-09-02 2015-12-09 上海大学 一种监控装置
AU2013272382B2 (en) * 2012-06-07 2016-03-17 Samsung Electronics Co., Ltd. Obstacle sensing module and cleaning robot including the same
DE102020100822B4 (de) 2019-02-04 2023-12-21 pmdtechnologies ag Beleuchtungsmodul für ein Lichtlaufzeitkamerasystem
DE102022129827B3 (de) 2022-11-11 2024-03-07 Sick Ag Optoelektronischer sensor
DE102022129828B4 (de) 2022-11-11 2024-06-06 Sick Ag Optoelektronischer sensor

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100365428C (zh) * 2003-07-03 2008-01-30 夏普株式会社 人体检测装置和配有它的电子机器
KR100569181B1 (ko) * 2004-01-06 2006-04-07 김진오 실내 항법을 위한 좌표확인 시스템
EP1659417A1 (de) * 2004-11-19 2006-05-24 Leica Geosystems AG Verfahren zur Bestimmung der Ausrichtung eines Ausrichtungsindikators
CN100356193C (zh) * 2005-09-22 2007-12-19 哈尔滨工程大学 受激布里渊散射激光雷达水下隐身物体探测***及方法
DE102015109775B3 (de) 2015-06-18 2016-09-22 RobArt GmbH Optischer Triangulationssensor zur Entfernungsmessung
US20170008621A1 (en) * 2015-07-08 2017-01-12 Honeywell International Inc. Accurate object detection in free space using controlled light source techniques
CN106371101B (zh) * 2015-07-20 2019-08-16 北醒(北京)光子科技有限公司 一种智能测距及避障的装置
DE102015114883A1 (de) 2015-09-04 2017-03-09 RobArt GmbH Identifizierung und Lokalisierung einer Basisstation eines autonomen mobilen Roboters
DE102015119501A1 (de) 2015-11-11 2017-05-11 RobArt GmbH Unterteilung von Karten für die Roboternavigation
DE102015119865B4 (de) 2015-11-17 2023-12-21 RobArt GmbH Robotergestützte Bearbeitung einer Oberfläche mittels eines Roboters
DE102015121666B3 (de) 2015-12-11 2017-05-24 RobArt GmbH Fernsteuerung eines mobilen, autonomen Roboters
DE102016102644A1 (de) 2016-02-15 2017-08-17 RobArt GmbH Verfahren zur Steuerung eines autonomen mobilen Roboters
CN105974427B (zh) * 2016-06-24 2021-05-04 上海图漾信息科技有限公司 结构光测距装置及方法
CN109716161A (zh) * 2016-07-20 2019-05-03 深圳市大疆创新科技有限公司 用于障碍物检测的圆形光源
US11709489B2 (en) 2017-03-02 2023-07-25 RobArt GmbH Method for controlling an autonomous, mobile robot

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB1199824A (en) * 1968-03-18 1970-07-22 Zeiss Jena Veb Carl Electro-Optical Rangefinder
EP0358628A2 (de) * 1988-09-06 1990-03-14 Transitions Research Corporation Strukturiertes Lichtsystem für optische Navigation und zum Ausweichen vor Hindernissen
US5110202A (en) * 1990-08-17 1992-05-05 Spatial Positioning Systems, Inc. Spatial positioning and measurement system
JPH09257934A (ja) * 1996-03-25 1997-10-03 Mitsubishi Electric Corp 光レーダ装置
GB2314717A (en) * 1996-06-24 1998-01-07 Mitsui Shipbuilding Eng Laser obstacle detection

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB1199824A (en) * 1968-03-18 1970-07-22 Zeiss Jena Veb Carl Electro-Optical Rangefinder
EP0358628A2 (de) * 1988-09-06 1990-03-14 Transitions Research Corporation Strukturiertes Lichtsystem für optische Navigation und zum Ausweichen vor Hindernissen
US5110202A (en) * 1990-08-17 1992-05-05 Spatial Positioning Systems, Inc. Spatial positioning and measurement system
JPH09257934A (ja) * 1996-03-25 1997-10-03 Mitsubishi Electric Corp 光レーダ装置
US5751407A (en) * 1996-03-25 1998-05-12 Mitsubishi Denki Kabushiki Kaisha Optical radar device
GB2314717A (en) * 1996-06-24 1998-01-07 Mitsui Shipbuilding Eng Laser obstacle detection

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JARVIS, BYRNE: "An Automated Guided Vehicle with Map Building and Path Finding Capabilities", 4TH INTERNATIONAL SYMPOSIUM ON ROBOTICS RESEARCH, 1988, pages 497 - 504, XP002111886 *

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6972834B1 (en) 2000-12-11 2005-12-06 Mitsubishi Denki Kabushiki Kaisha Optical distance sensor
EP1653251A2 (de) 2004-10-29 2006-05-03 Deere & Company Verfahren und System zur Hinderniserkennung
EP1653251A3 (de) * 2004-10-29 2006-07-12 Deere & Company Verfahren und System zur Hinderniserkennung
US7164118B2 (en) 2004-10-29 2007-01-16 Deere & Company Method and system for obstacle detection
KR100787565B1 (ko) 2006-09-04 2007-12-21 한국외국어대학교 산학협력단 정다각형 형태로 배치된 광 플로우 센서를 이용한 이동체의 자기 위치 추정 장치 및 그 방법
DE102012107727B4 (de) * 2012-03-23 2014-12-04 Atlas Elektronik Gmbh Navigationsverfahren, Abstandsregelverfahren und Verfahren zum Untersuchen eines gefluteten Tunnels damit sowie Navigationseinrichtung, Abstandsregeleinrichtung und Unterwasserfahrzeug damit
DE102012107727A1 (de) * 2012-03-23 2013-09-26 Atlas Elektronik Gmbh Abstandsermittlungsverfahren, Abstandsregelverfahren und Verfahren zum Untersuchen eines gefluteten Tunnels damit sowie Abstandsermittlungseinrichtung, Abstandsregeleinrichtung und Unterwasserfahrzeug damit
AU2013272382B2 (en) * 2012-06-07 2016-03-17 Samsung Electronics Co., Ltd. Obstacle sensing module and cleaning robot including the same
US9020641B2 (en) 2012-06-07 2015-04-28 Samsung Electronics Co., Ltd. Obstacle sensing module and cleaning robot including the same
EP2672287A1 (de) * 2012-06-07 2013-12-11 Samsung Electronics Co., Ltd Hinderniswahrnehmungsmodul und Reinigungsroboter damit
US9846435B2 (en) 2012-06-07 2017-12-19 Samsung Electronics Co., Ltd. Obstacle sensing module and cleaning robot including the same
EP2755101A2 (de) 2013-01-10 2014-07-16 Miele & Cie. KG Selbstfahrender Roboter und Verfahren zur Abstandsbestimmung bei einem selbstfahrenden Roboter
DE102013100192A1 (de) * 2013-01-10 2014-07-10 Miele & Cie. Kg Selbstfahrender Roboter und Verfahren zur Abstandsbestimmung bei einem selbstfahrenden Roboter
CN105141921A (zh) * 2015-09-02 2015-12-09 上海大学 一种监控装置
DE102020100822B4 (de) 2019-02-04 2023-12-21 pmdtechnologies ag Beleuchtungsmodul für ein Lichtlaufzeitkamerasystem
DE102022129827B3 (de) 2022-11-11 2024-03-07 Sick Ag Optoelektronischer sensor
DE102022129828B4 (de) 2022-11-11 2024-06-06 Sick Ag Optoelektronischer sensor

Also Published As

Publication number Publication date
KR20010041694A (ko) 2001-05-25
CA2322419A1 (en) 1999-09-16
JP2002506976A (ja) 2002-03-05
EP1062524A1 (de) 2000-12-27
CN1292878A (zh) 2001-04-25

Similar Documents

Publication Publication Date Title
EP1062524A1 (de) Optisches sensorsystem zur detektion der position eines objektes
EP3279685B1 (de) Optoelektronischer sensor und verfahren zur erfassung eines objekts
EP1882153B1 (de) Vorrichtung und verfahren zum vermessen von oberflächen
EP2002281B1 (de) Vorrichtung zur optischen distanzmessung
DE112009005524B3 (de) Vorrichtung und Verfahren zum Messen von sechs Freiheitsgraden
DE69214951T2 (de) Sonden
EP0842395B1 (de) Verfahren und vorrichtung zur schnellen erfassung der lage einer zielmarke
EP0892929B1 (de) Anordnung zur vermessung der koordinaten mehrerer, an einem objekt angebrachten, retroreflektoren
EP3633405B1 (de) Messgerät zur geometrischen 3d-abtastung einer umgebung mit einer vielzahl sendekanäle und semiconductor-photomultiplier sensoren
EP3167260B1 (de) Verfahren zur richtungsabhängigen messung mindestens einer lichttechnischen oder radiometrischen kenngrösse einer optischen strahlungsquelle
DE19628049C2 (de) Vorrichtung zur Erfassung der Position eines menschlichen Körpers unter Verwendung eines Infrarotstrahlsensors
EP3404442B1 (de) Simulationsvorrichtung für ein rotierendes lidar-lichtmesssystem
EP1766435A1 (de) Abtastvorrichtung zum vermessen der konturen eines objektes
DE102017125686A1 (de) Optischer Scanner
EP2354806B1 (de) Optoelektronischer Sensor
DE19919584A1 (de) Verfahren und Anordnung zur 3D-Aufnahme
DE19907546A1 (de) Optoelektronische Vorrichtung
WO2006069748A1 (de) Vorrichtungen zur vermessung eines objektes und verfahren zur verwendung einer derartigen vorrichtung
DE102006055743B4 (de) Optischer Sensor
EP1901031B1 (de) Messanordnung und Verfahren zum Vermessen einer dreidimensional ausgedehnten Struktur
CH676042A5 (en) Surveying unit with theodolite and range finder - determines coordinates of target point includes light pulse transmitter and receiver
DE69218361T2 (de) Auf einem Kraftfahrzeug angeordnete Einrichtung zur Entdeckung und Identifizierung von Hindernissen
DE102013007961A1 (de) Optisches Messsystem für ein Fahrzeug
WO2018086786A1 (de) Partikelsensor mit wenigstens zwei laser-doppler-sensoren
DE4422886A1 (de) Verfahren und Einrichtung zur optischen Bestimmung räumlicher Positionen einzelner reflektierender Objekte

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 99803884.9

Country of ref document: CN

AK Designated states

Kind code of ref document: A1

Designated state(s): CA CN JP KR US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE

DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 1999919045

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 1020007009913

Country of ref document: KR

ENP Entry into the national phase

Ref document number: 2322419

Country of ref document: CA

Ref document number: 2322419

Country of ref document: CA

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 09646051

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 1999919045

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 1020007009913

Country of ref document: KR

NENP Non-entry into the national phase

Ref country code: CA

WWW Wipo information: withdrawn in national office

Ref document number: 1999919045

Country of ref document: EP

WWW Wipo information: withdrawn in national office

Ref document number: 1020007009913

Country of ref document: KR