DE10229408A1 - Optischer Sensor - Google Patents

Optischer Sensor Download PDF

Info

Publication number
DE10229408A1
DE10229408A1 DE2002129408 DE10229408A DE10229408A1 DE 10229408 A1 DE10229408 A1 DE 10229408A1 DE 2002129408 DE2002129408 DE 2002129408 DE 10229408 A DE10229408 A DE 10229408A DE 10229408 A1 DE10229408 A1 DE 10229408A1
Authority
DE
Germany
Prior art keywords
optical sensor
sensor according
receiver
receivers
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE2002129408
Other languages
English (en)
Other versions
DE10229408B4 (de
Inventor
Martin Argast
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Leuze Electronic GmbH and Co KG
Original Assignee
Leuze Electronic GmbH and Co KG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Leuze Electronic GmbH and Co KG filed Critical Leuze Electronic GmbH and Co KG
Priority to DE2002129408 priority Critical patent/DE10229408B4/de
Publication of DE10229408A1 publication Critical patent/DE10229408A1/de
Application granted granted Critical
Publication of DE10229408B4 publication Critical patent/DE10229408B4/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V8/00Prospecting or detecting by optical means
    • G01V8/10Detecting, e.g. by using light barriers
    • G01V8/20Detecting, e.g. by using light barriers using multiple transmitters or receivers
    • G01V8/22Detecting, e.g. by using light barriers using multiple transmitters or receivers using reflectors

Landscapes

  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Geophysics (AREA)
  • Geophysics And Detection Of Objects (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

Die Erfindung betrifft einen optischen Sensor 1 zur Erfassung von Objekten (5) in einem Detektionsbereich (6) mit wenigstens zwei Empfängern (2). Die Empfänger (2) sind jeweils von einer zeilenförmigen Anordnung von Empfangselementen gebildet und sind einer Empfangsoptik zur Fokussierung von Licht aus dem Detektionsbereich (6) auf die Empfangselemente verordnet. In einer Auswerteeinheit (3) wird aus den Empfangssignalen an den Ausgängen der Empfänger ein Objektfestellungssignal generiert, welches über einen Sensorausgang (12) ausgebbar ist.

Description

  • Die Erfindung betrifft einen optischen Sensor zur Erfassung von Objekten in einem Detektionsbereich.
  • Derartige Sensoren weisen jeweils wenigstens einen Sendelichtstrahlen emittierenden Sender und einen Empfangslichtstrahlen empfangenden Empfänger auf. Mit den Sendelichtstrahlen wird ein Eingriff eines Objektes in den Detektionsbereich erfasst.
  • Die optischen Sensoren können als Lichtschranken oder Lichttaster ausgebildet sein. Mit derartigen Sensoren kann allein die Anwesenheit oder Abwesenheit von Objekten im Überwachungsbereich erfasst werden.
  • Weiterhin können die optischen Sensoren auch als Distanzsensoren ausgebildet sein. Die Distanzmessung kann dabei nach dem Lichtlaufzeitverfahren erfolgen. Dabei wird die Laufzeit der Sendelichtstrahlen zu einem Objekt erfasst. Aus dem auf diese Weise ermittelten Distanzwert wird dann in einer Auswerteeinheit der entsprechende Distanzwert berechnet.
  • Weiterhin sind nach dem Triangulationsverfahren arbeitende optischen Sensoren bekannt. Ein derartiger Sensor ist beispielsweise aus der DE 198 50 270 A 1 bekannt. Dieser Sensor weist neben einem Sendelichtstrahlen emittierenden Sender einen von einer CCD-Zeile gebildeten Empfänger auf. Zur Distanzbestimmung wird das Belichtungsmuster der Zeilenelemente der CCD-Zeile ausgewertet, welches durch die vom Objekt auf den Empfänger zurückreflektierten Empfangslichtstrahlen generiert wird.
  • Der Erfindung liegt die Aufgabe zugrunde, einen optischen Sensor bereitzustellen, mit welchem bei geringem Konstruktionsaufwand eine sichere und genaue Objektdetektion duchführbar ist.
  • Zur Lösung dieser Aufgabe sind die Merkmale des Anspruchs 1 vorgesehen. Vorteilhafte Ausführungsformen und zweckmäßige Weiterbildungen der Erfindung sind in den Unteransprüchen beschrieben.
  • Der erfindungsgemäße optische Sensor dient zur Erfassung von Objekten in einem Detektionsbereich und weist wenigstens zwei Empfänger auf. Die Empfänger sind jeweils von einer zeilenförmigen Anordnung von Empfangselementen gebildet, welchen eine Empfangsoptik zur Fokussierung von Licht aus dem Detektionsbereich auf die Empfangselemente vorgeordnet ist. In einer Auswerteeinheit wird aus den Empfangssignalen an den Ausgängen der Empfänger ein Objektfeststellungssignal generiert, welches über einen Sensorausgang ausgebbar ist.
  • Mit den Empfängern des optischen Sensors wird Licht registriert, welches von einer Oberfläche eines Objektes im Detektionsbereich zum Sensor gelangt. Entsprechend dem Kontrast der Objektoberfläche werden als Beleuchtungsmuster in den Empfängern Empfangssignalverläufe erhalten, d.h. bestimmte Amplituden von Empfangssignalen für die einzelnen Empfangselemente eines Empfängers. Aus dem Versatz der einzelnen Empfangsverläufe der Empfänger wird in der Auswerteeinheit die Distanz des Objektes zum optischen Sensor berechnet.
  • Aus diesen ermittelten Messwerten wird wenigsten ein Objektfeststellungssignal generiert, welches über den Sensorausgang ausgegeben wird. Im einfachsten Fall ist das Objektfeststellungssignal als analoger Distanzwert ausgebildet.
  • Alternativ oder zusätzlich kann als Objektfeststellungssignal am Sensorausgang ausgegeben werden, in welche Richtung oder mit welcher Geschwindigkeit sich ein Objekt bewegt.
  • Weiterhin kann das Objektfeststellungssignal als binäres Schaltsignal ausgebildet sein. Die Schaltzustände derartiger Schaltsignale geben im einfachsten Fall an, ob sich ein Objekt im Detektionsbereich befindet oder nicht.
  • Alternativ oder zusätzlich können Schaltsignale derartig ausgebildet sein, dass deren Schaltzustände angeben, ob sich die Objekte innerhalb vorgegebener Distanzbereiche des Detektionsbereichs befinden.
  • Der Detektionsbereich des optischen Sensors ist im Wesentlichen vom Aufbau und der Anordnung der Empfänger und insbesondere von den Empfangsoptiken, welche den Empfänger vorgeordnet sind, abhängig. Diese Parameter bestimmen das Sichtfeld eines Empfängers, innerhalb dessen Licht von einem Objekt zum Empfänger geführt wird.
  • Im einfachsten Fall weist der optische Sensor zwei vorzugsweise identisch ausgebildete Empfänger auf. Dann ist der Detektionsbereich von dem Bereich gebildet, in welchem sich die Sichtfelder schneiden.
  • Bei einem optischen Sensor mit drei oder mehr Empfängern kann der Detektionsbereich in mehrere Distanzbereiche unterteilt werden. Dabei werden mit unterschiedlichen Empfängerpaaren unterschiedliche Zonen des Detektionsbereichs erfasst. Durch eine entsprechende Auswertung der Empfangssignale der Empfängerpaare kann auf einfache Weise eine Zuordnung der erfassten Objekte zu unterschiedlichen Distanzbereichen erfolgen.
  • Der erfindungsgemäße optische Sensor arbeitet nach einem passiven Verfahren bei welchem kein aktiver Sender benötigt wird, dessen Sendelichtstrahlen das Objekt abtasten. Vielmehr reicht bei dem optischen Sensor prinzipiell das in der Umgebung vorhandene Licht zur Detektion der Objekte aus. Voraussetzung für eine Objektdetektion ist lediglich ein erfassbarer Kontrast der Objektoberfläche.
  • In einer vorteilhaften Ausführungsform kann dem optischer Sensor eine externe Beleuchtungsquelle zur Beleuchtung des Detektionsbereichs und/oder eines den Detektionsbereich begrenzenden Hintergrundes vorgesehen sein. Die Beleuchtung des Hintergrundes kann nach dem Auflicht- oder Durchlichtverfahren erfolgen. Durch die zusätzliche Beleuchtung kann die Nachweisempfindlichkeit des optischen Sensors erhöht werden.
  • Alternativ oder zusätzlich kann in dem optischen Sensor selbst auch ein Sendelichtstrahlen emittierender Sender vorgesehen sein, wobei die Sendelichtstrahlen ebenfalls eine zusätzliche Beleuchtung des Detektionsbereichs oder des Hintergrunds bewirken. Die Sendelichtstrahlen können auch zur Kontrasterhöhung bei der Detektion von kontrastarmen Objekten eingesetzt werden. Im einfachsten Fall ist der Sender derart ausgebildet, dass die Sendelichtstrahlen einen weiten Öffnungswinkel aufweisen, so dass mit diesem möglichst ein großer Teil des Detektionsbereichs ausgeleuchtet wird. Zur Erzeugung von Kontraststrukturen sind dann dem Sender Masken nachgeordnet, welche ortsabhängige Strukturen mit unterschiedlichen Lichttransmissionskoeffizienten aufweisen.
  • In einer besonders vorteilhaften Ausführungsform ist dem Sender eine Ablenkeinheit nachgeordnet, mittels derer die Sendelichtstrahlen periodisch entlang bestimmter Abtastlinien abgelenkt werden. Der Sender wird dabei vorteilhaft im Pulsbetrieb betrieben, wobei die Pulsfrequenz auf die Frequenz der Bewegung der Ablenkeinheit vorteilhaft derart abgestimmt ist, dass mit den Sendelichtstrahlen ein Beleuchtungspunktmuster entlang der Abtastlinien generiert wird. Auf diese Weise können definierte Kontraststrukturen auf den Oberflächen der zu detektierenden Objekte generiert werden. Die Ablenkeinheit besteht dabei besonders vorteilhaft aus einem Schwingspiegel in Form eines mikromechanischen Mikroscanspiegels, der besonders platzsparend im optischen Sensor integriert werden kann.
  • Die Auswertung der Empfangssignale kann insbesondere in Form einer Referenzmessung gegen einen definierten Hintergrund erfolgen, wodurch eine besonders hohe Nachweisempfindlichkeit erzielt wird.
  • Die Distanzmessung selbst kann dabei nach einem Korrelationsverfahren erfolgen, bei welchem die Kreuzkorrlationsfunktionen der Empfangssignalverläufe des einzelnen Empfängers gebildet werden.
  • Besonders vorteilhaft erfolgt die Auswertung gemäß einem Verfahren, bei welchem die Empfangssignalverläufe zunächst integriert werden, wonach dann die Summen der differenzierten Empfangssignale der einzelnen Empfänger in geeigneter Weise summiert und anschließend in Beziehung gesetzt werden. Dabei erfolgt eine Signal-Vorverarbeitung vor Durchführung der Summenbildung derart, dass anhand der differenzierten Empfangssignale Auswertebereiche als Teilbereiche eines Empfängers definiert werden. Diese Teilbereiche werden so gewählt, dass die Auswertebereiche im Wesentlichen die Zonen eines Empfängers bilden, in welchen Objektstrukturen wie zum Beispiel Kanten eines Objekts erfasst werden. Dabei erfolgt die Definition der Auswertebereiche dadurch, dass die differenzierten Empfangssignale mit geeigneten Schwellwerten bewertet werden. Dieses Auswerteverfahren führt zu einer sicheren Detektion der Objekte, wobei aufgrund des geringen Aufwands an Rechenzeit eine Auswertung in Echtzeit ermöglicht wird.
  • Die Erfindung wird im Nachstehenden anhand der Zeichnungen erläutert. Es zeigen:
  • 1: Erstes Ausführungsbeispiel des erfindungsgemäßen optischen Sensors.
  • 2: Zweites Ausführungsbeispiel des erfindungsgemäßen optischen Sensors.
  • 3: Drittes Ausführungsbeispiel des erfindungsgemäßen optischen Sensors.
  • 4a: Viertes Ausführungsbeispiel des erfindungsgemäßen optischen Sensors.
  • 4b: Detaildarstellung des optischen Sensors gemäß 4a.
  • 4c: Impulsdiagramm des Sendebetriebs des Senders des optischen Sensors gemäß 4a.
  • 5: Fünftes Ausführungsbeispiel des erfindungsgemäßen optischen Sensors.
  • 6a, 6b: Sechstes Ausführungsbeispiel des erfindungsgemäßen optischen Sensors.
  • 7: Siebtes Ausführungsbeispiel des erfindungsgemäßen optischen Sensors.
  • 8: Schematische Darstellung einer ersten Anordnung des optischen Sensors zur Referenzmessung gegen einen Hintergrund.
  • 9: Schematische Darstellung einer zweiten Anordnung des optischen Sensors zur Referenzmessung gegen einen Hintergrund.
  • 10: Darstellung der geometrischen Größen zur Distanzbestimmung eines Objektes mittels des optischen Sensors.
  • 11: Erstes Beispiel von Empfangssignalverläufen der Empfänger des optischen Sensors.
  • 12: Zweites Beispiel von Empfangssignalverläufen der Empfänger des optischen Sensors.
  • 13: Anordnung von zwei Objekten vor einem Hintergrund im Detektionsbereich eines optischen Sensors.
  • 14: Diagramme zur Signalauswertung der Empfangssignale des optischen Sensors gemäß einem ersten Auswerteverfahren für die Anordnung gemäß 13.
  • 15: Diagramme zur Signalauswertung gemäß einem zweiten Auswerteverfahren für die Anordnung gemäß 13.
  • 1 zeigt ein erstes Ausführungsbeispiel des erfindungsgemäßen optischen Sensors 1. Der optische Sensor 1 weist zwei Empfänger 2 und eine Auswerteeinheit 3 auf, die in einem gemeinsamen quaderförmigen Gehäuse 4 integriert sind. Die Empfänger 2 sind identisch ausgebildet und weisen jeweils eine zeilenförmige Anordnung von Empfangselementen auf. Die Empfänger 2 können insbesondere von CCD-Zeilen oder Photodiodenzeilen gebildet sein. Im vorliegenden Ausführungsbeispiel auch in den folgenden Ausführungsbeispielen sind die Empfänger 2 von CMOS-Zeilen gebildet. Die Ausgänge der Empfänger 2 sind an die Auswerteeinheit 3 angeschlossen, welche von einem Mikroprozessor oder dergleichen gebildet ist.
  • Der optische Sensor 1 gemäß 1 arbeitet nach einem passiven Verfahren und weist keine eigene Lichtquelle auf. Zur Detektion von Objekten 5 in einem Detektionsbereich 6 wird allein das vorhandene Umgebungslicht ausgewertet, welches über ein Fenster 7 in der Frontwand des Gehäuse 4 in den Innenraum des optischen Sensors 1 geführt wird. Dabei ist jedem Empfänger 2 als Emp fangsoptik ein Parabolspiegel 8 vorgeordnet, der das Licht auf den Empfänger 2 fokussiert. Prinzipiell können anstelle von Parabolspiegeln 8 auch andere Spiegel eingesetzt werden.
  • Die Anordnung eines Empfängers 2 und der vorgeordneten Empfangsoptik bestimmt das Sichtfeld 9 innerhalb dessen Licht auf den Empfänger 2 geführt sind. Der sich überschneidende Teil der Sichtfelder 9 bestimmt den Detektionsbereich 6, der im vorliegenden Fall von einem Hintergrund 10, wie zum Beispiel einer Wand, begrenzt ist.
  • Mit dem optischen Sensor 1 erfolgt eine Distanzbestimmung von Objekten 5 im Detektionsbereich 6. Dabei werden die Kontrastmuster der Objektoberfläche als Belichtungsmuster auf die Empfangselemente der Empfänger 2 abgebildet. Entsprechend werden an den Ausgängen der Empfänger 2 den Kontrastmustern entsprechende Empfangssignalverläufe erhalten, die von den Amplituden der Empfangssignale der einzelnen Empfangselementen gebildet sind. Aus dem Versatz der Belichtungsmuster auf den Empfängern 2 wird in der Auswerteeinheit 3 die Distanz des Objektes 5 zum optischen Sensor 1 ermittelt.
  • Die Empfänger 2 sind durch ein Trennelement optisch getrennt. Das Trennelement ist im vorliegenden Fall von einer Trennwand 11 gebildet, wobei jeweils ein Empfänger 2 auf der Vorderseite bzw. der Rückseite der Trennwand 11 angeordnet ist. Die optischen Achsen der Empfänger 2 verlaufen dabei parallel zur Ebene des Fensters 7. Das durch das Fenster 7 dringende Licht wird an den seitlich zu dem Empfängern 2 liegenden Parabolspiegeln 8 umgelenkt und so auf die Empfänger 2 fokussiert.
  • Die Abstände der Parabolspiegel 8 definieren den Basisabstand B des optischen Sensors 1, welcher wiederum die Größe des Dektionsbereichs bestimmt. Durch die Anordnung der Parabolspiegel 8 an den Seitenwänden des Gehäuses 4 wird erricht, dass der Basisabstand B nahezu gleich groß wie die Breite des Gehäu ses 4 ist. Damit kann auch bereits bei kleinen Gehäusegrößen ein großer Basisabstand B erzielt werden.
  • Die Auswertung der Empfangssignale erfolgt derart, das aus diesen in der Auswerteeinheit 3 wenigstens ein Objektfeststellungssignal generiert wird, welches über wenigstens einen Sensorausgang 12 ausgegeben wird. Im einfachsten Fall ist das Objektfeststellungssignal von den analogen Distanzwerten selbst gebildet. Weiterhin können auch Bewegungen von Objekten 5 erfasst werden. Das Objektfeststellungssignal kann dann von der Bewegungsrichtung und/oder der Geschwindigkeit des Objektes 5 gebildet sein. Weiterhin können in der Auswerteeinheit 3 auch binäre Schaltsignale generiert werden, deren Schaltzustände angeben, ob sich ein Objekt 5 innerhalb des Detektionsbereichs 6 oder eines Teilbereichs hiervon befindet oder nicht. In diesem Fall sind der oder die Sensorausgänge 12 als Schaltausgänge ausgebildet.
  • 2 zeigt ein weiteres Ausführungsbeispiel des optischen Sensors 1. In diesem Fall weist der optische Sensor 1 drei in Reihe liegende, als CMOS-Zeilen ausgebildete Empfänger 2 auf, die alle an die Auswerteeinheit 3 angeschlossen sind. Jedem Empfänger 2 ist als Empfangsoptik eine Linse 13 vorgeordnet. Die Linsen 13 sind nebeneinander liegend in der Frontwand des Gehäuses 4 integriert.
  • Zur optischen Trennung der Empfänger 2 sind im vorliegenden Fall Trennelemente in Form von Trennstegen 14 vorgesehen. Durch die Überlappung der Sichtfelder 9 jeweils eines außenliegenden Empfängers 2 und des zentralen Empfängers 2 wird ein Teilbereich des Detektionsbereichs 6 definiert, welcher einen Nahbereich N dicht vor dem optischen Sensor 1 bildet. Durch die Überlappung der Sichtfelder 9 der beiden außenliegenden Empfänger 2 wird ein Teil des Detektionsbereichs 6 definiert, welcher einen Fernbereich bildet.
  • Durch die Anordnung der drei Empfänger 2 im optischen Sensor 1 wird somit erreicht, dass auch Objekte 5 unmittelbar im Nahbereich N vor dem optischen Sensor 1 erfassbar sind, so dass dieser einen sehr kleinen Totbereich aufweist. Weiterhin wird durch die Mehrfachanordnung erreicht, dass der Detektionsbereich 6 in definierte Teilzonen, nämlich einen Nahbereich N und einen Fernbereich F unterteilbar ist. Damit kann durch paarweises Verknüpfen der Empfangssignale der Empfänger 2 auf einfache Weise ermittelt werden, ob sich ein Objekt 5 im Nah- oder Fernbereich befindet.
  • 3 zeigt ein Ausführungsbeispiel des optischen Sensors 1 mit einer Reihenanordnung von zwei Empfängern 2 mit jeweils einer vorgeordneten Empfangsoptik in Form einer Linse 13. Die Empfänger 2 sind wiederum durch einen Trennsteg 14 getrennt. In dem Trennsteg 14 befindet sich ein Sender 15 in Form einer Leuchtdiode, welchem eine Maske 16 mit einer Gitterstruktur vorgeordnet ist. Der Sender 15 emittiert in einem großen Winkelbereich Sendelichtstrahlen 17, mit welchen der Detektionsbereich 6 ausgeleuchtet wird. Die Sendelichtstrahlen 17 werden dabei vom Objekt 5 oder einem Hintergrund 10 als Empfangslichtstrahlen 18 zu den Empfängern 2 geführt. Die Gitterstruktur der Maske 16 weist unterschiedliche Lichttransmissionskoeffizienten auf, so dass entsprechend der Gitterstruktur auf der Objektoberfläche ein Licht-Kontrastmuster generiert wird. Zur Begrenzung der Fremdlichtempfindlichkeit wird der Sender 15 im Pulsbetrieb betrieben.
  • Der optische Sensor 1 gemäß 4a entspricht weitgehend der Ausführungsform gemäß 3. Im Unterschied zum Ausführungsbeispiel gemäß 3 weist der optische Sensor 1 gemäß 4a einen Sendelichtstrahlen 17 emittierenden Sender 15 auf, welchem eine Ablenkeinheit 19 nachgeordnet ist. Die in 4b detailliert dargestellte Ablenkeinheit 19 besteht aus einem Schwingspiegel, der im vorliegenden Fall von einem mikromechanischen Mikroscanspiegel gebildet ist. Mittels des in einer zwei Raumrichtungen schwenkbaren Schwingspiegels werden die Sendelichtstrahlen 17 längs vorgegebener Abtastlinien periodisch innerhalb des Detektionsbereichs 6 geführt.
  • Durch einen Pulsbetrieb des Senders 15 können dabei wie in 4c veranschaulicht Kontrastmuster in Form von Beleuchtungspunktlinien erzeugt werden. Dabei wird durch die Emission der Sendelichtstrahlen 17 in Form von Sendepulsen n, n + 1,... innerhalb eines Abtastwinkelbereichs (Scanwinkelbereich) zwischen X0 und X1 eine vorgegebene Anzahl von Beleuchtungspunkten erzeugt.
  • 5 zeigt eine Ausführungsform eines optischen Sensors 1, der in einem kugelförmigen Gehäuse 4 integriert ist. Der optische Sensor 1 weist wiederum zwei Empfänger 2 auf, wobei diese im vorliegenden Fall von Segmenten einer CMOS-Zeile gebildet sind. Diese Segmente sind durch einen Trennsteg 14 getrennt, der auf die Empfangsoptik geführt ist. Die Empfangsoptik ist im vorliegenden Fall als Linse 13 ausgebildet, die Bestandteil der Gehäusewand ist. Die nicht gesondert dargestellte Auswerteeinheit 3 ist auf einer Leiterplatte 20 integriert, auf welcher auch die CMOS-Zeile aufsitzt.
  • Die 6a und 6b zeigen ein weiteres Ausführungsbeispiel des optischen Sensors 1 bei verschiedenen Positionen eines Objektes 5 vor einem Hintergrund 10. Der optische Sensor 1 weist zwei Empfänger 2 auf, die wiederum von zwei Segmenten einer CMOS-Zeile gebildet sind. Als Empfangsoptik ist jedem Empfänger 2 eine Kugellinse 21 vorgeordnet. Diese Empfängeranordnung sowie die vorgeordneten Kugellinsen 21 können äußerst geringe Baugrößen aufweisen und tragen so zur Miniaturisierung des optischen Sensors 1 bei. Zudem können die Kugellinsen 21 einfach in entsprechende Aufnahmen in der Gehäusewand eingeschnappt werden. Ein Trennsteg 14 zwischen den Kugellinsen 21 verhindert ein optisches Übersprechen zwischen den beiden Empfangskanälen. Der optische Sensor 1 weist eine autarke Energieversorgung auf. Hierzu ist in dessen Gehäuse 4 hinter einem Fenster 7 liegend eine Solarzelle 22 angeordnet.
  • Seitlich zum optischen Sensor 1 ist eine externe Beleuchtungsquelle 23 angeordnet. Mit den von der Beleuchtungsquelle 23 emittierten Lichtstrahlen 24 wird der den Detektionsbereich 6 begrenzende Hintergrund 10 ausgeleuchtet. Ein in den Detektionsbereich 6 eindringendes Objekt 5 wird durch die Abdunklung des Hintergrundes 10 erfasst, wobei dadurch eine gut auswertbare Kontrastkante erhalten wird. Zur weiteren Kontraststeigerung kann der Beleuchtungsquelle 23 eine Maske 16 nachgeordnet sein.
  • 7 zeigt eine Mehrfachanordnung von zwei optischen Sensoren 1 gemäß 6, welchen wiederum eine externe Beleuchtungsquelle (23) zugeordnet ist. Da die Längsachsen der optischen Sensoren 1 im rechten Winkel zueinander verlaufen, können mit dieser Anordnung Kontrastkanten von Objekten 5 unabhängig von deren Ausrichtung erfasst werden.
  • 8 zeigt schematisch eine Anordnung eines optischen Sensors 1 gemäß 6, bei welchem ein Detektionsbereich 6 erfasst wird, der von einem Hintergrund 10 mit einer Kontrastkante begrenzt ist. Die Oberfläche des Hintergrundes 10 ist beispielsweise von einer Schwarz-Weiß-Fläche gebildet. Derartig strukturierte Hintergründe 10 können als Referenzflächen bezüglich ihrer Position zum optischen Sensor 1 überwacht werden.
  • 9 zeigt eine Abwandlung der Anordnung gemäß 8. In diesem Fall wird der Hintergrund 10 im Durchlichtverfahren mittels Lichtstrahlen 24 von der Rückseite her beleuchtet. Der Hintergrund 10 ist in diesem Fall von einer Mattscheibe gebildet.
  • 10 zeigt die geometrischen Parameter des optischen Sensors 1, die zur Bestimmung der Distanz eines Objektes 5 benötigt werden. Dabei ist in 10 schematisch der Prinzipaufbau eines optischen Sensors 1 mit zwei Empfängern 2 bildenden CMOS-Zeilen dargestellt, die in einer Empfängerebene E liegen. Die erste CMOS-Zeile ist mit EA bezeichnet, die zweite CMOS-Zeile ist mit EB bezeichnet. Davor befinden sich die Empfangsoptiken, die in einer Optikebene O liegend jeweils einem Empfänger 2 vorgeordnet sind. Der Abstand zwischen der Optikebene O und der Empfängerebene E ist mit G bezeichnet. Der Abstand zwischen den Empfangsoptiken bildet den Basisabstand B.
  • In 10 ist einerseits der Fall dargestellt, bei welchem ein Objekt 5 in einem Nennabstand d0 angeordnet ist. In diesem Fall werden die von einer Objektkante reflektierten Lichtstrahlen symmetrisch auf die CMOS-Zeilen abgebildet. Dabei wird entsprechend dem Objektabstand d0 eine Grundverschiebung V0 des Lichtflecks auf einer CMOS-Zeile bezüglich des Zentrums der Empfangsoptik erhalten, die sich gemäß folgender Beziehung berechnet. V0=G⋅B/2d0
  • Bei bekannten Größen G und B ergibt sich somit aus der Messgröße V0 der Objektabstand d0.
  • Ist das Objekt 5 schräg nach vorne versetzt im Abstand d1 angeordnet, so wird eine dementsprechend asymmetrische Verschiebung der Lichtfläche auf den CMOS-Zeilen erhalten. Wie in 10 dargestellt, ergibt sich dabei für die CMOS-Zeile EA eine Zusatzverschiebung VA und für die CMOS-Zeile EB eine Zusatzverschiebung VB.
  • Damit berechnet sich die Objektdistanz d1 gemäß folgender Beziehung d1 = (1/d0 + (VA – VB)/G⋅B)–1
  • Dabei bildet die Differenz VA–VB einen Versatz ds, welcher als Messgröße des Versatzes der Lichtflächen auf den CMOS-Elementen in der Auswerteeinheit 3 ermittelbar ist.
  • Weiterhin kann die Verschiebung POS der Objektpositionen d0 und d1 quer zu dem optischen Sensor gemäß folgender Beziehung berechnet werden. POS = (VA + VB)⋅d1/(2⋅G)
  • Der Versatz ds ist in den 11 und 12 schematisch dargestellt. 19 zeigt schematisch die Empfangssignalverläufe UA und UB für die beiden CMOS-Zeilen der Anordnung gemäß 10 bei der Detektion einer Objektkante. Die auf die CMOS-Zeilen EA, EB abgebildeten Objektkanten führen zu Signalflanken der Empfangssignalverläufe UA und UB, welche um den Versatz ds zueinander versetzt sind.
  • Die Lagen der Signalflanken von UA und UB werden dadurch bestimmt, dass die Empfangssignalverläufe mit einem Schwellwert S 1 bewertet werden. Vorzugsweise erfolgt die Auswertung dabei derart, dass UA und UB jeweils durch Vorgabe geeigneter Zeitintervalle, innerhalb derer die Empfänger 2 aktiviert sind, auf einen konstanten Wert Umax geregelt werden, so dass dann der Versatz ds unmittelbar aus den Nummern der Empfangselemente, bei welchen UA und UB den Schwellwert s1 unterschreitet bzw. überschreitet, abgleitet werden kann.
  • 12 zeigt die Empfangssignalverläufe UA und UB bei einer Kontrasterzeugung auf einem Objekt 5 durch eine punktförmige Zusatzbeleuchtung. Entsprechend der punktförmigen Kontraststruktur weisen UA und UB jeweils ein lokales Maximum auf. In diesem Fall wird analog zu der Ausführungsform gemäß 11 der Versatz ds aus der Verschiebung beider Maxima berechnet.
  • 13 zeigt eine Anordnung mit zwei Gegenständen I und II, die vor einem Wandelement 25 angeordnet sind und mit dem optischen Sensor 1 erfasst werden. Dabei befindet sich der Gegenstand I in einer Distanz d1 und der Gegenstand II in einer Distanz d2 zum optischen Sensor 1. Weiterhin ist in 13 der Nennabstand d0 des optischen Sensors 1 aufgeführt, wobei der optische Sensor 1 einen Aufbau gemäß 10 aufweist. Mit dem optischen Sensor 1 werden die Kanten 1, 2 des Gegenstands I und die Kanten 3, 4 des Gegenstands II erfasst.
  • Die Bestimmung der Kantenpositionen kann gemäß einer ersten Ausführungsform gemäß eines Korrelationsverfahrens durchgeführt werden, welches in den 14ac veranschaulicht ist.
  • 14a zeigt die Empfangssignalverläufe UA, UB der CMOS-Zeilen EA, EB bei der Detektion der Gegenstände I, II.
  • In einem ersten Verfahrensschritt wird der Empfangssignalverlauf einer CMOS-Zeile differenziert. Das differenzierte Empfangssignal UA' ist in 14b dargestellt.
  • Das differenzierte Empfangssignal UA wird dann mit Schwellwerten + s1 und – s1 bewertet. Dadurch werden Auswertebereiche E1–E4 als Teilbereiche der Empfänger 2 definiert, innerhalb derer der Betrag von UA' stets größer als s1 ist. Dies bedeutet, dass innerhalb dieser Bereiche auch die Kanten der Gegenstände liegen.
  • Anschließend werden in diesen Auswertebereichen E1–E4 die Kreuzkorrelationsfunktionen K_E1 bis K_E4 der Empfangssignalverläufe UA, UB berechnet. 14c zeigt den Korrelationsgrad K dieser Kreuzkorrelationsfunktionen in Abhängigkeit der Verschiebung der Signalverläufe UA und UB. Die Nulldurchgänge dieser Funktionen liefern dann die Versätze ds1, ds2, ds3, ds4, welche dem Versatz ds gemäß 10 entsprechen und aus welchen die Positionen der Kanten 1, 2, 3, 4 der Gegenstände I und II berechnet werden.
  • 15 zeigt eine weitere Ausführungsform eines Auswerteverfahrens für den optischen Sensor 1. Diese Variante weist gegenüber dem Korrelationsverfahren gemäß 14c den Vorteil auf, dass beträchtlich kürzere Rechenzeiten für die Auswertung benötigt werden.
  • Ausgangspunkt des Auswerteverfahrens sind wiederum die Empfangssignale UA und UB gemäß 14a, die für die beiden CMOS-Zeilen EA und EB des optischen Sensors 1 gemäß 13 erhalten werden.
  • Aus diesen Empfangssignalverläufen UA und B werden in der Auswerteeinheit 3 die differenzierten Empfangssignale UA' und UB' gebildet. Analog zu 14b werden anhand eines differenzierten Empfangssignals, beispielsweise anhand von UA', die Auswertebereiche E1 bis E4 ermittelt.
  • Anschließend werden die differenzierten Empfangssignale UA und UB innerhalb der Auswertebereiche aufsummiert. Die Resultate sind in 15 dargestellt.
  • In jedem Auswertebereich E1–E4 wird dann sowohl für das aufsummierte Signal Σ UA' als auch für Σ UB' zunächst das Maximum und dann die Lage, d.h. das Empfangselement der jeweiligen CMOS-Zeile EA oder EB bestimmt, bei welchem das Empfangssignal der Hälfte des Maximalwerts entspricht. Dann wird jeweils die Differenz der so ermittelten Lagen bestimmt, welche dem jeweiligen Versatz ds1, ds2, ds3 oder ds4 entspricht, aus welchem wiederum entsprechend der Anordnung gemäß 10 die Position der Kante 1, 2, 3 oder 4 des Gegenstands I oder II berechnet wird.
  • Ein wesentlicher Vorteil dieses Verfahrens besteht darin, dass bei der Differenzierung beider Empfangssignale UA und UB die konstanten Signalanteile eliminiert werden. Die nachfolgende Summation der differenzierten Signale UA' und UB' entspricht einer Integration der Signale, wobei diese jedoch die konstanten Signalanteile nicht mehr aufweisen. Bei der Integration werden zudem in den Signalen enthaltene Rauschanteile reduziert. Zudem erfolgt die Integration nur räumlich begrenzt in den Auswertebereichen E1–E4, wodurch eine weitere Minimierung des Rechenaufwandes erreicht wird. Zudem sind die Größen und Lagen der Auswertebereiche E1–E4 durch die Vorgabe des Schwellwerts s1 derart gewählt, dass mit diesen bereits die Lagen der den Kanten 1, 2, 3, 4 entsprechenden Signalflanken erfasst werden. Die so durchgeführte Definition der Auswerteeinheit 3 stellt eine Signalvorverarbeitung dar, die bereits eine grobe Aussage über die Lage der Kanten 1, 2, 3, 4 der Gegenstände ermöglicht.
  • (1)
    Optischer Sensor
    (2)
    Empfänger
    (3)
    Auswerteeinheit
    (4)
    Gehäuse
    (5)
    Objekt
    (6)
    Detektionsbereich
    (7)
    Fenster
    (8)
    Parabolspiegel
    (9)
    Sichtfeld
    (10)
    Hintergrund
    (11)
    Trennwand
    (12)
    Sensorausgang
    (13)
    Linse
    (14)
    Trennsteg
    (15)
    Sender
    (16)
    Maske
    (17)
    Sendelichtstrahlen
    (18)
    Empfangslichtstrahlen
    (19)
    Ablenkeinheit
    (20)
    Leiterplatte
    (21)
    Kugellinse
    (22)
    Solarzelle
    (23)
    Beleuchtungsquelle
    (24)
    Lichtstrahlen
    (25)
    Wandelement
    B
    = Basisabstand
    F
    = Fernbereich
    N
    = Nahbereich
    I
    = Gegenstand
    II
    = Gegenstand

Claims (32)

  1. Optischer Sensor (1) zur Erfassung von Objekten (5) in einem Detektionsbereich (6) mit wenigstens zwei Empfängern (2), welche jeweils von einer zeilenförmigen Anordnung von Empfangselementen gebildet sind, und welchen eine Empfangsoptik zur Fokussierung von Licht aus dem Detektionsbereich (6) auf die Empfangselemente vorgeordnet ist, und mit einer Auswerteeinheit (3), in welcher aus den Empfangssignalen an den Ausgängen der Empfänger (2) ein Objektfeststellungssignal generiert wird, welches über einen Sensorausgang (12) ausgebbar ist.
  2. Optischer Sensor nach Anspruch 1, dadurch gekennzeichnet, dass das Objektfeststellungssignal als binäres Schaltsignal ausgebildet ist, welches über einen als Schaltausgang ausgebildeten Sensorausgang (12) ausgebbar ist.
  3. Optischer Sensor nach einem der Ansprüche 1 oder 2, dadurch gekennzeichnet, dass das Objektfeststellungssignal als Distanz-, Bewegungsrichtungs- oder Geschwindigkeitssignal ausgebildet ist.
  4. Optischer Sensor nach einem der Ansprüche 1–3, dadurch gekennzeichnet, dass diesem eine externe Beleuchtungsquelle (23) zugeordnet ist, mittels derer der Detektionsbereich (6) und/oder ein den Detektionsbereich (6) begrenzender Hintergrund (10) beleuchtet ist.
  5. Optischer Sensor nach einem der Ansprüche 1–4, dadurch gekennzeichnet, dass dieser wenigstens einen Sendelichtstrahlen (17) emittierenden Sender (15) aufweist, wobei die Sendelichtstrahlen (17) im Detektionsbereich (6) geführt sind.
  6. Optischer Sensor nach Anspruch 5, dadurch gekennzeichnet, dass die Sendelichtstrahlen (17) mittels einer Ablenkeinheit (19) periodisch abgelenkt werden.
  7. Optischer Sensor nach Anspruch 6, dadurch gekennzeichnet, dass die Ablenkeinheit (19) von einem Schwingspiegel gebildet ist, mittels derer die Sendelichtstrahlen (17) periodisch entlang einer Abtastlinie geführt sind.
  8. Optischer Sensor nach einem der Ansprüche 4–7, dadurch gekennzeichnet, dass mittels der Beleuchtungsquelle (23) und/oder mittels den vom Sender (15) emittierten Sendelichtstrahlen (17) auf der Oberfläche vorgegebene Kontrastmuster erzeugt werden.
  9. Optischer Sensor nach einem der Ansprüche 1–8, dadurch gekennzeichnet, dass jeder Empfänger (2) von einer CCD-Zeile, einer CMOS-Zeile oder einer Photodiodenzeile gebildet ist.
  10. Optischer Sensor nach einem der Ansprüche 1–8, dadurch gekennzeichnet, dass die Empfänger (2) von jeweils einem Segment einer CCD-Zeile, einer CMOS-Zeile oder einer Photodiodenzeile gebildet sind.
  11. Optischer Sensor nach einem der Ansprüche 1–9, dadurch gekennzeichnet, dass der Detektionsbereich (6) in mehrere Teilbereiche unterteilt ist, welche mit unterschiedlichen Empfängern (2) erfassbar sind.
  12. Optischer Sensor nach Anspruch 11, dadurch gekennzeichnet, dass der Detektionsbereich (6) in einen Nahbereich (N) und in einen Fernbereich (F) unterteilt ist.
  13. Optischer Sensor nach Anspruch 12, dadurch gekennzeichnet, dass dieser zur Erfassung von Objekten (5) im Nahbereich (N) und Fernbereich (F) drei in einer Reihe liegende Empfänger (2) aufweist, wobei in der Auswerteeinheit (3) die Empfangssignale der beiden außenliegenden Empfänger (2) zur Objektdetektion im Fernbereich verknüpft werden, und wobei jeweils die Empfangssignale des zentralen Empfängers (2) und eines außenliegenden Empfängers (2) zur Objektdetektion im Nahbereich (N) verknüpft sind.
  14. Optischer Sensor nach Anspruch 13, dadurch gekennzeichnet, dass die oder jede Empfangsoptik von einer Linse (13) gebildet ist.
  15. Optischer Sensor nach Anspruch 14, dadurch gekennzeichnet, dass die oder jede Empfangsoptik von einer Kugellinse (21) gebildet ist.
  16. Optischer Sensor nach Anspruch 13, dadurch gekennzeichnet, dass die oder jede Empfangsoptik von einem Spiegel gebildet ist.
  17. Optischer Sensor nach Anspruch 16, dadurch gekennzeichnet, dass die Spiegel von Parabolspiegeln (8) gebildet sind.
  18. Optischer Sensor nach einem der Ansprüche 1–17, dadurch gekennzeichnet, dass dieser Trennelemente zur optischen Trennung der Empfänger (2) aufweist.
  19. Optischer Sensor nach Anspruch 18, dadurch gekennzeichnet, dass die Trennelemente von Trennstegen (14) gebildet sind, welche jeweils zwischen zwei in Reihe liegenden Empfängern (2) angeordnet sind.
  20. Optischer Sensor nach Anspruch 18, dadurch gekennzeichnet, dass als Trennelement eine Trennwand (11) vorgesehen ist, auf deren Vorder- und Rückseite jeweils ein Empfänger (2) aufgebracht ist.
  21. Optischer Sensor nach Anspruch 20, dadurch gekennzeichnet, dass dieser in einem Gehäuse (4) integriert ist.
  22. Optischer Sensor nach Anspruch 21, dadurch gekennzeichnet, dass die Empfangsoptik Bestandteil des Gehäuses (4) ist.
  23. Optischer Sensor nach einem der Ansprüche 1–22, dadurch gekennzeichnet, dass dieser eine autarke Energieversorgung aufweist.
  24. Optischer Sensor nach Anspruch 22, dadurch gekennzeichnet, dass in dem Gehäuse (4) eine Solarzelle (22) integriert ist.
  25. Optischer Sensor nach einem der Ansprüche 1–24, dadurch gekennzeichnet, dass die Objekterfassung in Form einer Referenzmessung erfolgt, wobei die Oberfläche eines den Detektionsbereich (6) begrenzenden Hintergrundes (10) eine Referenzfläche bildet.
  26. Optischer Sensor nach einem der Ansprüche 1–24, dadurch gekennzeichnet, dass die Bestimmung von Objektdistanzen mittels eines Korrelationsverfahrens erfolgt.
  27. Optischer Sensor nach Anspruch 26, dadurch gekennzeichnet, dass in der Auswerteeinheit (3) Kreuzkorrelationsfunktionen der Empfangssignalverläufe der einzelnen Empfänger (2) berechnet werden, wobei jeder Empfangssignalverlauf von den Amplituden der Empfangssignale der Empfangselemente eines Empfängers (2) gebildet ist.
  28. Optischer Sensor nach einem der Ansprüche 1–27, dadurch gekennzeichnet, dass mit diesem eine Kantendetektion durchführbar ist.
  29. Optischer Sensor nach Anspruch 28, dadurch gekennzeichnet, dass in der Auswerteeinheit (3) die Empfangssignalverläufe wenigstens eines Empfängers (2) differenziert werden.
  30. Optischer Sensor nach Anspruch 29, dadurch gekennzeichnet, dass zur Objekt- und/oder Kantendetektion die Empfangssignale innerhalb vorgegebener Auswertebereiche herangezogen werden, wobei die Auswertebereiche von vorgegebenen Teilbereichen des Empfängers (2) gebildet sind.
  31. Optischer Sensor nach Anspruch 30, dadurch gekennzeichnet, dass zur Definition der Teilbereiche der differenzierte Empfangssignalverlauf eines Empfängers (2) mit einem Schwellwert bewertet wird, wobei die Auswertebereiche in der Auswerteeinheit (3) so gewählt sind, dass in diesen der Betrag des differenzierten Empfangssignalverlaufs stets größer als der Schwellwert ist.
  32. Optischer Sensor nach Anspruch 31, dadurch gekennzeichnet, dass zur Kantendetektion in den Auswertebereichen jeweils die Summensignale der differenzierten Empfangssignalverläufe der Empfangssignalverläufe der Empfänger (2) ausgewertet werden.
DE2002129408 2002-06-29 2002-06-29 Optischer Sensor Expired - Fee Related DE10229408B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE2002129408 DE10229408B4 (de) 2002-06-29 2002-06-29 Optischer Sensor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE2002129408 DE10229408B4 (de) 2002-06-29 2002-06-29 Optischer Sensor

Publications (2)

Publication Number Publication Date
DE10229408A1 true DE10229408A1 (de) 2004-01-15
DE10229408B4 DE10229408B4 (de) 2006-09-07

Family

ID=29723577

Family Applications (1)

Application Number Title Priority Date Filing Date
DE2002129408 Expired - Fee Related DE10229408B4 (de) 2002-06-29 2002-06-29 Optischer Sensor

Country Status (1)

Country Link
DE (1) DE10229408B4 (de)

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004035010A1 (de) * 2004-07-20 2006-02-09 Leuze Electronic Gmbh & Co Kg Optischer Sensor
DE102004049482A1 (de) * 2004-10-11 2006-04-13 Sick Ag Vorrichtung zur Überwachung von bewegten Objekten
DE102005033349A1 (de) * 2004-08-11 2007-01-25 Leuze Electronic Gmbh & Co Kg Optischer Sensor
DE102005060399A1 (de) * 2005-12-16 2007-06-21 Sick Ag Optoelektronische Vorrichtung und Verfahren zum Betreiben einer optoelektronischen Vorrichtung
DE102006029643A1 (de) * 2006-06-28 2008-01-03 Leuze Lumiflex Gmbh + Co. Kg Vorrichtung zur Überwachung eines Gefahrenbereichs
US7326914B2 (en) 2005-06-16 2008-02-05 Sick Ag Light grid for measuring an object
EP1927867A1 (de) 2006-12-02 2008-06-04 Sick Ag Optoelektronischer Mehrebenensensor und Verfahren zur Erfassung von Objekten
EP1995610A1 (de) * 2007-05-21 2008-11-26 Sick Ag Optoelektronische Sensoranordnung
DE102006011249A1 (de) * 2006-03-10 2009-02-19 Pepperl + Fuchs Gmbh Vorrichtung und Verfahren zum Nachweis von Objekten
EP2136223A1 (de) * 2008-06-17 2009-12-23 Sick Ag Verfahren und Vorrichtung zur Erfassung eines Gegenstandes
US7721964B2 (en) 2004-10-11 2010-05-25 Sick Ag Apparatus and method for monitoring moved objects
FR3002329A1 (fr) * 2013-02-20 2014-08-22 St Microelectronics Grenoble 2 Capteur de proximite
EP2626728A3 (de) * 2012-01-31 2017-01-04 Leuze electronic GmbH + Co KG Sendeeinheit für einen optischen Sensor
USRE48491E1 (en) 2006-07-13 2021-03-30 Velodyne Lidar Usa, Inc. High definition lidar system
US10983218B2 (en) 2016-06-01 2021-04-20 Velodyne Lidar Usa, Inc. Multiple pixel scanning LIDAR
US11073617B2 (en) 2016-03-19 2021-07-27 Velodyne Lidar Usa, Inc. Integrated illumination and detection for LIDAR based 3-D imaging
US11082010B2 (en) 2018-11-06 2021-08-03 Velodyne Lidar Usa, Inc. Systems and methods for TIA base current detection and compensation
US11137480B2 (en) 2016-01-31 2021-10-05 Velodyne Lidar Usa, Inc. Multiple pulse, LIDAR based 3-D imaging
US11294041B2 (en) 2017-12-08 2022-04-05 Velodyne Lidar Usa, Inc. Systems and methods for improving detection of a return signal in a light ranging and detection system
DE102021001344A1 (de) 2021-03-12 2022-09-15 Giesecke+Devrient Currency Technology Gmbh Vorrichtung zur Ermittlung der Anwesenheit eines Gegenstands
US11703569B2 (en) 2017-05-08 2023-07-18 Velodyne Lidar Usa, Inc. LIDAR data acquisition and control
US11796648B2 (en) 2018-09-18 2023-10-24 Velodyne Lidar Usa, Inc. Multi-channel lidar illumination driver
US11808891B2 (en) 2017-03-31 2023-11-07 Velodyne Lidar Usa, Inc. Integrated LIDAR illumination power control
US11885958B2 (en) 2019-01-07 2024-01-30 Velodyne Lidar Usa, Inc. Systems and methods for a dual axis resonant scanning mirror
US11933967B2 (en) 2019-08-22 2024-03-19 Red Creamery, LLC Distally actuated scanning mirror

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006057878C5 (de) * 2005-12-24 2015-01-22 Leuze Electronic Gmbh & Co. Kg Verfahren zur Erfassung von Objekten mittels einer optoelektronischen Vorrichtung
DE102008005064B4 (de) * 2008-01-18 2010-06-17 Sick Ag Optoelektronisches Detektionsverfahren und optoelektronischer Detektor
DE102008026603B4 (de) * 2008-05-16 2011-06-01 Leuze Electronic Gmbh & Co Kg Sensor zur Erfassung von Objekten in einem Erfassungsbereich
DE202011102825U1 (de) * 2011-06-15 2012-09-18 Leuze Electronic Gmbh & Co. Kg Optischer Sensor

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19721105A1 (de) * 1997-05-20 1998-11-26 Sick Ag Opto-eletronischer Sensor
DE19727459A1 (de) * 1997-06-27 1999-01-07 Sick Ag Opto-elektronische Sensoranordnung mit mehreren in einer Zeile oder einem Array angeordneten photoempfindlichen Elementen
DE19907546A1 (de) * 1998-03-27 1999-10-21 Leuze Electronic Gmbh & Co Optoelektronische Vorrichtung
DE19947023A1 (de) * 1999-09-30 2001-05-10 Siemens Gebaeudesicherheit Gmb Verfahren und Vorrichtung zum Detektieren von lichtstreuenden Objekten
DE20118145U1 (de) * 2001-11-08 2002-01-31 Leuze Electronic Gmbh & Co Optischer Sensor
DE10134305A1 (de) * 2000-07-18 2002-05-16 Leuze Electronic Gmbh & Co Optoelektronische Vorrichtung

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19721105A1 (de) * 1997-05-20 1998-11-26 Sick Ag Opto-eletronischer Sensor
DE19727459A1 (de) * 1997-06-27 1999-01-07 Sick Ag Opto-elektronische Sensoranordnung mit mehreren in einer Zeile oder einem Array angeordneten photoempfindlichen Elementen
DE19907546A1 (de) * 1998-03-27 1999-10-21 Leuze Electronic Gmbh & Co Optoelektronische Vorrichtung
DE19947023A1 (de) * 1999-09-30 2001-05-10 Siemens Gebaeudesicherheit Gmb Verfahren und Vorrichtung zum Detektieren von lichtstreuenden Objekten
DE10134305A1 (de) * 2000-07-18 2002-05-16 Leuze Electronic Gmbh & Co Optoelektronische Vorrichtung
DE20118145U1 (de) * 2001-11-08 2002-01-31 Leuze Electronic Gmbh & Co Optischer Sensor

Cited By (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004035010B4 (de) * 2004-07-20 2006-04-27 Leuze Electronic Gmbh & Co Kg Optischer Sensor
DE102004035010A1 (de) * 2004-07-20 2006-02-09 Leuze Electronic Gmbh & Co Kg Optischer Sensor
DE102005033349A1 (de) * 2004-08-11 2007-01-25 Leuze Electronic Gmbh & Co Kg Optischer Sensor
DE102005033349B4 (de) * 2004-08-11 2007-10-04 Leuze Electronic Gmbh & Co Kg Optischer Sensor
DE102005033349C5 (de) * 2004-08-11 2014-11-13 Leuze Electronic Gmbh & Co. Kg Optischer Sensor
DE102005033349B8 (de) * 2004-08-11 2008-07-03 Leuze Electronic Gmbh & Co Kg Optischer Sensor
DE102004049482A1 (de) * 2004-10-11 2006-04-13 Sick Ag Vorrichtung zur Überwachung von bewegten Objekten
US7721964B2 (en) 2004-10-11 2010-05-25 Sick Ag Apparatus and method for monitoring moved objects
US7326914B2 (en) 2005-06-16 2008-02-05 Sick Ag Light grid for measuring an object
DE102005060399A1 (de) * 2005-12-16 2007-06-21 Sick Ag Optoelektronische Vorrichtung und Verfahren zum Betreiben einer optoelektronischen Vorrichtung
DE102006011249A1 (de) * 2006-03-10 2009-02-19 Pepperl + Fuchs Gmbh Vorrichtung und Verfahren zum Nachweis von Objekten
DE102006011249B4 (de) 2006-03-10 2019-04-04 Pepperl + Fuchs Gmbh Verfahren zum Nachweis von Objekten
DE102006029643B4 (de) * 2006-06-28 2008-10-09 Leuze Lumiflex Gmbh + Co. Kg Vorrichtung zur Überwachung eines Gefahrenbereichs
DE102006029643A1 (de) * 2006-06-28 2008-01-03 Leuze Lumiflex Gmbh + Co. Kg Vorrichtung zur Überwachung eines Gefahrenbereichs
USRE48688E1 (en) 2006-07-13 2021-08-17 Velodyne Lidar Usa, Inc. High definition LiDAR system
USRE48490E1 (en) 2006-07-13 2021-03-30 Velodyne Lidar Usa, Inc. High definition LiDAR system
USRE48666E1 (en) 2006-07-13 2021-08-03 Velodyne Lidar Usa, Inc. High definition LiDAR system
USRE48503E1 (en) 2006-07-13 2021-04-06 Velodyne Lidar Usa, Inc. High definition LiDAR system
USRE48504E1 (en) 2006-07-13 2021-04-06 Velodyne Lidar Usa, Inc. High definition LiDAR system
USRE48491E1 (en) 2006-07-13 2021-03-30 Velodyne Lidar Usa, Inc. High definition lidar system
US7995836B2 (en) 2006-12-02 2011-08-09 Sick Ag Optoelectronic multiplane sensor and method for monitoring objects
EP1927867A1 (de) 2006-12-02 2008-06-04 Sick Ag Optoelektronischer Mehrebenensensor und Verfahren zur Erfassung von Objekten
EP1995610A1 (de) * 2007-05-21 2008-11-26 Sick Ag Optoelektronische Sensoranordnung
EP2136223A1 (de) * 2008-06-17 2009-12-23 Sick Ag Verfahren und Vorrichtung zur Erfassung eines Gegenstandes
EP2626728A3 (de) * 2012-01-31 2017-01-04 Leuze electronic GmbH + Co KG Sendeeinheit für einen optischen Sensor
US9612330B2 (en) 2013-02-20 2017-04-04 Stmicroelectronics (Grenoble 2) Sas Proximity sensor including a photon emitter, a photon receiver and an opaque structure
FR3002329A1 (fr) * 2013-02-20 2014-08-22 St Microelectronics Grenoble 2 Capteur de proximite
US11822012B2 (en) 2016-01-31 2023-11-21 Velodyne Lidar Usa, Inc. Multiple pulse, LIDAR based 3-D imaging
US11698443B2 (en) 2016-01-31 2023-07-11 Velodyne Lidar Usa, Inc. Multiple pulse, lidar based 3-D imaging
US11137480B2 (en) 2016-01-31 2021-10-05 Velodyne Lidar Usa, Inc. Multiple pulse, LIDAR based 3-D imaging
US11550036B2 (en) 2016-01-31 2023-01-10 Velodyne Lidar Usa, Inc. Multiple pulse, LIDAR based 3-D imaging
US11073617B2 (en) 2016-03-19 2021-07-27 Velodyne Lidar Usa, Inc. Integrated illumination and detection for LIDAR based 3-D imaging
US11561305B2 (en) 2016-06-01 2023-01-24 Velodyne Lidar Usa, Inc. Multiple pixel scanning LIDAR
US11550056B2 (en) 2016-06-01 2023-01-10 Velodyne Lidar Usa, Inc. Multiple pixel scanning lidar
US11874377B2 (en) 2016-06-01 2024-01-16 Velodyne Lidar Usa, Inc. Multiple pixel scanning LIDAR
US10983218B2 (en) 2016-06-01 2021-04-20 Velodyne Lidar Usa, Inc. Multiple pixel scanning LIDAR
US11808854B2 (en) 2016-06-01 2023-11-07 Velodyne Lidar Usa, Inc. Multiple pixel scanning LIDAR
US11808891B2 (en) 2017-03-31 2023-11-07 Velodyne Lidar Usa, Inc. Integrated LIDAR illumination power control
US11703569B2 (en) 2017-05-08 2023-07-18 Velodyne Lidar Usa, Inc. LIDAR data acquisition and control
US11294041B2 (en) 2017-12-08 2022-04-05 Velodyne Lidar Usa, Inc. Systems and methods for improving detection of a return signal in a light ranging and detection system
US11796648B2 (en) 2018-09-18 2023-10-24 Velodyne Lidar Usa, Inc. Multi-channel lidar illumination driver
US11082010B2 (en) 2018-11-06 2021-08-03 Velodyne Lidar Usa, Inc. Systems and methods for TIA base current detection and compensation
US11885958B2 (en) 2019-01-07 2024-01-30 Velodyne Lidar Usa, Inc. Systems and methods for a dual axis resonant scanning mirror
US11933967B2 (en) 2019-08-22 2024-03-19 Red Creamery, LLC Distally actuated scanning mirror
DE102021001344A1 (de) 2021-03-12 2022-09-15 Giesecke+Devrient Currency Technology Gmbh Vorrichtung zur Ermittlung der Anwesenheit eines Gegenstands

Also Published As

Publication number Publication date
DE10229408B4 (de) 2006-09-07

Similar Documents

Publication Publication Date Title
DE10229408B4 (de) Optischer Sensor
EP1239300B1 (de) Vorrichtung zur Bestimmung eines Abstandprofils
DE102010061382B4 (de) Optoelektronischer Sensor und Verfahren zur Erfassung und Abstandsbestimmung von Objekten
DE19850270B4 (de) Optoelektronische Vorrichtung
EP3318895A1 (de) Vorrichtung und verfahren zum empfangen eines reflektierten lichtpulses in einem lidar-system
EP1423731A2 (de) Verfahren und vorrichtung zur aufnahme eines dreidimensionalen abstandsbildes
DE10231178B4 (de) Optoelektronischer Sensor
DE3915627A1 (de) Optisches radar
EP2159603B1 (de) Objektfeststellungsverfahren und Objektfeststellungssensor
EP3220164A1 (de) Verfahren zum betreiben eines abstandsmessenden überwachungssensors und überwachungssensor
DE19808215C2 (de) Optoelektronische Vorrichtung und Verfahren zu deren Betrieb
DE102004031024B4 (de) Optischer Sensor
DE10346813B4 (de) Optoelektronischer Sensor und Verfahren zur Detektion eines Objekts in einem Überwachungbereich
DE19914962C2 (de) Optoelektronische Vorrichtung
DE19936440A1 (de) Optoelektronische Vorrichtung
WO2016116302A1 (de) Vorrichtung und verfahren zum erfassen von objekten für ein kraftfahrzeug
EP1512992A1 (de) Optischer Sensor
DE102014110203B3 (de) Entfernungsmessender Sensor zur Erfassung und Abstandsbestimmung von Objekten
DE202006006482U1 (de) Optischer Sensor
DE19520242C2 (de) Vorrichtung zur Bewegungsmeldung mit mindestens einem optoelektrischen Sensor zur Erfassung von Lichtstrahlen aus einem zu überwachenden Raumbereich
DE102008009578B4 (de) Verfahren zur Erfassung von Objekten mittels einer Sensoranordnung
DE4419032A1 (de) Lichttaster mit Hintergrundausblendung, realisiert nach dem Quotientenverfahren
EP2851704B1 (de) Vorrichtung und Verfahren zum optischen Bestimmen von Abständen zu Objekten in einem Überwachungsbereich
EP3572768B1 (de) Optischer sensor und verfahren zum betrieb eines optischen sensors
DE202007015653U1 (de) Optoelektronische Sensoranordnung

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8364 No opposition during term of opposition
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee

Effective date: 20140101