DE102013203088B4 - Lichtlaufzeitkamerasystem - Google Patents

Lichtlaufzeitkamerasystem Download PDF

Info

Publication number
DE102013203088B4
DE102013203088B4 DE102013203088.6A DE102013203088A DE102013203088B4 DE 102013203088 B4 DE102013203088 B4 DE 102013203088B4 DE 102013203088 A DE102013203088 A DE 102013203088A DE 102013203088 B4 DE102013203088 B4 DE 102013203088B4
Authority
DE
Germany
Prior art keywords
time
light
integration
transit time
phase
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102013203088.6A
Other languages
English (en)
Other versions
DE102013203088A1 (de
Inventor
Ralph Wilks
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
PMDtechnologies AG
Original Assignee
PMDtechnologies AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by PMDtechnologies AG filed Critical PMDtechnologies AG
Priority to DE102013203088.6A priority Critical patent/DE102013203088B4/de
Publication of DE102013203088A1 publication Critical patent/DE102013203088A1/de
Application granted granted Critical
Publication of DE102013203088B4 publication Critical patent/DE102013203088B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/491Details of non-pulse systems
    • G01S7/4911Transmitters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/32Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
    • G01S17/36Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated with phase comparison between the received signal and the contemporaneously transmitted signal
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/491Details of non-pulse systems
    • G01S7/4912Receivers
    • G01S7/4915Time delay measurement, e.g. operational details for pixel components; Phase measurement
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/617Noise processing, e.g. detecting, correcting, reducing or removing noise for reducing electromagnetic interference, e.g. clocking noise

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

Lichtlaufzeitkamerasystem mit einem Lichtlaufzeitsensor (22) bestehend aus mehreren Lichtlaufzeitpixeln (23), mit einer Beleuchtung (10, 12) zur Aussendung eines modulierten Lichts, und mit einer Ausleseeinheit (400) zur Erfassung von Signalen (Ua, Ub) an Integrationsknoten (Ga, Gb) der Lichtlaufzeitpixel (23), mit einem Modulator (30) und einem Phasenschieber (35), die mit dem Lichtlaufzeitsensor (22) und der Beleuchtung (10, 12) verbunden sind, wobei der Phasenschieber (35) zur Entfernungsbestimmung mindestens zwei Phasenlagen (0°, 90°, 180°, 270°) zwischen Lichtlaufzeitsensor (22) und Beleuchtung (10, 12) zur Verfügung stellt, wobei ausgehend von den an den Integrationsknoten (Ga, Gb) erfassten Signalen (Ua, Ub) Entfernungen und Helligkeitswerte ermittelt werden, dadurch gekennzeichnet, dass eine Integrationszeit (tint) mindestens einer Phasenlage (0°, 90°, 180°, 270°) zeitlich länger andauert als eine für die Entfernungsmessung relevante Modulationszeit (tRBel) der Beleuchtung (10, 12).

Description

  • Die Erfindung betrifft ein Lichtlaufzeitkamerasystem und ein Verfahren zum Betreiben eines solchen nach Gattung der unabhängigen Ansprüche.
  • Mit Lichtlaufzeitkamerasystem sollen nicht nur Systeme umfasst sein, die Entfernungen direkt aus der Lichtlaufzeit ermitteln, sondern insbesondere auch alle Lichtlaufzeit bzw. 3D-TOF-Kamerasysteme, die eine Laufzeitinformation aus der Phasenverschiebung einer emittierten und empfangenen Strahlung gewinnen. Als Lichtlaufzeit bzw. 3D-TOF-Kameras sind insbesondere PMD-Kameras mit Photomischdetektoren (PMD) geeignet, wie sie u. a. in den Anmeldungen EP 1 777 747 , US 6 587 186 und auch DE 197 04 496 beschrieben und beispielsweise von der Firma 'ifm electronic GmbH' oder 'PMD-Technologies GmbH' als Frame-Grabber O3D bzw. als CamCube zu beziehen sind. Die PMD-Kamera erlaubt insbesondere eine flexible Anordnung der Lichtquelle und des Detektors, die sowohl in einem Gehäuse als auch separat angeordnet werden können.
  • Für die Bestimmung einer Entfernung bzw. einer entsprechenden Phasenverschiebung des reflektierten Lichts wird, wie in der DE 197 04 496 ausführlich beschrieben, im PMD-Sensor das reflektierte Licht mit dem modulierenden Signal gemischt. Diese Mischung liefert ein in Phase liegendes Signal (0°) und ein um 180° versetztes Signal, aus dem in bekannter Weise eine Entfernung bestimmt werden kann. Zur Verbesserung der Qualität der Entfernungsmessung kann es vorgesehen sein, die Sendemodulation gezielt beispielsweise um 90°, 180° oder 270° zu verschieben und vorzugsweise mittels einer IQ(Inphase, Quadratur)-Demodulation einen Phasenwinkel des reflektierten in Relation zum gesendeten Signal zu bestimmen. Dieses Vorgehen ist insbesondere nützlich zur Gewinnung von redundanten Informationen, um beispielsweise verschiedene parasitäre Effekte wie fixed pattern noise (FPN), Hintergrundlicht oder Asymmetrien des Sensors zu kompensieren.
  • Ferner ist aus der DE 10 2011 089 629 A1 ein Lichtlaufzeitsensor bekannt, bei dem zusätzlich zur Ermittlung eines Entfernungswerts Mittel zur Bestimmung eines Grauwerts offenbart sind. Grundsätzlich ist bekannt, dass beispielsweise durch Addition aller an den Integrationsknoten erfassten Ladungen eine insgesamt akkumulierte Ladung ermittelt werden und für die Bestimmung eines Grauwerts herangezogen werden kann. Beispielsweise wird vorgeschlagen, dass ein Lichtlaufzeitpixel ohne Modulation als reinen Photosensor zu betreiben. Alternativ wird ferner vorgeschlagen jedem Lichtlaufzeitpixel ein zusätzliches Intensitätspixel zuzuordnen.
  • Aus der DE 10 2012 203 341 A1 wird eine Vorrichtung mit einer 2D- und 3D-Kamera beschrieben, die über einen Strahlteiler verbunden im Wesentlichen den gleichen Erfassungsbereich überwachen können. Zur Einstellung der Belichtung der 2D-Kamera wird vorgeschlagen, die Integrationszeit der 2D-Kamera anzupassen.
  • Aufgabe der Erfindung ist es, zusätzlich zu den 3D-Informationen eine 2D-Information zu gewinnen.
  • Die Aufgabe wird in vorteilhafter Weise durch das erfindungsgemäße Lichtlaufzeitkamerasystem nach Gattung des unabhängigen Anspruchs gelöst.
  • Vorteilhaft ist ein Lichtlaufzeitkamerasystem vorgesehen, mit einem Lichtlaufzeitsensor bestehend aus mehreren Lichtlaufzeitpixeln, mit einer Beleuchtung zur Aussendung eines modulierten Lichts,
    und mit einer Ausleseeinheit zur Erfassung von Signalen an Integrationsknoten der Lichtlaufzeitpixel,
    wobei ausgehend von den an den Integrationsknoten erfassten Signalen Entfernungen und Helligkeiten ermittelt werden,
    wobei mindestens eine Integrationszeit zeitlich länger andauert als eine für die Entfernungsmessung relevante Modulationszeit der Beleuchtung.
  • Dieses Vorgehen hat den Vorteil, dass die Integrationszeit für eine optimale Belichtung eines 2D- bzw. Grauwertbildes, unabhängig von der für die Gewinnung eines 3D-Bildes notwendige Integrationszeit, verlängert bzw. angepasst werden kann.
  • Das Tiefenbild wird vornehmlich aus einer Signaldifferenz zu zwei unterschiedlichen Phasenlagen gewonnen, wobei zusätzlich ein Amplitudensignal zur Verfügung steht. Die Grauwerte bzw. ein 2D-Bild werden vorzugsweise aus den Intensitätssignalen und/oder den Amplitudensignalen des Lichtlaufzeitsensors gebildet.
  • Eine Eigenschaft des Amplitudenbildes ist, dass im Wesentlichen nur Licht der eigenen Modulation zu einem Signal auf dem Sensor führt. Dies kann vorteilhaft zu einer gezielten Beleuchtung einer Szenerie verwendet werden, wobei Grauwerte für ein 2D-Bild sowohl aus dem Amplituden- wie auch Intensitätssignal gewonnen werden können.
  • Dieses Vorgehen ist immer dann vorteilhaft, wenn die für das 2D-Bild interessanten Objekte auch von der PMD-Beleuchtung ausreichend beleuchtet werden können. Bei großen Öffnungswinkeln und/oder hohen Reichweiten und/oder geringen Reflektivitäten der Objekte ist dies nicht immer sichergestellt oder bedarf hoher Lichtleistungen. Dies kann zu Problemen bei Systemkosten, Stromverbrauch, Beleuchtungs-Lebensdauer, Augensicherheit, Abwärme, Optikdesign, Platzbedarf etc. führen.
  • Erfindungsgemäß ist es daher vorgesehen, die Generierung eines Grauwerts bzw. eines 2D-Bildes nicht nur auf die aktiv durch moduliertes Licht beleuchteten Bereiche zu beschränken, sondern die Integrationszeit der Lichtlaufzeitpixel so festzulegen, dass auch Bildbereiche, die nur unzureichend und/oder unmoduliert beleuchtet werden ein verwertbares Signal aufweisen. Zur Auswertung bzw. Generierung eines 2D-Bildes wird bevorzugt ein Intensitätssignal verwendet, dass die gesamte vorhandene Lichtmenge nutzt. Für eine Belichtung nicht beleuchteter Bereiche ist insbesondere bei Tageslicht im Außenraum hinreichend Licht vorhanden.
  • Vorteilhaft ist das System so ausgestaltet, dass die Beleuchtung mit verschiedenen Phasenlagen betrieben wird und die Integrationszeit für mindestens zwei Phasenlagen unterschiedlich lang ist.
  • Besonders günstig ist es, wenn die Integrationszeiten für zwei komplementäre, d. h. um 180° verschobene Phasenlagen, gleich lang und für die nicht komplementären Phasenlagen unterschiedlich lang ist.
  • Besonders nützlich ist es, das Lichtlaufzeitkamerasystem derart auszugestalten, dass mindestens eine Integrationszeit des Lichtlaufzeitsensors in Abhängigkeit einer erfassten Lichtmenge gesteuert wird.
  • Nachfolgend wird die Erfindung anhand von Ausführungsbeispielen unter Bezugnahme auf die Zeichnungen näher erläutert.
  • Es zeigen:
  • 1 schematisch das grundlegende Prinzip der Photomischdetektion,
  • 2 eine modulierte Integration der erzeugten Ladungsträger,
  • 3 zwei zeitliche Verläufe der Ladungsintegration mit unterschiedlichen Phasenlagen,
  • 4 Relation der Integration in einem IQ-Diagramm,
  • 5 ein Querschnitt durch ein Lichtlaufzeitpixel und schematische Ladungsverteilung,
  • 6 eine Ladungsverteilung eines Lichtlaufzeitpixel zu unterschiedlichen Beleuchtungsbedingungen,
  • 7 einen typischen Verlauf von Beleuchtungs- und Integrationszeiten,
  • 8 einen erfindungsgemäßen Verlauf von Beleuchtungs- und Integrationszeiten,
  • 9 eine Beleuchtung mit einem zeitlichen Vorlauf,
  • 10 eine Beleuchtung innerhalb einer Integrationszeit,
  • 11 einen zeitlichen Verlauf mit sich verlängernden Integrationszeiten,
  • 12 einen zeitlichen Verlauf mit phasenkorrelierenden Integrationszeiten,
  • 13 einen zeitlichen Verlauf mit konstanten Integrationszeiten
  • 14 einen Beleuchtungsverlauf mit einem modulierten und unmodulierten Anteil,
  • 15 eine Schaltung für eine Hintergrundlichtausblendung (SBI),
  • 16 schematisch einen Spannungsverlauf mit Hintergrundlichtausblendung,
  • 17 einen zeitlichen Verlauf der Ladungsverteilungen mit Ladungskompensation.
  • Bei der nachfolgenden Beschreibung der bevorzugten Ausführungsformen bezeichnen gleiche Bezugszeichen gleiche oder vergleichbare Komponenten.
  • 1 zeigt eine Messsituation für eine optische Entfernungsmessung mit einer Lichtlaufzeitkamera, wie sie beispielsweise aus der DE 197 04 496 bekannt ist.
  • Das Lichtlaufzeitkamerasystem 1 umfasst eine Sendeeinheit bzw. ein Beleuchtungsmodul 10 mit einer Beleuchtung 12 und einer dazugehörigen Strahlformungsoptik 15 sowie eine Empfangseinheit bzw. Lichtlaufzeitkamera 20 mit einer Empfangsoptik 25 und einem Lichtlaufzeitsensor 22. Der Lichtlaufzeitsensor 22 weist ein ein- oder zweidimensionales Pixel-Array auf und ist insbesondere als PMD-Sensor ausgebildet. Die Empfangsoptik 25 besteht typischerweise zur Verbesserung der Abbildungseigenschaften aus mehreren optischen Elementen. Die Strahlformungsoptik 15 der Sendeeinheit 10 kann beispielsweise als Reflektor oder Linsenoptik ausgebildet sein.
  • Das Messprinzip dieser Anordnung basiert im Wesentlichen darauf, dass ausgehend von der Phasenverschiebung des emittierten und empfangenen Lichts die Laufzeit und somit die zurückgelegte Wegstrecke des empfangenen Lichts ermittelt werden kann. Zu diesem Zwecke werden die Lichtquelle 12 und der Lichtlaufzeitsensor 22 über einen Modulator 30 gemeinsam mit einem bestimmten Modulationssignal Mo mit einer Basisphasenlage φ0 beaufschlagt. Im dargestellten Beispiel ist ferner zwischen dem Modulator 30 und der Lichtquelle 12 ein Phasenschieber 35 vorgesehen, mit dem die Basisphase φ0 des Modulationssignals M0 der Lichtquelle 12 um definierte Phasenlagen φvar verschoben werden kann. Für typische Phasenmessungen werden vorzugsweise Phasenlagen von φvar = 0°, 90°, 180°, 270° verwendet.
  • Entsprechend des eingestellten Modulationssignals sendet die Lichtquelle 12 ein intensitätsmoduliertes Signal Sp1 mit der ersten Phaselage p1 bzw. p1 = φ0 + φvar aus. Dieses Signal Sp1 bzw. die elektromagnetische Strahlung wird im dargestellten Fall von einem Objekt 40 reflektiert und trifft aufgrund der zurückgelegten Wegstrecke entsprechend phasenverschoben Δφ(tL) mit einer zweiten Phasenlage p2 = φ0 + φvar + Δφ(tL) als Empfangssignal Sp2 auf den Lichtlaufzeitsensor 22. Im Lichtlaufzeitsensor 22 wird das Modulationssignal Mo mit dem empfangenen Signal Sp2 gemischt, wobei aus dem resultierenden Signal die Phasenverschiebung bzw. die Objektentfernung d ermittelt wird.
  • Zur Verbesserung der Messgenauigkeit und/oder zur Erweiterung des Eindeutigkeitsbereichs kann es ferner vorgesehen sein, Lichtlaufzeitmessungen mit unterschiedlichen Modulationsfrequenzen durchzuführen. Zu diesem Zweck ist der Modulator 30 mit einem Modulationssteuergerät 38 verbunden, das vorzugsweise innerhalb eines vorgegebenen Frequenzspektrums Modulationsfrequenzen vorgeben kann.
  • Der Modulator 30 könnte beispielsweise als Frequenzsynthesizer ausgebildet sein, der über das Modulationssteuergerät 38 für die jeweilige Messaufgabe angesteuert wird.
  • Ferner ist die Empfangseinheit 20 mit einer Auswerteeinheit 27 verbunden. Die Auswerteeinheit 27 kann gegebenenfalls auch Bestandteil der Empfangseinheit 20 und insbesondere auch Teil des Lichtlaufzeitsensors 22 sein. Aufgabe der Auswerteeinheit 27 ist es, anhand der empfangenen Signale in Relation zur Modulationsfrequenz Phasenverschiebungen zu ermitteln und/oder auszuwerten. Die Mischung der empfangen Lichtstrahlen mit der Modulationsfrequenz erfolgt vorzugsweise im Lichtlaufzeitsensor 22 bzw. PMD-Sensor. Ferner kann das Modulationssteuergerät 38 auch Bestandteil der Auswerteeinheit 27 sein. Insbesondere kann es auch vorgesehen sein, dass die Auswerteeinheit 27 die Funktion des Modulationssteuergeräts 38 vollständig oder teilweise übernimmt.
  • Als Beleuchtungsquelle bzw. Lichtquelle 12 eignen sich vorzugsweise Infrarot-Leuchtdioden. Selbstverständlich sind auch andere Strahlungsquellen in anderen Frequenzbreichen denkbar, insbesondere kommen auch Lichtquellen im sichtbaren Frequenzbereich in Betracht.
  • Das Grundprinzip der Phasenmessung ist schematisch in 2 dargestellt. Die obere Kurve zeigt den zeitlichen Verlauf des Modulationssignals M0 mit der die Beleuchtung 12 und der Lichtlaufzeitsensor 22 angesteuert werden. Das vom Objekt 40 reflektierte Licht trifft als Empfangssignal Sp2 entsprechend seiner Lichtlaufzeit tL phasenverschoben Δφ(tL) auf den Lichtlaufzeitsensor 22. Der Lichtlaufzeitsensor 22 sammelt die photonisch erzeugten Ladungen q über mehrere Modulationsperioden in der Phasenlage des Modulationssignals M0 in einem ersten Akkumulationsgate Ga und in einer um 180° verschobenen Phasenlage M0 + 180° in einem zweiten Akkumulationsgate Gb. Aus dem Verhältnis der im ersten und zweiten Gate Ga, Gb gesammelten Ladungen qa, qb lässt sich die Phasenverschiebung Δφ(tL) und somit eine Entfernung d des Objekts bestimmen.
  • 3a und 3b zeigen Verläufe der Ladungsdifferenz Δq = qa – qb/(qa + qb) in Abhängigkeit der Phasenverschiebung Δφ(tL) des empfangenen Lichtsignals Sp2 mit unterschiedlichen Phasenlagen. Die 3a zeigt einen Verlauf für eine unverschobene Modulationsphase M0 mit einer Phasenlage φvar = 0°.
  • Bei einem Auftreffen des Signals Sp2 ohne Phasenverschiebung also Δφ(tL) = 0°, beispielsweise, wenn das Sendesignal Sp1 direkt auf den Sensor gelenkt wird, sind die Phasen der Modulation M0 und vom empfangenen Signal Sp2 identisch, so dass alle erzeugten Ladungsträger phasensynchron am ersten Gate Ga erfasst werden und somit ein maximales Differenzsignal mit Δq = 1 anliegt.
  • Mit zunehmender Phasenverschiebung nimmt die Ladung am ersten Akkumulationsgate Ga ab und am zweiten Akkumulationsgate Gb zu. Bei einer Phasenverschiebung von Δφ(tL) = 90° sind die Ladungsträger qa, qb an beiden Gates Ga, Gb gleich verteilt und die Differenz somit Null und nach 180° Phasenverschiebung ”–1”. Mit weiter zunehmender Phasenverschiebung nimmt die Ladung am ersten Gate Ga wieder zu, so dass im Ergebnis die Ladungsdifferenz wieder ansteigt, um dann bei 360° bzw. 0° wieder ein Maximum zu erreichen.
  • Mathematisch handelt es sich hierbei um eine Korrelationsfunktion des empfangenen Signals Sp2 mit dem modulierenden Signal M0.
    Figure DE102013203088B4_0002
  • Bei einer Modulation mit einem Rechtecksignal ergibt sich wie bereits dargestellt als Korrelationsfunktion eine Dreiecksfunktion. Bei einer Modulation mit beispielsweise einem Sinussignal wäre das Ergebnis eine Kosinusfunktion.
  • Wie 3a zeigt, ist eine Messung der Phase mit einer Phasenlage nur bis zu einer Phasenverschiebung Δφ(tL) ≤ 180° eindeutig.
  • Zur maximalen Erfassung der Phasenverschiebung ist beispielsweise das IQ(Inphase-Quadratur) Verfahren bekannt, bei dem zwei Messungen mit um 90° verschobenen Phasenlagen durchgeführt werden, also beispielsweise mit der Phasenlage φvar = 0° und φvar = 90°. Das Ergebnis einer Messung mit der Phasenlage φvar = 90° ist in 3b dargestellt.
  • Die Beziehung dieser beiden Kurven lässt sich in bekannter Art und Weise beispielsweise für sinusförmige Kurvenverläufe in einem IQ-Diagramm gern. 4 darstellen. In erster Näherung ist diese Darstellung ohne weiteres auch für die dargestellten Dreiecksfunktionen anwendbar.
  • Der Phasenwinkel lässt sich dann in bekannter Weise über eine arctan-Funktion bestimmen: φ = arctan Δq(90°) / Δq(0°)
  • Die Amplitude A des Signals ergibt sich aus den zwei Messungen wie folgt: A = √x² + y² = √(Δq(0°))² + (Δq(90°))²
  • Während die Intensität I typischerweise durch Summieren der Gesamtladungen ermittelt wird. I = q(0°) + q(90°) / 2
  • Um beispielsweise Asymmetrie des Sensors zu kompensieren, können zusätzliche um 180° verschobene Phasenmessungen durchgeführt werden, so dass sich im Ergebnis der Phasenwinkel wie folgt bestimmen lässt. φ = arctan Δq(90°) – Δq(270°) / Δq(0°) – Δq(180°)
  • Die Amplitude bestimmt sich dann wie folgt:
    Figure DE102013203088B4_0003
  • 5 zeigt einen Querschnitt durch einen Pixel eines Photomischdetektors wie er beispielsweise aus der DE 197 04 496 C2 bekannt ist. Die Modulationsphotogates Gam, G0, Gbm bilden den lichtsensitiven Bereich eines PMD-Pixels. Entsprechend der an den Modulationsgates Gam, G0, Gbm angelegten Spannung werden die photonisch erzeugten Ladungen q entweder zum einen oder zum anderen Akkumulationsgate bzw. zu einem ersten und zweiten Integrationsknoten Ga, Gb gelenkt. Die beiden Integrationsknoten bilden einen so genannte A- und B-Kanal.
  • 5b zeigt einen Potenzialverlauf, bei dem die Ladungen q in Richtung des ersten Integrationskonten Ga abfließen, während das Potenzial gemäß 5c die Ladung q in Richtung des zweiten Integrationsknoten Gb fließen lässt. Die Potenziale werden entsprechend der anliegenden Modulationssignale vorgegeben. Je nach Anwendungsfall liegen die Modulationsfrequenzen vorzugsweise in einem Bereich von 1 bis 100 MHz. Bei einer Modulationsfrequenz von beispielsweise 1 MHz ergibt sich eine Periodendauer von einer Mikrosekunde, so dass das Modulationspotenzial dementsprechend alle 500 Nanosekunden wechselt.
  • In 5a ist ferner eine Ausleseeinheit 400 dargestellt, die gegebenenfalls bereits Bestandteil eines als CMOS ausgebildeten PMD-Lichtlaufzeitsensors sein kann. Die als Kapazitäten bzw. Dioden ausgebildeten Integrationsknoten Ga, Gb integrieren die photonisch erzeugten Ladungen über eine Vielzahl von Modulationsperioden. In bekannter Weise kann die dann an den Integrationsknoten Ga, Gb anliegende Spannung beispielsweise über die Ausleseeinheit 400 hochohmig abgegriffen werden. Die Integrationszeiten sind vorzugsweise so zu wählen, dass für die zu erwartende Lichtmenge der Lichtlaufzeitsensor bzw. die Integrationsknoten und/oder die lichtsensitiven Bereiche nicht in Sättigung geraten.
  • 6a zeigt eine Ladungsverteilung q, die sich bei einer rein aktiven, d. h. modulierten Beleuchtung ML einstellen kann. Die Ladungen verteilen sich entsprechend der erfassten Objektentfernung d auf die einzelnen Integrationsknoten Ga, Gb
  • Die Objektentfernung d lässt sich dann, wie bereits dargestellt, anhand der Ladungsdifferenzen der Integrationsknoten Ga, Gb bzw. des A- und B-Kanals aus mindestens zwei Messungen mit unterschiedlicher Phasenlage ermitteln. Darüber hinaus können die in den Kanälen A, B erfassten Ladungen q bzw. Spannungen U(q) für die Bereitstellung eines Grauwertes herangezogen werden, um beispielsweise ein Grauwertbild bzw. 2D-Bild zu erzeugen. Im einfachsten Fall kann hierzu bereits die Spannung in einem einzigen Kanal herangezogen werden. Vorteilhaft kann auch das Summensignal aus beiden A- und B-Kanälen verwendet werden. Auch ist es denkbar, die Signale aus mehreren Messungen zu akkumulieren und zu einem Grauwert zu verrechnen. Insbesondere ist es auch denkbar, die Signale aus dem A- und B-Kanal, das resultierende Summensignal und ggf. noch akkumulierte Signale aller Pixel zu einem so genannten HDR-Bild, also einem Bild mit einem hohen Dynamikumfang, zu verrechnen.
  • 6b zeigt eine Ladungsverteilung an den Integrationsknoten Ga, Gb, bei der in der Messung nicht nur moduliertes Licht ML, sondern auch ein unmoduliertes Hintergrundlicht bzw. ein Gleichlichtanteil GL erfasst wird. Dieser Gleichlichtanteil GL wird aufgrund des Messprinzips, unter Vernachlässigung möglicher systembedingter Asymmetrien, zu gleichen Teilen auf beide Kanäle A, B verteilt. Auch hier kann, wie bereits zu 6a beschrieben, aus der Differenz der Signale eine Entfernung und aus den Kanalsignalen ein Grauwert bzw. für das Pixel-Array ein Grauwertbild ermittelt werden.
  • Die Signale, die aus der Summe beider Kanalsignale A, B gewonnen werden, bilden so genannte Intensitätssignale. Demgegenüber lässt sich aus der Ladungsdifferenz Δq bzw. Spannungsdifferenz ΔU(q) aus mindestens zwei Messungen mit unterschiedlicher Phasenlage, wie bereits zu 4 gezeigt, ein Amplitudensignal ermitteln. Ohne Gleichlichtanteil GL, entsprechend 6a, sind das Amplitudensignal und das Intensitätssignal grundsätzlich gleich.
  • Bei vorhandenem Gleichlichtanteil GL, entsprechend 6b, sind Amplituden- und Intensitätssignal unterschiedlich groß und können separat oder gemeinsam für weitere Auswertungen herangezogen werden. Das Amplitudensignal entspricht den durch die Modulation erzeugten Ladungsträgern und das Intensitätssignal den innerhalb der Integrationszeit insgesamt akkumulierten Ladungsträgern.
  • 7 zeigt einen typischen Schaltsignalverlauf für eine Entfernungsmessung mit vier unterschiedlichen Phasenlagen 0°, 90°, 180°, 270°. Die Integrationszeit tint der Integrationsknoten Ga, Gb ist im dargestellten Beispiel gleichlaufend mit der Einschaltdauer tBel der aktiven modulierten Beleuchtung synchronisiert. Je nach Anwendungsfall kann die Integrationszeit tint ggf. auch kürzer als die Beleuchtungsdauer gewählt werden, insbesondere kann die Beleuchtung mit einem zeitlichen Vorlauf gestartet werden, um beispielsweise Einschwingvorgänge aus der Entfernungsmessung herauszunehmen. Wird die Szenerie nur vom modulierten Licht der PMD-Kamera beleuchtet ergibt sich eine Ladungsverteilung ohne Gleichlichtanteil entsprechend 6a. Bei einer typischen Messsituation wird jedoch auch Sonnenlicht oder eine künstliche Beleuchtung als Hintergrundlicht bzw. Gleichlicht GL miterfasst und führt zu einer Ladungsverteilung entsprechend 6b. Aus den Kanalsignalen können, wie bereits beschrieben, 3D- und 2D-Bilder ermittelt werden.
  • Die Integrationszeit des PMD-Sensors ist vorzugsweise so ausgelegt, dass die Lichtlaufzeitpixel in einer typischen Messsituation nicht in Sättigung geraten. Dies kann jedoch insbesondere bei einer durch Fremdlicht schwach beleuchteten Szenerie zu einem unterbelichteten 2D-Bild führen. Um zu einem optimal belichteten 2D-Bild zu gelangen, ist es erfindungsgemäß vorgesehen, die Belichtungszeit bzw. die Integrationszeit tint auch im Hinblick auf ein verwertbares 2D- bzw. Grauwertbild zu optimieren.
  • Ein mögliches erfindungsgemäßes Vorgehen ist in 8 dargestellt, bei dem die Integrationszeit tint der letzen Phasenmessung über die Dauer tBel der modulierten Beleuchtung hinaus verlängert wird. Das Fremdlicht bzw. Gleichlicht GL wird über die gesamte Integrationszeit tint erfasst und führt zu einer Erhöhung des Gleichlichtanteils GL im Kanalsignal. Der entfernungsrelevante Modulationsanteil ML wird nur während der Dauer der modulierten Beleuchtung erfasst.
  • Die 2D-Funktionalität kann grundsätzlich auch aus einer Kombination aus Amplituden- und Intensitätssignal gewonnen werden, wobei das Amplitudensignal im Wesentlichen einer kurzen Belichtungszeit entspricht und vornehmlich für helle bzw. stark reflektierende Objekte geeignet ist und das Intensitätssignal über einen längeren Zeitraum integriert wird und insbesondere für dunkle Objekte geeignet ist.
  • Somit sind im 2D-Bild nicht nur Objekte darstellbar, die das Licht der modulierten Beleuchtung im ausreichenden Maße zurückwerfen, sondern auch alle durch Fremdlicht oder Gleichlichtanteile ausreichend beleuchtete Objekte. Dies hat den Vorteil, dass eine Szenerie vollständig als 2D-Bild erfasst werden kann und zusätzlich für bestimmte aktiv moduliert beleuchtete Bereich eine Tiefeninformation zur Verfügung steht. Insbesondere braucht so die Beleuchtung nur für die Erfassung von Tiefeninformationen ausgelegt werden und es wird keine zusätzliche Leistung für eine 2D-Belichtung benötigt.
  • Die Integrationszeit tint ist vorzugsweise so zu wählen, dass die Lichtlaufzeitpixel nicht in Sättigung geraten. Vorzugsweise ist eine Integrationszeitregelung vorgesehen, die beispielsweise anhand der erfassten Signale die Integrationszeit tint regelt. Insbesondere ist es denkbar, für die Integrationszeitregelung einen eigenen Belichtungsmesser, beispielsweise eine zusätzliche Photodiode, zu verwenden.
  • 9 zeigt ein Beispiel bei dem die Beleuchtung mit einem Vorlauf zur Integrationszeit tint gestartet wird, um beispielsweise Einschwingeffekte der Beleuchtung aus der eigentlichen Entfernungsmessung während der Integrationszeit tint auszublenden. Die für die Entfernungsmessung relevante Modulationszeit tRBel ist hierbei kürzer als die Gesamteinschaltdauer tBel der Beleuchtung. Zur Generierung einer optimalen 2D-Belichtung wurde die Integrationszeit tint über die relevante Modulationszeit tRBel hinaus verlängert.
  • In 10 ist ein Beispiel gezeigt, bei dem die Beleuchung innerhalb der Integrationszeit tint hinzugeschaltet wird. In diesem Fall ist selbstverständlich die relevante Modulationszeit tRBel gleich der Einschaltdauer tBel der Beleuchtung. Während der gesamten Integrationszeit wird ein Gleichlicht GL der beobachtente Szene erfasst, wobei während der Einschaltdauer der Beleuchtung zusätzlich das reflektierte modulierte Licht ML mit aufgenomen wird.
  • Ein derartiges Vorgehen ändert prinzipiell nichts an dem Verfahren zur Entfernungsermittlung, da nur durch moduliertes Licht die Ladungsverteilung an den Integrationsknoten Ga, Gb entfernungsabhängig verändert wird. Die Positon des Beleuchtungsintervalls kann grundsätzlich frei gewählt werden und beispielsweise auch zum Ende der Integrationszeit bzw. des Integrationsintervalls angeordnet werden.
  • 11 zeigt eine Variante bei der zu unterschiedlichen Phasenlagen die Integrationszeit tint variiert wird, um so eine optimale Belichtung zu erhalten oder ggf. durch Zusammenfassen aller Belichtungen ein Bild mit einem hohen Dynamikumfang zu berechnen.
  • Im Einzelfall können unterschiedliche Gesamtladungsmengen in den verschiedenen Phasenlagen jedoch zu Asymmetrien in der Phasenmessung führen. Um dies zu vermeiden, kann es vorteilhaft sein, wie in 12 dargestellt,, die Belichtungszeit bzw. Integrationszeit für die jeweils komplementäre Phasenlage gleich lang zu wählen.
  • Ebenso vorteilhaft kann es auch vorgesehen sein, die Belichtung- bzw. Integrationszeit tint, wie in 13 gezeigt, für alle Phasen gleich lang zu wählen.
  • 14 zeigt ein Ausführungsbeispiel, bei dem die erfasste Szene zusätzlich mit einem unmodulierten Licht beleuchtet wird. Hierbei kann es vorgesehen sein, dass die PMD-Beleuchtung 14 für die Entfernungsbestimmung zunächst moduliert und nachfolgend für eine weitere Aufhellung der Szene unmoduliert betrieben wird. Die obere Kurve in 14 zeigt einen entsprechenden zeitlichen Spannungsverlauf an den Integrationsknoten Ga, Gb. Während der Integration bei modulierter Beleuchtung nimmt die Spannung Ua, Ub an den Integrationsknoten Ga, Gb in Abhängigkeit der Objektentfernung d mit unterschiedlichen Steigungen ab. Für die Zeitdauer der unmodulierten Beleuchtung ist der Gradient des Spannungsabfalls für beide Integrationsknoten Ga, Gb bzw. Kanäle A, B konstant.
  • Selbstverständlich stellt sich qualitativ der skizzierte Spannungsverlauf immer dann ein, wenn der Modulationsphase eine Phase mit einem Gleichlichtanteil folgt, unabhängig davon, durch welche Lichtquelle der Gleichlichtanteil verursacht wird.
  • 15 zeigt einen Lichtlaufzeitsensor 22 mit einer so genannten Hintergrundlichtausblendung bzw. SBI-Schaltung 500 (suppression of background illumination). Dargestellt ist ein einzelnes Lichtlaufzeitpixel 23 eines Lichtlaufzeitsensors 22 deren Integrationsknoten Ga, Gb mit einer Ausleseeinheit 400 verbunden sind, die vorzugsweise eine an den Integrationsknoten Ga, Gb anliegende Spannung Ua, Ub erfasst. In Abhängigkeit der erfassten Integrationsspannung Ua, Ub beaufschlagt die SBI-Schaltung 500 die Integrationsknoten Ga, Gb mit einem Kompensationsstrom ik.
  • In 16 ist die Wirkungsweise der SBI-Schaltung schematisch dargestellt. Beginnend von einem Resetpotenzial bzw. Ruhepotenzial U0 nimmt die Spannung an den Integrationsknoten Ga, Gb entsprechend des erfassten Modulation- und Gleichlichtanteils ab. Ohne SBI-Schaltung geht im dargestellten Fall der zweite Integrationsknoten Gb zum Zeitpunkt ts in Sättigung. Mit SBI-Schaltung 500 wird die Spannung des Integrationsknoten Ga, Gb, der die SBI-Einschaltschwelle Uon zuerst erreicht, konstant gehalten. Der hierzu notwendige Kompensationsstrom ik wird beiden Integrationsknoten Ga, Gb zugeführt, um entsprechende Ladungsträger abzuführen. Die Spannung des jeweils überkompensierten Integrationsknoten, hier Ga, nimmt entsprechend zu. Die entfernungsbedingte Ladungsdifferenz bleibt hierbei erhalten während das Intensitätssignal, also die Gesamtladungsmenge, nicht mehr eindeutig mit der Integrationszeit korreliert.
  • 17 zeigt das grundsätzliche zeitliche Verhalten von Ladungsdifferenz Δq und Ladungssumme Σq. Die SBI-Schaltung ist selbstverständlich so aufgebaut, dass die Steigung des Ladungsdifferenzverlaufes idealerweise zeitlich konstant bleibt. So können die Ladungsdifferenzen Δq aus den verschiedenen Phasenlagen 0°, 90° unabhängig davon verwendet werden, ob die SBI-Schaltung angesprochen hat oder nicht. Ein aus der Amplitude gewonnen Grauwertbild ist ebenso unabhängig vom Einsatz der SBI-Schaltung.
  • Anders verhält es sich mit der Ladungssumme Σq oder in hieraus berechnetes Grauwertbild. Bis zum Einsatz der SBI-Schaltung zum Zeitpunkt tSBI korrelieren die Grauwerte mit der zunehmenden Integrationszeit. Nach Einsetzen der SBI-Schaltung nimmt die Gesamtladungsmenge Σq infolge der Ladungskompensation ab.
  • Erfolgt der Einsatz der SBI-Schaltung für alle Pixel gleichzeitig lässt sich grundsätzlich noch ein Grauwertbild generieren, wobei jedoch mit zunehmender Integrationszeit das Signal bzw. die Helligkeit abnimmt.
  • Erfolgt der Einsatz der SBI-Schaltung pixelindividuell verliert sich die Kontrastbeziehung der Pixel untereinander und das ermittelte Grauwertbild ist nur noch bedingt aussagekräftig. Ist der Einschaltzeitpunkt tSBI der SBI-Schaltung für jedes Pixel bekannt, könnte gegebenenfalls die Grauwerte pixelindividuell korrigiert werden.
  • Grundsätzlich können vor Erreichen der SBI-Schwelle U0, tSBI Grauwertbilder ohne Beschränkung aus dem Intensitäts- und/oder Amplitudensignal ermittelt werden. Nach Erreichen der SBI-Schwelle sollten die Veränderung durch die SBI-Schaltung berücksichtig werden.

Claims (5)

  1. Lichtlaufzeitkamerasystem mit einem Lichtlaufzeitsensor (22) bestehend aus mehreren Lichtlaufzeitpixeln (23), mit einer Beleuchtung (10, 12) zur Aussendung eines modulierten Lichts, und mit einer Ausleseeinheit (400) zur Erfassung von Signalen (Ua, Ub) an Integrationsknoten (Ga, Gb) der Lichtlaufzeitpixel (23), mit einem Modulator (30) und einem Phasenschieber (35), die mit dem Lichtlaufzeitsensor (22) und der Beleuchtung (10, 12) verbunden sind, wobei der Phasenschieber (35) zur Entfernungsbestimmung mindestens zwei Phasenlagen (0°, 90°, 180°, 270°) zwischen Lichtlaufzeitsensor (22) und Beleuchtung (10, 12) zur Verfügung stellt, wobei ausgehend von den an den Integrationsknoten (Ga, Gb) erfassten Signalen (Ua, Ub) Entfernungen und Helligkeitswerte ermittelt werden, dadurch gekennzeichnet, dass eine Integrationszeit (tint) mindestens einer Phasenlage (0°, 90°, 180°, 270°) zeitlich länger andauert als eine für die Entfernungsmessung relevante Modulationszeit (tRBel) der Beleuchtung (10, 12).
  2. Lichtlaufzeitkamerasystem nach Anspruch 1, bei dem das System so ausgestaltet ist, dass die Beleuchtung (10, 12) mit verschiedenen Phasenlagen (0°, 90°, 180°, 270°) betrieben wird und die Integrationszeit (tint) für mindestens zwei Phasenlagen unterschiedlich lang ist.
  3. Lichtlaufzeitkamerasystem nach einem der vorhergehenden Ansprüche, bei dem das System so ausgestaltet ist, dass die Beleuchtung (10, 12) für eine Entfernungsmessung moduliert und für eine Ausleuchtung unmoduliert betrieben wird.
  4. Lichtlaufzeitkamerasystem nach einem der vorhergehenden Ansprüche, mit einer Integrationszeitregelung, die in Abhängigkeit eines erfasste Intensitäts- und/oder Amplitudensignals die Integrationszeit (tint) regelt.
  5. Lichtlaufzeitkamerasystem nach einem der vorhergehenden Ansprüche, bei der mindestens eine Integrationszeit (tint) in Abhängigkeit einer erfassten Lichtmenge gesteuert wird.
DE102013203088.6A 2013-02-25 2013-02-25 Lichtlaufzeitkamerasystem Active DE102013203088B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102013203088.6A DE102013203088B4 (de) 2013-02-25 2013-02-25 Lichtlaufzeitkamerasystem

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102013203088.6A DE102013203088B4 (de) 2013-02-25 2013-02-25 Lichtlaufzeitkamerasystem

Publications (2)

Publication Number Publication Date
DE102013203088A1 DE102013203088A1 (de) 2014-08-28
DE102013203088B4 true DE102013203088B4 (de) 2017-05-11

Family

ID=51349436

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102013203088.6A Active DE102013203088B4 (de) 2013-02-25 2013-02-25 Lichtlaufzeitkamerasystem

Country Status (1)

Country Link
DE (1) DE102013203088B4 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021123666A1 (de) 2021-09-14 2023-03-16 Infineon Technologies Ag Vorrichtung und verfahren zur laufzeiterfassung einer szene

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017200879B4 (de) 2016-02-02 2022-05-05 pmdtechnologies ag Lichtlaufzeitkamera und Verfahren zum Betreiben einer solchen
DE102021132485A1 (de) 2021-12-09 2023-06-15 Valeo Schalter Und Sensoren Gmbh Abstandsmessung basierend auf einer indirekten Laufzeittechnik
CN115776614B (zh) * 2023-02-08 2023-05-12 昆明昆科测控技术有限公司 焦平面成像***最佳积分时间计算***及其工作方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19704496A1 (de) * 1996-09-05 1998-03-12 Rudolf Prof Dr Ing Schwarte Verfahren und Vorrichtung zur Bestimmung der Phasen- und/oder Amplitudeninformation einer elektromagnetischen Welle
US6587186B2 (en) * 2000-06-06 2003-07-01 Canesta, Inc. CMOS-compatible three-dimensional image sensing using reduced peak energy
EP1777747A1 (de) * 2005-10-19 2007-04-25 CSEM Centre Suisse d'Electronique et de Microtechnique SA Einrichtung und Verfahren zur Demodulation von modulierten elektromagnetischen Wellenfeldern
DE102011089636A1 (de) * 2010-12-22 2012-06-28 PMD Technologie GmbH Lichtlaufzeitkamera
DE102011089629A1 (de) * 2010-12-22 2012-06-28 PMD Technologie GmbH Lichtlaufzeitkamera
DE102012203341A1 (de) * 2011-03-25 2012-09-27 Ifm Electronic Gmbh 2D3D-Beleuchtung

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19704496A1 (de) * 1996-09-05 1998-03-12 Rudolf Prof Dr Ing Schwarte Verfahren und Vorrichtung zur Bestimmung der Phasen- und/oder Amplitudeninformation einer elektromagnetischen Welle
US6587186B2 (en) * 2000-06-06 2003-07-01 Canesta, Inc. CMOS-compatible three-dimensional image sensing using reduced peak energy
EP1777747A1 (de) * 2005-10-19 2007-04-25 CSEM Centre Suisse d'Electronique et de Microtechnique SA Einrichtung und Verfahren zur Demodulation von modulierten elektromagnetischen Wellenfeldern
DE102011089636A1 (de) * 2010-12-22 2012-06-28 PMD Technologie GmbH Lichtlaufzeitkamera
DE102011089629A1 (de) * 2010-12-22 2012-06-28 PMD Technologie GmbH Lichtlaufzeitkamera
DE102012203341A1 (de) * 2011-03-25 2012-09-27 Ifm Electronic Gmbh 2D3D-Beleuchtung

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021123666A1 (de) 2021-09-14 2023-03-16 Infineon Technologies Ag Vorrichtung und verfahren zur laufzeiterfassung einer szene

Also Published As

Publication number Publication date
DE102013203088A1 (de) 2014-08-28

Similar Documents

Publication Publication Date Title
DE102013225676B4 (de) Lichtlaufzeitkamera mit einer Bewegungserkennung
DE602005006080T2 (de) Reichweitenbildsensor
DE102011089629B4 (de) Lichtlaufzeitkamera und Verfahren zum Betreiben einer solchen
DE102014214733B3 (de) Lichtlaufzeitsensor mit einer Vorrichtung zur Ladungskompensation
DE102010003843A1 (de) Entfernungsmessgerät mit homogenisierender Messauswertung
WO2007134730A1 (de) Distanzmessverfahren und distanzmesser zur erfassung der räumlichen abmessung eines zieles
DE102014013099B4 (de) Verfahren und Vorrichtung zur vereinfachten Erfassung eines Tiefenbildes
DE102013203088B4 (de) Lichtlaufzeitkamerasystem
DE102012204512A1 (de) Vorrichtung und Verfahren zur Phasenmessung eines modulierten Lichts
DE102013207653B4 (de) Lichtlaufzeitkamerasystem
DE102014207163A1 (de) Lichtlaufzeitkamerasystem
DE102016213217A1 (de) Lichtlaufzeitkamerasystem
DE102013208804B4 (de) Lichtlaufzeitsensor mit zuschaltbarer Hintergrundlichtunterdrückung
DE102012223298A1 (de) Lichtlaufzeitsensor mit nichtlinearen Referenzpixeln
DE102013207654B4 (de) Lichtlaufzeitkamerasystem
DE102014205585B4 (de) Verfahren zum Betreiben einer Lichtlaufzeitkamera und Lichtlaufzeitkamerasystem
DE102013207648B4 (de) Lichtlaufzeitkamerasystem
DE102013208805B4 (de) Lichtlaufzeitsensor mit Zwischenspeicher
DE102020123537B4 (de) Lichtlaufzeitkamerasystem
DE102015225192A1 (de) Lichtlaufzeitmesssystem mit Überreichweitenerkennung
DE102016219170A1 (de) Lichtlaufzeitkamerasystem
DE102017200879B4 (de) Lichtlaufzeitkamera und Verfahren zum Betreiben einer solchen
DE102013207650B4 (de) Lichtlaufzeitkamerasystem
DE102013218647A1 (de) Lichtlaufzeitsensor mit variabler Kennlinie
DE102016214167B4 (de) Lichtlaufzeitkamerasystem

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R081 Change of applicant/patentee

Owner name: PMDTECHNOLOGIES AG, DE

Free format text: FORMER OWNER: IFM ELECTRONIC GMBH, 45128 ESSEN, DE

R082 Change of representative

Representative=s name: SCHUHMANN, JOERG, DIPL.-PHYS. DR. RER. NAT., DE

R020 Patent grant now final
R081 Change of applicant/patentee

Owner name: PMDTECHNOLOGIES AG, DE

Free format text: FORMER OWNER: PMDTECHNOLOGIES AG, 57076 SIEGEN, DE

R082 Change of representative

Representative=s name: SCHUHMANN, JOERG, DIPL.-PHYS. DR. RER. NAT., DE