DE102014204423B4 - Time of flight camera system - Google Patents
Time of flight camera system Download PDFInfo
- Publication number
- DE102014204423B4 DE102014204423B4 DE102014204423.5A DE102014204423A DE102014204423B4 DE 102014204423 B4 DE102014204423 B4 DE 102014204423B4 DE 102014204423 A DE102014204423 A DE 102014204423A DE 102014204423 B4 DE102014204423 B4 DE 102014204423B4
- Authority
- DE
- Germany
- Prior art keywords
- distance
- objects
- time
- uniqueness
- obj
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/08—Systems determining position data of a target for measuring distance only
- G01S17/32—Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
- G01S17/36—Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated with phase comparison between the received signal and the contemporaneously transmitted signal
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
- G01S17/894—3D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4808—Evaluating distance, position or velocity data
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Electromagnetism (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
Verfahren zum Betreiben eines Lichtlaufzeitkamerasystems,bei dem eine Objektentfernung anhand einer Phasenverschiebung eines emittierten und empfangenen Modulationssignals ermittelt wird,wobei ein Erfassungsbereich des Lichtlaufzeitkamerasystems sich über mindestens zwei Eindeutigkeitsbereiche (Zn), die sich aus der Wellenlänge des Modulationssignals ergeben, erstreckt,und wobei in einer Initialisierungsphase mit unterschiedlichen Modulationsfrequenzen ein 3D-Modell der Umgebung und der darin befindlichen Objekte (40) erfasst wird, wobei die im Erfassungsbereich erkannten Objekte (40) im Erfassungsbereich dem jeweiligen Eindeutigkeitsbereichen (Zn) zugeordnet werden,und wobei neben der Objektentfernung mindestens ein Parameter (ParObj, hObj, rimax, refObj) entfernungsrelevanter Obj ektattribute für jedes erkannte Objekt (40) erfasst wird, und eine der Initialisierungsphase nachfolgende Positionsbestimmung der Objekte mit folgenden Schritten durchgeführt wird:a) Ermittlung von Entfernungswerten (d, Δφ(tL)) nur mit einer Modulationsfrequenz,b) Ermittlung von Raumpositionen (Px) der erkannten Objekte (40),c) Erfassung des mindestens einen Parameters (hObj, ri,maxrefObj) der entfernungsrelevanten Objektattribute der erkannten Objekte (40),d) Überprüfung, ob der Parameter (hObj, ri) der entfernungsrelevanten Objektattribute für die Raumposition des Objekts (40) plausibel ist,e) Ausgabe einer gültigen Raumposition (Px), wenn die Raumposition (Px) plausibel ist.A method for operating a time-of-flight camera system in which an object distance is determined on the basis of a phase shift of an emitted and received modulation signal, a detection area of the time-of-flight camera system extending over at least two unambiguous areas (Zn) resulting from the wavelength of the modulation signal, and in one Initialization phase with different modulation frequencies, a 3D model of the environment and the objects (40) located therein is recorded, the objects (40) recognized in the detection area being assigned to the respective uniqueness areas (Zn) in the detection area, and where, in addition to the object distance, at least one parameter ( ParObj, hObj, rimax, refObj) distance-relevant object attributes are recorded for each recognized object (40), and a position determination of the objects following the initialization phase is carried out with the following steps: a) Determination of distance gs values (d, Δφ (tL)) only with one modulation frequency, b) determination of spatial positions (Px) of the detected objects (40), c) detection of the at least one parameter (hObj, ri, maxrefObj) of the distance-relevant object attributes of the detected objects ( 40), d) Check whether the parameter (hObj, ri) of the distance-relevant object attributes is plausible for the spatial position of the object (40), e) Output of a valid spatial position (Px) if the spatial position (Px) is plausible.
Description
Die Erfindung betrifft ein Lichtlaufzeitkamerasystem und ein Verfahren zum Betreiben eines solchen nach Gattung der unabhängigen Ansprüche.The invention relates to a time-of-flight camera system and a method for operating such a system according to the preamble of the independent claims.
Mit Lichtlaufzeitkamerasystemen sollen nicht nur Systeme umfasst sein, die Entfernungen direkt aus der Lichtlaufzeit ermitteln, sondern insbesondere auch alle Lichtlaufzeit- bzw. 3D-TOF-Kamerasysteme, die eine Laufzeitinformation aus der Phasenverschiebung einer emittierten und empfangenen Strahlung gewinnen. Als Lichtlaufzeit bzw. 3D-TOF-Kameras sind insbesondere PMD-Kameras mit Photomischdetektoren (PMD) geeignet, wie sie u.a. in den Anmeldungen
Die
Aus der
Die
Aufgabe der Erfindung ist es, die Entfernungsmessung eines Lichtlaufzeitkamerasystems zu verbessern.The object of the invention is to improve the distance measurement of a time-of-flight camera system.
Die Aufgabe wird in vorteilhafter Weise durch das erfindungsgemäße Verfahren und Lichtlaufzeitkamerasystem nach Gattung der unabhängigen Ansprüche gelöst.The object is achieved in an advantageous manner by the method and time-of-flight camera system according to the invention according to the preamble of the independent claims.
Vorteilhaft ist ein Verfahren zum Betreiben eines Lichtlaufzeitkamerasystems vorgesehen, bei dem eine Objektentfernung anhand einer Phasenverschiebung eines emittierten und empfangenen Modulationssignals ermittelt wird, wobei ein Erfassungsbereich des Lichtlaufzeitkamerasystems sich über mindestens zwei Eindeutigkeitsbereiche, die sich aus der Wellenlänge des Modulationssignals ergeben, erstreckt, und wobei in einer Initialisierungsphase Objekte im Erfassungsbereich erkannt und den jeweiligen Eindeutigkeitsbereichen zugeordnet werden, und wobei mindestens ein entfernungsabhängiger Parameter für jedes erkannte Objekt erfasst wird. Nach der Initialisierungsphase wird die Position der Objekte bestimmt, indem Entfernungswerte ausgehend von den erfassten Phasenverschiebungen ermittelt werden. Hiernach wird mindestens ein entfernungsabhängiger Parameter der erkannten Objekte erfasst, wobei die Raumposition als plausibel ausgegeben wird, wenn der entfernungsabhängige Parameter plausibel ist.A method for operating a time-of-flight camera system is advantageously provided in which an object distance is determined on the basis of a phase shift of an emitted and received modulation signal, a detection area of the time-of-flight camera system extending over at least two uniqueness areas resulting from the wavelength of the modulation signal, and in an initialization phase, objects are recognized in the detection area and assigned to the respective uniqueness areas, and at least one distance-dependent parameter is detected for each detected object. After the initialization phase, the position of the objects is determined in that distance values are determined on the basis of the detected phase shifts. At least one distance-dependent parameter of the detected objects is then recorded, the spatial position being output as plausible if the distance-dependent parameter is plausible.
Dieses Vorgehen hat den Vorteil, dass so genannte Überreichweiten, d.h. eine Zuordnung eines Objektes in einen falschen Entfernungsbereich ohne zusätzliche Entfernungsmessungen erkannt werden können.This procedure has the advantage that so-called overreaches, i.e. an assignment of an object to an incorrect distance range, can be recognized without additional distance measurements.
Vorteilhaft wird als entfernungsabhängiger Parameter eine Dimensionsgröße der erkannten Objekte verwendet.A dimension size of the recognized objects is advantageously used as a distance-dependent parameter.
In einer weiteren Ausgestaltung ist es vorgesehen, dass einer der entfernungsabhängigen Parameter ein Richtungsvektor oder der Abstand zwischen zwei Raumpositionen eines Objekts in aufeinanderfolgenden 3D-Bildern ist. Durch dieses Vorgehen ist in gewissen Grenzen auch eine Prädiktion der Raumposition möglich.In a further embodiment it is provided that one of the distance-dependent parameters is a direction vector or the distance between two spatial positions of an object in successive 3D images. This procedure also enables the spatial position to be predicted within certain limits.
Ferner ist es nützlich, die letzte ermittelte Raumposition nur dann als plausibel zu bewerten, wenn die Länge des Richtungsvektors einen maximalen Abstandswert nicht überschreitet. Hierdurch ist es in einfacher Art und Weise möglich zu erkennen, ob ein Objekt einen zugeordneten Eindeutigkeitsbereich verlässt.It is also useful to assess the last determined spatial position as plausible only if the length of the direction vector does not exceed a maximum distance value. This makes it possible to identify in a simple manner whether an object is leaving an assigned uniqueness area.
Vorteilhaft lässt sich der maximale Abstandswert aus den Bildfolgenraten und einer maximal möglichen Geschwindigkeit der zu messenden Objekte ableitet.The maximum distance value can advantageously be derived from the image sequence rates and a maximum possible speed of the objects to be measured.
Auch ist es denkbar, den maximalen Abstandswert aus der Bildfolgenrate und einer maximal möglichen Beschleunigung der zu messenden Objekte abzuleiten.It is also conceivable to derive the maximum distance value from the image sequence rate and a maximum possible acceleration of the objects to be measured.
Ferner kann der maximale Abstand zusätzlich oder alternativ anhand der Reflektivität
In einer weiteren vorteilhaften Ausgestaltung ist es vorgesehen, die Grenzen der Eindeutigkeitsbereiche derart zu verschieben, dass die erfassten Objekte einen maximalen Abstand zu den Grenzen des ihnen zugeordneten Eindeutigkeitsbereichs aufweisen. Durch dieses Vorgehen wird vermieden, dass im üblichen Aktionsradius der Objekte ein Wechsel des Eindeutigkeitsbereichs stattfindet.A further advantageous embodiment provides for the boundaries of the unambiguous areas to be shifted in such a way that the detected objects are at a maximum distance from the boundaries of the unambiguous area assigned to them. This procedure avoids a change in the uniqueness area in the usual action radius of the objects.
Ebenso vorteilhaft ist es, wenn die Länge der Eindeutigkeitsbereiche durch Ändern der Modulationswellenlänge des Modulationssignals derart verändert wird, dass alle erkannten Objekte im geänderten Eindeutigkeitsbereich liegen.It is also advantageous if the length of the uniqueness areas is changed by changing the modulation wavelength of the modulation signal in such a way that all recognized objects lie in the changed uniqueness area.
In einer weiteren Ausgestaltung ist es vorgesehen, eine Querbewegung der Objekte und/oder eine Drehbewegung des Lichtlaufzeitkamerasystems zu ermitteln und bei der Plausibilisierung der Raumposition zu berücksichtigen.In a further embodiment, it is provided that a transverse movement of the objects and / or a rotary movement of the time-of-flight camera system is determined and taken into account in the plausibility check of the spatial position.
Von Vorteil ist ebenso ein Lichtlaufzeitkamerasystem mit einem Lichtlaufzeitsensor, einer Beleuchtung und einem Modulator, der mit dem Lichtlaufzeitsensor und der Beleuchtung verbunden ist, und mit einer Auswerteeinheit, die zur Durchführung eines der vorgenannten Verfahren ausgebildet ist.A time-of-flight camera system with a time-of-flight sensor, lighting and a modulator, which is connected to the time-of-flight sensor and the lighting, and with an evaluation unit that is designed to carry out one of the aforementioned methods is also advantageous.
Nachfolgend wird die Erfindung anhand von Ausführungsbeispielen unter Bezugnahme auf die Zeichnungen näher erläutert.The invention is explained in more detail below on the basis of exemplary embodiments with reference to the drawings.
Es zeigen:
-
1 schematisch das grundlegende Prinzip der Photomischdetektion, -
2 eine Ladungsverteilung aufgrund der Phasenverschiebung, -
3 eine Distanzmessung mit einer Wellenlänge, -
4 eine Messung mit mehreren Eindeutigkeitsbereichen, -
5 eine mögliche Bestimmung einer Entfernung anhand der Objekthöhe, -
6 eine Objekttracking mit Wechsel des Eindeutigkeitsbereichs, -
7 ein mögliches Ablaufschema einer Entfernungsmessung, -
8 eine Anpassung der Grenzen der Eindeutigkeitsbereiche anhand der Objektposition, -
9 eine Erfassungssituation in einer Automobilanwendung.
-
1 schematically the basic principle of photonic mixing detection, -
2 a charge distribution due to the phase shift, -
3rd a distance measurement with a wavelength, -
4th a measurement with several uniqueness areas, -
5 a possible determination of a distance based on the object height, -
6th an object tracking with a change in the uniqueness area, -
7th a possible flow chart of a distance measurement, -
8th an adaptation of the boundaries of the uniqueness areas based on the object position, -
9 a detection situation in an automotive application.
Bei der nachfolgenden Beschreibung der bevorzugten Ausführungsformen bezeichnen gleiche Bezugszeichen gleiche oder vergleichbare Komponenten.In the following description of the preferred embodiments, the same reference symbols designate the same or comparable components.
Das Lichtlaufzeitkamerasystem 1 umfasst eine Sendeeinheit bzw. ein Beleuchtungsmodul
Der Lichtlaufzeitsensor
Das Messprinzip dieser Anordnung basiert im Wesentlichen darauf, dass ausgehend von der Phasenverschiebung des emittierten und empfangenen Lichts die Laufzeit und somit die zurückgelegte Wegstrecke des empfangenen Lichts ermittelt werden kann. Zu diesem Zwecke werden die Lichtquelle
Entsprechend des eingestellten Modulationssignals sendet die Lichtquelle
Als Beleuchtungsquelle bzw. Lichtquelle
Das Grundprinzip der Phasenmessung ist schematisch in
Zur genaueren Phasenbestimmung und zur Abdeckung des vollen 360°-Winkelbereiches wird vorzugsweise eine zweite Messung mit einem um 90° verschobenen Modulationssignal durchgeführt. Hierbei wird entweder der Sensor oder die Beleuchtung um diesen Winkel in der Phase verschoben. Der Phasenwinkel bzw. die laufzeitbedingten Phasenverschiebung
Aus der laufzeitbedingten Phasenverschiebung
Der Abstand
Wie in
Um auch für größere Objektabstände
Erfindungsgemäß ist jedoch vorgesehen, vorzugsweise nur mit einer Modulationsfrequenz zu messen und zur exakten Entfernungsbestimmung
In
Eine mögliche Abschätzung der bereits durchlaufenden Perioden kann beispielsweise anhand einer bekannten Objektdimension erfolgen.A possible estimation of the periods that have already passed through can be made, for example, on the basis of a known object dimension.
In
Ferner lässt sich aus dem folgenden Zusammenhang
Statt der Höhe
In einem typischen Anwendungsfall kann die Lichtlaufzeitkamera beispielsweise mit einer Modulationsfrequenz von 75 MHz und somit einem Modulationswellenlänge von 4 m betrieben werden. Für die Entfernungsmessung ist dem Kamerasystem die Größe einer Person mit beispielsweise 1,80 m bekannt. Diese Person wird im Erfassungsbereich der Lichtlaufzeitkamera erfasst und aus den ermittelten Messgrößen, beispielsweise Entfernungswert
Die Genauigkeit der geometrischen Bestimmung des Abstands hängt jedoch maßgeblich davon ab, ob die Objekthöhe während den Messungen konstant bleibt. Bei sich bewegenden Personen ist dies nicht der Fall, insofern dient die geometrische Betrachtung vornehmlich nur zur Abschätzung. Die exakte Entfernungsbestimmung erfolgt über das Lichtlaufzeitverfahren. However, the accuracy of the geometric determination of the distance depends largely on whether the object height remains constant during the measurements. This is not the case with moving people, so the geometrical consideration is primarily only used for estimation. The exact distance is determined using the time-of-flight method.
Besonders vorteilhaft lässt sich dieses Verfahren für Computerspiele und Spielekonsolen zur Erkennung von Spielerpersonen im Raum einsetzen. Vorzugsweise wird in einer Initialisierungsphase die Standorte P0 einer oder mehrerer Personen und ggf. Gegenstände im Raum erfasst. Ausgehend von diesem 3D-Modell können alle weiteren 3D-Positionen P0+dt beispielsweise mit Hilfe eines Objekttrackings gekoppelt werden.This method can be used particularly advantageously for computer games and game consoles for recognizing players in the room. The locations P 0 of one or more people and possibly objects in the room are preferably recorded in an initialization phase. Starting from this 3D model, all further 3D positions P 0 + dt can be coupled, for example with the aid of object tracking.
Ein derartiges Vorgehen ist beispielhaft in
Alternativ zum Koppeln kann auch immer der aktuelle Entfernungswert di verwendet werden:
Diese Form der Entfernungsberechnung ist grundsätzlich anwendbar für Positionsänderungen innerhalb einer Zone. Im dargestellten Beispiel verlässt jedoch das Objekt 40 bei der Bewegung von der dritten auf die vierte Position P4 den initialen Eindeutigkeitsbereich Zi und befindet sich dann im dritten Eindeutigkeitsbereich Z2. Mit der reinen Wegkopplung der Daten wird jedoch eine scheinbare vierte Position P'4 innerhalb des initialen zweiten Eindeutigkeitsbereichs Z1 ermittelt.This form of distance calculation can basically be used for position changes within a zone. In the example shown, however, when moving from the third to the fourth position P 4 , the
Um derartige Unstimmigkeiten erkennen zu können, sind verschiedene Herangehensweisen denkbar.Various approaches are conceivable for identifying such inconsistencies.
Ein mögliches Vorgehen ist, die Richtungsvektoren ri bzw. Abstände |ri| zwischen zwei aufeinander folgende Punkte auf Plausibilität zu prüfen. Ausgehend vom Beispiel einer sich bewegenden Person kann davon ausgegangen werden, dass keine Geschwindigkeiten größer als 10 m/s erreicht werden. Bei einer Framerate von 50 Hz bedeutet dies, dass zwischen zwei aufeinanderfolgenden Frames i und i+1 maximal 0,2 m zurückgelegt werden können. Der Richtungsvektor r'4 im skizzierten Fall wäre dann deutlich länger als 0,2 m und insofern unplausibel. Bei Vorliegen eines unplausiblen Werts könnte dann beispielsweise geprüft werden, ob ein Zonenwechsel vorliegt. Nach erneutem Berechnen der Position mit dem nächst höheren ,Zonenfaktor' n + 1 läge die Länge des Richtungsvektors r4 unterhalb des Grenzwertes und wäre somit plausibel und die berechnete Position P4 könnte als gültig ausgegeben werden.One possible procedure is to use the direction vectors r i or distances | r i | to check for plausibility between two successive points. Based on the example of a moving person, it can be assumed that no speeds greater than 10 m / s can be achieved. At a frame rate of 50 Hz, this means that a maximum of 0.2 m can be covered between two consecutive frames i and i + 1. The direction vector r ' 4 in the sketched case would then be significantly longer than 0.2 m and therefore implausible. If there is an implausible value, it could then be checked, for example, whether a zone change has occurred. After recalculating the position with the next higher 'zone factor' n + 1, the length of the direction vector r 4 would be below the limit value and would therefore be plausible and the calculated position P 4 could be output as valid.
Eine weitere Möglichkeit der Kontrolle besteht darin, ausgehend von dem ermittelten Abstand eine Objektdimension vorzugsweise die Objekthöhe
Angenommen die Person im Punkt P4 ist tatsächlich 4,1 m vom Kamerasystem entfernt. Für diese Entfernung ermittelt das Kamerasystem einen Entfernungswert von 0,1 m. Mit der zuvor beschriebenen Methode würde dann ein Abstand
Ob dieser Entfernungswert plausibel ist, lässt sich besonders vorteilhaft durch Rückrechnen der Körpergröße überprüfen:
Die Kameradaten
Die ermittelte Position P'4 ist somit aufgrund der unplausiblen Objektdimension ungültig.The determined position P ' 4 is therefore invalid due to the implausible object dimension.
Prinzipiell sind vielfältige Objektattribute denkbar, deren Auswertung zur Prädiktion des Eindeutigkeitsbereichs bzw. des Übergangs zwischen den Eindeutigkeitsbereichen bzw. Zonen verwendet werden können.In principle, diverse object attributes are conceivable, the evaluation of which can be used to predict the uniqueness area or the transition between the uniqueness areas or zones.
Neben der reinen Positionserkennung kann auch ein Geschwindigkeitsvektor des Objekts bestimmt werden, um so beispielsweise ein Verlassen des Eindeutigkeitsbereichs vorherzusagen.In addition to the pure position detection, a speed vector of the object can also be determined in order to predict, for example, an exit from the unambiguous range.
Des Weiteren kann auch eine ermittelte Beschleunigung der Objekte nur in bestimmten Eindeutigkeitsbereichen plausibel sein.Furthermore, a determined acceleration of the objects can only be plausible in certain unambiguous areas.
Auch über das Reflektionsvermögen
Zur Bestimmung des gültigen Eindeutigkeitsbereichs können somit eine Vielzahl charakteristischer Eigenschaften der detektierten Objekte genutzt werden. Die Plausiblilisierung wird damit in einen „Objektraum“ bzw. „Attributraum“ der Objekte verschoben. Dieses Vorgehen hat den Vorteil, dass die Attribute parallel zur Entfernungsmessung ohne zusätzliche Messzeit erfasst und verarbeitet werden können. Dabei ist zu beachten, dass die Attribute der Objekte in der Regel nicht statisch über deren Lebensdauer sind. Die Prädiktion ist im Allgemeinen unscharf und kann somit in der Regel nicht allein für eine Entfernungsbestimmung herangezogen werden.A large number of characteristic properties of the detected objects can thus be used to determine the valid uniqueness range. The plausibility is thus shifted to an “object space” or “attribute space” of the objects. This procedure has the advantage that the attributes can be recorded and processed parallel to the distance measurement without additional measurement time. It should be noted that the attributes of the objects are usually not static over their lifetime. The prediction is generally fuzzy and can therefore usually not be used solely to determine the distance.
In einer bevorzugten Ausführung ist es denkbar, in einer Initialisierungsphase quasi in einem ,key frame' ein 3D-Modell der Umgebung und der darin befindlichen detektierbaren Objekte zu erfassen. In dieser Initialisierungsphase können ggf. zusätzliche Messmethoden zur Entfernungsbestimmung herangezogen werden, um ein möglichst exaktes 3D-Modell erstellen zu können. Insbesondere kann die Initialisierungsphase mit unterschiedlichen Modulationsfrequenzen durchgeführt werden.In a preferred embodiment, it is conceivable, in an initialization phase, to acquire a 3D model of the environment and the detectable objects located therein, quasi in a 'key frame'. In this initialization phase, additional measurement methods can possibly be used to determine the distance in order to be able to create a 3D model that is as precise as possible. In particular, the initialization phase can be carried out with different modulation frequencies.
Ausgehend von den in der Initialisierungsphase erfassten Informationen können vorzugsweise applikationsabhängig geeignete Objektattribute für die spätere Plausibilisierung oder dem Objekttracking ausgewählt werden. Insbesondere können ausgehend von dem ersten initialen 3D-Modell Objektdimensionen bestimmt und den jeweiligen Objekten zugeordnet werden.On the basis of the information recorded in the initialization phase, suitable object attributes can preferably be selected, depending on the application, for the later plausibility check or object tracking. In particular, object dimensions can be determined on the basis of the first initial 3D model and assigned to the respective objects.
Gelangen während der Messungen weitere Objekte in den Erfassungsbereich der Lichtlaufzeitkamera kann es ggf. notwendig sein, die Initialisierung erneut durchzuführen. Grundsätzlich ist es auch denkbar, nach einer bestimmten Anzahl von Messungen die Initialisierung unabhängig von der Messsituation durchzuführen, um erst gar keine Inkonsistenz aufkommen zu lassen. Ebenso können Initialmessungen immer erst dann durchgeführt werden, wenn die Anzahl der unplausiblen Positionsmessungen einen Grenzwert überschreiten.If further objects come into the detection range of the time-of-flight camera during the measurements, it may be necessary to carry out the initialization again. In principle, it is also conceivable to carry out the initialization independently of the measurement situation after a certain number of measurements in order to avoid any inconsistencies at all. Likewise, initial measurements can only be carried out if the number of implausible position measurements exceeds a limit value.
In
Die ermittelten Objekte werden vorzugsweise in Objektlisten OL mitsamt allen relevanten Daten und Parametern gelistet. Nach der Initialisierung ist das System bereit zur Durchführung von Entfernungsmessungen.The objects determined are preferably listed in object lists OL together with all relevant data and parameters. After initialization, the system is ready to take distance measurements.
In einem ersten Schritt
Ist die Objektposition Px unplausibel kann je nach Applikation vorgesehen sein, den Wert als ungültig auszugeben oder es besteht die Möglichkeit die Objektposition Px auf einen plausiblen Wert zu korrigieren. Zur Korrektur stehen, wie bereits beschrieben, unterschiedliche Methoden zur Verfügung, beispielsweise kann die Korrektur über einen Wechsel des Eindeutigkeitsbereich Z erfolgen. Mit dieser Korrektur werden für die betroffenen Objekte die Positionen Px neu berechnet und mit den entfernungsrelevanten Parametern auf Plausibilität geprüft. Ob ggf. eine weitere Korrekturschleife erlaubt ist, hängt im Wesentlichen davon ab, wie zeitkritisch die Messaufgabe ist.If the object position P x is implausible, provision can be made, depending on the application, to output the value as invalid, or it is possible to correct the object position P x to a plausible value. As already described, different methods are available for correction, for example the correction can be made by changing the uniqueness area Z. With this correction, the positions P x are recalculated for the objects concerned and checked for plausibility with the distance-relevant parameters. Whether a further correction loop is permitted depends essentially on how time-critical the measurement task is.
Nach Ermittlung der Positionen oder auch parallel zur den Positionsberechnungen können weitere Entfernungsmessungen durchgeführt. Die Positionen der Objekte und ggf. weitere Objektattribute können über Objektlisten einer nachfolgenden Applikation zur Verfügung gestellt werden.After determining the positions or in parallel with the position calculations, further distance measurements can be carried out. The positions of the objects and possibly other object attributes can be made available to a subsequent application via object lists.
In einer weiteren Ausgestaltung gemäß
Erfindungsgemäß ist es vorgesehen, beispielsweise durch Verändern der Phasenlage φ der Beleuchtung
Bei mehreren Objekten können andere bewährte Optimierungs-Verfahren, beispielweise „least square“-Algorithmen, zur Anwendung kommen.In the case of several objects, other proven optimization methods, for example “least square” algorithms, can be used.
Sind Objekte über mehrere Eindeutigkeitsbereiche verteilt, kann es zusätzlich zur Verschiebung der Eindeutigkeitsgrenzen auch vorgesehen sein, die Modulationsfrequenz und somit die Länge
Eine weitere Anwendung ist in
Für eine Automobilanwendung ist es notwendig, Objektentfernungen auch über größere Distanzen sicher zu erkennen, insofern ist es in der Regel erforderlich, wenigstens zwei Modulationsfrequenz für die Erweiterung des Eindeutigkeitsbereichs zu verwenden. Beispielsweise ergibt sich für Modulationssignale mit den Wellenlängen 11 m und 20 m ein gemeinsamer Eindeutigkeitsbereich von 220 m. Mit dem erfindungsgemäßen Vorgehen ist es nun möglich, für bestimmte, vorbekannte Objekte die Entfernungsmessung zu vereinfachen.For an automobile application, it is necessary to reliably detect object distances even over greater distances, so it is generally necessary to use at least two modulation frequencies to expand the uniqueness range. For example, a common uniqueness range of 220 m results for modulation signals with the wavelengths 11 m and 20 m. With the procedure according to the invention, it is now possible to simplify the distance measurement for certain previously known objects.
Bei den in
Für die Erzeugung eines 3D-Bildes werden mehrere Aufnahmebilder bzw. Frames mit unterschiedlichen Phasenlagen und Modulationsfrequenzen aufgenommen. Anhand des erzeugten 3D-Bildes werden über Objekterkennungsverfahren einzelne Objekte identifiziert, deren Dimensionen und 3D-Positionen bestimmt. Diese Daten werden vorzugsweise in Objektlisten zusammengefasst.To generate a 3D image, several recorded images or frames with different phase positions and modulation frequencies are recorded. Based on the generated 3D image, individual objects are identified using object recognition processes, and their dimensions and 3D positions are determined. These data are preferably summarized in object lists.
Für die Objekte, deren Attribute vorbekannt sind, ist es nun vorgesehen, zumindest für eine bestimmte Anzahl von Frames, die Entfernungsmessung zu vereinfachen, indem die Entfernung vornehmlich anhand der Veränderung der Parameter der entfernungsrelevanten Attribute bestimmt wird. Als entfernungsrelevante Attribute können beispielsweise Größe
BezugszeichenlisteList of reference symbols
- 1010
- BeleuchtungsmodulLighting module
- 1212th
- Beleuchtunglighting
- 2222nd
- LichtlaufzeitsensorTime of flight sensor
- 3030th
- Modulatormodulator
- 3535
- Phasenschieber, BeleuchtungsphasenschieberPhase shifter, lighting phase shifter
- Δφ(tL)Δφ (tL)
- laufzeitbedingte Phasenverschiebungphase shift due to runtime
- φvarφvar
- PhasenlagePhasing
- φ0φ0
- BasisphaseBase phase
- M0M0
- ModulationssignalModulation signal
- p1p1
- erste Phasefirst phase
- p2p2
- zweite Phasesecond phase
- Sp1Sp1
- Sendesignal mit erster PhaseTransmission signal with first phase
- Sp2Sp2
- Empfangssignal mit zweiter PhaseReceived signal with second phase
- λλ
- Wellenlängewavelength
- aa
- ObjektabstandObject distance
- dd
- Objektdistanz, Distanz im EindeutigkeitsbereichObject distance, distance in the uniqueness area
- dEBdEB
- Länge EindeutigkeitsbereichLength of uniqueness area
- hObjhObj
- Objekthöhe, ObjektdimensionObject height, object dimension
- refObjrefObj
- Reflektivität eines ObjektsReflectivity of an object
- ff
- BrennweiteFocal length
- yy
- BildhöheImage height
- PP.
- RaumpositionSpatial position
- ZnZn
- Zone, EindeutigkeitsbereichZone, uniqueness area
Claims (11)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102014204423.5A DE102014204423B4 (en) | 2014-03-11 | 2014-03-11 | Time of flight camera system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102014204423.5A DE102014204423B4 (en) | 2014-03-11 | 2014-03-11 | Time of flight camera system |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102014204423A1 DE102014204423A1 (en) | 2015-09-17 |
DE102014204423B4 true DE102014204423B4 (en) | 2021-06-02 |
Family
ID=54010108
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102014204423.5A Active DE102014204423B4 (en) | 2014-03-11 | 2014-03-11 | Time of flight camera system |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102014204423B4 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6773724B2 (en) | 2018-06-13 | 2020-10-21 | ファナック株式会社 | Distance measuring device that outputs accuracy information |
DE102019122891A1 (en) * | 2019-08-27 | 2021-03-04 | Basler Ag | Multipath and noise reduction for time-of-flight cameras |
CN116400379B (en) * | 2023-06-08 | 2023-09-12 | 合肥国家实验室 | Three-dimensional imaging system and three-dimensional imaging method of single-photon laser radar |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1927867A1 (en) * | 2006-12-02 | 2008-06-04 | Sick Ag | Optoelectronic multiple plane sensor and method for detecting objects |
DE102010003409A1 (en) * | 2010-03-29 | 2011-09-29 | Ifm Electronic Gmbh | Time-of-flight camera e.g. three-dimensional time-of-flight camera, operating method for car, involves detecting phase shift of electromagnetic radiation for frequencies that are formed adjacent to difference of phase shifts |
DE102013207650A1 (en) * | 2012-05-21 | 2013-11-21 | Ifm Electronic Gmbh | Method for operating light-duration camera system, involves detecting phase shift of emitted- or received signal for modulation frequency in phase measuring cycle, where multiple phase measuring cycles are implemented |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19704496C2 (en) | 1996-09-05 | 2001-02-15 | Rudolf Schwarte | Method and device for determining the phase and / or amplitude information of an electromagnetic wave |
US6587186B2 (en) | 2000-06-06 | 2003-07-01 | Canesta, Inc. | CMOS-compatible three-dimensional image sensing using reduced peak energy |
ATE390715T1 (en) | 2005-10-19 | 2008-04-15 | Suisse Electronique Microtech | DEVICE AND METHOD FOR DEMODULATION OF MODULATED ELECTROMAGNETIC WAVE FIELDS |
-
2014
- 2014-03-11 DE DE102014204423.5A patent/DE102014204423B4/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1927867A1 (en) * | 2006-12-02 | 2008-06-04 | Sick Ag | Optoelectronic multiple plane sensor and method for detecting objects |
DE102010003409A1 (en) * | 2010-03-29 | 2011-09-29 | Ifm Electronic Gmbh | Time-of-flight camera e.g. three-dimensional time-of-flight camera, operating method for car, involves detecting phase shift of electromagnetic radiation for frequencies that are formed adjacent to difference of phase shifts |
DE102013207650A1 (en) * | 2012-05-21 | 2013-11-21 | Ifm Electronic Gmbh | Method for operating light-duration camera system, involves detecting phase shift of emitted- or received signal for modulation frequency in phase measuring cycle, where multiple phase measuring cycles are implemented |
Also Published As
Publication number | Publication date |
---|---|
DE102014204423A1 (en) | 2015-09-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2140287B1 (en) | Driver assistance system and method for determining the plausibility of objects | |
EP1557693B1 (en) | Method for tracking objects | |
DE102013104443B4 (en) | Traffic monitoring system for measuring the speed and allocation of moving vehicles in a multi-target recording module | |
DE19629775B4 (en) | Method and device for monitoring the environment of a vehicle and detecting a failure of the monitoring device | |
DE102010003409B4 (en) | Time of flight camera | |
EP1531343B1 (en) | Method for tracking objects | |
DE102010012811B4 (en) | Method for measuring speeds and associating the measured speeds with appropriate vehicles by collecting and merging object tracking data and image tracking data | |
DE102013207649B4 (en) | Time of flight camera system | |
DE112017007467T5 (en) | Method for providing interference reduction and a dynamic range of interest in a LIDAR system | |
EP1949143A2 (en) | Apparatus and method for monitoring a zone of a room, particularly for securing a hazard area of an automatically operating system | |
DE102009046108A1 (en) | camera system | |
DE102013207651A1 (en) | Time of flight camera system | |
DE102007049706A1 (en) | Method for estimating the relative motion of video objects and driver assistance system for motor vehicles | |
DE102013007886B3 (en) | Time-of-flight system with spatially separated time-of-flight receivers and distance measurement method of an object | |
DE102014204423B4 (en) | Time of flight camera system | |
EP2221640B1 (en) | Method for measuring the speed of a vehicle and visual allocation in documentation | |
DE102013207653B4 (en) | Time of flight camera system | |
DE102011075674A1 (en) | Distance determination by means of a camera sensor | |
DE102006039104A1 (en) | Method for ranging or detection of stationary objects in surroundings of road vehicle using graphic data, involves testing object hypothesis such as stationary object against object hypothesis such as flat road | |
DE102010043723A1 (en) | Camera system has illumination module that emits light whose intensity is maintained at preset value, so that luminous flux for receiving pixels of photo sensor within preset limit is set to be constant | |
DE102014207163A1 (en) | Time of flight camera system | |
DE102013207647A1 (en) | Method for operating light-time camera system, involves detecting phase shift of emitted or received signal for modulation frequency in phase measuring cycle, and performing multiple phase measurement cycles | |
DE102013007859B3 (en) | Time-of-flight system with spatially separated transmitters and distance measurement method of an object | |
DE102011017707A1 (en) | Method for detecting object e.g. concrete post in vicinity of camera for monitoring rear side region of vehicle, involves reading images captured by cameras after partially illuminating with illumination patterns | |
DE102015205927A1 (en) | Distance measuring system with time of flight measurement and triangulation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R081 | Change of applicant/patentee |
Owner name: PMDTECHNOLOGIES AG, DE Free format text: FORMER OWNER: PMDTECHNOLOGIES GMBH, 57076 SIEGEN, DE |
|
R082 | Change of representative |
Representative=s name: SCHUHMANN, JOERG, DIPL.-PHYS. DR. RER. NAT., DE |
|
R081 | Change of applicant/patentee |
Owner name: PMDTECHNOLOGIES AG, DE Free format text: FORMER OWNER: PMDTECHNOLOGIES AG, 57076 SIEGEN, DE |
|
R082 | Change of representative |
Representative=s name: SCHUHMANN, JOERG, DIPL.-PHYS. DR. RER. NAT., DE |
|
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division | ||
R020 | Patent grant now final |