DE102018209366B4 - Verfahren zur Bestimmung einer Position und/oder Orientierung einer Einrichtung - Google Patents

Verfahren zur Bestimmung einer Position und/oder Orientierung einer Einrichtung Download PDF

Info

Publication number
DE102018209366B4
DE102018209366B4 DE102018209366.0A DE102018209366A DE102018209366B4 DE 102018209366 B4 DE102018209366 B4 DE 102018209366B4 DE 102018209366 A DE102018209366 A DE 102018209366A DE 102018209366 B4 DE102018209366 B4 DE 102018209366B4
Authority
DE
Germany
Prior art keywords
orientation
dimensional
dimensional structure
marking element
environmental data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102018209366.0A
Other languages
English (en)
Other versions
DE102018209366A1 (de
Inventor
Karsten Berger
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Audi AG
Original Assignee
Audi AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Audi AG filed Critical Audi AG
Priority to DE102018209366.0A priority Critical patent/DE102018209366B4/de
Publication of DE102018209366A1 publication Critical patent/DE102018209366A1/de
Application granted granted Critical
Publication of DE102018209366B4 publication Critical patent/DE102018209366B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Automation & Control Theory (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Verfahren zur Bestimmung einer Position (7) und/oder Orientierung (6) einer Einrichtung (1), insbesondere eines Kraftfahrzeugs, wobei durch ein Erfassungsmittel (4) der Einrichtung (1) Umgebungsdaten erfasst werden, die ein in dem Umfeld der Einrichtung (1) angeordnetes Markierungselement (3) abbilden, wobei die Umgebungsdaten durch einen Verarbeitungsalgorithmus verarbeitet werden, um die relative Position (7) und/oder Orientierung (6) der Einrichtung (1) bezüglich des Markierungselements (3) zu bestimmen, wobei die Umgebungsdaten eine zweidimensionale Oberfläche (24) des Markierungselements (3), die für wenigstens zwei unterschiedliche Orientierungen (18, 19) der Oberfläche (24) bezüglich des Erfassungsmittels (4) mit voneinander unterschiedlichen Texturen (25, 26) abgebildet wird, die jeweils eine Abbildung des gleichen dreidimensionalen Musters aus einer der jeweiligen Orientierung (18, 19) zugeordneten Perspektive sind, und/oder eine dreidimensionale Struktur des Markierungselements (3) abbilden und der Verarbeitungsalgorithmus die Position (7) und/oder Orientierung (6) der Einrichtung (6) in Abhängigkeit der Textur (25, 26) und/oder der Abbildung der dreidimensionalen Struktur ermittelt, wobei in den Umgebungsdaten wenigstens zwei Teilstrukturen (15, 16, 17) der dreidimensionalen Struktur oder des dreidimensionalen Musters und/oder die Verdeckung wenigstens eines Abschnitts (13) einer ersten Teilstruktur (12) der dreidimensionalen Struktur oder des dreidimensionalen Musters durch wenigstens eine zweite Teilstruktur (11) der dreidimensionalen Struktur oder des dreidimensionalen Musters erkannt werden, wobei die Position (7) und/oder Orientierung (6) der Einrichtung (1) in Abhängigkeit der relativen Position der Teilstrukturen (15, 16, 17) oder der Verdeckung ermittelt wird.

Description

  • Die Erfindung betrifft ein Verfahren zur Bestimmung einer Position und/oder Orientierung einer Einrichtung, insbesondere eines Kraftfahrzeugs, wobei durch ein Erfassungsmittel der Einrichtung Umgebungsdaten erfasst werden, die ein in dem Umfeld der Einrichtung angeordnetes Markierungselement abbilden, wobei die Umgebungsdaten durch einen Verarbeitungsalgorithmus verarbeitet werden, um die relative Position und/oder Orientierung der Einrichtung bezüglich des Markierungselements zu bestimmen. Daneben betrifft die Erfindung ein Markierungselement und ein Kraftfahrzeug.
  • Eine automatisierte Führung von beweglichen Einrichtungen, insbesondere von Kraftfahrzeugen, gewinnt zunehmend an Relevanz. Hierbei kann die Robustheit der Führung deutlich erhöht werden, wenn Marker genutzt werden, die bestimmte Positionen und/oder Orientierungen kennzeichnen. Durch eine Erfassungseinrichtung können solche Marker erfasst werden, um mit hoher Genauigkeit die Position bzw. Orientierung der Einrichtung zu bestimmen und somit beispielsweise eine hochgenaue Führung zu einer bestimmten Sollposition, beispielsweise zu einer Parkposition, eine Ladeplatte oder Ähnlichem, zu realisieren. Problematisch ist hierbei, dass zur ausreichend genauen Bestimmung einer Position bzw. Orientierung typischerweise wenigstens zwei Marker zur gleichen Zeit erfasst werden müssen. Hierdurch ist der Aufwand zur Führung von Einrichtungen bzw. Kraftfahrzeugen durch entsprechende Marker deutlich erhöht.
  • Alternativ hierzu können natürliche Markierungen in der Umgebung genutzt werden. Ein derartiges Vorgehen ist beispielsweise aus den Druckschriften DE 10 2015 220 831 A1 und WO 2010/141209 A1 bekannt. Hierzu ist es jedoch erforderlich, die Positionen entsprechender Landmarken zunächst mit ausreichender Genauigkeit zu kartographieren, wodurch auch hierbei ein relativ großer Aufwand resultiert.
  • Die Druckschrift DE 10 2013 110 785 A1 offenbart ein Positionierungsverfahren für die Positionierung eines Mobilgerätes relativ zu einem Sicherheitsmerkmal eines Dokuments. Hierbei wird die Ist-Position des Mobilgeräts bezüglich des Dokuments anhand einer perspektivischen Verzerrung eines Dokumentmerkmals ermittelt und die Position eines Sicherheitsmerkmals bestimmt. Das Sicherheitsmerkmal kann beispielsweise ein Hologramm sein. Zur Validierung des Hologramms kann das Mobilgerät mit Hilfe eines Führungsansatzes, der auf Kimme und Korn und einem virtuellen Horizont basiert, derart positioniert werden, dass eine Ansicht des Hologramms abgebildet wird, die mit einer voraufgenommenen Ansicht übereinstimmt.
  • Ein Verfahren zur Ermittlung einer Eigenposition des Kraftfahrzeugs ist aus der Druckschrift US 2017/0016740 A1 bekannt. Hierbei werden in Bilddaten einer Kamera Landmarken erkannt, die in digitalen Kartendaten gespeichert sind. Da die Höhen, Größen, Formen und Ähnliches der Landmarken bekannt sind, können die in Bilddaten erkannten Landmarken zur Abstandsbestimmung genutzt werden.
  • Aus der Dissertation von T. Kühnl, Road Terrain Detection for Advanced Driver Assistance Systems, Universität Bielefeld, 2013, ist es bekannt, eine durch Maschinenlernen trainierte Merkmalserkennung zu nutzen, um Bildpunkte einer Kamera einer bestimmten Fahrspur zuzuordnen. Dies kann dazu verwendet werden, eine durch das eigene Fahrzeug genutzte Spur zu ermitteln.
  • Der Erfindung liegt somit die Aufgabe zugrunde, eine demgegenüber verbesserte Möglichkeit zur Positions- bzw. Orientierungsbestimmung anzugeben, die insbesondere auch mit wenigen oder einem einzigen Markierungselement eine gute Genauigkeit bei der Bestimmung der Position bzw. Orientierung der Einrichtung erreicht.
  • Die Aufgabe wird erfindungsgemäß durch ein Verfahren der eingangs genannten Art gelöst, wobei einerseits die Umgebungsdaten eine zweidimensionale Oberfläche des Markierungselements, die für wenigstens zwei unterschiedliche Orientierungen der Oberfläche bezüglich des Erfassungsmittels mit voneinander unterschiedlichen Texturen abgebildet wird, die jeweils eine Abbildung des gleichen dreidimensionalen Musters aus einer der jeweiligen Orientierung zugeordneten Perspektive sind, und/oder eine dreidimensionale Struktur des Markierungselements abbilden und der Verarbeitungsalgorithmus die Position und/oder Orientierung der Einrichtung in Abhängigkeit der Textur und/oder der Abbildung der dreidimensionalen Struktur ermittelt, wobei in den Umgebungsdaten wenigstens zwei Teilstrukturen der dreidimensionalen Struktur oder des dreidimensionalen Musters und/oder die Verdeckung wenigstens eines Abschnitts einer ersten Teilstruktur der dreidimensionalen Struktur oder des dreidimensionalen Musters durch wenigstens eine zweite Teilstruktur der dreidimensionalen Struktur oder des dreidimensionalen Musters erkannt werden, wobei die Position und/oder Orientierung der Einrichtung in Abhängigkeit der relativen Position der Teilstrukturen oder der Verdeckung ermittelt wird. Der Verarbeitungsalgorithmus kann durch mehrere Verarbeitungsparameter parametrisiert werden, die im Rahmen eines Verfahrens des Maschinenlernens ermittelt werden oder sind.
  • Im Rahmen der Erfindung wurde erkannt, dass durch Nutzung von dreidimensionalen Strukturen an Markierungselementen, also beispielsweise von Vorsprüngen oder Ausnehmungen, bzw. von Oberflächen, die blickwinkelabhängig verschiedene Texturen zeigen, also beispielsweise von Hologrammen oder durch Linsenraster bzw. Parallaxbarrieren gebildeten „Kippbildern“, eine relative Position und Orientierung des Erfassungsmittels und somit der Einrichtung bezüglich des Markierungselements besonders einfach ermittelt werden kann. Bei einer Nutzung von rein zweidimensionalen Markierungen tritt das Problem auf, dass eine relative Orientierung von Erfassungsmittel und Markierung nur aufgrund einer Stauchung der abgebildeten Markierung erkannt werden kann. Somit kann es in einigen Anwendungsfällen schwierig sein eine reine Skalierung der Markierung aufgrund einer Abstandsänderung und eine Stauchung aufgrund einer Orientierungsänderung zu unterscheiden. Daher werden im Stand der Technik mehrere Markierungen genutzt, um eine Position und Orientierung einer Einrichtung bezüglich dieser Markierungen zu bestimmen. Durch die Nutzung von blickwinkelabhängigen Texturen bzw. die Nutzung dreidimensionaler Strukturen kann zwischen diesen Fällen unterschieden werden, womit die Nutzung eines einzelnen Markierungselements ausreichend sein kann, um die Position bzw. Orientierung der Einrichtung mit ausreichender Genauigkeit zu bestimmen.
  • Ergänzend kann die Positions- bzw. Orientierungsbestimmung auch dadurch verbessert werden, dass diese Größen mit einem Verfahren des Maschinenlernens ermittelt werden. Dies kann in Verbindung mit dem vorangehend erläuterten Markierungselement mit dreidimensionaler Struktur bzw. mit orientierungsabhängiger Textur genutzt werden, Verfahren des Maschinenlernens können bei ausreichendem Training jedoch auch eine gute Genauigkeit der Positions- bzw. Orientierungsbestimmung erreichen, wenn nur ein zweidimensionaler Marker mit fester Textur genutzt wird. In diesem Fall kann das Markierungselement bzw. die Textur vorzugsweise eine vorgegebene Abmessung, insbesondere eine vorgegebene Länge und Breite, aufweisen, um eine robuste Bestimmung der Position und/oder Orientierung zu ermöglichen. Beispielsweise kann das Markierungselement die gleichen Abmessungen aufweisen, wie das zum Training des Verarbeitungsalgorithmus genutzte Markierungselement. Hierbei können Markierungselemente mit voneinander verschiedenen Abmessungen genutzt werden, wenn jeder Abmessung, also z.B. jedem Paar aus Länge und Breite, eine eindeutige Textur zugeordnet ist, sodass durch Erkennung der Textur die vorgegebenen Abmessungen bekannt sind. Die Abmessungen müssen durch den Verarbeitungsalgorithmus nicht explizit ermittelt werden, sondern der Zusammenhang zwischen Textur und Abmessung der Textur bzw. des Markierungselements in den erfassten Umgebungsdaten einerseits und der Position und/oder Orientierung andererseits kann durch den Verarbeitungsalgorithmus direkt erlernt werden.
  • Die Umgebungsdaten können durch das Erfassungsmittel zweidimensional erfasst werden. Beispielsweise können die Umgebungsdaten durch eine Kamera erfasst werden. Die Position bzw. Orientierung wird insbesondere aus einem einzelnen Bild der Kamera ermittelt. Alternativ wäre es möglich, die Umgebungsdaten derart zu erfassen, dass sie eine Tiefeninformation zu einzelnen Bildpunkten umfassen. Beispielsweise kann eine Time-of-flight-Kamera, ein Laserscanner oder Ähnliches genutzt werden. Ist eine solche Tiefeninformation vorhanden und wird ein Markierungselement mit dreidimensionaler Struktur genutzt, kann die relative Position und Orientierung mit besonders hoher Genauigkeit und/oder besonders einfach bestimmt werden.
  • Die unterschiedlichen Texturen können durch ein Hologramm oder ein Linsenraster oder eine Parallaxbarriere des Markierungselements erzeugt werden. Das Markierungselement kann beispielsweise ausschließlich aus einem Hologramm bestehen oder es kann eine Halterung umfassen, die ein Hologramm haltert. Durch Anordnung eines Linsenrasters oder einer Parallaxbarriere von einer entsprechenden Abbildung kann eine blickwinkelabhängige Bilddarstellung erreicht werden. Als Textur kann insbesondere ein blickwinkelabhängiges Bild auf der Oberfläche dargestellt werden. Prinzipiell kann es sich bei den verschiedenen Texturen um vollständig unterschiedliche Bilder handeln, so dass beispielsweise verschiedene Musterungen oder verschiedene geometrische Formen für verschiedene Blickwinkel dargestellt werden. Dies ermöglicht eine besonders einfache Unterscheidung zwischen den einzelnen Bildern und somit zwischen den einzelnen Blickrichtungen, wobei jedoch typischerweise eine relativ grobe Winkelabstufung erreicht wird.
  • Es ist auch möglich, dass die für die verschiedenen Orientierungen der Oberfläche bezüglich des Erfassungsmittels abgebildeten Texturen jeweils eine Abbildung des gleichen dreidimensionalen Musters aus einer der jeweiligen Orientierung zugeordneten Perspektive sind. Dies kann insbesondere erreicht werden, indem die Texturen durch Nutzung eines Hologramms erzeugt werden. In diesem Fall verhält sich die Oberfläche bezüglich einer Abbildung im Wesentlichen so, als wäre das dreidimensionale Muster eine tatsächlich im Bereich der Oberfläche angeordnete dreidimensionale Struktur. Somit können die im Folgenden noch genauer erläuterten Ansätze zur Auswertung von erfassten dreidimensionalen Strukturen zur Bestimmung der Position und Orientierung auch für derartige blickwinkelabhängige Texturen genutzt werden.
  • In den Umgebungsdaten werden wenigstens zwei Teilstrukturen der dreidimensionalen Struktur oder des dreidimensionalen Musters und/oder die Verdeckung wenigstens eines Abschnitts einer ersten Teilstruktur der dreidimensionalen Struktur oder des dreidimensionalen Musters durch wenigstens eine zweite Teilstruktur der dreidimensionalen Struktur oder des dreidimensionalen Musters erkannt, wobei die Position und/oder Orientierung der Einrichtung in Abhängigkeit der relativen Position der Teilstrukturen oder der Verdeckung ermittelt wird. Hierbei wird ausgenutzt, dass bei dreidimensionalen Oberflächen, insbesondere Oberflächen mit Vorsprüngen oder Vertiefungen, die insbesondere steile Wände aufweisen, vorspringende Teile der Struktur je nach Blickwinkel verschiedene Teile der weiter hintenliegenden Struktur verdecken bzw. das in verschiedenen Abständen liegende Teilstrukturen bei einer zweidimensionalen Abbildung blickwinkelabhängig und somit in Abhängigkeit der Position und Orientierung des Erfassungsmittels bezüglich des Markierungselements, relativ zueinander verschoben werden. Im Vergleich zu einem zweidimensionalen Muster können somit für eine dreidimensionale Struktur Orientierungsänderungen auch bei einer zweidimensionalen Abbildung deutlich leichter erkannt werden. Wie Vorangehend erläutert kann der gleiche Effekt auch genutzt werden, wenn durch ein Hologramm oder Ähnliches ein entsprechender Einfluss der Perspektive auf Verdeckungen bzw. relative Positionen von Teilstrukturen eines dreidimensionalen Muster blickwinkelabhängig abgebildet wird.
  • Die Position und/oder Orientierung der Einrichtung kann ergänzend oder relativ in Abhängigkeit einer Ausdehnung der Abbildung der Oberfläche und/oder der Textur und/oder eines Abschnitts der Textur und/oder der dreidimensionalen Struktur und/oder eines Abschnitts der dreidimensionalen Struktur ermittelt werden. Hierbei kann ausgenutzt werden, dass die Abbildung der Oberfläche bzw. der Textur bzw. der dreidimensionalen Struktur mit dem Abstand zwischen Erfassungsmittel und Markierungselement skaliert. Insbesondere kann zunächst wie oben erläutert eine Blickrichtung des Erfassungsmittels auf das Markierungselement und anschließend der Abstand in Abhängigkeit der Ausdehnung ermittelt werden.
  • Wie eingangs erläutert, kann es vorteilhaft sein, ein Verfahren des Maschinenlernens zu nutzen, um die Position bzw. Orientierung aus den Umgebungsdaten zu ermitteln. Als Verarbeitungsalgorithmus kann in diesem Fall beispielsweise ein neuronales Netz, insbesondere ein convolutional neural network, genutzt werden. Ein Training kann mit Hilfe von Trainingsdatensätzen erfolgen, wobei insbesondere ein Verfahren der Fehlerrückführung bzw. des Gradientenabstiegs genutzt werden kann, um das neuronale Netz zu trainieren. Auch andere Verfahren des Maschinenlernens können durch Trainingsdatensätze trainiert werden.
  • Ein Trainingsdatensatz für ein überwachtes Lernen kann hierbei jeweils Eingangsdaten für den Verarbeitungsalgorithmus und ein Sollergebnis umfassen. Anschließend kann für alle Trainingsdatensätze oder einen Teil der Trainingsdatensätze der Verarbeitungsalgorithmus auf die Eingangsdaten angewandt werden und durch Variation der Verarbeitungsparameter kann eine Abweichung von den Sollergebnissen minimiert werden.
  • Der Verarbeitungsalgorithmus kann insbesondere durch mehrere Trainingsdatensätze trainiert werden, die Abbildungen des Markierungselements aus verschiedenen Blickwinkeln und/oder Entfernungen umfassen. Die Abbildungen werden vorzugsweise durch das Erfassungsmittel oder ein weiteres, ähnlich aufgebautes oder zumindest im Ergebnis ähnliche Umgebungsdaten lieferndes Erfassungsmittel aufgenommen. Die Sollergebnisse können jeweils den Blickwinkel bzw. die Entfernung für die jeweilige Aufnahme angeben. In diesem Fall gibt der trainierte Verarbeitungsalgorithmus auch zunächst den Blickwinkel und die Entfernung aus, mit denen das Markierungselement erfasst wird. Die Position und/oder Orientierung der Einrichtung kann durch entsprechende Offsets, die aufgrund der bekannten Anordnung des Erfassungsmittels in der Einrichtung bekannt sind, berechnet werden. Alternativ können entsprechende Offsets bereits beim Training, das heißt in dem Sollergebnis, berücksichtigt werden.
  • Neben dem erfindungsgemäßen Verfahren betrifft die Erfindung ein Markierungselement, das zu Teilnahme an dem erfindungsgemäßen Verfahren eingerichtet ist. Insbesondere kann das Markierungselement eine dreidimensionale Struktur, insbesondere Vorsprünge und/oder Vertiefungen auf einer dem Erfassungsmittel zugewandten Seite, aufweisen. Alternativ oder ergänzend kann zumindest eine Oberfläche des Markierungselements eine blickwinkelabhängige Textur aufweisen, was beispielsweise dadurch realisiert werden kann, dass diese Oberfläche ein Hologramm, ein Linsenraster, eine Parallaxbarriere oder Ähnliches aufweist.
  • Zudem betrifft die Erfindung eine Einrichtung, insbesondere ein Kraftfahrzeug, mit einem Erfassungsmittel zur Erfassung von Umgebungsdaten und einer Verarbeitungseinrichtung zur Verarbeitung der Umgebungsdaten, wobei die Verarbeitungseinrichtung dazu eingerichtet ist, die Umgebungsdaten gemäß dem erfindungsgemäßen Verfahren zu verarbeiten, um die Position und/oder Orientierung der Einrichtung bezüglich des Markierungselements zu ermitteln. Insbesondere kann es sich bei der Einrichtung um ein Kraftfahrzeug handeln, das dazu eingerichtet ist, teil- oder vollautomatisiert in Abhängigkeit der ermittelten Position und/oder Orientierung zu fahren. Beispielsweise kann das Kraftfahrzeug mit Hilfe des erläuterten Verfahrens in eine bestimmte Parkposition oder auf eine Ladeplatte geführt werden.
  • Weitere Vorteile und Einzelheiten der Erfindung ergeben sich aus den folgenden Ausführungsbeispielen und den zugehörigen Zeichnungen. Hierbei zeigen schematisch.
    • 1 ein Ausführungsbeispiel einer erfindungsgemäßen Einrichtung,
    • 2 - 4 verschiedene Ausführungsbeispiele eines erfindungsgemäßen Markierungselements, und
    • 5 ein Ablaufdiagramm eines Ausführungsbeispiels eines erfindungsgemäßen Verfahrens.
  • 1 zeigt eine Einrichtung 1, nämlich ein Kraftfahrzeug, das in eine Sollpose 2 geführt werden soll. Dies kann beispielsweise im Rahmen eines automatisierten Einparkvorgangs oder im Rahmen der Positionierung des Kraftfahrzeugs bezüglich einer Ladeeinrichtung, beispielsweise einer Ladeplatte, erfolgen. Um eine insbesondere vollautomatisierte Positionierung zu ermöglichen, soll die Position und Orientierung des Kraftfahrzeugs möglichst genau erfasst werden. Hierzu wird ein künstliches Markierungselement 3 genutzt, das beispielsweise an einer Wand 10 angeordnet ist. Alternativ könnte das Markierungselement 3 auch an einem Boden, einer Decke oder an anderen Flächen befestigt sein.
  • Durch ein Erfassungsmittel 4 des Kraftfahrzeugs werden Umgebungsdaten erfasst, die das Markierungselement 3 zumindest teilweise abbilden. Diese werden durch die Verarbeitungseinrichtung 5 verarbeitet, um die Position 7 und Orientierung 6 des Kraftfahrzeugs bezüglich des Markierungselements 3 zu ermitteln. Sind eine Sollposition und Sollorientierung für die Sollpose 2 bezüglich des Markierungselements 3 bekannt, kann anhand dieser Daten eine Trajektorie geplant werden, um das Kraftfahrzeug in die Sollpose 2 zu führen.
  • Im Rahmen der Verarbeitung der Umgebungsdaten können eine Entfernung 9 zwischen dem Erfassungsmittel 4 und dem Markierungselement 3 sowie ein Blickwinkel 8, in dem das Markierungselement 3 erfasst wird, ermittelt werden. Diese Informationen korrelieren unmittelbar mit der Orientierung 6 und der Position 7.
  • In dem gezeigten Anwendungsfall werden bislang zweidimensionale Markierungselemente 3 bzw. bestimmte Muster an Wänden oder auf Böden, genutzt. Hierbei ist üblicherweise bei einer Verwendung eines einzelnen Markierungselements 3 keine ausreichend genaue Positions- und Orientierungsbestimmung möglich. Die Genauigkeit und Robustheit der Positions- und Orientierungsermittlung kann einerseits dadurch verbessert werden, dass, wie Folgenden mit Bezug auf 2 - 4 erläutert wird, spezielle Markierungselemente genutzt werden, und/oder dass, wie später mit Bezug auf 5 erläutert werden wird, ein Verfahren des Maschinenlernens genutzt wird, um die Position und Orientierung zu bestimmen.
  • In dem in 2 gezeigten Ausführungsbeispiel weist das Markierungselement 3 eine dreidimensionale Struktur auf. Die Teilstruktur 11 bildet einen Vorsprung, der von der Teilstruktur 12, der Basis des Markierungselements 3, abragt. Das Markierungselement 3 kann beispielsweise rotationssymmetrisch bezüglich dieses Vorsprungs ausgebildet sein.
  • Wird das Markierungselement 3 in der gezeigten Aufnahmegeometrie durch das Erfassungsmittel 4 abgebildet, so wird der Abschnitt 13 der Teilstruktur 12 durch die Teilstruktur 11 verdeckt. Dies kann durch Verarbeitung der Umgebungsdaten erkannt werden, insbesondere wenn die Oberfläche 14 der Teilstruktur 12 ein Muster aufweist, das den Grad der Verdeckung eindeutig erkennen lässt. Die Position und Ausdehnung des Abschnitts 13, die durch Verarbeitung der Umgebungsdaten ermittelt werden können, hängen von der Position und Orientierung des Erfassungsmittels 4 und somit der Einrichtung 1 bezüglich des Markierungselements 3 ab. Somit stehen verglichen mit einer zweidimensionalen Markierung zusätzlich Informationen bezüglich der Position und Orientierung der Einrichtung 1 bezüglich des Markierungselements 3 bereit. Somit wird aufgrund der dreidimensionalen Struktur des Markierungselements 3 die Genauigkeit und Robustheit der Positions- und Orientierungsbestimmung verbessert.
  • Wird eine dreidimensionalen Struktur des Markierungselements 3 abgebildet, können neben der mit Bezug zu 2 beschriebenen Verdeckung oder alternativ hierzu mehrere Teilstrukturen 15, 16, 17 des dreidimensionalen Markierungselements 3 erkannt werden, die beispielhaft in 3 abgebildet sind. Eine Änderung der Orientierung 18, 19 der Einrichtung 1 bzw. des Erfassungsmittels 4 bezüglich des Markierungselements 3 führt für Abbildungen von Teilstrukturen 15, 16, die sich auf verschieden hohen Vorsprüngen befinden, zu einer Änderung des Abstands 20, 21, die weit größer ist als die Änderung des Abstands 22, 23 der Abbildungen von Teilstrukturen 16, 17 die sich auf gleich hohen Vorsprüngen bzw. auf einer Ebene befinden. Die dreidimensionale Struktur des Markierungselements 3 kann somit ausgenutzt werden, um verschiedene Teilstrukturen zu erkennen und deren Abstand zu ermitteln, wobei entsprechende Abstände bei einer zweidimensionalen Abbildung des Markierungselements 3 deutlich stärker mit dem Blickwinkel variieren können, als dies bei einem rein zweidimensionalen Markierungselement der Fall wäre.
  • Eine besonders starke Abhängigkeit der Abbildung des Markierungselements 3 von der Orientierung 18, 19 kann, wie schematisch in 4 dargestellt ist, dadurch erreicht werden, dass eine zweidimensionale Oberfläche 24 des Markierungselements 3 genutzt wird, die für zwei verschiedene Orientierungen 18, 19 der Oberfläche 24 bezüglich des Erfassungsmittels 4 mit unterschiedlichen Texturen 25, 26 abgebildet wird. Die Bilder 27, 28 zeigen schematisch den Inhalt der Umgebungsdaten, wenn die Oberfläche 24 aus den Blickwinkeln 18, 19 abgebildet wird. Die Oberfläche 24 selbst wird in beiden Fällen ähnlich abgebildet, wobei eine auf der Oberfläche gezeigte Textur 25, 26 unterschiedlich ist. Im gezeigten Beispiel werden einfache geometrische Formen als Texturen 25, 26 für die Blickwinkel genutzt, die eine Unterscheidung zwischen zwei oder mehr Blickwinkel ermöglichen. Es können jedoch auch komplexere Muster oder holografische oder pseudo-holografische Abbildungen genutzt werden.
  • Die gezeigte Abbildung verschiedener Texturen 25, 26 in Abhängigkeit des Blickwinkels 18, 19 kann technisch dadurch realisiert werden, dass auf die Fläche 29 ein bestimmtes Muster aufgebraucht wird, wobei durch Aufbringen einer Parallaxbarriere 30 oder eines Linsenrasters 31 auf die Fläche 29 in Abhängigkeit des Blickwinkels 18, 19 verschiedene Teile dieses Musters abgebildet werden. Derartige „Kippbilder“ sind im Stand der Technik wohl bekannt und sollen nicht detailliert erläutert werden.
  • In einem alternativen Ausführungsbeispiel könnte die Oberfläche 24 stattdessen durch ein Hologramm gebildet werden. Es ist hierbei möglich, dass das gesamte Markierungselement ein Hologramm ist oder dass ein Hologramm auf eine Oberfläche oder mehrere Oberflächen des Markierungselements 3 aufgebracht ist. Wird ein Hologramm genutzt, wird ein durch das Hologramm abgebildetes dreidimensionales Muster perspektivisch korrekt in Abhängigkeit des Blickwinkels 18, 19 wiedergegeben. Somit können die mit Bezug zu 2 und 3 erläuterten Ansätze zur Ausnutzung der Verdeckung bzw. Änderung der relativen Lage von Teilstrukturen einer dreidimensionalen Struktur auch für Teilstrukturen dieses dreidimensionalen Musters genutzt werden, wobei das Markierungselement insgesamt einfach aufgebaut werden kann, da statt einer dreidimensionalen Struktur eine flache Oberfläche mit einem darauf angebrachten Hologramm genutzt werden kann.
  • Die Abmessung 32 der Oberfläche 24 oder der Textur 25, 26 oder eines Teils dieser Textur 25, 26 oder einer der in den 2 und 3 abgebildeten Teilstrukturen 11, 12, 15, 16, 17 oder der gesamten dreidimensionalen Struktur kann bei der Bestimmung der Position und/oder Orientierung berücksichtigt werden. Insbesondere kann, wie Vorangehend erläutert, zwischen verschiedenen Blickwinkeln 18, 19 unterschieden werden, woraus auf eine relative Orientierung des Erfassungsmittels 4 und somit der Einrichtung 1 zu dem Markierungselement 3 geschlossen werden kann. Ein Abstand 9 zwischen dem Erfassungsmittel 4 und somit der Einrichtung 1 und dem Markierungselement 3 kann anschließend in Abhängigkeit der Abmessung 32 ermittelt werden.
  • Wie Vorangehend detailliert erläutert wurde, können dreidimensionalen Strukturen bzw. blickwinkelabhängige Texturen des Markierungselements durch einen manuell parametrisierten Algorithmus ausgewertet werden, um eine relative Position und Orientierung der Einrichtung 1 zu dem Markierungselement 3 zu bestimmen. Es kann jedoch auch vorteilhaft sein, stattdessen ein Verfahren des Maschinenlernens zu nutzen. Dies kann es insbesondere auch ermöglichen, bereits bei einer Nutzung eines einzigen zweidimensionalen Markierungselements eine relative Position und Orientierung der Einrichtung 1 zu diesem Markierungselement mit ausreichender Genauigkeit zu bestimmen. Ein Beispiel für ein derartiges Vorgehen wird im Folgenden mit Bezug auf das in 5 gezeigte Ablaufdiagramm erläutert.
  • Die Schritte S1 - S3 dienen dazu, den Verarbeitungsalgorithmus, beispielsweise ein neuronales Netz, zu trainieren, also dessen Verarbeitungsparameter zu bestimmen. Diese Schritte können separat von den folgenden Schritten S4 - S6 durchgeführt werden, insbesondere außerhalb der Einrichtung deren Position und/oder Orientierung bestimmt werden soll.
  • In Schritt S1 werden zunächst Abbildungen des Markierungselements aus verschiedenen Blickwinkeln und Entfernungen erfasst. Hierzu kann das Erfassungsmittel 4 oder ein, vorzugsweise gleich oder zumindest ähnlich ausgebildetes weiteres Erfassungsmittel verwendet werden. In Schritt S2 wird für jede dieser Aufnahmen eine zugeordnete Position und Orientierung für die Einrichtung 1 vorgegeben. Hierzu werden, beispielsweise durch eine hochgenaue Vermessung der relativen Position und Orientierung von Erfassungsmittel und Markierungselement zueinander über eine externe Einrichtung, der Blickwinkel und die Entfernung ermittelt und hieraus durch entsprechende Offsets die Position und Orientierung der Einrichtung 1 vorgegeben. Alternativ wäre es auch möglich, den Verarbeitungsalgorithmus derart zu trainieren, dass durch ihn zunächst Blickwinkel und Entfernung ermittelt werden und entsprechende Offsets erst anschließend addiert werden.
  • In Schritt S3 werden die Trainingsdatensätze genutzt, um den Verarbeitungsalgorithmus zu trainieren. Hierzu kann der Verarbeitungsalgorithmus auf die einzelnen Abbildungen angewandt werden und eine Abweichung der ermittelten Größen zu den in Schritt S2 vorgegebenen Größen minimiert werden. Entsprechende Ansätze, insbesondere eine Fehlerrückführung bzw. ein Gradientenverfahren zum Trainieren von neuronalen Netzen und anderen Verfahren des Maschinenlernens, sind im Stand der Technik bekannt und sollen nicht detailliert erläutert werden.
  • In Schritt S4 werden die Umgebungsdaten durch das Erfassungsmittel 4 der Einrichtung 1 erfasst. Diese werden in Schritt S5 durch den in Schritt S3 parametrisierten Verarbeitungsalgorithmus verarbeitet, um eine Position und Orientierung der Einrichtung 1 bezüglich des Markierungselements 3 zu ermitteln. In Schritt S6 können diese Größen beispielsweise genutzt werden, um eine Trajektorie für einen automatisierten Betrieb eines als Einrichtung 1 genutzten Kraftfahrzeugs zu ermitteln.

Claims (7)

  1. Verfahren zur Bestimmung einer Position (7) und/oder Orientierung (6) einer Einrichtung (1), insbesondere eines Kraftfahrzeugs, wobei durch ein Erfassungsmittel (4) der Einrichtung (1) Umgebungsdaten erfasst werden, die ein in dem Umfeld der Einrichtung (1) angeordnetes Markierungselement (3) abbilden, wobei die Umgebungsdaten durch einen Verarbeitungsalgorithmus verarbeitet werden, um die relative Position (7) und/oder Orientierung (6) der Einrichtung (1) bezüglich des Markierungselements (3) zu bestimmen, wobei die Umgebungsdaten eine zweidimensionale Oberfläche (24) des Markierungselements (3), die für wenigstens zwei unterschiedliche Orientierungen (18, 19) der Oberfläche (24) bezüglich des Erfassungsmittels (4) mit voneinander unterschiedlichen Texturen (25, 26) abgebildet wird, die jeweils eine Abbildung des gleichen dreidimensionalen Musters aus einer der jeweiligen Orientierung (18, 19) zugeordneten Perspektive sind, und/oder eine dreidimensionale Struktur des Markierungselements (3) abbilden und der Verarbeitungsalgorithmus die Position (7) und/oder Orientierung (6) der Einrichtung (6) in Abhängigkeit der Textur (25, 26) und/oder der Abbildung der dreidimensionalen Struktur ermittelt, wobei in den Umgebungsdaten wenigstens zwei Teilstrukturen (15, 16, 17) der dreidimensionalen Struktur oder des dreidimensionalen Musters und/oder die Verdeckung wenigstens eines Abschnitts (13) einer ersten Teilstruktur (12) der dreidimensionalen Struktur oder des dreidimensionalen Musters durch wenigstens eine zweite Teilstruktur (11) der dreidimensionalen Struktur oder des dreidimensionalen Musters erkannt werden, wobei die Position (7) und/oder Orientierung (6) der Einrichtung (1) in Abhängigkeit der relativen Position der Teilstrukturen (15, 16, 17) oder der Verdeckung ermittelt wird.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Umgebungsdaten durch das Erfassungsmittel (4) zweidimensional erfasst werden.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die unterschiedlichen Texturen (25, 26) durch ein Hologramm oder ein Linsenraster (30) oder eine Parallaxbarriere (31) des Markierungselements (3) erzeugt werden.
  4. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Position (7) und/oder Orientierung (6) der Einrichtung (1) in Abhängigkeit einer Ausdehnung (32) der Abbildung der Oberfläche (24) und/oder der Textur (25, 26) und/oder eines Abschnitts der Textur (25, 26) und/oder der dreidimensionalen Struktur und/oder eines Abschnitts der dreidimensionalen Struktur ermittelt werden.
  5. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass der Verarbeitungsalgorithmus durch mehrere Verarbeitungsparameter parametrisiert wird, die im Rahmen eines Verfahrens des Maschinenlernens ermittelt sind oder werden.
  6. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass der Verarbeitungsalgorithmus durch mehrere Trainingsdatensätze trainiert wird, die Abbildungen des Markierungselements (3) aus verschiedenen Blickwinkeln und/oder Entfernungen umfassen.
  7. Einrichtung, insbesondere Kraftfahrzeug, mit einem Erfassungsmittel (4) zur Erfassung von Umgebungsdaten und einer Verarbeitungseinrichtung (5) zur Verarbeitung der Umgebungsdaten, dadurch gekennzeichnet, dass die Verarbeitungseinrichtung (5) dazu eingerichtet ist, die Umgebungsdaten gemäß dem Verfahren nach einem der Ansprüche 1 bis 6 zu verarbeiten, um die Position (7) und/oder Orientierung (6) der Einrichtung (1) bezüglich des Markierungselements (3) zu ermitteln.
DE102018209366.0A 2018-06-12 2018-06-12 Verfahren zur Bestimmung einer Position und/oder Orientierung einer Einrichtung Active DE102018209366B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102018209366.0A DE102018209366B4 (de) 2018-06-12 2018-06-12 Verfahren zur Bestimmung einer Position und/oder Orientierung einer Einrichtung

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102018209366.0A DE102018209366B4 (de) 2018-06-12 2018-06-12 Verfahren zur Bestimmung einer Position und/oder Orientierung einer Einrichtung

Publications (2)

Publication Number Publication Date
DE102018209366A1 DE102018209366A1 (de) 2019-12-12
DE102018209366B4 true DE102018209366B4 (de) 2020-07-02

Family

ID=68652166

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018209366.0A Active DE102018209366B4 (de) 2018-06-12 2018-06-12 Verfahren zur Bestimmung einer Position und/oder Orientierung einer Einrichtung

Country Status (1)

Country Link
DE (1) DE102018209366B4 (de)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010141209A1 (en) 2009-06-01 2010-12-09 Robert Bosch Gmbh Method and apparatus for combining three-dimensional position and two-dimensional intensity mapping for localization
DE102013110785A1 (de) 2013-09-30 2015-04-02 Bundesdruckerei Gmbh Positionierverfahren für die positionierung eines mobilgerätes relativ zu einem sicherheitsmerkmal eines dokumentes
US20170016740A1 (en) 2015-07-16 2017-01-19 Ford Global Technologies, Llc Method and apparatus for determining a vehicle ego-position
DE102015220831A1 (de) 2015-10-26 2017-04-27 Robert Bosch Gmbh Verfahren und Vorrichtung zum Bestimmen von Landmarken für eine Ortsbestimmung für ein bewegliches Objekt sowie Verfahren und Vorrichtung zur Ortsbestimmung für ein bewegliches Objekt

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010141209A1 (en) 2009-06-01 2010-12-09 Robert Bosch Gmbh Method and apparatus for combining three-dimensional position and two-dimensional intensity mapping for localization
DE102013110785A1 (de) 2013-09-30 2015-04-02 Bundesdruckerei Gmbh Positionierverfahren für die positionierung eines mobilgerätes relativ zu einem sicherheitsmerkmal eines dokumentes
US20170016740A1 (en) 2015-07-16 2017-01-19 Ford Global Technologies, Llc Method and apparatus for determining a vehicle ego-position
DE102015220831A1 (de) 2015-10-26 2017-04-27 Robert Bosch Gmbh Verfahren und Vorrichtung zum Bestimmen von Landmarken für eine Ortsbestimmung für ein bewegliches Objekt sowie Verfahren und Vorrichtung zur Ortsbestimmung für ein bewegliches Objekt

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
T. Kühnl: Road Terrain Detection for Advanced Driver Assistance Systems. Dissertation, Universität Bielefeld, 2013. Auszüge: Abstract, Contents, Sn.7-9, 125-130 *

Also Published As

Publication number Publication date
DE102018209366A1 (de) 2019-12-12

Similar Documents

Publication Publication Date Title
EP3497476A1 (de) Kraftfahrzeug und verfahren zur 360°-umfelderfassung
DE102008058279A1 (de) Verfahren und Vorrichtung zur Kompensation eines Rollwinkels
WO2018233780A1 (de) Verfahren und vorrichtung zur vermessung von karosserieschäden
DE112016001150T5 (de) Schätzung extrinsischer kameraparameter anhand von bildlinien
EP2198390A2 (de) Verfahren zum kalibrieren einer anordnung mit mindestens einer omnidirektionalen kamera und einer optischen anzeigeeinheit
DE102016124747A1 (de) Erkennen eines erhabenen Objekts anhand perspektivischer Bilder
DE102016002186A1 (de) Verfahren und Bildverarbeitungsvorrichtung zur Bestimmung einer geometrischen Messgröße eines Objektes
WO2004113831A1 (de) Verfahren und messvorrichtung zur berührungslosen vermessung einer kontur einer oberfläche sowie verfahren zur automatischen entzerrung von koordinaten von bildpunkten
DE102014219423B4 (de) Dynamisches Modell zur Kompensation von Verzeichnungen einer Windschutzscheibe
DE102015012344A1 (de) Verfahren zum Kalibrieren einer Kamera
DE102011086548A1 (de) Vorrichtung und Verfahren zur Fahrwerksvermessung eines Kraftfahrzeugs
DE102018209366B4 (de) Verfahren zur Bestimmung einer Position und/oder Orientierung einer Einrichtung
EP1724726A1 (de) Verfahren und Vorrichtung zur Parkraumvermessung mittels einer Monokamera
EP3704631A2 (de) Verfahren zur ermittlung einer entfernung zwischen einem kraftfahrzeug und einem objekt
DE102010042821B4 (de) Verfahren und Vorrichtung zur Bestimmung einer Basisbreite eines Stereo-Erfassungssystems
DE102014219418B4 (de) Verfahren zur Stereorektifizierung von Stereokamerabildern und Fahrerassistenzsystem
EP3561772B1 (de) Verfahren zur kalibrierung einer zeilenbildaufnahmeeinheit
DE102020003465A1 (de) Verfahren zur Detektion von Objekten in monokularen RGB-Bildern
DE102018208604A1 (de) Ermitteln eines Aufnahmeverhaltens einer Aufnahmeeinheit
DE102019102561A1 (de) Verfahren zum Erkennen einer Pflastermarkierung
DE10042387A1 (de) Verfahren zum Transformieren dreidimensionaler Objektpunkte in zweidimensionale Bildpunkte für Linear-Fächerstrahlsensor-Bilder
DE102018120966A1 (de) Verfahren zum Erkennen eines Teils eines Anhängers sowie Anhängererfassungssystem für ein Zugfahrzeug
DE102019100303A1 (de) Verfahren und Vorrichtung zum Ermitteln einer Krümmung einer Fahrbahn
DE102012025463A1 (de) Verfahren zum Bestimmen eines Bewegungsparameters eines Kraftfahrzeugs durch Auffinden von invarianten Bildregionen in Bildern einer Kamera des Kraftfahrzeugs, Kamerasystem und Kraftfahrzeug
DE102016224131B3 (de) Ermittlung von Bewegungsdaten eines fahrzeugexternen Objekts durch ein Fahrerassistenzsystem

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final