DE102016105238A1 - Fahrzeug und fahrzeugparksystem - Google Patents

Fahrzeug und fahrzeugparksystem Download PDF

Info

Publication number
DE102016105238A1
DE102016105238A1 DE102016105238.8A DE102016105238A DE102016105238A1 DE 102016105238 A1 DE102016105238 A1 DE 102016105238A1 DE 102016105238 A DE102016105238 A DE 102016105238A DE 102016105238 A1 DE102016105238 A1 DE 102016105238A1
Authority
DE
Germany
Prior art keywords
target object
camera
vehicle
target
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102016105238.8A
Other languages
English (en)
Inventor
Ali Hassani
Adil Nizam SIDDIQUI
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ford Global Technologies LLC
Original Assignee
Ford Global Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ford Global Technologies LLC filed Critical Ford Global Technologies LLC
Publication of DE102016105238A1 publication Critical patent/DE102016105238A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/06Automatic manoeuvring for parking
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/027Parking aids, e.g. instruction means
    • B62D15/0285Parking performed automatically
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/04Conjoint control of vehicle sub-units of different type or different function including control of propulsion units
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/18Conjoint control of vehicle sub-units of different type or different function including control of braking systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/20Conjoint control of vehicle sub-units of different type or different function including control of steering systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/027Parking aids, e.g. instruction means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/20Static objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/802Longitudinal distance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/805Azimuth angle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2710/00Output or target parameters relating to a particular sub-units
    • B60W2710/06Combustion engines, Gas turbines
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2710/00Output or target parameters relating to a particular sub-units
    • B60W2710/18Braking system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2710/00Output or target parameters relating to a particular sub-units
    • B60W2710/20Steering systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2754/00Output or target parameters relating to objects
    • B60W2754/10Spatial relation or speed relative to objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electromagnetism (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

Ein Fahrzeug wird bereitgestellt. Das Fahrzeug beinhaltet eine Kamera, die dazu konfiguriert ist, ein Zielobjekt in einem Parkplatz zu erkennen, und einen Controller, der dazu programmiert ist, das Fahrzeug in den Parkplatz auf der Basis eines Gierwinkels des Fahrzeugs und eines Abstands zu dem Zielobjekt als Reaktion auf das Erkennen der Gegenwart des Zielobjekts durch die Kamera vorzufahren. Der Abstand zu dem Zielobjekt basiert auf einem Vektor, der eine Abgrenzung des Zielobjekts darstellt.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Offenbarung betrifft Fahrzeuge und Verfahren zum Parken von Fahrzeugen.
  • HINTERGRUND
  • Ein Fahrzeug kann ein automatisches Parksystem beinhalten, das das Fahrzeug unabhängig von einer Fahrereingabe von manuellen Steuerungen (z. B. Lenkrad, Gaspedal, Bremspedal usw.) parken kann.
  • KURZDARSTELLUNG
  • Ein Verfahren zum Parken eines Fahrzeugs wird bereitgestellt. Das Verfahren beinhaltet das Erkennen eines Zielobjekts in einem Parkplatz mit einer Kamera und das Vorfahren des Fahrzeugs in den Parkplatz auf der Basis eines Winkels zwischen dem Zielobjekt und einer Senkrechte eines Kamerasichtfelds und eines Abstands von der Kamera zu dem Zielobjekt. Der Abstand von der Kamera zu dem Zielobjekt basiert auf einem Vektor, der eine Abgrenzung des Zielobjekts darstellt.
  • Ein Fahrzeug wird bereitgestellt. Das Fahrzeug beinhaltet eine Kamera, die dazu konfiguriert ist, ein Zielobjekt in einem Parkplatz zu erkennen, und einen Controller, der dazu programmiert ist, das Fahrzeug in den Parkplatz auf der Basis eines Gierwinkels des Fahrzeugs und eines Abstands zu dem Zielobjekt als Reaktion auf das Erkennen der Gegenwart des Zielobjekts durch die Kamera vorzufahren. Der Abstand zu dem Zielobjekt basiert auf einem Vektor, der eine Abgrenzung des Zielobjekts darstellt.
  • Ein Fahrzeug wird bereitgestellt. Das Fahrzeug beinhaltet eine Kamera, die dazu konfiguriert ist, ein Signal auszugeben, das die Gegenwart eines Zielobjekts in einem Parkplatz anzeigt, und einen Controller, der in Kommunikation mit der Kamera ist. Der Controller ist dazu programmiert, das Fahrzeug in den Parkplatz auf der Basis eines Winkels zwischen dem Zielobjekt und einer Senkrechte eines Kamerasichtfelds und eines Abstands von der Kamera zu dem Zielobjekt als Reaktion auf das Empfangen des Signals von der Kamera, das die Gegenwart des Zielobjekts anzeigt, vorzufahren. Der Abstand von der Kamera zu dem Zielobjekt basiert auf einem Vektor, der eine Abgrenzung des Zielobjekts darstellt, einem Winkel zwischen dem Vektor, der die Abgrenzung des Zielobjekts darstellt, und einer horizontalen Projektion eines ersten Segments der Abgrenzung des Zielobjekts, und einer Position des Zielobjekts in dem Kamerasichtfeld.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • 1 ist ein schematisches Diagramm, das eine Draufsicht eines Fahrzeugs in Bezug auf einen Parkplatz darstellt;
  • 2 stellt ein Sichtfeld einer Kamera, die an dem Fahrzeug angebracht ist, und ein Zielobjekt, das in dem Sichtfeld der Kamera erkannt wird, dar;
  • 3 stellt eine Nahansicht des Zielobjekts in dem Sichtfeld der Kamera im Verhältnis zu einem von der Kamera erkannten Flächenschwerpunkt des Zielobjekts und einem erwarteten Flächenschwerpunkt des Zielobjekts dar;
  • 4 stellt eine Nahansicht des Zielobjekts in dem Sichtfeld der Kamera im Verhältnis zu einem Vektor, der eine tatsächliche Abgrenzung des Zielobjekts darstellt, und einem Vektor, der eine projizierte Abgrenzung des Zielobjekts entlang der X-Achse darstellt, dar;
  • 5 stellt ein Verfahren zum Verwenden einer Regressionsanalyse dar, um den Abstand von der Kamera zu dem Zielobjekt zu bestimmen; und
  • 6 stellt ein Verfahren zum Parken eines Fahrzeugs nach Erkennen eines Zielobjekts in einem Parkplatz dar.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Ausführungsformen der vorliegenden Offenbarung sind hierin beschrieben. Es versteht sich jedoch, dass die offenbarten Ausführungsformen lediglich Beispiele sind und andere Ausführungsformen verschiedene und alternative Formen annehmen können. Die Figuren sind nicht unbedingt maßstabgetreu; einige Merkmale könnten übertrieben oder minimiert sein, um Einzelheiten bestimmter Komponenten zu zeigen. Folglich sollten hierin offenbarte spezifische strukturelle und funktionelle Einzelheiten nicht als einschränkend betrachtet werden, sondern lediglich als eine repräsentative Grundlage, um einem Fachmann das verschiedenartige Einsetzen der vorliegenden Erfindung zu lehren. Wie Durchschnittsfachmänner verstehen werden, können verschiedene Merkmale, die unter Bezugnahme auf eine beliebige der Figuren dargestellt und beschrieben sind, mit Merkmalen kombiniert werden, die in einer oder mehreren anderen Figuren dargestellt sind, um Ausführungsformen zu ergeben, die nicht ausdrücklich dargestellt oder beschrieben sind. Die Kombinationen von dargestellten Merkmalen stellen repräsentative Ausführungsformen für typische Anwendungen bereit. Verschiedene Kombinationen und Modifizierungen der Merkmale, die mit den Lehren dieser Offenbarung vereinbar sind, könnten jedoch für bestimmte Anwendungen oder Umsetzungen erwünscht sein.
  • Unter Bezugnahme auf 1 ist eine Draufsicht eines Fahrzeugs 10 in Bezug auf einen Parkplatz 12 dargestellt. Das Fahrzeug 10 kann eine Kamera 14 beinhalten, die dazu konfiguriert ist, ein Zielobjekt 16 zu erkennen, das sich in dem Parkplatz 12 befindet. Die Kamera 14 kann auch dazu konfiguriert sein, ein Ausgabesignal, das die Gegenwart des Zielobjekts 16 anzeigt, und Informationen in Bezug auf die Gegenwart des Zielobjekts 16 zu erzeugen. Die Kamera 14 kann eine beliebige Art von Kamera sein, ist vorzugsweise jedoch eine Digitalkamera. Obwohl die Kamera 14 als von dem Vorderwagen des Fahrzeugs 10 abgewandt gezeigt ist, kann sie umpositioniert werden, um von dem Hinterwagen des Fahrzeugs 10 abgewandt zu sein. Die Kamera 14 kann in Kommunikation mit einem Controller 18 sein, der dazu programmiert ist, das Fahrzeug 10 in den Parkplatz 12 auf der Basis eines Gierwinkels Θ (bei dem es sich um einen Winkel zwischen dem Zielobjekt 16 und einer Senkrechte zu dem Kamerasichtfeld handelt) und eines Abstands von der Kamera 14 zu dem Zielobjekt 16 als Reaktion auf das Empfangen des Signals von der Kamera 14, das die Gegenwart des Zielobjekts anzeigt, vorzufahren. Die Senkrechte zu dem Sichtfeld der Kamera kann durch einen ersten Vektor 20 dargestellt werden und der Abstand von der Kamera 14 zu dem Zielobjekt 16 kann durch einen zweiten Vektor 22 dargestellt werden.
  • Obwohl er als ein Controller dargestellt ist, kann der Controller 18 Teil eines größeren Steuersystems sein und kann von verschiedenen anderen Controllern überall im Fahrzeug 10, wie einem Fahrzeugsystem-Controller (vehicle system controller, VSC), gesteuert werden. Es ist folglich zu verstehen, dass der Controller 18 und ein oder mehrere andere Controller zusammenfassend als ein „Controller” bezeichnet werden können, der verschiedene Funktionen des Fahrzeugs 10 und/oder Aktoren als Reaktion auf Signale von verschiedenen Sensoren steuert. Der Controller 18 kann einen Mikroprozessor oder einen Zentralprozessor (CPU) in Kommunikation mit verschiedenen Arten von computerlesbaren Speichergeräten oder -medien beinhalten. Computerlesbare Speichergeräte oder -medien können flüchtigen und nichtflüchtigen Speicher in beispielsweise einem Festwertspeicher (read-only memory, ROM), einem Direktzugriffsspeicher (random-access memory, ROM) und einem Haltespeicher (keepalive memory, KAM) beinhalten. Ein KAM ist ein permanenter oder nichtflüchtiger Speicher, der dazu verwendet werden kann, verschiedene Betriebsvariablen zu speichern, während der CPU abgeschaltet ist. Computerlesbare Speichergeräte oder -medien können unter Verwendung eines beliebigen einer Reihe bekannter Speichergeräte umgesetzt werden, wie PROM (programmable read-only memories, programmierbare Festwertspeicher, EPROM (elektrische PROM), EEPROM (elektrisch löschbare PROM), ein Flash-Speicher oder beliebige andere elektrische, magnetische, optische oder Kombinationsspeichergeräte, die Daten speichern können, von denen einige ausführbare Anweisungen darstellen, die von dem Controller beim Steuern des Fahrzeugs verwendet werden.
  • Nun unter Bezugnahme auf die 25 wird eine Reihe von Schritten dazu verwendet, den Gierwinkel Θ und den Abstand von der Kamera 14 zu dem Zielobjekt 16 zu extrapolieren. Die Schritte können von einem Programm durchgeführt werden, das in dem Controller 18 gespeichert ist und das einen Algorithmus oder eine Reihe von Algorithmen beinhaltet, die dazu verwendet werden, den Gierwinkel Θ und den Abstand von der Kamera 14 zu dem Zielobjekt 16 auf der Basis von Informationen, die vom Beobachten des Zielobjekts 16 in dem Sichtfeld der Kamera abgeleitet sind, abzuleiten.
  • Unter Bezugnahme auf 2 ist das Sichtfeld der Kamera 24 dargestellt. Die Kamera 14 erkennt zunächst das Zielobjekt 16. Dies kann unter Verwendung von Objekterkennungssoftware erzielt werden, die dazu konfiguriert ist, spezifische Objekte zu erkennen. Die Objekterkennungssoftware, die in einer Bibliothek in dem Controller 18 oder einer anderen adäquaten Hardware, die einen Datenspeicher enthalten kann, gespeichert sein kann. Als Nächstes der erste Vektor 20, der die Senkrechte zu dem Sichtfeld der Kamera 24 darstellt, und der zweite Vektor 22, der den Abstand von der Kamera 14 zu dem Zielobjekt 16 auf der Basis der Stelle des Zielobjekts 16 im Sichtfeld der Kamera 24 darstellt. In diesem Schritt werden jedoch nur die Richtungen des ersten Vektors 20 und des zweiten Vektors 22 (nicht die Größenordnungen) erzeugt. Der beobachtbare Winkel zwischen dem ersten Vektor 20 und dem zweiten Vektor 22 entspricht dem Gierwinkel Θ.
  • Unter Bezugnahme auf 3 ist eine Nahansicht des Zielobjekts 16 in dem Sichtfeld der Kamera 24 dargestellt. Ein erkannter Flächenschwerpunkt 26 und ein erwarteter Flächenschwerpunkt 28 des Zielobjekts 16 werden erzeugt. Der erwartete Flächenschwerpunkt 28 kann in Bezug auf ein Segment einer Abgrenzung des Zielobjekts 16 auf der Basis einer erwarteten Form des Zielobjekts 16 erzeugt werden. Der erkannte Flächenschwerpunkt 26 kann auf der Basis der Mitte der Segmente, die die Abgrenzung des Zielobjekts 16 definieren, erzeugt werden.
  • In dem dargestellten Beispiel beinhaltet die Abgrenzung des Zielobjekts 16 vier Segmente, eine rechte Seite 30, eine linke Seite 32, eine Oberseite 34 und eine Unterseite 36. Zudem ist die erwartete Form des Zielobjekts 16 in dem dargestellten Beispiel ein Rechteck. Der erwartete Flächenschwerpunkt 28 wird auf der Basis einer Erkennung der rechten Seite 30 der Abgrenzung des Zielobjekts 16 und der erwarteten rechteckigen Form des Zielobjekts 16 erzeugt. Der erkannte Flächenschwerpunkt 26 wird auf der Basis einer Mitte der rechten Seite 30, der linken Seite 32, der Oberseite 34 und der Unterseite 36 der Abgrenzung des Zielobjekts 16 erzeugt. Der Positionsunterschied zwischen dem erwarteten Flächenschwerpunkt 28 und dem erkannten Flächenschwerpunkt 26 definiert eine Verzerrung des Zielobjekts 16 in dem Sichtfeld der Kamera 24 (die Verzerrung des Zielobjekts 16 kann auch als der Versatz bezeichnet werden). Der erkannte Flächenschwerpunkt 26 und der erwartete Flächenschwerpunkt 28 können unter Verwendung von Software erzeugt werden, die geometrische Muster, Formen, Konfigurationen usw. erkennt und zuordnet.
  • Obwohl das Zielobjekt 16 ein Rechteck ist und die rechte Seite 30 der Abgrenzung des Zielobjekts 16 dazu verwendet wird, den erwarteten Flächenschwerpunkt 28 in dem dargestellten Beispiel zu erzeugen, sollte beachtet werden, dass das Zielobjekt 16 aus anderen Formen bestehen kann und der erwartete Flächenschwerpunkt 28 in Bezug auf beliebige der Segmente, die die Abgrenzung des Zielobjekts 16 umfassen, erzeugt werden kann.
  • Ein Beispiel eines Verfahrens, das dazu verwendet werden kann, die Verzerrung (den Versatz) zu quantifizieren, kann Kantenerkennung, Filterung/Schwellenwertbildung, Verwendung einer Hough-Transformation (die auch als eine Hough-Umwandlung bezeichnet werden kann), um einen Winkel von der Senkrechte einer Linie auf einer Ebene zu der horizontalen Achse der Ebene (die Ebene wird hierin im Folgenden als die XY-Ebene bezeichnet und die horizontale Achse wird als die X-Achse bezeichnet) zu berechnen, und Vergleich des Winkels von der Senkrechte der Linie auf der XY-Ebene zu der X-Achse (die unter Verwendung der Hough-Transformation berechnet wurde) mit einem erwarteten Winkel von der Senkrechte eines Segments des Zielobjekts 16 zu der Horizontalen des Sichtfelds der Kamera 24 beinhalten.
  • Kanten des Zielobjekts 16 können unter Verwendung von Kantenerkennungssoftware erkannt werden. Kantenerkennungssoftware wird dazu verwendet, einen Gradienten zu erzeugen, indem die Werte benachbarter Pixel in dem Sichtfeld der Kamera 24 eines Graustufen- oder monochromatischen Bilds verglichen werden. Sobald der Vergleich der benachbarten Pixel in dem Sichtfeld der Kamera 24 vorgenommen wurde, wird ein resultierendes Bild erzeugt, das einen Satz von Unterschieden anzeigt, die die erkannten Kanten darstellen, wobei Kanten mit hohem Kontrast als größere Unterschiede dargestellt werden.
  • Ein Kantenerkennungsalgorithmus kann auf den folgenden Gleichungen (1)–(3) basieren:
    Figure DE102016105238A1_0002
    Bh(j, k) = A(j, k + 1) – A(j, k – 1) (2) Bv(j, k) = A(j + 1, k) – A(j – 1, k) (3)
  • A
    ist eine Matrix mit j Zeilen und k Spalten, die ein Graustufen- oder monochromatisches Bild darstellt.
    B
    ist eine Matrix, die den resultierenden Gradienten aus dem Vergleichen der Werte benachbarter Pixel in dem Graustufen- oder monochromatischen Bild darstellt.
  • Die Kantenerkennungssoftware kann auch Filterung/Schwellenwertbildung beinhalten. Ein Schwellenwert kann beispielsweise derart eingestellt werden, dass nur die markantesten Änderungen des resultierenden Gradienten, der durch die Matrix B dargestellt wird, in dem resultierenden Bild gezeigt werden, das die Kanten darstellt, die in dem Graustufen- oder monochromatischen Bild erkannt wurden. Darüber hinaus kann die Matrix A vorverarbeitet werden, um einen spezifischen Farbkanal oder eine spezifische Farbregion von Interesse in dem Sichtfeld einer Kamera zu zeigen.
  • Eine einzige Kante, die unter Verwendung der Kantenerkennungssoftware erkannt wurde, bildet eine Reihe von Punkten entlang einer Linie auf der XY-Ebene in dem Sichtfeld der Kamera 24. Eine Hough-Transformation kann an der Reihe von Punkten (oder Pixeln) durchgeführt werden, die an der erkannten Kante gebildet wurde. Die Hough-Transformation beinhaltet das Erzeugen einer Reihe von Linien durch jeden Punkt (oder eine Gruppe ausgewählter Punkte), der von einer einzigen erkannten Kante gebildet wurde. Jede Linie der Reihe von Linien, die durch jeden Punkt gezeichnet wurden, der von der erkannten Kante gebildet wurde, hängt mit der XY-Ebene durch eine senkrechte Linie zusammen. Als Nächstes werden ein Winkel zwischen der senkrechten Linie und der X-Achse und die Länge der senkrechten Linie von dem Ausgangspunkt zu dem Punkt, an dem die senkrechte Linie die einzige Kante von Interesse kreuzt, erzeugt. Jeder Punkt der erkannten Kante kann dann in einem Hough-Raum als eine sinusförmige Kurve dargestellt werden, die als der Winkel im Vergleich zu dem Abstand der senkrechten Linien von dem Ausgangspunkt zu der einzigen Kante von Interesse gezeichnet wird. Wenn die sinusförmigen Kurven gezeichnet werden, wird die Linie, die durch alle Punkte verläuft, die von einer erkannten Kante auf der XY-Ebene in dem Sichtfeld der Kamera 24 gebildet wurden, durch den Punkt im Hough-Raum dargestellt, wo die sinusförmigen Kurven sich überschneiden. Der Punkt im Raum, wo die sinusförmigen Kurven sich überschneiden, ergibt die Koordinaten (Länge vom Ausgangspunkt zur erkannten Kante, die eine Reihe von Punkten bildet, und Winkel von der X-Achse) einer Linie, die senkrecht zu der erkannten Kante ist, die die Reihe von Punkten bildet. Der Versatz kann dann durch den Unterschied des Winkels an dem Punkt im Hough-Raum, wo die sinusförmigen Kurven sich überschneiden, und des erwarteten Winkels von der Senkrechte eines Segments des Zielobjekts 16 zu der Horizontale des Sichtfelds der Kamera 24 bestimmt werden. Beispiele der Hough-Transformation werden in Hough, US-Patent Nr. 3,069,654 , und R. O. Duda und P. E. Hart, „Use of the Hough Transformation to Detect Lines and Curves in Pictures”, Communications of the ACM, Bd. 16, Nr. 1, S. 11–15 (Januar 1972), gezeigt, wobei der jeweilige Inhalt dieser hiermit in seiner Gesamtheit durch Bezugnahme hierin aufgenommen ist.
  • Es sollte beachtet werden, dass andere Verfahren, bei denen es sich nicht um die Hough-Transformation handelt, dazu verwendet werden können, den Versatz (die Verzerrung) des Zielobjekts 16 zu erkennen, einschließlich, jedoch nicht darauf beschränkt, die Fourier-Methode, das Projektionsprofilverfahren, das Verfahren des Clusterings nächster Nachbarn und das Korrelationsverfahren.
  • Wenn der Versatz des Zielobjekts 16 bestimmt wird, kann der Vorgang auch die internen Eigenschaften der Linse berücksichtigen, die eine Verzerrung (einschließlich einer radialen und/oder tangentialen Verzerrung) des projizierten Bilds auf der Bildebene der Kamera berücksichtigen. Es gibt mehrere Algorithmen und Gleichungen, die in der Technik bekannt sind, die als hierin offenbart aufgefasst werden sollen und die dazu verwendet werden, eine Verzerrung einer Kameralinse entweder vom Tonnentyp oder vom Kissentyp zu korrigieren.
  • Unter Bezugnahme auf 4 ist eine andere Nahansicht des Zielobjekts 16 in dem Sichtfeld der Kamera 24 dargestellt. Sobald der Versatz des Zielobjekts 16 bestimmt wurde, ist es möglich, die Richtung und die Größenordnung eines Vektors 38 zu bestimmen, der ein Segment der Abgrenzung des Zielobjekts 16 darstellt. Zum Zwecke der Veranschaulichung entspricht der Vektor 38 dem Segment, das die Unterseite 36 des Zielobjekts 16 darstellt. Es ist jedoch zu verstehen, dass das Verfahren dazu verwendet werden kann, die Richtung und die Größenordnung eines Vektors zu bestimmen, der ein beliebiges der Segmente darstellt, die die Abgrenzung des Zielobjekts 16 umfassen, einschließlich der rechten Seite 30, der linken Seite 32, der Oberseite 34 und der Unterseite 36 in diesem Beispiel. Darüber hinaus könnte das Verfahren auf eine beliebige Seite eines Zielobjekts angewendet werden, das eine beliebige bestimmte Form hat. Sobald die Abgrenzung des Zielobjekts 16 durch das oben beschriebene Kantenerkennungsverfahren erkannt wurde, ist es möglich, eine Richtung und eine Größenordnung eines Vektors 40 zu erzeugen, der eine Projektion eines Segments der Abgrenzung des Zielobjekts 16 entlang einer bekannten Achse ist. Der Vektor 40, der eine Projektion eines Segments der Abgrenzung des Zielobjekts 16 ist, kann unter Verwendung von Software erzeugt werden, die geometrische Muster, Formen, Konfigurationen usw. erkennt und zuordnet. Hier entspricht der Vektor 40 einer horizontalen Projektion der Unterseite 36 des Zielobjekts 16. Sobald der Vektor 40, der die horizontale Projektion der Unterseite 36 des Zielobjekts darstellt, erzeugt wurde, wird der vorher bestimmte Versatz (die vorher bestimmte Verzerrung) auf den Vektor 40 angewendet, was zu dem Vektor 38 führt, der einer Richtung und einer Größenordnung des Segments der Abgrenzung des Zielobjekts 16 entspricht, das der Unterseite 36 des Zielobjekts 16 entspricht. Sobald die zwei Vektoren 38, 40 bestimmt wurden, kann dann der Winkel Θ, der sich zwischen den zwei Vektoren 38, 40 befindet, bestimmt werden.
  • Unter Bezugnahme auf 5 ist ein Verfahren zum Verwenden einer Regressionsanalyse dargestellt, um den Abstand von der Kamera 14 zu dem Zielobjekt 16 zu bestimmen. Das Verfahren zum Verwenden einer Regressionsanalyse beinhaltet das Eingeben einer Reihe von Variablen in den Regressionsanalysenalgorithmus 42. Die Reihe von Variablen kann eine erste Eingabe 44, die dem Vektor 38 entspricht, der die Richtung und die Größenordnung eines Segments der Abgrenzung des Zielobjekts 16 darstellt, eine zweite Eingabe 46, die dem Winkel entspricht, der sich zwischen den Vektoren 38, 40 befindet, und eine dritte Eingabe 48, die der Position des Zielobjekts 16 in dem Sichtfeld der Kamera 24 entspricht, beinhalten. Die Ausgabe 50 des Regressionsanalysenalgorithmus 42 entspricht einem Abstand von der Kamera 14 zu dem Zielobjekt 16. Der Abstand von der Kamera 14 zu dem Zielobjekt entspricht der Größenordnung des zweiten Vektors 22, der in 1 gezeigt ist. In Verbindung mit dem Winkel Θ, bei dem es sich um einen Winkel zwischen dem Zielobjekt 16 und dem ersten Vektor 20 handelt, der die Senkrechte zu dem Sichtfeld der Kamera darstellt, sind jetzt die Richtung und die Größenordnung des zweiten Vektors 22 bekannt. Wenn die Kamera 14 sich auf einer bekannten Höhe über der Straßenoberfläche befindet, kann der Satz des Pythagoras angewendet werden (wobei der zweite Vektor 22 die Hypotenuse des rechten Dreiecks umfasst), um den Abstand entlang einer Straßenoberfläche (der einem horizontalen Abstand entsprechen kann) von der Kamera 14 zu dem Zielobjekt 16 zu bestimmen.
  • Der Regressionsanalysenalgorithmus 42 kann in dem Vergleichen neuer Daten mit zuvor akkumulierten Daten (die auch als Schulungsdaten bezeichnet werden können) bestehen. Die Schulungsdaten werden dazu genutzt, eine Karte von Eingaben und Ausgaben zu erzeugen, und sollten derart entworfen sein, dass neue Daten im Vergleich zu den Schulungsdaten mit minimalem Fehler skalieren. Hier können die Schulungsdaten und die neuen Daten eine Pixelstelle in dem Sichtfeld der Kamera 24 einem Abstand von der Kamera 14 zuordnen. Sobald die Richtung und die Größenordnung des Vektors 38, der ein Segment der Abgrenzung des Zielobjekts 16 darstellt, bestimmt wurden, ist es folglich möglich, den Abstand zu dem Vektor 38 (d. h. den Abstand von der Kamera 14 zu dem Zielobjekt 16) durch Vergleichen der Pixelstelle des Vektors 38 zu den zuvor gelernten Daten, die eine Pixelstelle und einen Abstand darstellen, zu bestimmen.
  • Der Regressionsanalysenalgorithmus 42 kann aus einer Hypothesefunktion, die dazu verwendet wird, die Datenpunkte zu kartieren, und einer Kostenfunktion, die dazu verwendet wird, die Genauigket der Hypothesefunktion zu errechnen, bestehen. Beispiele des Regressionsanalysealgorithmus 42 können lineare Modelle, polynomiale Modelle, logistische Modelle und neurale Netze beinhalten, sind jedoch nicht darauf beschränkt.
  • Eine lineare Regressionsanalyse kann auf der folgenden Hypothesenfunktionsgleichung (4) und der folgenden Kostenfunktionsgleichung (5) basieren: H(θ) = θTx = θ0 + θ1·x (4) J(θ) = 1 / 2·DatensatzΣ Datensatz / i(Hθ(xi) – yi)2 (5)
  • Eine polynomiale Regressionsanalyse kann auf der folgenden Hypothesenfunktionsgleichung (6) und der folgenden Kostenfunktionsgleichung (7) basieren: H(θ) = θTx = θ0 + θ1·x + θ2x2 + θ3·x3 (6) J(θ) = 1 / 2·DatensatzΣ Datensatz / i(Hθ(xi) – yi)2 + λΣ polynomialeTerme / iθ 2 / i (7)
  • Eine logistische Regressionsanalyse kann auf der folgenden Hypothesenfunktionsgleichung (8) und der folgenden Kostenfunktionsgleichung (9) basieren:
    Figure DE102016105238A1_0003
    J(θ) = 1 / DatensatzΣ Datensatz / iyilog(hθ(xi)) + (1 – yi)log(1 – hθ(xi)) (9)
  • Unter Bezugnahme auf 6 ist ein Verfahren 100 zum Parken eines Fahrzeugs nach Erkennen eines Zielobjekts in einem Parkplatz dargestellt. Der erste Schritt 102 in dem Verfahren 100 beinhaltet das Erkennen des Zielobjekts 16 in dem Parkplatz 12 mit der Kamera 14, die an dem Fahrzeug 10 angebracht ist. Sobald das Zielobjekt 16 erkannt wurde, geht das Verfahren 100 zu Schritt 104 weiter, wo der Gierwinkel Θ zwischen der Senkrechte zu dem Sichtfeld der Kamera und dem Zielobjekt 16 bestimmt wird. Das Verfahren 100 geht dann zu Schritt 106 weiter, wo ein Abstand von der Kamera 14 zu dem Zielobjekt 16 auf der Basis des oben in Bezug auf die 25 beschriebenen Verfahrens bestimmt wird. Das Fahrzeug 10 kann dann in Schritt 108 in den Parkplatz 12 auf der Basis des Gierwinkels Θ in dem Abstand von der Kamera 14 zu dem Zielobjekt 16 vorgefahren werden.
  • Die in der Spezifikation verwendeten Wörter sind vielmehr beschreibende als einschränkende Wörter und es versteht sich, dass verschiedene Änderungen vorgenommen werden können, ohne vom Sinn und Schutzumfang der Offenbarung abzuweichen. Wie zuvor beschrieben, können die Merkmale verschiedener Ausführungsformen kombiniert werden, um weitere Ausführungsformen der Erfindung zu bilden, die nicht ausdrücklich beschrieben oder dargestellt sind. Während verschiedene Ausführungsformen möglicherweise als Vorteile bereitstellend oder gegenüber anderen Ausführungsformen oder Umsetzungen nach dem Stand der Technik in Bezug auf ein oder mehrere gewünschte Charakteristika bevorzugt beschrieben wurden, erkennen Durchschnittsfachmänner, dass bei einem oder mehreren Merkmalen oder Charakteristika ein Kompromiss geschlossen werden kann, um gewünschte Gesamtsystemattribute zu erzielen, die von der spezifischen Anwendung und Umsetzung abhängen. Diese Attribute können Kosten, Festigkeit, Dauerhaftigkeit, Lebenszykluskosten, Marktfähigkeit, Aussehen, Verpackung, Größe, Bedienbarkeit, Gewicht, Herstellbarkeit, Einbaufreundlichkeit usw. beinhalten, sind jedoch nicht darauf beschränkt. Dabei liegen Ausführungsformen, die als weniger wünschenswert als andere Ausführungsformen oder Umsetzungen nach dem Stand der Technik in Bezug auf ein oder mehrere Charakteristika beschrieben wurden, nicht außerhalb des Schutzumfangs der Offenbarung und können für bestimmte Anwendungen wünschenswert sein.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 3069654 [0024]

Claims (20)

  1. Verfahren zum Parken eines Fahrzeugs, das Folgendes umfasst: Erkennen eines Zielobjekts in einem Parkplatz mit einer Kamera und Vorfahren des Fahrzeugs in den Parkplatz auf der Basis eines Winkels zwischen dem Zielobjekt und einer Senkrechte eines Kamerasichtfelds und eines Abstands von der Kamera zu dem Zielobjekt auf der Basis eines Vektors, der eine Abgrenzung des Zielobjekts darstellt.
  2. Verfahren nach Anspruch 1, wobei der Vektor auf einer horizontalen Projektion eines ersten Segments der Abgrenzung und einer Verzerrung des Zielobjekts basiert.
  3. Verfahren nach Anspruch 2, wobei der Abstand außerdem auf einem Winkel zwischen dem Vektor und der horizontalen Projektion basiert.
  4. Verfahren nach Anspruch 3, wobei der Abstand außerdem auf einer Position des Zielobjekts in dem Kamerasichtfeld basiert.
  5. Verfahren nach Anspruch 3 oder Anspruch 4, wobei die Verzerrung auf einem von der Kamera erkannten Flächenschwerpunkt des Zielobjekts und einem erwarteten Flächenschwerpunkt des Zielobjekts basiert.
  6. Verfahren nach Anspruch 5, wobei der erwartete Flächenschwerpunkt auf einem zweiten Segment der Abgrenzung basiert.
  7. Verfahren nach einem der Ansprüche 1 bis 6, wobei der Winkel ein Gierwinkel des Fahrzeugs ist.
  8. Fahrzeug, das Folgendes umfasst: eine Kamera, die dazu konfiguriert ist, ein Zielobjekt in einem Parkplatz zu erkennen; und einen Controller, der dazu programmiert ist, als Reaktion auf das Erkennen der Gegenwart des Zielobjekts durch die Kamera das Fahrzeug in den Parkplatz auf der Basis eines Gierwinkels des Fahrzeugs und eines Abstands zu dem Zielobjekt vorzufahren, wobei der Abstand auf einem Vektor basiert, der eine Abgrenzung des Zielobjekts darstellt.
  9. Fahrzeug nach Anspruch 8, wobei der Vektor auf einer horizontalen Projektion eines ersten Segments der Abgrenzung und einer Verzerrung des Zielobjekts basiert.
  10. Fahrzeug nach Anspruch 9, wobei der Abstand außerdem auf einem Winkel zwischen dem Vektor und der horizontalen Projektion basiert.
  11. Fahrzeug nach Anspruch 10, wobei der Abstand außerdem auf einer Position des Zielobjekts in einem Sichtfeld der Kamera basiert.
  12. Fahrzeug nach Anspruch 10 oder Anspruch 11, wobei die Verzerrung auf einem von der Kamera erkannten Flächenschwerpunkt des Zielobjekts und einem erwarteten Flächenschwerpunkt des Zielobjekts basiert.
  13. Fahrzeug nach Anspruch 12, wobei der erwartete Flächenschwerpunkt auf einem zweiten Segment der Abgrenzung basiert.
  14. Fahrzeug nach einem der Ansprüche 8 bis 13, wobei der Gierwinkel ein Winkel zwischen dem Zielobjekt und einer Senkrechte eines Kamerasichtfelds ist.
  15. Fahrzeug nach einem der Ansprüche 8 bis 14, wobei die Kamera einer Front des Fahrzeugs zugewandt ist.
  16. Fahrzeug, das Folgendes umfasst: eine Kamera, die dazu konfiguriert ist, ein Signal auszugeben, das die Gegenwart eines Zielobjekts in einem Parkplatz anzeigt; und einen Controller in Kommunikation mit der Kamera, der dazu programmiert ist, als Reaktion auf das Empfangen des Signals das Fahrzeug in den Parkplatz auf der Basis eines Abstands von der Kamera zu dem Zielobjekt und eines Winkels zwischen dem Zielobjekt und einer Senkrechte eines Sichtfelds der Kamera vorzufahren, wobei der Abstand auf einem Vektor, der eine Abgrenzung des Zielobjekts darstellt, einem Winkel zwischen dem Vektor und einer horizontalen Projektion eines ersten Segments der Abgrenzung und einer Position des Zielobjekts in dem Sichtfeld basiert.
  17. Fahrzeug nach Anspruch 16, wobei der Vektor auf der horizontalen Projektion und einer Verzerrung des Zielobjekts basiert.
  18. Fahrzeug nach Anspruch 17, wobei die Verzerrung auf einem von der Kamera erkannten Flächenschwerpunkt des Zielobjekts und einem erwarteten Flächenschwerpunkt des Zielobjekts basiert.
  19. Fahrzeug nach Anspruch 18, wobei der erwartete Flächenschwerpunkt des Zielobjekts auf einem zweiten Segment der Abgrenzung basiert.
  20. Fahrzeug nach einem der Ansprüche 16 bis 19, wobei der Winkel zwischen dem Zielobjekt und der Senkrechte des Sichtfelds der Kamera ein Gierwinkel des Fahrzeugs ist.
DE102016105238.8A 2015-03-27 2016-03-21 Fahrzeug und fahrzeugparksystem Pending DE102016105238A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/670,994 2015-03-27
US14/670,994 US9725116B2 (en) 2015-03-27 2015-03-27 Vehicle and vehicle parking system

Publications (1)

Publication Number Publication Date
DE102016105238A1 true DE102016105238A1 (de) 2016-09-29

Family

ID=56890315

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016105238.8A Pending DE102016105238A1 (de) 2015-03-27 2016-03-21 Fahrzeug und fahrzeugparksystem

Country Status (5)

Country Link
US (1) US9725116B2 (de)
CN (1) CN106020182B (de)
DE (1) DE102016105238A1 (de)
MX (1) MX356820B (de)
RU (1) RU2702380C2 (de)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106448264A (zh) * 2016-10-26 2017-02-22 苏州花坞信息科技有限公司 一种智能停车***和停车方法
CN109291918B (zh) * 2017-07-24 2020-09-15 比亚迪股份有限公司 泊车位的找寻判定方法、装置和车辆
WO2019231475A1 (en) * 2018-06-01 2019-12-05 Paccar Inc. Systems and methods for autonomously backing a vehicle to a dock
US11531840B2 (en) 2019-02-08 2022-12-20 Vizit Labs, Inc. Systems, methods, and storage media for training a model for image evaluation
US10467504B1 (en) 2019-02-08 2019-11-05 Adhark, Inc. Systems, methods, and storage media for evaluating digital images
US11482015B2 (en) * 2019-08-09 2022-10-25 Otobrite Electronics Inc. Method for recognizing parking space for vehicle and parking assistance system using the method
CN114056428B (zh) * 2021-10-13 2023-01-17 中科云谷科技有限公司 用于工程车辆的倒车引导方法、装置、处理器及***

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3069654A (en) 1960-03-25 1962-12-18 Paul V C Hough Method and means for recognizing complex patterns

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1796042B1 (de) * 2005-12-06 2011-02-23 Nissan Motor Co., Ltd. Detektionsvorrichtung und -verfahren
US7899211B2 (en) * 2005-12-07 2011-03-01 Nissan Motor Co., Ltd. Object detecting system and object detecting method
KR100857330B1 (ko) 2006-12-12 2008-09-05 현대자동차주식회사 주차 궤적 인식 장치 및 자동 주차 시스템
EP2100778A1 (de) * 2006-12-28 2009-09-16 Kabushiki Kaisha Toyoda Jidoshokki Parkhilfevorrichtung, komponente für eine parkhilfevorrichtung, parkhilfeverfahren, parkhilfeprogramm, verfahren und programm zur berechnung von fahrzeugfahrtparametern, vorrichtung zur berechnung von fahrzeugfahrtparametern und komponente für eine vorrichtung zur berechnung von fahrzeugfahrtparametern
US8289189B2 (en) 2009-05-11 2012-10-16 Robert Bosch Gmbh Camera system for use in vehicle parking
JP5397321B2 (ja) * 2009-06-09 2014-01-22 株式会社デンソー 駐車支援システム
CN102939223B (zh) * 2010-06-11 2015-08-05 日产自动车株式会社 停车辅助装置以及停车辅助方法
BE1020293A3 (nl) 2011-11-10 2013-07-02 Cnh Belgium Nv Werkwijze voor het sturen van een camera-systeem op landbouwmachines.
US9696420B2 (en) * 2013-04-09 2017-07-04 Ford Global Technologies, Llc Active park assist object detection
CN104270818A (zh) * 2014-10-16 2015-01-07 北京北斗天成科技有限公司 一种停车场中车辆的无线定位方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3069654A (en) 1960-03-25 1962-12-18 Paul V C Hough Method and means for recognizing complex patterns

Also Published As

Publication number Publication date
RU2016109802A (ru) 2017-09-21
MX356820B (es) 2018-06-14
MX2016003828A (es) 2016-09-26
CN106020182B (zh) 2023-10-27
CN106020182A (zh) 2016-10-12
RU2702380C2 (ru) 2019-10-08
US20160280268A1 (en) 2016-09-29
US9725116B2 (en) 2017-08-08
RU2016109802A3 (de) 2019-08-01

Similar Documents

Publication Publication Date Title
DE102016105238A1 (de) Fahrzeug und fahrzeugparksystem
DE102015121339B4 (de) Systeme und verfahren zum ermitteln eines zustands einer fahrbahn
DE112016007131B4 (de) Objektdetektionseinrichtung und Objektbestimmungsverfahren
DE102014209137B4 (de) Verfahren und Vorrichtung zur Kalibrierung eines Kamerasystems eines Kraftfahrzeugs
DE102015121387B4 (de) Hinderniserkennungseinrichtung und Hinderniserkennungsverfahren
DE102012222497A1 (de) System und Verfahren zum Erkennen von Parkraumlinienmarkierungen für Fahrzeuge
DE112009000949T5 (de) Detektion eines freien Fahrpfads für ein Fahrzeug
DE102009050505A1 (de) Detektion eines freien Pfads durch Strassenmodellerstellung
DE102009048699A1 (de) Pixelbasierte Detektion einer nicht vorhandenen Struktur eines freien Pfads
DE102009048892A1 (de) Pixelbasierte strukturreiche Detektion eines freien Pfads
DE102011111440A1 (de) Verfahren zur Umgebungsrepräsentation
DE102013205854B4 (de) Verfahren zum Detektieren eines freien Pfads mittels temporärer Koherenz
DE102015205685A1 (de) Fahrbahnmarkierungserkennungseinrichtung
EP2546778A2 (de) Verfahren zum evaluieren einer Objekterkennungseinrichtung eines Kraftfahrzeugs
DE102016218852A1 (de) Detektion von Objekten aus Bildern einer Kamera
DE102015206546A1 (de) Fahrbahnmarkierungserkennungsvorrichtung
DE102018123393A1 (de) Erkennung von Parkflächen
DE102015211874A1 (de) Objekterkennungsvorrichtung
DE102018124979A1 (de) Fahrerassistenzsystem zur Bestimmung einer Entfernung zwischen zwei Fahrzeugen mit einer Kamera
DE102016218853A1 (de) Detektion und Validierung von Objekten aus Bildern einer Kamera
DE102019208735B4 (de) Verfahren zum Betreiben eines Fahrassistenzsystems eines Fahrzeugs und Fahrerassistenzsystem für ein Fahrzeug
DE102015211871A1 (de) Objekterkennungsvorrichtung
DE102013002889A1 (de) Verfahren und Vorrichtung zur Modellierung eines Fahrbahnrandes und Fahrzeug mit einer solchen Vorrichtung
DE102008036219A1 (de) Verfahren zur Erkennung von Objekten im Umfeld eines Fahrzeugs
DE102019209562B4 (de) Vorrichtung und Verfahren zum Trainieren eines neuronalen Netzwerkes sowie Vorrichtung und Verfahren zum Validieren eines neuronalen Netzwerkes

Legal Events

Date Code Title Description
R012 Request for examination validly filed