DE102014114221A1 - Method for detecting an object in a surrounding area of a motor vehicle, driver assistance system and motor vehicle - Google Patents
Method for detecting an object in a surrounding area of a motor vehicle, driver assistance system and motor vehicle Download PDFInfo
- Publication number
- DE102014114221A1 DE102014114221A1 DE102014114221.7A DE102014114221A DE102014114221A1 DE 102014114221 A1 DE102014114221 A1 DE 102014114221A1 DE 102014114221 A DE102014114221 A DE 102014114221A DE 102014114221 A1 DE102014114221 A1 DE 102014114221A1
- Authority
- DE
- Germany
- Prior art keywords
- motor vehicle
- component
- determined
- image
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims abstract description 45
- 239000013598 vector Substances 0.000 claims abstract description 63
- 238000011156 evaluation Methods 0.000 claims abstract description 10
- 230000002123 temporal effect Effects 0.000 claims abstract description 8
- 230000001419 dependent effect Effects 0.000 claims abstract description 3
- 230000004907 flux Effects 0.000 claims description 7
- 230000003068 static effect Effects 0.000 claims description 6
- 230000003287 optical effect Effects 0.000 description 7
- 230000008901 benefit Effects 0.000 description 5
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 3
- 240000004050 Pentaglottis sempervirens Species 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000002955 isolation Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/292—Multi-camera tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R1/00—Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/20—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/22—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
- B60R1/23—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/269—Analysis of motion using gradient-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/579—Depth or shape recovery from multiple images from motion
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/10—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
- B60R2300/105—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/30—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
- B60R2300/307—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/62—Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mechanical Engineering (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Abstract
Die Erfindung betrifft ein Verfahren zum Detektieren von einem Objekt (12) in einem Umgebungsbereich (6) eines Kraftfahrzeugs (1) anhand einer zeitlichen Sequenz von Bildern (9) des Umgebungsbereichs (6), welche mittels einer Kamera (3a, 3b) des Kraftfahrzeugs (1) erfasst werden, wobei mittels einer elektronischen Auswerteeinrichtung (4) des Kraftfahrzeuges (1) in einem ersten Bild der Sequenz (9) von Bildern zumindest ein charakteristischer Bildpunkt (p) von dem Objekt (12) bestimmt wird und in zumindest einem zweiten Bild (8) der zumindest eine bestimmten charakteristische Bildpunkt (p) verfolgt wird und durch das Verfolgen ein Flussvektor (δ) mit jeweils einer vertikalen Komponente (δv) und einer horizontalen Komponente (δu) bereitgestellt wird, wobei anhand der vertikalen Komponente (δv) eine erste Tiefenkomponente (z‘1), welche senkrecht zu der vertikalen Komponente (δv) und der horizontalen Komponente (δu) ist, bestimmt wird, und anhand der horizontalen Komponente (δu) eine zweite Tiefenkomponente (z‘2), welche ebenfalls senkrecht zu der vertikalen Komponente (δv) und der horizontalen Komponente (δu) ist, bestimmt wird, und, falls die erste Tiefenkomponente (z‘1) innerhalb eines Toleranzbereichs der zweiten Tiefenkomponente (z‘2) entspricht, eine validierte Endtiefenkomponente (z‘) eines von dem charakteristischen Bildpunkt (p) abhängigen verfolgten charakteristischen Bildpunktes (13) bereitgestellt wird.The invention relates to a method for detecting an object (12) in a surrounding area (6) of a motor vehicle (1) on the basis of a temporal sequence of images (9) of the surrounding area (6), which is generated by a camera (3a, 3b) of the motor vehicle (1) are detected, wherein by means of an electronic evaluation device (4) of the motor vehicle (1) in a first image of the sequence (9) of images at least one characteristic pixel (p) of the object (12) is determined and in at least a second Figure (8) the at least one specific characteristic pixel (p) is tracked and by tracking a flow vector (δ) is provided with in each case a vertical component (δv) and a horizontal component (δu), wherein based on the vertical component (δv) a first depth component (z'1) which is perpendicular to the vertical component (δv) and the horizontal component (δu), and from the horizontal component (δu) e a second depth component (z'2), which is also perpendicular to the vertical component (δv) and the horizontal component (δu), and if the first depth component (z'1) is within a tolerance range of the second depth component (z '2), a validated final depth component (z') of a tracked characteristic pixel (13) dependent on the characteristic pixel (p) is provided.
Description
Die Erfindung betrifft ein Verfahren zum Detektieren von einem Objekt in einem Umgebungsbereich eines Kraftfahrzeugs anhand einer zeitlichen Sequenz von Bildern des Umgebungsbereichs, welche mittels einer Kamera des Kraftfahrzeugs erfasst werden, wobei mittels einer elektronischen Auswerteeinrichtung des Kraftfahrzeugs in einem ersten Bild der Bildsequenz von Bildern charakteristische Bildpunkte von dem Objekt bestimmt werden und in zumindest einem zweiten Bild die bestimmten charakteristischen Bildpunkte verfolgt werden und durch das Verfolgen eine Vielzahl von Flussvektoren mit jeweils einer vertikalen Komponente und einer horizontalen Komponente bereitgestellt wird. Die Erfindung betrifft außerdem ein Fahrerassistenzsystem für ein Kraftfahrzeug, wie auch ein Kraftfahrzeug mit einem Fahrerassistenzsystem. The invention relates to a method for detecting an object in an environmental region of a motor vehicle based on a temporal sequence of images of the surrounding area, which are detected by a camera of the motor vehicle, wherein by means of an electronic evaluation device of the motor vehicle in a first image of the image sequence of images characteristic pixels are determined by the object and are tracked in at least a second image, the specific characteristic pixels and by tracking a plurality of flow vectors each having a vertical component and a horizontal component is provided. The invention also relates to a driver assistance system for a motor vehicle, as well as a motor vehicle with a driver assistance system.
Verfahren zum Detektieren von einem Objekt in einem Umgebungsbereich eines Kraftfahrzeugs sind aus dem Stand der Technik bekannt. So wird in der
Weiterhin ist ein System zur Kollisionsvermeidung mit einem Bildaufnahmegerät, angebracht im vorderen Bereich des Fahrzeugs, welches ein Bild aufnimmt, und einem Modul welches eine Vielzahl von 3D Modellen bildet und in einem Speichermedium abspeichert, aus der
Von der
Aus der
Es ist Aufgabe der Erfindung, ein Verfahren, ein Fahrerassistenzsystem sowie ein Kraftfahrzeug bereitzustellen, mit welchen beziehungsweise bei welchen das Objekt in dem Umgebungsbereich des Kraftfahrzeugs besonders präzise detektiert werden kann. It is an object of the invention to provide a method, a driver assistance system and a motor vehicle, with which or in which the object in the surrounding area of the motor vehicle can be detected particularly precisely.
Diese Aufgabe wird erfindungsgemäß durch ein Verfahren, durch ein Fahrerassistenzsystem sowie durch ein Kraftfahrzeug mit den Merkmalen gemäß den jeweiligen unabhängigen Ansprüchen gelöst. This object is achieved by a method by a driver assistance system and by a motor vehicle with the features according to the respective independent claims.
Bei einem erfindungsgemäßen Verfahren zum Detektieren eines Objekts in einem Umgebungsbereich eines Kraftfahrzeugs wird eine zeitliche Sequenz von Bildern des Umgebungsbereichs erzeugt, welche mittels einer Kamera des Kraftfahrzeugs erfasst werden. Mittels einer elektronischen Auswerteeinrichtung des Kraftfahrzeugs wird in einem ersten Bild der Bildsequenz von Bildern zumindest ein charakteristischer Bildpunkt von dem Objekt bestimmt. In zumindest einem zweiten Bild wird der zumindest eine bestimmte charakteristische Bildpunkt verfolgt und durch das Verfolgen wird zumindest ein Flussvektor mit jeweils einer vertikalen Komponente und einer horizontalen Komponente bereitgestellt. Erfindungsgemäß ist vorgesehen, dass anhand der vertikalen Komponente eine erste Tiefenkomponente, welche senkrecht zu der vertikalen Komponente und der horizontalen Komponente ist, bestimmt wird, und es wird anhand der horizontalen Komponente eine zweite Tiefenkomponente, welche ebenfalls senkrecht zu der vertikalen Komponente und der horizontalen Komponente ist, bestimmt. Falls die erste Tiefenkomponente innerhalb eines Toleranzbereichs der zweiten Tiefenkomponente entspricht, wird eine validierte Endtiefenkomponente eines von dem zumindest einen charakteristischen Bildpunkt abhängigen verfolgten charakteristischen Bildpunktes bereitgestellt. In a method according to the invention for detecting an object in an environmental region of a motor vehicle, a temporal sequence of images of the surrounding area is generated, which are detected by means of a camera of the motor vehicle. By means of an electronic evaluation device of the motor vehicle, at least one characteristic pixel of the object is determined in a first image of the image sequence of images. In at least one second image, the at least one specific characteristic pixel is tracked, and by tracking, at least one flow vector is provided, each with a vertical component and a horizontal component. According to the invention, it is provided that a first depth component which is perpendicular to the vertical component and the horizontal component is determined on the basis of the vertical component, and a second depth component, which is likewise perpendicular to the vertical component and the horizontal component, is determined on the basis of the horizontal component is, certainly. If the first depth component within a tolerance range corresponds to the second depth component, then a validated end depth component of a tracked characteristic pixel dependent on the at least one characteristic pixel is provided.
Durch das erfindungsgemäße Verfahren wird es also möglich, die validierte beziehungsweise überprüfte Endtiefenkomponente des verfolgten charakteristischen Bildpunktes bereitzustellen. Der verfolgte charakteristische Bildpunkt ist der charakteristische Bildpunkt, welcher mit dem optischen Fluss verfolgt wurde und den Flussvektor bereitstellt. Das Verfahren ist möglich, weil jeder der Flussvektoren die vertikale Komponente und die horizontale Komponente bereitstellt. Die vertikale Komponente und die horizontale Komponente befinden sich in der Bildebene und sind zueinander senkrecht. So kann die vertikale Komponente beispielsweise in einer Spalte des Bildes über mehrere Zeilen des Bildes bestimmt werden, während die horizontale Komponente in einer Zeile des Bildes über mehrere Spalten des Bildes bestimmt wird. Anhand der vertikalen Komponente wird also eine erste Tiefenkomponente bestimmt. Die erste Tiefenkomponente ist senkrecht zu der Bildebene ausgerichtet und ragt beispielsweise in das Bild hinein. Durch die erste Tiefenkomponente kann also bestimmt werden, wie weit der jeweilige charakteristische Bildpunkt von der Kamera und/oder dem Kraftfahrzeug entfernt ist. Analog gilt dies natürlich ebenfalls für die zweite Tiefenkomponente, welche anhand der horizontalen Komponente bestimmt wird. Schließlich liegen also zwei Tiefenkomponenten beziehungsweise zwei Tiefenwerte vor, nämlich die erste Tiefenkomponente und die zweite Tiefenkomponente, welche unabhängig voneinander die Tiefe beziehungsweise die Entfernung des charakteristischen Bildpunktes zu der Kamera und/oder dem Kraftfahrzeug beschreiben. Nachdem der jeweilige charakteristische Bildpunkt nur in einer Entfernung angeordnet sein kann beziehungsweise mit einem Tiefenwert versehen sein kann, wird davon ausgegangen, dass die validierte Endtiefenkomponente beziehungsweise der validierte Endtiefenwert beziehungsweise der richtige Tiefenwert ausschließlich dann vorliegt, falls die erste Tiefenkomponente innerhalb eines Toleranzbereichs der zweiten Tiefenkomponente entspricht. Der Toleranzbereich kann vorzugsweise kleiner oder gleich 25 Prozent oder insbesondere kleiner oder gleich 20 Prozent oder insbesondere kleiner oder gleich 10 Prozent oder insbesondere kleiner oder gleich 5 Prozent oder insbesondere kleiner oder gleich 1 Prozent betragen. Somit kann eine besonders zuverlässige Endtiefenkomponente beziehungsweise ein besonders zuverlässiger Tiefenwert des jeweiligen charakteristischen Bildpunktes bereitgestellt werden. The inventive method thus makes it possible to provide the validated or checked final depth component of the tracked characteristic pixel. The traced characteristic pixel is the characteristic pixel that was traced with the optical flux and provides the flux vector. The method is possible because each of the flow vectors provides the vertical component and the horizontal component. The vertical component and the horizontal component are located yourself in the picture plane and are perpendicular to each other. For example, the vertical component in one column of the image may be determined over several lines of the image while the horizontal component in one row of the image is determined over several columns of the image. Based on the vertical component, therefore, a first depth component is determined. The first depth component is oriented perpendicular to the image plane and projects into the image, for example. The first depth component can thus be used to determine how far away the respective characteristic pixel is from the camera and / or the motor vehicle. Of course, this also applies analogously to the second depth component, which is determined on the basis of the horizontal component. Finally, there are thus two depth components or two depth values, namely the first depth component and the second depth component, which independently of one another describe the depth or the distance of the characteristic picture element to the camera and / or the motor vehicle. After the respective characteristic pixel can only be arranged at a distance or can be provided with a depth value, it is assumed that the validated final depth component or the validated final depth value or the correct depth value exists exclusively if the first depth component is within a tolerance range of the second depth component equivalent. The tolerance range may preferably be less than or equal to 25 percent or in particular less than or equal to 20 percent or in particular less than or equal to 10 percent or in particular less than or equal to 5 percent or in particular less than or equal to 1 percent. Thus, a particularly reliable depth of field component or a particularly reliable depth value of the respective characteristic pixel can be provided.
Insbesondere ist vorgesehen, dass die vertikale Komponente und/oder die horizontale Komponente abhängig von zumindest einem von einer kraftfahrzeugseitigen Einheit bestimmten aktuellen Bewegungsvektor des Kraftfahrzeugs, insbesondere einer Geschwindigkeit und/oder einer Gierwinkelgeschwindigkeit und/oder einer Nickwinkelgeschwindigkeit und/oder einer Rollwinkelgeschwindigkeit, bestimmt wird. Somit kann mit dem aktuellen Bewegungsvektor eine Eigenbewegung des Kraftfahrzeugs aus jedem Bild der Sequenz von Bildern und somit auch aus den Flussvektoren herausgerechnet werden. Somit kann beispielsweise auch zwischen bewegten und statischen Objekten unterschieden werden. Der Bewegungsvektor kann anhand der Geschwindigkeit und/oder der Gierwinkelgeschwindigkeit und/oder des Nickwinkelgeschwindigkeit und/oder des Rollwinkelgeschwindigkeit bestimmt werden. Die Geschwindigkeit und/oder die Gierwinkelgeschwindigkeit und/oder die Nickwinkelgeschwindigkeit und/oder die Rollwinkelgeschwindigkeit können von der kraftfahrzeugseitigen Einheit beziehungsweise einem CAN-Bus des Kraftfahrzeugs abgegriffen werden. In particular, it is provided that the vertical component and / or the horizontal component is determined as a function of at least one current motion vector of the motor vehicle, in particular a speed and / or a yaw angular velocity and / or a pitch angular velocity and / or a roll angular velocity determined by a motor vehicle side unit. Thus, with the current motion vector, a self-motion of the motor vehicle can be calculated out of every image of the sequence of images and thus also out of the flow vectors. Thus, for example, a distinction can also be made between moving and static objects. The motion vector may be determined from the speed and / or the yaw angular velocity and / or the pitch angular velocity and / or the roll angular velocity. The speed and / or the yaw angular velocity and / or the pitch angular velocity and / or the roll angular velocity can be tapped by the motor vehicle side unit or a CAN bus of the motor vehicle.
Vorzugsweise ist vorgesehen, dass beim Bestimmen der vertikalen Komponente und/oder der horizontalen Komponente ein Kalibrierungszustand der Kamera, insbesondere eine innere Orientierung und/oder eine äußere Orientierung, berücksichtigt werden. Eine Lage eines Projektionszentrums der Kamera relativ zur Bildebene des Bildes wird mit der inneren Orientierung beschrieben, während die Lage des Projektionszentrums und einer Aufnahmerichtung der Kamera relativ zu dem Objekt mit der äußeren Orientierung beschrieben wird. So kann beispielsweise mit dem Kalibrierungszustand eine Verzeichnung des Bildes, welche beispielsweise aufgrund eines Objektivs der Kamera entstanden ist, korrigiert werden. Weiterhin kann mit dem Kalibrierungszustand ein Zusammenhang zwischen einer Position des Objektes im Bild und einer Position des Objektes in der realen Welt hergestellt werden. Es kann also auch eine Transformation der Koordinaten des Objektes von einem Weltkoordinatensystem beziehungsweise einem erdfesten Koordinatensystem oder einem Kraftfahrzeugkoordinatensystem in ein Kamerakoordinatensystem ein erfolgen. It is preferably provided that, when determining the vertical component and / or the horizontal component, a calibration state of the camera, in particular an inner orientation and / or an outer orientation, are taken into account. A position of a projection center of the camera relative to the image plane of the image is described with the inner orientation, while the position of the projection center and a shooting direction of the camera relative to the object with the outer orientation is described. Thus, for example, with the calibration state, a distortion of the image, which has arisen for example due to a lens of the camera, can be corrected. Furthermore, with the calibration state, a relationship between a position of the object in the image and a position of the object in the real world can be established. Thus, it is also possible to transform the coordinates of the object from a world coordinate system or an earth-fixed coordinate system or a motor vehicle coordinate system into a camera coordinate system.
Insbesondere wird abhängig von der validierten Endtiefenkomponente eine 3D-Position des Objekts bestimmt. Die 3D-Position des Objekts kann abhängig von der vertikalen Komponente, der horizontalen Komponente und der validierten Endtiefenkomponente bereitgestellt werden. Die 3D-Position kann genutzt werden, um eine Draufsicht beziehungsweise eine Ansicht in Vogelperspektive des Umgebungsbereichs bereitzustellen. Ergänzend oder alternativ können anhand der 3D-Position des Objekts eine Seitenansicht und/oder eine Rückansicht des Objektes erfolgen, wodurch ein mögliches Hindernis für das Kraftfahrzeug erkannt werden kann. Weiterhin kann ein Fahrer des Kraftfahrzeugs anhand der vogelperspektivischen Darstellung besonders schnell und einfach erkennen, wo sich ein mögliches Hindernis für das Kraftfahrzeug befindet. In particular, depending on the validated final depth component, a 3D position of the object is determined. The 3D position of the object may be provided depending on the vertical component, the horizontal component, and the validated end depth component. The 3D position can be used to provide a bird's-eye view of the surrounding area. Additionally or alternatively, based on the 3D position of the object, a side view and / or a rear view of the object can take place, whereby a possible obstacle for the motor vehicle can be detected. Furthermore, a driver of the motor vehicle on the basis of the bird's-eye view representation particularly quickly and easily recognize where a possible obstacle for the motor vehicle is located.
Weiterhin ist vorgesehen, dass bei der Bestimmung der charakteristischen Bildpunkte ein Gitter mit mehreren Zellen berücksichtigt wird, durch welches das erste Bild unterteilt wird. Ein Vorteil des Gitters ist, dass die charakteristischen Bildpunkte so bestimmt werden können, dass deren Verteilung in dem ersten Bild homogen beziehungsweise gleichmäßig ist. So kann beispielsweise eine gewünschte Anzahl von charakteristischen Bildpunkten pro Gitter festgelegt werden. Weiterhin bietet das Gitter den Vorteil, dass jede Zelle des Gitters einzeln verarbeitet werden kann und somit eine Grundlage für eine Parallelisierung beziehungsweise eine parallele Verarbeitung der Zellen geschaffen wird. Furthermore, it is provided that, in the determination of the characteristic pixels, a grid having a plurality of cells is taken into account, by which the first image is subdivided. An advantage of the grating is that the characteristic pixels can be determined so that their distribution in the first image is homogeneous. For example, a desired number of characteristic pixels per grid can be specified. Furthermore, the grid offers the advantage that each cell of the grid can be processed individually and thus a basis for a parallelization or a parallel processing of the cells is created.
Weiterhin können die charakteristischen Bildpunkte abhängig von einem Mindestwert, welcher eine Mindestanzahl von charakteristischen Bildpunkten pro Zelle angibt, und/oder einem Maximalwert, welcher eine Höchstanzahl von charakteristischen Bildpunkten pro Zelle angibt, bestimmt werden. Durch den Mindestwert und/oder den Maximalwert kann also bestimmt werden, welche Anzahl von charakteristischen Bildpunkten in der jeweiligen Zelle erwünscht ist. Vorteilhaft daran ist, dass eine homogene Verteilung der Bildpunkte über das gesamte Bild erzeugt werden kann. Weiterhin kann verhindert werden, dass unnötig Rechenaufwand zum Bestimmen der charakteristischen Bildpunkte aufgebracht wird. So kann dies der Fall sein in Zellen mit vielen Ecken und kleinen kontrastreichen Strukturen. Andererseits kann aber auch sichergestellt werden, dass in den jeweiligen Zellen, welche einen niedrigen Kontrast und wenige Ecken aufweisen, zu wenig charakteristische Bildpunkte bestimmt werden. Furthermore, the characteristic pixels may be determined depending on a minimum value indicating a minimum number of characteristic pixels per cell and / or a maximum value indicating a maximum number of characteristic pixels per cell. The minimum value and / or the maximum value can therefore be used to determine which number of characteristic pixels is desired in the respective cell. The advantage of this is that a homogeneous distribution of the pixels over the entire image can be generated. Furthermore, it can be prevented that unnecessary computational effort for determining the characteristic pixels is applied. This may be the case in cells with many corners and small contrasting structures. On the other hand, it can also be ensured that too few characteristic pixels are determined in the respective cells, which have a low contrast and few corners.
Vorzugsweise ist vorgesehen, dass eine Richtung von jeweils einem der Flussvektoren mit den verbleibenden Flussvektoren verglichen wird und aus dem Vergleich ein Richtungszuverlässigkeitswert bestimmt wird. Es kann also anhand des Richtungszuverlässigkeitswerts beziehungsweise eines Konsistenzwerts bestimmt werden, wie zuverlässig ein jeweiliger Flussvektor ist. Dies kann anhand eines Vergleichs mit den übrigen Flussvektoren erfolgen. Üblicherweise erstrecken sich die Flussvektoren in die gleiche Richtung. Falls nun einer der Flussvektoren in eine andere Richtung verläuft, so ist davon auszugehen, dass es sich hierbei um einen Ausreißer handelt. Der Ausreißer kann beispielsweise durch ein bewegtes Objekt hervorgerufen oder durch einen Fehler bei dem Verfolgen des charakteristischen Punktes mit beispielsweise einem Verfahren nach dem optischen Fluss. Zum Bestimmen des Richtungszuverlässigkeitswerts kann auch eine 3D-Position des charakteristischen Bildpunktes über einen zeitlichen Verlauf genutzt werden. It is preferably provided that a direction of each of the flow vectors is compared with the remaining flow vectors and a direction reliability value is determined from the comparison. It can thus be determined from the direction reliability value or a consistency value, how reliable a respective flow vector is. This can be done by comparison with the other flow vectors. Usually, the flow vectors extend in the same direction. If one of the flow vectors moves in a different direction, it can be assumed that this is an outlier. The outlier may be caused, for example, by a moving object or by an error in tracking the characteristic point with, for example, a method of optical flow. To determine the direction reliability value, it is also possible to use a 3D position of the characteristic pixel over a time course.
In einer weiteren Ausgestaltung ist vorgesehen, dass anhand des Richtungszuverlässigkeitswerts zwischen statischen Objekten und bewegten Objekten unterschieden wird. So ist der Richtungszuverlässigkeitswert für die bewegten Objekte geringer als der Richtungszuverlässigkeitswert für statische Objekte, weil davon auszugehen ist, dass die bewegten Objekte sich nicht in die Richtung der Mehrheit der charakteristischen Bildpunkte bewegen. Falls diese sich doch in die Richtung der charakteristischen Bildpunkte von statischen Objekten bewegen, so kann davon ausgegangen werden, dass dies zeitlich beschränkt ist und anschließend eine Richtungsänderung stattfindet. Somit können also beispielsweise ausschließlich charakteristische Bildpunkte beziehungsweise Flussvektoren von statischen Objekten genutzt werden, um die Endtiefenkomponente zu bestimmen. In a further embodiment, it is provided that a distinction is made between static objects and moving objects on the basis of the direction reliability value. Thus, the directional reliability value for the moving objects is less than the directional reliability value for static objects because it is considered that the moving objects do not move in the direction of the majority of the characteristic pixels. If these move in the direction of the characteristic pixels of static objects, then it can be assumed that this is limited in time and then a change of direction takes place. Thus, for example, only characteristic pixels or flow vectors of static objects can be used to determine the final depth component.
Weiterhin ist vorgesehen, dass abhängig von den Flussvektoren ein Bewegungsvektor des Kraftfahrzeugs, insbesondere eine Geschwindigkeit und/oder eine Gierwinkelgeschwindigkeit und/oder eine Nickwinkelgeschwindigkeit und/oder eine Rollwinkelgeschwindigkeit, bestimmt wird, welcher mit einem von einer kraftfahrzeugseitigen Einheit bestimmten Bewegungsvektor verglichen wird. Es kann also vorgesehen sein, dass die Flussvektoren zur Bestimmung eines Bewegungsvektors des Kraftfahrzeugs genutzt werden, welcher dann mit einem Bewegungsvektor des Kraftfahrzeugs, welcher anhand von einer anderen Quelle, nämlich beispielsweise der kraftfahrzeugseitigen Einheit, bereitgestellt wurde verglichen werden kann. So kann beispielsweise überprüft werden, ob die Flussvektoren richtig bestimmt worden sind oder, falls den Flussvektoren mehr Vertrauen geschenkt wird, ob der Bewegungsvektor der kraftfahrzeugseitigen Einheit zuverlässig bereitgestellt worden ist. It is further provided that, depending on the flow vectors, a motion vector of the motor vehicle, in particular a speed and / or a yaw angular velocity and / or a pitch angular velocity and / or a roll angular velocity, is determined, which is compared with a motion vector determined by a motor vehicle-side unit. It can therefore be provided that the flow vectors are used to determine a motion vector of the motor vehicle, which can then be compared with a motion vector of the motor vehicle, which was provided from another source, namely, for example, the motor vehicle side unit. Thus, for example, it can be checked whether the flow vectors have been determined correctly or, if more trust is given to the flow vectors, whether the motion vector of the motor vehicle side unit has been reliably provided.
Weiterhin ist vorgesehen, dass die Flussvektoren mit einem RANSAC-Verfahren ausgewählt werden. RANSAC (Random Sample Consensus) ist ein Algorithmus zur Schätzung eines Modells innerhalb einer Reihe von Messwerten mit Ausreißern und groben Fehlern. Hierbei wird überprüft, inwieweit ein zufällig ausgewählter Flussvektor von den anderen Flussvektoren abweicht und, falls die Abweichung zu groß ist, kann dieser Flussvektor als Ausreißer von dem weiteren Vorgehen ausgeschlossen werden. Das RANSAC-Verfahren kann ergänzend oder alternativ auf die jeweiligen charakteristischen Bildpunkte der jeweiligen Flussvektoren angewandt werden. Somit können die Flussvektoren ebenfalls von Fehlern oder Ausreißern bereinigt ausgewählt werden. Furthermore, it is provided that the flow vectors are selected using a RANSAC method. RANSAC (Random Sample Consensus) is an algorithm for estimating a model within a set of outlier and gross error metrics. Here it is checked to what extent a randomly selected flow vector deviates from the other flow vectors and, if the deviation is too large, this flow vector can be excluded as an outlier from the further procedure. The RANSAC method may additionally or alternatively be applied to the respective characteristic pixels of the respective flow vectors. Thus, the flow vectors can also be selected clean from errors or outliers.
Insbesondere ist vorgesehen, dass zur Bestimmung der validierten Endtiefenkomponente eine vorbestimmte Wegstrecke mit dem Kraftfahrzeug zurückgelegt werden muss und eine darauffolgende validierte Endtiefenkomponente erst nach einem weiteren Zurücklegen der vorbestimmten Wegstrecke bestimmt wird. So kann es beispielsweise sein, dass die Veränderung in der Szene, welche von der zeitlichen Sequenz der Bilder aufgenommen wird, zu gering ist, um den Aufwand der Berechnung beziehungsweise der Bestimmung der validierten Endtiefenkomponente zu rechtfertigen. Bewegt sich das Kraftfahrzeug beispielsweise nur sehr langsam oder gar nicht vorwärts, so ändert sich die Szene kaum, und somit verändert sich die Endtiefenkomponente beziehungsweise der Abstand von dem Kraftfahrzeug zu dem Objekt ebenfalls kaum. Es kann also vorgesehen sein, dass die validierte Endtiefenkomponente ausschließlich nach dem Zurücklegen der vorbestimmten Wegstrecke bestimmt wird. Die vorbestimmte Wegstrecke kann beispielsweise 10 Zentimeter oder 15 Zentimeter oder 20 Zentimeter oder 30 Zentimeter oder 40 Zentimeter betragen. So wird dann beispielsweise nach jeweils 20 Zentimeter zurückgelegter Wegstrecke einmal die validierte Tiefenkomponente bestimmt. Anders ausgedrückt kann somit beispielsweise alle 20 Zentimeter die validierte Endtiefenkomponente bereitgestellt werden und somit unnötiger Rechenaufwand vermieden werden. Somit kann eine neue 3D-Position des jeweiligen charakteristischen Bildpunktes beziehungsweise des Objektes ebenfalls erst jeweils nach dem Zurücklegen der vorbestimmten Wegstrecke erfolgen. In particular, it is provided that for determining the validated end depth component, a predetermined distance must be traveled with the motor vehicle and a subsequent validated Endtiefenkomponente is determined only after further travel of the predetermined distance. For example, it may be that the change in the scene, which is recorded by the temporal sequence of the images, is too small to justify the effort of calculating or determining the validated final depth component. For example, if the motor vehicle is moving very slowly or not at all forward, the scene hardly changes, and thus the final depth component or the distance from the motor vehicle to the object hardly changes. So it can be provided that the validated Endtiefenkomponente is determined only after covering the predetermined distance. The predetermined distance can be, for example 10 centimeters or 15 centimeters or 20 centimeters or 30 centimeters or 40 centimeters. Thus, for example, the validated depth component is determined once every 20 centimeters traveled distance. In other words, it is thus possible, for example, to provide the validated final depth component every 20 centimeters, thus avoiding unnecessary computation effort. Thus, a new 3D position of the respective characteristic pixel or the object also take place only after the return of the predetermined distance.
In einer weiteren Ausgestaltung ist vorgesehen, dass die charakteristischen Bildpunkte anhand der vertikalen Komponente und/oder der horizontalen Komponente und/oder der validierten Endtiefenkomponente zu zumindest einem Bündel (Cluster) zusammengefasst werden. So können beispielsweise die charakteristischen Bildpunkte zusammengefasst werden, welche einen vorbestimmten Abstand zueinander aufweisen. Der vorbestimmte Abstand lässt sich beispielsweise anhand der vertikalen Komponente und/oder der horizontalen Komponente und/oder der validierten Endtiefenkomponente bestimmen. Das Cluster bietet den Vorteil, weil damit den charakteristischen Bildpunkten in dem Cluster eine gemeinsame Bedeutung zugewiesen werden kann. Durch die gemeinsame Bedeutung können die charakteristischen Bildpunkte besser weiterverarbeitet werden, wie dies beispielsweise bei einem Hinderniswarnsystem des Kraftfahrzeugs erfolgen könnte. In a further embodiment, it is provided that the characteristic pixels are combined to form at least one bundle (cluster) on the basis of the vertical component and / or the horizontal component and / or the validated final depth component. Thus, for example, the characteristic pixels can be summarized, which have a predetermined distance from each other. The predetermined distance can be determined, for example, based on the vertical component and / or the horizontal component and / or the validated Endtiefenkomponente. The cluster offers the advantage of being able to assign a common meaning to the characteristic pixels in the cluster. Due to the common meaning of the characteristic pixels can be processed better, as could be done for example in an obstacle warning system of the motor vehicle.
Vorzugsweise ist vorgesehen, dass mit einem des zumindest einen Clusters das jeweilige Objekt beschrieben wird. So kann es also sein, dass jeweils eines der Cluster für eines der Objekte steht. Es kann also dann beispielsweise ein mögliches Hindernis für das Kraftfahrzeug als ein Cluster beschrieben werden und nicht als ein einzelner charakteristischer Bildpunkt. Weiterhin kann das mögliche Hindernis aufgrund des Clusters zuverlässiger bestimmt werden, weil sich an dem Cluster mehrere der charakteristischen Bildpunkte beteiligt haben können. Falls also einer der charakteristischen Bildpunkte in dem Cluster fehlerhaft ist, so kann davon ausgegangen werden, dass die übrigen charakteristischen Bildpunkte von diesem Fehler beziehungsweise Ausreißer nicht betroffen sind. It is preferably provided that one of the at least one cluster describes the respective object. So it may be that one of the clusters stands for one of the objects. Thus, for example, a possible obstacle for the motor vehicle may then be described as a cluster and not as a single characteristic pixel. Furthermore, the potential obstacle due to the cluster can be determined more reliably because more than one of the characteristic pixels may have participated in the cluster. If, therefore, one of the characteristic pixels in the cluster is defective, then it can be assumed that the remaining characteristic pixels are not affected by this error or outliers.
Ein erfindungsgemäßes Fahrerassistenzsystem für ein Kraftfahrzeug umfasst eine Kamera und eine elektronische Auswerteeinheit, welches dazu ausgelegt ist, ein erfindungsgemäßes Verfahren durchzuführen. An inventive driver assistance system for a motor vehicle comprises a camera and an electronic evaluation unit, which is designed to carry out a method according to the invention.
Ein erfindungsgemäßes Kraftfahrzeug, insbesondere ein Personenkraftwagen, umfasst ein erfindungsgemäßes Fahrerassistenzsystem. An inventive motor vehicle, in particular a passenger car, comprises a driver assistance system according to the invention.
Die mit Bezug auf das erfindungsgemäße Verfahren vorgestellten bevorzugten Ausführungsformen und deren Vorteile gelten entsprechend für das erfindungsgemäße Fahrerassistenzsystem sowie für das erfindungsgemäße Kraftfahrzeug. The preferred embodiments presented with reference to the method according to the invention and their advantages apply correspondingly to the driver assistance system according to the invention and to the motor vehicle according to the invention.
Weitere Merkmale der Erfindung ergeben sich aus den Ansprüchen, den Figuren und der Figurenbeschreibung. Die vorstehend in der Beschreibung genannten Merkmale und Merkmalskombinationen sowie die nachfolgend in der Figurenbeschreibung genannten und/oder in den Figuren alleine gezeigten Merkmale und Merkmalskombinationen sind nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen oder in Alleinstellung verwendbar, ohne den Rahmen der Erfindung zu verlassen. Es sind somit auch Ausführungen von der Erfindung als umfasst und offenbart anzusehen, die in den Figuren nicht explizit gezeigt und erläutert sind, jedoch durch separierte Merkmalskombinationen aus den erläuterten Ausführungen hervorgehen und erzeugbar sind. Further features of the invention will become apparent from the claims, the figures and the description of the figures. The features and feature combinations mentioned above in the description as well as the features and feature combinations mentioned below in the description of the figures and / or shown alone in the figures can be used not only in the respectively specified combination but also in other combinations or in isolation, without the scope of To leave invention. Thus, embodiments of the invention are to be regarded as encompassed and disclosed, which are not explicitly shown and explained in the figures, however, emerge and can be produced by separated combinations of features from the embodiments explained.
Ausführungsbeispiele der Erfindung werden nachfolgend anhand schematischer Zeichnungen näher erläutert. Embodiments of the invention are explained in more detail below with reference to schematic drawings.
Dabei zeigen: Showing:
In
Ergänzend oder alternativ sind weitere Kameras zusätzlich zu der Kamera
Die Kamera
Die Kamera
Die Flussvektoren δ weisen jeweils eine vertikale Komponente δv sowie eine dazu orthogonale horizontale Komponente δu auf. mit Brennweite f der Kamera
Jeder der Flussvektoren δ weist also nun die vertikale Komponente δv und die horizontale Komponente δu auf. Es lässt sich nun anhand der vertikalen Komponente δv eine erste Tiefenkomponente z‘1 bestimmen und anhand der horizontalen Komponente δu eine zweite Tiefenkomponente z‘2. Dies kann wie folgt mathematisch dargestellt werden: Each of the flow vectors δ thus now has the vertical component δ v and the horizontal component δ u . A first depth component z ' 1 can now be determined on the basis of the vertical component δ v and a second depth component z' 2 on the basis of the horizontal component δ u . This can be represented mathematically as follows:
Um nun eine validierte Endtiefenkomponente z‘ zu erhalten, wird überprüft, ob die erste Tiefenkomponente z‘1 innerhalb eines Toleranzbereichs der zweiten Tiefenkomponente z‘2 entspricht. Idealerweise sollte die erste Tiefenkomponente z‘1 der zweiten Tiefenkomponente z‘2 entsprechen. Jedoch wird aufgrund von möglichen Abweichungen, beispielsweise Messfehlern und/oder Rechenfehlern, davon ausgegangen, dass in der Realität der Toleranzbereich genutzt wird, um eine Übereinstimmung von der ersten Tiefenkomponente z‘1 und der zweiten Tiefenkomponente z‘2 zu ermitteln. Der Toleranzbereich kann beispielsweise 25 Prozent oder 20 Prozent oder 10 Prozent oder 5 Prozent oder 1 Prozent oder 0,5 Prozent oder 0 Prozent des Wertes der ersten Tiefenkomponente z‘1 oder der zweiten Tiefenkomponente z‘2 betragen. In order to obtain a validated final depth component z ', it is checked whether the first depth component z' 1 corresponds within a tolerance range of the second depth component z ' 2 . Ideally, the first depth component z ' 1 should correspond to the second depth component z' 2 . However, due to possible deviations, for example measurement errors and / or arithmetical errors, it is assumed that in reality the tolerance range is used to determine a match of the first depth component z ' 1 and the second depth component z' 2 . The tolerance range may be, for example, 25 percent or 20 percent or 10 percent or 5 percent or 1 percent or 0.5 percent or 0 percent of the value of the first depth component z ' 1 or the second depth component z' 2 .
Der Toleranzbereich, welcher festlegt, ob die erste Tiefenkomponente z‘1 und die zweite Tiefenkomponente z‘2 einander entsprechen und somit die validierte Endtiefenkomponente z‘ bereitgestellt wird, kann beispielsweise wie folgt beschrieben werden.
Der Toleranzbereich wird also abhängig von einem Toleranzparameter z’th definiert, wobei z’th beispielsweise einem Wert von 0,1 oder 0,15 oder 0,2 oder 0,25 oder 0,3 entsprechen kann. Falls ein verfolgter charakteristischer Bildpunkt p mit der zugehörigen ersten Tiefenkomponente z’1 und der zweiten Tiefenkomponente z’2‘ nicht in dem Toleranzbereich liegt und diese somit einander nicht entsprechen, so wird deren Endtiefenwert beziehungsweise deren Endtiefenkomponente als unendlich weit entfernt angenommen und somit auf einen sehr großen Wert wie beispielsweise 1.000 Meter gesetzt. The tolerance range is thus defined as a function of a tolerance parameter z ' th , where z' th can correspond, for example, to a value of 0.1 or 0.15 or 0.2 or 0.25 or 0.3. If a tracked characteristic pixel p with the associated first depth component z ' 1 and the second depth component z' 2 'is not in the tolerance range and thus do not correspond to each other, then their Endtiefenwert or their Endtiefenkomponente is assumed to be infinitely far away and thus to a set very high value such as 1,000 meters.
Die 3D-Koordinaten z‘, x‘, y‘ des verfolgten charakteristischen Bildpunktes
Hierbei ist R eine Rotationsmatrix und T eine Translationsvorschrift, welche beiden anhand des Kalibrierungszustands bereitgestellt werden können. x, y, z sind also die 3D-Koordinaten des verfolgten charakteristischen Bildpunktes
Die verfolgten charakteristischen Bildpunkte
In den
Ebenso zeigt
ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturCited patent literature
- WO 2005/037619 A1 [0002] WO 2005/037619 A1 [0002]
- US 8412448 B2 [0003] US 8412448 B2 [0003]
- US 8121348 B2 [0004] US 8121348 B2 [0004]
- DE 102012011121 A1 [0005] DE 102012011121 A1 [0005]
Claims (15)
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102014114221.7A DE102014114221A1 (en) | 2014-09-30 | 2014-09-30 | Method for detecting an object in a surrounding area of a motor vehicle, driver assistance system and motor vehicle |
EP15184155.8A EP3002709A1 (en) | 2014-09-30 | 2015-09-08 | Method for detecting an object in an environmental region of a motor vehicle, driver assistance system and motor vehicle |
US14/863,727 US9892519B2 (en) | 2014-09-30 | 2015-09-24 | Method for detecting an object in an environmental region of a motor vehicle, driver assistance system and motor vehicle |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102014114221.7A DE102014114221A1 (en) | 2014-09-30 | 2014-09-30 | Method for detecting an object in a surrounding area of a motor vehicle, driver assistance system and motor vehicle |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102014114221A1 true DE102014114221A1 (en) | 2016-03-31 |
Family
ID=54151077
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102014114221.7A Withdrawn DE102014114221A1 (en) | 2014-09-30 | 2014-09-30 | Method for detecting an object in a surrounding area of a motor vehicle, driver assistance system and motor vehicle |
Country Status (3)
Country | Link |
---|---|
US (1) | US9892519B2 (en) |
EP (1) | EP3002709A1 (en) |
DE (1) | DE102014114221A1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102017105879A1 (en) | 2017-03-20 | 2018-09-20 | Valeo Schalter Und Sensoren Gmbh | Method and evaluation device for detecting an environment of a vehicle and vehicle |
DE102018205065A1 (en) * | 2018-04-04 | 2019-10-10 | Volkswagen Aktiengesellschaft | Method for calibrating a position sensor in a vehicle, computer program, storage means, control unit and calibration path |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9053562B1 (en) | 2010-06-24 | 2015-06-09 | Gregory S. Rabin | Two dimensional to three dimensional moving image converter |
DE102016114168A1 (en) * | 2016-08-01 | 2018-02-01 | Connaught Electronics Ltd. | Method for detecting an object in a surrounding area of a motor vehicle with prediction of the movement of the object, camera system and motor vehicle |
DE102016115327A1 (en) * | 2016-08-18 | 2018-02-22 | Connaught Electronics Ltd. | Method for detecting at least one object in an environmental region of a motor vehicle on the basis of object features from images, camera system and motor vehicle |
EP3293668B1 (en) * | 2016-09-13 | 2023-08-30 | Arriver Software AB | A vision system and method for a motor vehicle |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2005037619A1 (en) | 2003-09-24 | 2005-04-28 | Daimlerchrysler Ag | Emergency braking system |
US8121348B2 (en) | 2006-07-10 | 2012-02-21 | Toyota Jidosha Kabushiki Kaisha | Object detection apparatus, method and program |
US8379928B2 (en) * | 2009-07-06 | 2013-02-19 | Valeo Vision | Obstacle detection procedure for motor vehicle |
US8412448B2 (en) | 2010-02-08 | 2013-04-02 | Hon Hai Precision Industry Co., Ltd. | Collision avoidance system and method |
DE102012011121A1 (en) | 2012-06-05 | 2013-12-05 | Connaught Electronics Ltd. | Method for detecting moving object in surrounding region of passenger car, involves determining motion vector of motor vehicle, and including determined motion vector when detecting object according to vector field |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5559695A (en) * | 1994-12-27 | 1996-09-24 | Hughes Aircraft Company | Apparatus and method for self-calibrating visual time-to-contact sensor |
US6535114B1 (en) * | 2000-03-22 | 2003-03-18 | Toyota Jidosha Kabushiki Kaisha | Method and apparatus for environment recognition |
JP4052650B2 (en) * | 2004-01-23 | 2008-02-27 | 株式会社東芝 | Obstacle detection device, method and program |
JP4297501B2 (en) * | 2004-08-11 | 2009-07-15 | 国立大学法人東京工業大学 | Moving object periphery monitoring device |
JP4075879B2 (en) * | 2004-09-24 | 2008-04-16 | 日産自動車株式会社 | Vehicle collision warning device and vehicle collision warning method |
US10776635B2 (en) * | 2010-09-21 | 2020-09-15 | Mobileye Vision Technologies Ltd. | Monocular cued detection of three-dimensional structures from depth images |
US9959595B2 (en) * | 2010-09-21 | 2018-05-01 | Mobileye Vision Technologies Ltd. | Dense structure from motion |
WO2012044218A1 (en) * | 2010-10-01 | 2012-04-05 | Saab Ab | A method and an apparatus for image-based navigation |
US10027952B2 (en) * | 2011-08-04 | 2018-07-17 | Trx Systems, Inc. | Mapping and tracking system with features in three-dimensional space |
DE102012005851A1 (en) * | 2012-03-22 | 2013-09-26 | Connaught Electronics Ltd. | A method for warning the driver of a motor vehicle of the presence of an object in the surroundings of the motor vehicle, camera system and motor vehicle |
EP2722816A3 (en) * | 2012-10-18 | 2017-04-19 | Thomson Licensing | Spatio-temporal confidence maps |
US9667990B2 (en) * | 2013-05-31 | 2017-05-30 | Qualcomm Incorporated | Parallel derived disparity vector for 3D video coding with neighbor-based disparity vector derivation |
-
2014
- 2014-09-30 DE DE102014114221.7A patent/DE102014114221A1/en not_active Withdrawn
-
2015
- 2015-09-08 EP EP15184155.8A patent/EP3002709A1/en not_active Withdrawn
- 2015-09-24 US US14/863,727 patent/US9892519B2/en not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2005037619A1 (en) | 2003-09-24 | 2005-04-28 | Daimlerchrysler Ag | Emergency braking system |
US8121348B2 (en) | 2006-07-10 | 2012-02-21 | Toyota Jidosha Kabushiki Kaisha | Object detection apparatus, method and program |
US8379928B2 (en) * | 2009-07-06 | 2013-02-19 | Valeo Vision | Obstacle detection procedure for motor vehicle |
US8412448B2 (en) | 2010-02-08 | 2013-04-02 | Hon Hai Precision Industry Co., Ltd. | Collision avoidance system and method |
DE102012011121A1 (en) | 2012-06-05 | 2013-12-05 | Connaught Electronics Ltd. | Method for detecting moving object in surrounding region of passenger car, involves determining motion vector of motor vehicle, and including determined motion vector when detecting object according to vector field |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102017105879A1 (en) | 2017-03-20 | 2018-09-20 | Valeo Schalter Und Sensoren Gmbh | Method and evaluation device for detecting an environment of a vehicle and vehicle |
DE102018205065A1 (en) * | 2018-04-04 | 2019-10-10 | Volkswagen Aktiengesellschaft | Method for calibrating a position sensor in a vehicle, computer program, storage means, control unit and calibration path |
US11841244B2 (en) | 2018-04-04 | 2023-12-12 | Volkswagen Aktiengesellschaft | Method for calibrating a position sensor in a vehicle, computer program, storage means, control unit and calibration route |
Also Published As
Publication number | Publication date |
---|---|
US9892519B2 (en) | 2018-02-13 |
EP3002709A1 (en) | 2016-04-06 |
US20160093065A1 (en) | 2016-03-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102014209137B4 (en) | Method and device for calibrating a camera system of a motor vehicle | |
DE102006003538B3 (en) | Image acquisitions merging method for bird`s eye perspective, involves selecting image sections such that shadowing effects produced by moved objects are projected during transition in overall image from image section to other section | |
EP2805183B1 (en) | Method and device for visualizing the surroundings of a vehicle | |
DE102014114221A1 (en) | Method for detecting an object in a surrounding area of a motor vehicle, driver assistance system and motor vehicle | |
DE102011113197B4 (en) | Method and device for determining an angle between a towing vehicle and a trailer coupled to it, and the vehicle | |
DE102014222617B4 (en) | Vehicle detection method and vehicle detection system | |
DE102008058279A1 (en) | Method and device for compensating a roll angle | |
DE102009019399B4 (en) | Method for automatically determining at least one target variable describing the change in the position of a motor vehicle | |
EP3117399B1 (en) | Method for assembling single images that have been taken from different positions by a camera system to form a joint image | |
DE112017001841T5 (en) | DEVICE FOR DETECTING AN ASSEMBLY ANGLE FOR A VEHICLE-INNER CAMERA, DEVICE FOR CALIBRATING AN ASSEMBLY ANGLE, AND METHOD FOR DETECTING A MOUNTING ANGLE | |
DE102017109445A1 (en) | Calibration of a vehicle camera device in the vehicle longitudinal direction or vehicle transverse direction | |
DE102018100909A1 (en) | Method of reconstructing images of a scene taken by a multifocal camera system | |
DE102015209764A1 (en) | Extrinsic calibration of an image capture device of a vehicle | |
DE102013012930A1 (en) | Method for determining a current distance and / or a current speed of a target object from a reference point in a camera image, camera system and motor vehicle | |
DE102018204451A1 (en) | Method and device for auto-calibration of a vehicle camera system | |
EP3607740A1 (en) | Camera device and method for detecting a surrounding region of a vehicle | |
DE102015104065A1 (en) | A method for determining a position of an object in a three-dimensional world coordinate system, computer program product, camera system and motor vehicle | |
DE112015002764T5 (en) | Mounting angle adjustment method and on-board camera mounting angle detection device | |
DE102019002269A1 (en) | Method for determining an orientation of a vehicle relative to a motor vehicle | |
DE102013203404A1 (en) | Method and device for three-dimensional imaging of at least one subarea of a vehicle environment | |
DE102014201409B4 (en) | PARKING - TRACKING DEVICE AND PROCEDURES OF THE SAME | |
DE102014219428A1 (en) | Self-calibration of a stereo camera system in the car | |
DE102010021221A1 (en) | Camera direction determining method for use in vehicle, involves reconstructing vehicle coordination system from points, and determining camera direction from rotation of camera-coordination system relative to vehicle coordination system | |
DE102018202753A1 (en) | Method for determining a distance between a motor vehicle and an object | |
DE102017219688A1 (en) | Method for calibrating a vehicle camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R163 | Identified publications notified | ||
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |