DE102010032063A1 - Verfahren zur Erfassung einer Umgebung eines Fahrzeugs - Google Patents
Verfahren zur Erfassung einer Umgebung eines Fahrzeugs Download PDFInfo
- Publication number
- DE102010032063A1 DE102010032063A1 DE102010032063A DE102010032063A DE102010032063A1 DE 102010032063 A1 DE102010032063 A1 DE 102010032063A1 DE 102010032063 A DE102010032063 A DE 102010032063A DE 102010032063 A DE102010032063 A DE 102010032063A DE 102010032063 A1 DE102010032063 A1 DE 102010032063A1
- Authority
- DE
- Germany
- Prior art keywords
- lane
- data
- radar
- camera
- course
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims abstract description 15
- 101100478309 Neurospora crassa (strain ATCC 24698 / 74-OR23-1A / CBS 708.71 / DSM 1257 / FGSC 987) srdH gene Proteins 0.000 claims abstract description 7
- 238000012545 processing Methods 0.000 claims abstract description 5
- 238000011156 evaluation Methods 0.000 claims description 6
- 230000004927 fusion Effects 0.000 claims description 5
- 238000001514 detection method Methods 0.000 description 5
- 230000005855 radiation Effects 0.000 description 5
- 238000011161 development Methods 0.000 description 3
- 230000004888 barrier function Effects 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 244000025254 Cannabis sativa Species 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
- B60W40/06—Road conditions
- B60W40/076—Slope angle of the road
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
- B60W40/06—Road conditions
- B60W40/072—Curvature of the road
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/408—Radar; Laser, e.g. lidar
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Mathematical Physics (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Traffic Control Systems (AREA)
Abstract
Die Erfindung betrifft ein Verfahren zur Erfassung einer Umgebung eines Fahrzeugs (1), wobei mittels zumindest eines Radarsensors (1.2) Radardaten von einer Fahrbahnoberfläche erhabener Objekte (O1 bis O9) und mittels zumindest einer Kamera (1.1) Kameradaten von wenigstens einer Fahrbahnmarkierung (FBM1 bis FBM3) erkannt werden, wobei anhand einer gemeinsamen Auswertung und/oder Fusion der Radardaten und Kameradaten ein endgültiger Fahrspur- und/oder Fahrbahnverlauf ermittelt wird. Erfindungsgemäß werden die Radardaten über die Zeit integriert und in einem Bildverarbeitungsprozess wird aus den integrierten Radardaten ein vorläufiger Fahrspur- und/oder Fahrbahnverlauf ermittelt, welcher zur Ermittlung des endgültigen Fahrspur- und/oder Fahrbahnverlaufs gemeinsam mit Kameradaten ausgewertet und/oder mit den Kameradaten fusioniert wird.
Description
- Die Erfindung betrifft ein Verfahren zur Erfassung einer Umgebung eines Fahrzeugs, wobei mittels zumindest eines Radarsensors Radardaten von einer Fahrbahnoberfläche erhabener Objekte und mittels zumindest einer Kamera Kameradaten von Fahrbahnmarkierungen erkannt werden, wobei anhand einer gemeinsamen Auswertung und/oder Fusion der Radardaten und Kameradaten ein endgültiger Fahrspur- und/oder Fahrbahnverlauf ermittelt wird.
- Für einen Betrieb einer Vielzahl eine Umgebung eines Fahrzeugs erfassender Fahrerassistenzsysteme ist es erforderlich, einen Fahrspur- oder Fahrbahnverlauf zu ermitteln. Zu diesen Fahrerassistenzsystemen gehören ein Abstandsregeltempomat, ein aktiver Bremsassistent oder ein so genanntes Blind Spot Monitoring, auch Totwinkel-Assistent genannt. Bei der Ermittlung des Fahrspur- oder Fahrbahnverlaufs wird ein relevanter Umgebungsbereich für eine Situationsbewertung ausgewählt, um eine Komplexität und einen Rechenaufwand zu minimieren. Weiterhin wird dieser Umgebungsbereich eingeschränkt, um rechtzeitig vor einem möglichen Abkommen des Fahrzeugs von der Fahrbahn warnen oder eingreifen zu können.
- Die Erfassung des Umgebungsbereichs ist im Nahbereich mittels einer Kamera-Spurmarkierungs-Erkennung möglich. Eine Einschränkung des Umgebungsbereichs wird anhand eines Radarsensors realisiert, mittels welchem von der Fahrbahnoberfläche erhabene Objekte, die für Radarstrahlung stark reflektierend ausgebildet sind, erfasst werden. Dabei werden aus den ermittelten Radardaten zunächst Radar-Objekte gebildet und bei ausreichender Objektdichte wird ein Verlauf der Objekte ermittelt. Aus diesem Verlauf wird der Fahrspur- oder Fahrbahnverlauf ermittelt.
- Eine Vorrichtung zu einer derartigen Erfassung einer Umgebung eines Fahrzeugs ist aus der
EP 2 012 211 A1 bekannt. Die Vorrichtung umfasst einen Radarsensor, mittels welchem eine Straßenbegrenzung erfassbar ist. Diese Erfassung erfolgt anhand von von einer Fahrbahnoberfläche erhabenen Objekten, welche Radarstrahlung reflektieren. Aus erfassten Radardaten werden Radar-Objekte und ein vorläufiger Verlauf einer Fahrbahn oder Fahrspur gebildet. Weiterhin umfasst die Vorrichtung eine Kamera zur Erfassung von Fahrbahnmarkierungen, wobei die mittels des Radarsensors erfassten Radardaten und die mittels der Kamera erfassten Kameradaten derart fusioniert werden, dass aus den mittels des Radarsensors erfassten Straßenbegrenzungen und den mittels der Kamera erfassten Fahrbahnmarkierungen ein Verlauf einer Fahrbahn oder Fahrspur ermittelt wird. Dabei werden anhand der mittels der Kamera erfassten Kameradaten für den Fahrbahnverlauf oder Fahrspurverlauf irrelevante Radarobjekte, welche einen großen Abstand zu den Fahrbahnmarkierungen aufweisen, verworfen. - Der Erfindung liegt die Aufgabe zugrunde, ein gegenüber dem Stand der Technik verbessertes Verfahren zur Erfassung einer Umgebung eines Fahrzeugs anzugeben.
- Die Aufgabe wird erfindungsgemäß durch ein Verfahren gelöst, welches die im Anspruch 1 angegebenen Merkmale aufweist.
- Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche.
- In dem Verfahren zur Erfassung einer Umgebung eines Fahrzeugs werden mittels zumindest eines Radarsensors Radardaten von einer Fahrbahnoberfläche erhabener Objekte und mittels zumindest einer Kamera Kameradaten von Fahrbahnmarkierungen erkannt, wobei anhand einer gemeinsamen Auswertung und/oder Fusion der Radardaten und Kameradaten ein endgültiger Fahrspur- und/oder Fahrbahnverlauf ermittelt wird.
- Erfindungsgemäß werden die Radardaten über die Zeit integriert und in einem Bildverarbeitungsprozess wird aus den integrierten Radardaten ein vorläufiger Fahrspur- und/oder Fahrbahnverlauf ermittelt, welcher zur Ermittlung des endgültigen Fahrspur- und/oder Fahrbahnverlaufs gemeinsam mit Kameradaten ausgewertet und/oder mit den Kameradaten fusioniert wird.
- Daraus ergibt sich in besonders vorteilhafter Weise, dass auch Objekte mit einem geringen Radar-Reflexionsverhalten bei der Ermittlung des vorläufigen Fahrspur- und/oder Fahrbahnverlaufs mittels des Radars berücksichtigt werden. Insbesondere gegenüber einer Bildung von Radar-Objekten aus erfassten Radardaten, bei welcher Objekte mit geringem Radar-Reflexionsverhalten ignoriert werden, ergibt sich der Vorteil, dass der Fahrspur- und/oder Fahrbahnverlauf schneller, einfacher und zuverlässiger ermittelbar ist, so dass eine verbesserte Fahrbahnverlaufs- und Fahrspurverlaufsermittlung möglich ist. Somit können die Fahrspur und/oder die Fahrbahn, welche den für das Verkehrsgeschehen relevanten Bereich bilden, auch bei einer für eine Radarreflexion ungünstigeren Abgrenzung zwischen Fahrspur- und/oder Fahrbahnverlauf und Fahrbahnrand bzw. Randbebauung im Fernbereich eingegrenzt werden. Daraus folgt, dass eine Komplexität und ein Rechenaufwand bei der Ermittlung des Fahrspur- und/oder Fahrbahnverlauf verringert sind.
- Gegenüber einer alleinigen Ermittlung des Fahrspur- und/oder Fahrbahnverlaufs anhand von Kameradaten wird durch die Verwendung eines bildgebenden Radars eine Erweiterung eines Erfassungsbereichs, das heißt eine Sichtweitenerhöhung der Vorrichtung erzielt, so dass auch in großer Entfernung befindliche Objekte und Strukturen bereits frühzeitig bei der Ermittlung des Fahrspur- und/oder Fahrbahnverlaufs berücksichtigt werden können. Somit steigt eine Verfügbarkeit von Fahrspur- und Fahrbahninformationen auf Basis einer Randbebauung. Mit anderen Worten: Eine Reichweite der Kameraspurerkennung wird durch eine radarbasierte Anpassung von Spur-Suchfenstern vergrößert.
- Weiterhin ist eine verbesserte Zuordnung von mittels des Radarsensors erfassten Objekten zu der Fahrspur und/oder Fahrbahn und daraus folgend eine zuverlässige Ermittlung des Fahrspur- und/oder Fahrbahnverlaufs anhand einer Straßenrandbebauung möglich. Diese Zuordnung kann auch in größeren Entfernungen erfolgen. Auch können möglicherweise relevante Objekte von irrelevanten Objekten unterschieden werden.
- Ausführungsbeispiele der Erfindung werden im Folgenden anhand einer Zeichnung näher erläutert.
- Dabei zeigt:
-
1 schematisch eine Fahrbahn in einer Umgebung eines Fahrzeugs mit zwei Fahrspuren. - Die einzige
1 zeigt eine Fahrbahn FB in einer Umgebung eines Fahrzeugs1 . Die Fahrbahn FB ist randseitig jeweils von einer Fahrbahnmarkierung FBM1, FBM2 begrenzt, wobei die Fahrbahnmarkierungen FBM1, FBM2 als durchgezogene Linie ausgebildet sind. Die Fahrbahn FB weist weiterhin zwei Fahrspuren FS1, FS2 auf, welche durch eine weitere Fahrbahnmarkierung FBM3 voneinander getrennt sind, wobei die Fahrbahnmarkierung FBM3 als unterbrochene Linie ausgebildet ist. - Das Fahrzeug
1 bewegt sich auf der Fahrspur FS2 in Richtung R. Das Fahrzeug1 umfasst eine Kamera1.1 zur Erfassung wenigstens einer Fahrbahnmarkierung FBM1 bis FBM3, wobei anhand der Kameradaten ein erster vorläufiger Fahrspur- und Fahrbahnverlauf ermittelt wird. - Weiterhin umfasst das Fahrzeug
1 einen Radarsensor1.2 zur Erfassung von einer Fahrbahnoberfläche erhabener Objekte O1 bis O9. Unter erhabenen Objekten sind beispielsweise Randsteine, Schutzplanken, Betonschutzwände, Leitpfosten, Baken, Bauwerke, Bäume, Sträucher, Grasbewuchs, Tunnelwände, bauliche Begrenzungen und ähnliche Objekte zu verstehen. Mittels des Radarsensors1.2 ausgesendete Radarstrahlung wird von Objekten O1 bis O9 reflektiert. Die reflektierte Radarstrahlung wird von dem Radarsensor1.2 erfasst, so dass die Objekte O1 bis O9 in der Umgebung des Fahrzeugs1 erfassbar sind. - Aus den Radardaten des Radarsensors
1.2 wird ein zweiter vorläufiger Fahrspur- und Fahrbahnverlauf ermittelt. Hierzu werden die Radardaten, insbesondere solche Listen in, denen Signalspitzen des Radarsignals (sog. Peak-Listen) enthalten sind, über die Zeit integriert und in einem Bildverarbeitungsprozess wird aus den integrierten Radardaten der zweite vorläufige Fahrspur- und Fahrbahnverlauf ermittelt. Aufgrund dieser zeitlichen Integration können auch Objekte bzw. Merkmale erfasst werden, welche eine geringe Radarstrahlungsreflexion erzeugen und welche beispielsweise zur Spurvorhersage dienen. - Im dargestellten Ausführungsbeispiel bewegt sich das Fahrzeug
1 auf eine Linskurve zu. - Mittels des Radarsensors
1.2 und des anschließenden Bildverarbeitungsprozesses werden aufgrund der Anordnung der Objekte O1 bis O9 zwei unterschiedliche vorläufige Fahrspur- und Fahrbahnverläufe ermittelt. Einer der anhand der Radardaten ermittelten möglichen vorläufigen Fahrspur- und Fahrbahnverläufe in einem ersten Bereich B1 folgt dabei einem gestrichelt dargestellten Straßenverlauf. Dieser Straßenverlauf verläuft zwischen einer ersten aus den Objekten O1 bis O3 gebildeten Objektgruppe und einer zweiten aus den Objekten O4, O5 gebildeten Objektgruppe. Der weitere mögliche vorläufige Fahrspur- und Fahrbahnverlauf folgt der Linkskurve. - Anhand der Kameradaten wird aus dem Verlauf der wenigsten einen Fahrbahnmarkierung FBM1 bis FBM3 ein weiterer vorläufiger Fahrspur- und Fahrbahnverlauf in einem zweiten Bereich B2 ermittelt. Dieser Bereich ergibt sich aus dem Erfassungsbereich der Kamera
1.1 , so dass mittels der Kamera1.1 die Linkskurve erkannt wird. - Aufgrund einer gemeinsamen Auswertung der Radardaten und der Kameradaten und aufgrund eines Vergleichs und/oder einer Fusion der Radardaten und der Kameradaten, wird ein endgültiger Fahrspur- und Fahrbahnverlauf ermittelt, welcher im zweiten Bereich B2 und einem dritten Bereich B3 verläuft.
- Bei der gemeinsamen Auswertung wird anhand der Kameradaten eine Plausibilisierung der aus den Radarsdaten ermittelten vorläufigen Fahrspur- und Fahrbahnverläufen durchgeführt, wobei aufgrund der Übereinstimmung der Kameradaten und der Radardaten bezüglich des der Linkskurve folgenden vorläufigen Fahrspur- und Fahrbahnverlaufs, auf den endgültigen Fahrspur- und Fahrbahnverlauf geschlossen wird. Der endgültige Fahrspur- und Fahrbahnverlauf befindet sich in den Bereichen B2 und B3 und folgt der Linkskurve.
- Alternativ oder zusätzlich kann der mittels der Kamera ermittelte Fahrspurverlauf auch zur Vorsteuerung oder zur Plausibilisierung der mittels Radardaten gewonnen Spurvorhersage genutzt werden. Somit besteht die Möglichkeit bereits von vornherein falsche bzw. nicht relevante Spurverläufe an Abzweigungen zu vermeiden bzw. zu verwerfen.
- Bezugszeichenliste
-
- 1
- Fahrzeug
- 1.1
- Kamera
- 1.2
- Radarsensor
- B1 bis B3
- Bereich
- FB
- Fahrbahn
- FBM1 bis FBM3
- Fahrbahnmarkierung
- FS1, FS2
- Fahrspur
- O1 bis O9
- Objekt
- R
- Richtung
- ZITATE ENTHALTEN IN DER BESCHREIBUNG
- Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
- Zitierte Patentliteratur
-
- EP 2012211 A1 [0004]
Claims (3)
- Verfahren zur Erfassung einer Umgebung eines Fahrzeugs (
1 ), wobei mittels zumindest eines Radarsensors (1.2 ) Radardaten von einer Fahrbahnoberfläche erhabener Objekte (O1 bis O9) und mittels zumindest einer Kamera (1.1 ) Kameradaten von wenigstens einer Fahrbahnmarkierung (FBM1 bis FBM3) erkannt werden, wobei anhand einer gemeinsamen Auswertung und/oder Fusion der Radardaten und Kameradaten ein endgültiger Fahrspur- und/oder Fahrbahnverlauf ermittelt wird, dadurch gekennzeichnet, dass die Radardaten über die Zeit integriert werden und in einem Bildverarbeitungsprozess aus den integrierten Radardaten ein vorläufiger Fahrspur- und/oder Fahrbahnverlauf ermittelt wird, welcher zur Ermittlung des endgültigen Fahrspur- und/oder Fahrbahnverlaufs gemeinsam mit Kameradaten ausgewertet und/oder mit den Kameradaten fusioniert wird. - Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass im Rahmen der gemeinsamen Auswertung und/oder Fusion die Kameradaten zur Steuerung der auf Radardaten basierenden Ermittlung von Fahrspur- und/oder Fahrbahnverlauf herangezogen werden.
- Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass mittels der Kameradaten eine Plausibilität des anhand der Radardaten ermittelten vorläufigen Fahrspur- und/oder Fahrbahnverlaufs überprüft wird.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102010032063A DE102010032063A1 (de) | 2010-06-09 | 2010-07-23 | Verfahren zur Erfassung einer Umgebung eines Fahrzeugs |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102010023200 | 2010-06-09 | ||
DE102010023200.9 | 2010-06-09 | ||
DE102010032063A DE102010032063A1 (de) | 2010-06-09 | 2010-07-23 | Verfahren zur Erfassung einer Umgebung eines Fahrzeugs |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102010032063A1 true DE102010032063A1 (de) | 2011-05-12 |
Family
ID=43853103
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102010032063A Withdrawn DE102010032063A1 (de) | 2010-06-09 | 2010-07-23 | Verfahren zur Erfassung einer Umgebung eines Fahrzeugs |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102010032063A1 (de) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013169153A1 (en) * | 2012-05-08 | 2013-11-14 | Autoliv Development Ab | A lane-marking crossing warning system |
CN104108392A (zh) * | 2013-04-11 | 2014-10-22 | 株式会社万都 | 车道估计装置和方法 |
WO2015032663A1 (de) * | 2013-09-06 | 2015-03-12 | Robert Bosch Gmbh | Verfahren und vorrichtung zum bestimmen eines fahrbahnverlaufs einer fahrbahn eines fahrzeugs |
DE102015202099A1 (de) * | 2015-02-06 | 2016-08-11 | Bayerische Motoren Werke Aktiengesellschaft | Verarbeiten von Sensordaten für ein Fahrerassistenzsystem |
US10377376B2 (en) | 2016-10-06 | 2019-08-13 | Ford Global Technologies, Llc | Vehicle with environmental context analysis |
US11163054B2 (en) | 2016-07-29 | 2021-11-02 | 3M Innovative Properties Company | Radar radiation redirecting tape |
DE102022209713A1 (de) | 2022-09-15 | 2024-03-21 | Continental Autonomous Mobility Germany GmbH | Verfahren zum Erstellen eines Fahrspurmodells |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2012211A1 (de) | 2007-07-03 | 2009-01-07 | Ford Global Technologies, LLC | System zur Überwachung der Umgebung eines Fahrzeugs |
-
2010
- 2010-07-23 DE DE102010032063A patent/DE102010032063A1/de not_active Withdrawn
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2012211A1 (de) | 2007-07-03 | 2009-01-07 | Ford Global Technologies, LLC | System zur Überwachung der Umgebung eines Fahrzeugs |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013169153A1 (en) * | 2012-05-08 | 2013-11-14 | Autoliv Development Ab | A lane-marking crossing warning system |
US9472105B2 (en) | 2012-05-08 | 2016-10-18 | Autoliv Development Ab | Lane marking crossing warning system |
DE102014005688B4 (de) | 2013-04-11 | 2020-08-06 | Mando Corporation | Spurenschätzvorrichtung und verfahren |
CN104108392A (zh) * | 2013-04-11 | 2014-10-22 | 株式会社万都 | 车道估计装置和方法 |
CN104108392B (zh) * | 2013-04-11 | 2017-04-19 | 株式会社万都 | 车道估计装置和方法 |
US9664787B2 (en) | 2013-04-11 | 2017-05-30 | Mando Corporation | Lane estimation apparatus and method |
KR101787996B1 (ko) * | 2013-04-11 | 2017-10-19 | 주식회사 만도 | 차선 추정 장치 및 그 방법 |
WO2015032663A1 (de) * | 2013-09-06 | 2015-03-12 | Robert Bosch Gmbh | Verfahren und vorrichtung zum bestimmen eines fahrbahnverlaufs einer fahrbahn eines fahrzeugs |
CN105579316A (zh) * | 2013-09-06 | 2016-05-11 | 罗伯特·博世有限公司 | 用于确定车辆的行车道的行车道走向的方法和设备 |
US9792509B2 (en) | 2013-09-06 | 2017-10-17 | Robert Bosch Gmbh | Method and device for determining a lane course of a vehicle |
CN105579316B (zh) * | 2013-09-06 | 2019-04-19 | 罗伯特·博世有限公司 | 用于确定车辆的行车道的行车道走向的方法和设备 |
DE102015202099A1 (de) * | 2015-02-06 | 2016-08-11 | Bayerische Motoren Werke Aktiengesellschaft | Verarbeiten von Sensordaten für ein Fahrerassistenzsystem |
US10460181B2 (en) | 2015-02-06 | 2019-10-29 | Bayerische Motoren Werke Aktiengesellschaft | Processing of sensor data for a driver assistance system |
US11163054B2 (en) | 2016-07-29 | 2021-11-02 | 3M Innovative Properties Company | Radar radiation redirecting tape |
US10377376B2 (en) | 2016-10-06 | 2019-08-13 | Ford Global Technologies, Llc | Vehicle with environmental context analysis |
DE102022209713A1 (de) | 2022-09-15 | 2024-03-21 | Continental Autonomous Mobility Germany GmbH | Verfahren zum Erstellen eines Fahrspurmodells |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3254138B1 (de) | Verfahren zur ermittlung einer querpositionsinformation eines kraftfahrzeugs auf einer fahrbahn und kraftfahrzeug | |
EP2321666B1 (de) | Verfahren zur erkennung ausgedehnter statischer objekte | |
EP1557692B1 (de) | Verfahren zur Erkennung von gekennzeichneten Gefahr- und/oder Baustellen im Bereich von Fahrbahnen | |
DE102012107444B3 (de) | Verfahren zur Klassifizierung von fahrenden Fahrzeugen durch Verfolgung einer Positionsgröße des Fahrzeuges | |
EP2467291B1 (de) | Verfahren und steuergerät zum robusten erkennen eines fahrspurwechsels eines fahrzeugs | |
DE102010032063A1 (de) | Verfahren zur Erfassung einer Umgebung eines Fahrzeugs | |
DE102011121722A1 (de) | Vorrichtung zur Einparksteuerung | |
DE102014200638A1 (de) | Verfahren und System zum Schätzen eines Fahrspurverlaufs | |
DE102008062708A1 (de) | Verfahren zur Bestimmung der Fahrbahnebene einer Parklücke | |
WO2011131165A1 (de) | Verfahren zur bestimmung des fahrbahnverlaufes für ein kraftfahrzeug | |
EP3304124B1 (de) | Verfahren zum klassifizieren eines länglich ausgedehnten stationären objektes in einem seitlichen umgebungsbereich eines kraftfahrzeugs, fahrerassistenzsystem sowie kraftfahrzeug | |
DE102005039167A1 (de) | Fahrerassistenzsystem zur Fahrerwarnung bei einem drohenden Verlassen der Fahrspur | |
EP3259614B1 (de) | Verfahren zur ermittlung einer ortsinformation eines kraftfahrzeugs bezüglich eines fahrkorridors und kraftfahrzeug | |
DE102009036433A1 (de) | Verfahren und Vorrichtung zum Betrieb eines Fahrerassistenzsystems | |
DE102018104243B3 (de) | Verfahren und System zur Erkennung von für ein Fahrzeug geeigneten Parklücken | |
DE102010020688A1 (de) | Verfahren zur Bestimmung eines Fahrspurverlaufs für ein Fahrzeug | |
DE102013102683A1 (de) | Verfahren zur Erfassung von Verkehrsverstößen in einem Ampelbereich durch Heckanmessung mit einem Radargerät | |
DE102009031319A1 (de) | Verfahren und System zur Bestimmung einer Fahrzeugklasse | |
DE102014212216A1 (de) | Verfahren und Fahrerassistenzsystem zur Erfassung eines Fahrzeugumfel-des | |
DE102016014060A1 (de) | Verfahren zur radarbasierten Bestimmung einer Höhe eines Objekts | |
DE102011113325A1 (de) | Verfahren zur Objekterkennung mittels Bilddaten | |
DE102014202497A1 (de) | Schätzung geometrischer Parameter eines fahrbahnfesten seitlichen Objekts | |
DE102008021380B4 (de) | Verfahren und Vorrichtung zum Vorhersagen eines Verlaufs einer Fahrbahn und Fahrerassistenzsystem | |
DE102015214425A1 (de) | Verfahren zum Erkennen eines Verlaufs von Schienen | |
DE102016207181B4 (de) | Verfahren und System zum Bestimmen einer Position eines Fahrzeugs auf einer Fahrbahn |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R230 | Request for early publication | ||
OAV | Publication of unexamined application with consent of applicant | ||
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee | ||
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |
Effective date: 20150203 |