WO2014161691A1 - Verfahren und vorrichtung zum führen eines fahrzeugs im umfeld eines objekts - Google Patents

Verfahren und vorrichtung zum führen eines fahrzeugs im umfeld eines objekts Download PDF

Info

Publication number
WO2014161691A1
WO2014161691A1 PCT/EP2014/053292 EP2014053292W WO2014161691A1 WO 2014161691 A1 WO2014161691 A1 WO 2014161691A1 EP 2014053292 W EP2014053292 W EP 2014053292W WO 2014161691 A1 WO2014161691 A1 WO 2014161691A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
dimensional image
points
visual
image
Prior art date
Application number
PCT/EP2014/053292
Other languages
English (en)
French (fr)
Inventor
Yuefeng Ma
Thomas GUSSNER
Folko Flehmig
Original Assignee
Robert Bosch Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch Gmbh filed Critical Robert Bosch Gmbh
Priority to US14/781,986 priority Critical patent/US9734719B2/en
Priority to CN201480019804.4A priority patent/CN105103210B/zh
Publication of WO2014161691A1 publication Critical patent/WO2014161691A1/de

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras

Definitions

  • the present invention relates to a method for guiding a vehicle in the environment of an object, to a corresponding device and to a corresponding computer program product.
  • Lane departure warning usually respond to lines, e.g. As on highways and rural roads, which are detected approximately by means of a mono camera.
  • DE 10 2009 053 807 A1 discloses a method for assisting a driver of a vehicle when parking.
  • the method is activated as soon as the driver adjusts the reverse gear of the vehicle, and comprises the detection of obstacles in the range of the target trajectory predetermined by the steering angle from the data of at least one environment sensor and
  • the present invention provides a method for guiding a vehicle in the vicinity of an object, furthermore a device this method uses and finally a corresponding one
  • a driver of the vehicle can be effectively supported in a transverse guidance, especially in urban environment.
  • the method proposed here and a corresponding system can be, for example, an object in the form of an edge development, in particular a variable edge development, an opening door for parked cars, a car parked out or objects which are e.g. B. foot pedestrians between parked cars are pushed into the road, take into account.
  • the aim of an implementable by the proposed approach here assistance can instead of an emergency evasion maneuver or an automatic emergency braking only z.
  • a subjective sense of security of the driver in case of scarce passing by obstacles, such as parked cars increase, for example, by too close approach a noticeable counter-torque is built on the steering wheel.
  • a concept is proposed herein for advantageously dealing with time-varying edge building, such as occurs when a car parked at the edge opens the door.
  • a method of driving a vehicle around an object includes the following steps:
  • Three - dimensional image of an environment containing the object A vehicle wherein the three-dimensional image represents an image generated by a stereo camera of the vehicle and at least one of
  • Visual beam endpoints represents an outer surface of the object
  • Polygons representing an open space for driving through the vehicle
  • the method is suitable, for example, for use in a road vehicle such as a passenger car or truck.
  • a road vehicle such as a passenger car or truck.
  • the object can be bypassed.
  • driving around the object driving past the object can be sufficient
  • the vehicle can the object z. B. bypass a defined target trajectory.
  • the avoidance may in particular require a steering deflection of the vehicle.
  • the object may be understood to mean an obstacle that changes in its scope or expression in or relative to the passing vehicle during a period of a vehicle's travel time.
  • a lateral distance between the vehicle and the object may change as the vehicle passes the object. This can be done because the object itself is moving or because the object has an irregular outer contour on the side facing the vehicle.
  • the object can be considered as an object that changes in time or in terms of the vehicle. In particular, this change may be of a nature such as to provide a steering movement for an evasive maneuver of the vehicle
  • the object may be a further vehicle parked at the roadside.
  • Such an object may, for example, be temporally variable in such a way that a door of the parked further vehicle opens towards the street side while the vehicle is passing by.
  • Also getting out of a gap between two parked vehicles in Direction of the road advancing further object or moving along the roadside person can be characterized as time-varying objects.
  • paths between the stereo camera and one end of a view of the stereo camera may be designated.
  • the end of the range of vision can be determined, for example, by the fact that an object arranged at a certain distance in the visual beam obscures a view of the camera on an environment lying behind the object.
  • the end of the line of sight may also be marked by an end of a viewing area specified for the stereo camera, for example when a viewing beam is directed onto an unobstructed horizon.
  • Visual beam endpoints may correspond to positions in the
  • the environment of the vehicle may be a traffic event relevant to the vehicle or a relevant development, in particular a
  • the travel corridor can be a virtual traffic route for driving through the vehicle. It can be based in form and course on a previously determined desired trajectory for bypassing the object.
  • the travel corridor may be bounded by virtual solid or broken margins within which the object is bypassed. To get a ride of the vehicle within the
  • a steering torque can be applied at a suitable location.
  • the method comprises a step of creating the three-dimensional image in the form of a disparity map based on a first image and a second image of the stereo camera.
  • each of a plurality of points of the three-dimensional image can be
  • the first and the second image can each be a photograph of the surroundings in front of the vehicle of two optical sensors of the stereo camera for stereoscopic reproduction of the environment.
  • the disparity map can be constructed to accommodate any distance value
  • the distance value may describe a distance of each subarea of an object contained in the image from the vehicle or the stereo camera of the vehicle.
  • the method may include a step of determining a selection of points from the plurality of points of the three-dimensional image representing the object and / or a field end of the stereo camera as the plurality of view beam end points of the three-dimensional image.
  • Determining a less relevant points of the three-dimensional image, a shape or an extent of the open space for driving the vehicle can be determined and updated with little computational effort.
  • the selection of the points may be made by scanning line by line and combining the plurality of points of the three-dimensional image column-by-column.
  • the points of selection can be determined based on the column-wise combining verification with a low error rate.
  • a relative velocity between the vehicle and the object and / or the field end may be taken into account to compensate for a line-by-line offset of the points within the three-dimensional image.
  • the determined free area can be adjusted for measurement errors.
  • This embodiment enables an advantageous real-time calculation and update of the free area at any time of the vehicle's travel.
  • the temporal filtering can be done by a Kalman filter. As a result, relevant parameters can be well taken into account.
  • a side edge of the travel corridor may be determined at a predetermined distance from the object. So can easily an additional
  • Safety distance to the object are obtained to prevent z.
  • a size of the predetermined distance may be further determined depending on a classification of the object.
  • the driving corridor in shape and shape can be adapted even more precisely to the current conditions and, for example, run at a greater distance to the object when the object z. B. is classified as a person or a vehicle and run at a closer distance to the object when the object z. B. is classified as a planting.
  • a sense of security of a driver of the vehicle can be trained or improved.
  • An apparatus for guiding a vehicle in the vicinity of an object has the following features: a read-in device for reading a plurality of
  • Visual radiation endpoints in a three-dimensional image of an object-containing environment of the vehicle the three-dimensional image representing an image generated by a stereo camera of the vehicle and at least one of the visual radiation endpoints representing an exterior surface of the object; a connecting device for connecting the plurality of
  • Visual beam endpoints to form a polygon representing an open area for passage through the vehicle; and a generating device for generating a vehicle provided for the driving corridor for driving around the object, based on the free surface.
  • the device can be designed to carry out the steps of the method according to the invention in their corresponding devices or
  • a device can be understood as meaning an electrical device which processes sensor signals and outputs control and / or data signals in dependence thereon.
  • the device may have an interface, which may be formed in hardware and / or software.
  • the interfaces can be part of a so-called system ASIC, for example, which contains a wide variety of functions of the device.
  • the interfaces are their own integrated circuits or at least partially consist of discrete components.
  • the interfaces may be software modules that are present, for example, on a microcontroller in addition to other software modules.
  • An advantage is also a computer program product with program code, which on a machine-readable carrier such as a semiconductor memory, a
  • Hard disk memory or an optical memory can be stored and for carrying out the method according to one of the above
  • Embodiments is used when the program product is executed on a computer or a device.
  • FIG. 1 is a block diagram of an apparatus for bypassing an object, according to an embodiment of the present invention
  • FIG. 2 shows a schematic illustration of a three-dimensional image with a polygon forming an open area for driving through the vehicle, according to an exemplary embodiment of the present invention
  • FIG. 3 shows an illustration of side edges of a driving corridor for bypassing objects, according to an exemplary embodiment of the present invention
  • FIG. 4 is a flowchart of a method for bypassing an object, according to an exemplary embodiment of the present invention.
  • FIG. 5 shows diagrams illustrating intermediate results of algorithms of the method from FIG. 3; FIG. and
  • FIG 6 is an overview of an overall system for bypassing an object, according to an embodiment of the present invention.
  • FIG. 1 shows, in a simplified representation, an exemplary traffic scene in which a vehicle 100 is approaching an object 102 on the eve of passing
  • the vehicle 100 moves toward the object 102 in a direction of travel 104 indicated by an arrow in the illustration.
  • the object 102 is a time-varying object, that is, it changes position relative to the vehicle 100 as it moves past it. As indicated by an outline of the time-varying object 102, which is indicated in dashed lines in the illustration, the object 102 at an instant when the vehicle 100 passes by is moved obliquely toward the vehicle 100.
  • the object 102 in the embodiment shown in FIG. 1 is a further vehicle parked out of a parking space.
  • the temporally variable object 102 may also be a person moving along the roadside or a bush that protrudes into the roadway act.
  • Positional change of the object 102 relative to the vehicle 100 is designed according to a further embodiment, even without that the object 102 moves to itself, z. B. by an opening driver's door of a parked vehicle.
  • the vehicle 100 is equipped with a device 106 for guiding the vehicle 100 in the vicinity of at least one object 102 and in particular for bypassing at least one object 102 that is variable in time.
  • the device 106 comprises a read-in device 108 for
  • Generating device 1 14 for generating a driving corridor for driving around the time-varying object 102.
  • the visual beam endpoints 1 10 each indicate one end of a plurality of visual beams 1 16 emanating from a vehicle 100 mounted in the stereo camera 1 18.
  • the number of visible beams 16 shown in FIG. 1 and the corresponding visual beam end points 110 are only reduced to a few for the sake of clarity. Of course in reality there is a high
  • Sight rays 1 16 an outer surface or a portion of an outer surface of the
  • the visual beam end points 1 10 represent regions of a body of the parking vehicle 102 that is to be parked.
  • a further part of the visible beams 1 16 emanating from the camera 1 18 can be shown in FIG. 1, and thus reaches one through a dot-dash line in the illustration
  • the device 106 is designed to display in a suitable device (not shown in the figures) a three-dimensional image of the object 102 based on all the visual beam end points 110 Generate vehicle environment.
  • a suitable device not shown in the figures
  • a three-dimensional image can be distance values of
  • Visual radiation endpoints 1 10 represent on the basis of a suitable
  • Driving trajectory for avoiding the time-varying object 102 is calculated. This will be discussed in more detail with reference to the following Fig. 2.
  • the reading device 108 of the device 106 reads information of the plurality of visual beam end points 1 10 from the stereo camera 1 18 via a suitable interface, prepares the information for the
  • Connecting device 1 12 and passes them to this via another suitable interface.
  • the connecting device 1 12 connects the plurality of collectstrahlenend Vietnameseen 1 10 to form a polygon, the one
  • Open space for driving through the vehicle 100 forms, on the basis thereof in the coupled to the connecting device 1 12 via a further interface generating device 1 14 of the driving corridor for avoiding the time
  • variable object 102 is determined.
  • FIG. 2 shows in a simplified illustration a three-dimensional image 200 of an exemplary vehicle environment of the vehicle from FIG. 1.
  • the three-dimensional image 200 is based on a respective image of two optical
  • Sensors of the stereo camera of FIG. 1 is in the form of a disparity card.
  • the time-varying object 102 of FIG. 1 arranged at the roadside is shown on the right-hand edge of the image.
  • the disparity card 200 on the left edge of the picture shows another object which is arranged on an opposite roadside.
  • the disparity card 200 is composed of a plurality of points, each point being assigned a predetermined distance value.
  • the illustration in Fig. 2 shows a plurality of visual beam end points 110 selected, for example, by scanning the three-dimensional image 200 line by line and determined by column-wise combining the selection.
  • Visual beam end points 1 10 a viewing range end of the camera and the other visible visual end points 1 10 Au - Schemee the object 102 and the other object.
  • the viewing beam end points 110 are connected to form a polygon which forms an open space 202 for passage through the vehicle.
  • side margins 204 of a travel corridor 206 are generated at a sufficient distance from the object 102, in which the vehicle traverses the object 102.
  • the travel corridor 206 has been generated to have a predetermined distance 208 indicated by a double-headed arrow
  • the travel corridor 206 is determined based on a target trajectory 210 that runs at a suitable distance from the object.
  • a steering torque is switched on when the driver of the vehicle leaves the setpoint trajectory 210 while driving around the object 102.
  • the size of the distance 208 depends on a successful classification of the time-varying object.
  • the distance 210 is greater than it would be if the object 102 had been classified, for example, as a shrubbery.
  • FIG. 3 shows a representation of a left and a right side edge 204 of an embodiment of the travel corridor 206 of FIG. 2.
  • the illustration in FIG. 3 shows a three-dimensional image 200 of an urban scenario.
  • Obstacles here in the form of an edge development, parked vehicles as well as persons moving between the parked vehicles and the roadway.
  • the side edges 204 of the travel corridor 206 are illustrated by virtual gray "bands" to illustrate the concept presented herein in the illustration of Figure 3.
  • the ride corridor margins 204 bridge gaps between the obstacles that may physically be traversed by the vehicle but not likely The side edges 204 thus form a gapless boundary for the corridor 206.
  • a course of the side edges 204 has been based on different classifiers, the peripheral buildings, the parked vehicles and the moving ones
  • FIG. 4 shows a flow chart of an exemplary embodiment of a method 400 for avoiding a time-variable object or for guiding a vehicle in the vicinity of an object.
  • a step 402 based on a first image and a second image of a stereo camera of a vehicle, a three-dimensional image of an environment containing the object is obtained
  • Vehicle in the form of a disparity map, wherein each of a plurality of points of the three-dimensional image is assigned a predetermined distance value.
  • a selection of these points is determined as a plurality of visual ray end points of the three-dimensional image. At least one of the visual beam endpoints represents one
  • a step 406 the plurality of visual beam end points are read in a read-in device of a device that executes the method 400.
  • the individual visual beam end points are then connected to a polygon in a connection device of the device in a step 408.
  • Fig. 5 shows a series of illustrations for the representation of
  • a first image 500 shows an exemplary embodiment of the three-dimensional image 200 of an exemplary vehicle environment in the form of a disparity map, as shown in FIG
  • Stereo camera is used.
  • disparity card 200 is in the right
  • a third image 504 of the vehicle environment shows boundaries of the temporally filtered free surface, once of the type "obstacle” in the form of a band 506 along the object 102 and once of the type "end of vision" with a nodal line along the horizon, here the visual range end 120 represented by the camera.
  • a fourth image 508 shows an exemplary right side edge 204 of a travel corridor for bypassing the time varying one
  • Object 102. 6 shows an overview of a functional sequence 600 of a
  • Function section 602 provides the stereo camera of the vehicle two images.
  • Disparity calculation in a second function section 604 results in an SD representation of the environment in the camera detection area. From this, image gaps are detected in a third functional section 606. From this and from vehicle data, such. Yaw rate, speed, the temporal filtering in a fourth functional section 608 calculates a
  • Open space which is represented as a polygon. From the open space - here with additional safety distances - in a fifth functional section 610, a right and left driving corridor margin is estimated or determined. Within this travel corridor, a collision-free desired trajectory is planned in a sixth functional section 612, which is adjusted in a seventh functional section 614 by a regulation of the vehicle with the aid of a steering torque.
  • a system using the method 400 according to the invention uses the stereo camera 1 18 as environmental sensor. From the Disparticians certification 200 is for each image line of the u. U. rectified image determines whether a collision-relevant
  • Obstacle 102 is present, and what position it has relative to the own vehicle 100. In order to filter out measurement outliers and to reduce the influence of measurement noise, these obstacles 102 present in columns are filtered with a Kalman filter and from this a filtered free surface 202 is calculated. This free space 202 is represented as a polygon. The vertices 1 10 of the
  • Polygons correspond to visible rays 1 16, emanating from the camera 1 18. Each line of sight 1 16 or corner point 1 10 of the polygon has either the
  • the filtering takes place first for each image line - or for each visual ray 1 16 - separately. However, since the ego vehicle 100 is moves, the filtered free space 202 must first be moved by the ego movement of the vehicle 100 before each filter update. Now that's it
  • Open Spaces Polygon 202 no longer has the property that each node corresponds to 1 10 of an image column, then the polygon is resampled so that this is the case again.
  • the parameters of the Kalman filter are set so that the filtered clearance 202 can quickly follow the changing obstacles 102. This property will
  • the travel corridor 206 described by the right and left travel corridor margins 204 is determined.
  • the Fahrkorridorr selected 204 for example, gaps between
  • the safety margins 208 are added to both corridor boundaries 204 to ensure that the
  • Edge development with a suitable safety distance, z. B. 30 cm, is passed. If, according to an embodiment of the invention, a suitable mono-classifier is available for the edge development, this becomes available
  • Safety distance 208 selected depending on the object. So when driving past parked cars, a higher safety distance can be selected than with the
  • the target trajectory 210 between the driving corridor margins 204 is planned, resulting in as small a target yaw rate as possible so that the vehicle 100 will not track the driving corridors 204 touches or cuts when it follows the desired trajectory 210.
  • Target trajectory 210 is finally adjusted by a controller in that - comparable to LKS - a steering torque is provided.
  • the function forms a virtual wall on which the driver leans. Since the setpoint trajectory 210 is recalculated in each cycle, a change in the edge development such as an opening door is reacted by an instantaneously adapted setpoint trajectory 210. Thus, appropriately adjusted governing steering moments are adjusted immediately. The vehicle 100 is then steered around the newly emerging obstacle 102.
  • the described approach can be used in a driver assistance system, for example, as an extension of a so-called construction site assistant.
  • an exemplary embodiment comprises a "and / or" link between a first feature and a second feature, then this is to be read so that the embodiment according to one embodiment, both the first feature and the second feature and according to another embodiment either only first feature or only the second feature.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Führen eines Fahrzeugs (100) im Umfeld eines Objekts. Das Verfahren umfasst einen Schritt des Einlesens einer Mehrzahl von Sichtstrahlenendpunkten (110) in einem von einer Stereokamera (1 18) des Fahrzeugs (100) erzeugten dreidimensionalen Abbild einer das Objekt (102) enthaltenden Umgebung des Fahrzeugs (100), wobei mindestens einer der Sichtstrahlenendpunkte (110) eine Au ßenfläche des Objektes (102) repräsentiert, einen Schritt des Verbindens der Mehrzahl von Sichtstrahlenendpunkten (110) zur Bildung eines Polygons, das eine Freifläche zum Befahren durch das Fahrzeug (100) repräsentiert, und einen Schritt des Generierens eines für das Fahrzeug (100) vorgesehenen Fahrkorridors zum Umfahren des Objekts (102), basierend auf der Freifläche.

Description

Beschreibung
Titel
Verfahren und Vorrichtung zum Führen eines Fahrzeugs im Umfeld eines Objekts
Stand der Technik
Die vorliegende Erfindung bezieht sich auf ein Verfahren zum Führen eines Fahrzeugs im Umfeld eines Objekts, auf eine entsprechende Vorrichtung sowie auf ein entsprechendes Computerprogrammprodukt.
Es existieren verschiedene Systeme, die den Fahrer eines Fahrzeugs aktiv bei der Querführung des Fahrzeugs unterstützen. Bekannt sind hier insbesondere LKS (Lane Keep System) und LDW (Lane Departure Warning System =
Spurhalteassistent). Diese Systeme reagieren üblicherweise auf Linien, z. B. auf Autobahnen und Landstraßen, die etwa mittels einer Mono-Kamera erfasst werden.
Die DE 10 2009 053 807 A1 offenbart ein Verfahren zum Unterstützen eines Fahrers eines Fahrzeugs beim Einparken. Das Verfahren wird aktiviert, sobald der Fahrer den Rückwärtsgang des Fahrzeugs einstellt, und umfasst das Erkennen von Hindernissen im Bereich der durch den Lenkwinkel vorgegebenen Solltrajektorie aus den Daten mindestens eines Umfeldsensors und das
Aufbringen eines korrigierenden Lenkmomentes in die Richtung, die von einem erkannten Hindernis weg weist, um dem Fahrer das Ausweichen vor dem Hindernis zu erleichtern.
Offenbarung der Erfindung
Vor diesem Hintergrund wird mit der vorliegenden Erfindung ein Verfahren zum Führen eines Fahrzeugs im Umfeld eines Objekts, weiterhin eine Vorrichtung, die dieses Verfahren verwendet sowie schließlich ein entsprechendes
Computerprogrammprodukt gemäß den Hauptansprüchen vorgestellt.
Vorteilhafte Ausgestaltungen ergeben sich aus den jeweiligen Unteransprüchen und der nachfolgenden Beschreibung.
Mit einem Verfahren, das basierend auf einer Verbindung von Punkten in einem dreidimensionalen Abbild einer Umgebung eines Fahrzeugs eine virtuelle Freifläche zum Umfahren eines zeitlich veränderlichen Objekts ermittelt, kann ein Fahrer des Fahrzeugs bei einer Querführung insbesondere in städtischer Umgebung wirkungsvoll unterstützt werden.
Das hier vorgeschlagene Verfahren und ein entsprechendes System können beispielsweise ein Objekt in Form einer Randbebauung, insbesondere einer sich veränderlichen Randbebauung, eine sich öffnende Tür bei parkenden Autos, ein ausparkendes Auto oder Objekte, die z. B. von Fu ßgängern zwischen parkenden Autos in die Fahrbahn geschoben werden, berücksichtigen.
Ziel einer durch das hier vorgeschlagene Konzept realisierbaren Assistenz kann dabei statt eines Notausweichmanövers bzw. einer automatische Notbremsung lediglich z. B. ein Aufbringen eines begrenzten, automatisch aufgeschalteten Lenkmoments sein, das den - z. B. abgelenkten - Fahrer knapp am in die Fahrbahn ragenden Hindernis vorbeilenkt.
So kann vorteilhafterweise ein subjektives Sicherheitsempfinden des Fahrers bei knapper Vorbeifahrt an Hindernissen, wie parkenden Autos, steigen, indem beispielsweise bei zu starker Annäherung ein spürbares Gegenmoment am Lenkrad aufgebaut wird. Mit besonderem Augenmerk auf Hindernisse in städtischer Umgebung wie parkende Autos wird hierin ein Konzept zum vorteilhaften Umgang mit zeitlich veränderlicher Randbebauung vorgeschlagen, wie sie etwa auftritt, wenn ein am Rand parkendes Auto die Tür öffnet.
Ein Verfahren zum Führen eines Fahrzeugs im Umfeld eines Objekts weist die folgenden Schritte auf:
Einlesen einer Mehrzahl von Sichtstrahlenendpunkten in einem
dreidimensionalen Abbild einer das Objekt enthaltenden Umgebung des Fahrzeugs, wobei das dreidimensionale Abbild ein von einer Stereokamera des Fahrzeugs erzeugtes Bild repräsentiert und mindestens einer der
Sichtstrahlenendpunkte eine Au ßenfläche des Objektes repräsentiert;
Verbinden der Mehrzahl von Sichtstrahlenendpunkten zur Bildung eines
Polygons, das eine Freifläche zum Befahren durch das Fahrzeug repräsentiert; und
Generieren eines für das Fahrzeug vorgesehenen Fahrkorridors zum Umfahren des zeitlich veränderlichen Objekts, basierend auf der Freifläche.
Das Verfahren ist beispielsweise zum Einsatz in einem Straßenfahrzeug wie einem Personenkraftwagen oder Lastkraftwagen geeignet. Unter Verwendung des Fahrkorridors kann das Objekt umfahren werden. Unter dem Umfahren des Objekts kann ein Vorbeifahren an dem Objekt in einem ausreichenden
Sicherheitsabstand, um das Objekt oder das Fahrzeug nicht zu beschädigen, verstanden werden. Das Fahrzeug kann das Objekt z. B. auf einer definierten Solltrajektorie umfahren. Das Umfahren kann insbesondere einen Lenkausschlag des Fahrzeugs voraussetzen. Unter dem Objekt kann ein Hindernis verstanden werden, das sich während eines Zeitraums einer Dauer der Umfahrung durch das Fahrzeug in seinem Umfang oder seiner Ausprägung in sich oder in Bezug zu dem vorbeifahrenden Fahrzeug verändert. Beispielsweise kann sich ein seitlicher Abstand zwischen dem Fahrzeug und dem Objekt verändern, während das Fahrzeug an dem Objekt vorbeifährt. Dies kann erfolgen, weil sich das Objekt selbst bewegt oder weil das Objekt auf der dem Fahrzeug zugewandten Seite eine unregelmäßige Au ßenkontur aufweist. Somit kann das Objekt als ein sich zeitlich tatsächlich oder aus Sicht des Fahrzeugs veränderndes Objekt betrachtet werden. Diese Veränderung kann dabei insbesondere von solcher Natur sein, dass sie eine Lenkbewegung für ein Ausweichmanöver des
Fahrzeugs während der Vorbeifahrt am Objekt oder zumindest eine Bereitschaft, ein solches Lenkmanöver u. U. schnell ausführen zu müssen, erfordert.
Beispielsweise kann es sich bei dem Objekt um ein am Straßenrand geparktes weiteres Fahrzeug handeln. Ein derartiges Objekt kann beispielsweise dahin gehend zeitlich veränderlich sein, dass sich während einer Vorbeifahrt des Fahrzeugs eine Tür des geparkten weiteren Fahrzeugs zur Straßenseite hin öffnet. Auch ein sich aus einer Lücke zwischen zwei geparkten Fahrzeugen in Richtung der Fahrbahn vorschiebendes weiteres Objekt oder eine sich am Straßenrand entlang bewegende Person können als sich zeitlich veränderliche Objekte charakterisiert werden. Als Sichtstrahlen können Wege zwischen der Stereokamera und einem Ende einer Sichtweite der Stereokamera bezeichnet werden. Das Ende der Sichtweite kann beispielsweise dadurch bestimmt werden, dass ein in einer bestimmten Entfernung in dem Sichtstrahl angeordnetes Objekt eine Sicht der Kamera auf ein hinter dem Objekt liegendes Umfeld verdeckt. Alternativ kann das Ende der Sichtweite auch durch ein Ende eines für die Stereokamera spezifizierten Sichtbereichs gekennzeichnet sein, etwa wenn ein Sichtstrahl auf einen unobstruierten Horizont gerichtet ist. Die
Sichtstrahlenendpunkte können entsprechend Positionen in dem
dreidimensionalen Abbild bezeichnen, an denen von der Stereokamera ausgehende Sichtstrahlen aufgrund eines der vorgenannten Faktoren enden. Bei der Umgebung des Fahrzeugs kann es sich um ein für das Fahrzeug relevantes Verkehrsgeschehen oder eine relevante Bebauung, insbesondere eine
Randbebauung, handeln. Die Randbebauung kann auch z. B. geparkte
Fahrzeuge mit einbeziehen. Bei dem Fahrkorridor kann es sich um einen virtuellen Verkehrsweg zum Befahren durch das Fahrzeug handeln. Er kann in Form und Verlauf auf einer zuvor ermittelten Solltrajektorie zur Umfahrung des Objekts basieren. Der Fahrkorridor kann durch virtuelle durchgezogene oder unterbrochene Seitenränder begrenzt sein, innerhalb derer die Umfahrung des Objekts vollzogen wird. Um eine Fahrt des Fahrzeugs innerhalb des
Fahrkorridors zu gewährleisten, kann an geeigneter Stelle ein Lenkmoment aufgebracht werden.
Gemäß einer Ausführungsform weist das Verfahren einen Schritt des Erstellens des dreidimensionalen Abbilds in Form einer Disparitätskarte basierend auf einem ersten Bild und einem zweiten Bild der Stereokamera auf. Dabei kann jedem einer Mehrzahl von Punkten des dreidimensionalen Abbilds ein
vorbestimmter Entfernungswert zugeordnet werden. Bei dem ersten und dem zweiten Bild kann es sich um je eine Aufnahme des vor dem Fahrzeug liegenden Umfelds von zwei optischen Sensoren der Stereokamera zur stereoskopischen Wiedergabe des Umfelds handeln. Zur Darstellung der räumlichen Tiefe kann die Disparitätskarte so aufgebaut sein, dass jedem Entfernungswert ein
vorbestimmter Farbwert zugeordnet ist. Damit können die spezifischen
Entfernungen von in dem dreidimensionalen Abbild enthaltenen Objekten farblich oder durch elektronisch verarbeitbare Parameter oder Werte dargestellt werden. Der Entfernungswert kann einen Abstand jedes Teilbereichs eines im Abbild enthaltenen Objekts von dem Fahrzeug bzw. der Stereokamera des Fahrzeugs beschreiben. Mit dieser Ausführungsform kann eine entfernungstechnische Zuordnung abgebildeter Objekte besonders einfach und schnell erfolgen.
Insbesondere kann das Verfahren einen Schritt des Bestimmens einer Auswahl von Punkten aus der Mehrzahl von Punkten des dreidimensionalen Abbilds, die das Objekt und/oder ein Sichtbereichsende der Stereokamera repräsentieren, als die Mehrzahl von Sichtstrahlenendpunkten des dreidimensionalen Abbildes aufweisen. Diese Ausführungsform weist den Vorteil auf, dass durch die
Bestimmung einer weniger relevanter Punkte des dreidimensionalen Abbilds eine Form bzw. ein Ausmaß der Freifläche zum Befahren des Fahrzeugs mit geringem Rechenaufwand bestimmt und aktualisiert werden kann.
Beispielsweise kann in dem Schritt des Bestimmens die Auswahl der Punkte durch zeilenweises Abtasten und spaltenweises Kombinieren der Mehrzahl von Punkten des dreidimensionalen Abbildes erfolgen. Mit dieser Ausführungsform können die Punkte der Auswahl anhand der Verifizierung durch das spaltenweise Kombinieren mit einer geringen Fehlerquote bestimmt werden.
Auch kann in dem Schritt des Bestimmens bei dem spaltenweisen Kombinieren eine Relativgeschwindigkeit zwischen dem Fahrzeug und dem Objekt und/oder dem Sichtbereichsende berücksichtigt werden, um einen zeilenweisen Versatz der Punkte innerhalb des dreidimensionalen Abbildes auszugleichen. So kann gewährleistet werden, dass eine Form bzw. ein Ausmaß der durch das Polygon beschriebenen Freifläche zu jedem Zeitpunkt der Fahrt des Fahrzeugs die tatsächlichen örtlichen Gegebenheiten korrekt widerspiegelt. Gemäß einer weiteren Ausführungsform des Verfahrens kann in dem Schritt des
Verbindens oder in dem Schritt des Bestimmens eine zeitliche Filterung eingesetzt werden. Mit einer derartigen Filterung kann die ermittelte Freifläche um Messfehler bereinigt werden. Diese Ausführungsform ermöglicht eine vorteilhafte Echtzeitberechnung und -aktualisierung der Freifläche zu jedem Zeitpunkt einer Fahrt des Fahrzeugs. Beispielsweise kann die zeitliche Filterung durch ein Kaiman-Filter erfolgen. Dadurch können relevante Parameter gut berücksichtigt werden.
Gemäß einer weiteren Ausführungsform kann in dem Schritt des Generierens ein Seitenrand des Fahrkorridors mit einem vorbestimmten Abstand zu dem Objekt ermittelt werden. So kann auf einfache Weise ein zusätzlicher
Sicherheitsabstand zu dem Objekt gewonnen werden, um zu verhindern, dass z. B. sehr schnelle Ortsveränderungen des Objekts, die nicht genügend Zeit für ein ausreichendes Lenkmoment lassen, zu einer Beschädigung des Fahrzeugs und/oder des Objekts führen.
In dem Schritt des Generierens kann ferner eine Größe des vorbestimmten Abstands in Abhängigkeit von einer Klassifizierung des Objekts bestimmt werden. So kann der Fahrkorridor in Form und Verlauf noch genauer an die aktuellen Gegebenheiten angepasst werden und beispielsweise in einem größeren Abstand zu dem Objekt verlaufen, wenn das Objekt z. B. als eine Person oder ein Fahrzeug klassifiziert ist und in einem geringeren Abstand zu dem Objekt verlaufen, wenn das Objekt z. B. als eine Bepflanzung klassifiziert ist. So kann vorteilhaft ein Sicherheitsempfinden eines Fahrers des Fahrzeugs geschult bzw. verbessert werden.
Eine Vorrichtung zum Führen eines Fahrzeugs im Umfeld eines Objekts weist die folgenden Merkmale auf: eine Einleseeinrichtung zum Einlesen einer Mehrzahl von
Sichtstrahlenendpunkten in einem dreidimensionalen Abbild einer das Objekt enthaltenden Umgebung des Fahrzeugs, wobei das dreidimensionale Abbild ein von einer Stereokamera des Fahrzeugs erzeugtes Bild repräsentiert und mindestens einer der Sichtstrahlenendpunkte eine Au ßenfläche des Objektes repräsentiert; eine Verbindungseinrichtung zum Verbinden der Mehrzahl von
Sichtstrahlenendpunkten zur Bildung eines Polygons, das eine Freifläche zum Befahren durch das Fahrzeug repräsentiert; und eine Generiereinrichtung zum Generieren eines für das Fahrzeug vorgesehenen Fahrkorridors zum Umfahren des Objekts, basierend auf der Freifläche.
Die Vorrichtung kann ausgebildet sein, um die Schritte des erfindungsgemäßen Verfahrens in ihren entsprechenden Einrichtungen durchzuführen bzw.
umzusetzen. Auch durch diese Ausführungsvariante der Erfindung in Form einer Vorrichtung kann die der Erfindung zugrunde liegende Aufgabe schnell und effizient gelöst werden.
Unter einer Vorrichtung kann vorliegend ein elektrisches Gerät verstanden werden, das Sensorsignale verarbeitet und in Abhängigkeit davon Steuer- und/oder Datensignale ausgibt. Die Vorrichtung kann eine Schnittstelle aufweisen, die hard- und/oder softwaremäßig ausgebildet sein kann. Bei einer hardwaremäßigen Ausbildung können die Schnittstellen beispielsweise Teil eines sogenannten System-ASICs sein, der verschiedenste Funktionen der Vorrichtung beinhaltet. Es ist jedoch auch möglich, dass die Schnittstellen eigene, integrierte Schaltkreise sind oder zumindest teilweise aus diskreten Bauelementen bestehen. Bei einer softwaremäßigen Ausbildung können die Schnittstellen Softwaremodule sein, die beispielsweise auf einem MikroController neben anderen Softwaremodulen vorhanden sind.
Von Vorteil ist auch ein Computerprogrammprodukt mit Programmcode, der auf einem maschinenlesbaren Träger wie einem Halbleiterspeicher, einem
Festplattenspeicher oder einem optischen Speicher gespeichert sein kann und zur Durchführung des Verfahrens nach einer der vorstehend beschriebenen
Ausführungsformen verwendet wird, wenn das Programmprodukt auf einem Computer oder einer Vorrichtung ausgeführt wird.
Die Erfindung wird nachstehend anhand der beigefügten Zeichnungen beispielhaft näher erläutert. Es zeigen:
Fig. 1 ein Blockschaltbild einer Vorrichtung zum Umfahren eines Objekts, gemäß einem Ausführungsbeispiel der vorliegenden Erfindung; Fig. 2 eine Prinzipdarstellung eines dreidimensionalen Abbilds mit einem eine Freifläche zum Befahren durch das Fahrzeug bildenden Polygon, gemäß einem Ausführungsbeispiel der vorliegenden Erfindung;
Fig. 3 eine Darstellung von Seitenrändern eines Fahrkorridors zum Umfahren von Objekten, gemäß einem Ausführungsbeispiel der vorliegenden Erfindung;
Fig. 4 ein Ablaufdiagramm eines Verfahrens zum Umfahren eines Objekts, gemäß einem Ausführungsbeispiel der vorliegenden Erfindung;
Fig. 5 Abbildungen zur Darstellung von Zwischenergebnissen von Algorithmen des Verfahrens aus Fig. 3; und
Fig. 6 einen Überblick über ein Gesamtsystem zum Umfahren eines Objekts, gemäß einem Ausführungsbeispiel der vorliegenden Erfindung.
In der nachfolgenden Beschreibung bevorzugter Ausführungsbeispiele der vorliegenden Erfindung werden für die in den verschiedenen Figuren
dargestellten und ähnlich wirkenden Elemente gleiche oder ähnliche
Bezugszeichen verwendet, wobei auf eine wiederholte Beschreibung dieser Elemente verzichtet wird.
Fig. 1 zeigt in vereinfachter Darstellung eine beispielhafte Verkehrsszene, in der sich ein Fahrzeug 100 kurz vor einer Vorbeifahrt an einem Objekt 102 am
Straßenrand befindet. Das Fahrzeug 100 bewegt sich in einer durch einen Pfeil in der Darstellung gekennzeichneten Fahrtrichtung 104 auf das Objekt 102 zu. Bei dem Objekt 102 handelt es sich um ein zeitlich veränderliches Objekt, das heißt, es verändert seine Position relativ zu dem Fahrzeug 100, während sich dieses an ihm vorbeibewegt. Wie es durch einen in Strichlinien in der Darstellung gekennzeichneten Umriss des zeitlich veränderlichen Objekts 102 angedeutet ist, bewegt sich hier das Objekt 102 zu einem aktuellen Zeitpunkt der Vorbeifahrt des Fahrzeugs 100 schräg auf das Fahrzeug 100 zu. Bei dem Objekt 102 handelt es sich im in Fig. 1 gezeigten Ausführungsbeispiel um ein aus einer Parklücke ausparkendes weiteres Fahrzeug. Es kann sich bei dem zeitlich veränderlichen Objekt 102 aber auch um eine sich am Straßenrand entlang bewegende Person oder ein Gebüsch, das in die Fahrbahn hineinragt, handeln. Die
Positionsveränderung des Objekts 102 relativ zu dem Fahrzeug 100 gestaltet sich gemäß einem weiteren Ausführungsbeispiel auch ohne, dass sich das Objekt 102 an sich bewegt, z. B. durch eine sich öffnende Fahrertür eines geparkten Fahrzeugs.
Wie die Darstellung in Fig. 1 zeigt, ist das Fahrzeug 100 mit einer Vorrichtung 106 zum Führen des Fahrzeugs 100 im Umfeld zumindest eines Objekts 102 und insbesondere zum Umfahren zumindest eines zeitlich veränderlichen Objekts 102 ausgestattet. Die Vorrichtung 106 umfasst eine Einleseeinrichtung 108 zum
Einlesen einer Mehrzahl von Sichtstrahlenendpunkten 1 10, eine
Verbindungseinrichtung 1 12 zum Verbinden der Mehrzahl von
Sichtstrahlenendpunkten 1 10 zur Bildung eines Polygons und eine
Generiereinrichtung 1 14 zum Generieren eines Fahrkorridors zum Umfahren des zeitlich veränderlichen Objekts 102. Wie aus der Darstellung ersichtlich ist, kennzeichnen die Sichtstrahlenendpunkte 1 10 jeweils ein Ende einer Mehrzahl von Sichtstrahlen 1 16, die von einer im Fahrzeug 100 installierten Stereokamera 1 18 ausgehen. Die Anzahl der in Fig. 1 gezeigten Sichtstrahlen 1 16 und der entsprechenden Sichtstrahlenendpunkte 1 10 ist lediglich der Übersichtlichkeit halber auf wenige reduziert. Selbstverständlich geht in der Realität eine hohe
Vielzahl von Sichtstrahlen 1 16 von der Kamera 1 18 aus. Wie es aus der Darstellung in Fig. 1 gut ersichtlich ist, trifft ein Teil der von der Stereokamera 1 18 ausgehenden Sichtstrahlen 1 16 auf dem Objekt 102 auf und endet dort. Entsprechend repräsentieren die Sichtstrahlenendpunkte 1 10 dieser
Sichtstrahlen 1 16 eine Außenfläche bzw. einen Abschnitt einer Außenfläche des
Objekts 102. Bei dem in Fig. 1 gezeigten Ausführungsbeispiel des zeitlich veränderlichen Objekts 102 repräsentieren die Sichtstrahlenendpunkte 1 10 Bereiche einer Karosserie des ausparkenden weiteren Fahrzeugs 102. Ein weiterer Teil der von der Kamera 1 18 ausgehenden Sichtstrahlen 1 16 kann sich in der in Fig. 1 dargestellten beispielhaften Szene ungehindert erstrecken und erreicht somit ein durch eine Punkt-Strich-Linie in der Darstellung
gekennzeichnetes Sichtbereichsende 120 der Stereokamera 1 18.
Die Vorrichtung 106 ist ausgebildet, um in einer geeigneten Einrichtung (in den Figuren nicht gezeigt) basierend auf sämtlichen Sichtstrahlenendpunkten 1 10 ein dreidimensionales Abbild einer das Objekt 102 aufweisenden Fahrzeugumgebung zu generieren. In Form einer Disparitätskarte kann ein derartiges dreidimensionales Abbild Entfernungswerte der
Sichtstrahlenendpunkte 1 10 darstellen, auf deren Basis eine geeignete
Fahrtrajektorie zur Umfahrung des zeitlich veränderlichen Objekts 102 berechnet wird. Darauf wird anhand der nachfolgenden Fig. 2 noch genauer eingegangen.
Die Einleseeinrichtung 108 der Vorrichtung 106 liest über eine geeignete Schnittstelle eine Information der Mehrzahl von Sichtstrahlenendpunkten 1 10 aus der Stereokamera 1 18 ein, bereitet die Information für die
Verbindungseinrichtung 1 12 auf und übergibt sie an diese über eine weitere geeignete Schnittstelle. Die Verbindungseinrichtung 1 12 verbindet die Mehrzahl von Sichtstrahlenendpunkten 1 10 zur Bildung eines Polygons, das eine
Freifläche zum Befahren durch das Fahrzeug 100 bildet, auf deren Basis in der mit der Verbindungseinrichtung 1 12 über eine weitere Schnittstelle gekoppelten Generiereinrichtung 1 14 der Fahrkorridor zum Umfahren des zeitlich
veränderlichen Objekts 102 ermittelt wird.
Fig. 2 zeigt in einer vereinfachten Darstellung ein dreidimensionales Abbild 200 einer beispielhaften Fahrzeugumgebung des Fahrzeugs aus Fig. 1 . Das dreidimensionale Abbild 200 basiert auf je einer Aufnahme von zwei optischen
Sensoren der Stereokamera aus Fig. 1 und liegt in Form einer Disparitätskarte vor. Das am Straßenrand angeordnete zu umfahrende zeitlich veränderliche Objekt 102 aus Fig. 1 ist am rechten Bildrand dargestellt. Zudem zeigt die Disparitätskarte 200 am linken Bildrand ein weiteres Objekt, das an einem gegenüberliegenden Straßenrand angeordnet ist. Die Disparitätskarte 200 ist aus einer Mehrzahl von Punkten zusammengesetzt, wobei jedem Punkt ein vorbestimmter Entfernungswert zugeordnet ist. Die Darstellung in Fig. 2 zeigt eine Mehrzahl von Sichtstrahlenendpunkten 1 10, die beispielsweise durch zeilenweises Abtasten des dreidimensionalen Abbildes 200 ausgewählt und durch spaltenweises Kombinieren der Auswahl bestimmt wurden. Der
Bestimmung zufolge repräsentieren die oben im Abbild 200 gezeigten
Sichtstrahlenendpunkte 1 10 ein Sichtbereichsende der Kamera und die weiteren gezeigten Sichtstrahlenendpunkte 1 10 Au ßenbereiche des Objekts 102 sowie des weiteren Objekts. Unter Verwendung einer zeitlichen Filterung mittels eines Kaiman-Filters werden die Sichtstrahlenendpunkte 1 10 zu einem Polygon verbunden, das eine Freifläche 202 zum Befahren durch das Fahrzeug bildet. Basierend auf der Freifläche 202 werden in ausreichendem Abstand zu dem Objekt 102 Seitenränder 204 eines Fahrkorridors 206 generiert, in dem das Fahrzeug das Objekt 102 umfährt. Wie die Darstellung in Fig. 2 zeigt, wurde der Fahrkorridor 206 bei diesem Ausführungsbeispiel so generiert, dass er einen durch einen Doppelpfeil gekennzeichneten vorbestimmten Abstand 208 zu dem
Objekt 102 aufweist. Gemäß einem Ausführungsbeispiel der Erfindung wird der Fahrkorridor 206 basierend auf einer in geeigneten Abstand zu dem Objekt verlaufenden Solltrajektorie 210 ermittelt. Entsprechend dieser Ausführung wird ein Lenkmoment aufgeschaltet, wenn der Fahrer des Fahrzeugs beim Umfahren des Objekts 102 die Solltrajektorie 210 verlässt. Bei dem anhand der Darstellung in Fig. 2 erläuterten Ausführungsbeispiel der hierin vorgestellten Vorrichtung ist die Größe des Abstands 208 von einer erfolgten Klassifizierung des zeitlich veränderlichen Objekts abhängig. Da hier das Objekt 102 als ein ausparkendes Fahrzeug klassifiziert wurde, ist der Abstand 210 größer als er es wäre, wenn das Objekt 102 beispielsweise als ein Gebüsch klassifiziert worden wäre.
Fig. 3 zeigt eine Darstellung von einem linken und einem rechten Seitenrand 204 eines Ausführungsbeispiels des Fahrkorridors 206 aus Fig. 2. Die Darstellung in Fig. 3 zeigt ein dreidimensionales Abbild 200 eines städtischen Szenarios.
Gezeigt ist eine Fahrbahn sowie links und rechts der Fahrbahn unterschiedliche
Hindernisse, hier in Form einer Randbebauung, geparkter Fahrzeuge sowie sich zwischen den geparkten Fahrzeugen und der Fahrbahn bewegender Personen. Die Seitenränder 204 des Fahrkorridors 206 sind zur Veranschaulichung des hierin vorgestellten Konzepts in der Darstellung in Fig. 3 durch virtuelle graue „Bänder" dargestellt. Die Fahrkorridorränder 204 überbrücken hier Lücken zwischen den Hindernissen, die zwar physikalisch vom Fahrzeug durchfahren werden können, aber wahrscheinlich nicht befahren werden. Die Seitenränder 204 bilden somit eine lückenlose Begrenzung für den Korridor 206. Ein Verlauf der Seitenränder 204 wurde basierend auf unterschiedlichen Klassifikatoren, die die Randbebauung, die geparkten Fahrzeuge und die sich bewegenden
Personen betreffen, generiert. Die in der Darstellung gezeigten Seitenränder 204 können beispielsweise mittels einer Blickfeldanzeige bzw. eines Head-Up- Displays für einen Fahrer des Fahrzeugs sichtbar gemacht werden. Dies ist aber für eine Funktion der hier vorgestellten Vorrichtung bzw. eines entsprechenden Verfahrens nicht notwendig. Fig. 4 zeigt ein Ablaufdiagramm eines Ausführungsbeispiels eines Verfahrens 400 zum Umfahren eines zeitlich veränderlichen Objekts oder zum Führen eines Fahrzeugs im Umfeld eines Objekts. In einem Schritt 402 wird basierend auf einem ersten Bild und einem zweiten Bild einer Stereokamera eines Fahrzeugs ein dreidimensionales Abbild einer das Objekt enthaltenden Umgebung des
Fahrzeugs in Form einer Disparitätskarte erstellt, wobei jedem einer Mehrzahl von Punkten des dreidimensionalen Abbilds ein vorbestimmter Entfernungswert zugeordnet wird. In einem Schritt 404 wird eine Auswahl dieser Punkte als eine Mehrzahl von Sichtstrahlenendpunkten des dreidimensionalen Abbildes bestimmt. Mindestens einer der Sichtstrahlenendpunkte repräsentiert dabei einen
Bereich einer Au ßenfläche des Objektes. In einem Schritt 406 wird die Mehrzahl von Sichtstrahlenendpunkten in eine Einleseeinrichtung einer das Verfahren 400 ausführenden Vorrichtung eingelesen. Die einzelnen Sichtstrahlenendpunkte werden anschließend in einem Schritt 408 in einer Verbindungseinrichtung der Vorrichtung zu einem Polygon verbunden. Dieses repräsentiert eine Freifläche zum Befahren durch das Fahrzeug. Basierend auf dieser Freifläche wird in einem Schritt 410 in einer Generiereinrichtung der Vorrichtung ein Fahrkorridor zum Umfahren des zeitlich veränderlichen Objekts generiert. Fig. 5 zeigt eine Reihe von Abbildungen zur Darstellung von
Zwischenergebnissen von Algorithmen des Verfahrens aus Fig. 3, gemäß einem Ausführungsbeispiel der vorliegenden Erfindung. Ein erstes Bild 500 zeigt ein Ausführungsbeispiel des dreidimensionalen Abbilds 200 einer beispielhaften Fahrzeugumgebung in Form einer Disparitätskarte, wie sie in einer
Stereokamera eingesetzt wird. In der Disparitätskarte 200 ist in der rechten
Bildhälfte das zeitlich veränderliche Objekt 102 in Form eines Fahrzeugs gezeigt. Der Rest der Disparitätskarte 200 zeigt einen bis zum Horizont reichenden Straßenverlauf. Das spaltenweise Erfassen der Hindernisse ist anhand der Strukturierung in einem zweiten Bild 502 der Fahrzeugumgebung gut zu erkennen. Ein drittes Bild 504 der Fahrzeugumgebung zeigt Begrenzungen der zeitlich gefilterten Freifläche, und zwar einmal vom Typ„Hindernis" in Form eines Bandes 506 entlang des Objekts 102 und einmal vom Typ„Ende Sichtbereich" mit einer Knotenlinie entlang des Horizonts, der hier das Sichtbereichsende 120 der Kamera repräsentiert. Ein viertes Bild 508 zeigt einen beispielhaften rechten Seitenrand 204 eines Fahrkorridors zum Umfahren des zeitlich veränderlichen
Objekts 102. Fig. 6 zeigt einen Überblick über einen Funktionsablauf 600 eines
Gesamtsystems zum Umfahren eines zeitlich veränderlichen Objekts, gemäß einem Ausführungsbeispiel der vorliegenden Erfindung. In einem ersten
Funktionsabschnitt 602 liefert die Stereokamera des Fahrzeugs zwei Bilder. Die
Disparitätsberechnung in einem zweiten Funktionsabschnitt 604 ergibt eine SD- Repräsentation des im Kameraerfassungsbereich liegenden Umfelds. Daraus werden in einem dritten Funktionsabschnitt 606 bildspaltenweise Hindernisse erkannt. Daraus und aus Fahrzeugdaten, wie z. B. Gierrate, Geschwindigkeit, berechnet die zeitliche Filterung in einem vierten Funktionsabschnitt 608 eine
Freifläche, die als Polygon repräsentiert wird. Aus der Freifläche werden - hier mit zusätzlichen Sicherheitsabständen - in einem fünften Funktionsabschnitt 610 ein rechter und linker Fahrkorridorrand geschätzt bzw. bestimmt. Innerhalb dieses Fahrkorridors wird in einem sechsten Funktionsabschnitt 612 eine kollisionsfreie Solltrajektorie geplant, die in einem siebten Funktionsabschnitt 614 von einer Regelung des Fahrzeugs mithilfe eines Lenkmoments eingeregelt wird.
Im Nachfolgenden wird das hierin vorgestellte Konzept der erweiterten
Querführungsassistenz in städtischer Umgebung mit veränderlicher
Randbebauung anhand einer beispielhaften Ausführung und unter Bezugnahme auf sämtliche Figuren nochmals umrissen.
Ein das erfindungsgemäße Verfahren 400 einsetzendes System verwendet die Stereo-Kamera 1 18 als Umfeldsensor. Aus der Disparitätskarte 200 wird für jede Bildzeile des u. U. rektifizierten Bildes bestimmt, ob ein kollisionsrelevantes
Hindernis 102 vorliegt, und welche Position es relativ zum eigenen Fahrzeug 100 hat. Um Messausreißer herauszufiltern und um den Einfluss des Messrauschens zu reduzieren, werden diese spaltenweise vorhandenen Hindernisse 102 mit einem Kaiman-Filter gefiltert und daraus eine gefilterte Freifläche 202 berechnet. Diese Freifläche 202 wird als Polygon dargestellt. Die Eckpunkte 1 10 des
Polygons entsprechen Sichtstrahlen 1 16, die von der Kamera 1 18 ausgehen. Jeder Sichtstrahl 1 16 bzw. Eckpunkt 1 10 des Polygons hat entweder die
Eigenschaft, dass er das Ende des Sichtbereichs 120 der Kamera 1 18 markiert, wenn kein Hindernis detektiert wurde, oder die Position des nächstliegenden Hindernisses 102 angibt. Die Filterung findet zunächst für jede Bildzeile - bzw. für jeden Sichtstrahl 1 16 - getrennt statt. Da sich das Ego-Fahrzeug 100 jedoch bewegt, muss vor jedem Filterupdate zunächst die gefilterte Freifläche 202 um die Ego-Bewegung des Fahrzeugs 100 verschoben werden. Da nun das
Freiflächenpolygon 202 nicht mehr die Eigenschaft hat, dass jeder Knotenpunkt 1 10 einer Bildspalte entspricht, wird anschließend das Polygon so neu abgetastet, dass dies wieder der Fall ist.
Um auf sich verändernde Randbebauung - wie etwa eine sich öffnende Tür eines Fahrzeugs - reagieren zu können, sind die Parameter des Kaiman-Filters so eingestellt, dass die gefilterte Freifläche 202 schnell genug den sich verändernden Hindernissen 102 folgen kann. Diese Eigenschaft wird
insbesondere über eine Kovarianzmatrix des Zustandsrauschens im Kaiman- Filter eingestellt. Deren Einträge sind entsprechend ausreichend groß bemessen. Messausreißer werden durch Gating vor dem Filter-Update aussortiert.
Au ßerdem werden für nachfolgende Rechenschritte nur solche Knotenpunkte 1 10 der Freifläche 202 verwendet, deren Varianz einen Maximalwert
unterschreitet.
Basierend auf dem gefilterten Freiflächenpolygon 202 wird der Fahrkorridor 206 bestimmt, der durch den rechten und linken Fahrkorridorrand 204 beschrieben wird. Die Fahrkorridorränder 204 können beispielsweise auch Lücken zwischen
Hindernissen 102 überbrücken, die zwar physikalisch vom Fahrzeug 100 durchfahren werden können, aber wahrscheinlich nicht befahren werden.
Nach der Fahrkorridorbestimmung werden die Sicherheitsabstände 208 zu beiden Fahrkorridorrändern 204 addiert, um sicherzustellen, dass die
Randbebauung mit geeignetem Sicherheitsabstand, z. B. 30 cm, passiert wird. Steht gemäß einem Ausführungsbeispiel der Erfindung ein geeigneter Mono- Klassifikator für die Randbebauung zur Verfügung, so wird dieser
Sicherheitsabstand 208 objektabhängig gewählt. So kann bei einer Vorbeifahrt an parkenden Autos ein höherer Sicherheitsabstand gewählt werden als bei der
Vorbeifahrt an Gebüschen.
Mithilfe der oben beschrieben bestimmten Fahrkorridorränder 204 wird gemäß einem Ausführungsbeispiel des hierin vorgestellten Verfahrens die Solltrajektorie 210 zwischen den Fahrkorridorrändern 204 geplant, die zu einer möglichst kleinen Sollgierrate führt, sodass das Fahrzeug 100 nicht die Fahrkorridorränder 204 berührt oder schneidet, wenn es der Solltrajektorie 210 folgt. Die
Solltrajektorie 210 wird schließlich von einem Regler eingeregelt, indem - vergleichbar zu LKS - ein Lenkmoment gestellt wird. Die Funktion bildet eine virtuelle Wand, an die sich der Fahrer anlehnt. Da die Solltrajektorie 210 in jedem Zyklus neu berechnet wird, wird auf sich verändernde Randbebauung wie eine sich öffnende Tür durch eine instantan angepasste Solltrajektorie 210 reagiert. Somit werden entsprechend angepasste Reglerlenkmomente sofort angepasst. Das Fahrzeug 100 wird dann um das neu erscheinende Hindernis 102 herum gelenkt.
Der beschriebenen Ansatz kann in einem Fahrerassistenzsystem, beispielsweise auch als Erweiterung eines sogenannten Baustellenassistenten eingesetzt werden.
Die beschriebenen und in den Figuren gezeigten Ausführungsbeispiele sind nur beispielhaft gewählt. Unterschiedliche Ausführungsbeispiele können vollständig oder in Bezug auf einzelne Merkmale miteinander kombiniert werden. Auch kann ein Ausführungsbeispiel durch Merkmale eines weiteren Ausführungsbeispiels ergänzt werden.
Ferner können erfindungsgemäße Verfahrensschritte wiederholt sowie in einer anderen als in der beschriebenen Reihenfolge ausgeführt werden.
Umfasst ein Ausführungsbeispiel eine„und/oder"-Verknüpfung zwischen einem ersten Merkmal und einem zweiten Merkmal, so ist dies so zu lesen, dass das Ausführungsbeispiel gemäß einer Ausführungsform sowohl das erste Merkmal als auch das zweite Merkmal und gemäß einer weiteren Ausführungsform entweder nur das erste Merkmal oder nur das zweite Merkmal aufweist.

Claims

Verfahren (400) zum Führen eines Fahrzeugs (100) im Umfeld eines Objekts (102), wobei das Verfahren (400) die folgenden Schritte aufweist:
Einlesen (406) einer Mehrzahl von Sichtstrahlenendpunkten (1 10) in einem dreidimensionalen Abbild (200) einer das Objekt (102) enthaltenden
Umgebung des Fahrzeugs (100), wobei das dreidimensionale Abbild (200) ein von einer Stereokamera (1 18) des Fahrzeugs (100) erzeugtes Bild repräsentiert und mindestens einer der Sichtstrahlenendpunkte (1 10) eine Au ßenfläche des Objektes (102) repräsentiert;
Verbinden (408) der Mehrzahl von Sichtstrahlenendpunkten (1 10) zur Bildung eines Polygons, das eine Freifläche (202) zum Befahren durch das Fahrzeug (100) repräsentiert; und
Generieren (410) eines für das Fahrzeug (100) vorgesehenen Fahrkorridors (206) zum Umfahren des Objekts (102), basierend auf der Freifläche (202).
Verfahren (400) gemäß Anspruch 1 , mit einem Schritt des Erstellens (402) (402) des dreidimensionalen Abbilds (200) in Form einer Disparitätskarte basierend auf einem ersten Bild und einem zweiten Bild der Stereokamera (1 18), wobei jedem einer Mehrzahl von Punkten des dreidimensionalen Abbilds (200) ein vorbestimmter Entfernungswert zugeordnet wird.
Verfahren (400) gemäß Anspruch 2, mit einem Schritt des Bestimmens (404) einer Auswahl von Punkten aus der Mehrzahl von Punkten des
dreidimensionalen Abbilds (200), die das Objekt (102) und/oder ein
Sichtbereichsende (120) der Stereokamera (1 18) repräsentieren, als die Mehrzahl von Sichtstrahlenendpunkten (1 10) des dreidimensionalen Abbilds (200). Verfahren (400) gemäß Anspruch 3, bei dem in dem Schritt des Bestimmens (404) die Auswahl der Punkte durch zeilenweises Abtasten und
spaltenweises Kombinieren der Mehrzahl von Punkten des
dreidimensionalen Abbilds (200) erfolgt.
Verfahren (400) gemäß Anspruch 4, bei dem in dem Schritt des Bestimmens (404) bei dem spaltenweisen Kombinieren eine Relativgeschwindigkeit (104) zwischen dem Fahrzeug (100) und dem Objekt (102) und/oder dem
Sichtbereichsende (120) berücksichtigt wird, um einen zeilenweisen Versatz der Punkte innerhalb des dreidimensionalen Abbildes (200) auszugleichen.
Verfahren (400) gemäß einem der vorangegangenen Ansprüche, bei dem in dem Schritt des Verbindens (408) oder in dem Schritt des Bestimmens (404) eine zeitliche Filterung eingesetzt wird.
Verfahren (400) gemäß Anspruch 6, bei dem die zeitliche Filterung durch ein Kaiman-Filter erfolgt.
Verfahren (400) gemäß einem der vorangegangenen Ansprüche, bei dem in dem Schritt des Generierens (410) ein Seitenrand (204) des Fahrkorridors (206) mit einem vorbestimmten Abstand (208) zu dem Objekt (102) ermittelt wird.
Verfahren (400) gemäß Anspruch 8, bei dem in dem Schritt des Generierens (410) eine Größe des vorbestimmten Abstands (208) in Abhängigkeit von einer Klassifizierung des Objekts (102) bestimmt wird.
0. Vorrichtung (106) zum Führen eines Fahrzeugs (100) im Umfeld eines
Objekts (102), wobei die Vorrichtung (106) die folgenden Merkmale aufweist: eine Einleseeinrichtung (108) zum Einlesen einer Mehrzahl von
Sichtstrahlenendpunkten (1 10) in einem dreidimensionalen Abbild (200) einer das Objekt (102) enthaltenden Umgebung des Fahrzeugs (100), wobei das dreidimensionale Abbild (200) ein von einer Stereokamera (1 18) des Fahrzeugs (100) erzeugtes Bild repräsentiert und mindestens einer der Sichtstrahlenendpunkte (1 10) eine Außenfläche des Objektes (102) repräsentiert; eine Verbindungseinrichtung (1 12) zum Verbinden der Mehrzahl von Sichtstrahlenendpunkten (1 10) zur Bildung eines Polygons, das eine Freifläche (202) zum Befahren durch das Fahrzeug (100) repräsentiert; und eine Generiereinrichtung (1 14) zum Generieren eines für das Fahrzeug (100) vorgesehenen Fahrkorridors (206) zum Umfahren des Objekts (102), basierend auf der Freifläche (202). Computer-Programmprodukt mit Programmcode zur Durchführung des Verfahrens (400) nach einem der Ansprüche 1 bis 9, wenn das
Programmprodukt auf einer Vorrichtung (106) ausgeführt wird.
PCT/EP2014/053292 2013-04-03 2014-02-20 Verfahren und vorrichtung zum führen eines fahrzeugs im umfeld eines objekts WO2014161691A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US14/781,986 US9734719B2 (en) 2013-04-03 2014-02-20 Method and apparatus for guiding a vehicle in the surroundings of an object
CN201480019804.4A CN105103210B (zh) 2013-04-03 2014-02-20 用于引导在对象的周围环境中的车辆的方法和设备

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102013205882.9 2013-04-03
DE102013205882.9A DE102013205882A1 (de) 2013-04-03 2013-04-03 Verfahren und Vorrichtung zum Führen eines Fahrzeugs im Umfeld eines Objekts

Publications (1)

Publication Number Publication Date
WO2014161691A1 true WO2014161691A1 (de) 2014-10-09

Family

ID=50277188

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2014/053292 WO2014161691A1 (de) 2013-04-03 2014-02-20 Verfahren und vorrichtung zum führen eines fahrzeugs im umfeld eines objekts

Country Status (4)

Country Link
US (1) US9734719B2 (de)
CN (1) CN105103210B (de)
DE (1) DE102013205882A1 (de)
WO (1) WO2014161691A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020020083A1 (en) * 2018-07-23 2020-01-30 Byton Limited Assisted driving system for clearance guidance

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9355567B2 (en) * 2013-08-08 2016-05-31 Honeywell International Inc. System and method for highlighting an area encompassing an aircraft that is free of hazards
JP6126573B2 (ja) 2014-12-25 2017-05-10 本田技研工業株式会社 衝突回避支援装置
CN108137047B (zh) * 2015-09-23 2021-12-31 苹果公司 动态元素保护
GB201602440D0 (en) * 2016-02-11 2016-03-30 Jaguar Land Rover Ltd Improvements in vehicle speed control
DE102016206154A1 (de) * 2016-04-13 2017-10-19 Robert Bosch Gmbh Verfahren und Vorrichtung zum Generieren eines Bildsignals und Anzeigesystem für ein Fahrzeug
DE102016217645B4 (de) * 2016-09-15 2023-01-19 Volkswagen Aktiengesellschaft Verfahren zum Bereitstellen von Information über eine voraussichtliche Fahrintention eines Fahrzeugs
EP3389026A1 (de) * 2017-04-12 2018-10-17 Volvo Car Corporation Vorrichtung und verfahren zur fahrzeugfahrassistenz
DE102018104311A1 (de) * 2018-02-26 2019-08-29 Valeo Schalter Und Sensoren Gmbh Verfahren und System zum Abschätzen der Form eines dynamischen Objekts und zum Nachverfolgen dieses Objekts
US11827241B2 (en) * 2018-10-29 2023-11-28 Motional Ad Llc Adjusting lateral clearance for a vehicle using a multi-dimensional envelope
DE102019203334A1 (de) * 2019-03-12 2020-09-17 Robert Bosch Gmbh Verfahren zum Durchführen einer Reaktion auf Personen an Fahrzeugen
US11410545B2 (en) * 2019-07-19 2022-08-09 Ford Global Technologies, Llc Dynamic vehicle perimeter definition and reporting
DE102019216363A1 (de) * 2019-10-24 2021-04-29 Robert Bosch Gmbh Verfahren zum Bereitstellen eines Signals zur Ansteuerung eines zumindest teilautomatisierten Fahrzeugs
DE102019216369A1 (de) * 2019-10-24 2021-04-29 Robert Bosch Gmbh Verfahren zur Bereitstellung eines Warnsignals und/oder Signals zur Ansteuerung eines Fahrzeugs
DE102019219247A1 (de) 2019-12-10 2021-06-10 Robert Bosch Gmbh Verfahren zur Umfelderfassung, Datenverarbeitungseinheit
DE102022200670A1 (de) 2022-01-21 2023-07-27 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Codieren von Verkehrsinfrastrukturen in einer digitalen Karte

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1977946A1 (de) * 2007-04-02 2008-10-08 Robert Bosch GmbH Fahrerassistenzsystems für die Umfeld-Erkennung und Erfassung einer Solltrajektorie
DE102009022278A1 (de) * 2009-05-22 2010-01-21 Daimler Ag Verfahren zur Ermittlung eines hindernisfreien Raums

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100446544C (zh) * 2005-08-26 2008-12-24 电子科技大学 一种视频对象外边界提取方法
CN1987357B (zh) 2006-12-26 2010-05-19 浙江工业大学 基于全方位计算机视觉的智能停车辅助装置
KR101572851B1 (ko) * 2008-12-22 2015-11-30 삼성전자 주식회사 동적 환경에서 모바일 플랫폼의 지도 작성방법
DE102009053807A1 (de) 2009-11-18 2011-05-19 Conti Temic Microelectronic Gmbh Verfahren zum Unterstützen eines Fahrers beim Einparken eines Fahrzeugs

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1977946A1 (de) * 2007-04-02 2008-10-08 Robert Bosch GmbH Fahrerassistenzsystems für die Umfeld-Erkennung und Erfassung einer Solltrajektorie
DE102009022278A1 (de) * 2009-05-22 2010-01-21 Daimler Ag Verfahren zur Ermittlung eines hindernisfreien Raums

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
CHRISTOPH G KELLER ET AL: "Active Pedestrian Safety by Automatic Braking and Evasive Steering", IEEE TRANSACTIONS ON INTELLIGENT TRANSPORTATION SYSTEMS, IEEE, PISCATAWAY, NJ, USA, vol. 12, no. 4, 1 December 2011 (2011-12-01), pages 1292 - 1304, XP011379326, ISSN: 1524-9050, DOI: 10.1109/TITS.2011.2158424 *
CLAUDIO CARAFFI ET AL: "Off-Road Path and Obstacle Detection Using Decision Networks and Stereo Vision", IEEE TRANSACTIONS ON INTELLIGENT TRANSPORTATION SYSTEMS, IEEE, PISCATAWAY, NJ, USA, vol. 8, no. 4, 1 December 2007 (2007-12-01), pages 607 - 618, XP011197075, ISSN: 1524-9050, DOI: 10.1109/TITS.2007.908583 *
OLIVIER AYCARD ET AL: "Intersection safety using lidar and stereo vision sensors", INTELLIGENT VEHICLES SYMPOSIUM (IV), 2011 IEEE, IEEE, 5 June 2011 (2011-06-05), pages 863 - 869, XP031999028, ISBN: 978-1-4577-0890-9, DOI: 10.1109/IVS.2011.5940518 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020020083A1 (en) * 2018-07-23 2020-01-30 Byton Limited Assisted driving system for clearance guidance

Also Published As

Publication number Publication date
CN105103210A (zh) 2015-11-25
US9734719B2 (en) 2017-08-15
US20160063865A1 (en) 2016-03-03
DE102013205882A1 (de) 2014-10-09
CN105103210B (zh) 2018-02-23

Similar Documents

Publication Publication Date Title
WO2014161691A1 (de) Verfahren und vorrichtung zum führen eines fahrzeugs im umfeld eines objekts
DE102016203086B4 (de) Verfahren und Vorrichtung zur Fahrerassistenz
EP2883769B2 (de) Verfahren und Vorrichtung zur Querführung eines Kraftfahrzeugs, insbesondere zur Ausweichunterstützung
DE102010050167B4 (de) Verfahren und Vorrichtung zur Bestimmung eines plausiblen Fahrstreifens zur Führung eines Fahrzeugs sowie Kraftwagen
WO2014127777A2 (de) Verfahren und vorrichtung zur bestimmung eines fahrbahnzustands
EP2623398B1 (de) Automatische Auswahl der Zielposition in einer Parklücke durch kombinierte Auswertung von Video / USS-Objekten
WO2015197353A2 (de) Verfahren zur erstellung eines umfeldmodells eines fahrzeugs
DE102012210608A1 (de) Verfahren und Vorrichtung zum Erzeugen eines Steuerparameters für ein Abstandsassistenzsystem eines Fahrzeugs
EP3356203B1 (de) Verfahren zum bestimmen einer parkfläche zum parken eines kraftfahrzeugs, fahrerassistenzsystem sowie kraftfahrzeug
DE102014200638A1 (de) Verfahren und System zum Schätzen eines Fahrspurverlaufs
EP3627386A1 (de) Verfahren und vorrichtung zum bereitstellen eines umfeldabbildes eines umfeldes einer mobilen einrichtung und kraftfahrzeug mit einer solchen vorrichtung
DE102012206211A1 (de) Verfahren und Vorrichtung zum Bestimmen eines Spuranpassungsparameters für ein Spurhaltesystem eines Fahrzeugs sowie Verfahren und Vorrichtung zur Spurführung eines Fahrzeugs
DE102015223176A1 (de) Verfahren und Vorrichtung zur Ermittlung von Verdeckungsbereichen in der Fahrzeugumgebung eines Fahrzeuges
DE102008042825A1 (de) Fahrerassistenzsystem für Kraftfahrzeuge
DE102013201796A1 (de) Verfahren zur Bereitstellung eines Fahrkorridors für ein Fahrzeug und Fahrassistenzsystem
WO2011138164A1 (de) Verfahren zum betreiben eines fahrerassistenzsystems eines fahrzeugs, fahrerassistenzsystem und fahrzeug
EP3204889B1 (de) Verfahren für ein kraftfahrzeug mit einer kamera, vorrichtung und system
DE102017122543A1 (de) Verfahren zum Unterstützen eines Fahrers eines Kraftfahrzeugs beim Überholen eines Objektes sowie Fahrerassistenzsystem
DE102011080720A1 (de) Visualisierung einer Rampenabfahrt
DE102016107421A1 (de) Verfahren zur Anzeige von mit einer Erfassungseinrichtung nicht erfassbaren Umgebungsbereichen in der Umgebung eines Kraftfahrzeugs, Fahrerassistenzsystem und Kraftfahrzeug
DE102017006835A1 (de) Steuerungssystem, Verfahren und Kraftfahrzeug zum Berechnen einer Kraftfahrzeugs-Trajektorie
DE102015005464B4 (de) System und Verfahren zum Lenken eines Fahrzeugs
DE102004047122A1 (de) Verfahren zum Überwachen eines Fahrzeugs
DE102020101375A1 (de) Verfahren zur Querverkehrswarnung für ein Fahrzeug mit Erkennung von Fahrspuren, Recheneinrichtung sowie Fahrerassistenzsystem
DE102022129805B3 (de) Verfahren zum Darstellen von symbolischen Fahrbahnmarkierungen auf einer Anzeigeeinheit eines Fahrzeugs sowie Anzeigesystem für ein Fahrzeug

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201480019804.4

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14709890

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14781986

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14709890

Country of ref document: EP

Kind code of ref document: A1