WO2013107548A1 - Verfahren und vorrichtung zum visualisieren der umgebung eines fahrzeugs - Google Patents

Verfahren und vorrichtung zum visualisieren der umgebung eines fahrzeugs Download PDF

Info

Publication number
WO2013107548A1
WO2013107548A1 PCT/EP2012/073835 EP2012073835W WO2013107548A1 WO 2013107548 A1 WO2013107548 A1 WO 2013107548A1 EP 2012073835 W EP2012073835 W EP 2012073835W WO 2013107548 A1 WO2013107548 A1 WO 2013107548A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
environment
sensor
video
distance
Prior art date
Application number
PCT/EP2012/073835
Other languages
English (en)
French (fr)
Inventor
Joerg Heckel
Claus Marberger
Holger Mielenz
Original Assignee
Robert Bosch Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch Gmbh filed Critical Robert Bosch Gmbh
Priority to CN201280067596.6A priority Critical patent/CN104204847B/zh
Priority to KR1020147019760A priority patent/KR102034189B1/ko
Priority to EP12805962.3A priority patent/EP2805183B1/de
Priority to IN5777DEN2014 priority patent/IN2014DN05777A/en
Priority to US14/371,827 priority patent/US9862316B2/en
Publication of WO2013107548A1 publication Critical patent/WO2013107548A1/de

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/85Arrangements for transferring vehicle- or driver-related data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/24Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view in front of the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/28Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with an adjustable field of view
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S11/00Systems for determining distance or velocity not using reflection or reradiation
    • G01S11/12Systems for determining distance or velocity not using reflection or reradiation using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/176Camera images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/592Data transfer involving external databases
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/20Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
    • B60R2300/207Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used using multi-purpose displays, e.g. camera image and navigation or video on same display
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/304Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/802Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for monitoring and displaying vehicle exterior blind spot views
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/806Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for aiding parking
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8086Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for vehicle path indication
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8093Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for obstacle warning

Definitions

  • the present invention relates to an expanded display of the environment of a vehicle.
  • augmented reality location-specific additional information is superimposed into the reality perceived by the viewer.
  • this is usually accomplished by having a camera generate a real-time video image of the vehicle environment that is shown to the driver via a corresponding output device.
  • This screen will then display additional information to assist the driver. This can be, for example, the visualization of the probable route with the current steering angle or the highlighting of an obstacle.
  • Close range of the vehicle can often not be detected with such a system.
  • an accurate environmental model of the vehicle at close range is desirable in order to be able to communicate information to the driver here as well.
  • the proximity of a vehicle is detected and generated from the data obtained an environment map in which the vehicle is virtually moving.
  • the visualization is the display of the generated space, for example from a bird's-eye view. Furthermore, important information such as protruding collisions or the display of the driving tube can be visualized therein. However, there is no visualization of the far end of the environment of the vehicle.
  • the document DE 10 2009 005 566 A1 describes a method for
  • Short-range sensors such as ultrasonic sensors.
  • objects are detected in the vicinity of the vehicle with the help of the video camera, which can be measured with the post-range sensors.
  • Object be entered in a three-dimensional environment map of the vehicle. This card can then be used for various applications, such as helping the driver to park. However, in this document is not closer to the visualization
  • DE 10 2009 005 505 A1 describes a method for generating an environment image of the vehicle from a virtual camera position, the image of a camera perspective being converted to the virtual camera position. This is done with multiple cameras of the near range of
  • the 3D model is also obtained with the mentioned cameras by using the stereo-from-motion principle. This allows the driver a video image of the entire vicinity of his vehicle, for example from the
  • the cited prior art has the disadvantage that only the near zone of the vehicle is visualized, while the far-end zone is ignored. Furthermore, as in the first two cases, the driver no
  • the third model discloses the use of multiple cameras, increasing the manufacturing cost and cost of the vehicle.
  • none of the cited references discusses the possibility of a perspective continuous transition between artificially rendered Use ambient models and image data of an optical environment sensor advantageous.
  • the inventive method for visualizing the vehicle environment addresses the disadvantages of the prior art by the combination of the features of the independent claim 1.
  • a bipartite display of synthetically generated environment model is a bipartite display of synthetically generated environment model and
  • Real-time video image generated To generate the environment model, first a current distance between the vehicle and obstacles in the environment is detected. At the same time, a current position of the vehicle is determined, which is temporarily stored together with the distance information. From several stored position and distance data can now be a
  • a two-dimensional or three-dimensional model can be calculated.
  • the advantage of this environment model is that it can be viewed from different virtual locations. If a specific virtual observer position is determined (for example by the driver), then a virtual view of the environment model is calculated from this observer position. In this way, it is possible, for example, to create a top-view view of the environment.
  • part of the environment is defined by means of at least one, preferably by means of exactly one,
  • Video camera captured The resulting video presentation is conveniently integrated into the virtual view so that the driver can see a full picture of the surroundings of his vehicle: in the video camera's detection area, he sees a real-time video image of the environment while synthesizing it outside the scope of the video camera Environment model sees. This puts the driver in addition to the
  • Video presentation of the environment also provides information about obstacles that are currently not within the scope of the video camera.
  • the virtual view comprises a two-part representation, according to which, at the level of the transition between the engine compartment passenger compartment, an artificial horizon is laid out, which allows a division into different views.
  • the artificial horizon can be the image of a
  • the distance between the vehicle and obstacles is determined by means of optical sensors.
  • These sensors can be either passive sensors (mono and stereo video) or active sensor systems (laser scanner, laser imager, PMD (Photonic Mixing Device, optical sensor according to the time-of-flight method), flush lidar).
  • the distance data relating to obstacles in the surroundings of the vehicle is obtained from the signals of the video camera.
  • the video camera has to fulfill two tasks. On the one hand, it serves as a distance sensor (for example, according to the structure-from-motion method or in that the video camera is a stereo camera) and, on the other hand, as a supplier of the video signal to be displayed. Therefore, in addition to the video camera no additional sensors are needed to determine the environment model.
  • the position of the vehicle is measured as an absolute position or as a relative position to an already stored position.
  • the odometry offers itself what the
  • a differential GPS can be used here.
  • the virtual vehicle Positioning procedure to pay attention.
  • a differential GPS can be used here.
  • the virtual vehicle can be used here.
  • the virtual vehicle can be used here.
  • Observer position of the environment model set by the driver of the vehicle This can thus customize the visualization of the obstacles by varying the views and perspectives in the environment of the vehicle.
  • Arithmetic unit are automatically set and displayed in the display device. Finally, the virtual viewer view of the selected virtual viewer position is used to calculate the virtual view of the environment model and adjust the video presentation to fit seamlessly into the virtual view.
  • Coordinate system such additional information can also be seamlessly placed over both areas. In this way, for example, even a detected post can be "monitored” during a parking operation, even if it has left the visible area of the camera.
  • the invention relates to a device for visualizing the
  • Vehicle environment with the features of claim 7. This comprises at least one sensor for determining a distance of the vehicle to obstacles and at least one sensor for determining a current position of the vehicle. Furthermore, there is a storage device in which position data and distance data are stored. In addition, a video camera is used which detects at least part of the environment and forwards this data to a computing device. Based on the stored position data of the vehicle and distance data of the obstacles as well as the signals of the video camera, the computing device generates a visualization of the environment, which is displayed on an output device to the driver. For this purpose, the computing device calculates an environment model from the stored position and distance data. Wrd a virtual Viewer position, the computing device further determines a virtual view of that environment model from the selected virtual one
  • the computing device integrates the video camera signals into the virtual view. Therefore, with the device according to the invention, the inventive method can be ideally carried out.
  • the at least one sensor for determining the distance between the vehicle and the obstacles is either a passive optical sensor (mono and stereo video) or an active optical sensor system (laser scanner, laserimager, PMD, flush lidar). is working.
  • the senor for determining a distance of the vehicle from obstacles to the video camera which must thus fulfill two tasks.
  • it provides distance information about obstacles in the environment of the
  • the video signal to be displayed for example, according to the structure-from-motion method or the stereo video method.
  • a vehicle which comprises a device according to the invention or is set up in such a way to carry out a method according to the invention. Furthermore, it is advantageous if the recorded by the camera
  • Video presentation for the display representation is edited. In this way, it can be adapted to the perspective from which the display representation shows the virtual environment, so that no perspective disturbances arise.
  • Figure 1 is a representation of the visualization of the environment of a
  • FIG. 2 shows a representation of a first visualization variant of FIG
  • FIG. 3 shows a representation of a second visualization variant of FIG
  • FIG. 4 shows the visualization of the vehicle environment when passing through a narrow lane at a first time according to a second embodiment of the invention
  • Figure 5 shows the visualization of the vehicle environment in passing a narrow lane at a second time according to the second embodiment of the invention.
  • FIG. 1 shows a conventional, perspective video representation 20 of an environment captured by a camera 2 with a restricted viewing angle.
  • Figures 2 and 3 illustrate a first embodiment of the invention. It is considered a vehicle 1, which is equipped with a camera 2.
  • the camera fulfills two functions: on the one hand, only a video display 20 of the surroundings can be displayed, on the other hand, the distance to obstacles 6 in the surroundings of the vehicle can be determined by means of the stereo-from-motion method. Therefore, the camera also serves as a distance sensor, so that a three-dimensional environment model of
  • Vehicle can be calculated.
  • the environment model in turn makes it possible to define a virtual observer position 3 (see FIGS. 2 and 3) from which the environment is to be viewed. Therefore, it is possible, for example, to generate a display representation 30 that provides a continuous transition from a top-view perspective (view from above) into the display
  • a first part 40 of the display representation is based on a reconstruction from the environment model. This corresponds to the area 4 of the environment, which is not visible from the camera 2.
  • a second part 50 of the display is based on the video camera signals. This corresponds to Area 5 of the environment, which is visible to the camera.
  • the video representation 20 is correspondingly transformed to the environment so that it can be seamlessly attached to the view calculated from the environment model without perspective distortion.
  • Figures 4 and 5 show a vehicle 1 driving through a narrow lane.
  • This lane is formed by three vehicles 60, 62 and 64 on the left side and by three vehicles 61, 63 and 65 on the right side and by some more containers 66.
  • Embodiment visualized The overall process is explained by way of example on the basis of three images, a first image 21, a second image 22 and a third image 23, which were taken by the camera 2 at different times.
  • the display representation 30 shown to the driver is also divided into two. In the upper area 31, a perspective is shown, as well as the driver sees. Here, the video presentation of the camera 2 is integrated, which does not need to be further transformed.
  • the lower area 32 shows the
  • the upper area 31 corresponds to the visualization of the long range of the vehicle 1
  • the lower area 32 corresponds to the visualization of the vicinity of the vehicle.
  • the vehicle is in the position in which the camera 2 takes the second image 22. At this point, the rear left vehicle 60 and the rear right vehicle 61 of the lane are no longer visible.
  • the camera 2 is also used to determine a
  • the video presentation of the camera 2 is integrated into the display representation 30 in the upper area 31 (driver's perspective). This will be seamlessly inserted into the rest of the ad and can provide additional environmental information from the
  • the video image shown in the upper area 31 of the display 30 can be extended by the environment model
  • FIG. 3 shows a second time step of the passage through which the camera 2 picks up the third image 23. No longer relevant objects, such as the above-mentioned container 66, are no longer displayed. In addition, it becomes clear on the basis of the middle right vehicle 63 how objects from the upper region 31 of the display representation 30 can change into the lower region 32. Such a change corresponds to the transition from the far end

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Traffic Control Systems (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

Die vorliegende Erfindung betrifft ein Verfahren zum Visualisieren der Umgebung eines Fahrzeuges (1), umfassend die folgenden Schritte: Bestimmen und Speichern eines aktuellen Abstands zwischen Fahrzeug (1) und vorhandenen Hindernissen (6, 60, 61, 62, 63, 64, 65, 66) in der Umgebung des Fahrzeugs mittels mindestens einem Sensor, Bestimmen und Speichern einer aktuellen Position des Fahrzeuges, Berechnen eines zumindest zweidimensionalen Umgebungsmodells aus den gespeicherten Daten, Berechnen einer virtuellen Ansicht (30) des Umgebungsmodells aus einer gewählten virtuellen Betrachterposition (3), Aufnehmen einer Videodarstellung von zumindest einem Teil der Umgebung mittels mindestens einer Videokamera (2) und Integrieren der Videodarstellung (20) in die virtuelle Ansicht (30), und Ausgeben der virtuellen Ansicht mit integrierter Videodarstellung an einen Fahrer des Fahrzeugs (1).

Description

Beschreibung
Titel
Verfahren und Vorrichtung zum Visualisieren der Umgebung eines Fahrzeugs Stand der Technik
Die vorliegende Erfindung betrifft eine erweiterte Anzeige der Umgebung eines Fahrzeugs. Bei diesem Augmented-Reality genannten Konzept werden ortsbezogene Zusatzinformationen in die vom Betrachter wahrgenommene Realität eingeblendet. In einem Fahrzeug wird dies meist dadurch realisiert, dass eine Kamera ein Echtzeitvideobild der Fahrzeugumgebung erzeugt, das dem Fahrer über eine entsprechende Ausgabevorrichtung gezeigt wird. In diesem Bild werden dann Zusatzinformationen zur Unterstützung des Fahrers angezeigt. Dies kann beispielsweise die Visualisierung des voraussichtlichen Fahrweges bei aktuellem Lenkeinschlag oder das Hervorheben eines Hindernisses sein.
Besonders bei Engstellen oder bei Einparkvorgängen kann ein solches System sehr nützlich sein.
Es besteht jedoch aufgrund des begrenzten Öffnungswinkels der Kamera (typischerweise kleiner als 50°) das Problem, dass nur ein begrenzter Bereich der Umgebung des Fahrzeugs visualisiert werden kann. Vor allem der
Nahbereich des Fahrzeugs kann mit einem solchen System oft nicht erfasst werden. Ein akkurates Umgebungsmodell des Fahrzeugs im Nahbereich ist jedoch erstrebenswert, um dem Fahrer auch hier Informationen mitteilen zu können.
Aus dem Stand der Technik ist die DE 10 2008 036 009 A1 bekannt, die ein Verfahren zum Vermessen des Umfeldes eines Kraftfahrzeugs beschreibt.
Mittels mehrerer nicht näher spezifizierter Sensoren wird der Nahbereich eines Fahrzeugs erfasst und aus den gewonnenen Daten eine Umfeldkarte generiert, in dem sich das Fahrzeug virtuell bewegt. Als Visualisierung wird die Anzeige des generierten Raumes zum Beispiel aus der Vogelperspektive vorgeschlagen. Weiterhin können darin wichtige Informationen, wie beispielsweise vorstehende Kollisionen oder die Anzeige des Fahrschlauchs visualisiert werden. Jedoch erfolgt keine Visualisierung des Fernbereichs der Umgebung des Fahrzeugs.
Das Dokument DE 10 2009 005 566 A1 beschreibt ein Verfahren zum
Kombinieren von Signalen aus einer Videokamera mit Signalen von
Nahbereichssensoren, wie beispielsweise Ultraschallsensoren. Dazu werden mit Hilfe der Videokamera Objekte in der Umgebung des Fahrzeugs detektiert, die mit den Nachbereichssensoren vermessen werden können. Somit kann ein
Objekt in eine dreidimensionale Umfeldskarte des Fahrzeugs eingetragen werden. Diese Karte kann anschließend für verschiedene Applikationen, zum Beispiel der Unterstützung des Fahrers beim Einparken, verwendet werden. Jedoch wird in diesem Dokument nicht näher auf die Visualisierung
eingegangen.
Die DE 10 2009 005 505 A1 beschreibt ein Verfahren zum Erzeugen eines Umgebungsabbildes des Fahrzeugs aus einer virtuellen Kameraposition, wobei die Abbildung einer Kameraperspektive auf die virtuelle Kameraposition umgerechnet wird. Dazu wird mit mehreren Kameras der Nahbereich des
Fahrzeugs erfasst und anschließend mit einem 3D-Modell kombiniert, um somit perspektivische Verzerrungen der Kamera zu glätten. Das 3D-Modell wird ebenfalls mit den genannten Kameras gewonnen, indem auf das Stereo-from- Motion-Prinzip zurückgegriffen wird. Damit kann dem Fahrer ein Videobild des gesamten Nahbereichs seines Fahrzeugs, zum Beispiel aus der
Vogelperspektive, gezeigt werden.
Der genannte Stand der Technik weist jedoch den Nachteil auf, dass lediglich der Nahbereich des Fahrzeugs visualisiert wird, während der Fernbereich nicht beachtet wird. Weiterhin wird, wie in den ersten beiden Fällen, dem Fahrer kein
Videobild der Umgebung gezeigt. Dies ist jedoch wünschenswert, da es viele Informationen enthält und für den Fahrer intuitiv verständlicher ist, als ein synthetisches Modell. Das dritte Modell offenbart jedoch die Verwendung von mehreren Kameras, was den Fertigungsaufwand und die Kosten des Fahrzeugs erhöht. Auch diskutiert keine der zitierten Druckschriften die Möglichkeit, einen perspektivisch kontinuierlichen Übergang zwischen künstlich gerenderten Umgebungsmodellen und Bilddaten eines optischen Umfeldsensors vorteilhaft einzusetzen.
Offenbarung der Erfindung
Das erfindungsgemäße Verfahren zum Visualisieren der Fahrzeugumgebung begegnet den Nachteilen des Standes der Technik durch die Kombination der Merkmale aus dem unabhängigen Anspruch 1. Um dem Fahrer des Fahrzeugs reichhaltige Umgebungsinformationen intuitiv und übersichtlich darzustellen, wird eine zweigeteilte Anzeige aus synthetisch erzeugtem Umgebungsmodell und
Echtzeitvideobild generiert. Um das Umgebungsmodell zu erzeugen, wird zunächst ein aktueller Abstand zwischen Fahrzeug und Hindernissen in der Umgebung erfasst. Gleichzeitig wird eine aktuelle Position des Fahrzeugs bestimmt, die zusammen mit den Abstandsinformationen zwischengespeichert wird. Aus mehreren gespeicherten Positions- und Abstandsdaten kann nun ein
Modell der Umgebung des Fahrzeugs berechnet werden, was je nach Art der verwendeten Abstandssensoren, ein zweidimensionales oder dreidimensionales Modell sein kann. Der Vorteil dieses Umgebungsmodells ist der, dass es aus verschiedenen virtuellen Positionen betrachtet werden kann. Wird eine bestimmte virtuelle Betrachterposition festgelegt (zum Beispiel vom Fahrer), so wird eine virtuelle Ansicht des Umgebungsmodells aus dieser Betrachterposition berechnet. Auf diese Weise ist es beispielsweise möglich, eine Top-view-Ansicht der Umgebung zu erzeugen. Zusätzlich zu dem Umgebungsmodell wird ein Teil der Umgebung mittels mindestens einer, bevorzugt mittels genau einer,
Videokamera erfasst. Die so erzeugte Videodarstellung wird an passender Stelle in die virtuelle Ansicht integriert, so dass dem Fahrer ein umfassendes Bild der Umgebung seines Fahrzeugs gezeigt werden kann: Im Erfassungsbereich der Videokamera sieht er ein Echtzeitvideobild der Umgebung, während er außerhalb des Erfassungsbereichs der Videokamera das synthetisch erzeugte Umgebungsmodell sieht. Damit stehen dem Fahrer zusätzlich zu der
Videodarstellung der Umgebung auch Informationen über Hindernisse zur Verfügung, die gerade nicht im Erfassungsbereich der Videokamera liegen.
Insgesamt kann mit dem erfindungsgemäßen Verfahren ein größerer Ausschnitt der Umwelt dargestellt werden, als von der Videokamera erfasst wird. Damit ist es möglich, auch Videosensoren zu verwenden, die einen geringen Öffnungswinkel aufweisen. Weiterhin ist es vorteilhaft, das erstellte
dreidimensionale Umfeldsmodell zur Glättung perspektivischer Verzerrungen einzusetzen.
Insbesondere umfasst die virtuelle Ansicht eine zweigeteilte Darstellung, wonach auf Höhe des Übergangs zwischen Motorraum-Fahrgastzelle ein künstlicher Horizont gelegt wird, der eine Aufteilung in verschiedene Ansichten ermöglicht. So kann beispielsweise der künstliche Horizont das Bild von einer
vorausblickenden Kamera von einer synthetisch erzeugten Vogelperspektive abgrenzen.
Die Unteransprüche zeigen bevorzugte Weiterbildungen der Erfindung.
In vorteilhafter Weise wird der Abstand zwischen Fahrzeug und Hindernissen mittels optischen Sensoren bestimmt. Diese Sensoren können dabei entweder passive Sensoren (Mono- und Stereo- Video) oder aktive Sensorsysteme (Laserscanner, Laserimager, PMD (Photonic Mixing Device, optischer Sensor nach dem Time-of-Flight Verfahren), Flush-Lidar) sein.
Es ist weiterhin vorteilhaft, wenn die Abstandsdaten zu Hindernissen in der Umgebung des Fahrzeugs aus den Signalen der Videokamera gewonnen werden. Dies bedeutet, dass die Videokamera zwei Aufgaben erfüllen muss. Zum einen dient sie als Abstandssensor (z.B. nach dem Structure-from-Motion Verfahren oder indem die Videokamera eine Stereokamera ist), zum anderen als Lieferant für das anzuzeigende Videosignal. Daher wird neben der Videokamera keine weitere Sensorik benötigt, um das Umgebungsmodell zu bestimmen.
Bevorzugt wird die Position des Fahrzeugs als eine absolute Position oder als eine zu einer bereits gespeicherten Position relative Position gemessen. Um eine relative Position zu bestimmen, bietet sich die Odometrie an, was den
Positionsbestimmungsvorgang sehr einfach macht. Sollte eine absolute Position gemessen werden, so ist auf eine hinreichende Genauigkeit des
Positionsbestimmungsverfahrens zu achten. Beispielsweise kann hier ein Differential-GPS verwendet werden. In einer weiteren bevorzugten Ausführungsform wird die virtuelle
Betrachterposition des Umgebungsmodells vom Fahrer des Fahrzeugs festgelegt. Dieser kann somit die Visualisierung der Hindernisse durch Variation der Betrachtungsweisen und Perspektiven in der Umgebung des Fahrzeugs individuell gestalten. Alternativ kann die virtuelle Betrachterposition von einer
Recheneinheit automatisch festgelegt werden und in der Anzeigevorrichtung dargestellt werden. Anhand der gewählten virtuellen Betrachterposition wird schließlich die virtuelle Ansicht des Umgebungsmodells berechnet, sowie die Videodarstellung entsprechend angepasst, um sie nahtlos in die virtuelle Ansicht einzufügen.
Außerdem ist es vorteilhaft, wenn aktuelle Fahrparameter in die virtuelle Ansicht integriert werden. Dies kann beispielsweise der Weg zu einem Parkplatz oder ein drohendes Kollisionsobjekt sein, wobei es irrelevant ist, ob dieses Objekt oder der Weg aktuell von der Videokamera erfasst werden. Die Visualisierung des synthetischen Umgebungsmodells ermöglicht auch die Warnung vor Objekten außerhalb des Erfassungsbereichs der Videokamera. Da die Visualisierung des Umgebungsmodells und die Videodarstellung über ein gemeinsames
Koordinatensystem verfügen, können solche Zusatzinformationen auch nahtlos über beide Bereiche gelegt werden. Auf diese Weise kann zum Beispiel auch ein erkannter Pfosten während eines Einparkvorgangs„überwacht" werden, selbst wenn er den sichtbaren Bereich der Kamera verlassen hat.
Zusätzlich betrifft die Erfindung eine Vorrichtung zum Visualisieren der
Fahrzeugumgebung mit den Merkmalen des Anspruch 7. Diese umfasst mindestens einen Sensor zum Bestimmen eines Abstands des Fahrzeugs zu Hindernissen sowie mindestens einen Sensor zum Bestimmen einer aktuellen Position des Fahrzeugs. Weiterhin ist eine Speichervorrichtung vorhanden, in der Positionsdaten und Abstandsdaten gespeichert werden. Außerdem wird eine Videokamera verwendet, die zumindest einen Teil der Umgebung erfasst und diese Daten an eine Rechenvorrichtung weiterleitet. Auf Basis der gespeicherten Positionsdaten des Fahrzeugs und Abstandsdaten der Hindernisse sowie den Signalen der Videokamera generiert die Rechenvorrichtung eine Visualisierung der Umgebung, die auf einer Ausgabevorrichtung dem Fahrer angezeigt wird. Dazu berechnet die Rechenvorrichtung ein Umgebungsmodell aus den gespeicherten Positions- und Abstandsdaten. Wrd eine virtuelle Betrachterposition gewählt, so bestimmt die Rechenvorrichtung weiter eine virtuelle Ansicht dieses Umgebungsmodells aus der gewählten virtuellen
Betrachterposition. Schließlich integriert die Rechenvorrichtung die Signale der Videokamera in die virtuelle Ansicht. Daher kann mit der erfindungsgemäßen Vorrichtung das erfindungsgemäße Verfahren ideal durchgeführt werden.
In vorteilhafter Weise handelt es sich bei dem mindestens einen Sensor zur Bestimmung des Abstands zwischen Fahrzeug und Hindernissen entweder um einen passiven optischen Sensor (Mono- und Stereo- Video) oder um ein aktives optisches Sensorsystem (Laserscanner, Laserimager, PMD, Flush-Lidar) arbeitet.
Bevorzugt umfasst der Sensor zum Bestimmen eines Abstands des Fahrzeugs zu Hindernissen die Videokamera, die somit zwei Aufgaben erfüllen muss. Zum einen liefert sie Abstandsinformationen zu Hindernissen in der Umgebung des
Fahrzeugs (z.B. nach dem Structure-from-Motion Verfahren oder dem Stereo- Video- Verfahren), zum anderen liefert sie das anzuzeigende Videosignal.
Dadurch wird keine separate Abstandssensorik benötigt, was den Aufbau der erfindungsgemäßen Vorrichtung deutlich vereinfacht.
Außerdem wird ein Fahrzeug offenbart, das eine erfindungsgemäße Vorrichtung umfasst bzw. derart eingerichtet ist, ein erfindungsgemäßes Verfahren auszuführen. Weiterhin ist es vorteilhaft, wenn die von der Kamera aufgenommene
Videodarstellung für die Displaydarstellung bearbeitet wird. Auf diese Weise kann es dem Blickwinkel, aus dem die Displaydarstellung die virtuelle Umgebung zeigt, angepasst werden, so dass keine perspektivischen Störungen entstehen. Kurze Beschreibung der Zeichnungen
Nachfolgend werden Ausführungsbeispiele der Erfindung unter Bezugnahme auf die begleitende Zeichnung im Detail beschrieben. In der Zeichnung ist:
Figur 1 eine Darstellung der Visualisierung der Umgebung eines
Fahrzeugs gemäß dem Stand der Technik, Figur 2 eine Darstellung einer ersten Visualisierungsvariante der
Umgebung eines Fahrzeuges gemäß einer ersten
Ausführungsform der Erfindung,
Figur 3 eine Darstellung einer zweiten Visualisierungsvariante der
Umgebung eines Fahrzeuges gemäß einer ersten
Ausführungsform der Erfindung,
Figur 4 die Visualisierung der Fahrzeugumgebung bei Durchfahrt einer engen Gasse zu einem ersten Zeitpunkt gemäß einer zweiten Ausführungsform der Erfindung und
Figur 5 die Visualisierung der Fahrzeugumgebung bei Durchfahrt einer engen Gasse zu einem zweiten Zeitpunkt gemäß der zweiten Ausführungsform der Erfindung.
Ausführungsformen der Erfindung
Figur 1 zeigt eine übliche, perspektivische Videodarstellung 20 einer durch eine Kamera 2 erfassten Umgebung mit eingeschränktem Blickwinkel.
Die Figuren 2 und 3 verdeutlichen eine erste Ausführungsform der Erfindung. Es wird ein Fahrzeug 1 betrachtet, das mit einer Kamera 2 ausgestattet ist.
Erfindungsgemäß erfüllt die Kamera zwei Funktionen: zum einen kann lediglich eine Videodarstellung 20 der Umgebung angezeigt werden, zum anderen kann mittels des Stereo-from-Motion-Verfahrens der Abstand zu Hindernissen 6 in der Umgebung des Fahrzeugs bestimmt werden. Daher dient die Kamera auch als Abstandssensor, so dass ein dreidimensionales Umgebungsmodell des
Fahrzeugs berechnet werden kann. Das Umgebungsmodell wiederum ermöglicht es, eine virtuelle Betrachterposition 3 (vgl. Figuren 2 und 3) festzulegen, aus der die Umgebung betrachtet werden soll. Daher ist es zum Beispiel möglich, eine Displaydarstellung 30 zu erzeugen, die einen kontinuierlichen Übergang aus einer Top-View-Perspektive (Ansicht senkrecht von oben) in die
Fahrerperspektive anzeigt (siehe Figur 2). Eine andere Möglichkeit ist die zentralperspektivische Darstellung von Nah- und Fernbereich aus der Vogelperspektive (siehe Figur 3). Ein erster Teil 40 der Displaydarstellung basiert dabei auf einer Rekonstruktion aus dem Umgebungsmodell. Dies entspricht dem Bereich 4 der Umgebung, der von der Kamera 2 nicht einsehbar ist. Ein zweiter Teil 50 der Displaydarstellung basiert auf den Signalen der Videokamera. Dies entspricht dem Bereich 5 der Umgebung, der von der Kamera einsehbar ist. In beiden genannten Perspektiven wird die Videodarstellung 20 der Umgebung entsprechend transformiert, so dass sie nahtlos und ohne perspektivische Verzerrung an die aus dem Umgebungsmodell berechnete Ansicht angefügt werden kann.
Die Figuren 4 und 5 zeigen ein Fahrzeug 1 , das durch eine enge Gasse fährt. Diese Gasse wird durch drei Fahrzeuge 60, 62 und 64 auf der linken Seite und durch drei Fahrzeuge 61 , 63 und 65 auf der rechten Seite sowie durch einige weitere Container 66 gebildet. Während der Durchfahrt des Fahrzeugs 1 wird die Umgebung nach dem erfindungsgemäßen Verfahren gemäß einer zweiten
Ausführungsform visualisiert. Der Gesamtvorgang wird beispielhaft anhand von drei Bildern, einem ersten Bild 21 , einem zweiten Bild 22 und einem dritten Bild 23 erklärt, die von der Kamera 2 zu unterschiedlichen Zeitpunkten aufgenommen wurden. Die Displaydarstellung 30, die dem Fahrer gezeigt wird, ist auch hier zweigeteilt. Im oberen Bereich 31 wird eine Perspektive dargestellt, wie sie auch der Fahrer sieht. Hier wird die Videodarstellung der Kamera 2 integriert, die dafür nicht weiter transformiert werden muss. Der untere Bereich 32 zeigt die
Umgebung aus der Top-View-Perspektive. Daher entspricht der obere Bereich 31 der Visualisierung des Fernbereichs des Fahrzeugs 1 , während der untere Bereich 32 der Visualisierung des Nahbereichs des Fahrzeugs entspricht.
In Figur 4 befindet sich das Fahrzeug an der Position, in der die Kamera 2 das zweite Bild 22 aufnimmt. An dieser Stelle sind das hintere linke Fahrzeug 60 und das hintere rechte Fahrzeug 61 der Gasse nicht mehr einsehbar.
Erfindungsgemäß wird die Kamera 2 jedoch auch zur Bestimmung eines
Umgebungsmodells unter Ausnutzung des Stereo-from-Motion-Prinzips verwendet oder unter der Verwendung eine Stereo- Videokamera betrieben, so dass die Position der beiden Fahrzeuge 60 und 61 relativ zu dem eigenen Fahrzeug 1 bekannt ist. Es ist daher problemlos möglich, die Position der beiden Fahrzeuge 60 und 61 bezüglich des eigenen Fahrzeuges aus dem
Umgebungsmodell zu ermitteln und in der Displaydarstellung 30 im unteren Bereich 32 (Top-View-Perspektive) anzuzeigen. Das Gleiche gilt analog für hinter dem Fahrzeug liegende Container 66. Diese werden immer noch dargestellt, obwohl das Fahrzeug 1 bereits an selbigen vorbeigefahren ist. Erfindungsgemäß ist es dennoch möglich, den Fahrer vor diesen Containern 66 zu warnen, da deren Position relativ zum Fahrzeug bekannt ist, obwohl seit längerer Zeit von der Videokamera 2 nicht mehr erfasst wurden.
Die Videodarstellung der Kamera 2 wird in die Displaydarstellung 30 im oberen Bereich 31 (Fahrerperspektive) integriert. Diese wird nahtlos in die übrige Anzeige eingefügt und kann um zusätzliche Umgebungsinformationen aus dem
Umgebungsmodell erweitert werden. So ist beispielsweise das Fahrzeug 1 bereits so weit an das mittlere linke Fahrzeug 62 der Gasse herangefahren, dass dieses nicht mehr vollständig von der Kamera 2 erfasst werden kann. Jedoch ist aus dem Umgebungsmodell sowohl die Position des mittleren linken Fahrzeugs 62 bezüglich zum eigenen Fahrzeug 1 als auch dessen Abmessung bekannt.
Daher kann das im oberen Bereich 31 der Displaydarstellung 30 gezeigte Videobild erweitert werden, indem die aus dem Umgebungsmodell
rekonstruierten Umrisse des mittleren linken Fahrzeugs 62 die Videodarstellung vervollständigen.
In Figur 3 wird ein zweiter Zeitschritt der Gassendurchfahrt dargestellt, zu dem die Kamera 2 das dritte Bild 23 aufnimmt. Nicht mehr relevante Objekte, wie die oben genannten Container 66, werden nun nicht mehr dargestellt. Außerdem wird anhand des mittleren rechten Fahrzeugs 63 deutlich, wie Objekte aus dem oberen Bereich 31 der Displaydarstellung 30 in den unteren Bereich 32 wechseln können. Ein solcher Wechsel entspricht dem Übergang vom Fernbereich
(Fahrerperspektive bzw. oberer Bereich 31) in den Nahbereich (Top-View- Perspektive bzw. unterer Bereich 32) und findet zu dem Zeitpunkt statt, zu dem das Fahrzeug 1 an dem entsprechendem Objekt vorbeifährt. Der kontinuierliche Übergang in der Darstellung bewirkt schließlich eine für den Fahrer des
Fahrzeugs intuitiv verständliche Visualisierung der Umgebung seines Fahrzeugs.

Claims

Verfahren zum Visualisieren der Umgebung eines Fahrzeuges (1), umfassend die folgenden Schritte:
- Bestimmen und Speichern eines aktuellen Abstands zwischen Fahrzeug (1) und vorhandenen Hindernissen (6, 60, 61 , 62, 63, 64, 65, 66) in der Umgebung des Fahrzeugs mittels mindestens einem Sensor,
- Bestimmen und Speichern einer aktuellen Position des Fahrzeuges,
- Berechnen eines zumindest zweidimensionalen Umgebungsmodells aus den gespeicherten Daten,
- Berechnen einer virtuellen Ansicht (30) des Umgebungsmodells aus einer gewählten virtuellen Betrachterposition (3),
- Aufnehmen einer Videodarstellung von zumindest einem Teil der
Umgebung mittels mindestens einer Videokamera (2) und Integrieren der Videodarstellung (20) in die virtuelle Ansicht (30), und
- Ausgeben der virtuellen Ansicht mit integrierter Videodarstellung an einen Fahrer des Fahrzeugs (1).
Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass der Abstand zwischen Fahrzeug (1) und vorhandenen Hindernissen (6, 60, 61 , 62, 63, 64, 65, 66) mittels passiven optischen Sensoren und/oder aktiven
Sensorsystemen bestimmt wird.
Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Abstand zwischen Fahrzeug (1) und
vorhandenen Hindernissen (6, 60, 61 , 62, 63, 64, 65, 66) durch
Berechnung aus Daten der Videokamera (2) bestimmt wird.
Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die aktuelle Position des Fahrzeugs eine absolute Position oder eine zu einer bereits gespeicherten Position relative Position ist. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die virtuelle Betrachterposition (3) vom Fahrer des Fahrzeugs (1) und/oder von einer Recheneinheit automatisch festgelegt wird.
Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass aktuelle Fahrparameter in die virtuelle Ansicht integriert werden.
Vorrichtung zum Visualisieren der Umgebung eines Fahrzeuges, umfassend
- mindestens einen Sensor zum Bestimmen eines Abstands des
Fahrzeugs zu Hindernissen (6, 60, 61 , 62, 63, 64, 65, 66) in der Umgebung des Fahrzeugs (1),
- mindestens einen Sensor zum Bestimmen einer aktuellen Position des Fahrzeugs,
- eine Speichervorrichtung zum Speichern der Sensorsignale
- eine zumindest einen Teil der Umgebung aufnehmende Videokamera (2), und
- eine Rechenvorrichtung, die eingerichtet ist,
- ein zumindest zweidimensionales Umgebungsmodell aus den
Sensorsignalen der Speichervorrichtung zu berechnen,
- eine virtuelle Ansicht (30) des Umgebungsmodells aus einer gewählten virtuellen Betrachterposition (3) zu berechnen, und
- eine mit der Videokamera (2) aufgenommene Videodarstellung (20) der Umgebung in die virtuelle Ansicht (30) zu integrieren, und
- eine Ausgabevorrichtung zum Visualisieren der virtuellen Ansicht mit integrierter Videodarstellung.
Vorrichtung nach Anspruch 7, dadurch gekennzeichnet, dass der mindestens eine Sensor zum Bestimmen des Abstand zwischen Fahrzeug (1) und vorhandenen Hindernissen (6, 60, 61 , 62, 63, 64, 65, 66) einen passiven optischen Sensor oder ein aktives Sensorsystem umfasst.
9. Vorrichtung nach einem der Ansprüche 7 bis 8, dadurch gekennzeichnet, dass der mindestens eine Sensor zum Bestimmen des Abstandes des Fahrzeugs (1) zu Hindernissen (6, 60, 61 , 62, 63, 64, 65, 66) die
Videokamera (2) umfasst.
10. Fahrzeug, umfassend eine Vorrichtung nach einem der Ansprüche 7 bis 9, das eingerichtet ist, ein Verfahren nach einem der Ansprüche 1 bis 6 durchzuführen.
PCT/EP2012/073835 2012-01-19 2012-11-28 Verfahren und vorrichtung zum visualisieren der umgebung eines fahrzeugs WO2013107548A1 (de)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN201280067596.6A CN104204847B (zh) 2012-01-19 2012-11-28 用于可视化车辆的周围环境的方法和装置
KR1020147019760A KR102034189B1 (ko) 2012-01-19 2012-11-28 차량 주변 환경을 시각화하는 방법과 장치
EP12805962.3A EP2805183B1 (de) 2012-01-19 2012-11-28 Verfahren und vorrichtung zum visualisieren der umgebung eines fahrzeugs
IN5777DEN2014 IN2014DN05777A (de) 2012-01-19 2012-11-28
US14/371,827 US9862316B2 (en) 2012-01-19 2012-11-28 Method and device for visualizing the surroundings of a vehicle

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102012200731.8 2012-01-19
DE102012200731A DE102012200731A1 (de) 2012-01-19 2012-01-19 Verfahren und Vorrichtung zum Visualisieren der Umgebung eines Fahrzeugs

Publications (1)

Publication Number Publication Date
WO2013107548A1 true WO2013107548A1 (de) 2013-07-25

Family

ID=47429749

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2012/073835 WO2013107548A1 (de) 2012-01-19 2012-11-28 Verfahren und vorrichtung zum visualisieren der umgebung eines fahrzeugs

Country Status (7)

Country Link
US (1) US9862316B2 (de)
EP (1) EP2805183B1 (de)
KR (1) KR102034189B1 (de)
CN (1) CN104204847B (de)
DE (1) DE102012200731A1 (de)
IN (1) IN2014DN05777A (de)
WO (1) WO2013107548A1 (de)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9639968B2 (en) * 2014-02-18 2017-05-02 Harman International Industries, Inc. Generating an augmented view of a location of interest
US9598012B2 (en) * 2014-03-11 2017-03-21 Toyota Motor Engineering & Manufacturing North America, Inc. Surroundings monitoring system for a vehicle
US20160176340A1 (en) * 2014-12-17 2016-06-23 Continental Automotive Systems, Inc. Perspective shifting parking camera system
KR102375411B1 (ko) * 2015-05-11 2022-03-18 삼성전자주식회사 차량 주변 영상 제공 방법 및 장치
DE102016202594A1 (de) * 2016-02-19 2017-08-24 Robert Bosch Gmbh Verfahren und Vorrichtung zum Interpretieren einer Fahrzeugumgebung eines Fahrzeugs sowie Fahrzeug
CN106080390A (zh) * 2016-06-07 2016-11-09 深圳市灵动飞扬科技有限公司 车辆行进全景***及其方法
CN106781262A (zh) * 2017-01-16 2017-05-31 上海应用技术大学 一种适合马路低头族的安全出行装置及其避障方法
US11105437B2 (en) 2017-07-03 2021-08-31 Continental Automotive Systems, Inc. Combined inlet and outlet check valve seat
KR101979277B1 (ko) * 2017-07-25 2019-05-16 엘지전자 주식회사 차량용 사용자 인터페이스 장치 및 차량
DE102017218074A1 (de) * 2017-10-11 2019-04-11 Robert Bosch Gmbh Verfahren zum Darstellen einer Umgebung eines Fahrzeugs
US20180095475A1 (en) * 2017-11-22 2018-04-05 GM Global Technology Operations LLC Systems and methods for visual position estimation in autonomous vehicles
CN108187340B (zh) * 2017-12-22 2021-08-13 深圳华侨城卡乐技术有限公司 一种基于儿童滑车设备的虚拟现实游戏平台及其控制方法
US11073597B2 (en) * 2018-05-11 2021-07-27 Continental Automotive Systems, Inc. Three-dimensional point cloud generated by high-resolution flash LIDAR
CN110641477B (zh) * 2019-09-19 2020-12-22 广州小鹏汽车科技有限公司 车辆内部环境的虚拟显示方法、装置和车辆
WO2021186853A1 (ja) * 2020-03-19 2021-09-23 日本電気株式会社 画像生成装置、画像生成方法、およびプログラム
CN111767844B (zh) 2020-06-29 2023-12-29 阿波罗智能技术(北京)有限公司 用于三维建模的方法和装置
CN112140997A (zh) * 2020-09-29 2020-12-29 的卢技术有限公司 一种支持操控的可视化驾驶***控制方法、***、汽车及存储介质
DE102021119266A1 (de) 2021-07-26 2023-01-26 Bayerische Motoren Werke Aktiengesellschaft Kamerasystem für ein Fahrzeug
US12005919B2 (en) 2022-02-22 2024-06-11 Toyota Research Institute, Inc. Varying extended reality content based on risk level of a driving environment
US20230264697A1 (en) * 2022-02-22 2023-08-24 Toyota Research Institute, Inc. Varying extended reality content based on driver attentiveness
DE102022121225A1 (de) 2022-08-23 2024-02-29 Valeo Schalter Und Sensoren Gmbh Verfahren zum Anzeigen einer Umgebung eines Kraftfahrzeugs auf einer Anzeigeeinrichtung mittels eines Unterstützungssystems, Computerprogrammprodukt, computerlesbares Speichermedium sowie Unterstützungssystem

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1179958A1 (de) * 1999-04-16 2002-02-13 Matsushita Electric Industries Co., Ltd. Bildverarbeitungsgerät und überwachungssystem
EP1291668A2 (de) * 2001-09-07 2003-03-12 Matsushita Electric Industrial Co., Ltd. Vorrichtung zum Anzeigen der Umgebung eines Fahrzeuges und System zur Bildbereitstellung
US20040105579A1 (en) * 2001-03-28 2004-06-03 Hirofumi Ishii Drive supporting device
EP1462762A1 (de) * 2003-03-25 2004-09-29 Aisin Seiki Kabushiki Kaisha Vorrichtung zur Umgebungserfassung eines Fahrzeugs
DE102009005505A1 (de) 2008-03-28 2009-10-01 Volkswagen Ag Verfahren zur Erzeugung eines Abbildes der Umgebung eines Kraftfahrzeugs
DE102008036009A1 (de) 2008-03-28 2009-10-01 Volkswagen Ag Verfahren zum Kollisionsschutz eines Kraftfahrzeugs und Parkhausassistent

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3300334B2 (ja) * 1999-04-16 2002-07-08 松下電器産業株式会社 画像処理装置および監視システム
DE10037130B4 (de) 1999-09-13 2015-10-29 Volkswagen Ag Einpark- und/oder Rangierhilfeeinrichtung für Pkw oder Lkw
JP3680658B2 (ja) 1999-09-30 2005-08-10 松下電器産業株式会社 画像認識方法及び画像認識装置
DE19947766A1 (de) * 1999-10-02 2001-05-10 Bosch Gmbh Robert Einrichtung zur Überwachung der Umgebung eines einparkenden Fahrzeugs
JP3606853B2 (ja) * 2001-09-07 2005-01-05 松下電器産業株式会社 車両周囲状況表示装置
US20070030212A1 (en) 2004-07-26 2007-02-08 Matsushita Electric Industrial Co., Ltd. Device for displaying image outside vehicle
JP4569285B2 (ja) * 2004-12-13 2010-10-27 日産自動車株式会社 画像処理装置
JP2007274377A (ja) * 2006-03-31 2007-10-18 Denso Corp 周辺監視装置、プログラム
KR101075615B1 (ko) * 2006-07-06 2011-10-21 포항공과대학교 산학협력단 주행 차량의 운전자 보조 정보 생성 장치 및 방법
JP5412979B2 (ja) * 2009-06-19 2014-02-12 コニカミノルタ株式会社 周辺表示装置
US20120154589A1 (en) 2009-09-11 2012-06-21 Aisin Seiki Kabushiki Kaisha Vehicle surrounding monitor apparatus
US20110115913A1 (en) * 2009-11-17 2011-05-19 Werner Lang Automated vehicle surrounding area monitor and display system
KR20110088995A (ko) * 2010-01-29 2011-08-04 주식회사 울프슨랩 3차원 모델 안에서 감시 카메라 영상을 시각화하기 위한 방법 및 시스템, 및 기록 매체
US9205780B2 (en) * 2010-02-04 2015-12-08 Magna Mirrors Of America, Inc. Electro-optic rearview mirror assembly for vehicle
JP5522492B2 (ja) 2010-06-15 2014-06-18 アイシン精機株式会社 運転支援装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1179958A1 (de) * 1999-04-16 2002-02-13 Matsushita Electric Industries Co., Ltd. Bildverarbeitungsgerät und überwachungssystem
US20040105579A1 (en) * 2001-03-28 2004-06-03 Hirofumi Ishii Drive supporting device
EP1291668A2 (de) * 2001-09-07 2003-03-12 Matsushita Electric Industrial Co., Ltd. Vorrichtung zum Anzeigen der Umgebung eines Fahrzeuges und System zur Bildbereitstellung
EP1462762A1 (de) * 2003-03-25 2004-09-29 Aisin Seiki Kabushiki Kaisha Vorrichtung zur Umgebungserfassung eines Fahrzeugs
DE102009005505A1 (de) 2008-03-28 2009-10-01 Volkswagen Ag Verfahren zur Erzeugung eines Abbildes der Umgebung eines Kraftfahrzeugs
DE102008036009A1 (de) 2008-03-28 2009-10-01 Volkswagen Ag Verfahren zum Kollisionsschutz eines Kraftfahrzeugs und Parkhausassistent
DE102009005566A1 (de) 2008-03-28 2009-10-01 Volkswagen Ag Verfahren zur Erstellung einer Umfeldkarte eines Kraftfahrzeugs

Also Published As

Publication number Publication date
DE102012200731A1 (de) 2013-07-25
EP2805183A1 (de) 2014-11-26
KR102034189B1 (ko) 2019-10-18
KR20140114373A (ko) 2014-09-26
EP2805183B1 (de) 2019-03-06
US9862316B2 (en) 2018-01-09
IN2014DN05777A (de) 2015-04-10
CN104204847B (zh) 2017-12-08
CN104204847A (zh) 2014-12-10
US20150077562A1 (en) 2015-03-19

Similar Documents

Publication Publication Date Title
EP2805183B1 (de) Verfahren und vorrichtung zum visualisieren der umgebung eines fahrzeugs
EP2603402B1 (de) Verfahren zum anzeigen von bildern auf einer anzeigeeinrichtung und fahrerassistenzsystem
DE102010051206A1 (de) Verfahren zum Erzeugen eines Bilds einer Fahrzeugumgebung und Abbildungsvorrichtung
DE102016212405A1 (de) Fahrzeugbildverarbeitungsvorrichtung und Fahrzeugbildverarbeitungssystem
DE102013220669A1 (de) Dynamische Rückspiegelanzeigemerkmale
EP2709069B1 (de) Verfahren und Vorrichtung für ein bildgebendes Fahrerassistenzsystem mit adaptiver Umsichtdarstellung
DE102009051526A1 (de) System und Verfahren zum Abbilden der Fahrzeugumgebung mit ein- und verstellbarer Perspektive
EP3512739A1 (de) Verfahren zum bereitstellen einer rückspiegelansicht einer fahrzeugumgebung eines fahrzeugs
EP3695395A1 (de) Verfahren zum darstellen einer umgebung eines fahrzeugs
WO2016005232A1 (de) Zusammenfügen von teilbildern zu einem abbild einer umgebung eines fortbewegungsmittels
DE102010051204A1 (de) Verfahren zum Darstellen eines Hindernisses und Abbildungsvorrichtung
DE102021212088B4 (de) Rückfahrkamerasystem für ein anhängerkupplungssystem und verfahren zum erzeugen einer darstellung in heckrichtung eines fahrzeuges
DE102013010010B4 (de) Verfahren zum Betrieb eines Fahrerassistenzsystems zum Rangieren und/oder Parken
DE102008046214A1 (de) Verfahren und Vorrichtung zur Überwachung einer Umgebung eines Fahrzeuges
DE102013206435A1 (de) Visualisierungssystem und Vorrichtung zur Generierung und Anzeige eines virtuellen Abbilds einer Fahrzeugumgebung
EP3078015B1 (de) Verfahren und vorrichtung zum erzeugen einer warnung mittels zweier durch kameras erfasster bilder einer fahrzeugumgebung
DE102011010860A1 (de) Verfahren und Fahrerassistenzsystem zum Anzeigen von Bildern in einem Kraftfahrzeug sowie Kraftfahrzeug
DE102010034127A1 (de) Verfahren zum Anzeigen von Bildern auf einer Anzeigeeinrichtung in einem Kraftfahrzeug, Fahrerassistenzsystem und Kraftfahrzeug
WO2014202496A1 (de) Verfahren zum anzeigen von umgebungsinformationen in einem fahrzeug
DE102020107949A1 (de) Sichtfeldunterstützungsbild-Erzeugungsvorrichtung und Bildumwandlungsverfahren
EP3844947A1 (de) Verfahren und anordnung zum erzeugen einer umgebungsrepräsentation eines fahrzeugs und fahrzeug mit einer solchen anordnung
EP1526387A1 (de) Verfahren zum Messen von Abständen zwischen einem sich bewegenden Kraftfahrzeug und Objekten
WO2024037815A1 (de) Verfahren zum betreiben einer anzeigeeinrichtung in einem kraftfahrzeug
DE102022125210A1 (de) Zusammenfügen von Teilbildern eines Fahrzeugumfelds
DE112021001735T5 (de) Fahrzeuganzeigevorrichtung und Fahrzeuganzeigeverfahren

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12805962

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2012805962

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 14371827

Country of ref document: US

ENP Entry into the national phase

Ref document number: 20147019760

Country of ref document: KR

Kind code of ref document: A