DE102012014466A1 - Verfahren und Vorrichtung zur Darstellung einer Szene für ein Fahrzeug - Google Patents

Verfahren und Vorrichtung zur Darstellung einer Szene für ein Fahrzeug Download PDF

Info

Publication number
DE102012014466A1
DE102012014466A1 DE201210014466 DE102012014466A DE102012014466A1 DE 102012014466 A1 DE102012014466 A1 DE 102012014466A1 DE 201210014466 DE201210014466 DE 201210014466 DE 102012014466 A DE102012014466 A DE 102012014466A DE 102012014466 A1 DE102012014466 A1 DE 102012014466A1
Authority
DE
Germany
Prior art keywords
vehicle
image
virtual camera
scene
projection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE201210014466
Other languages
English (en)
Inventor
Dr. Wengelnik Heino
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Volkswagen AG
Original Assignee
Volkswagen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Volkswagen AG filed Critical Volkswagen AG
Priority to DE201210014466 priority Critical patent/DE102012014466A1/de
Publication of DE102012014466A1 publication Critical patent/DE102012014466A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/602Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective with an adjustable viewpoint
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/607Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/08Gnomonic or central projection

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

Ein Verfahren und eine Vorrichtung (20) zur Darstellung einer Szene für ein Fahrzeug (10) werden beschrieben, wobei das Verfahren folgende Schritte umfasst: Aufnehmen eines Bilds der Szene. Bestimmen einer Position (1; 2) einer virtuellen Kamera (3). Bestimmen einer Zielposition oder Richtung, zu bzw. in welcher die virtuelle Kamera (3) ausgerichtet wird, abhängig von der Position (1; 2). Berechnen eines weiteren Bildes, welches die Szene aus der Sicht der virtuellen Kamera (3) zeigt, abhängig von dem Bild. Darstellen des weiteren Bildes auf einer Anzeige (6) des Fahrzeugs (10).

Description

  • Die vorliegende Erfindung betrifft ein Verfahren und eine Vorrichtung, um eine ein Fahrzeug betreffende Szene insbesondere auf einer Anzeige innerhalb des Fahrzeugs darzustellen.
  • Die DE 103 00 527 A1 betrifft ein System zur Darstellung von virtuellen 3-D-Szenen auf einer Bilddarstellungseinheit, bei dem eine Ansicht auf die virtuelle 3-D-Szene interaktiv veränderbar ist. Die Ansicht auf die virtuelle 3-D-Szene ist durch ein virtuelles 3-D-Kameramodell definiert, wobei die Kamera auf einer 3-D-Oberfläche im Raum bewegbar ist.
  • Die EP 1 462 762 A1 beschreibt eine Überwachungseinrichtung für Fahrzeuge, welche insbesondere einen Parkvorgang unterstützt. Dabei kann eine Szene von dem Fahrer aus jedem Blickpunkt heraus beobachtet werden.
  • Die vorliegende Erfindung stellt sich die Aufgabe, die nach dem Stand der Technik bekannten Verfahren zur Darstellung einer Szene für ein Fahrzeug zu verbessern.
  • Erfindungsgemäß wird diese Aufgabe durch ein Verfahren zur Darstellung einer Szene für ein Fahrzeug nach Anspruch 1, durch eine Vorrichtung zur Darstellung einer Szene für ein Fahrzeug nach Anspruch 10 und durch ein Fahrzeug nach Anspruch 12 gelöst. Die abhängigen Ansprüche definieren bevorzugte und vorteilhafte Ausführungsformen der vorliegenden Erfindung.
  • Im Rahmen der vorliegenden Erfindung wird ein Verfahren zur Darstellung einer Szene für ein Fahrzeug bereitgestellt, wobei dieses Verfahren folgende Schritte umfasst:
    • • Aufnehmen der Szene, beispielsweise mittels einer oder mittels mehrerer Kameras des Fahrzeugs, um ein oder mehrere Bilder der Szene zu erzeugen.
    • • Bestimmen einer Position einer virtuellen Kamera. Dieser Schritt entspricht der Bestimmung eines bestimmten Raumpunkts, aus welchem die Szene betrachtet wird. Man kann sich vorstellen, dass in diesem Raumpunkt die virtuelle Kamera angeordnet ist, so dass die Szene quasi aus diesem Raumpunkt aufgenommen und somit dargestellt wird.
    • • Bestimmen einer Richtung abhängig von der vorab bestimmten Position. Die virtuelle Kamera wird in diese Richtung ausgerichtet, um die Szene quasi in dieser Richtung aufzunehmen und somit darzustellen. Die Richtung kann dabei erfindungsgemäß auch durch eine Zielposition bestimmt werden, zu welcher die virtuelle Kamera ausgerichtet wird. Mit anderen Worten liegt ein in der Richtung ausgerichteter Vektor parallel zu einer Geraden, welche durch den Raumpunkt und die Zielposition verläuft.
    • • Abhängig von dem Bild oder von den Bildern der Szene wird ein weiteres Bild bzw. weitere Bilder berechnet, welche die Szene aus der Sicht der virtuellen Kamera, die entsprechend der Richtung ausgerichtet ist, zeigen. Anders ausgedrückt werden die erfassten Bilder unter der Voraussetzung der Position der virtuellen Kamera und der Ausrichtung der virtuellen Kamera in weitere Bilder umgerechnet, welche die Szene aus Sicht der entsprechend ausgerichteten virtuellen Kamera zeigen.
    • • Das oder die weiteren Bilder werden auf einer Anzeige des Fahrzeugs dargestellt.
  • Vorteilhafterweise wird die Richtung, in welcher die virtuelle Kamera die Szene betrachtet, abhängig von der gewählten Position der virtuellen Kamera eingestellt. Dadurch ist es beispielsweise möglich, dass die Zielposition, über welche die zu bestimmende Richtung der virtuellen Kamera definiert wird, einer vorderen oder hinteren Eckkante des Fahrzeugs entspricht, wenn sich die Position der virtuellen Kamera in der Nähe der entsprechenden Eckkante befindet.
  • Das Bestimmen der Position der virtuellen Kamera kann dabei folgende Unterschritte umfassen:
    • • Darstellen eines Auswahlbildes in Form einer zweidimensionalen Fläche, wobei dieses Auswahlbild das Fahrzeug und die Umgebung des Fahrzeugs darstellt. Unter einem Auswahlbild wird dabei ein Bild verstanden, über welches eine Auswahl, in diesem Fall die Position der virtuellen Kamera, getroffen wird.
    • • Selektieren oder Bestimmen eines Punktes auf bzw. innerhalb der zweidimensionalen Fläche, wobei die zweidimensionale Fläche einem Oberflächenabschnitt eines Körpers entspricht, welcher das Fahrzeug beinhaltet. Mit anderen Worten wird ein Körper, beispielsweise eine Kugel, ein Ellipsoid oder ein Zylinder definiert, welcher so groß gewählt wird, dass dieser Körper das Fahrzeug und ein Teil der Umgebung des Fahrzeugs beinhaltet. Der Oberflächenabschnitt entspricht einem Teil der Oberfläche dieses Körpers.
    • • Auf bzw. in diesem Oberflächenabschnitt wird ein Punkt bestimmt, welcher der Position der virtuellen Kamera entspricht.
  • Das Auswahlbild, welches den Oberflächenabschnitt darstellt und über welches ein Benutzer die Position der virtuellen Kamera bestimmen kann, wird vorteilhafterweise auf einer entsprechenden Anzeige des Fahrzeugs abgebildet. Über entsprechende Bedienelemente kann dann der Fahrer des Fahrzeugs einen Punkt und damit die Position der virtuellen Kamera mittels der Anzeige bestimmen. Da das Auswahlbild das Fahrzeug und die Umgebung des Fahrzeugs darstellt, hat der Benutzer bei der Wahl der Position der virtuellen Kamera ein gutes Vorstellungsvermögen darüber, aus welchem Blickwinkel die weiteren Bilder das Fahrzeug zeigen werden.
  • Das Auswahlbild kann dabei auch dem weiteren Bild entsprechen. Mit anderen Worten kann das Auswahlbild das Fahrzeug und seine Umgebung aus Sicht der virtuellen Kamera zeigen. Zur Berechnung der ersten weiteren Bilder kann die Position der virtuellen Kamera beispielsweise als mittig oberhalb des Fahrzeugs angenommen werden, bevor diese Position der virtuellen Kamera dann von dem Fahrer verändert bzw. bestimmt wird.
  • Die zweidimensionale Fläche wird dabei vorteilhafterweise mittels einer Projektion ausgehend von dem Oberflächenabschnitt bestimmt. Die dazu eingesetzte Projektion ist ausgewählt als Element folgender Gruppe von möglichen Projektionen:
    • • die Robinson-Projektion,
    • • die gnomonische Projektion,
    • • die flächentreue Kegelprojektion,
    • • die Zylinderprojektion nach Miller,
    • • die Kammer-Aitoff-Projektion,
    • • die stereographische Projektion, und
    • • die Behrmann-Projektion.
  • Das Auswahlbild kann in verschiedene Bereiche unterteilt werden, welche für einen Benutzer sichtbar dargestellt werden. Dabei umfasst jeder Bereich diejenigen Punkte der zweidimensionalen Fläche zusammen, welche derselben Zielposition zugeordnet werden.
  • Dadurch kann der Benutzer vorteilhafterweise bereits bei der Wahl der Position der virtuellen Kamera über das Auswahlbild erkennen, auf welche Zielposition die virtuelle Kamera ausgerichtet wird, wenn der Benutzer einen entsprechenden Punkt innerhalb des Auswahlbildes selektiert.
  • Die Zielposition, mit deren Hilfe die Ausrichtung der virtuellen Kamera bestimmt wird, kann einem der folgenden Punkte entsprechen:
    • • Dem Schwerpunkt des Fahrzeugs.
    • • Dem untersten Punkt der linken oder rechten B-Säule des Fahrzeugs.
    • • Die äußerste rechte vordere Ecke des Fahrzeugs.
    • • Die äußerste linke vordere Ecke des Fahrzeugs.
    • • Die äußerste rechte hintere Ecke des Fahrzeugs.
    • • Die äußerste linke hintere Ecke des Fahrzeugs. Mit diesen Eckpunkten ist jeweils derjenige Punkt des Fahrzeugs gemeint, welcher auf der rechten bzw. linken Seite des Fahrzeugs am weitesten vorn bzw. hinten angeordnet ist. Sollte es mehrere Punkte geben, für welche die jeweilige Bedingung zutrifft, wird der Punkt in der Mitte dieser Punkte gewählt.
    • • Den Punkt auf der auf der Fahrbahn verlaufenden Längsmittelachse des Fahrzeugs, welcher direkt vor dem Fahrzeug angeordnet ist.
    • • Den Punkt auf der auf der Fahrbahn verlaufenden Längsmittelachse des Fahrzeugs, welcher direkt hinter dem Fahrzeug angeordnet ist.
  • Zur Bestimmung der Zielposition abhängig von der gewählten Position der virtuellen Kamera kann beispielsweise diejenige Zielposition aus der Menge der möglichen Zielpositionen bestimmt werden, deren Abstand zur Position der virtuellen Kamera am kürzesten ist. Es ist allerdings auch möglich, im Vorfeld bestimmten Bereichen des Oberflächenabschnitts jeweils eine Zielposition zuzuordnen, so dass die entsprechende Zielposition gewählt wird, wenn die Position der virtuellen Kamera in dem entsprechenden Bereich des Oberflächenabschnitts gewählt wird.
  • Zur Vereinfachung der Berechnung des weiteren Bildes aus dem Blickwinkel der virtuellen Kamera kann das Fahrzeug in dem weiteren Bild auch nur abstrakt dargestellt werden. Unter der abstrakten Darstellung des Fahrzeugs wird dabei ein grob vereinfachtes Abbild des Fahrzeugs oder ein einfaches Modell des Fahrzeugs verstanden, welches das Fahrzeug in dem weiteren Bild darstellt. Zur Berechnung des weiteren Bildes muss daher nur die Position und Lage des Fahrzeugs in dem weiteren Bild bestimmt werden, um das Fahrzeug über das Abbild bzw. Modell in dem weiteren Bild bezüglich Position und Lage korrekt darzustellen.
  • Wenn die Position der virtuellen Kamera in Fahrtrichtung des Fahrzeugs gesehen vor dem Schwerpunkt des Fahrzeugs und vor der Zielposition liegt, wird das weitere Bild vorteilhafterweise spiegelverkehrt berechnet und dargestellt.
  • Dadurch wird das Fahrzeug beispielsweise bei einer Position der virtuellen Kamera vor dem Fahrzeug spiegelverkehrt auf einer Anzeige des Fahrzeugs für den Fahrer dargestellt. Ein Objekt auf der linken Seite des Fahrzeugs ist dadurch auf der Anzeige ebenfalls links neben dem Fahrzeug abgebildet, was das Erfassen der Situation für den Fahrer vereinfacht.
  • Die Einstellung der Position der virtuellen Kamera kann erfindungsgemäß mit Hilfe eines Touchpads, mittels eines Joysticks oder mittels einer Gestensteuerung erfolgen.
  • Bei dem Einsatz eines Touchpads wird das Auswahlbild auf diesem Touchpad dargestellt, so dass der Fahrer die Position der virtuellen Kamera durch das Berühren eines entsprechenden Punktes des Touchpads bestimmen kann. Bei dem Einsatz eines Joysticks wird das Auswahlbild auf einer Anzeige dargestellt, auf welcher ein Cursor mit Hilfe des Joysticks bewegt wird, mittels welchem dann zur Bestimmung der Position der virtuellen Kamera ein Punkt auf der Anzeige selektiert wird. Bei der Auswahl der Position der virtuellen Kamera mit Hilfe der Gestensteuerung kann das Auswahlbild auf einer Anzeige dargestellt werden, auf welcher dann ein Cursor z. B. mit Handgesten, welche von einer Innenraumkamera des Fahrzeugs erfasst werden, gesteuert wird, wodurch dann ebenfalls die Position der virtuellen Kamera als Punkt auf der Anzeige mittels des Cursors selektiert wird.
  • Im Rahmen der vorliegenden Erfindung wird auch eine Vorrichtung zur Darstellung einer Szene für ein Fahrzeug bereitgestellt. Dabei umfasst die Vorrichtung eine oder mehrere Kameras, eine Anzeige und Rechenmittel. Mit der oder den Kameras wird die Szene aufgenommen, um ein oder mehrere Bilder der Szene zu erzeugen. Mit Hilfe der Rechenmittel wird eine Position einer virtuellen Kamera bestimmt. Anschließend bestimmen die Rechenmittel abhängig von dieser Position eine Richtung, in welcher die virtuelle Kamera ausgerichtet ist. Zur Bestimmung dieser Richtung kann auch eine Zielposition verwendet werden, wobei die virtuelle Kamera zu dieser Zielposition ausgerichtet ist. Ausgehend von dem oder den Bildern berechnen die Rechenmittel ein oder mehrere Bilder, welche die Szene aus der Sicht der virtuellen Kamera darstellen. Dieses oder diese weiteren Bilder werden auf der Anzeige dargestellt.
  • Die Vorteile der erfindungsgemäßen Vorrichtung entsprechen im Wesentlichen den Vorteilen des erfindungsgemäßen Verfahrens, welche vorab im Detail ausgeführt worden sind, so dass hier auf eine Wiederholung verzichtet wird.
  • Schließlich wird ein erfindungsgemäßes Fahrzeug bereitgestellt, welches eine erfindungsgemäße Vorrichtung umfasst.
  • Die vorliegende Erfindung ist zum Einsatz bei Kraftfahrzeugen geeignet, um beispielsweise ein Einparken oder Ausparken des Fahrzeugs zu überwachen. Selbstverständlich ist die vorliegende Erfindung nicht auf diesen bevorzugten Anwendungsbereich eingeschränkt, da die vorliegende Erfindung auch bei Schiffen, Flugzeugen sowie gleisgebundenen oder spurgeführten Fahrzeugen einsetzbar ist. Darüber hinaus lässt sich die vorliegende Erfindung auch zur Überwachung stationärer Einrichtungen einsetzen.
  • Im Folgenden wird die vorliegende Erfindung anhand bevorzugter erfindungsgemäßer Ausführungsformen mit Bezug zu den Figuren im Detail beschrieben.
  • In 1 ist dargestellt, wie ein Oberflächenabschnitt auf einer Anzeige dargestellt wird.
  • In 2 ist ein erstes Beispiel einer erfindungsgemäßen Änderung der Position der virtuellen Kamera dargestellt.
  • In 3 ist ein zweites Beispiel einer erfindungsgemäßen Änderung der Position der virtuellen Kamera dargestellt.
  • 4 stellt mehrere Projektionen dar, um einen Oberflächenabschnitt eines dreidimensionalen Körpers zweidimensional darzustellen.
  • 5 zeigt schematisch ein erfindungsgemäßes Fahrzeug mit einer erfindungsgemäßen Vorrichtung.
  • In 1 ist dargestellt, wie ein Oberflächenabschnitt 4. eines dreidimensionalen Objektes bzw. Körpers, welcher das Fahrzeug 10 beinhaltet oder umfasst, in Form einer zweidimensionalen Fläche 5 auf einem Touchpad 6 dargestellt wird. Dazu wird der gekrümmte Oberflächenabschnitt 4 mittels einer Projektion, wie es später mit 4 beispielhaft beschrieben wird, in eine zweidimensionale ebene Fläche 5 umgesetzt, welche dann auf einer normalen Anzeige, wie beispielsweise dem Touchpad 6, dargestellt wird.
  • Durch eine solche Projektion wird jedem Punkt des Oberflächenabschnitts 4 ein Punkt der entsprechenden zweidimensionalen Fläche 5 eineindeutig zugeordnet. Dadurch definiert jeder Punkt der zweidimensionalen Fläche 5 auch einen Punkt bzw. eine Position innerhalb des Oberflächenabschnitts 4. Indem der Benutzer des Fahrzeugs 10 einen Punkt auf der zweidimensionalen Fläche 5 bestimmt, bestimmt der Benutzer somit eine Position innerhalb des Oberflächenabschnitts 4, welche erfindungsgemäß der Position der virtuellen Kamera 3 entspricht. Daher definiert der Benutzer durch die Wahl des entsprechenden Punktes der zweidimensionalen Fläche 5 eine Position der virtuellen Kamera 3 im dreidimensionalen Raum, genauer auf dem im dreidimensionalen Raum gekrümmten Oberflächenabschnitt 4. Dieser Abschnitt 4 einer Oberfläche kann dabei einer Oberfläche eines kugelförmigen Körpers, eines zylinderförmigen Körpers, eines ellipsoiden Körpers oder aber eines beliebig geformten Körpers, so dass der Oberflächenabschnitt 4 ebenfalls beliebig geformt ist, entsprechen. Dabei ist es denkbar, dass der Benutzer den entsprechenden Körper und damit den entsprechenden Oberflächenabschnitt 4, auf welchem die Position der virtuellen Kamera 3 angeordnet ist, frei definieren kann.
  • In 2 ist die zweidimensionale Fläche 5 als Projektion eines Oberflächenabschnitts 4 dargestellt. Man erkennt, dass das Fahrzeug 10 nur abstrakt als ein kastenförmiges Modell dargestellt ist. Die erste Position 1 der virtuellen Kamera 3 befindet sich oberhalb in der Mitte des Fahrzeugs 10. Der Benutzer verschiebt die Position der virtuellen Kamera 3 von der Position 1 in die Position 2. Im Vergleich zu einem Bild mit einer virtuellen Kamera in Position 1 wird das Fahrzeug 10 in dem Bild aus einer virtuellen Kamera in Position 2 entsprechend gedreht. Eine solche Positionsänderung kann beispielsweise durchgeführt werden, indem der Benutzer die Position auf dem Touchpad 6 mit seinem Finger markiert oder die Markierung, welche die Position der virtuellen Kamera 3 auf der Fläche 5 repräsentiert, entsprechend verschiebt. Sobald der Finger des Benutzers das Touchpad 6 verlässt, wird ausgehend von Bildern, welche mittels einer oder mehrerer Kameras erfasst werden, weitere Bilder berechnet, welche das Fahrzeug 10 mit seiner Umgebung aus der neu eingestellten virtuellen Kameraposition 2 zeigen.
  • In 3 ist wiederum die zweidimensionale Fläche 5 als Projektion eines Oberflächenabschnitts 4 dargestellt, wobei das Fahrzeug 10 wiederum nur abstrakt abgebildet ist. In diesem Fall bewegt der Benutzer die Position der virtuellen Kamera 3 aus einer Position 1, welche sich mittig oberhalb des Fahrzeugs 10 befindet, über das Fahrzeug 10 nach vorn, um eine Ansicht von vorn auf das Fahrzeug 10 und das Umfeld des Fahrzeugs 10 zu bekommen. Damit das Bild dieser Vorderansicht nicht quasi spiegelverkehrt für einen auf einem Sitz des Fahrzeugs sitzenden Benutzer dargestellt wird, werden die weiteren Bilder bei ihrer Berechnung aus den Bildern der Kamera(s) um 180° gedreht.
  • Die Änderung der Position der virtuellen Kamera 3 kann dabei zum einen derart erfolgen, dass die neue Position der virtuellen Kamera 3 entsprechend auf dem Touchpad 6 selektiert wird, indem der Benutzer seinen Finger auf die entsprechende Stelle des Touchpads 6 drückt. Es ist allerdings auch möglich, dass der Benutzer ein Icon, welches die aktuelle Position 1 der virtuellen Kamera darstellt, auf dem Touchpad 6 zu der neuen Position 2 zieht. Im zweiten Fall kann dabei jeweils das Bild dargestellt werden, welches zu der jeweils aktuellen Position der virtuellen Kamera 3 gehört, so dass sich das Bild ständig ändert, während der Benutzer die Position der virtuellen Kamera 3 von der ursprünglichen Position 1 zu der neuen Position 2 zieht. Wenn der Benutzer den virtuellen Betrachtungspunkt (die Position der virtuellen Kamera) beispielsweise aus der Mitte diagonal nach vorn bewegt, wie es in 3 dargestellt ist, würde sich die virtuelle Kamera 3 bezüglich des Fahrzeugs 10 drehen, so dass das Fahrzeug 10 schräg dargestellt werden würde. Dabei wird vorausgesetzt, dass sich die Zielposition, zu welcher die virtuelle Kamera 3 ausgerichtet ist, bei den 2 und 3 jeweils im Schwerpunkt des Fahrzeugs 10 befindet.
  • In 4 sind mehrere Projektionsvorschriften anhand der von ihnen berechneten Projektionen eines kugelförmigen Oberflächenabschnitts abgebildet. Dabei ist in 4a die senkrechte Umgebungsperspektive, in 4b die Robinson-Projektion, in 4c die gnomonische Projektion, in 4d die flächentreue Kegelprojektion, in 4e die Zylinderprojektion nach Miller, in 4f die Hammer-Aitoff-Projektion, in 4g die stereographische Projektion und in 4h die Behrmann-Projektion dargestellt.
  • In 5 ist ein erfindungsgemäßes Fahrzeug 10 dargestellt, welches eine erfindungsgemäße Vorrichtung 20 umfasst. Dabei umfasst die Vorrichtung 20 eine Kamera 7, Rechenmittel 8 und eine Anzeige 6. Mit Hilfe der Kamera 7 werden Bilder einer Szene erfasst. Mittels der Rechenmittel 8 werden die mit der Kamera 7 erfassten Bilder derart umgerechnet, das weitere Bilder erzeugt werden, welche die Szene aus der Sicht der virtuellen Kamera 3 zeigen. Diese derart berechneten weiteren Bilder werden dann auf der Anzeige 6 dargestellt.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 10300527 A1 [0002]
    • EP 1462762 A1 [0003]

Claims (12)

  1. Verfahren zur Darstellung einer Szene für ein Fahrzeug (10), wobei das Verfahren folgende Schritte umfasst: Aufnehmen eines Bilds der Szene, Bestimmen einer Position (1; 2) einer virtuellen Kamera (3), Bestimmen einer Zielposition oder Richtung, zu bzw. in welcher die virtuelle Kamera (3) ausgerichtet wird, abhängig von der Position (1; 2), Berechnen eines weiteren Bildes, welches die Szene aus der Sicht der virtuellen Kamera (3) zeigt, abhängig von dem Bild, und Darstellen des weiteren Bildes auf einer Anzeige (6) des Fahrzeugs (10).
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass der Schritt des Bestimmens der Position (1; 2) der virtuellen Kamera (3) folgende Unterschritte umfasst: Darstellen eines Auswahlbildes in Form einer zweidimensionalen Fläche (5), wobei das Auswahlbild das Fahrzeug (10) und seine Umgebung darstellt, Selektieren eines Punktes innerhalb der zweidimensionalen Fläche (5), wobei die zweidimensionale Fläche (5) einem Oberflächenabschnitt (6) eines Körpers entspricht, welcher das Fahrzeug (10) umfasst, und Bestimmen desjenigen Punktes auf dem Oberflächenabschnitt (6) als Position (1; 2) der virtuellen Kamera (3), welcher dem Punkt auf der Fläche (5) entspricht.
  3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass die zweidimensionale Fläche (5) in Form einer Projektion abhängig von dem Oberflächenabschnitt (4) bestimmt wird, wobei die Projektion ausgewählt wird aus einer Gruppe, wobei die Gruppe umfasst: • die Robinson-Projektion, • die gnomonische Projektion, • die flächentreue Kegelprojektion, • die Zylinderprojektion nach Miller, • die Kammer-Aitoff-Projektion, • die stereographische Projektion, und • die Behrmann-Projektion.
  4. Verfahren nach Anspruch 2 oder 3, dadurch gekennzeichnet, dass das Auswahlbild für einen Benutzer sichtbar in verschiedene Bereiche unterteilt wird, und dass jeder Bereich Punkte der zweidimensionalen Fläche (5) umfasst, welche derselben Zielposition zugeordnet sind.
  5. Verfahren nach einem der Ansprüche 2–4, dadurch gekennzeichnet, dass der Körper ausgewählt ist aus einer Gruppe, wobei die Gruppe umfasst: • eine Kugel, • ein Ellipsoid, und • ein Zylinder.
  6. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Zielposition ausgewählt ist aus einer Gruppe, wobei die Gruppe umfasst: • den Schwerpunkt des Fahrzeugs (10), • den untersten Punkt einer B-Säule des Fahrzeugs (10), • die äußerste rechte, vordere Ecke des Fahrzeugs (10), • die äußerste linke, vordere Ecke des Fahrzeugs (10), • die äußerste rechte, hintere Ecke des Fahrzeugs (10), • die äußerste linke, hintere Ecke des Fahrzeugs (10), • einen Punkt auf der Längsmittelachse des Fahrzeugs (10) direkt vor dem Fahrzeug (10), und • einen Punkt auf der Längsmittelachse des Fahrzeugs (10) direkt hinter dem Fahrzeug (10).
  7. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass in dem weiteren Bild das Fahrzeug (10) nur abstrakt dargestellt wird.
  8. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass, wenn in Fahrtrichtung des Fahrzeugs (10) gesehen die Position (1; 2) der virtuellen Kamera (3) vor dem Schwerpunkt des Fahrzeugs (10) und vor der Zielposition liegt, das weitere Bild spiegelverkehrt berechnet wird.
  9. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Einstellen der Position (1; 2) der virtuellen Kamera (3) mittels eines Touchpads (6), mittels eines Joysticks oder mittels Gestensteuerung erfolgt.
  10. Vorrichtung (20) zur Darstellung einer Szene für ein Fahrzeug (10) umfassend, eine Kamera (7) zur Aufnahme eines Bildes der Szene, Rechenmittel (8), welche ausgestaltet sind, eine Position (1; 2) einer virtuellen Kamera (3) zu bestimmen, mittels der Rechenmittel (8) abhängig von der Position (1; 2) eine Zielposition oder Richtung zu bestimmen, zu bzw. in welcher die virtuelle Kamera (3) gerichtet ist, und abhängig von dem Bild ein weiteres Bild zu berechnen, welches die Szene aus der Sicht der virtuellen Kamera (3) zeigt, und eine Anzeige zur Anzeige des weiteren Bildes.
  11. Vorrichtung nach Anspruch 10, dadurch gekennzeichnet, dass die Vorrichtung (20) zur Durchführung des Verfahrens nach einem der Ansprüche 1–9 ausgestaltet ist.
  12. Fahrzeug mit einer Vorrichtung (20) nach Anspruch 10 oder 11.
DE201210014466 2012-07-21 2012-07-21 Verfahren und Vorrichtung zur Darstellung einer Szene für ein Fahrzeug Pending DE102012014466A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE201210014466 DE102012014466A1 (de) 2012-07-21 2012-07-21 Verfahren und Vorrichtung zur Darstellung einer Szene für ein Fahrzeug

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE201210014466 DE102012014466A1 (de) 2012-07-21 2012-07-21 Verfahren und Vorrichtung zur Darstellung einer Szene für ein Fahrzeug

Publications (1)

Publication Number Publication Date
DE102012014466A1 true DE102012014466A1 (de) 2014-01-23

Family

ID=49879704

Family Applications (1)

Application Number Title Priority Date Filing Date
DE201210014466 Pending DE102012014466A1 (de) 2012-07-21 2012-07-21 Verfahren und Vorrichtung zur Darstellung einer Szene für ein Fahrzeug

Country Status (1)

Country Link
DE (1) DE102012014466A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015114033A1 (de) * 2014-01-31 2015-08-06 Bayerische Motoren Werke Aktiengesellschaft Perspektivische darstellung eines fahrzeugumfeldes mit einem fahrzeug-modell auf einer fahrzeuganzeige

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1179958A1 (de) * 1999-04-16 2002-02-13 Matsushita Electric Industries Co., Ltd. Bildverarbeitungsgerät und überwachungssystem
US20030021490A1 (en) * 2000-07-19 2003-01-30 Shusaku Okamoto Monitoring system
US6556206B1 (en) * 1999-12-09 2003-04-29 Siemens Corporate Research, Inc. Automated viewpoint selection for 3D scenes
US20040085335A1 (en) * 2002-11-05 2004-05-06 Nicolas Burlnyk System and method of integrated spatial and temporal navigation
DE10300527A1 (de) 2003-01-09 2004-07-22 Realtime Technology Ag System und Verfahren zur Darstellung von virtuellen Szenen auf einer Bilddarstellungseinheit
EP1462762A1 (de) 2003-03-25 2004-09-29 Aisin Seiki Kabushiki Kaisha Vorrichtung zur Umgebungserfassung eines Fahrzeugs
US7176959B2 (en) * 2001-09-07 2007-02-13 Matsushita Electric Industrial Co., Ltd. Vehicle surroundings display device and image providing system
US20110032357A1 (en) * 2008-05-29 2011-02-10 Fujitsu Limited Vehicle image processing apparatus and vehicle image processing method
US20120069187A1 (en) * 2009-05-29 2012-03-22 Fujitsu Ten Limited Image generating apparatus and image display system
US20120146896A1 (en) * 2009-08-19 2012-06-14 Roland Eckl Continuous Determination of a Perspective

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1179958A1 (de) * 1999-04-16 2002-02-13 Matsushita Electric Industries Co., Ltd. Bildverarbeitungsgerät und überwachungssystem
US6556206B1 (en) * 1999-12-09 2003-04-29 Siemens Corporate Research, Inc. Automated viewpoint selection for 3D scenes
US20030021490A1 (en) * 2000-07-19 2003-01-30 Shusaku Okamoto Monitoring system
US7176959B2 (en) * 2001-09-07 2007-02-13 Matsushita Electric Industrial Co., Ltd. Vehicle surroundings display device and image providing system
US20040085335A1 (en) * 2002-11-05 2004-05-06 Nicolas Burlnyk System and method of integrated spatial and temporal navigation
DE10300527A1 (de) 2003-01-09 2004-07-22 Realtime Technology Ag System und Verfahren zur Darstellung von virtuellen Szenen auf einer Bilddarstellungseinheit
EP1462762A1 (de) 2003-03-25 2004-09-29 Aisin Seiki Kabushiki Kaisha Vorrichtung zur Umgebungserfassung eines Fahrzeugs
US20110032357A1 (en) * 2008-05-29 2011-02-10 Fujitsu Limited Vehicle image processing apparatus and vehicle image processing method
US20120069187A1 (en) * 2009-05-29 2012-03-22 Fujitsu Ten Limited Image generating apparatus and image display system
US20120146896A1 (en) * 2009-08-19 2012-06-14 Roland Eckl Continuous Determination of a Perspective

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
WESSEL, P. [et al.]: The Generic Mapping Tools Version 4.1.4. School of Ocean and Earth Science and Technology, University of Hawai'i at Manoa, November 2006,URL: http://citeseerx.ist.psu.edu/viewdoc/summary?doi=10.1.1.128.1716 ,[recherchiert am 15.10.2012].
WESSEL, P. [et al.]: The Generic Mapping Tools Version 4.1.4. School of Ocean and Earth Science and Technology, University of Hawai'i at Manoa, November 2006,URL: http://citeseerx.ist.psu.edu/viewdoc/summary?doi=10.1.1.128.1716 ,[recherchiert am 15.10.2012]. *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015114033A1 (de) * 2014-01-31 2015-08-06 Bayerische Motoren Werke Aktiengesellschaft Perspektivische darstellung eines fahrzeugumfeldes mit einem fahrzeug-modell auf einer fahrzeuganzeige

Similar Documents

Publication Publication Date Title
EP3512739B1 (de) Verfahren zum bereitstellen einer rückspiegelansicht einer fahrzeugumgebung eines fahrzeugs
EP2603402B1 (de) Verfahren zum anzeigen von bildern auf einer anzeigeeinrichtung und fahrerassistenzsystem
DE102012200731A1 (de) Verfahren und Vorrichtung zum Visualisieren der Umgebung eines Fahrzeugs
WO2016162245A1 (de) Verfahren zur darstellung einer fahrzeugumgebung eines fahrzeuges
DE112017001410T5 (de) Informationsverarbeitungsvorrichtung
DE102009035422B4 (de) Verfahren zur geometrischen Bildtransformation
DE102014119317A1 (de) Verfahren zur Darstellung eines Bildüberlagerungselements in einem Bild mit 3D-Information, Fahrerassistenzsystem und Kraftfahrzeug
DE102018131104A1 (de) Verfahren zum Unterstützen eines Benutzers beim Fernsteuern eines Kraftfahrzeugs, Computerprogrammprodukt, Fernsteuereinrichtung und Fahrerassistenzsystem für ein Kraftfahrzeug
DE102017109445A1 (de) Kalibration einer Fahrzeug-Kameraeinrichtung in Fahrzeuglängsrichtung oder Fahrzeugquerrichtung
EP3844946A1 (de) Verfahren und anordnung zum erzeugen einer mit bildinformationen texturierten umfeldkarte eines fahrzeugs und fahrzeug umfassend eine solche anordnung
DE102016114689A1 (de) Verfahren zum Unterstützen des Fahrers eines Kraftfahrzeugs beim Rangieren des Kraftfahrzeugs mit einem Anhänger, Fahrerassistenzsystem sowie Gespann
DE102018216409A1 (de) Verfahren, Vorrichtung und Fortbewegungsmittel für eine kinetosevermeidende Darstellung einer Flüssigkeit in einem Display in einem Fortbewegungsmittel
DE102015205377A1 (de) Ansicht einer Umgebung eines Fahrzeugs
DE102017117094A1 (de) Individualisierbare Darstellung einer Umgebung eines Kraftfahrzeugs durch eine Fahrerassistenzvorrichtung
EP2603403B1 (de) Verfahren zum anzeigen von bildern auf einer anzeigeeinrichtung in einem kraftfahrzeug, fahrerassistenzsystem und kraftfahrzeug
DE102015208343B4 (de) Verfahren zum Erzeugen eines Gesamtbildes einer Fahrzeugumgebung eines Fahrzeuges und entsprechende Vorrichtung
DE102016217037A1 (de) Verfahren zum Betreiben einer Anzeigeeinrichtung eines Kraftfahrzeugs mit einer digitalen Anzeigefläche und Kraftfahrzeug
DE102012014466A1 (de) Verfahren und Vorrichtung zur Darstellung einer Szene für ein Fahrzeug
DE102018203951A1 (de) Verfahren zum Darstellen eines Umgebungsbereichs eines Kraftfahrzeugs einer Fahrzeugkolonne, sowie Fahrerassistenzsystem
DE102020134814A1 (de) Vorrichtung zum Überwachen von Umgebungen eines Fahrzeugs
EP3571091B1 (de) Verfahren und vorrichtung zum darstellen einer umgebung eines fahrzeuges
DE102019002664A1 (de) Verfahren zur Anzeige einer fahrzeugdynamischen virtuellen Realität in einem Fahrzeug
DE102019219171A1 (de) Fahrerassistenzsystem, Crowdsourcing-Modul, Verfahren und Computerprogramm
DE102013209853A1 (de) Parkassistenzsystem und Verfahren zur Durchführung eines teilautomatischen Park- bzw. Rangiervorgangs eines Fahrzeuges
DE102023202306B3 (de) Verfahren zum Erzeugen einer Umgebungsansicht eines Fahrzeugs, Bildaufnahmeeinrichtung und Fahrzeug

Legal Events

Date Code Title Description
R163 Identified publications notified
R012 Request for examination validly filed
R016 Response to examination communication