DE102013203404A1 - Method and device for three-dimensional imaging of at least one subarea of a vehicle environment - Google Patents
Method and device for three-dimensional imaging of at least one subarea of a vehicle environment Download PDFInfo
- Publication number
- DE102013203404A1 DE102013203404A1 DE102013203404.0A DE102013203404A DE102013203404A1 DE 102013203404 A1 DE102013203404 A1 DE 102013203404A1 DE 102013203404 A DE102013203404 A DE 102013203404A DE 102013203404 A1 DE102013203404 A1 DE 102013203404A1
- Authority
- DE
- Germany
- Prior art keywords
- virtual
- camera
- images
- vehicle
- cameras
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
- G06T15/205—Image-based rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/10—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
- B60R2300/105—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/30—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
- B60R2300/303—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using joined images, e.g. multiple camera images
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/60—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/08—Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
Abstract
Ein Verfahren zur dreidimensionalen Abbildung zumindest eines Teilbereichs (7, 8, 9, 10) eines Fahrzeugumfelds (6) mithilfe eines Kamerasystems (12), umfassend zwei voneinander beabstandete Kameras (2, 3, 4), die an einem Fahrzeug (1) angeordnet sind und deren jeweilige Kameraperspektive durch die Lage einer optischen Achse (5) definiert ist, umfasst die folgenden Schritte: – Aufnehmen des Teilbereichs (7, 8, 9, 10) mit den zwei voneinander beabstandeten Kameras und – Speichern von Bildern, die durch das Aufnehmen des Teilbereichs gewonnen wurden. Das Verfahren umfasst weiter die folgenden Schritte: – Definieren einer virtuellen Kameraperspektive für jede Kamera (2, 3, 4) durch eine virtuelle optische Achse (16), die sich in ihrer Lage von der optischen Achse (5) unterscheidet, – Berechnen eines virtuellen Bildes des Teilbereichs (7, 8, 9, 10) für jede virtuelle Kameraperspektive aus den gespeicherten Bildern, – Durchführen einer Korrespondenzanalyse zum Herstellen eines, insbesondere räumlichen, Bezugs zwischen den erzeugten virtuellen Bildern, – Berechnen einer dreidimensionalen Abbildung des Teilbereichs (7, 8, 9, 10) basierend auf der Korrespondenzanalyse und den erzeugten virtuellen Bildern.A method for three-dimensional imaging of at least one subarea (7, 8, 9, 10) of a vehicle environment (6) by means of a camera system (12) comprising two spaced-apart cameras (2, 3, 4) arranged on a vehicle (1) and whose respective camera perspective is defined by the position of an optical axis (5), comprises the following steps: recording the subarea (7, 8, 9, 10) with the two cameras spaced apart from each other and storing images formed by the camera Recording the sub-area were won. The method further comprises the following steps: Defining a virtual camera angle for each camera (2, 3, 4) by a virtual optical axis (16) that differs in position from the optical axis (5), - calculating a virtual Image of the subregion (7, 8, 9, 10) for each virtual camera perspective from the stored images, - performing a correspondence analysis for establishing a, in particular spatial, reference between the generated virtual images, - calculating a three-dimensional image of the subregion (7, 8 , 9, 10) based on the correspondence analysis and the generated virtual images.
Description
Die vorliegende Erfindung betrifft ein Verfahren und eine Vorrichtung zur dreidimensionalen Abbildung zumindest eines Teilbereichs eines Fahrzeugumfelds mithilfe eines Kamerasystems, umfassend mindestens zwei voneinander beabstandete Kameras, die an einem Fahrzeug angeordnet sind und deren jeweilige Kameraperspektive durch die Lage einer optischen Achse definiert ist, umfassend die folgenden Schritte:
- – Aufnehmen des Teilbereichs mit den zwei voneinander beabstandeten Kameras und
- – Speichern von Bildern, die durch das Aufnehmen des Teilbereichs gewonnen wurden.
- - Recording the portion with the two spaced cameras and
- - Save images obtained by capturing the subarea.
Stand der TechnikState of the art
Aus der
Die
Offenbarung der ErfindungDisclosure of the invention
Das erfindungsgemäße Verfahren ist durch die folgenden Schritte gekennzeichnet:
- – Definieren einer virtuellen Kameraperspektive für jede Kamera durch eine virtuelle optische Achse, die sich in ihrer Lage von der optischen Achse dieser Kamera unterscheidet,
- – Berechnen eine virtuellen Bildes des Teilbereichs für jede virtuelle Kameraperspektive aus den gespeicherten Bildern,
- – Durchführen einer Korrespondenzanalyse zum Herstellen eines, insbesondere räumlichen, Bezuges zwischen den erzeugten virtuellen Bildern, und
- – Berechnen einer dreidimensionalen Abbildung des Teilbereichs basierend auf der Korrespondenzanalyse und den erzeugten virtuellen Bildern.
- Defining a virtual camera angle for each camera through a virtual optical axis that differs in position from the optical axis of that camera,
- Calculate a virtual image of the subarea for each virtual camera perspective from the stored images,
- Performing a correspondence analysis to establish a, in particular spatial, reference between the generated virtual images, and
- Calculating a three-dimensional image of the subarea based on the correspondence analysis and the generated virtual images.
Mittels des erfindungsgemäßen Verfahrens ist es möglich, auch bei stehendem Fahrzeugs zumindest einen Teilbereich eines Fahrzeugumfelds dreidimensional abzubilden. By means of the method according to the invention, it is possible to image three-dimensionally at least one subarea of a vehicle environment, even when the vehicle is stationary.
Das erfindungsgemäße Verfahren kann bevorzugt mithilfe von Kameras am Fahrzeug durchgeführt werden, die serienmäßig am Fahrzeug verbaut werden. Ein Nachrüsten von Kameras ist somit nicht erforderlich. Bevorzugt werden die Kameras im Außenbereich eines Fahrzeugs verwendet, die serienmäßig zur Generierung eines Rundumblicks um das Fahrzeug verwendet werden. Heutige Fahrzeuge sind üblicherweise mit 3 bis 5 Kameras im Außenbereich ausgestattet. The method according to the invention can preferably be carried out by means of cameras on the vehicle, which are installed as standard on the vehicle. A retrofitting of cameras is not required. Preferably, the cameras are used in the exterior of a vehicle, which are used as standard for generating a panoramic view around the vehicle. Today's vehicles are usually equipped with 3 to 5 outdoor cameras.
Sollen mit dem erfindungsgemäßen Verfahren mehrere Teilbereiche dreidimensional abgebildet werden, können auch mehr als zwei, insbesondere mehr als fünf Kameras verwendet werden. Es ist beispielsweise auch denkbar weitere Kameras zusätzlich zu bereits, insbesondere serienmäßig, am Fahrzeug angeordneten Kameras zu verwenden.If a plurality of partial regions are to be imaged three-dimensionally with the method according to the invention, more than two, in particular more than five, cameras can also be used. It is also conceivable, for example, to use further cameras in addition to already, in particular standard, cameras arranged on the vehicle.
Das Verfahren kann mit identischen Kameras wie beispielsweise mehreren im Außenbereich eines Fahrzeugs serienmäßig verbauten Kameras durchgeführt werden. Es ist aber ebenso möglich unterschiedliche Kameras wie beispielsweise eine Innenraumkamera kombiniert mit Kameras im Außenbereich eines Fahrzeugs für das Verfahren einzusetzen. The method can be carried out with identical cameras, such as several cameras installed as standard in the exterior of a vehicle. But it is also possible to use different cameras such as an interior camera combined with cameras in the outer area of a vehicle for the process.
Weiter ist es denkbar, das erfindungsgemäße Verfahren mit dem aus der
Das erfindungsgemäße Verfahren bietet dem Fahrer des Fahrzeugs die Möglichkeit, sich durch die dreidimensional abgebildete Umwelt virtuell frei zu bewegen und unterschiedliche Blickrichtungen virtuell einzunehmen. Somit kann der Fahrer beispielsweise Hindernisse in der Fahrzeugumgebung besser erkennen.The method according to the invention offers the driver of the vehicle the opportunity to move virtually freely through the three-dimensionally depicted environment and to occupy different viewing directions virtually. Thus, the driver can better recognize, for example, obstacles in the vehicle environment.
Mithilfe des erfindungsgemäßen Verfahrens wird der Fahrer eines Fahrzeugs beim Bewegen des Fahrzeugs unterstützt. Darüber hinaus können mithilfe des erfindungsgemäßen Verfahrens Kollisionen des Fahrzeugs mit Objekten frühzeitig vermieden werden.By means of the method according to the invention, the driver of a vehicle is assisted in moving the vehicle. In addition, collisions of the vehicle with objects can be avoided at an early stage by means of the method according to the invention.
Das erfindungsgemäße Verfahren benötigt keinerlei Informationen von eventuell am Fahrzeug vorhandenen Odometriesensoren. Sind Odometriesensoren am Fahrzeug serienmäßig vorgesehen, kann die Funktion dieser mithilfe der durch das Verfahren gewonnen 3D-Umgebung überprüft werden. Hierzu werden in der der 3D-Umgebung erkannte Objekte bei sich bewegendem Fahrzeug verfolgt und die dadurch gewonnen Informationen, beispielsweise sich verändernde Entfernungen zu einem Objekt, mit grundlegenden Odometriemessungen verglichen.The method according to the invention does not require any information from odometry sensors possibly present on the vehicle. If odometry sensors are provided as standard on the vehicle, their function can be verified using the 3D environment obtained by the procedure. For this purpose, the objects detected in the 3D environment are tracked while the vehicle is moving, and the information obtained thereby, for example changing distances to an object, is compared with basic odometry measurements.
Es ist auch denkbar, basierend auf der berechneten dreidimensionalen Fahrzeugumgebung, ein Objekt, das sich durch mehrere Teilbereiche der Fahrzeugumgebung bewegt, virtuell zu verfolgen.It is also conceivable, based on the calculated three-dimensional vehicle environment, to virtually track an object that moves through a plurality of subregions of the vehicle environment.
Die Unteransprüche zeigen bevorzugte Weiterbildungen der Erfindung. The dependent claims show preferred developments of the invention.
Bei einer besonders vorteilhaften Ausführungsform der Erfindung werden die virtuellen optischen Achsen der Kameras in den virtuellen Kameraperspektiven parallel zueinander angeordnet. Die serienmäßig an einem Fahrzeug im Außenbereich angeordneten Kameras sind derart positioniert, dass sie einen 360° Rundumblick um das Fahrzeug ermöglichen. Um diesen Rundumblick zu gewährleisten, sind die Kameras unterschiedlich zueinander orientiert. Beispielsweise weist eine Kamera im Frontbereich eines Fahrzeugs eine optische Achse auf, die in Fahrtrichtung zeigt, während eine Kamera im Seitenbereich des Fahrzeugs entlang einer optische Achse quer zur Fahrtrichtung ausgerichtet ist. Durch die unterschiedlichen Orientierungen der Kameras unterscheiden sich unter anderem die von einem identischen Teilbereich gemachten Bilder zweier Kameras erheblich voneinander. Durch die parallele Anordnung der virtuellen Achsen können diese Unterschiede reduziert werden, so dass eine Berechnung eines dreidimensionalen Fahrzeugumfelds deutlich vereinfacht wird. In a particularly advantageous embodiment of the invention, the virtual optical axes of the cameras in the virtual camera perspectives are arranged parallel to each other. The cameras, which are fitted as standard on a vehicle outside, are positioned in such a way that they allow a 360 ° all-round view of the vehicle. To ensure this all-round view, the cameras are oriented differently to each other. For example, a camera in the front area of a vehicle has an optical axis pointing in the direction of travel, while a camera in the lateral area of the vehicle is aligned along an optical axis transversely to the direction of travel. Due to the different orientations of the cameras, among other things, the images of two cameras made by an identical subarea differ considerably from one another. Due to the parallel arrangement of the virtual axes, these differences can be reduced, so that a calculation of a three-dimensional vehicle environment is significantly simplified.
Bevorzugt wird jede Kamera von der Kameraperspektive in die virtuelle Kameraperspektive mithilfe einer virtuellen Rotation um das optische Zentrum der jeweiligen Kamera überführt. Eine virtuelle Rotation ist unter Beibehaltung bestimmter Fixgrößen wie der spezifischen Kalibrierung und der Position des optischen Zentrums der jeweiligen Kamera möglich. Somit stimmen die spezifische Kalibrierung und die Position des optischen Zentrums sowohl für die reale Kameraperspektive wie auch die virtuelle Kameraperspektive überein. Bei der virtuellen Rotation wird nicht nur die optische Achse sondern die gesamte Kamera, dass heißt auch die Bildebene, virtuell in die virtuelle Kameraperspektive gedreht. Preferably, each camera is transferred from the camera perspective into the virtual camera perspective by means of a virtual rotation around the optical center of the respective camera. A virtual rotation is possible while maintaining certain fixed quantities such as the specific calibration and the position of the optical center of the respective camera. Thus, the specific calibration and position of the optical center are consistent for both the real camera and virtual camera perspectives. In virtual rotation, not only the optical axis but the entire camera, that is also the image plane, is virtually rotated into the virtual camera perspective.
Indem Verzerrungen in den real aufgenommenen Bildern des Teilbereichs mithilfe von Näherungsverfahren, insbesondere durch ein virtuelles Kameramodell, korrigiert werden, wird die weitere Bearbeitung der Bilddaten und die Erstellung einer 3D-Abbildung vereinfacht. Es ist Stand der Technik für die Kameras im Außenbereich eines Fahrzeugs Weitwinkellinsen, auch bekannt als Fischaugenobjektive, zu verwenden. Durch Verwendung solcher Linsen weisen die aufgenommenen Bilder starke Verzerrungen auf. Beispielsweise erscheinen gerade Linien als Kurven. Unter Verwendung von bekannten Näherungsverfahren, beispielsweise durch Erzeugung von Kameramodellen, können die Verzerrungen einfach korrigiert werden. Die Parameter, die ein Kameramodell definieren, können über die Kalibrierung der realen Kamera, deren Verzerrungen korrigiert werden sollen, geschätzt werden. By correcting distortions in the real images of the subarea by means of approximation methods, in particular by a virtual camera model, the further processing of the image data and the creation of a 3D image are simplified. It is state of the art for the outdoor camera of a vehicle to use wide angle lenses, also known as fisheye lenses. By using such lenses, the captured images have strong distortions. For example, straight lines appear as curves. Using known approximation techniques, such as by creating camera models, the distortions can be easily corrected. The parameters defining a camera model can be estimated by calibrating the real camera whose distortions are to be corrected.
Auch können die berechneten virtuellen Bilder epipolar entzerrt werden. Beispielsweise werden bei der epipolaren Entzerrung die beiden Bildebenen, auf die ein Objektpunkt abgebildet wurde, transformiert. Die Transformation erfolgt derart, dass die Epipolarlinien beider Bildebenen kollinear zueinander ausgerichtet werden. Dies bedeutet, dass die aus zwei unterschiedlichen Kameraperspektiven aufgenommenen Bilder auf eine gemeinsame Ebene abgebildet, durch Skalieren die Bildgrößen einander angepasst und durch Rotation bzw. vorhandenen Versatzes der Bilder zueinander die Pixelreihen der Bilder in Übereinstimmung zueinander ausgerichtet werden. Also, the calculated virtual images can be equalized epipolar. For example, in epipolar equalization, the two image planes to which an object point has been imaged are transformed. The transformation takes place in such a way that the epipolar lines of both image planes are aligned collinear with one another. This means that the images taken from two different camera perspectives are mapped onto a common plane, the image sizes are adapted to one another by scaling and the pixel rows of the images are aligned in accordance with one another by rotation or existing offset of the images relative to one another.
Werden dann in einer folgenden Korrespondenzanalyse zu einzelnen Objektpunkten in einem ersten Bild die korrespondierenden Objektpunkte in einem zweiten Bild gesucht, ist dies eine eindimensionale Aufgabe. Durch die epipolare Entzerrung beider Bilder liegen korrespondierende Objektpunkte auf einer horizontal gedachten Linie. If the corresponding object points in a second image are then searched in a subsequent correspondence analysis for individual object points in a first image, this is a one-dimensional task. Due to the epipolar equalization of both images, corresponding object points lie on a horizontally imaginary line.
Vorteilhafterweise werden die virtuellen Bilder nach der epipolaren Entzerrung vertikal integriert. Bei der Erkennung von Objekten im Fahrzeugumfeld sind vertikal verlaufende Kanten von Objekten wichtiger, d.h. sie beinhalten mehr Informationen, als horizontal verlaufende Kanten. Um die Datenmenge zu reduzieren, die aufgrund der virtuellen Bilder generiert wird, können die virtuellen Bilder vertikal integriert werden. Die relevanten Informationen, d. h. die vertikalen Kanten stehen weiter für die weiteren Verfahrensschritte zur Verfügung. Advantageously, the virtual images are vertically integrated after the epipolar equalization. When detecting objects in the vehicle environment, vertical edges of objects are more important, ie they contain more information than horizontal edges. To reduce the amount of data generated due to the virtual images, the virtual images can be vertically integrated. The relevant information, ie the vertical edges are still available for the further process steps.
In einer besonders bevorzugten Ausführungsform wird die Korrespondenzanalyse mithilfe von Algorithmen durchgeführt, die einen erweiterten Suchbereich für die Merkmalszuordnung aufweisen. Die Kameras im Außenbereich eines Fahrzeugs müssen aus ästhetischen Gründen in das Fahrzeugdesign eingebunden werden. Dadurch sind diese Kameras nicht vor äußeren Störeinflüssen wie beispielsweise Temperaturänderungen, Vibrationen und dergleichen geschützt. Dadurch ist eine perfekte epipolare Entzerrung der virtuellen Bilder nicht möglich, wodurch sich die anschließende Korrespondenzanalyse erschwert. Es sind Algorithmen wie beispielsweise der optische Fluss bekannt, die insbesondere in der Korrespondenzanalyse dafür eingesetzt werden können, korrespondierende Objektpunkte in einem großen Suchbereich zu erkennen. Dabei erstreckt sich dieser Suchbereich sowohl in horizontaler wie auch in vertikaler Richtung. Somit können auch bei epipolar nicht perfekt entzerrten Bildern korrespondierende Objektpunkte erkannt werden und dadurch eine zuverlässige 3D-Generierung erfolgen. In a particularly preferred embodiment, the correspondence analysis is performed using algorithms having an extended feature allocation search area. The cameras in the exterior of a vehicle must be integrated into the vehicle design for aesthetic reasons. As a result, these cameras are not protected against external disturbances such as temperature changes, vibrations and the like. As a result, a perfect epipolar equalization of the virtual images is not possible, which complicates the subsequent correspondence analysis. Algorithms such as, for example, the optical flow are known, which can be used, in particular in the correspondence analysis, to recognize corresponding object points in a large search area. In this case, this search range extends both in the horizontal and in the vertical direction. Thus, even with epipolar not perfectly equalized images corresponding object points can be detected and thus a reliable 3D generation done.
Die Erfindung betrifft außerdem ein Kamerasystem, das bevorzugt in einem Fahrzeug eingesetzt werden kann. Diese Kamerasystem umfasst zumindest zwei voneinander beabstandete Kameras, deren jeweilige Lage durch die Lage einer optischen Achse definiert ist. Die Kameras können insbesondere Bilder der Umgebung des Fahrzeugs aufnehmen. Weiterhin umfasst das Kamerasystem eine Speichervorrichtung, die eingerichtet ist, Bilder zumindest eines Teilbereichs eines Fahrzeugumfelds zu speichern. Das Kamerasystem ist schließlich erfindungsgemäß eingerichtet ist, die folgenden Schritte auszuführen:
- – Definieren einer virtuellen Kameraperspektive für jede Kamera durch eine virtuelle optische Achse, die sich in ihrer Lage von der optischen Achse unterscheidet,
- – Berechnen eines virtuellen Bildes des Teilbereichs für jede virtuelle Kameraperspektive aus den gespeicherten Bildern,
- – Durchführen einer Korrespondenzanalyse zum Herstellen eines, insbesondere räumlichen, Bezugs zwischen den erzeugten virtuellen Bildern, und
- – Berechnen einer dreidimensionalen Abbildung des Teilbereichs basierend auf der Korrespondenzanalyse und den erzeugten virtuellen Bildern.
- Defining a virtual camera angle for each camera by a virtual optical axis that differs in position from the optical axis,
- Calculating a virtual image of the subregion for each virtual camera perspective from the stored images,
- Performing a correspondence analysis for establishing a, in particular spatial, reference between the generated virtual images, and
- Calculating a three-dimensional image of the subarea based on the correspondence analysis and the generated virtual images.
Für das erfindungsgemäße Kamerasystem ist bevorzugt eine Schnittstelle vorgesehen, die mit dem Fahrzeug, insbesondere mit einer optischen Anzeigeeinheit des Fahrzeugs, verbunden ist. Über diese Schnittstelle können Bilder aus der Speichervorrichtung ausgegeben werden, um diese bevorzugt dem Fahrer des Fahrzeugs anzuzeigen. Beispielsweise kann dem Fahrer dadurch ein Abbild des rückwärtigen Raumes des Fahrzeugs gezeigt werden.For the camera system according to the invention, an interface is preferably provided which is connected to the vehicle, in particular to an optical display unit of the vehicle. Via this interface, images can be output from the storage device in order to display them preferably to the driver of the vehicle. For example, the driver may thereby be shown an image of the rear space of the vehicle.
In einer bevorzugten Weiterbildung des erfindungsgemäßen Kamerasystems können die Bilder, die mit dem Kamerasystem erstellt wurden, zu einer zumindest teilweisen Panoramadarstellung des Fahrzeugumfelds zusammengesetzt werden. Dies vereinfacht es für den Fahrer, den Überblick über das Umfeld seines Fahrzeugs zu behalten, insbesondere dann, wenn sich Hindernisse in schwer einsehbaren Bereichen seines Fahrzeugs befinden.In a preferred embodiment of the camera system according to the invention, the images that were created with the camera system can be combined to form an at least partial panorama representation of the vehicle surroundings. This makes it easier for the driver to keep track of the surroundings of his vehicle, especially when obstacles are in difficult to see areas of his vehicle.
Vorteilhafte Weiterbildungen der Erfindung sind in den Unteransprüchen angegeben und in der Beschreibung beschrieben. Advantageous developments of the invention are specified in the subclaims and described in the description.
Zeichnungendrawings
Ausführungsbeispiele der Erfindung werden anhand der Zeichnungen und der nachfolgenden Beschreibung näher erläutert. Es zeigen: Embodiments of the invention will be explained in more detail with reference to the drawings and the description below. Show it:
Ausführungsform der ErfindungEmbodiment of the invention
Die Positionen der Kameras
Im Falle des ersten Teilbereichs
Im Folgenden soll beispielhaft anhand des Teilbereichs
Gemäß
Üblicherweise werden zur Umfelderkennung die Kameras
Erfindungsgemäß erfolgt daher in einem zweiten Schritt
In einem dritten Schritt
Da die Frontkamera
Die virtuellen optischen Achsen
Nach Definition der virtuellen Kameraperspektiven wird für jede virtuelle Kameraperspektive ein virtuelles Bild des Teilbereichs
Der Schritt
Als Ergebnis des Schritts
Das Prinzip einer Korrespondenzanalyse ist bekannt. Es werden jeweils zwei Bildpunkte, die einen Punkt des Teilbereichs
Da die Kameras
Um das Durchführen einer Korrespondenzanalyse zu erleichtern, werden erfindungsgemäß Algorithmen verwendet, die einen erweiterten Suchbereich für korrespondierende Objektpunkte aufweisen. Solche Algorithmen, wie beispielsweise der Algorithmus des optischen Flusses, ermöglichen, dass die einander entsprechenden Objektpunkte nicht zwangsläufig auf einer horizontalen Linie liegen müssen sondern auch bei einer vertikalen Abweichung zueinander gefunden werden können. In
Als Ergebnis des vierten Schritts
Die beschriebenen einzelnen Schritte des Verfahrens und die unter den jeweiligen Verfahrensschritten zusammengefassten einzelnen Arbeitsschritte können in der beschriebenen Reihenfolge durchgeführt werden. Es ist aber auch denkbar die Reihenfolge der einzelnen Schritte und/oder der einzelnen Arbeitsschritte abzuändern. The described individual steps of the method and the individual steps combined under the respective method steps can be carried out in the order described. However, it is also conceivable to change the order of the individual steps and / or the individual work steps.
Optional kann nach dem dritten Verfahrensschritt
ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturCited patent literature
- DE 102009005505 A1 [0002] DE 102009005505 A1 [0002]
- DE 10326943 A1 [0003, 0009] DE 10326943 A1 [0003, 0009]
Claims (10)
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102013203404.0A DE102013203404A1 (en) | 2013-02-28 | 2013-02-28 | Method and device for three-dimensional imaging of at least one subarea of a vehicle environment |
GB1403384.9A GB2513703B (en) | 2013-02-28 | 2014-02-26 | Method and apparatus for three-dimensional imaging of at least a partial region of a vehicle environment |
FR1451526A FR3002673B1 (en) | 2013-02-28 | 2014-02-26 | METHOD AND DEVICE FOR THREE-DIMENSIONAL IMAGING OF A PARTIAL REGION OF THE ENVIRONMENT OF A VEHICLE |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102013203404.0A DE102013203404A1 (en) | 2013-02-28 | 2013-02-28 | Method and device for three-dimensional imaging of at least one subarea of a vehicle environment |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102013203404A1 true DE102013203404A1 (en) | 2014-08-28 |
Family
ID=50482839
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102013203404.0A Pending DE102013203404A1 (en) | 2013-02-28 | 2013-02-28 | Method and device for three-dimensional imaging of at least one subarea of a vehicle environment |
Country Status (3)
Country | Link |
---|---|
DE (1) | DE102013203404A1 (en) |
FR (1) | FR3002673B1 (en) |
GB (1) | GB2513703B (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102014213536A1 (en) * | 2014-07-11 | 2016-01-14 | Bayerische Motoren Werke Aktiengesellschaft | Merging partial images into an image of an environment of a means of transportation |
CN106127115A (en) * | 2016-06-16 | 2016-11-16 | 哈尔滨工程大学 | A kind of mixing sensation target localization method based on panorama and conventional visual |
CN107009962A (en) * | 2017-02-23 | 2017-08-04 | 杭州电子科技大学 | A kind of panorama observation procedure based on gesture recognition |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102016225066A1 (en) * | 2016-12-15 | 2018-06-21 | Conti Temic Microelectronic Gmbh | All-round visibility system for one vehicle |
DE102018100211A1 (en) * | 2018-01-08 | 2019-07-11 | Connaught Electronics Ltd. | A method for generating a representation of an environment by moving a virtual camera towards an interior mirror of a vehicle; as well as camera setup |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10326943A1 (en) | 2002-11-21 | 2004-06-17 | Samsung Electronics Co., Ltd., Suwon | Autonomous vehicle and associated method and device for motion determination, motion control and object detection |
DE102009005505A1 (en) | 2008-03-28 | 2009-10-01 | Volkswagen Ag | Method for generating an image of the surroundings of a motor vehicle |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
ATE529841T1 (en) * | 2008-11-28 | 2011-11-15 | Agfa Healthcare Nv | METHOD AND DEVICE FOR DETERMINING A POSITION IN AN IMAGE, IN PARTICULAR A MEDICAL IMAGE |
JP5182042B2 (en) * | 2008-11-28 | 2013-04-10 | 富士通株式会社 | Image processing apparatus, image processing method, and computer program |
JP5548002B2 (en) * | 2010-03-25 | 2014-07-16 | 富士通テン株式会社 | Image generation apparatus, image display system, and image generation method |
WO2013016409A1 (en) * | 2011-07-26 | 2013-01-31 | Magna Electronics Inc. | Vision system for vehicle |
KR101265711B1 (en) * | 2011-11-30 | 2013-05-20 | 주식회사 이미지넥스트 | 3d vehicle around view generating method and apparatus |
US9762880B2 (en) * | 2011-12-09 | 2017-09-12 | Magna Electronics Inc. | Vehicle vision system with customized display |
EP2620917B1 (en) * | 2012-01-30 | 2019-08-28 | Harman Becker Automotive Systems GmbH | Viewing system and method for displaying an environment of a vehicle |
-
2013
- 2013-02-28 DE DE102013203404.0A patent/DE102013203404A1/en active Pending
-
2014
- 2014-02-26 FR FR1451526A patent/FR3002673B1/en active Active
- 2014-02-26 GB GB1403384.9A patent/GB2513703B/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10326943A1 (en) | 2002-11-21 | 2004-06-17 | Samsung Electronics Co., Ltd., Suwon | Autonomous vehicle and associated method and device for motion determination, motion control and object detection |
DE102009005505A1 (en) | 2008-03-28 | 2009-10-01 | Volkswagen Ag | Method for generating an image of the surroundings of a motor vehicle |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102014213536A1 (en) * | 2014-07-11 | 2016-01-14 | Bayerische Motoren Werke Aktiengesellschaft | Merging partial images into an image of an environment of a means of transportation |
US11087438B2 (en) | 2014-07-11 | 2021-08-10 | Bayerische Motoren Werke Aktiengesellschaft | Merging of partial images to form an image of surroundings of a mode of transport |
CN106127115A (en) * | 2016-06-16 | 2016-11-16 | 哈尔滨工程大学 | A kind of mixing sensation target localization method based on panorama and conventional visual |
CN107009962A (en) * | 2017-02-23 | 2017-08-04 | 杭州电子科技大学 | A kind of panorama observation procedure based on gesture recognition |
CN107009962B (en) * | 2017-02-23 | 2019-05-14 | 杭州电子科技大学 | A kind of panorama observation method based on gesture recognition |
Also Published As
Publication number | Publication date |
---|---|
FR3002673A1 (en) | 2014-08-29 |
GB2513703B (en) | 2019-11-06 |
GB201403384D0 (en) | 2014-04-09 |
FR3002673B1 (en) | 2018-01-19 |
GB2513703A (en) | 2014-11-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102014108684B4 (en) | Vehicle with an environmental monitoring device and method for operating such a monitoring device | |
DE102006003538B3 (en) | Image acquisitions merging method for bird`s eye perspective, involves selecting image sections such that shadowing effects produced by moved objects are projected during transition in overall image from image section to other section | |
DE102015107390B4 (en) | Method and device for automatically calibrating all-round vision systems | |
DE102014117888A1 (en) | Online calibration of a motor vehicle camera system | |
DE112016001150T5 (en) | ESTIMATION OF EXTRINSIC CAMERA PARAMETERS ON THE BASIS OF IMAGES | |
DE112018000107T5 (en) | Vehicle camera calibration apparatus and method | |
DE102015107677A1 (en) | All-Round Vision Camera System (VPM) Online Calibration | |
DE102011080702B3 (en) | Object detection device for a vehicle, vehicle having such an object detection device | |
DE102013108070A9 (en) | Image calibration and equalization of a wide-angle camera | |
DE102016104729A1 (en) | Method for extrinsic calibration of a camera, computing device, driver assistance system and motor vehicle | |
DE102016104732A1 (en) | Method for motion estimation between two images of an environmental region of a motor vehicle, computing device, driver assistance system and motor vehicle | |
DE102008058279A1 (en) | Method and device for compensating a roll angle | |
DE102013203404A1 (en) | Method and device for three-dimensional imaging of at least one subarea of a vehicle environment | |
WO2016005232A1 (en) | Merging of partial images to form an image of surroundings of a mode of transport | |
DE102017109445A1 (en) | Calibration of a vehicle camera device in the vehicle longitudinal direction or vehicle transverse direction | |
DE102012018325A1 (en) | Method and device for an imaging driver assistance system with adaptive prudential presentation | |
DE102016104730A1 (en) | Method for detecting an object along a road of a motor vehicle, computing device, driver assistance system and motor vehicle | |
DE102018100909A1 (en) | Method of reconstructing images of a scene taken by a multifocal camera system | |
DE102012001858A1 (en) | Method for calibrating wafer level camera of stereo camera assembly, for vehicle for environmental detection, involves identifying corresponding pixels within data sets detected by image capture units during correspondence analysis | |
DE102014114221A1 (en) | Method for detecting an object in a surrounding area of a motor vehicle, driver assistance system and motor vehicle | |
DE112015002764B4 (en) | Mounting angle adjustment method and mounting angle detection device for on-board camera | |
DE102012023060A1 (en) | Method for detecting moving object in surrounding region of motor vehicle e.g.passenger car, involves determining vector values within the respective interval values, such movable object is detected based on histogram | |
DE102016124747A1 (en) | Recognition of a raised object based on perspective images | |
DE102015209764A1 (en) | Extrinsic calibration of an image capture device of a vehicle | |
DE102016104731A1 (en) | Method for detecting a rolling shutter effect in images of an environmental region of a motor vehicle, computing device, driver assistance system and motor vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed |