DE102017210415B4 - A method for providing an image mask for the delineation of a region of interest in a camera image of an environment camera of a motor vehicle and control device, environment camera and motor vehicle - Google Patents
A method for providing an image mask for the delineation of a region of interest in a camera image of an environment camera of a motor vehicle and control device, environment camera and motor vehicle Download PDFInfo
- Publication number
- DE102017210415B4 DE102017210415B4 DE102017210415.5A DE102017210415A DE102017210415B4 DE 102017210415 B4 DE102017210415 B4 DE 102017210415B4 DE 102017210415 A DE102017210415 A DE 102017210415A DE 102017210415 B4 DE102017210415 B4 DE 102017210415B4
- Authority
- DE
- Germany
- Prior art keywords
- camera
- mask
- image
- transformation
- environment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 28
- 230000009466 transformation Effects 0.000 claims abstract description 53
- 230000000007 visual effect Effects 0.000 claims abstract description 43
- 238000007781 pre-processing Methods 0.000 claims abstract description 22
- 239000011159 matrix material Substances 0.000 claims abstract description 13
- 238000011156 evaluation Methods 0.000 claims abstract description 5
- 238000009434 installation Methods 0.000 claims description 19
- 238000001514 detection method Methods 0.000 description 8
- 238000013459 approach Methods 0.000 description 6
- 230000008901 benefit Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 230000018109 developmental process Effects 0.000 description 3
- 238000010191 image analysis Methods 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000033001 locomotion Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 101001078093 Homo sapiens Reticulocalbin-1 Proteins 0.000 description 1
- 102100025335 Reticulocalbin-1 Human genes 0.000 description 1
- 229910000831 Steel Inorganic materials 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000007257 malfunction Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 239000010959 steel Substances 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N17/00—Diagnosis, testing or measuring for television systems or their details
- H04N17/002—Diagnosis, testing or measuring for television systems or their details for television cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
- H04N23/81—Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/40—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the details of the power supply or the coupling to vehicle components
- B60R2300/402—Image calibration
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Processing (AREA)
- Traffic Control Systems (AREA)
Abstract
Verfahren zum Bereitstellen einer Bildmaske (21), mittels welcher in einem Kamerabild (17) einer Umfeldkamera (11) eines Kraftfahrzeugs (10) eine Bildauswertung auf eine Interessensregion (ROI) beschränkt wird, wobei- Kalibrierdaten (28) der Umfeldkamera (11), Referenzkalibrierdaten (27) einer Referenzkamera (11') eines Referenzfahrzeugs (10') sowie eine Referenzmaske (22), welche für die Referenzkamera (11') in dem Referenzfahrzeug (10') die Interessensregion (ROI) beschreibt, empfangen werden, und- auf der Grundlage der Kalibrierdaten (28) und der Referenzkalibrierdaten (27) eine Transformation (26) ermittelt wird,- auf der Grundlage von Maskenknoten (23) der Referenzbildmaske (22) mittels der Transformation (26) verschobene Maskenknoten (23') ermittelt werden und- auf der Grundlage der verschobenen Maskenknoten (23') die Bildmaske (21) gebildet wird,dadurch gekennzeichnet, dass- die Referenzkalibrierdaten (27) eine Bildverzerrung der Referenzkamera (11') beschreiben und in einem Vorverarbeitungsschritt (29) der Transformation (26) bei den Maskenknoten (23) die Bildverzerrung der Referenzkamera (11') rückgängig gemacht wird, und/oder- die Referenzkalibrierdaten (27) eine Rotationsmatrix (36) der Referenzkamera (11') und/oder zumindest eine Kameraeinstellung (37) der Referenzkamera (11') beschreiben und in einem Vorverarbeitungsschritt (30) der Transformation (26) Sichtstrahlen (45), die in eine Kameraumgebung (46) der Referenzkamera (11') weisen, berechnet werden, und/oder- zumindest ein zusätzlicher Maskenknoten, welcher einen Bildpunkt einer Kamerahalterung (20) der Referenzkamera (11') beschreibt, ermittelt wird und dieser als Fixknoten (34) unverschoben in der Bildmaske (21) beibehalten wird.Method for providing an image mask (21) by means of which an image evaluation in a camera image (17) of an environment camera (11) of a motor vehicle (10) is restricted to a region of interest (ROI), wherein calibration data (28) of the environment camera (11), Referenzkalibrierdaten (27) of a reference camera (11 ') of a reference vehicle (10') and a reference mask (22) for the reference camera (11 ') in the reference vehicle (10') describes the region of interest (ROI) are received, and- a transformation (26) is determined on the basis of the calibration data (28) and the reference calibration data (27), - determined on the basis of mask nodes (23) of the reference image mask (22) by means of the mask nodes (23 ') shifted by the transformation (26) and the image mask (21) is formed on the basis of the displaced mask nodes (23 '), characterized in that the reference calibration data (27) describe image distortion of the reference camera (11') and are recorded in a V orverarbeitungsschritt (29) of the transformation (26) at the mask nodes (23) the image distortion of the reference camera (11 ') is reversed, and / or the Referenzkalibrierdaten (27) a rotation matrix (36) of the reference camera (11') and / or describe at least one camera setting (37) of the reference camera (11 ') and in a preprocessing step (30) of the transformation (26) visual beams (45) pointing into a camera environment (46) of the reference camera (11') are calculated, and / or - at least one additional mask node, which describes a pixel of a camera mount (20) of the reference camera (11 ') is determined and this is maintained as a fixed node (34) unshifted in the image mask (21).
Description
Die Erfindung betrifft ein Verfahren zum Bereitstellen einer Bildmaske für die Verarbeitung von Kamerabildern einer Umfeldkamera eines Kraftfahrzeugs. Mittels der Bildmaske wird eine Bildauswertung in den Kamerabildern auf eine Interessensregion (ROI - Region of Interest) beschränkt. Zu der Erfindung gehören auch eine Steuervorrichtung für die Umfeldkamera, die Umfeldkamera sowie ein Kraftfahrzeug mit zumindest einer Umfeldkamera der genannten Art.The invention relates to a method for providing an image mask for processing camera images of an environment camera of a motor vehicle. By means of the image mask, an image evaluation in the camera images is limited to a region of interest (ROI). The invention also includes a control device for the surrounding camera, the surrounding camera and a motor vehicle with at least one surrounding camera of the type mentioned.
In einem automatisierten Fahrerassistenzsystem kann eine Umfeldkamera vorgesehen sein, deren Erfassungsbereich in das Umfeld oder die Umgebung des Kraftfahrzeugs ausgerichtet ist. Im Kamerabild einer solchen Umfeldkamera ist wegen ihrer Weitwinkeleigenschaften, die teilweise Winkelbereiche von mehr als 180 Grad abdecken, für gewöhnlich nicht nur ein Ausschnitt des Umfelds selbst zu sehen, sondern auch ein Teil oder mehrere Teile des Kraftfahrzeugs selbst und/oder der Halterung der Kamera. Deshalb kann für ein Kamerabild eine Interessensregion definiert werden, die den eigentlichen, vom Fahrerassistenzsystem zu nutzenden Bildinhalt von der Kamerahalterung und/oder dem Kraftfahrzeug unterscheidet. Hierdurch wird es einem Bildverarbeitungsalgorithmus ermöglicht, zum Beispiel Spiegelungen und/oder Lichtveränderungen am Kraftfahrzeug auszublenden.In an automated driver assistance system, an environment camera may be provided whose detection range is oriented in the environment or surroundings of the motor vehicle. In the camera image of such an environment camera is because of their wide-angle properties that cover partially angular ranges of more than 180 degrees, usually not only a section of the environment itself to see, but also a part or more parts of the motor vehicle itself and / or the holder of the camera. Therefore, a region of interest can be defined for a camera image, which distinguishes the actual image content to be used by the driver assistance system from the camera mount and / or the motor vehicle. This makes it possible for an image processing algorithm to hide, for example, reflections and / or light changes on the motor vehicle.
Da in jedem Kraftfahrzeug die Umfeldkamera in Bezug auf die Einbauposition und Einbaulage mit einer Toleranz eingebaut wird, ergibt sich durch leicht unterschiedliche Einbaulagen in Serienfahrzeugen die Notwendigkeit, die Interessensregion derart klein zu wählen, dass sie für alle erlaubten Einbaulagen garantiert nur den Bildinhalt des Umfelds ohne die Kamerahalterung und/oder das Kraftfahrzeug beinhaltet.Since the environment camera is installed in each vehicle with respect to the installation position and installation position with a tolerance, resulting from slightly different mounting positions in production vehicles, the need to choose the region of interest so small that it guarantees only the image content of the environment without for all permitted mounting positions includes the camera mount and / or the motor vehicle.
Wenn aber die Interessensregion zum Kompensieren der Einbautoleranz entsprechend klein gewählt wird, wird in dem Kamerabild auch ein Teil des Bildinhalts des Umfelds ausgespart, also ein wertvoller Bildinhalt, der eigentlich auch für die Nutzung durch das Fahrerassistenzsystem geeignet ist. Wünschenswert ist es daher, einen größeren Bildausschnitt als Interessensregion wählen und hierbei aber die aktuelle Einbaulage der Umfeldkamera im Kraftfahrzeug berücksichtigen zu können, damit der Bildausschnitt weiterhin ausschließlich das im Kamerabild sichtbare Umfeld zeigt.However, if the region of interest for compensating the installation tolerance is selected to be correspondingly small, a portion of the image content of the environment is omitted in the camera image, ie a valuable image content which is actually also suitable for use by the driver assistance system. It is therefore desirable to be able to select a larger image section as a region of interest and to be able to take into account the current mounting position of the surrounding camera in the motor vehicle so that the image section continues to show exclusively the environment visible in the camera image.
Aus der
Der Erfindung liegt die Aufgabe zugrunde, für eine Umfeldkamera eines Kraftfahrzeugs die Bildmaske, mittels welcher im Kamerabild die Interessensregion für eine Bildauswertung beschränkt wird, an die tatsächlichen Sichtverhältnisse der Umfeldkamera in einem gegebenen Kraftfahrzeug anzupassen.The invention is based on the object for an environment camera of a motor vehicle, the image mask, by means of which the interest region for image analysis is limited in the camera image, to adapt to the actual visibility of the surrounding camera in a given motor vehicle.
Die Aufgabe wird durch die Gegenstände des Patentanspruch 1 sowie der nebengeordneten Patentansprüche 6 bis 8 gelöst. Vorteilhafte Weiterbildungen der Erfindung ergeben sich durch die abhängigen Patentansprüche, die folgende Beschreibung sowie die Figuren.The object is achieved by the subject matters of
Durch die Erfindung ist ein Verfahren zum Bereitstellen der Bildmaske gegeben. Mittels der Bildmaske wird in bekannter Weise in einem Kamerabild einer Umgebungskamera oder Umfeldkamera eines Kraftfahrzeugs eine Bildauswertung auf eine Interessensregion beschränkt. Ist also in dem Kamerabild sowohl ein sichtbarer Bereich der Umgebung oder des Umfelds als auch ein Teil des Kraftfahrzeugs selbst, beispielsweise ein Stoßfänger oder ein Nummernschild, und/oder ein Teil der Halterung der Kamera selbst erkennbar, so grenzt die Bildmaske den sichtbaren Bereich des Umfelds als Interessensregion ab. Eine Bildauswertung, beispielsweise eine automatische Objekterkennung, kann dann auf die Interessensregion beschränkt werden. Die Bildauswertung kann in bekannter Weise durch ein Fahrerassistenzsystem durchgeführt werden.The invention provides a method for providing the image mask. By means of the image mask, image evaluation in a camera image of an ambient camera or environment camera of a motor vehicle is limited to a region of interest. Thus, if both a visible region of the surroundings or of the surroundings and also a part of the motor vehicle itself, for example a bumper or license plate, and / or a part of the holder of the camera itself are recognizable in the camera image, then the image mask delimits the visible region of the surroundings as a region of interest. An image analysis, for example, an automatic object recognition, can then be limited to the area of interest. The image evaluation can be carried out in a known manner by a driver assistance system.
Um nun die Bildmaske beispielsweise an die aktuelle Einbaulage der Umfeldkamera im Kraftfahrzeug anzupassen, wird von einer Referenzmaske ausgegangen, die beispielsweise manuell für ein Referenzfahrzeug mit einer darin eingebauten Referenzkamera angepasst wurde. Welche Einbaulage oder allgemein welche Sichtverhältnisse sich für die Referenzkamera in dem Referenzfahrzeug ergeben, ist durch Referenzkalibrierdaten der Referenzkamera beschrieben. Genauso ist auch für die aktuell zu kalibrierende Umfeldkamera selbst durch Kalibrierdaten der Umfeldkamera beschrieben, welche Einbaulage oder allgemein welche Sichtverhältnisse sich für die Umfeldkamera in ihrem Kraftfahrzeug ergeben. Wie man solche Referenzkalibrierdaten und Kalibrierdaten für eine Kamera in einem Kraftfahrzeug ermittelt, ist nicht Teil dieser Erfindung. Hierzu sind aus dem Stand der Technik Verfahren bekannt, um beispielsweise eine Einbaulage und/oder eine Rotationsposition oder Drehlage einer Kamera in einem Kraftfahrzeug zu ermittelt. Die Kalibrierdaten der Umfeldkamera können eine Rotationsmatrix der Umfeldkamera beschreiben, die also eine Drehlage oder einen Drehwinkel der Umfeldkamera beispielsweise um ihr Kamerazentrum beschreiben (Extrinsik der Kamera). Zusätzlich oder alternativ dazu können die Kalibrierdaten der Umfeldkamera zumindest eine Kameraeinstellung der Kamera, beispielsweise ihre Brennweite, beschreiben (Intrinsik der Kamera). Entsprechendes gilt für die Referenzkamera und deren Referenzkalibrierdaten. In order to adapt the image mask, for example, to the current installation position of the surrounding camera in the motor vehicle, the starting point is a reference mask which, for example, has been adapted manually for a reference vehicle with a reference camera installed therein. Which mounting position or generally which viewing conditions arise for the reference camera in the reference vehicle is described by Referenzkalibrierdaten the reference camera. In the same way, even for the currently to be calibrated environment camera itself is described by calibration data of the environment camera, which mounting position or generally what visibility results for the environment camera in their motor vehicle. How to determine such Referenzkalibrierdaten and calibration data for a camera in a motor vehicle is not part of this invention. For this purpose, methods are known from the prior art, for example, to determine an installation position and / or a rotational position or rotational position of a camera in a motor vehicle. The calibration data of the surrounding camera can describe a rotation matrix of the surrounding camera, which thus describe a rotational position or a rotation angle of the surrounding camera, for example around its camera center (extrinsic of the camera). Additionally or alternatively, the calibration data of the surrounding camera can describe at least one camera setting of the camera, for example its focal length (intrinsic of the camera). The same applies to the reference camera and its Referenzkalibrierdaten.
In einem ersten Verfahrensschritt des erfindungsgemäßen Verfahrens werden diese Kalibrierdaten der Umfeldkamera selbst, die Referenzkalibrierdaten der Referenzkamera des Referenzfahrzeugs sowie die Referenzmaske empfangen. Die Referenzmaske beschreibt für die Referenzkamera in dem Referenzfahrzeug die Interessensregion. Das Verfahren geht davon aus, dass das Referenzfahrzeug vom selben Fahrzeugtyp wie das Kraftfahrzeug selbst ist. Somit sind also die störenden Bauteile des Kraftfahrzeugs, wie sie im Kamerabild zusätzlich zum sichtbaren Teil des Umfeldes enthalten sein können, dieselben wie im zu kalibrierenden Kraftfahrzeug.In a first method step of the method according to the invention, these calibration data of the surrounding camera itself, the reference calibration data of the reference camera of the reference vehicle and the reference mask are received. The reference mask describes the region of interest for the reference camera in the reference vehicle. The method assumes that the reference vehicle is of the same vehicle type as the motor vehicle itself. Thus, therefore, the disturbing components of the motor vehicle, as they may be included in the camera image in addition to the visible part of the environment, the same as in the motor vehicle to be calibrated.
Auf der Grundlage der Kalibrierdaten und der Referenzkalibrierdaten kann nun eine Transformation ermittelt werden. Mit anderen Worten kann durch Vergleichen der Einbaulagen oder Sichtverhältnisse der Referenzkamera im Referenzfahrzeug einerseits und der Umfeldkamera im Kraftfahrzeug andererseits ermittelt werden, welcher Unterschied sich in der Abbildung des Umfelds zwischen den Kamerabildern der beiden Kameras ergibt. Hieraus kann dann die Transformation ermittelt werden, die beschreibt, wie ein gegebener Punkt im Kamerabild der Referenzkamera verschoben wird, welche Position er also im Kamerabild der Umfeldkamera einnehmen würde, wenn man die Referenzkamera in die Position oder Lage der Umfeldkamera verschieben oder bewegen würde.Based on the calibration data and the reference calibration data, a transformation can now be determined. In other words, by comparing the mounting positions or visibility of the reference camera in the reference vehicle on the one hand and the surrounding camera in the motor vehicle on the other hand can be determined, which difference results in the mapping of the environment between the camera images of the two cameras. From this, the transformation can then be determined, which describes how a given point in the camera image of the reference camera is moved, which position it would occupy in the camera image of the surrounding camera if the reference camera were moved or moved in the position or position of the surrounding camera.
Die Referenzbildmaske und die Bildmaske kann jeweils eine Binärmaske oder eine Konturbeschreibung sein. Sie kann durch sogenannte Maskenknoten beschrieben sein, welche den geometrischen Verlauf des Rands der Maske beschreiben. Die Maskenknoten können beispielsweise Stützpunkte an einem Rand der jeweiligen Maske sein, also beispielsweise einen Polygonzug beschreiben, welcher die Grenze oder den Rand beschreibt. Gesucht sind also die Maskenknoten der Bildmaske. Hierzu werden aus den Maskenknoten der Referenzbildmaske mittels der besagten Transformation verschobene Maskenknoten ermittelt. Auf der Grundlage der verschobenen Maskenknoten kann dann die Bildmaske gebildet werden, wie sie für das Kamerabild der Umfeldkamera zum Abgrenzen der Interessensregion verwendet werden kann.The reference image mask and the image mask may each be a binary mask or a contour description. It can be described by so-called mask nodes, which describe the geometric shape of the edge of the mask. For example, the mask nodes may be vertices at an edge of the respective mask, eg, describe a polygon that describes the boundary or edge. We are looking for the mask nodes of the image mask. For this purpose, mask nodes shifted from the mask nodes of the reference image mask are determined by means of said transformation. On the basis of the displaced mask nodes, the image mask can then be formed, as can be used for the camera image of the surrounding camera for delimiting the region of interest.
Durch die Erfindung ergibt sich der Vorteil, dass in einem Kamerabild einer Referenzkamera eine Interessenregion definiert oder vorgegeben werden kann, die nicht auf eine Einbautoleranz Rücksicht nehmen muss, da sie nur für eine konkrete Referenzkamera in einer konkreten Einbaulage definiert sein muss. Anstatt nun für eine weitere Umfeldkamera die Einbautoleranz durch Verkleinern der Referenzmaske zu kompensieren, wird stattdessen der sich aufgrund der Einbautoleranz ergebende Unterschied zwischen den Referenzkalibrierdaten und den Kalibrierdaten ermittelt und daraus eine geometrische Transformation gebildet, die es ermöglicht, die Referenzmaske derart zu verformen und/oder zu verschieben, dass daraus die Bildmaske gebildet werden kann, die wiederum individuell an die Umfeldkamera angepasst ist. Ist also beispielsweise die Referenzbildmaske maximal groß gewählt, so wird sich auch für die Umfeldkamera eine maximal große Bildmaske ergeben. Somit steht einer Objekterkennung eine größere Interessensregion für eine Objekterkennung zur Verfügung als für den Fall, dass eine Bildmaske verwendet würde, die klein genug ist, um für alle Einbaulagen verwendet werden zu können. Die Erfindung ist hier und im Folgenden nur für eine einzelne Bildmaske beschrieben. Sie kann auch zum Anpassen mehrerer Bildmasken verwendet werden, wenn mehrere Interessensregionen für die Kamera definiert werden sollen. Es kann beispielsweise eine weitere Bildmaske nur für einen „Ganz-nah-Bereich“ definiert werden. Das Verfahren lässt sich dabei in der beschriebenen Weise für jede Bildmaske getrennt durchführen.The invention provides the advantage that in a camera image of a reference camera an interest region can be defined or specified, which does not have to take into account a mounting tolerance, since it only needs to be defined for a specific reference camera in a specific installation position. Instead of compensating for the installation tolerance for a further environment camera by reducing the reference mask, the difference between the reference calibration data and the calibration data resulting from the installation tolerance is instead determined and a geometric transformation is formed from this, which makes it possible to deform the reference mask and / or to shift that from the image mask can be formed, which in turn is individually adapted to the environment camera. If, for example, the reference image mask is chosen to be maximally large, a maximum large image mask will also result for the surroundings camera. Thus, object recognition has a wider area of interest for object recognition than would be the case if an image mask small enough to be used for all mounting positions were used. The invention is described here and below only for a single image mask. It can also be used to customize multiple image masks when defining multiple interest regions for the camera. For example, another image mask can only be defined for a "near-far area". The method can be carried out separately in the manner described for each image mask.
Gemäß einem Aspekt der Erfindung wird beim Übertragen der Referenzmaske auf die Umfeldkamera des Kraftfahrzeugs nicht nur der Unterschied in den Einbaulagen, sondern auch eine unterschiedliche Bildverzerrung der Kameras (Umfeldkamera und Referenzkamera) kompensiert. Gemäß einer Weiterbildung beschreiben hierzu die Referenzkalibrierdaten eine Bildverzerrung der Referenzkamera. Eine solche Bildverzerrung kann beispielsweise als Verzerrung eines Gittermusters aus geraden Linien beschrieben werden, wie es eingangs im Zusammenhang mit dem Stand der Technik beschrieben wurde. In einem Vorverarbeitungsschritt der besagten Transformation wird dann bei den Maskenknoten der Referenzbildmaske die Bildverzerrung der Referenzkamera rückgängig gemacht (Entzerrung). Hierdurch ist der Einfluss der Bildverzerrung der Referenzkamera auf die Bildposition oder Koordinaten der Maskenknoten kompensiert.According to one aspect of the invention, when transferring the reference mask to the surrounding camera of the motor vehicle not only the difference in the mounting positions, but also a different image distortion of the cameras (environment camera and Reference camera) compensated. According to a further development, the reference calibration data describe an image distortion of the reference camera. Such an image distortion can be described, for example, as a distortion of a grid pattern from straight lines, as has been described at the outset in connection with the prior art. In a preprocessing step of the said transformation, the image distortion of the reference camera is then undone at the mask nodes of the reference image mask (equalization). This compensates for the influence of the image distortion of the reference camera on the image position or coordinates of the mask nodes.
Gemäß einem zusätzlichen oder alternativen Aspekt der Erfindung beschreiben die Referenzkalibrierdaten eine Rotationsmatrix der Referenzkamera. Die Rotationsmatrix beschreibt einen Drehwinkel oder eine Drehlage der Kamera um ein vorbestimmtes Kamerazentrum, z.B. den Schwerpunkt der Referenzkamera. Das Kamerazentrum ist ein beliebiger Referenzpunkt für Positions- und/oder Winkelangaben. Somit kann also eine verdrehte Einbaulage, also die Abweichung beispielsweise der Kamera-Hochachse von der Vertikalen, beschrieben werden. Zusätzlich oder alternativ dazu können die Referenzkalibrierdaten zumindest eine Kameraeinstellung der Referenzkamera, beispielsweise die Brennweite, beschreiben. In einem weiteren Vorverarbeitungsschritt der Transformation werden dann ausgehend von den Maskenknoten der Referenzbildmaske Sichtstrahlen berechnet, die in eine Kameraumgebung der Referenzkamera weisen. Ein Maskenknoten ist ein Bildpunkt auf dem Kamerabild der Referenzkamera. Ausgehend von der Bildebene des Kamerabilds der Referenzkamera kann also durch die Blende der Referenzkamera oder durch das Kamerazentrum hindurch ein Sichtstrahl definiert werden, der in die Kameraumgebung weist. Hierdurch ist man nun unabhängig von der Referenzkamera, da ein Sichtstrahl im Raum definiert ist. Falls zunächst die beschriebene Entzerrung angewendet wird, gehen die Sichtstrahlen natürlich jeweils von einem entzerrten Maskenknoten aus.According to an additional or alternative aspect of the invention, the reference calibration data describes a rotation matrix of the reference camera. The rotation matrix describes a rotation angle or position of the camera about a predetermined camera center, e.g. the focus of the reference camera. The camera center is any reference point for position and / or angle information. Thus, therefore, a twisted mounting position, so the deviation, for example, the camera vertical axis of the vertical, are described. Additionally or alternatively, the reference calibration data may describe at least one camera setting of the reference camera, for example the focal length. In a further preprocessing step of the transformation, visual beams are then calculated starting from the mask nodes of the reference image mask and point in a camera environment of the reference camera. A mask node is a pixel on the camera image of the reference camera. Starting from the image plane of the camera image of the reference camera, a viewing beam can therefore be defined through the aperture of the reference camera or through the camera center, which points into the camera environment. As a result, one is now independent of the reference camera, since a visual beam is defined in space. Of course, if the described equalization is applied, the visual rays will always emanate from an equalized mask node.
Es ist aber nicht immer vorteilhaft, alle Maskenknoten zu verschieben. In der Referenzbildmaske wird zumindest ein zusätzlicher Maskenknoten ermittelt, welcher einen Bildpunkt der Kamerahalterung der Referenzkamera beschreibt. Mit anderen Worten kann die Referenzbildmaske so groß sein, dass sie an einem Rand der Kamerahalterung endet oder diesen berührt. Ein solcher Maskenknoten bleibt konstant, da die Kamerahalterung bei einer Veränderung der Einbaulage der Referenzkamera ebenfalls ihre Position oder Lage ändert. Ein solcher zusätzlicher Maskenknoten wird deshalb als Fixknoten unverschoben in der Bildmaske beibehalten.However, it is not always advantageous to move all mask nodes. In the reference image mask, at least one additional mask node is determined, which describes a pixel of the camera mount of the reference camera. In other words, the reference image mask may be so large that it ends at or touches an edge of the camera mount. Such a mask node remains constant since the camera mount also changes its position or position when the mounting position of the reference camera changes. Such an additional mask node is therefore maintained as a fixed node unshifted in the image mask.
Gemäß einem zusätzlichen oder alternativen Aspekt kann die Bildmaske also nun aus den verschobenen Maskenknoten und zusätzlich aus zumindest einem Fixknoten gebildet sein. Die verschobenen Maskenknoten und der zumindest eine Fixknoten (falls vorhanden) können zusammen beispielsweise den Rand der Bildmaske definieren, beispielsweise als Polygonzug.According to an additional or alternative aspect, the image mask can thus now be formed from the shifted mask nodes and additionally from at least one fixed node. The shifted mask nodes and the at least one fix node (if present) can together define, for example, the edge of the image mask, for example as a polygon.
Zu der Erfindung gehören auch Weiterbildungen, durch die sich zusätzliche Vorteile ergeben.The invention also includes refinements, resulting in additional benefits.
Dieser Sichtstrahl kann dann auf ein Objekt in der Kameraumgebung treffen, welches im Kamerabild abgebildet war, oder z.B. in den Himmel zeigen. Es kann sein, dass der Abstand des Objekts zur Referenzkamera bekannt ist, weil es z.B. zum Referenzfahrzeug gehört. Ist also zu zumindest einem der Sichtstrahlen jeweils ein Abstand angegeben, in welchem der Sichtstrahl in der Kameraumgebung auf ein Objekt auftrifft, so werden für diesen Sichtstrahl jeweils Koordinaten des Auftreffpunkts ermittelt. Hierdurch ist dann nicht ein Sichtstrahl selbst, sondern ein Auftreffpunkt in der Kameraumgebung definiert, an welchem man sich dann später zum Definieren der verschobenen Maskenknoten orientieren kann. Dies ist insbesondere relevant, wenn Fahrzeuganteile, die dem Kamerazentrum nahe sind, im Bild dargestellt sind, und eine Unsicherheit oder Toleranz der Kamera nicht nur bezüglich der Winkelrotationen, sondern auch bezüglich der Translation gegeben ist. Leichte Höhenunterschiede führen dann, wenn man nur mit Sichtstrahlen arbeitet, zu Ungenauigkeiten in der transformierten Maske.This visual beam may then encounter an object in the camera environment that was imaged in the camera image, or e.g. show in the sky. It may be that the distance of the object to the reference camera is known because it is e.g. belongs to the reference vehicle. Thus, if in each case a distance is specified for at least one of the visual beams in which the viewing beam impinges on an object in the camera environment, coordinates of the point of impingement are determined in each case for this visual beam. This does not define a visual beam itself, but rather a point of impact in the camera environment, at which point it can then be oriented later to define the shifted mask nodes. This is particularly relevant when vehicle parts that are close to the camera center are shown in the image, and there is an uncertainty or tolerance of the camera not only with respect to the angular rotations, but also with respect to the translation. Slight height differences, when working only with visible rays, lead to inaccuracies in the transformed mask.
Durch die beschriebenen Vorverarbeitungsschritte ist man nun unabhängig von der Referenzkamera, da nun Sichtstrahlen und/oder Auftreffpunkte im Raum definiert sind. Daraus kann man durch Nachstellen des Abbildungsvorgangs rekonstruieren, wie die Sichtstrahlen und/oder Auftreffpunkte auf das Kamerabild der Umfeldkamera abgebildet oder projiziert werden. So können die zugehörigen verschobenen Maskenknoten konstruiert werden.By means of the described preprocessing steps, one is now independent of the reference camera, since visual beams and / or impingement points are now defined in space. This can be reconstructed by adjusting the imaging process as the visual beams and / or impact points are imaged or projected onto the camera image of the surrounding camera. This allows the associated moved mask nodes to be constructed.
Hierzu beschreiben die Kalibrierdaten der Umfeldkamera bevorzugt die Einbaulage der Umfeldkamera in dem Kraftfahrzeug. Die Einbaulage kann die Einbauposition (z.B. 3D-Koordinaten z.B. des Kamerazentrums) und/oder die Orientierung oder Einbaulage im Raum (3D-Vektor) angeben. In einem Transformationsschritt der Transformation wird dann ausgehend von den besagten Auftreffpunkten jeweils ein zu der Umfeldkamera weisender Sichtstrahl berechnet. Jeder so berechnete Sichtstrahl weist also jeweils von einem Auftreffpunkt hin zur Blende oder zum Kamerazentrum der Umfeldkamera. Eine andere Bezeichnung für diesen Verfahrensschritt ist „extrinsische Kalibrierung“, d.h. es werden die äußeren, extrinsischen Parameter der Kamera berücksichtigt. Die Berücksichtigung der Intrinsik, also der inneren Parameter der Kamera (z.B. Brennweite), wird intrinsische Kalibrierung bezeichnet.For this purpose, the calibration data of the surrounding camera preferably describe the installation position of the surrounding camera in the motor vehicle. The installation position can indicate the installation position (eg 3D coordinates eg of the camera center) and / or the orientation or installation position in the room (3D vector). In a transformation step of the transformation, a viewing beam pointing to the surrounding camera is then calculated on the basis of said impact points. Each calculated visual beam thus has in each case from a point of impact to the aperture or the camera center of the surrounding camera. Another name for this process step is "extrinsic calibration", ie the outer, extrinsic parameters of the camera are taken into account. The consideration of intrinsics, ie the internal parameters of the camera (eg focal length), is called intrinsic calibration.
Somit benötigt man die Auftreffpunkte nicht mehr, da man aus diesen wieder Sichtstrahlen gebildet hat.Thus, the impact points are no longer needed, since one has again formed visual beams from these.
Es gilt dann also Sichtstrahlen, zu denen nie ein Auftreffpunkt definiert wurde, und Sichtstrahlen, die aus Auftreffpunkten generiert wurden.It then applies visual beams to which a point of impact has never been defined, and visual rays that were generated from impact points.
In einem weiteren Schritt der Transformation können dann die Sichtstrahlen jeweils auf eine Bildebene des Kamerabildes projiziert werden, wodurch sich Bildpunkte der Sichtstrahlen im Kamerabild ergeben. Die Sichtstrahlen werden also weiter in die Kamera verlängert, wo sie dann auf die Bildebene des Kamerabildes treffen und somit einen Bildpunkt definieren. Die Bildebene kann durch den Sensorchip der Umfeldkamera gebildet sein. Die Abbildung der Sichtstrahlen auf die Bildebene ist durch die Rotationsmatrix und/oder die Kalibrierdaten bestimmt.In a further step of the transformation, the visual beams can then each be projected onto an image plane of the camera image, resulting in pixels of the visual beams in the camera image. The visual beams are thus extended further into the camera, where they then hit the image plane of the camera image and thus define a pixel. The image plane can be formed by the sensor chip of the surrounding camera. The image of the visual rays on the image plane is determined by the rotation matrix and / or the calibration data.
Auch die Umfeldkamera ist aber nicht ideal, sondern kann eine Bildverzerrung aufweisen. Die Kalibrierdaten der Umfeldkamera können entsprechend die Bildverzerrung der Umfeldkamera beschreiben. Dies kann wieder in der besagten Weise als Verzerrung eines Gittermusters beschrieben sein (auch als nicht-linearer intrinsischer Parameter bezeichnet). In einem weiteren Transformationsschritt der Transformation kann dann auf die Bildpunkte der Sichtstrahlen die Bildverzerrung der Umfeldkamera angewendet werden. Hierdurch ergeben sich dann schließlich verschobene oder verzerrte Bildpunkte, die aber auch den verschobenen Maskenknoten entsprechen, da die Bildpunkte über die Sichtstrahlen aus den Maskenknoten der Referenzbildmaske generiert wurden.However, the environment camera is not ideal, but may have a picture distortion. The calibration data of the surrounding camera can accordingly describe the image distortion of the surrounding camera. This may again be described in the manner described as distortion of a grid pattern (also referred to as non-linear intrinsic parameter). In a further transformation step of the transformation, the image distortion of the surrounding camera can then be applied to the pixels of the visual beams. This then finally results in shifted or distorted pixels, which however also correspond to the shifted mask nodes, since the pixels were generated via the visual beams from the mask nodes of the reference image mask.
Somit liegen dann also die verschobenen Maskenknoten vor. Sie beschreiben die gesuchte Bildmaske.Thus, then there are the shifted mask nodes. They describe the searched image mask.
Um das erfindungsgemäße Verfahren durchzuführen, ist durch die Erfindung eine Steuervorrichtung für eine Umfeldkamera eines Kraftfahrzeuges bereitgestellt. Die Steuervorrichtung kann eine Recheneinrichtung aufweisen, die dazu eingerichtet ist, eine Ausführungsform des erfindungsgemäßen Verfahrens durchzuführen. Die Recheneinrichtung kann hierzu einen Mikroprozessor oder einen Mikrocontroller aufweisen. Die Verfahrensschritte des Verfahrens können beispielsweise mittels eines Programmcodes realisiert werden, der in einem Datenspeicher der Recheneinrichtung gespeichert sein kann.In order to carry out the method according to the invention, a control device for an environment camera of a motor vehicle is provided by the invention. The control device can have a computing device which is set up to carry out an embodiment of the method according to the invention. The computing device may have a microprocessor or a microcontroller for this purpose. The method steps of the method can be realized for example by means of a program code which can be stored in a data memory of the computing device.
Zu der Erfindung gehört auch eine Umfeldkamera für ein Kraftfahrzeug. Die Umfeldkamera weist eine Ausführungsform der erfindungsgemäßen Steuervorrichtung auf. Somit kann bei der Umfeldkamera deren Bildmaske zum Abgrenzen einer Interessensregion im Kamerabild aus einer vorgegebenen Referenzmaske gebildet werden.The invention also includes an environment camera for a motor vehicle. The surrounding camera has an embodiment of the control device according to the invention. Thus, in the environment camera whose image mask for delimiting a region of interest in the camera image from a predetermined reference mask can be formed.
Zu der Erfindung gehört schließlich auch ein Kraftfahrzeug mit zumindest einer erfindungsgemäßen Umfeldkamera. Das Kraftfahrzeug kann ein Kraftwagen oder eine Drohne oder ein Unterwasserfahrzeug sein.Finally, the invention also includes a motor vehicle with at least one environmental camera according to the invention. The motor vehicle may be a motor vehicle or a drone or an underwater vehicle.
Mit mehreren Umfeldkameras kann in dem Kraftfahrzeug beispielsweise eine sogenannte künstliche Vogelperspektive (TVI - Top View Image) berechnet werden, ohne dass störende Bildanteile, wie beispielsweise ein Bauteil des Kraftfahrzeugs selbst und/oder einer Kamerahalterung einer der Umfeldkameras, in dem berechneten Bild zu sehen sind.With a plurality of surrounding cameras, for example, a so-called artificial bird's eye view (TVI - Top View Image) can be calculated in the motor vehicle without disturbing image components, such as a component of the motor vehicle itself and / or a camera mount of one of the surrounding cameras, being visible in the calculated image ,
Im Folgenden ist ein Ausführungsbeispiel der Erfindung beschrieben. Hierzu zeigt:
-
1 eine schematische Darstellung einer Ausführungsform des erfindungsgemäßen Kraftfahrzeugs; -
2 eine schematische Darstellung eines Kamerabildes, wie es durch eine Umfeldkamera desKraftfahrzeugs von 1 erfasst sein kann; -
3 eine Skizze mit Kamerabildern, in denen Maskenknoten einer jeweiligen Bildmaske dargestellt sind, sowie die Transformation der Referenzmaske auf das aktuelle Kamerabild; -
4 ein Flussschaudiagramm einer Ausführungsform des erfindungsgemäßen Verfahrens; -
5 ein Flussschaudiagramm mit Vorverarbeitungsschritten desVerfahrens von 4 ; und -
6 ein Flussschaudiagramm mit Transformationsschritten desVerfahrens von 4 ; -
7 eine Skizze zur Veranschaulichung von Verfahrensschrittendes Verfahrens von 4 .
-
1 a schematic representation of an embodiment of the motor vehicle according to the invention; -
2 a schematic representation of a camera image, as shown by an environment camera of the motor vehicle of1 can be detected; -
3 a sketch with camera images in which mask nodes of a respective image mask are shown, as well as the transformation of the reference mask on the current camera image; -
4 a Flußschaudiagramm an embodiment of the method according to the invention; -
5 a Flussschaudiagramm with pre-processing steps of the method of4 ; and -
6 a Flussschaudiagramm with transformation steps of the method of4 ; -
7 a sketch illustrating process steps of the method of4 ,
Bei dem im Folgenden erläuterten Ausführungsbeispiel handelt es sich um eine bevorzugte Ausführungsform der Erfindung. Bei dem Ausführungsbeispiel stellen die beschriebenen Komponenten der Ausführungsform jeweils einzelne, unabhängig voneinander zu betrachtende Merkmale der Erfindung dar, welche die Erfindung jeweils auch unabhängig voneinander weiterbilden und damit auch einzeln oder in einer anderen als der gezeigten Kombination als Bestandteil der Erfindung anzusehen sind. Des Weiteren ist die beschriebene Ausführungsform auch durch weitere der bereits beschriebenen Merkmale der Erfindung ergänzbar.The exemplary embodiment explained below is a preferred embodiment of the invention. In the exemplary embodiment, the described components of the embodiment each represent individual features of the invention that are to be considered independently of one another, which also each independently further develop the invention and thus also individually or in a different combination than the one shown as part of the invention. Furthermore, the described embodiment can also be supplemented by further features of the invention already described.
In den Figuren sind funktionsgleiche Elemente jeweils mit denselben Bezugszeichen versehen.In the figures, functionally identical elements are each provided with the same reference numerals.
Jedes Kamerabild kann natürlich ein Bewegbild sein, das heißt sich mit der Zeit verändern und hierdurch die Veränderung im Umfeld
Die Umfeldkamera
Die Transformation
Die Vorverarbeitungsstufe
Die Referenzkalibrierdaten
In einem Prüfungsschritt
Die entzerrten Maskenpunkte können im Vorverarbeitungsschritt
Die Sichtstrahlen
Hierbei kann auch die Drehlage der Referenzkamera
Die Kalibrierdaten
Auf der Grundlage der Positionsdaten
Im Folgenden ist ein besonders bevorzugtes Ausführungsbeispiel beschrieben.In the following, a particularly preferred embodiment is described.
Jede der Weitwinkel-Umfeldkameras
Ziel ist somit, die Bildkoordinaten der störenden Elemente vorherzusagen. Dazu kann man für eine Referenzkalibrierung
Die Transformation
Durch die beschriebenen Maßnahmen können größere Bereiche des Umfelds
Die Realisierung besteht aus einem Fahrzeug, einer oder mehreren kalibrierten Weitwinkelkameras zur Umfelderfassung, deren Sichtfeld durch Egofahrzeugteile
Somit behandelt man drei Typen von Punkten oder Knoten: Transformierbare Knoten
Die Sichtstahlen werden über unverzerrte Punktpositionen
Eine mögliche alternative Lösung würde die Verwendung eines exakten 3D Models in einer CAD Umgebung berücksichtigen. Die Distanzen zu den fahrzeugnahen Maskenknoten könnten exakt bestimmt werden. Man könnte auf die Verwendung von Sichtstrahlen komplett verzichten. Diese transformierbare Maske würde mit einer fixen Maske kombiniert werden. Dieser Ansatz würde die Fehler durch Ver-/Entzerrung minimieren. Ein alternativer Ansatz könnte so aussehen, dass bei der Serienproduktion ein Kalibrierraum eingebunden wird, der etwa eine bestimmte Farbe hat oder mit einem Pattern ausgelegt ist. Die Masken würden definiert werden, indem man über Bildverarbeitungsalgorithmen die Farben/Pattern in den Kamerabildern suchen würde. Dieser Ansatz könnte zu einer nahezu optimalen Maske führen. Es gilt jedoch zu berücksichtigen, dass er auch bei verschiedenen Farben des Fahrzeugs funktionieren muss. Optimal könnte ein Raum sein in dem die Farbe mehrfach wechselt. Bei jeder Farbe würde eine Maske erzeugt werden und nur wenn hinreichend viele Masken sich überdecken, würde die finale Maske erstellt werden. Man könnte sich sicherlich auch einen Modus überlegen, bei dem das Fahrzeug zur Maskenerstellung in Bewegung versetzt wird. Problematisch bei dem Ansatz ist, dass er nicht dynamisch im Betrieb des Fahrzeugs wiederholbar ist. Im Lebenszyklus eines Fahrzeugs kann sich die extrinsische Kalibrierung verändern.One possible alternative solution would be to consider the use of an exact 3D model in a CAD environment. The distances to the vehicle-close mask nodes could be determined exactly. One could completely dispense with the use of visual beams. This transformable mask would be combined with a fixed mask. This approach would minimize the errors due to distortion / equalization. An alternative approach could be to include a calibration space in series production that has a certain color or pattern. The masks would be defined by looking through image processing algorithms for the colors / patterns in the camera images. This approach could lead to a nearly optimal mask. However, it has to be taken into account that it also has to work for different colors of the vehicle. Optimal could be a room in which the color changes several times. For each color, a mask would be created, and only if there were enough masks to cover itself would the final mask be created. You could certainly think of a mode in which the vehicle is set into motion for mask making. The problem with the approach is that it is not dynamically repeatable in the operation of the vehicle. In the life cycle of a vehicle, the extrinsic calibration may change.
Die Inputs, die hier vorgeschlagen werden, sind sehr gering. Da nur Kalibrierdaten und eine händisch angefertigte Referenzmaske verwendet werden, ist der Aufwand gering. Es liegt uns auch kein exaktes 3D Modell der zukünftigen Fahrzeuge vor, diese werden typischerweise lange zurückgehalten. Der Kalibrierraumansatz erfordert Infrastruktur in der Produktionskette und ist somit auch wesentlich aufwändiger. Ein analoger Ansatz zu dem hier vorgestellten ist die Definition der ROI per Bitmaske (Pixel-Fläche) statt eines Polygonzugs. Auch hier kann man Randpunkte wählen und wie beschrieben tranformieren, um schließlich eine transformierte Bitmaske zu erhalten.The inputs proposed here are very small. Since only calibration data and a hand-made reference mask are used, the effort is low. We also have no exact 3D model of the future vehicles, these are typically retained for a long time. The calibration room approach requires infrastructure in the production chain and is thus considerably more expensive. An analogous approach to the one presented here is the definition of the ROI per bit mask (pixel area) instead of a polygon. Again, one can select edge points and transform as described to finally obtain a transformed bitmask.
Der wesentliche Vorteil besteht darin, dass mit ähnlichen Mitteln, die aktuell in der Serienentwicklung umgesetzt werden, Zusatzinformationen für die Kundenfunktionen gewonnen werden können. Somit stellt dies einen wesentlichen Mehrwert für das Produktportfolie bei Volkswagen dar.The main advantage is that additional information for the customer functions can be obtained with similar means that are currently being implemented in series development. Thus, this represents a significant added value for the product portfolio at Volkswagen.
Insgesamt zeigt das Beispiel, wie durch die Erfindung eine Erkennungsleistung von kamerabasierten Algorithmen verbessert werden kann.Overall, the example shows how a detection performance of camera-based algorithms can be improved by the invention.
BezugszeichenlisteLIST OF REFERENCE NUMBERS
- 1010
- Kraftfahrzeugmotor vehicle
- 1111
- Umfeldkameraenvironment camera
- 1212
- Erfassungsbereichdetection range
- 1313
- Umfeldenvironment
- 1414
- Optische AchseOptical axis
- 1515
- Steuervorrichtungcontrol device
- 1616
- FahrerassistenzsystemDriver assistance system
- 1717
- Kamerabildcamera image
- 1818
- Bildausschnittimage section
- 1919
- Bauteilcomponent
- 2020
- Kamerahalterungcamera mount
- 2121
- Bildmaskeimage mask
- 2222
- Referenzmaskereference mask
- 2323
- Maskenknotenmask node
- 2424
- EinbaulageMounting position
- 2525
- EinbaulageMounting position
- 2626
- Transformationtransformation
- 2727
- ReferenzkalibrierdatenReferenzkalibrierdaten
- 2828
- Kalibrierdatencalibration
- 2929
- Vorverarbeitungsschrittpreprocessing
- 3030
- Vorverarbeitungsschrittpreprocessing
- 3131
- Transformationsschritttransformation step
- 3232
- Transformationsschritttransformation step
- 3333
- Transformationsschritttransformation step
- 3434
- FixknotenFixknoten
- 3535
- Verzerrungsdatendistortion data
- 35'35 '
- Verzerrungsdatendistortion data
- 3636
- RotationsmatrixdatenRotation matrix data
- 36'36 '
- RotationsmatrixdatenRotation matrix data
- 3737
- KamerakonfigurationsdatenCamera configuration data
- 37'37 '
- KamerakonfigurationsdatenCamera configuration data
- 3838
- KamerapositionsdatenCamera position data
- 38'38 '
- KamerapositionsdatenCamera position data
- 3939
- ÜberprüfungsschrittVerification step
- 4040
- Entzerrungequalization
- 40'40 '
- Verzerrungdistortion
- 4141
- Entzerrter BildpunktEqualized pixel
- 4242
- Blendenöffnungaperture
- 42'42 '
- Blendenöffnungaperture
- 4343
- Bildebeneimage plane
- 4444
- Bildsensorimage sensor
- 4545
- Sichtstrahlof sight
- 4646
- Kameraumgebungcamera environment
- 4747
- Abstanddistance
- 4848
- Objektobject
- 4949
- Auftreffpunktof impact
- 5050
- Rekonstruierter SichtstrahlReconstructed visual beam
- 5151
- Bildpunktpixel
- PREPRE
- Vorverarbeitungsstufepreprocessing
- TRANSTRANS
- Transformationsstufetransformation stage
Claims (8)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102017210415.5A DE102017210415B4 (en) | 2017-06-21 | 2017-06-21 | A method for providing an image mask for the delineation of a region of interest in a camera image of an environment camera of a motor vehicle and control device, environment camera and motor vehicle |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102017210415.5A DE102017210415B4 (en) | 2017-06-21 | 2017-06-21 | A method for providing an image mask for the delineation of a region of interest in a camera image of an environment camera of a motor vehicle and control device, environment camera and motor vehicle |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102017210415A1 DE102017210415A1 (en) | 2018-12-27 |
DE102017210415B4 true DE102017210415B4 (en) | 2019-02-07 |
Family
ID=64568020
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102017210415.5A Active DE102017210415B4 (en) | 2017-06-21 | 2017-06-21 | A method for providing an image mask for the delineation of a region of interest in a camera image of an environment camera of a motor vehicle and control device, environment camera and motor vehicle |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102017210415B4 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11405559B1 (en) | 2021-02-19 | 2022-08-02 | Honda Motor Co., Ltd. | Systems and methods for live signal adjustment of a movable camera |
DE102022112320A1 (en) | 2022-05-17 | 2023-11-23 | Audi Aktiengesellschaft | Motor vehicle with an interior mirror arrangement arranged on a windshield |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102013209415A1 (en) | 2012-05-31 | 2013-12-05 | GM Global Technology Operations, LLC (n.d. Ges. d. Staates Delaware) | Dynamic Note Overlay with Image Pruning |
DE102014219422A1 (en) | 2014-09-25 | 2016-03-31 | Conti Temic Microelectronic Gmbh | Automatic camera field of view adjustment and synchronization |
-
2017
- 2017-06-21 DE DE102017210415.5A patent/DE102017210415B4/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102013209415A1 (en) | 2012-05-31 | 2013-12-05 | GM Global Technology Operations, LLC (n.d. Ges. d. Staates Delaware) | Dynamic Note Overlay with Image Pruning |
DE102014219422A1 (en) | 2014-09-25 | 2016-03-31 | Conti Temic Microelectronic Gmbh | Automatic camera field of view adjustment and synchronization |
Also Published As
Publication number | Publication date |
---|---|
DE102017210415A1 (en) | 2018-12-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3053133B1 (en) | Method and device for displaying a vehicle's environment and driver assistance system | |
EP3497476A1 (en) | Motor vehicle and method for a 360° detection of the surroundings | |
DE102013108070A9 (en) | Image calibration and equalization of a wide-angle camera | |
EP2934947A1 (en) | Motor vehicle having a camera monitoring system | |
DE112016001150T5 (en) | ESTIMATION OF EXTRINSIC CAMERA PARAMETERS ON THE BASIS OF IMAGES | |
DE102011107458A1 (en) | Method for evaluating an object recognition device of a motor vehicle | |
DE102018100909A1 (en) | Method of reconstructing images of a scene taken by a multifocal camera system | |
DE102018004829A1 (en) | Determination of predistortion data for a projection and projector module | |
DE102017210415B4 (en) | A method for providing an image mask for the delineation of a region of interest in a camera image of an environment camera of a motor vehicle and control device, environment camera and motor vehicle | |
WO2022128014A1 (en) | Correction of images from a panoramic-view camera system in the case of rain, incident light and contamination | |
DE102012204541B4 (en) | Method and device for image processing of image data | |
DE102006037600B4 (en) | Method for the resolution-dependent representation of the environment of a motor vehicle | |
DE102016114693A1 (en) | A method for assisting a driver of a motor vehicle when driving the motor vehicle, driver assistance system and motor vehicle | |
EP3293971B1 (en) | Method for reproducing a section of an image | |
DE102013012778A1 (en) | Method for detecting a moving pedestrian on the basis of characteristic features and optical flow vectors of an image, camera system and motor vehicle | |
DE102016224904A1 (en) | Three-dimensional all-round visibility system | |
DE102020109997A1 (en) | System and method for taking reliable stitched images | |
DE10145608B4 (en) | Model-based object classification and target recognition | |
DE102008050456B4 (en) | Method and apparatus for lane detection | |
DE102015205479A1 (en) | A method of representing a vehicle environment of a vehicle | |
DE102020215651A1 (en) | Vehicle vision system | |
DE102005002636A1 (en) | Video data processing method for camera system, involves applying coordinate transformation to camera image for obtaining transformed camera image, where transformation transfers camera coordinate system to destination coordinate system | |
WO2020119996A1 (en) | Transfer of additional information between camera systems | |
WO2018188700A1 (en) | Surround view system for a vehicle | |
DE112018007942T5 (en) | Video image recording apparatus for use in an automobile and graphic image recognition apparatus for use in an automobile |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division | ||
R020 | Patent grant now final | ||
R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: H04N0005232000 Ipc: H04N0023600000 |