DE102020213147A1 - Method for a camera system and camera system - Google Patents
Method for a camera system and camera system Download PDFInfo
- Publication number
- DE102020213147A1 DE102020213147A1 DE102020213147.3A DE102020213147A DE102020213147A1 DE 102020213147 A1 DE102020213147 A1 DE 102020213147A1 DE 102020213147 A DE102020213147 A DE 102020213147A DE 102020213147 A1 DE102020213147 A1 DE 102020213147A1
- Authority
- DE
- Germany
- Prior art keywords
- view
- camera system
- camera
- cameras
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 23
- 230000001133 acceleration Effects 0.000 claims description 6
- 239000003550 marker Substances 0.000 claims description 6
- 230000006870 function Effects 0.000 description 5
- 238000013459 approach Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 3
- 238000000513 principal component analysis Methods 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000011157 data evaluation Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/095—Predicting travel path or likelihood of collision
- B60W30/0956—Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
- B60W2050/146—Display means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/404—Characteristics
- B60W2554/4042—Longitudinal speed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/404—Characteristics
- B60W2554/4044—Direction of movement, e.g. backwards
Landscapes
- Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Traffic Control Systems (AREA)
Abstract
Verfahren für ein Kamerasystem, insbesondere Surroundview-Kamerasystem, für ein Ego-Fahrzeug (1), umfassend eine Steuereinrichtung (2) zum Steuern des Kamerasystems, und mehrere Kameras (3a-3d) zur Umfelderfassung, wobei folgende Verfahrensschritte vorgesehen sind: Erkennen von im Sichtfeld der Kameras (3a-3d) befindlichen Objekten (9, 14), Auswählen von mindestens einem Objekt (9, 14) aus den erkannten Objekten anhand mindestens eines Auswahlparameters, Bestimmen einer Distanz zwischen dem ausgewählten Objekt (9, 14) und dem Ego-Fahrzeug (1), Einrichten einer virtuellen Kamera (7), welche auf das ausgewählte Objekt (9, 14) gerichtet ist, sowie Ausgabe einer Information über das ausgewählte Objekt (9, 14).Method for a camera system, in particular a surround view camera system, for an ego vehicle (1), comprising a control device (2) for controlling the camera system, and a plurality of cameras (3a-3d) for detecting the surroundings, the following method steps being provided: detecting im objects (9, 14) located in the field of view of the cameras (3a-3d), selecting at least one object (9, 14) from the detected objects using at least one selection parameter, determining a distance between the selected object (9, 14) and the ego - Vehicle (1), setting up a virtual camera (7) which is aimed at the selected object (9, 14) and outputting information about the selected object (9, 14).
Description
Die vorliegende Erfindung betrifft ein Verfahren für ein Kamerasystem bzw. Surroundview-Kamerasystem zur Umfelderfassung für ein Fahrzeug sowie ein gattungsgemäßes Kamerasystem, welches anhand des erfindungsgemäßen Verfahrens betrieben wird.The present invention relates to a method for a camera system or surround view camera system for detecting the surroundings of a vehicle and a generic camera system which is operated using the method according to the invention.
Technologischer HintergrundTechnological background
Fahrzeuge werden zunehmend mit Fahrerassistenzsystemen ausgerüstet, welche den Fahrer bei der Durchführung von Fahrmanövern unterstützen. Diese Fahrerassistenzsysteme umfassen neben Radarsensoren, Lidarsensoren, Ultraschallsensoren und/oder Kamerasensoren insbesondere auch Surroundview-Kamerasysteme, die es erlauben, dem Fahrer des Fahrzeugs die Fahrzeugumgebung anzuzeigen. Derartige Surroundview-Kamerasysteme umfassen in der Regel mehrere Fahrzeugkameras, welche reale Bilder der Fahrzeugumgebung liefern, die insbesondere durch eine Datenverarbeitungseinheit des Surroundview-Kamerasysteme zu einem Umgebungsbild der Fahrzeugumgebung zusammengefügt werden. Das Bild der Fahrzeugumgebung kann dann dem Fahrer auf einer Anzeigeeinheit (wie z. B. dem Display des Navigationssystems) angezeigt. Auf diese Weise kann der Fahrer bei einem Fahrzeugmanöver unterstützt werden, beispielsweise bei einem Rückwärtsfahren des Fahrzeuges oder bei einem Parkmanöver.Vehicles are increasingly being equipped with driver assistance systems that support the driver in carrying out driving maneuvers. In addition to radar sensors, lidar sensors, ultrasonic sensors and/or camera sensors, these driver assistance systems also include, in particular, surround view camera systems, which allow the vehicle environment to be displayed to the driver of the vehicle. Such surround view camera systems generally include a number of vehicle cameras which deliver real images of the vehicle environment, which are combined in particular by a data processing unit of the surround view camera system to form an image of the vehicle environment. The image of the vehicle surroundings can then be displayed to the driver on a display unit (such as the display of the navigation system). In this way, the driver can be supported during a vehicle maneuver, for example when reversing the vehicle or during a parking maneuver.
Im Bereich der Surroundview-Kamerasysteme gibt es Funktionen bzw. Ansichten wie „Bowl“ und „Top-View“ („Vogelperspektive“ oder „Draufsicht“), bei denen Bilder bzw. Texturen aus den Surroundview-Kameras zusammengefügt bzw. nahtlos aneinandergereiht werden (Stitching). Die Bilder bzw. Texturen der Surroundview-Kameras weisen dabei in der Regel überlappende Regionen bzw. Überlappungsbereiche auf. Insbesondere in der Bowl-Ansicht, in der die Texturen aus den Kameras projiziert werden, um eine virtuelle 3D-Bowl zu visualisieren, welche die gesamte Fläche um das Auto herum darstellt. Moderne Surroundview-Kamerasysteme können die dadurch erzeugten Ansichten dann dem Fahrer anzeigen, z. B. an einem Display, einem Cockpit oder einem Navigationssystem. Die erfassten Kameratexturen können dabei auf verschiedene Weise dargestellt werden. Insbesondere können im „Top-View“ die aus den Kameras texturierten Bilder auf eine virtuelle 3D-Ebene projiziert werden, die den gesamten Bereich um das Auto in (360 Grad-Sicht) visualisiert. Dennoch können nicht immer alle Texturbereiche dargestellt werden (z. B. kamerafreie Texturen). Das ist ein Nachteil, da es die Sichtbarkeit des Fahrers einschränkt. Um diese Einschränkung zu umgehen oder zu verbessern, wird in bekannten Systemen neben der Top-View-Ansicht eine zusätzliche Ansicht hinzugefügt, die dem Fahrer die Möglichkeit gibt, die Richtung einer anderen virtuellen Kamera zu wählen. Jedoch kann es auch hierbei dazu kommen, dass es Texturbereiche gibt, die nicht dargestellt werden und auf einer anderen Ansicht sichtbar sind. Während die Kombination der beiden Ansichten die Sichtbarkeit teilweise verbessert, kann es problematisch sein, z. B. wenn das System für Manövrieraufgaben mit geringer Geschwindigkeit (Low Speed Maneuvering) verwendet wird, z. B. wenn sich ein Fahrzeug von der gegenüberliegenden Richtung der Sichtrichtung der virtuellen Kamera nähert.In the area of surround view camera systems, there are functions or views such as "Bowl" and "Top View" ("bird's eye view" or "top view"), in which images or textures from the surround view cameras are combined or lined up seamlessly ( stitching). The images or textures of the surround view cameras generally have overlapping regions or overlapping areas. Specifically, in the bowl view, where the textures from the cameras are projected to visualize a 3D virtual bowl representing the entire area around the car. Modern surround view camera systems can then display the views generated as a result to the driver, e.g. B. on a display, a cockpit or a navigation system. The recorded camera textures can be displayed in different ways. In particular, in the "top view" the images textured from the cameras can be projected onto a virtual 3D plane that visualizes the entire area around the car in (360 degree view). However, not all texture areas can always be displayed (e.g. camera-free textures). This is a disadvantage as it limits the driver's visibility. In order to circumvent or improve this limitation, in known systems, an additional view is added in addition to the top view, which gives the driver the option of choosing the direction of a different virtual camera. However, it can also happen here that there are texture areas that are not displayed and are visible in another view. While combining the two views partially improves visibility, it can be problematic, e.g. when the system is used for low speed maneuvering tasks, e.g. B. when a vehicle approaches from the opposite direction to the viewing direction of the virtual camera.
Ferner sollten derartige Sichtbarkeitseinschränkungen in Fahrerassistenzsystemen nicht existieren, da sie den Fahrer einschränken, die Zuverlässigkeit und Nutzbarkeit verringern und die Sicherheit wird dadurch in besonderem Maße verringert. Daher besteht ein besonderes Interesse die Sichtbarkeit zu verbessern bzw. die Sichtbereiche zu vergrößern.Furthermore, such visibility restrictions should not exist in driver assistance systems, since they restrict the driver, reduce reliability and usability, and safety is reduced to a particular extent as a result. Therefore, there is a particular interest in improving visibility or increasing the range of vision.
Druckschriftlicher Stand der TechnikPrinted state of the art
Aus der
Aufgabe der vorliegenden ErfindungObject of the present invention
Der vorliegenden Erfindung liegt daher die Aufgabe zugrunde, ein Verfahren für ein (Surroundview-) Kamerasystem zur Verfügung zu stellen, durch das eine verbesserte Sichtbarkeit bzw. geringere Sichteinschränkungen in einfacher und kostengünstiger Weise erzielt werden können, wodurch die Bedienbarkeit und Sicherheit verbessert werden.The present invention is therefore based on the object of providing a method for a (surround view) camera system by means of which improved visibility or fewer restricted views can be achieved in a simple and cost-effective manner, thereby improving operability and safety.
Lösung der Aufgabesolution of the task
Die vorstehende Aufgabe wird durch die gesamte Lehre des Anspruchs 1 sowie des nebengeordneten Anspruchs gelöst. Zweckmäßige Ausgestaltungen der Erfindung sind in den Unteransprüchen beansprucht.The above object is achieved by the entire teaching of
Das erfindungsgemäße Verfahren betrifft den Betrieb eines Kamerasystems, insbesondere eines Surroundview-Kamerasystems, für ein Ego-Fahrzeug, welches eine Steuereinrichtung (Computer, Rechner, elektronische Steuereinheit bzw. ECU oder dergleichen) zum Steuern des Kamerasystems und zur Datenverarbeitung und Datenauswertung sowie mehrere (Surroundview-) Kameras zur Umfelderfassung aufweist. Das Verfahren ist erfindungsgemäß dadurch gekennzeichnet, dass zunächst im Sichtfeld der Kameras befindliche Objekte erkannt werden (Schritt 1), wobei aus den erkannten Objekten anhand mindestens eines Auswahlparameters ein Objekt ausgewählt wird (Schritt 2). Hierbei handelt es sich insbesondere um ein Objekt, welches aufgrund seiner Eigenschaften oder Bewegungsparameter eine gewisse Gefährdung (z. B. Kollisionsgefahr) für das Ego-Fahrzeug darstellt bzw. verursachen kann. Ferner wird eine Distanz zwischen dem ausgewählten Objekt und dem Ego-Fahrzeug (d. h. der Abstand vom Ego-Fahrzeug zum Objekt) bestimmt (Schritt 3). Diese Abstandsbestimmung kann anhand der Kamerabilder oder unter Verwendung anderer Sensoren (z. B. Radarsensor, Lidarsensor, Ultraschallsensor oder dergleichen) erfolgen. Im Anschluss daran kann eine virtuelle Kamera eingerichtet werden, die auf das ausgewählte Objekt gerichtet ist (Schritt 4), um dieses zu verfolgen bzw. zu tracken, sodass dann die Information über das ausgewählte Objekt ausgegeben werden kann (Schritt 5). Beispielsweise über Ansicht einer Anzeigevorrichtung bzw. eines Displays, um den Fahrer über das herannahende bzw. potenziell gefährdende Objekt zu informieren. Die Information kann dabei die jeweiligen Auswahlparameter/Objekteigenschaften (z. B. Größe, Art, Geschwindigkeit, Beschleunigung, Bewegungsrichtung, Distanz zum Ego-Fahrzeug, Kollisionsgefahr und dergleichen) umfassen. Infolgedessen kann der Fahrer auf (unbemerkt) herannahende Objekte aufmerksam gemacht (d. h. herannahende Objekte außerhalb des Sichtbereichs können dem Fahrer angezeigt werden) und über dieses informiert werden, um Gefahren rechtzeitig zu erkennen und abzuwenden. Daraus resultiert der Vorteil, dass Sichteinschränkung im Vergleich zu bekannten Surroundview-Kamerasystemen und deren Systemvisualisierungen aufgelöst oder zumindest verringert werden können. Zudem eignet sich der vorgeschlagene Ansatz aufgrund der geringen Rechen- und Speicheranforderungen auch für Eingebettete (Embedded)-Anwendungen in Echtzeit mit begrenzten Verarbeitungs- und Speicherkapazitäten.The method according to the invention relates to the operation of a camera system, in particular a surround view camera system, for an ego vehicle, which has a control device (computer, computer, electronic control unit or ECU or the like) for controlling the camera system and for data processing and data evaluation as well as several (surround view -) Has cameras for environment detection. According to the invention, the method is characterized in that objects located in the field of view of the cameras are first detected (step 1), with one object being selected from the detected objects using at least one selection parameter (step 2). This is in particular an object which, due to its properties or movement parameters, represents or can cause a certain hazard (e.g. risk of collision) for the ego vehicle. Further, a distance between the selected object and the ego vehicle (i.e., the distance from the ego vehicle to the object) is determined (step 3). This distance determination can be based on the camera images or using other sensors (e.g. radar sensor, lidar sensor, ultrasonic sensor or the like). After this, a virtual camera can be set up, which is aimed at the selected object (step 4), in order to follow or track it, so that the information about the selected object can then be output (step 5). For example, by viewing a display device or a display to inform the driver about the approaching or potentially dangerous object. The information can include the respective selection parameters/object properties (e.g. size, type, speed, acceleration, direction of movement, distance from the ego vehicle, risk of collision and the like). As a result, the driver can be made aware of (unnoticed) approaching objects (i.e. approaching objects outside the driver's field of vision can be displayed to the driver) and be informed about them in order to recognize and avert dangers in good time. This results in the advantage that restricted visibility can be resolved or at least reduced in comparison to known surround view camera systems and their system visualizations. In addition, due to the low computing and memory requirements, the proposed approach is also suitable for embedded applications in real time with limited processing and memory capacities.
Vorzugsweise ist/sind als Auswahlparameter die Bewegungsgeschwindigkeit des Objekts und/oder die Bewegungsbeschleunigung des Objekts und/oder die Bewegungsrichtung des Objekts und/oder die Objektart des Objekts vorgesehen. In einfacher Weise können Grenzwerte für die Auswahlparameter festgelegt werden, anhand deren Über- oder Unterschreiten eine Auswahl festgelegt wird (z. B. es wird ein Objekt ausgewählt, welches sich mit Geschwindigkeit v >= X km/h in einem Abstand a <= 30 m auf Kollisionskurs zum Ego-Fahrzeug befindet). Die Auswahl kann dadurch in besonders einfacher Weise vollzogen werden.The movement speed of the object and/or the movement acceleration of the object and/or the movement direction of the object and/or the object type of the object is/are preferably provided as selection parameters. Limit values for the selection parameters can be defined in a simple manner, based on which exceeding or falling below a selection is defined (e.g. an object is selected which is moving at a speed v >= X km/h at a distance a <= 30 m is on a collision course with the ego vehicle). As a result, the selection can be carried out in a particularly simple manner.
Anhand derartiger Auswahlparameter können Objekte auch nach ihrer (potenziellen) Kollisionsgefahr eingestuft werden. Beispielsweise wenn sich das Objekt sehr schnell bewegt oder das Objekt als besonders gefährdet klassifiziert wurde (Fußgänger, Fahrradfahrer, Schienenfahrzeug oder dergleichen).Such selection parameters can also be used to classify objects according to their (potential) risk of collision. For example, if the object is moving very quickly or the object has been classified as particularly endangered (pedestrians, cyclists, rail vehicles or the like).
Vorzugsweise können dann auch nur Objekte ausgewählt werden, die als potenzielle Kollisionsgefahr eingestuft wurden. Die Sicherheit und Bedienbarkeit des Kamerasystems werden dadurch noch zusätzlich verbessert.Preferably only objects can then be selected that have been classified as a potential risk of collision. This further improves the safety and usability of the camera system.
Ferner kann die Distanz zum Objekt bestimmt werden, indem die Bestandteile ausgewählt werden, bei denen anzunehmen ist, dass diese die Bodenebene berühren, d. h. sich in Bodennähe befinden.Furthermore, the distance to the object can be determined by selecting the components that are likely to touch the ground plane, i. H. are close to the ground.
Zweckmäßigerweise kann die Auswahl des Objekts erfolgen, indem zunächst detektierte Bestandteile mit ähnlicher Verschiebung in den sequenziellen Eigenschaften als bewegliches Objekt zusammengefasst werden, d. h. ähnliche detektierte Bewegungsrichtungen, -geschwindigkeit, -positionen und/oder -beschleunigungen werden zu einem Objekt zusammengefasst.Expediently, the selection of the object can be carried out by first combining detected components with a similar shift in the sequential properties as a moving object, i. H. similar detected movement directions, speeds, positions and/or accelerations are combined into one object.
Vorzugsweise ist die Ansicht der Anzeige (bzw. das Display oder der Bildschirm) in eine erste Ansicht, insbesondere eine Top-View-Ansicht, und eine zweite Ansicht, insbesondere eine Bowl-View-Ansicht oder eine Single-View-Ansicht, unterteilt. Ausdrücklich ist die Erfindung nicht auf die genannten Ansichten beschränkt. Vielmehr können jegliche aus dem Stand der Technik bekannte Ansichten vorgesehen sein. Zudem ist eine Unteransicht vorgesehen, welche das Objekt anzeigen kann.The view of the display (or the display or the screen) is preferably divided into a first view, in particular a top view, and a second view, in particular a bowl view or a single view. The invention is expressly not limited to the views mentioned. Rather, any views known from the prior art can be provided. In addition, a bottom view is provided, which can display the object.
In vorteilhafter Weise kann die Unteransicht dazu vorgesehen ist, das Bild bzw. das Rendering-Ergebnis der auf das Objekt gerichteten virtuellen Kamera anzuzeigen. Ferner kann diese Unteransicht auch unsichtbar sein, solange kein herannahendes/gefährdendes Objekt erkannt wurde und erst sichtbar werden, sobald ein derartiges Objekt auftaucht. Hierdurch kann die Aufmerksamkeit des Fahrers noch zusätzlich auf das Objekt gerichtet werden.The bottom view can advantageously be provided to display the image or the rendering result of the virtual camera directed at the object. Furthermore, this bottom view can also be invisible as long as no approaching/threatening object has been detected and only become visible as soon as such an object appears. As a result, the driver's attention can also be directed to the object.
Gemäß einer bevorzugten Ausgestaltung der Erfindung kann das ausgewählte Objekt anhand eines Markers, insbesondere eines Pfeils, in der Anzeige dargestellt werden, wobei der Marker derart konfiguriert ist, zumindest einen Auswahlparameter und/oder eine Objekteigenschaft und/oder die potenzielle Kollisionsgefahr abzubilden. Beispielsweise kann die Pfeilausrichtung die Bewegungsrichtung des Objekts, die Pfeillänge die Bewegungsgeschwindigkeit oder die Beschleunigung des Objekts, die Pfeildicke die Größe des Objekts anzeigen. In einfacher Weise können dadurch die „wichtigsten“ Informationen schnell und ersichtlich dem Fahrer zur Verfügung bzw. visualisiert werden. Darüber hinaus können auch farbliche Ausgestaltungen des Markers (z. B. rot für eine hohe Kollisionsgefahr oder hohe Geschwindigkeit und grün für eine geringe Kollisionsgefahr oder geringe Geschwindigkeit) vorgesehen sein.According to a preferred embodiment of the invention, the selected object can be shown in the display using a marker, in particular an arrow, the marker being configured in such a way that it depicts at least one selection parameter and/or one object property and/or the potential risk of collision. For example, the arrow orientation can indicate the object's direction of movement, the arrow length can indicate the object's movement speed or acceleration, the arrow thickness can indicate the object's size. In this way, the "most important" information can be made available or visualized to the driver quickly and clearly. In addition, colored configurations of the marker (e.g. red for a high risk of collision or high speed and green for a low risk of collision or low speed) can also be provided.
Ferner umfasst die vorliegende Erfindung ein Kamerasystem, insbesondere Surroundview-Kamerasystem, für ein Ego-Fahrzeug, welche eine Steuereinrichtung zum Steuern des Kamerasystems und mehrere Kameras zur Umfelderfassung umfasst. Das Kamerasystem ist dabei derart konfektioniert, dass dieses ein herannahendes Objekt anhand des erfindungsgemäßen Verfahrens erkennen (Schritt 1) und auswählen (Schritt 2) kann, wobei dann die Distanz zwischen Objekt und Ego-Fahrzeug bestimmt wird (Schritt 3), eine virtuelle Kamera, die auf das Objekt gerichtet ist eingerichtet wird (Schritt 4), sodass das Objekt damit erfasst wird und dem Fahrer ausgegeben bzw. angezeigt wird (Schritt 5).Furthermore, the present invention includes a camera system, in particular a surround view camera system, for an ego vehicle, which includes a control device for controlling the camera system and a plurality of cameras for detecting the surroundings. The camera system is configured in such a way that it can recognize (step 1) and select (step 2) an approaching object using the method according to the invention, with the distance between the object and the ego vehicle then being determined (step 3), a virtual camera, which is aimed at the object is set up (step 4) so that the object is detected therewith and is output or displayed to the driver (step 5).
Figurenlistecharacter list
Im Folgenden wird die Erfindung anhand von zweckmäßigen Ausführungsbeispielen näher beschrieben. Es zeigen:
-
1 eine vereinfachte schematische Darstellung eines Ego-Fahrzeuges mit einem erfindungsgemäßen Surroundview-Kamerasystem zur Erzeugung eines Bildes der Fahrzeugumgebung; -
2 eine vereinfachte schematische Darstellung der virtuellen Flächen der Surroundview-Kameras des Ego-Fahrzeuges; -
3 eine vereinfachte schematische Darstellung der (vertikalen) Sichtfelder einer der Surroundview-Kameras und einer virtuellen Kamera; -
4 eine vereinfachte schematische Darstellung einer Verkehrssituation, bei der sich ein Fahrzeug dem Ego-Fahrzeug von hinten annähert; -
5 eine vereinfachte schematische Darstellung von Kamera, Kamerastrahlung, Fahrzeug und Bodenebene sowie den dabei herrschenden geometrischen Beziehungen zueinander, sowie -
6 eine vereinfachte schematische Darstellung einer Ausgestaltung einer Ansicht einer Anzeigevorrichtung mit Top-View-Ansicht, Bowl-View-Ansicht und Unteransicht.
-
1 a simplified schematic representation of an ego vehicle with a surround view camera system according to the invention for generating an image of the vehicle surroundings; -
2 a simplified schematic representation of the virtual surfaces of the surround view cameras of the ego vehicle; -
3 a simplified schematic representation of the (vertical) fields of view of one of the surround view cameras and a virtual camera; -
4 a simplified schematic representation of a traffic situation in which a vehicle approaches the ego vehicle from behind; -
5 a simplified schematic representation of the camera, camera radiation, vehicle and ground level as well as the prevailing geometric relationships to each other, and -
6 a simplified schematic representation of an embodiment of a view of a display device with top view view, bowl view view and bottom view.
Bezugsziffer 1 in
Die Kameras 3a-3d sind dabei Teil eines Surroundview-Kamerasystems, welches vorzugsweise durch die Steuereinrichtung 2 gesteuert wird (alternativ kann z. B. eine eigene Steuerung vorgesehen sein), das eine vollständige 360-Grad-Sicht rund um das gesamte Ego-Fahrzeug 1 bietet, indem die Sichtfelder der einzelnen Surroundview-Kameras, z. B. 120-Grad, zu einer Gesamtsicht bzw. Gesamtbild vereint werden. Durch die einfache Überwachung des toten Winkels besitzt dieses Kamerasystem zahlreiche Vorteile in vielen alltäglichen Situationen. Durch das Surroundview-Kamerasystem können dem Fahrer verschiedene Blickwinkel des Ego-Fahrzeuges 1 z. B. über eine Anzeigeeinheit (in
In
In
Im Anschluss daran können aus den identifizierten Objekten diejenigen ausgewählt werden, die in Richtung der Position Ego-Fahrzeuges 1 ausgerichtet sind, d. h. sich auf „Kollisionskurs“ befinden (Schritt 2). Hierzu werden die Bestandteile mit ähnlicher Verschiebung in den sequenziellen Eigenschaften zusammengefasst, die dann ein bewegliches Objekt bilden. Die Richtung kann dann berechnet werden, indem die Hauptrichtung der gruppierten Bestandteile (Merkmalsblock) in 2D ermittelt wird. Danach kann eine PCA (Principal component analysis) auf die Differenz der Koordinaten der getrackten Bestandteile in der Bilderfolge bzw. Framesequenz in 2D berechnet wird. Der dadurch berechnete 3D-Strahl kann dann in 3D-Koordinaten projiziert werden.Subsequently, those objects can be selected from the identified objects that are aligned in the direction of the position of the
Im nächsten Schritt kann die Distanz zum Objekt bestimmt bzw. berechnet werden, indem die Bestandteile (lower features) ausgewählt werden, bei denen anzunehmen ist, dass diese die Bodenebene berühren (Schritt 3). In diesem Schritt können für die Kamerastrahlen bis zur Bodenebene (bzw. bis zur Kreuzung mit der Bodenebene) die grundlegenden Eigenschaften der Euklidischen Geometrie verwendet werden, wie in
Anschließend kann die virtuelle Kamera eingerichtet und konfiguriert werden, welche auf die erkannten bewegten Objekte zugerichtet ist, die als potenzielle Kollisionsgefahr eingestuft wurden (Schritt 4), wie anhand der mit Bezugsziffer 7a angegeben Richtung der virtuellen Kamera in
In
Ferner kann auch vorgesehen sein, dass die Gefahr einer Kollision durch einen automatischen Eingriff eines Fahrerassistenzsystems, wie z. B. eine Notbremsung, eine Beschleunigung oder ein Lenkeingriff, abgewendet wird, wenn eine Reaktion des Fahrers auch nach angezeigter Warnung bzw. Information an der Anzeige 10 bzw. Anzeigevorrichtung ausbleibt. Darüber hinaus können auch zusätzliche optische, akustische oder haptische Warnungen vorgesehen sein, um den Fahrer noch zusätzlich auf herannahende Objekte außerhalb des Sichtbereichs des Fahrers aufmerksam zu machen.Furthermore, it can also be provided that the risk of a collision is reduced by an automatic intervention of a driver assistance system, such as B. emergency braking, acceleration or a steering intervention, is averted if there is no reaction from the driver even after a warning or information has been displayed on the
BezugszeichenlisteReference List
- 11
- Ego-Fahrzeugego vehicle
- 22
- Steuereinrichtungcontrol device
- 3a-3d3a-3d
- Kameracamera
- 44
- Kamerasensorcamera sensor
- 55
- Lidarsensorlidar sensor
- 6a-6d6a-6d
- virtuelle Flächevirtual surface
- 77
- virtuelle Kameravirtual camera
- 7a7a
-
Richtung der virtuellen Kamera 7Direction of the
virtual camera 7 - 88th
- Bodenebeneground level
- 99
- Fahrzeugvehicle
- 1010
- AnzeigeAdvertisement
- 1111
- Top-View-AnsichtTop view view
- 1212
- Bowl-View-AnsichtBowl view view
- 1313
- Unteransichtbottom view
- 1414
- Objektobject
- 1515
- PfeilArrow
ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents cited by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturPatent Literature Cited
- WO 2013/109869 A1 [0005]WO 2013/109869 A1 [0005]
Claims (10)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102020213147.3A DE102020213147A1 (en) | 2020-10-19 | 2020-10-19 | Method for a camera system and camera system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102020213147.3A DE102020213147A1 (en) | 2020-10-19 | 2020-10-19 | Method for a camera system and camera system |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102020213147A1 true DE102020213147A1 (en) | 2022-04-21 |
Family
ID=80929351
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102020213147.3A Pending DE102020213147A1 (en) | 2020-10-19 | 2020-10-19 | Method for a camera system and camera system |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102020213147A1 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102010010912A1 (en) | 2010-03-10 | 2010-12-02 | Daimler Ag | Driver assistance device for vehicle, has sensor unit for detecting object in surrounding of vehicle and display unit for optical representation of detected object by sensor unit to schematic top view of vehicle |
US20110032357A1 (en) | 2008-05-29 | 2011-02-10 | Fujitsu Limited | Vehicle image processing apparatus and vehicle image processing method |
DE102010042063A1 (en) | 2010-10-06 | 2012-01-19 | Robert Bosch Gmbh | Method for determining conditioned image data about environment of motor car, involves conditioning position-related image with symbol to determine conditioned image data, where symbol is assigned to classified object in image |
WO2013109869A1 (en) | 2012-01-20 | 2013-07-25 | Magna Electronics, Inc. | Vehicle vision system with free positional virtual panoramic view |
-
2020
- 2020-10-19 DE DE102020213147.3A patent/DE102020213147A1/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110032357A1 (en) | 2008-05-29 | 2011-02-10 | Fujitsu Limited | Vehicle image processing apparatus and vehicle image processing method |
DE102010010912A1 (en) | 2010-03-10 | 2010-12-02 | Daimler Ag | Driver assistance device for vehicle, has sensor unit for detecting object in surrounding of vehicle and display unit for optical representation of detected object by sensor unit to schematic top view of vehicle |
DE102010042063A1 (en) | 2010-10-06 | 2012-01-19 | Robert Bosch Gmbh | Method for determining conditioned image data about environment of motor car, involves conditioning position-related image with symbol to determine conditioned image data, where symbol is assigned to classified object in image |
WO2013109869A1 (en) | 2012-01-20 | 2013-07-25 | Magna Electronics, Inc. | Vehicle vision system with free positional virtual panoramic view |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3426535B1 (en) | Method for operating a driver assistance system, and driver assistance system | |
DE102005054972A1 (en) | Motor vehicle`s dead angle monitoring method, involves accomplishing checking of whether lanes change is accomplished based on infrastructure of traffic before warning, where driver warning is omitted if result of checking is not possible | |
DE102016210254A9 (en) | VEHICLE VENTILATION AT CROSSINGS ON THE BASIS OF VISUAL VENTILATION POINTS, STATIONARY OBJECTS AND BY GPS | |
DE102018204254A1 (en) | Method for calculating a display of additional information for a display on a display unit, device for carrying out the method and motor vehicle and computer program | |
EP3488607B1 (en) | Camera device for recording an environmental area of a vehicle, and method for providing a driver assistance function | |
DE102009020328A1 (en) | A method for displaying differently well visible objects from the environment of a vehicle on the display of a display device | |
DE112010001354T5 (en) | Bewegungsstrajektoriengenerator | |
DE102016213494A1 (en) | Camera apparatus and method for detecting a surrounding area of own vehicle | |
EP1642770B1 (en) | Method for directing a vehicle driver's attention to objects in an image | |
DE102013205882A1 (en) | Method and device for guiding a vehicle around an object | |
DE102013213039A1 (en) | Assistance system and assistance method for assisting in the control of a motor vehicle | |
DE102005046756B4 (en) | Method and device for displaying information of an automatic distance control | |
DE102013010818A1 (en) | Method for inserting textures in road surface diagram and/or in view field of driver of vehicle, involves determining a situation in front of vehicle road surface and inserting textures in determined road surface on display device | |
EP2023265A1 (en) | Method for recognising an object | |
DE102018203121A1 (en) | Method for calculating an AR display of additional information for a display on a display unit, device for carrying out the method and motor vehicle and computer program | |
DE102014111012A1 (en) | A method for assisting a driver of a motor vehicle when parking out, driver assistance system and motor vehicle | |
WO2019057452A1 (en) | Method, device and computer-readable storage medium with instructions for controlling a display of an augmented-reality head-up display device for a motor vehicle | |
DE102017223439B4 (en) | Warning device against dangerous situations for a motor vehicle | |
EP3327698A1 (en) | Method for assisting a driver of a motor vehicle when parking the motor vehicle in a parking lot, driver assistance system and motor vehicle | |
EP3385932B1 (en) | Technology for issuing vehicle messages | |
DE102013214631A1 (en) | Efficient provision of occupancy information for the environment of a vehicle | |
DE102016107421A1 (en) | Method for displaying surrounding areas, which can not be detected by a detection device, in the surroundings of a motor vehicle, driver assistance system and motor vehicle | |
DE102007017293A1 (en) | Evaluation device for use in motor vehicle, has determination unit determining roadway limits using both image information captured by black-and-white camera and color camera which is aligned in rear side of vehicle | |
DE102020213147A1 (en) | Method for a camera system and camera system | |
EP2136333A2 (en) | Image data processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R163 | Identified publications notified | ||
R081 | Change of applicant/patentee |
Owner name: CONTINENTAL AUTONOMOUS MOBILITY GERMANY GMBH, DE Free format text: FORMER OWNER: CONTINENTAL AUTOMOTIVE GMBH, 30165 HANNOVER, DE |
|
R012 | Request for examination validly filed |