DE102019219144A1 - Verfahren und System zur Bildauswertung für eine Objekterkennung in der Umgebung von Fahrzeugen - Google Patents

Verfahren und System zur Bildauswertung für eine Objekterkennung in der Umgebung von Fahrzeugen Download PDF

Info

Publication number
DE102019219144A1
DE102019219144A1 DE102019219144.4A DE102019219144A DE102019219144A1 DE 102019219144 A1 DE102019219144 A1 DE 102019219144A1 DE 102019219144 A DE102019219144 A DE 102019219144A DE 102019219144 A1 DE102019219144 A1 DE 102019219144A1
Authority
DE
Germany
Prior art keywords
vehicle
par
server
parameters
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102019219144.4A
Other languages
English (en)
Inventor
Roland Ziegler
Günter Seidel
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Continental Automotive Technologies GmbH
Original Assignee
Continental Automotive GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Continental Automotive GmbH filed Critical Continental Automotive GmbH
Priority to DE102019219144.4A priority Critical patent/DE102019219144A1/de
Publication of DE102019219144A1 publication Critical patent/DE102019219144A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Auswerten eines Bildes (34) einer Umgebung (12) eines Fahrzeuges (10) unter Verwendung eines basierend auf vorgegebenen Parametern (PAR) arbeitenden Objekterkennungsalgorithmus (32), um anhand des Bildes (34) Objekte (20) in der Umgebung (12) des Fahrzeuges (10) zu erkennen. Um hierbei die Zuverlässigkeit und Qualität der Erkennung von Objekten (20) zu verbessern, ist erfindungsgemäß vorgesehen, dass die Parameter (PAR) in Abhängigkeit von einer geografischen Position (POS) des Fahrzeuges (10) vorgegeben werden. Die Erfindung schlägt ferner ein System (100) zum Auswerten jeweiliger Bilder (34) von jeweiligen Umgebungen (12) einer Vielzahl von Fahrzeugen (10-1, 10-2, ...) vor, um jeweilige Objekte (20) in der jeweiligen Umgebung (12) der Fahrzeuge (10-1, 10-2, ...) zu erkennen.

Description

  • Die vorliegende Erfindung betrifft den Bereich der Objekterkennung in der Umgebung von Fahrzeugen, und insbesondere ein Verfahren zum Auswerten eines Bildes einer Umgebung eines Fahrzeuges, wobei ein basierend auf vorgegebenen Parametern arbeitender Objekterkennungsalgorithmus verwendet wird, um anhand des Bildes Objekte in der Umgebung des Fahrzeuges zu erkennen. Ferner betrifft die Erfindung ein System zum Auswerten jeweiliger Bilder von jeweiligen Umgebungen einer Vielzahl von Fahrzeugen, um anhand der jeweiligen Bilder jeweilige Objekte in der jeweiligen Umgebung der Fahrzeuge zu erkennen.
  • An Bord von Fahrzeugen durchgeführte Verfahren zur Bildauswertung sind in vielfältigen Ausführungen aus dem Stand der Technik bekannt und gewinnen insbesondere im Bereich der Automobiltechnik für Straßenkraftfahrzeuge zunehmend an Bedeutung, etwa bei der Realisierung und Verbesserung von Komfortfunktionen (z. B. Einparkhilfe, Abstandstempomat, Spurhalteassistent, automatische Verkehrszeichenerkennung etc.) oder Sicherheitsfunktionen (z. B. Hinderniserkennung etc.).
  • Besonders hohe Anforderungen an die Zuverlässigkeit und Qualität einer mit derartigen Bildauswertungsverfahren bewerkstelligten Objekterkennung ergeben sich z. B. für autonom fahrende Fahrzeuge, bei denen Steuerungsvorgänge wie Lenken, Beschleunigen und Verzögern teilweise oder vollständig automatisiert durchgeführt werden.
  • Das Bild der Umgebung des Fahrzeuges kann z. B. mittels wenigstens einer am Fahrzeug angeordneten Videokamera aufgenommen werden, die z. B. im sichtbaren Spektralbereich sensitiv ist und digitale Repräsentationen (Bilddaten) an eine digitale elektronische Auswerteeinrichtung an Bord des Fahrzeuges liefert, in welcher der Objekterkennungsalgorithmus abläuft, um Objekte (z. B. Fahrbahnmarkierungen, Verkehrszeichen, andere Fahrzeuge, Fußgänger etc.) zu erkennen.
  • Aus dem Stand der Technik sind hierfür geeignete, basierend auf vorgegebenen Parametern (Algorithmusparametern) arbeitende Objekterkennungsalgorithmen in vielfältigen Ausgestaltungen bekannt.
  • Insbesondere vor dem Hintergrund des in vielen Anwendungsfällen bestehenden Erfordernisses einer sehr rasch durchzuführenden Bildauswertung (in „Echtzeit“) bei gleichzeitig begrenzt zur Verfügung stehender Rechenkapazität in einer Auswerteeinrichtung ist es grundsätzlich eine große Herausforderung, die Objekterkennung mit hoher Zuverlässigkeit und Qualität zu bewerkstelligen, d. h. beispielsweise tatsächlich vorhandene Objekte einer bestimmten Art (z. B. vorausfahrende Fahrzeuge) zuverlässig als solche zu erkennen und gleichzeitig fehlerhafte Erkennungen bestimmter Objekte, die tatsächlich gar nicht vorhanden sind (oder tatsächlich andersartige Objekte darstellen), möglichst zu vermeiden.
  • Eine gewisse Verbesserung in dieser Hinsicht wurde bereits durch den Einsatz von so genannter künstlicher Intelligenz (KI) erzielt, d. h. dem Einsatz von selbstlernenden und/oder dediziert trainierten Objekterkennungsalgorithmen, die mit Hilfe von Referenzobjekten (von bevorzugt großer Anzahl) trainiert wurden mit dem Ziel, eine möglichst hohe Rate an korrekten Objekterkennungen zu erreichen.
  • Entsprechende Trainingsdaten können z. B. durch Testfahrten mit einem Fahrzeug ermittelt und im Nachgang dem Objekterkennungsalgorithmus als Trainingsdaten zur Verfügung gestellt werden.
  • Zur praktischen Implementierung von KI kann z. B. ein künstliches neuronales Netzwerk mit einer Vielzahl von Neuronen und Verbindungen zwischen diesen Neuronen verwendet werden, wobei in diesem Fall die Parameter des Objekterkennungsalgorithmus durch Charakteristika (z. B. Gewichtungen) letzterer Verbindungen zwischen Neuronen gegeben sind.
  • Dennoch besteht auch beim Einsatz von KI noch Verbesserungsbedarf hinsichtlich der Zuverlässigkeit und Qualität der Objekterkennung.
  • Es ist eine Aufgabe der vorliegenden Erfindung, einen neuartigen Weg aufzuzeigen, mit dem die Zuverlässigkeit und Qualität einer Erkennung von Objekten in der Umgebung von Fahrzeugen mittels einer Bildauswertung der eingangs genannten Art weiter verbessert werden kann.
  • Gemäß eines ersten Aspekts der Erfindung wird diese Aufgabe bei einem Verfahren der eingangs genannten Art dadurch gelöst, dass die Parameter des Objekterkennungsalgorithmus in Abhängigkeit von einer geografischen Position des Fahrzeuges vorgegeben werden.
  • Damit können beim Auswerten des Bildes vorteilhaft hinsichtlich der Objekterkennung relevante, jedoch nicht aus dem Bild als solchem ableitbare Informationen genutzt werden, um in der Praxis die Objekterkennung deutlich zu verbessern. Der Erfindung liegt hierbei die Erkenntnis zugrunde, dass insbesondere z. B. Auftretenswahrscheinlichkeiten von Objekten in der Praxis ortsabhängig sind und somit die Information über die geografische Position des Fahrzeuges nutzbringend zur Verbesserung der Objekterkennung eingesetzt werden kann.
  • Beispielsweise ist die Wahrscheinlichkeit des Auftretens eines Traktors in einer ländlichen Gegend größer als in einem Zentrum einer Großstadt, die Wahrscheinlichkeit des Auftretens von kleinen Personen (Kindern) in der Nähe eines Spielplatzes größer als weiter entfernt davon, usw. Durch eine gezielte Vorgabe der Algorithmusparameter in Abhängigkeit von der geografischen Position können derartige Korrelationen im Rahmen der Objekterkennung vorteilhaft genutzt werden, um Zuverlässigkeit und Qualität der Objekterkennung zu verbessern.
  • Das Bild der Umgebung des Fahrzeuges kann z. B. mittels einer im Fahrzeug vorgesehenen Bildaufnahmeeinrichtung aufgenommen werden, wobei die Bildaufnahmeeinrichtung hierfür z. B. eine oder mehrere am Fahrzeug angeordnete Videokameras aufweisen kann. Jede solche Videokamera kann z. B. im sichtbaren Spektralbereich sensitiv sein. Alternativ oder zusätzlich kann zur Aufnahme des Bildes auch z. B. wenigstens eine IR-sensitive Kamera vorgesehen sein. Die Bildaufnahmeeinrichtung kann das Bild (bzw. Videobildsequenzen) z. B. als digitale Repräsentationen (Bilddaten) an eine digitale elektronische Auswerteeinrichtung liefern, in welcher der Objekterkennungsalgorithmus abläuft. Alternativ oder zusätzlich zu einer Videokamera kann die Bildaufnahmeeinrichtung auch andere Sensoren wie insbesondere z. B. ein Lidarsystem und/oder ein Radarsystem aufweisen, die ebenfalls an Bord des Fahrzeuges angeordnet sein können. Im Rahmen der Erfindung kann darüber hinaus vorgesehen sein, dass zur Gewinnung von das Bild repräsentierenden Bilddaten auch außerhalb des Fahrzeuges angeordnete bzw. befindliche Sensoren genutzt werden (z. B. in anderen Fahrzeugen angeordnete Sensoreinrichtungen), deren Daten z. B. via Telekommunikation (z. B. „V2x“) zur Auswerteeinrichtung übertragen werden.
  • In einer Ausführungsform ist der Objekterkennungsalgorithmus dazu ausgebildet, vorbestimmten Arten von Objekten jeweilige Auftretenswahrscheinlichkeiten zuzuordnen und für das Erkennen von Objekten zu berücksichtigen, wobei diese Auftretenswahrscheinlichkeiten durch die vorgegebenen Parameter bestimmt (d. h. zumindest mitbestimmt oder davon beeinflußt) werden. Falls z. B. während der Vorgabe eines „normalen“ Satzes bestimmter Parameter dem Auftreten einer Objektart „Ball (z. B. Fußball)“ und einer Objektart „Plastiktüte“ gleiche Auftretenswahrscheinlichkeiten zugeordnet sind und der Algorithmus dann nach „objektiven“, d. h. nur auf der Bildinformation des Bildes beruhenden Kriterien eine Entscheidung (z. B. zugunsten „Ball“) trifft, so könnte durch Vorgabe eines anderen Satzes von Parametern aufgrund von damit geänderten zugeordneten Auftretenswahrscheinlichkeiten die Entscheidung in der ansonsten gleichen Situation auch zugunsten der anderen Objektart (Platiktüte) oder auch z. B. zugunsten einer ganz anderen Objektart (z. B. „Tier“) getroffen werden.
  • Die vorbestimmten Arten von Objekten können z. B. gemäß einer Klassifizierung von grundsätzlich möglichen Objekten in der Umgebung eines Fahrzeuges definiert sein.
  • Die vorbestimmten Arten von Objekten können z. B. wenigstens eine Objektart umfassen, die ausgewählt ist aus der Gruppe bestehend aus Fahrbahnbegrenzung, Fahrbahnmarkierung, Verkehrszeichen, Lichtzeichenanlage, Fahrzeug, Person.
  • Die Arten von Objekten können dem jeweiligen konkreten Anwendungsfall angepasst definiert sein, und beispielsweise könnte alternativ oder zusätzlich zu einer eher grob definierten Objektart wie z. B. „Fahrzeug“ auch eine feinere Klassifizierung z. B. basierend auf der Art von Fahrzeug vorgenommen werden, resultierend beispielsweise in aussagekräftigeren Objektarten wie PKW, LKW, Motorrad, Motorroller, Fahrrad, Fahrrad mit Anhänger, Tretroller etc. In analoger Weise könnten auch andere, eher grob definierte Objektarten (wie z. B. jede der vorstehend bereits genannten Objektarten) jeweils feiner klassifiziert sein. Bei der Objektart „Person“ könnte z. B. zwischen „große Person“ (Erwachsener) und „kleine Person“ (Kind) und bei der Objektart „Verkehrszeichen“ könnte z. B. zwischen Verkehrszeichen betreffend ruhenden Verkehr und Verkehrszeichen betreffend fahrenden Verkehr unterschieden werden, usw.
  • Vorteilhaft können mit der Erfindung von der geografischen Position abhängige Auftretenswahrscheinlichkeiten bei der Objekterkennung vom Objekterkennungsalgorithmus insbesondere z. B. in Zweifelsfällen bei der Entscheidungsfindung mitberücksichtigt werden.
  • Beispielsweise könnte somit z. B. für eine geografische Position in einer sehr ländlichen Gegend eine Auftretenswahrscheinlichkeit für landwirtschaftliche Fahrzeuge (z. B. Traktoren etc.) größer und z. B. eine Auftretenswahrscheinlichkeit für Tretroller kleiner angenommen werden als die jeweiligen Auftretenswahrscheinlichkeiten an geografischen Positionen, die innerhalb einer Stadt liegen.
  • Die dem Objekterkennungsalgorithmus vorzugebenden Parameter können vorteilhaft die Entscheidungsfindung des Objekterkennungsalgorithmus in Richtung einer zuverlässigeren und präziseren Objekterkennung beeinflussen.
  • In einer Ausführungsform weist das Verfahren ferner folgende Schritte auf:
    • - Übermitteln von Anpassungsdaten von einem Server an eine den Objekterkennungsalgorithmus durchführende Auswerteeinrichtung, wobei die Anpassungsdaten von dem Server basierend auf der geografischen Position des Fahrzeuges und basierend auf in dem Server für ein bestimmtes geografisches Gebiet gespeicherten positionsabhängigen Umgebungsdaten ermittelt wurden, und
    • - Anpassen der Parameter für den Objekterkennungsalgorithmus basierend auf den von dem Server an die Auswerteeinrichtung übermittelten Anpassungsdaten.
  • Der Begriff „Server“ ist im Sinne der Erfindung breit zu verstehen als eine Einrichtung, in welcher positionsabhängige Umgebungsdaten gespeichert sind und welche für vorgegebene geografische Positionen (des Fahrzeuges) entsprechende Anpassungsdaten ermitteln kann. Bei dem Server kann es sich insbesondere um einen zentralen Server (z. B. stationäres Rechenzentrum, einschließlich Cloud-basierter Server) handeln, der die genannten Anpassungsdaten für eine Vielzahl von Fahrzeugen bereitstellt. Alternativ kann der Server jedoch auch ganz oder teilweise im Fahrzeug angeordnet sein, beispielsweise implementiert als ein funktionaler Bestandteil einer im Fahrzeug angeordneten Auswerteeinrichtung. Insbesondere für Anwendungen der Erfindung mit begrenzter (kleinerer) geografischer Ausdehnung können die Umgebungsdaten auch an Bord des Fahrzeuges vorgehalten werden und z. B. von Zeit zu Zeit über eine Telekommunikationsverbindung (Mobilfunk, mobiler Internatanschluss etc.) aktualisiert werden.
  • Das geografische Gebiet, für das im Server die positionsabhängigen Umgebungsdaten gespeichert sind, besitzt bevorzugt eine Größe von mindestens 100 km2, weiter bevorzugt mindestens 10.000 km2, oder sogar noch mehr, und kann z. B. das Territorium eines bestimmten Staates (Deutschland, USA, China etc.) oder das Territorium eines Staatenverbunds (z. B. Europäische Union etc.) umfassen oder durch ein solches begrenzt sein.
  • In einer Ausführungsvariante stellen die Umgebungsdaten als solche bereits die Anpassungsdaten dar oder beinhalten die Anpassungsdaten, so dass die Ermittlung der an die Auswerteeinrichtung zu übermittelnden Anpassungsdaten dann z. B. durch ein Auswählen einer speziellen Teilmenge der Umgebungsdaten, nämlich entsprechend der geografischen Position des betreffenden Fahrzeuges, aus den im Server insgesamt gespeicherten Umgebungsdaten realisiert werden kann.
  • Alternativ oder zusätzlich kann in dem Server jedoch auch z. B. ein Ermittlungsalgorithmus verwendet werden, mittels welchem basierend auf der geografischen Position des Fahrzeuges aus der Gesamtheit der positionsabhängigen Umgebungsdaten für das Fahrzeug relevante Umgebungsdaten ausgewählt und zur Bildung der für das Fahrzeug relevanten Anpassungsdaten noch weiterverarbeitet werden. Der Server kann hierbei z. B. als eine vollständig externe Einrichtung (außerhalb des Fahrzeuges) implementiert sein, oder aber vollständig oder zumindest teilweise durch eine im Fahrzeug angeordnete Einrichtung mit entsprechender Speicher- und Rechenkapazität (z. B. als funktionaler Bestandteil einer Auswerteeinrichtung an Bord des Fahrzeuges) implementiert sein.
  • Beispielsweise könnten die Umgebungsdaten hierbei z. B. eher allgemeinere Merkmale einer betreffenden Umgebung (z. B. „ländliche Gegend“, „Stadtgebiet“, „Innenstadtgebiet“, „Spielplatznähe“ etc.) spezifizieren, welche dann durch den Ermittlungsalgorithmus zur Bildung der betreffenden konkreten Anpassungsdaten herangezogen werden. Die Anpassungsdaten können dann z. B. konkrete Spezifikationen der Parametervorgabe für den Objekterkennungsalgorithmus beinhalten und/oder insbesondere z. B. diese Parameter als solche (oder zumindest einen anzupassenden Teil der Parameter) beinhalten.
  • In einer Weiterbildung weist das Verfahren ferner folgende Schritte auf:
    • - Erfassen der geografischen Position des Fahrzeuges, und
    • - Übermitteln der erfassten geografischen Position des Fahrzeuges an den Server.
  • Das Erfassen der geografischen Position des Fahrzeuges kann insbesondere z. B. mittels einer in dem Fahrzeug angeordneten Ortungseinrichtung erfolgen. Insbesondere kann zum Erfassen der geografischen Position des Fahrzeuges eine satellitengestützte Ortung des Fahrzeuges vorgesehen sein, etwa unter Verwendung einer in dem Fahrzeug angeordneten GPS-Empfangseinrichtung.
  • Das Übermitteln der erfassten geografischen Position des Fahrzeuges kann z. B. unter Verwendung eines Mobilfunknetzes und z. B. unter Nutzung einer (oftmals ohnehin vorhandenen) Internetanbindung des Fahrzeuges erfolgen.
  • In einer Ausführungsform ist zumindest eine Komponente der Auswerteeinrichtung, oder z. B. die gesamte Auswerteeinrichtung, in dem Fahrzeug angeordnet, wobei in diesem Fall das Übermitteln der Anpassungsdaten von dem Server an das Fahrzeug bzw. an diese Komponente der Auswerteeinrichtung durch ein so genanntes Geocasting der Anpassungsdaten an innerhalb des geografischen Gebiets befindliche Fahrzeuge realisiert sein kann.
  • Beim Geocasting werden bestimmte Daten, hier z. B. die für ein bestimmtes Fahrzeug vorgesehenen Anpassungsdaten, an Empfänger innerhalb eines räumlich abgegrenzten geografischen Gebiets übermittelt.
  • Bei dieser Ausführungsvariante der Erfindung kann das räumlich abgegrenzte Gebiet z. B. eine Größe von bevorzugt mindestens 0,01 km2, insbesondere mindestens 0,05 km2 und/oder maximal z. B. 5 km2, insbesondere maximal 1 km2 besitzen.
  • Zu bedenken ist (z. B. beim Einsatz von Geocasting), dass die Anpassungsdaten umso relevanter bzw. nutzbringender gebildet und an Fahrzeuge übermittelt werden können, je kleiner räumlich abgegrenzte Gebiete gewählt werden, denen (z. B. im Rahmen eines Geocasting) jeweils bestimmte (identische) Anpassungsdaten zugeordnet sind. Daraus ergibt sich in der Praxis z. B. eine zweckmäßige Maximalausdehnung dieser einzelnen Gebiete, um einen hohen Nutzen der Anpassungsdaten zu gewährleisten. Andererseits kann aber auch eine bestimmte Minimalausdehnung dieser Gebiete zweckmäßig sein, z. B. einerseits deshalb, weil sich Auftretenswahrscheinlichkeiten von Objekten auf sehr kleinen Wegstrecken (z. B. über eine Fahrstrecke von etwa 100 m) in der Praxis ohnehin eher unmerklich ändern, und andererseits weil mit abnehmender Größe des Gebiets der Aufwand für die Kommunikation der Anpassungsdaten an die z. B. im Fahrzeug angeordnete Auswerteeinrichtung entsprechend zunimmt, insbesondere wenn das Fahrzeug sich relativ schnell bewegt.
  • In einer Ausführungsform repräsentieren die in dem Server gespeicherten positionsabhängigen Umgebungsdaten Merkmale in einem Bereich um die betreffende geografische Position und/oder den vorbestimmten Arten von Objekten in diesem Bereich zuzuordnende Auftretenswahrscheinlichkeiten.
  • Wie oben bereits beispielhaft erläutert, können von den Umgebungsdaten repräsentierte Merkmale z. B. spezifizieren, ob es sich um eine ländliche Gegend oder um eine städtische Gegend handelt, wobei z. B. eine derartige Klassifikation einer die geografische Position beinhaltenden Umgebung auch verfeinert vorgesehen sein kann. Bei der ländlichen Gegend könnte z. B. nach „Autobahn- bzw. Schnellstraßenbereich in ländlicher Gegend“ und „durch Landstraßen und/oder kleinere Dörfer geprägte ländliche Gegend“ unterschieden werden. Insbesondere können die positionsabhängigen Umgebungsdaten z. B. quantitative Angaben zum jeweiligen Ausmaß des Vorliegens von vorbestimmten Merkmalen enthalten.
  • In einer Ausführungsform umfassen die Merkmale das Vorhandensein vorbestimmter Arten von Bauwerken, insbesondere Gebäuden, in dem Bereich um die betreffende geografische Position. Insbesondere können diese Arten z. B. jeweils durch einen bestimmten Nutzungszweck des Bauwerkes bzw. Gebäudes definiert sein.
  • Bauwerke, insbesondere Gebäude, werden stets zu einem bestimmten Nutzungszweck errichtet, und das Vorhandensein bestimmter Arten von Bauwerken im Bereich um die betreffende geografische Position kann insbesondere abhängig vom Nutzungszweck großen Einfluss auf die Auftretenswahrscheinlichkeiten vorbestimmter Arten von Objekten besitzen. So ist z. B. in der Umgebung von Spielplätzen, Kindergärten und Grundschulen die Auftretenswahrscheinlichkeit von Kindern entsprechend vergrößert. Analog dazu ist z. B. in der Umgebung größerer Einkaufszentren die Auftretenswahrscheinlichkeit von Personen mit (großen) Einkaufstaschen etc. vergrößert.
  • Die vorstehenden Beispiele verdeutlichen auch eine in der Praxis oftmals gegebene Abhängigkeit der Auftretenswahrscheinlichkeiten von Objekten in Abhängigkeit von der Zeit (z. B. Jahreszeit, Wochentag und/oder Tageszeit). Für Kindergärten und Grundschulen etc. ergeben sich z. B. jahreszeitliche Schwankungen (wegen Ferienzeiten) und Wochentag-abhängige Schwankungen (wegen Wochenenden und Feiertagen) und Tageszeit-abhängige Schwankungen (wegen typischen Beginn- und Ende-Uhrzeiten).
  • Auch derartige Abhängigkeiten können im Rahmen der Erfindung vorteilhaft berücksichtigt werden, beispielsweise indem die dem Objekterkennungsalgorithmus vorzugebenden Parameter in Abhängigkeit von der Zeit vorgegeben werden (zusätzlich zur Abhängigkeit von der geografischen Position des Fahrzeuges). Vorteilhaft lässt sich auch damit eine „zeitliche Komponente“ der Umgebung des Fahrzeuges berücksichtigen. Dem Objekterkennungsalgorithmus können die Parameter in Abhängigkeit von derjenigen Zeit vorgegeben werden, zu der das betreffende Bild aufgenommen wurde (und zu der dementsprechend bevorzugt („in Echtzeit“) auch die Bildauswertung zur Objekterkennung durchgeführt wird).
  • Bei der bereits erläuterten Ausführungsform mit Übermittlung von Anpassungsdaten von einem Server an eine den Objekterkennungsalgorithmus durchführende Auswerteeinrichtung kann dies vorteilhaft z. B. im Rahmen der seitens des Servers durchgeführten Ermittlung der Anpassungsdaten basierend auf den gespeicherten Umgebungsdaten realisiert werden.
  • In einer Ausführungsvariante hierzu beinhalten die gespeicherten Umgebungsdaten bereits wenigstens eine derartige Zeitabhängigkeit eines Merkmals und/oder einer Auftretenswahrscheinlichkeit, so dass diese Zeitabhängigkeit sich auch in den Anpassungsdaten und somit den vorzugebenden Parametern widerspiegelt. Hierzu kann z. B. vorgesehen sein, dass die im Server gespeicherten Umgebungsdaten fortlaufend aktualisiert werden (so dass die Anpassungsdaten zeitabhängig sind).
  • In einer Ausführungsform umfassen die Merkmale das Vorhandensein vorbestimmter Arten von temporären Ereignissen, insbesondere Veranstaltungen, in dem Bereich um die betreffende geografische Position, insbesondere wobei diese Arten jeweils durch einen bestimmten Zweck des Ereignisses definiert sind.
  • Damit können vorteilhaft insbesondere auch unabhängig von dem Vorhandensein vorbestimmter Arten von Bauwerken bzw. Gebäuden im Bereich um die betreffende geografische Position weitere, insbesondere einmalige und/oder relativ kurzzeitige Einflüsse auf die Auftretenswahrscheinlichkeiten von Objekten bei der Objekterkennung berücksichtigt werden (z. B. temporäre Baumaßnahmen, sportliche, kulturelle oder politische Veranstaltungen, Verkehrsunfälle etc.).
  • In einer Ausführungsform wurden die den vorbestimmten Arten von Objekten in dem Bereich um die betreffende geografische Position zuzuordnenden Auftretenswahrscheinlichkeiten empirisch ermittelt.
  • Diese empirische Ermittlung kann insbesondere durch z. B. systematisch geplante und durchgeführte Testfahrten mit einem Fahrzeug erfolgen, wobei für eine Mehrzahl von vorbestimmten Arten von Objekten jeweilige positionsabhängige und/oder zeitabhängige Auftretenswahrscheinlichkeiten ermittelt werden können.
  • Nochmals zurückkommend auf die bereits erläuterte Möglichkeit, in einem Server positionsabhängige Umgebungsdaten zu speichern, so kann hierfür z. B. vorgesehen sein, das betreffende (zweckmäßigerweise relativ große) geografische Gebiet mittels eines (gedachten) Rasters, insbesondere z. B. regelmäßigen Rasters, z. B. eines quadratischen Rasters oder eines hexagonalen Rasters, in eine Vielzahl von einzelnen Rastergebieten (z. B. Quadrate oder Sechsecke) aufzuteilen und jeweils konstante Umgebungsdaten innerhalb jedes Rastergebiets vorzusehen. Die Ermittlung der Anpassungsdaten für ein bestimmtes Fahrzeug kann dann z. B. so erfolgen, dass hierfür diejenigen Umgebungsdaten herangezogen werden, die für dasjenige Rastergebiet gespeichert sind, innerhalb dessen sich die geografische Position des Fahrzeuges befindet. Alternativ zu einer ausschließlichen Heranziehung dieser Umgebungsdaten kann jedoch auch z. B. vorgesehen sein, beim Ermitteln der Anpassungsdaten eine Interpolation der heranzuziehenden Umgebungsdaten und/oder der zu übermittelnden Anpassungsdaten vorzunehmen, wofür dann die Umgebungsdaten z. B. von mehreren Rastergebieten (einschließlich des Rastergebiets, indem sich das Fahrzeug befindet) herangezogen werden können. Bei einer derartigen Interpolation können (z. B. zur Realisierung einer gewichteten Interpolation) insbesondere z. B. die Abstände der geografischen Position des Fahrzeuges zu den im betreffenden Raster benachbarten Rastergebieten berücksichtigt werden (Je kleiner dieser Abstand, desto größer das „Gewicht“ der für das betreffende Rastergebiet gespeicherten bzw. ermittelten Daten).
  • In einer Ausführungsform weist der Objekterkennungsalgorithmus auf:
    • - einen ersten Algorithmusteil, der dazu ausgebildet ist, anhand des Bildes eine vorläufige Erkennung der Objekte in der Umgebung des Fahrzeuges durchzuführen,
    • - einen zweiten Algorithmusteil, der dazu ausgebildet ist, basierend auf den vorgegebenen Parametern das Ergebnis der vorläufigen Erkennung der Objekte in der Umgebung des Fahrzeuges zu korrigieren.
  • Die von dem ersten Algorithmusteil durchgeführte vorläufige Erkennung der Objekte kann z. B. jedes „vorläufig erkannte“ Objekt durch eine quantitative „Objektwahrscheinlichkeit“ spezifizieren, welche einen Grad an Sicherheit (Richtigkeit) der Erkennung des betreffenden Objekts angibt, wobei die von dem zweiten Algorithmusteil durchgeführte Korrektur z. B. für jedes vorläufig erkannte Objekt diese quantitative Angabe basierend auf der für die betreffende Art von Objekt zugeordnete Auftretenswahrscheinlichkeit korrigiert (z. B. durch Multiplikation mit einem entsprechenden Korrekturfaktor). Sodann kann z. B. bei Überschreiten eines vorbestimmten Schwellwerts durch das korrigierte quantitative Ausmaß die jeweilige vorläufige Objekterkennung bestätigt (oder bei Unterschreiten dieses Schwellwerts widerrufen) werden.
  • In einer Weiterbildung dieser Ausführungsform weist der erste Algorithmusteil ein basierend auf durch Training ermittelten KI-Parametern arbeitendes KI-Modul auf.
  • Das KI-Modul kann insbesondere z. B. ein künstliches neuronales Netz mit einer Vielzahl von Neuronen und Verbindungen zwischen den Neuronen umfassen, wobei letztere Verbindungen jeweils durch Gewichtungsfaktoren (oder allgemeinere Übertragungsfunktionen) spezifiziert sind, die wiederum durch die KI-Parameter spezifiziert werden.
  • Bei dieser Ausführungsform kann z. B. vorgesehen sein, dass der erste Algorithmusteil, insbesondere wenn dieser ein KI-Modul aufweist oder aus einem solchen KI-Modul gebildet ist, unabhängig von den vorgegebenen Parametern arbeitet und somit nur der zweite Algorithmusteil basierend auf den vorgegebenen Parametern arbeitet. In diesem Fall wird KI zwar vorteilhaft genutzt, kann jedoch die im Rahmen der Erfindung den bereitgestellten Parametern innewohnende Information nachteiliger Weise nicht nutzen. Diese Nutzung erfolgt erst durch den zweiten Algorithmusteil im Wege einer Korrektur der vorläufigen Objekterkennung.
  • Nachfolgend wird eine Ausführungsform beschrieben, welche diesen potenziellen Nachteil überwindet und KI gewissermaßen weitgehender einsetzt.
  • In einer solchen Ausführungsform weist der Objekterkennungsalgorithmus ein basierend auf durch Training ermittelten KI-Parametern arbeitendes KI-Modul auf, wobei diese KI-Parameter als ein Bestandteil der dem Objekterkennungsalgorithmus vorzugebenden Parameter in Abhängigkeit von der geografischen Position des Fahrzeuges vorgegeben werden, indem in Abhängigkeit von der geografischen Position des Fahrzeuges diese KI-Parameter als ein der geografischen Position des Fahrzeuges zugeordneter KI-Parametersatz aus einer Vielzahl von KI-Parametersätzen ausgewählt wird, die vorab empirisch ermittelt und für ein bestimmtes geografisches Gebiet als positionsabhängige KI-Parametersätze gespeichert wurden.
  • In einer Weiterbildung dieser Ausführungsform werden die KI-Parameter zusätzlich in Abhängigkeit von der Zeit (der Aufnahme des Bildes) vorgegeben, indem in Abhängigkeit von der geografischen Position des Fahrzeuges und der Zeit die KI-Parameter als ein der geografischen Position des Fahrzeuges für diese Zeit zugeordneter KI-Parametersatz aus den KI-Parametersätzen ausgewählt wird, die vorab empirisch ermittelt und als positions- und zeitabhängige KI-Parametersätze gespeichert wurden.
  • Bei dieser Ausführungsform ist nicht ausgeschlossen, dass eine mit dem KI-Modul implementierte Objekterkennung wie bei der vorangehend beschriebenen Ausführungsform nachträglich noch basierend auf den vorgegebenen Parametern korrigiert wird. Dies ist jedoch nicht zwingend, da die als Bestandteil der vorzugebenden Parameter dem KI-Modul vorgegebenen KI-Parameter bereits von der geografischen Position des Fahrzeuges abhängig sind.
  • Die benötigten positionsabhängigen KI-Parametersätze können in empirischer Weise insbesondere z. B. durch Testfahrten mit einem Fahrzeug ermittelt werden. Entscheidend ist hierbei, dass bei dem Training des KI-Moduls keine Trainingsdaten verwendet werden, die aus verschiedenen bzw. verschiedenartigen geografischen Positionen des Fahrzeuges (Testfahrzeug) gewonnen wurden, sondern vielmehr für jede geografische Position (bzw. z. B. für ein Rastergebiet der oben erwähnten Art) ein spezielles/separates Training durchgeführt wird und somit für eine bestimmte geografische Umgebung (z. B. Rastergebiet) erhaltene Trainingsdaten zur Ermittlung entsprechender (der geografischen Umgebung zugeordneter) KI-Parameter herangezogen werden.
  • Wenn diese Ausführungsform in Kombination mit der bereits beschriebenen Verwendung eines Servers eingesetzt wird, in dem für ein bestimmtes geografisches Gebiet positionsabhängige Umgebungsdaten gespeichert werden, so ist es zweckmäßig, dass diese Umgebungsdaten die entsprechenden KI-Parameter als solche beinhalten. Die Ermittlung der an ein bestimmtes Fahrzeug zu übermittelnden Anpassungsdaten besteht in diesem Fall darin, basierend auf der geografischen Position dieses Fahrzeuges die entsprechenden KI-Parameter auszuwählen und als Anpassungsdaten an die (z. B. im Fahrzeug angeordnete) Auswerteeinrichtung zu übermitteln.
  • Gemäß eines weiteren Aspekts der Erfindung wird ein System zum Auswerten jeweiliger Bilder von jeweiligen Umgebungen einer Vielzahl von Fahrzeugen vorgeschlagen, um anhand der jeweiligen Bilder jeweilige Objekte in der jeweiligen Umgebung der Fahrzeuge zu erkennen, wobei dieses System aufweist:
    • - eine Vielzahl von Fahrzeugen, die jeweils aufweisen:
      • - eine Bildaufnahmeeinrichtung (z. B. wie oben bereits beschrieben) zum Aufnehmen eines Bildes einer Umgebung des Fahrzeuges,
      • - eine Bildauswerteeinrichtung, die dazu ausgebildet ist, das Bild unter Verwendung eines basierend auf vorgegebenen Parametern arbeitenden Objekterkennungsalgorithmus auszuwerten, um Objekte in der Umgebung des Fahrzeuges zu erkennen, und ferner dazu ausgebildet ist, die Parameter für den Objekterkennungsalgorithmus basierend auf Anpassungsdaten anzupassen,
      • - einen Server (z. B. wie oben bereits beschrieben), der dazu ausgebildet ist, für ein bestimmtes geografisches Gebiet positionsabhängige Umgebungsdaten zu speichern und für geografische Positionen innerhalb des geografischen Gebiets jeweilige Anpassungsdaten zu ermitteln,
      • - optional (im Falle eines außerhalb der Fahrzeug befindlichen Servers) ein Kommunikationssystem, das dazu ausgebildet ist, die von dem Server für die jeweiligen geografischen Positionen der Fahrzeuge jeweils ermittelten Anpassungsdaten von dem Server an die Bildauswerteeinrichtungen der jeweiligen Fahrzeuge zu übermitteln. Denkbar ist jedoch auch, dass jedes der Fahrzeuge selbst mit einem derartigen Server ausgestattet ist (z. B. wie oben bereits beschrieben, z. B. beinhaltend einen lokalen Speicher für Umgebungsinformationen zwecks Bereitstellung der Anpassungsdaten), so dass allenfalls eine lediglich lokal (d.h. an Bord der einzelnen Fahrzeuge bzw. innerhalb einer dort jeweils vorgesehenen Rechnereinrichtung bzw. Auswerteeinrichtung) stattfindende Kommunikation der Anpassungsdaten erforderlich ist.
  • Die Erfindung wird nachfolgend anhand von Ausführungsbeispielen mit Bezug auf die beigefügten Zeichnungen weiter beschrieben. Es stellen dar:
    • 1 ein Fahrzeug und einige beispielhafte Objekte in dessen Umgebung,
    • 2 ein Blockdiagramm zur Veranschaulichung eines Verfahrens zur Bildauswertung, um Objekte in der Umgebung zu erkennen,
    • 3 beispielhafte zu erkennende Arten von Objekten,
    • 4 ein Blockdiagramm eines Systems zur Durchführung des Verfahrens von 2 gemäß eines Ausführungsbeispiels,
    • 5 ein Blockdiagramm eines Systems zur Durchführung eines Verfahrens zur Bildauswertung gemäß eines weiteren Ausführungsbeispiels,
    • 6 ein Blockdiagramm eines Systems zur Durchführung eines Verfahrens zur Bildauswertung gemäß eines weiteren Ausführungsbeispiels,
    • 7 ein Blockdiagramm eines für eine Bildauswertung verwendbaren Objekterkennungsalgorithmus gemäß eines Ausführungsbeispiels, und
    • 8 ein Blockdiagramm eines Objekterkennungsalgorithmus gemäß eines weiteren Ausführungsbeispiels.
  • 1 zeigt ein Fahrzeug 10 und eine Umgebung 12 des Fahrzeuges 10, hier beispielhaft eine vor dem eine Straße befahrenden Fahrzeug 10 befindliche Umgebung 12. In der Figur ist beispielhaft ein Umgebungsszenario mit diversen Objekten 20 veranschaulicht.
  • Die Bezugszahlen von mehrfach vorgesehenen, in ihrer Wirkung jedoch analogen Komponenten wie z. B. der Objekte 20, sind durchnummeriert (jeweils ergänzt durch einen Bindestrich und eine fortlaufende Zahl). Auf einzelne solcher Komponenten oder auf die Gesamtheit solcher Komponenten wird im Folgenden auch durch die nicht-ergänzte Bezugszahl Bezug genommen.
  • In 1 erkennt man als Objekte 20 beispielsweise ein Gebäude 20-1, eine Fahrbahnmarkierung 20-2, ein Verkehrsschild 20-3, ein entgegenkommendes Auto 20-4, eine erste größere Person (Erwachsener) 20-5 und eine zweite kleinere Person (Kind) 20-6.
  • Unabhängig davon, ob es sich bei dem Fahrzeug 10 um ein herkömmlich, d. h. von einem Benutzer (Fahrer) gesteuertes Fahrzeug, oder aber z. B. um ein autonomes Fahrzeug handelt, bei dem Steuerungsvorgänge teilweise oder vollständig automatisiert erfolgen, ist es von Vorteil, wenn ein Bild der Umgebung 12 des Fahrzeuges 10 aufgenommen und unter Verwendung eines Objekterkennungsalgorithmus ausgewertet wird, um anhand des Bildes Objekte wie hier z. B. die Objekte 20-1 bis 20-6 in der Umgebung 12 zu erkennen.
  • In dem Beispiel von 1 sei angenommen, dass das Fahrzeug 10 mit einer (in der Figur nicht dargestellten) Bildaufnahmeeinrichtung (z. B. Frontkamera), ausgestattet ist, um im Betrieb des Fahrzeuges 10 fortlaufend derartige Bilder der Umgebung 12 vor dem Fahrzeug 10 aufzunehmen.
  • Ferner sei angenommen, dass das Fahrzeug 10 mit einer elektronischen programmgesteuerten Auswerteeinrichtung (z. B. Steuergerät für Bildauswertung) ausgestattet ist, welcher die von der Bildaufnahmeeinrichtung (z. B. Frontkamera) aufgenommenen Bilder in Form von digitalen Bilddaten zugeführt werden, und welche mittels eines basierend auf vorgegebenen Parametern (Algorithmusparametern) arbeitenden, in der Auswerteeinrichtung ablaufenden Objekterkennungsalgorithmus eine Auswertung der Bilder durchführt, um anhand der Bilder die Objekte 20 in der Umgebung 12 des Fahrzeuges 10 zu erkennen.
  • 2 zeigt ein Blockdiagramm eines im Beispiel von 1 verwendeten Auswertealgorithmus 30 beinhaltend den Objekterkennungsalgorithmus 32, mittels welchem einem Bild 34 entsprechende Bilddaten PIC basierend auf den vorgegebenen Parametern PAR verarbeitet werden, um die Objekterkennung zu bewerkstelligen.
  • Als Ergebnis der Objekterkennung liefert der Objekterkennungsalgorithmus 32 entsprechende Objektdaten OBJ, welche insbesondere z. B. eine Liste der vom Objekterkennungsalgorithmus 32 erkannten Objekte 20 mit jeweiligen Spezifikationen wie z. B. Art des Objekts, relative Richtung und/oder relativer Abstand des jeweiligen Objekts 20 bezüglich des Fahrzeuges 10 beinhalten können.
  • Falls das Fahrzeug 10 herkömmlich gesteuert wird, können die Objektdaten OBJ z. B. für Komfort- und/oder Sicherheitsfunktionen wie z. B. einer automatisierten Ausgabe von Warnungen an den Benutzer (Fahrer) des Fahrzeuges 10 und/oder für automatisierte Eingriffe in die Steuerung des Fahrzeuges 10 (z. B. Zwangsbremsung und/oder Zwangslenkung etc.) verwendet werden.
  • Falls das Fahrzeug 10 mit der Fähigkeit zum autonomen Fahren ausgebildet ist, so ist die Bereitstellung derartiger Objektdaten OBJ im autonomen Fahrzeugbetrieb unerlässlich, um basierend auf den Objektdaten OBJ die hierfür erforderlichen Steuerungsvorgänge wie Lenken, Beschleunigen, Verzögern etc. durchführen zu können.
  • Abweichend vom bis hierher beschriebenen Beispiel könnte die zur Durchführung des Objekterkennungsalgorithmus 32 verwendete Rechenkapazität bzw. Infrastruktur (Hardware) anstatt lediglich an Bord des Fahrzeuges 10 (fahrzeugeigene Auswerteeinrichtung) auch „verteilt“ implementiert sein, etwa teilweise im Fahrzeug angeordnet (fahrzeugeigene Auswerteeinrichtung) und teilweise in einem stationären Rechenzentrum (einschließlich z. B. „Cloud“-Infrastruktur), auf dessen Rechenkapazität das Fahrzeug 10 bzw. die fahrzeugeigene Auswerteeinrichtung über eine Mobilfunkverbindung bzw. einen mobilen Internetanschluss des Fahrzeuges 10 zurückgreifen kann.
  • Eine Besonderheit des in 2 dargestellten Bildauswerteverfahrens besteht darin, dass die (dem Objekterkennungsalgorithmus 32 vorgegebenen) Parameter PAR in Abhängigkeit von einer (momentanen) geografischen Position POS (z. B. Geokoordinaten) des Fahrzeuges 10 vorgegeben werden.
  • In 2 ist diese Besonderheit durch ein Vorgabemittel 40 symbolisiert, welches basierend auf der geografischen Position POS des Fahrzeuges 10 die Parameter PAR für den Objekterkennungsalgorithmus 32 erzeugt. Damit können beim Auswerten des Bildes 34 mittels des Objekterkennungsalgorithmus 32 vorteilhaft zusätzliche, nämlich aus der geografischen Position POS ableitbare Informationen genutzt werden, um die Qualität der Objekterkennung zu verbessern.
  • Das Vorgabemittel 40 kann insbesondere z. B. einen Server der oben bereits beschriebenen Art umfassen (z. B. ausgebildet innerhalb und/oder außerhalb des Fahrzeuges 10), um basierend auf der geografischen Position POS des Fahrzeuges 10 zunächst relevante Anpassungsdaten zu ermitteln, auf denen basierend dann die vorzugebenden Parameter PAR für den Objekterkennungsalgorithmus 32 erzeugt werden, sei es z. B. ebenfalls durch den Server, oder aber durch eine eigens hierfür vorgesehene Einrichtung (z. B. im Fahrzeug 10, z. B. als Bestandteil einer dort angeordneten Rechnereinrichtung bzw. der Auswerteeinrichtung). Im Rahmen der Erfindung ist es auch möglich, dass die Anpassungsdaten bereits die Parameter PAR beinhalten, oder sogar eine Identität zwischen Anpassungsdaten und vorzugebenden Parametern PAR besteht.
  • Der Objekterkennungsalgorithmus 32 ist im Beispiel von 2 dazu ausgebildet, vorbestimmten Arten von Objekten 20 jeweilige Auftretenswahrscheinlichkeiten zuzuordnen und für das Erkennen von Objekten 20 zu berücksichtigen, wobei diese Auftretenswahrscheinlichkeiten durch die vorgegebenen Parameter PAR bestimmt werden.
  • 3 zeigt stellvertretend für derartige Arten von Objekten 20 die in 1 bereits gezeigten Objekte 20-1 bis 20-6, wobei in 3 jedoch, lediglich beispielhaft zu verstehen, noch folgende weitere Objekte 20 bzw. dementsprechende Objektarten veranschaulicht sind: Fahrrad 20-7, Tretroller 20-8, Tretroller mitsamt Person 20-9, große Person (Erwachsener) mitsamt kleiner Person (Kind) 20-10, Person mitsamt Gepäck (z. B. Koffer oder Taschen oder Einkaufstaschen etc.) 20-11, und Ball (z. B. Fußball) 20-12.
  • Jedes der Objekte 20-1 bis 20-12 kann beispielsweise eine dementsprechende konkrete „Art von Objekt“ definieren, die bei der Durchführung des Objekterkennungsalgorithmus 32 verwendet werden kann. Alternativ oder zusätzlich können Arten von Objekten auch z. B. als Verallgemeinerungen und/oder Konkretisierungen derartiger Objekte 20 wie z. B. der dargestellten Objekte 20-1 bis 20-12 definiert und bei der Durchführung des Objekterkennungsalgorithmus 32 berücksichtigt werden.
  • Beispielsweise könnten in Verallgemeinerung des Objekts 20-1 (Gebäude) Objektarten wie „stationäres Bauwerk“ oder „stationäres Bauwerk außerhalb Fahrbahnbereich“ definiert werden. In Verallgemeinerung des Objekts 20-2 (Fahrbahnmarkierung) könnte z. B. eine Objektart „stationäres Verkehrsführungszeichen“ definiert werden, unter welche dann auch z. B. das Verkehrsschild 20-3 fiele. In Verallgemeinerung des Objekts 20-4 (entgegenkommendes Auto) könnten z. B. Objektarten wie z. B. „entgegenkommendes zweispuriges Fahrzeug“, „zweispuriges Fahrzeug“, „Fahrzeug“ oder „mobiles Objekt“ definiert werden, usw.
  • Beispielsweise könnten in Konkretisierung des Objekts 20-1 (Gebäude) Objektarten wie „Schule“, „Kindergarten“ oder „Einkaufszentrum“ definiert werden. In Konkretisierung des Objekts 20-2 (Fahrbahnmarkierung) könnten z. B. Objektarten „Fahrbahnbegrenzungsmarkierung“, „Pfeilmarkierung“ und „Sperrflächenmarkierung“ definiert werden. In Konkretisierung des Objekts 20-3 (Verkehrsschild) könnten z. B. Objektarten wie z. B. „Verkehrsschild betreffend fahrenden Verkehr“, „Verkehrsschild betreffend ruhenden Verkehr“ oder „Verkehrsschild auf Vertikalpfosten“ definiert werden, usw.
  • Alternativ oder zusätzlich können z. B. auch durch Kombinationen von Einzelobjekten (bzw. Einzelobjektarten) definierte Objektarten verwendet werden, wie etwa für die in 3 dargestellten Objekte 20-9 (Tretroller mitsamt Person), 20-10 (große Person mitsamt kleiner Person, alternativ z. B. „Personengruppe“) oder 20-11 (Person mitsamt Gepäck), usw.
  • Bei der nachfolgenden Beschreibung von weiteren Ausführungsbeispielen werden für gleichwirkende Komponenten die gleichen Bezugszeichen verwendet. Dabei wird im Wesentlichen nur auf die Unterschiede zu dem bzw. den bereits beschriebenen Ausführungsbeispielen eingegangen und im Übrigen hiermit ausdrücklich auf die Beschreibung vorangegangener Ausführungsbeispiele verwiesen.
  • 4 zeigt ein Ausführungsbeispiel eines Systems 100 zum Durchführen eines Bildauswerteverfahrens mit Objekterkennungsalgorithmus der hier beschriebenen Art.
  • Das System 100 umfasst beispielsweise ein oder mehrere Fahrzeuge, hier z. B. zumindest das in 1 gezeigte Fahrzeug 10 bzw. eine an Bord des Fahrzeuges 10 ausgebildete Bildauswerteeinrichtung 50 mit einer daran angeschlossenen Bildaufnahmeeinrichtung zum Aufnehmen des Bildes der Umgebung 12 des Fahrzeuges10, hier z. B. eine Kamera 60 (z. B. Videokamera).
  • Die Bildauswerteeinrichtung 50 ist dazu ausgebildet, das Bild unter Verwendung des basierend auf den vorgegebenen Parametern PAR arbeitenden Objekterkennungsalgorithmus 32 auszuwerten, um Objekte 20 in der Umgebung 12 des Fahrzeuges 10 zu erkennen, und ferner dazu ausgebildet, die Parameter PAR für den Objekterkennungsalgorithmus 32 basierend auf Anpassungsdaten ADJ anzupassen.
  • Die in diesem Beispiel vollständig an Bord des Fahrzeuges 10 ausgebildete Bildauswerteeinrichtung 50 (die alternativ wie bereits erwähnt auch verteilt implementiert sein könnte) umfasst hierzu einen dem Objekterkennungsalgorithmus 32 zugeordneten Parameteranpassungsalgorithmus (bzw. eine entsprechende Hardwarekomponente innerhalb der Bildauswerteeinrichtung 50) 36, mittels welchem basierend auf den zugeführten Anpassungsdaten ADJ die dem Objekterkennungsalgorithmus 32 vorgegebenen Parameter PAR erzeugt (oder bedarfsweise angepasst/modifiziert) werden.
  • Das System 100 umfasst ferner einen Server 42, der die von der Bildauswerteeinrichtung 50 des Fahrzeuges 10 zu empfangenden Anpassungsdaten ADJ bereitstellt.
  • Der Server 42 ist im dargestellten Beispiel als eine stationäre Komponente des Systems 100 beispielsweise als ein zentrales Rechenzentrum (oder ein Cloud-basiertes Rechenzentrum) implementiert und dazu ausgebildet, für ein bestimmtes geografisches Gebiet (z. B. Bayern, Deutschland, Europa etc.) positionsabhängige Umgebungsdaten ENV in einer Datenbank DB zu speichern und für alle geografischen Positionen POS innerhalb des geografischen Gebiets jeweilige Anpassungsdaten ADJ zu ermitteln.
  • Das System 100 umfasst ferner ein Kommunikationssystem wie z. B. ein Mobilfunknetz oder dergleichen, das dazu ausgebildet ist, die von dem Server 42 für eine jeweilige momentane geografische Position POS des Fahrzeuges ermittelten Anpassungsdaten ADJ von dem Server 42 an die Bildauswerteeinrichtung 50 des Fahrzeuges 10 zu übermitteln.
  • Es versteht sich, dass das System 100 in der Praxis auch dazu verwendet werden kann, um jeweilige Bilder von jeweiligen Umgebungen einer Vielzahl von Fahrzeugen (einschließlich Fahrzeug 10) auszuwerten und um anhand der jeweiligen Bilder jeweilige Objekte in der jeweiligen Umgebung dieser Fahrzeuge zu erkennen. In einer solchen Ausgestaltung wird der Server 42 dazu genutzt, um für die (Vielzahl von) geografischen Positionen sämtlicher Fahrzeuge jeweilige individuelle Anpassungsdaten zu ermitteln, die sodann über das Kommunikationssystem individuell, d.h. an die jeweiligen Bildauswerteeinrichtungen der jeweiligen Fahrzeuge übermittelt werden.
  • Der Server 42 ermittelt für die geografischen Positionen POS innerhalb des geografischen Gebiets die jeweiligen Anpassungsdaten ADJ basierend auf der jeweiligen geografischen Position POS und basierend auf den in dem Server 42 gespeicherten positionsabhängigen Umgebungsdaten ENV.
  • Das mittels des System 100 durchgeführte Verfahren (vgl. z. B. 2) zum Auswerten eines Bildes 34 einer Umgebung 12 eines Fahrzeuges 10 umfasst somit folgende Schritte:
    • - Durchführen eines basierend auf vorgegebenen Parametern PAR arbeitenden Objekterkennungsalgorithmus 32, um anhand des Bildes 34 Objekte 20 in der Umgebung 12 des Fahrzeuges 10 zu erkennen,
    • - Übermitteln von Anpassungsdaten ADJ von einem Server 42 an eine den Objekterkennungsalgorithmus 32 durchführende (z. B. in dem Fahrzeug 10 angeordnete) Auswerteeinrichtung 50, wobei diese Anpassungsdaten ADJ von dem Server 42 basierend auf der geografischen Position POS des Fahrzeuges 10 (bzw. eines betreffenden Fahrzeuges) und basierend auf in dem Server 42 für ein bestimmtes geografisches Gebiet gespeicherten positionsabhängigen Umgebungsdaten ENV ermittelt werden,
    • - Anpassen der Parameter PAR für den Objekterkennungsalgorithmus 32 basierend auf den von dem Server 42 an die Bildauswerteeinrichtung 50 übermittelten Anpassungsdaten ADJ.
  • Die in dem Server 42 gespeicherten positionsabhängigen Umgebungsdaten ENV repräsentieren im dargestellten Beispiel Merkmale in einem Bereich um die betreffende geografische Position POS und/oder den vorbestimmten Arten von Objekten 20 in diesem Bereich zuzuordnende Auftretenswahrscheinlichkeiten.
  • Die Merkmale können sich hierbei insbesondere z. B. auf das Vorhandensein (oder Nichtvorhandensein) vorbestimmter Arten von Bauwerken, insbesondere Gebäuden, in dem Bereich um die betreffende Position POS beziehen, wobei diese Bauwerksarten jeweils z. B. durch einen bestimmten Nutzungszweck des Bauwerkes definiert sein können (z. B. Nutzung als Schule, Kindergarten, Einkaufszentrum, Museum, Fahrradparkhaus etc.). Alternativ oder zusätzlich können die Merkmale sich z. B. auf das (momentane) Vorhandensein bzw. Nichtvorhandensein vorbestimmter Arten von temporären Ereignissen beziehen, wie z. B. Veranstaltungen oder Baumaßnahmen in dem Bereich um die betreffende Position POS, wobei diese Arten jeweils z. B. durch einen bestimmten Zweck des Ereignisses definiert sein können (z. B. Errichtung eines Bauwerks, Sanierung einer Straße, sportliche Veranstaltung, Demonstrationszug, Notfalleinsatz an einem Unfallort etc.).
  • Um bei dem Bildauswerteverfahren Veränderungen derartiger Merkmale und insbesondere auch temporäre Ereignisse berücksichtigen zu können, werden die im Server 42 gespeicherten Umgebungsdaten ENV durch entsprechende Eingangsdaten INP (4) fortlaufend, z. B. in vorbestimmten zeitlichen Abständen von bevorzugt jeweils weniger als 1 Stunde aktualisiert. Mit einer derartigen Aktualisierung werden folglich auch vorteilhaft zeitabhängige (stets korrekte) Anpassungsdaten ADJ erzeugt. Die Eingangsdaten INP können z. B. von Behörden (z. B. Bauamt, Vermessungsamt etc.) oder sonstigen Organisationen (z. B. Ordnungsamt, Polizei, Feuerwehr etc.) bereitgestellt werden.
  • 5 zeigt ein weiteres Ausführungsbeispiel eines Systems 100 zur Durchführung eines Verfahrens zur Bildauswertung mit einem Objekterkennungsalgorithmus 32, umfassend:
    • - eine Vielzahl von Fahrzeugen wie z. B. das dargestellte Fahrzeug 10, die jeweils aufweisen: eine Bildaufnahmeeinrichtung 60 zum Aufnehmen eines Bildes 34 einer Umgebung 12 des Fahrzeuges; eine Bildauswerteeinrichtung 50, die dazu ausgebildet ist, das durch Bilddaten PIC repräsentierte Bild unter Verwendung eines basierend auf vorgegebenen Parametern PAR arbeitenden Objekterkennungsalgorithmus 32 auszuwerten, um Objekte 20 in der Umgebung 12 des Fahrzeuges zu erkennen, und ferner dazu ausgebildet ist, die Parameter PAR für den Objekterkennungsalgorithmus basierend auf zugeführten Anpassungsdaten ADJ anzupassen; und eine Ortungseinrichtung GPS zum Erfassen der geografischen Position POS des Fahrzeuges, wie insbesondere eine Empfangseinrichtung zum Empfangen und Auswerten von Satellitensignalen zur Ortung des Fahrzeuges,
    • - einen Server 42, der dazu ausgebildet ist, für ein bestimmtes geografisches Gebiet positionsabhängige Umgebungsdaten ENV zu speichern und für geografische Positionen innerhalb des geografischen Gebiets jeweilige Anpassungsdaten ADJ zu ermitteln,
    • - ein Kommunikationssystem (z. B. Mobilfunknetz), das dazu verwendet wird, um die von dem Server 42 für die jeweiligen geografischen Positionen POS der Fahrzeuge jeweils ermittelten Anpassungsdaten ADJ an die betreffenden Bildauswerteeinrichtungen 50 der jeweiligen Fahrzeuge zu übermitteln, und um die von den Ortungseinrichtungen GPS jeweils erfassten geografischen Positionen POS der Fahrzeuge an den Server 42 zu übermitteln.
  • 6 zeigt ein weiteres Ausführungsbeispiel eines Systems 100 zur Durchführung eines Verfahrens zur Bildauswertung mit einem Objekterkennungsalgorithmus 32, umfassend:
    • - eine Vielzahl von Fahrzeugen 10-1, 10-2, 10-3 ... (z. B. mehr als 1000 Fahrzeuge), die jeweils aufweisen: eine Bildaufnahmeeinrichtung zum Aufnehmen eines Bildes einer jeweiligen Umgebung des betreffenden Fahrzeuges; eine Bildauswerteeinrichtung, die dazu ausgebildet ist, das jeweilige Bild unter Verwendung eines basierend auf vorgegebenen Parametern arbeitenden Objekterkennungsalgorithmus auszuwerten, um Objekte in der jeweiligen Umgebung zu erkennen, und ferner dazu ausgebildet ist, die Parameter für den Objekterkennungsalgorithmus basierend auf jeweils zugeführten Anpassungsdaten ADJ1, ADJ2, ADJ3 ... anzupassen; und (optional) z. B. eine Ortungseinrichtung zum Erfassen der geografischen Position des betreffenden Fahrzeuges,
    • - einen Server 42, der dazu ausgebildet ist, für ein bestimmtes geografisches Gebiet positionsabhängige Umgebungsdaten ENV zu speichern und für geografische Positionen innerhalb des geografischen Gebiets jeweilige Anpassungsdaten zu ermitteln,
    • - ein unter Nutzung eines Mobilfunknetzes arbeitendes Kommunikationssystem 70, das als ein Geocasting-System eingesetzt wird, um die von dem Server 42 für die jeweiligen geografischen Positionen POS1, POS2, POS3 ... der Fahrzeuge 10-1, 10-2, 10-3 ... jeweils ermittelten Anpassungsdaten ADJ1, ADJ2, ADJ3... an die betreffenden Bildauswerteeinrichtungen der jeweiligen Fahrzeuge 10-1, 10-2, 10-3 ... zu übermitteln, und gegebenenfalls auch die von den jeweiligen Ortungseinrichtungen erfassten geografischen Positionen POS1, POS2, POS3 ... der Fahrzeuge 10-1, 10-2, 10-3 ... an den Server 42 zu übermitteln.
  • Für die Ausgestaltung des Servers 42 und des Kommunikationssystems 70 gibt es vielfältige Möglichkeiten. Zu deren Realisierung kann z. B. ein Kommunikationssystem wie „eHorizon“ der Fa. Continental genutzt werden. In einem solchen Kommunikationssystem können aktuelle Informationen zum Zustand von Straßenabschnitten in einem vorbestimmten geografischen Gebiet vorgehalten werden, wobei in das System integrierte Fahrzeuge selbst als Sensoren zur Bereitstellung der benötigten Daten („Big Data“) fungieren und z. B. per Mobilfunk derartige Daten zu einem Server („Backbone“) des z. B. Cloud-basierten Systems übertragen und gleichzeitig entsprechende individuell relevante Daten mit Informationen zu den vor ihnen liegenden Streckenabschnitten von dem Server zurückerhalten. Mithin kann ein solches Kommunikationssystem im Rahmen der Erfindung und z. B. des vorstehend beschriebenen Ausführungsbeispiels insbesondere dazu genutzt werden, um die jeweils ermittelten Anpassungsdaten ADJ1, ADJ2, ADJ3... an die jeweiligen Fahrzeuge 10-1, 10-2, 10-3 ... zu übermitteln.
  • Darüber hinaus ist es bei einem erfindungsgemäßen System außerdem möglich, unter Verwendung eines solchen („bidirektionalen“) Kommunikationssystems alternativ oder zusätzlich zu der oben erläuterten Bereitstellung der Eingangsdaten INP durch Behörden oder sonstige Organisationen eine Bereitstellung der Eingangsdaten INP wenigstens teilweise mit Hilfe der Fahrzeuge 10-1, 10-2, 10-3 ... zu realisieren, indem z. B. im Beispiel von 6 die Fahrzeuge 10-1, 10-2, 10-3 ... oder deren Bildauswerteeinrichtungen 50 die jeweiligen Objektdaten OBJ und/oder jeweilige daraus abgeleitete, z. B. den Informationsgehalt der Objektdaten OBJ zusammenfassende Fahrzeugumgebungsdaten über das betreffende Kommunikationssystem 70 an den Server 42 übertragen, wobei der Server 42 dazu ausgebildet ist, aus der Vielzahl von so erhaltenen Objektdaten und/oder Fahrzeugumgebungsdaten entsprechende Eingangsdaten INP zur Verbesserung und/oder Aktualisierung der in der Datenbank DB vorgehaltenen Umgebungsdaten ENV zu erzeugen.
  • Derartige an den Server übertragene Fahrzeugumgebungsdaten können insbesondere eine Information über eine oder mehrere Auftretenswahrscheinlichkeiten der vorbestimmten Arten von Objekten (an den jeweiligen Positionen der jeweiligen Fahrzeuge) beinhalten, so dass seitens des Servers basierend auf dieser Information vorteilhaft eine Aktualisierung der im Server gespeicherten positionsabhängigen Umgebungsdaten erfolgen kann.
  • 7 zeigt ein Ausführungsbeispiel eines im Rahmen der Erfindung für eine Bildauswertung verwendbaren Objekterkennungsalgorithmus 32, aufweisend einen ersten Algorithmusteil 32a, mittels welchem anhand eines Bildes 34 (eingegebene Bilddaten) eine vorläufige Erkennung von Objekten (20) in der Umgebung (12) des betreffenden Fahrzeuges (10) erfolgt, und einen zweiten Algorithmusteil 32b, mittels welchem basierend auf vorgegebenen Parametern PAR das Ergebnis der vorläufigen Erkennung korrigiert und als Endergebnis (korrigierte) Objektdaten OBJ geliefert werden.
  • Das Ergebnis der vorläufigen Erkennung kann insbesondere vorläufige Objektdaten beinhalten, welche insbesondere z. B. eine Liste der vom Objekterkennungsalgorithmus 32 mit einer gewissen (z. B. oberhalb einer vorgegebenen Schwelle liegenden) Wahrscheinlichkeit erkannten Objekte 20 mit jeweiligen Spezifikationen wie z. B. Art des Objekts, relative Richtung und/oder relativer Abstand des jeweiligen Objekts (20) bezüglich des Fahrzeuges (10) mitsamt dieser Wahrscheinlichkeit beinhalten können.
  • Die Korrektur kann in diesem Fall z. B. darin bestehen, die einzelnen Wahrscheinlichkeiten jeweils mittels eines Korrekturwerts zu korrigieren (z. B. mit einem Korrekturfaktor zu multiplizieren), um somit für jedes vorläufig erkannte Objekt korrigierte Wahrscheinlichkeiten zu erhalten und basierend darauf das Endergebnis (Objektdaten OBJ) zu ermitteln. Durch die Korrektur können z. B. die Wahrscheinlichkeiten derjenigen Objekte erhöht werden, die einer Objektart angehören, für welche durch die vorgegebenen Parameter PAR eine relativ hohe Auftretenswahrscheinlichkeit bestimmt wird. Umgekehrt können bei der Korrektur z. B. die Wahrscheinlichkeiten derjenigen Objekte verringert werden, die einer Objektart mit relativ geringer Auftretenswahrscheinlichkeit angehören.
  • Im Beispiel von 7 ist der erste Algorithmusteil 32a als ein basierend auf durch Training ermittelte KI-Parameter arbeitendes KI-Modul (z. B. künstliches neuronales Netzwerk) ausgebildet oder weist zumindest ein solches KI-Modul auf.
  • Im Rahmen der Erfindung kann ein KI-Modul derart ausgebildet sein, dass dessen KI-Parameter, welche die Art und Weise der Wandlung von Eingangsdaten, hier z. B. der Bilddaten PIC, in Ausgangsdaten, hier z. B. in die Objektdaten OBJ, bestimmen, durch ein Selbstlernen und/oder ein Training derart veränderbar sind, dass damit eine Verbesserung der Algorithmusqualität (hinsichtlich der Korrektheit der ausgegebenen Objektdaten OBJ) erzielt werden kann. Beim Selbstlernen bzw. dem Training werden Erfahrungsdaten bzw. Trainingsdaten bestehend aus (einer Vielzahl von) zueinander passenden Eingangsdaten und Ausgangsdaten verwendet (d.h. beinhaltend jeweils „korrekte“ Ausgangsdaten) und im Falle einer Abweichung der für diese Eingangsdaten vom KI-Modul tatsächlich gelieferten Ausgangsdaten von den „korrekten“ Ausgangsdaten die KI-Parameter so variiert, dass damit die Abweichung verringert (insbesondere optimiert) wird.
  • 8 zeigt ein weiteres Ausführungsbeispiel eines im Rahmen der Erfindung für eine Bildauswertung verwendbaren Objekterkennungsalgorithmus 32.
  • Der Objekterkennungsalgorithmus 32 weist ein basierend auf durch Training ermittelte KI-Parameter KI-PAR arbeitendes KI-Modul auf, wobei diese KI-Parameter KI-PAR als ein Bestandteil der dem Objekterkennungsalgorithmus 32 vorzugebenden Parameter in Abhängigkeit von der geografischen Position POS des betreffenden Fahrzeuges vorgegeben werden, indem in Abhängigkeit von der geografischen Position POS des Fahrzeuges diese KI-Parameter KI-PAR als ein der geografischen Position POS des Fahrzeuges zugeordneter KI-Parametersatz KI-PAR aus einer Vielzahl von KI-Parametersätzen KI-PAR1, KI-PAR2, ..., KI-PARN ausgewählt wird, die vorab empirisch ermittelt und für ein bestimmtes geografisches Gebiet als positionsabhängige KI-Parametersätze KI-PAR1, KI-PAR2, ..., KI-PARN gespeichert wurden (z. B. in einem Server wie bereits beschrieben).
  • Zusammenfassend schlägt die Erfindung im Rahmen einer mittels einer Bildauswertung implementierten Objekterkennung in einer Umgebung eines Fahrzeuges eine „situative Gewichtung“ von Erkennungswahrscheinlichkeiten innerhalb des Objekterkennungsalgorithmus vor. Vorteilhaft kann damit die Wahrscheinlichkeit für eine korrekte Objekterkennung erhöht werden. Wesentlich hierfür ist die Verwendung einer zusätzlichen Eingangsinformation (Parameter PAR), welche in Abhängigkeit von der (momentanen) geografischen Position des Fahrzeuges gebildet wird und die Arbeitsweise des eingesetzten Objekterkennungsalgorithmus entsprechend beeinflusst.

Claims (13)

  1. Verfahren zum Auswerten eines Bildes (34) einer Umgebung (12) eines Fahrzeuges (10) unter Verwendung eines basierend auf vorgegebenen Parametern (PAR) arbeitenden Objekterkennungsalgorithmus (32), um anhand des Bildes (34) Objekte (20) in der Umgebung (12) des Fahrzeuges (10) zu erkennen, wobei die Parameter (PAR) in Abhängigkeit von einer geografischen Position (POS) des Fahrzeuges (10) vorgegeben werden.
  2. Verfahren nach Anspruch 1, wobei der Objekterkennungsalgorithmus (32) dazu ausgebildet ist, vorbestimmten Arten von Objekten (20) jeweilige Auftretenswahrscheinlichkeiten zuzuordnen und für das Erkennen von Objekten (20) zu berücksichtigen, wobei diese Auftretenswahrscheinlichkeiten durch die vorgegebenen Parameter (PAR) bestimmt werden.
  3. Verfahren nach Anspruch 1 oder 2, wobei das Verfahren ferner folgende Schritte aufweist: - Übermitteln von Anpassungsdaten (ADJ) von einem Server (42) an eine den Objekterkennungsalgorithmus (32) durchführende Auswerteeinrichtung, wobei die Anpassungsdaten (ADJ) von dem Server (42) basierend auf der geografischen Position (POS) des Fahrzeuges (10) und basierend auf in dem Server (42) für ein bestimmtes geografisches Gebiet gespeicherten positionsabhängigen Umgebungsdaten (ENV) ermittelt wurden, - Anpassen der Parameter (PAR) für den Objekterkennungsalgorithmus (32) basierend auf den von dem Server (42) an die Auswerteeinrichtung übermittelten Anpassungsdaten (ADJ).
  4. Verfahren nach Anspruch 3, wobei das Verfahren ferner folgende Schritte aufweist: - Erfassen der geografischen Position (POS) des Fahrzeuges (10), - Übermitteln der erfassten geografischen Position (POS) des Fahrzeuges (10) an den Server (42).
  5. Verfahren nach Anspruch 3 oder 4, wobei zumindest eine Komponente der Auswerteeinrichtung in dem Fahrzeug (10) angeordnet ist und das Übermitteln der Anpassungsdaten (ADJ) von dem Server (42) an diese Komponente der Auswerteeinrichtung durch ein Geocasting der Anpassungsdaten (ADJ) an innerhalb des geografischen Gebiets befindliche Fahrzeuge erfolgt.
  6. Verfahren nach einem der Ansprüche 3 bis 5, wobei die in dem Server (42) gespeicherten positionsabhängigen Umgebungsdaten (ENV) Merkmale in einem Bereich um die betreffende geografische Position und/oder den vorbestimmten Arten von Objekten (20) in diesem Bereich zuzuordnende Auftretenswahrscheinlichkeiten repräsentieren.
  7. Verfahren nach Anspruch 6, wobei die Merkmale das Vorhandensein vorbestimmter Arten von Bauwerken, insbesondere Gebäuden, in dem Bereich um die betreffende geografische Position umfassen, insbesondere wobei diese Arten jeweils durch einen bestimmten Nutzungszweck des Bauwerkes bzw. Gebäudes definiert sind.
  8. Verfahren nach Anspruch 6 oder 7, wobei die Merkmale das Vorhandensein vorbestimmter Arten von temporären Ereignissen, insbesondere Veranstaltungen, in dem Bereich um die betreffende geografische Position umfassen, insbesondere wobei diese Arten jeweils durch einen bestimmten Zweck des Ereignisses definiert sind.
  9. Verfahren nach einem der Ansprüche 6 bis 8, wobei die den vorbestimmten Arten von Objekten (20) in dem Bereich um die betreffende geografische Position zuzuordnenden Auftretenswahrscheinlichkeiten empirisch ermittelt wurden.
  10. Verfahren nach einem der vorangehenden Ansprüche, wobei der Objekterkennungsalgorithmus (32) aufweist: - einen ersten Algorithmusteil (32a), der dazu ausgebildet ist, anhand des Bildes (34) eine vorläufige Erkennung der Objekte (20) in der Umgebung (12) des Fahrzeuges (10) durchzuführen, - einen zweiten Algorithmusteil (32b), der dazu ausgebildet ist, basierend auf den vorgegebenen Parametern (PAR) das Ergebnis der vorläufigen Erkennung der Objekte (20) in der Umgebung (12) des Fahrzeuges (10) zu korrigieren.
  11. Verfahren nach Anspruch 10, wobei der erste Algorithmusteil (32a) ein basierend auf durch Training ermittelten KI-Parametern (KI-PAR) arbeitendes KI-Modul aufweist.
  12. Verfahren nach einem der Ansprüche 1 bis 11, wobei der Objekterkennungsalgorithmus (32) ein basierend auf durch Training ermittelten KI-Parametern (KI-PAR) arbeitendes KI-Modul aufweist, wobei diese KI-Parameter (KI-PAR) als ein Bestandteil der dem Objekterkennungsalgorithmus (32) vorzugebenden Parameter (PAR) in Abhängigkeit von der geografischen Position (POS) des Fahrzeuges (10) vorgegeben werden, indem in Abhängigkeit von der geografischen Position (POS) des Fahrzeuges (10) diese KI-Parameter (KI-PAR) als ein der geografischen (POS) Position des Fahrzeuges (10) zugeordneter KI-Parametersatz aus einer Vielzahl von KI-Parametersätzen (KI-PAR1, KI-PAR2, KI-PAR3 ...) ausgewählt wird, die vorab empirisch ermittelt und für ein bestimmtes geografisches Gebiet als positionsabhängige KI-Parametersätze (KI-PAR1, KI-PAR2, KI-PAR3 ...) gespeichert wurden.
  13. System zum Auswerten jeweiliger Bilder von jeweiligen Umgebungen einer Vielzahl von Fahrzeugen (10-1, 10-2, 10-3 ...), um anhand der jeweiligen Bilder jeweilige Objekte (20) in der jeweiligen Umgebung (12) der Fahrzeuge (10-1, 10-2, 10-3 ...) zu erkennen, aufweisend: - eine Vielzahl von Fahrzeugen (10-1, 10-2, 10-3 ...), die jeweils aufweisen: - eine Bildaufnahmeeinrichtung zum Aufnehmen eines Bildes (34) einer Umgebung (12) des Fahrzeuges (10-1, 10-2, 10-3 ...), - eine Auswerteeinrichtung (50), die dazu ausgebildet ist, das Bild (34) unter Verwendung eines basierend auf vorgegebenen Parametern (PAR) arbeitenden Objekterkennungsalgorithmus (32) auszuwerten, um Objekte (20) in der Umgebung (12) des Fahrzeuges (10-1, 10-2, 10-3 ...) zu erkennen, und ferner dazu ausgebildet ist, die Parameter (PAR) für den Objekterkennungsalgorithmus (32) basierend auf Anpassungsdaten (ADJ) anzupassen, - einen Server (42), der dazu ausgebildet ist, für ein bestimmtes geografisches Gebiet positionsabhängige Umgebungsdaten (ENV) zu speichern und für geografische Positionen innerhalb des geografischen Gebiets jeweilige Anpassungsdaten (ADJ) zu ermitteln, - ein Kommunikationssystem, das dazu ausgebildet ist, die von dem Server (42) für die jeweiligen geografischen Positionen (POS1, POS2, POS3 ...) der Fahrzeuge (10-1, 10-2, 10-3 ...) jeweils ermittelten Anpassungsdaten (ADJ1, ADJ2, ADJ3 ...) von dem Server (42) an die Bildauswerteeinrichtungen (50) der jeweiligen Fahrzeuge (10-1, 10-2, 10-3 ...) zu übermitteln.
DE102019219144.4A 2019-12-09 2019-12-09 Verfahren und System zur Bildauswertung für eine Objekterkennung in der Umgebung von Fahrzeugen Pending DE102019219144A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102019219144.4A DE102019219144A1 (de) 2019-12-09 2019-12-09 Verfahren und System zur Bildauswertung für eine Objekterkennung in der Umgebung von Fahrzeugen

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019219144.4A DE102019219144A1 (de) 2019-12-09 2019-12-09 Verfahren und System zur Bildauswertung für eine Objekterkennung in der Umgebung von Fahrzeugen

Publications (1)

Publication Number Publication Date
DE102019219144A1 true DE102019219144A1 (de) 2021-06-10

Family

ID=75962294

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019219144.4A Pending DE102019219144A1 (de) 2019-12-09 2019-12-09 Verfahren und System zur Bildauswertung für eine Objekterkennung in der Umgebung von Fahrzeugen

Country Status (1)

Country Link
DE (1) DE102019219144A1 (de)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012218390A1 (de) * 2011-10-20 2013-04-25 Ibm International Business Machines Corporation Optimierung der Erkennung von Objekten in Bildern
DE102017007777A1 (de) * 2017-08-16 2018-02-15 Daimler Ag Verfahren zum Betreiben eines Assistenzsystems für ein Kraftfahrzeug, Assistenzsystem, eingerichtet zur Durchführung eines solchen Verfahrens, und Kraftfahrzeug mit einem solchen Assistenzsystem
DE102016124157A1 (de) * 2016-12-13 2018-06-14 Valeo Schalter Und Sensoren Gmbh Ermitteln einer Bremsnotwendigkeit zum Vermeiden einer Kollision eines Kraftfahrzeugs mit einem Fußgänger
US20190086549A1 (en) * 2017-09-15 2019-03-21 Toyota Research Institute, Inc. System and method for object detection using a probabilistic observation model
US20190265703A1 (en) * 2018-02-26 2019-08-29 Nvidia Corporation Systems and methods for computer-assisted shuttles, buses, robo-taxis, ride-sharing and on-demand vehicles with situational awareness

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012218390A1 (de) * 2011-10-20 2013-04-25 Ibm International Business Machines Corporation Optimierung der Erkennung von Objekten in Bildern
DE102016124157A1 (de) * 2016-12-13 2018-06-14 Valeo Schalter Und Sensoren Gmbh Ermitteln einer Bremsnotwendigkeit zum Vermeiden einer Kollision eines Kraftfahrzeugs mit einem Fußgänger
DE102017007777A1 (de) * 2017-08-16 2018-02-15 Daimler Ag Verfahren zum Betreiben eines Assistenzsystems für ein Kraftfahrzeug, Assistenzsystem, eingerichtet zur Durchführung eines solchen Verfahrens, und Kraftfahrzeug mit einem solchen Assistenzsystem
US20190086549A1 (en) * 2017-09-15 2019-03-21 Toyota Research Institute, Inc. System and method for object detection using a probabilistic observation model
US20190265703A1 (en) * 2018-02-26 2019-08-29 Nvidia Corporation Systems and methods for computer-assisted shuttles, buses, robo-taxis, ride-sharing and on-demand vehicles with situational awareness

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
BURGSTAHLER, D. - M.: Collaborative Sensing in Automotive Scenarios: Enhancement of the Vehicular Electronic Horizon through Collaboratively Sensed Knowledge, 2017, Doktorarbeit, Technische Universität Darmstadt.URL: https://tuprints.ulb.tu-darmstadt.de/6554/1/DBu_Dissertation_pub.pdf [abgerufen am 14.10.2020] *
HUGHES, C. [et al.]: DriveSpace: Towards context-aware drivable area detection. In: Electronic Imaging, 2019, Nr. 15, S. 42-1-42-9.URL: https://www.ingentaconnect.com/contentone/ist/ei/2019/00002019/00000015/art00012?crawler=true&mimetype=application/pdf[abgerufen am 15.10.2020] *

Similar Documents

Publication Publication Date Title
EP2979261B1 (de) Backend für fahrerassistenzsysteme
DE102017217443B4 (de) Verfahren und System zur Bereitstellung von Trainingsdaten zum maschinellen Lernen für ein Steuerungsmodell einer automatischen Fahrzeugsteuerung
DE102016222782A1 (de) Autonomes Steuern eines Kraftfahrzeugs anhand von Spurdaten; Kraftfahrzeug
DE102017221407A1 (de) Fahrassistenzsystem, das navigationsinformation verwendet, und dessen betriebsverfahren
DE102013211696A1 (de) Verfahren zum Vervollständigen und/oder Aktualisieren einer digitalen Straßenkarte, Vorrichtung für ein Kraftfahrzeug und Kraftfahrzeug
DE19842176A1 (de) Verfahren und Vorrichtung zur Verkehrszeichenerkennung und Navigation
DE102016205434A1 (de) Verfahren und System zum Erstellen einer spurgenauen Belegungskarte für Fahrspuren
DE102017201665A1 (de) Verfahren zur Einbindung eines dynamischen Objektes in eine digitale Karte eines hochautomatisierten Fahrzeugs (HAF)
DE102013009856B4 (de) Positionsbestimmung eines stationären Verkehrsobjekts mittels einer zentralen Serveranordnung
DE102016210534A1 (de) Verfahren zum Klassifizieren einer Umgebung eines Fahrzeugs
DE102016215249B4 (de) Verfahren und Vorrichtung zum Unterstützen eines Fahrerassistenzsystems in einem Kraftfahrzeug
DE102017222751A1 (de) Verfahren und System zum Warnen von Verkehrsteilnehmern vor einer Falschfahrt eines Fahrzeugs mit Nachplausibilisierung
DE102019208176A1 (de) Fahrzeug-fahrassistenz-system
DE102019208192A1 (de) Verkehrszeichen-erkennungssystem
DE102015223656A1 (de) Fahrerassistenzsystem und -Verfahren zur Fahrspurempfehlung
EP3465652A1 (de) Verfahren vorrichtung und system zur falschfahrererkennung
DE102018113314A1 (de) Fahrassistenzsystem
WO2018210581A1 (de) Verfahren zum erzeugen einer überholwahrscheinlichkeitssammlung, verfahren zum betreiben einer steuereinrichtung eines kraftfahrzeugs, überholwahrscheinlichkeitssammeleinrichtung und steuereinrichtung
WO2006013169A1 (de) Verfahren zur routenführung, speicher mit kartendaten und navigationssystem
DE102018007659A1 (de) Verfahren zum Aktualisieren einer Umgebungskarte für ein Kraftfahrzeug
DE102013212010A1 (de) Verfahren und Vorrichtung zum Unterstützen einer Engstellendurchfahrung für ein Fahrzeug, Verfahren zum Unterstützen einer Engstellendurchfahrung für ein Nachfolgefahrzeug und Verfahren zum Verwalten von Vermessungsinformationen zum Unterstützen von Engstellendurchfahrungen von Fahrzeugen
EP3736789A1 (de) Verfahren und system zum bereitstellen von umfeldinformationen
DE102019216747A1 (de) Verfahren zum Bereitstellen eines Überlagerungskartenabschnitts
DE102019219144A1 (de) Verfahren und System zur Bildauswertung für eine Objekterkennung in der Umgebung von Fahrzeugen
DE102018117830A1 (de) Digitale Umfeldkarte mit Sensorreichweiten

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009620000

Ipc: G06V0030190000

R081 Change of applicant/patentee

Owner name: CONTINENTAL AUTOMOTIVE TECHNOLOGIES GMBH, DE

Free format text: FORMER OWNER: CONTINENTAL AUTOMOTIVE GMBH, 30165 HANNOVER, DE

R081 Change of applicant/patentee

Owner name: CONTINENTAL AUTOMOTIVE TECHNOLOGIES GMBH, DE

Free format text: FORMER OWNER: CONTINENTAL AUTOMOTIVE TECHNOLOGIES GMBH, 30165 HANNOVER, DE