DE102020208008A1 - Bildklassifikation und zugehöriges Training für sicherheitsrelevante Klassifikationsaufgaben - Google Patents

Bildklassifikation und zugehöriges Training für sicherheitsrelevante Klassifikationsaufgaben Download PDF

Info

Publication number
DE102020208008A1
DE102020208008A1 DE102020208008.9A DE102020208008A DE102020208008A1 DE 102020208008 A1 DE102020208008 A1 DE 102020208008A1 DE 102020208008 A DE102020208008 A DE 102020208008A DE 102020208008 A1 DE102020208008 A1 DE 102020208008A1
Authority
DE
Germany
Prior art keywords
image data
relevance
learning
classifier
areas
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102020208008.9A
Other languages
English (en)
Inventor
Udo Mayer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102020208008.9A priority Critical patent/DE102020208008A1/de
Priority to US17/357,071 priority patent/US11978262B2/en
Priority to CN202110716868.1A priority patent/CN113935362A/zh
Publication of DE102020208008A1 publication Critical patent/DE102020208008A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q9/00Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

Verfahren (100) zum Trainieren eines Klassifikators (1) für Bilddaten (2) anhand von Lern-Bilddaten (11) und zugehörigen Labels (14), wobei die Labels (14) jeweils eine Zuordnung zu einer oder mehreren Klassen (3a-3c) einer vorgegebenen Klassifikation beinhalten, mit den Schritten:• für Datensätze von Lern-Bilddaten (11) werden jeweils ortsaufgelöste Relevanzkarten (12) bereitgestellt (110), die angeben, wie relevant welche räumlichen Bereiche der jeweiligen Lern-Bilddaten (11) für die Beurteilung der in diesen Lern-Bilddaten (11) dargestellten Situation sind;• aus Datensätzen von Lern-Bilddaten (11) und zugehörigen Relevanzkarten (12) werden Lern-Vorlagen (13) ermittelt (120), wobei in diesen Lern-Vorlagen (13) die Informationen aus den Lern-Bilddaten (11) lokal umso stärker ausgeprägter sind, je höher die lokale Relevanz gemäß der Relevanzkarte (12) ist;• die Lern-Vorlagen (13) werden dem Klassifikator (1) zugeführt (130); und• Parameter (15), die das Verhalten des Klassifikators (1) charakterisieren, werden optimiert (140) mit dem Ziel, dass der Klassifikator (1) die Lern-Vorlagen (13) auf Zuordnungen zu einer oder mehreren Klassen (3a-3c) abbildet, die mit den Labels (14) der Lern-Bilddaten (11), aus denen die Lern-Vorlagen (13) hervorgegangen sind, in Einklang stehen.

Description

  • Die vorliegende Erfindung betrifft die automatische Klassifikation von Bilddaten hinsichtlich ihres Inhalts, beispielsweise für das zumindest teilweise automatisierte Führen von Fahrzeugen.
  • Stand der Technik
  • Etwa 90 % der Informationen, die ein menschlicher Fahrer zum Führen eines Fahrzeugs im Straßenverkehr benötigt, sind visuelle Informationen. Für das zumindest teilweise automatisierte Führen von Fahrzeugen ist es daher unabdingbar, Bilddaten gleich welcher Modalität, die bei der Überwachung des Fahrzeugumfelds aufgenommen werden, inhaltlich zutreffend auszuwerten. Von besonderer Bedeutung für die Fahraufgabe ist eine Klassifikation der Bilddaten dahingehend, welche verkehrsrelevanten Objekte in ihnen enthalten sind, wie beispielsweise andere Verkehrsteilnehmer, Fahrbahnmarkierungen, Hindernisse und Verkehrszeichen.
  • Zur Bewältigung dieser Komplexität werden künstliche neuronale Netzwerke eingesetzt. Derartige neuronale Netze können beispielsweise aus mehreren hintereinandergeschalteten Schichten bestehen, in denen die Dimensionalität der Aufgabe durch die Anwendung von Faltungskernen und durch Downsampling deutlich reduziert wird. Derartige neuronale Netze zeichnen sich weiterhin dadurch aus, dass die Daten massiv parallel verarbeitet werden. Die GB 2 454 857 B gibt ein Beispiel für ein Verfahren, bei dem ein Mikroskopbild mit Hilfe eines selbstlernenden neuronalen Netzes dahingehend klassifiziert wird, welche Objekte es enthält.
  • Für die sicherheitstechnische Bewertung neuronaler Netzwerke und anderer trainierbarer Klassifikatoren ist es wichtig, inwieweit deren Verhalten erklärbar und nachvollziehbar ist.
  • Offenbarung der Erfindung
  • Im Rahmen der Erfindung wurde ein Verfahren zum Trainieren eines Klassifikators für Bilddaten anhand von Lern-Bilddaten und zugehörigen Labels entwickelt. Der Begriff „Bilddaten“ umfasst neben statischen Bildern und Frames (Einzelbildern) aus Filmen oder Bildsequenzen insbesondere auch derartige Filme und Bildsequenzen. Dem kompletten Film, bzw. der kompletten Bildsequenz, wohnt eine zusätzliche Information hinsichtlich der dynamischen Veränderung der Bildinhalte inne. Diese dynamische Qualität fehlt den Einzelbildern. Dass diese dynamische Qualität wichtig ist, ist konsistent damit, dass der Mensch bewegte oder blinkende Bildinhalte gegenüber statischen Bildinhalten bevorzugt wahrnimmt.
  • Die Labels beinhalten jeweils eine Zuordnung zu einer oder mehreren Klassen einer vorgegebenen Klassifikation. Die Klassen können beispielsweise Objekte repräsentieren, die in den Lern-Bilddaten sichtbar sind. In Bilddaten von Verkehrssituationen können diese Objekte insbesondere Fußgänger, andere Fahrzeuge, Fahrbahnbegrenzungen, Verkehrszeichen und andere verkehrsrelevante Objekte sein.
  • Es werden für einige oder idealerweise für alle Datensätze von Lern-Bilddaten jeweils ortsaufgelöste Relevanzkarten bereitgestellt. Diese Relevanzkarten geben an, wie relevant welche räumlichen Bereiche der jeweiligen Lern-Bilddaten für die Beurteilung der in diesen Lern-Bilddaten dargestellten Situation sind. Ein Datensatz von Lern-Bilddaten kann beispielsweise ein statisches Bild oder ein Frame aus einem Film oder einer Bildsequenz sein. Ein Datensatz von Lern-Bilddaten kann aber auch ein Film oder eine Bildsequenz sein. So kann beispielsweise eine dynamische Veränderung in einem bestimmten räumlichen Gebiet im Verlauf eines Films oder einer Bildsequenz schon einen Anlass dafür setzen, dass dieses räumliche Gebiet als besonders relevant eingestuft wird.
  • Die Relevanz kann im einfachsten Fall binär angegeben werden (etwa 0 = nicht relevant, 1 = relevant), aber auch in beliebigen Abstufungen, die eine relative Priorisierung von räumlichen Bereichen in den Bilddaten zueinander ausdrücken können.
  • Aus Datensätzen von Lern-Bilddaten und zugehörigen Relevanzkarten werden Lern-Vorlagen ermittelt. In diesen Lern-Vorlagen sind die Informationen aus den Lern-Bilddaten umso stärker ausgeprägt, je höher die lokale Relevanz gemäß der Relevanzkarte ist. Zu diesem Zweck können beispielsweise in den Lern-Vorlagen räumliche Bereiche, deren lokale Relevanz unterhalb eines vorgegebenen Schwellwerts liegt, ausgeblendet, weichgezeichnet oder in sonstiger Weise unkenntlich gemacht werden.
  • Die Lern-Vorlagen werden dem Klassifikator zugeführt. Daraufhin bildet der Klassifikator die Lern-Vorlagen auf Zuordnungen zu einer oder mehreren Klassen ab. Parameter, die das Verhalten des Klassifikators charakterisieren, werden nun optimiert mit dem Ziel, dass diese Zuordnungen mit den Labels der Lern-Bilddaten, aus denen die Lern-Vorlagen hervorgegangen sind, in Einklang stehen.
  • Wenn der Klassifikator beispielsweise ein künstliches neuronales Netzwerk, KNN, beinhaltet oder ein KNN ist, können die trainierbaren Parameter beispielsweise Gewichte umfassen, mit denen Eingaben von Neuronen oder anderen Verarbeitungseinheiten gewichtet zu einer Aktivierung des jeweiligen Neurons, bzw. der jeweiligen Verarbeitungseinheit, verrechnet werden.
  • Die ortsaufgelöste Relevanzkarte kann aus einer beliebigen Quelle stammen. Sie kann beispielsweise zusammen mit den Labels als weitere Zusatzinformation zu den Lern-Bilddaten mitgeliefert werden. Die ortsaufgelöste Relevanzkarte kann aber auch beispielsweise aus einem weiteren trainierten KNN abgerufen werden. Das heißt, dieses weitere KNN kann speziell auf die Fragestellung trainiert sein, welche räumlichen Bereiche der Bilddaten in welcher Situation besonderer Aufmerksamkeit bedürfen, unabhängig davon, was genau in diesen räumlichen Bereichen der Bilddaten enthalten ist.
  • Es wurde erkannt, dass die Berücksichtigung der Relevanzkarte beim Training das Verhalten des Klassifikators deutlich besser nachvollziehbar und erklärbar macht. Analysen der „heat maps“ derjenigen Bildpixel, die für eine Zuordnung zu bestimmten Klassen (etwa Typen von Objekten) maßgeblich gewesen sind, haben in der Vergangenheit gezeigt, dass die Entscheidung für bestimmte Klassen vielfach auf der Grundlage von Bildpixeln erfolgte, die gar nicht zu den entsprechenden Objekten gehörten. Dieses Verhalten wird durch die Berücksichtigung der Relevanzkarte zumindest teilweise unterdrückt.
  • Der Effekt ist besonders ausgeprägt bei Klassifikatoren, die Bilddaten von Verkehrssituationen verarbeiten. Hier werden in der Regel große Raumwinkel des Umfelds eines Fahrzeugs erfasst. Es ist aber in jeder Situation meistens nur die Information aus einem kleinen Teil dieses Raumwinkels tatsächlich für die Bewältigung der Fahraufgabe relevant. Wäre dies nicht so, hätte ein Mensch, der immer nur in eine Richtung zur Zeit schauen kann, keine Chance, die Fahraufgabe zu meistern. Durch die Berücksichtigung der Relevanzkarte wird die Tendenz unterdrückt, dass eine Erkennung durch den Klassifikator sich auf Bildbereiche abseits des eigentlichen Verkehrsgeschehens „einschießt“.
  • Zugleich wird das Training auch effektiver und schneller, da der Klassifikator nicht mehr lernen muss, Wichtiges von Unwichtigem zu unterscheiden. Es kann also beispielsweise eine Arbeitsteilung geben zwischen dem KNN, das relevante Bildbereiche erkennt, und dem Klassifikator, der anschließend diese Bildbereiche auf ihren Gehalt an Objekten untersucht. Dies ist insgesamt einfacher zu trainieren als ein monolithischer Klassifikator, der beide Aufgaben übernimmt.
  • Die Erfindung bezieht sich auch auf ein Verfahren zum Klassifizieren von Bilddaten mit einem trainierten Klassifikator. Wie zuvor erläutert, können diese Bilddaten neben statischen Bildern insbesondere auch ganze Bildsequenzen oder Filme mit dynamischer Zusatzinformation umfassen.
  • Im Rahmen dieses Verfahrens wird eine ortsaufgelöste Relevanzkarte bereitgestellt, die angibt, wie relevant welche räumlichen Bereiche der Bilddaten für die Beurteilung der in diesen Bilddaten dargestellten Situation sind. Aus den Bilddaten und der ortsaufgelösten Relevanzkarte wird eine Vorlage ermittelt, in der die Informationen aus den Bilddaten lokal umso stärker ausgeprägter sind, je höher die lokale Relevanz gemäß der Relevanzkarte ist. Diese Vorlage wird dem Klassifikator zugeführt und von dem Klassifikator auf eine Zuordnung zu einer oder mehreren Klassen einer vorgegebenen Klassifikation abgebildet.
  • Analog zum Training können hierbei beispielsweise Bereiche, deren lokale Relevanz unterhalb eines vorgegebenen Schwellwerts liegt, ausgeblendet, weichgezeichnet oder in sonstiger Weise unkenntlich gemacht werden.
  • Die Berücksichtigung nur zuvor als relevant identifizierter Bildbereiche unterdrückt die bereits zuvor angesprochene Tendenz, die Klassifikation der Bilddaten an Objekten festzumachen, die gar nicht Teil der aktuell relevanten Verkehrssituation sind. Zugleich ermöglicht sie aber auch eine Verdichtung der Daten, die innerhalb des Fahrzeugs zu übertragen sind. Wenn beispielsweise mehrere Kameras im und am Fahrzeug verbaut sind, dann kann nahe an der jeweiligen Kamera die stark informationsreduzierte Vorlage erstellt werden. Diese Vorlage kann dann über ein Bussystem, das das ganze Fahrzeug versorgt, an einen zentralen Klassifikator weitergeleitet werden, der die Verkehrssituation als Ganzes bewertet. Für diese Übertragung wird dann weniger Bandbreite benötigt.
  • Die meisten heutigen Fahrzeuge sind mit einem CAN-Bus oder anderen Bussystem ausgestattet, an das viele weitere Fahrzeugsysteme angeschlossen sind. Ein solches Bussystem ermöglicht es allen angeschlossenen Teilnehmern, miteinander zu kommunizieren. Gegenüber der früheren Bäume dedizierter Kabel zwischen je zwei Teilnehmern, die miteinander kommunizieren, spart dies erheblichen Verkabelungsaufwand ein. Der Preis hierfür ist jedoch, dass sich die angeschlossenen Teilnehmer die Bandbreite des Bussystems teilen müssen. In der Regel kann immer nur ein Teilnehmer zur Zeit senden. Wenn nun das ganze Fahrzeugumfeld mit einer Mehrzahl von Sensoren (etwa hochauflösenden Kameras) überwacht wird, werden große Datenmengen erzeugt, die sich möglicherweise gar nicht mehr zur Gänze über das Bussystem übertragen lassen. Selbst ein „Highspeed“-CAN-Bus hat nur maximal 1 Mbit/s Bandbreite, was schon für einen Full-HD-Videodatenstrom zu wenig ist. Indem nun aber die Informationsmenge durch Bildung der Vorlage vor der Übertragung über das Bussystem deutlich reduziert wird und die Daten somit verlustbehaftet komprimiert werden, reicht die Bandbreite auch für den Transport der von mehreren Kameras gewonnenen und in gleicher Weise reduzierten Daten aus.
  • Auch beim Klassifizieren von Bilddaten mit dem Klassifikator kann, analog zum Trainieren des Klassifikators, die ortsaufgelöste Relevanzkarte zu mindestens einem Datensatz von Bilddaten aus einem trainierten KNN abgerufen werden.
  • Die Erfindung bezieht sich auch auf ein Verfahren zum Messen einer ortsaufgelösten Relevanzkarte für einen konkreten Datensatz von Bilddaten (bzw. Lern-Bilddaten). Diese ortsaufgelöste Relevanzkarte kann beispielsweise für das Training eines Klassifikators, zur Bildung einer vom Klassifikator zu verarbeitenden Vorlage oder für das Training eines KNN, das ortsaufgelöste Relevanzkarten zu Bilddaten ermittelt, verwendet werden.
  • Bei diesem Verfahren werden die Bilddaten mindestens einer Versuchsperson präsentiert. Die Versuchsperson erhält die Aufgabe, die aus ihrer Sicht relevanten Inhalte der Bilddaten wahrzunehmen und, wenn sie das getan hat, eine Eingabe zu tätigen. Während die Bilddaten präsentiert werden, wird überwacht, welchen räumlichen Bereichen der Bilddaten die Versuchsperson ihre Aufmerksamkeit zuwendet.
  • In Antwort auf die Eingabe von der Versuchsperson, dass sie die relevanten Inhalte der Bilddaten wahrgenommen hat, werden räumliche Bereiche dieser Bilddaten, denen die Versuchsperson zuvor ihre Aufmerksamkeit zugewendet hat, erfasst. Es wird also ermittelt, welche räumlichen Bereiche der Bilddaten den Ausschlag dafür gegeben haben, dass die Versuchsperson den Inhalt der Bilddaten erkannt hat.
  • Hierbei kann optional überprüft werden, ob die Versuchsperson den Inhalt der Bilddaten nicht nur erkannt zu haben glaubt, sondern auch tatsächlich richtig erkannt hat. Es kann also beispielsweise nicht nur eine Eingabe dahingehend angefordert werden, dass die Versuchsperson die relevanten Inhalte der Bilddaten wahrgenommen hat, sondern es kann auch abgefragt werden, was die Versuchsperson ihrer Meinung nach genau erkannt hat. Die Antwort auf diese Frage kann mit einem vorab bekannten Label dahingehend, welche Objekte tatsächlich in den Bilddaten enthalten sind, verglichen werden. Beispielsweise kann auf die Eingabe der Versuchsperson, dass sie die relevanten Inhalte der Bilddaten wahrgenommen hat, die Präsentation beendet (also etwa das Bild oder der Film ausgeblendet) werden, und es können mehrere Objektnamen präsentiert werden, aus denen die Versuchsperson die richtigen auswählen muss. Die Eingabe der Versuchsperson dahingehend, dass die relevanten Inhalte wahrgenommen wurden, kann dann beispielsweise verworfen werden, wenn bei der Nachfrage nicht das richtige Objekt oder nicht zumindest die richtige Objektklasse (etwa „Hund“ oder „Tier“ als Oberklasse von „Husky“) genannt wird.
  • Die lokale Relevanz derjenigen Bereiche, der die Versuchsperson ihre Aufmerksamkeit zugewendet hat, in der Relevanzkarte wird erhöht. Dies kann insbesondere beispielsweise auch im Zusammenspiel vieler Versuchspersonen erfolgen. Aus der Betrachtung der Bilddaten durch jede Versuchsperson kann beispielsweise durch einen Voting-Mechanismus die Information aggregiert werden, welche räumlichen Bereiche der Bilddaten im Mittel als relevant empfunden werden.
  • Welchen räumlichen Bereichen der Bilddaten die Versuchsperson ihre Aufmerksamkeit zuwendet, hängt nicht unbedingt allein von den Bilddaten selbst ab, sondern kann auch durch eine dieser Versuchsperson gestellte Aufgabe beeinflusst sein. So kann beispielsweise in einem Fahrzeug der Fahrer mit der Fahraufgabe beschäftigt sein, während der Beifahrer einen Parkplatz, einen Briefkasten oder ein bestimmtes Geschäft sucht. Wenn also beispielsweise eine Relevanzkarte für das zumindest teilweise automatisierte Führen des Fahrzeugs gemessen wird, sollte eher ein Fahrzeugführer als ein Beifahrer als Versuchsperson herangezogen werden.
  • In einer besonders vorteilhaften Ausgestaltung werden die Kopfhaltung, die Augenposition, und/oder die Augenbewegungen, der Versuchsperson registriert. Die Bereiche, denen die Versuchsperson ihre Aufmerksamkeit zuwendet, können dann aus der Kopfhaltung, der Augenposition und/oder den Augenbewegungen ausgewertet werden. Dies ist ein Indikator, der von der Versuchsperson kaum bewusst beeinflussbar ist. Zugleich steuert gerade ein Fahrer eines Fahrzeugs seine Auswahl dessen, was er vom Verkehrsgeschehen für wichtig erachtet, in der Regel über Kopfhaltung (etwa Schulterblick), Augenposition und/oder Augenbewegungen. Andere Bewegungen sind durch das angeschnallte Sitzen auf dem Fahrersitz eingeschränkt.
  • Alternativ oder auch in Kombination hierzu können in einer weiteren vorteilhaften Ausgestaltung verschiedene Teilbereiche der Bilddaten sukzessive für die Versuchsperson sichtbar werden. Diejenigen Teilbereiche der Bilddaten, die zum Zeitpunkt der Eingabe der Versuchsperson sichtbar sind, können dann als diejenigen Bereiche gewertet werden, denen die Versuchsperson ihre Aufmerksamkeit zuwendet. Dies erfordert keine spezielle Hardware für die Erkennung, worauf die Versuchsperson genau schaut.
  • Insbesondere kann beispielsweise ein und derselbe Datensatz von Bilddaten mehreren Versuchspersonen präsentiert werden. Es können dann beispielsweise diesen Versuchspersonen unterschiedliche Abfolgen sukzessive sichtbar werdender Teilbereiche der Bilddaten präsentiert werden. Dies kann beinhalten, dass die Reihenfolge der sukzessiv sichtbar werdenden Teilbereiche verändert wird, und/oder dass einigen Versuchspersonen Teilbereiche präsentiert werden, die anderen Versuchspersonen nicht präsentiert werden. Im Mittel über diese Versuchspersonen ergibt sich dann eine repräsentative Aussage dahingehend, welche Teilbereiche der Bilddaten beispielsweise für die Beurteilung von Verkehrssituationen relevant sind.
  • Die ortsaufgelöste Relevanzkarte sowie ein KNN, welches solche Relevanzkarten erzeugt, lassen sich darüber hinaus noch nutzen, um zu prüfen, ob ein Fahrzeugführer oder Maschinenbediener seine Aufmerksamkeit aktuell denjenigen Dingen zuwendet, die im Hinblick auf die Sicherheit gerade wichtig sind.
  • Daher bezieht sich die Erfindung auch auf ein Verfahren zur Überwachung und/oder Steuerung der Aufmerksamkeit eines Fahrzeugführers oder Maschinenbedieners. Bei diesem Verfahren werden Bilddaten der Situation, in der sich das geführte Fahrzeug bzw. die bediente Maschine befindet, mit mindestens einem Sensor erfasst. Zu diesen Bilddaten wird eine ortsaufgelöste Relevanzkarte aus einem trainierten künstlichen neuronalen Netzwerk, KNN, abgerufen. Diese ortsaufgelöste Relevanzkarte gibt an, wie relevant welche Bereiche der Bilddaten für die Beurteilung der in diesen Bilddaten dargestellten Situation sind.
  • Auf der Basis dieser Relevanzkarte wird eine Information und/oder Warnung an den Fahrzeugführer bzw. Maschinenbediener ausgegeben. Beispielsweise kann der Fahrzeugführer bzw. Maschinenbediener unabhängig von seinem aktuellen tatsächlichen Verhalten stets darüber informiert werden, welche Aspekte seiner aktuellen Situation aus sicherheitstechnischer Sicht gerade besonders wichtig sind. Sollte sich gar beim Abgleich mit dem tatsächlichen Verhalten des Fahrzeugführers bzw. Maschinenbedieners herausstellen, dass er seine Aufmerksamkeit etwas anderem zuwendet als den aktuell wichtigen Aspekten, kann er mit einer Warnung hierauf hingewiesen werden.
  • Hierhinter steckt die Überlegung, dass es beim Erlernen des Fahrens für einen menschlichen Fahrer eine der größten Herausforderungen ist, in der Informationsflut des Verkehrsgeschehens Wichtiges von Unwichtigem zu trennen. Immer wieder gibt es Situationen, in denen der Fahrschüler seine Aufmerksamkeit ganz einem Aspekt widmet und vom Fahrlehrer darauf hingewiesen werden muss, dass etwas anderes eigentlich wichtiger ist.
  • Darüber hinaus kann beispielsweise in Innenstädten Werbung in Geschäften oder am Straßenrand sehr viel Aufmerksamkeit binden. Die Werbung ist vielfach so aufgemacht, dass bestimmte „Aufhänger“, etwa ein günstiger Preis, in den Vordergrund gestellt und auch von einem vorbeifahrenden Fahrzeug aus zu lesen ist. Der Preis ist dann jedoch mit einem Stern versehen, der auf Bedingungen hinweist, und der Versuch, diese klein geschriebenen Bedingungen zu lesen, zieht möglicherweise sehr viel Aufmerksamkeit vom Verkehrsgeschehen ab.
  • Beispielsweise kann dem Fahrzeugführer oder Maschinenbediener eine Überlagerung der Situation mit einem Hinweis auf mindestens einen räumlichen Bereich der Bilddaten, dessen lokale Relevanz ausweislich der Relevanzkarte einen vorgegebenen Schwellwert überschreitet, präsentiert werden. Zu diesem Zweck kann beispielsweise in einem Head-Up-Display auf einer Windschutzscheibe oder in einer vom Fahrzeugführer bzw. Maschinenbediener getragenen Datenbrille durch Einblenden einer Umrandung oder eines ähnlichen Hinweises der aktuell besonders relevante Bereich der Situation hervorgehoben werden.
  • In einer weiteren besonders vorteilhaften Ausgestaltung werden die Kopfhaltung, die Augenposition, und/oder die Augenbewegungen, des Fahrzeugführers bzw. Maschinenbedieners registriert. Aus der Kopfhaltung, der Augenposition, und/oder den Augenbewegungen, wird ausgewertet, welchen Teil der Situation der Fahrzeugführer bzw. Maschinenbediener vorwiegend beobachtet.
  • Es wird geprüft, inwieweit dieser Teil der Situation im Einklang steht mit mindestens einem räumlichen Bereich der Bilddaten, dessen lokale Relevanz ausweislich der Relevanzkarte einen vorgegebenen Schwellwert überschreitet. In Antwort auf die Feststellung, dass der vorwiegend beobachtete Teil der Situation nicht im Einklang zu dem als besonders relevant erkannten räumlichen Bereich der Bilddaten steht, wird eine für den Fahrzeugführer bzw. Maschinenbediener wahrnehmbare optische, akustische und/oder haptische Warneinrichtung angesteuert.
  • Neben dem beschriebenen Beispiel der Werbung gibt es viele weitere Situationen, in denen gerade Ungewohntes und Unerwartetes plötzlich Aufmerksamkeit bindet. So kann beispielsweise beim Bedienen einer Stanzmaschine plötzlich ein Geldschein ins Blickfeld geraten, der auf dem Boden liegt, weil ihn ein Kollege verloren hat. Der Bediener fixiert dann zunächst diesen Geldschein, statt den Arbeitsbereich der Maschine zu beobachten und insbesondere darauf zu achten, dass beide Hände außerhalb der Gefahrenzone sind. Dies kann durch den Vergleich mit der Relevanzkarte, in der speziell diese Gefahrenzone als besonders relevant eingestuft ist, erkannt werden.
  • Die Verfahren können insbesondere ganz oder teilweise computerimplementiert sein. Daher bezieht sich die Erfindung auch auf ein Computerprogramm mit maschinenlesbaren Anweisungen, die, wenn sie auf einem oder mehreren Computern ausgeführt werden, den oder die Computer zu der zuvor beschrieben Vorrichtung aufwerten, und/oder dazu veranlassen, eines der zuvor beschriebenen Verfahren auszuführen. In diesem Sinne sind auch Steuergeräte für Fahrzeuge und Embedded-Systeme für technische Geräte, die ebenfalls in der Lage sind, maschinenlesbare Anweisungen auszuführen, als Computer anzusehen.
  • Ebenso bezieht sich die Erfindung auch auf einen maschinenlesbaren Datenträger und/oder auf ein Downloadprodukt mit dem Computerprogramm. Ein Downloadprodukt ist ein über ein Datennetzwerk übertragbares, d.h. von einem Benutzer des Datennetzwerks downloadbares, digitales Produkt, das beispielsweise in einem Online-Shop zum sofortigen Download feilgeboten werden kann.
  • Weiterhin kann ein Computer mit dem Computerprogramm, mit dem maschinenlesbaren Datenträger bzw. mit dem Downloadprodukt ausgerüstet sein.
  • Weitere, die Erfindung verbessernde Maßnahmen werden nachstehend gemeinsam mit der Beschreibung der bevorzugten Ausführungsbeispiele der Erfindung anhand von Figuren näher dargestellt.
  • Figurenliste
  • Es zeigt:
    • 1 Ausführungsbeispiel des Verfahrens 100 zum Trainieren eines Klassifikators 1;
    • 2 Ausführungsbeispiel des Verfahrens 200 zum Klassifizieren von Bilddaten 2;
    • 3 Beispielhafte Erzeugung einer Vorlage 23 für die Klassifikation aus Bilddaten 2;
    • 4 Ausführungsbeispiel des Verfahrens 300 zur Messung einer Relevanzkarte 12, 22;
    • 5 Ausführungsbeispiel des Verfahrens 400 zur Überwachung und/oder Steuerung der Aufmerksamkeit eines Fahrzeugführers oder Maschinenbedieners 40.
  • 1 ist ein schematisches Ablaufdiagramm eines Ausführungsbeispiels des Verfahrens 100 zum Trainieren eines Klassifikators 1 für Bilddaten 2. In Schritt 110 werden für Lern-Bilddaten 11 jeweils ortsaufgelöste Relevanzkarten 12 bereitgestellt, wobei diese Relevanzkarten 12 gemäß Block 111 beispielsweise aus einem entsprechend trainierten KNN abgerufen werden können. In Schritt 120 werden aus Lern-Bilddaten 11 und zugehörigen Relevanzkarten 12 Lern-Vorlagen 13 ermittelt, in denen die Informationen aus den Lern-Bilddaten 11 lokal umso stärker ausgeprägter sind, je höher die lokale Relevanz gemäß der Relevanzkarte 12 ist. Hierbei können insbesondere gemäß Block 121 räumliche Bereiche, deren lokale Relevanz unterhalb eines vorgegebenen Schwellwerts liegt, ausgeblendet, weichgezeichnet oder in sonstiger Weise unkenntlich gemacht werden.
  • In Schritt 130 werden die Lern-Vorlagen 13 dem Klassifikator 1 zugeführt und auf Zuordnungen zu einer oder mehreren Klassen 3a-3c abgebildet. In Schritt 140 werden Parameter 15, die das Verhalten des Klassifikators 1 charakterisieren, optimiert mit dem Ziel, dass die vom Klassifikator 1 gelieferten Klassen 3a-3c mit den Labels 14 der Lern-Bilddaten 11, aus denen die Lern-Vorlagen 13 hervorgegangen sind, in Einklang stehen. Diese Optimierung kann bis zu einem beliebigen Abbruchkriterium fortgesetzt werden. Der fertig trainierte Zustand der Parameter 15 ist mit dem Bezugszeichen 15* bezeichnet.
  • 2 ist ein schematisches Ablaufdiagramm eines Ausführungsbeispiels des Verfahrens 200 zum Klassifizieren von Bilddaten 2. In Schritt 205 können die Bilddaten 2 optional mit mindestens einem von einem Fahrzeug getragenen Sensor aufgenommen werden. In Schritt 210 wird für die Bilddaten 2 eine ortsaufgelöste Referenzkarte 22 bereitgestellt, wobei diese insbesondere beispielsweise gemäß Block 211 aus einem KNN abgerufen werden kann. In Schritt 220 wird analog zu Schritt 120 eine Vorlage 23 ermittelt, in der die Information aus den Bilddaten 2 umso stärker ausgeprägt ist, je höher die lokale Relevanz gemäß der Relevanzkarte 22 ist.
  • Die Vorlage 23 wird in Schritt 230 dem Klassifikator 1 zugeführt, wobei gemäß Block 231 insbesondere beispielsweise nur die gegenüber den Bilddaten 2 stark datenreduzierte Vorlage 23 über ein Bussystem des Fahrzeugs mit dem Sensor übermittelt werden kann, nicht jedoch die Bilddaten 2 selbst. In Schritt 240 wird die Vorlage 23 vom dem Klassifikator 1 auf die gesuchte Zuordnung zu Klassen 3a-3c der vorgegebenen Klassifikation abgebildet.
  • 3 zeigt beispielhaft, wie Bilddaten 2 in eine Vorlage 23 umgewandelt werden können. Die Bilddaten 2, die hier als statisches Bild vorliegen, zeigen eine Verkehrssituation mit einer Straße 25, einem entgegenkommenden Fahrzeug 26 und einem Verkehrszeichen 27. Zusätzlich ist eine Reklametafel 28 am linken Straßenrand sichtbar. Die Relevanzkarte 22 bewertet die Straße 25, das Fahrzeug 26 sowie den rechten Fahrbahnrand, wo zu beachtende Verkehrszeichen wie das Zeichen 27 stehen, als relevant. Dementsprechend ist dieser Bereich in der Vorlage 23 für die Klassifikation unverändert, während die Details der Reklametafel 28 ausgeblendet sind.
  • 4 ist ein schematisches Ablaufdiagramm eines Ausführungsbeispiels des Verfahrens 300 zur Messung einer Relevanzkarte 12, 22 für Bilddaten 2, 11. In Schritt 310 werden die Bilddaten 2, 11 mindestens einer Versuchsperson 4 präsentiert. Währenddessen wird überwacht, welchen räumlichen Bereichen 2a, 11a der Bilddaten 2, 11 die Versuchsperson 4 ihre Aufmerksamkeit zuwendet.
  • Auf die Eingabe 41 von der Versuchsperson 4 hin, dass sie die relevanten Inhalte der Bilddaten 2, 11 wahrgenommen hat, werden in Schritt 320 räumliche Bereiche 2a, 11a, denen die Versuchsperson 4 zuvor ihre Aufmerksamkeit zugewendet hat, erfasst. In Schritt 330 wird die lokale Relevanz dieser Bereiche 2a, 11a in der Relevanzkarte 12, 22 erhöht.
  • Innerhalb des Kastens 310 sind beispielhaft zwei Möglichkeiten eingezeichnet, wie die Aufmerksamkeitszuwendung zu Bereichen 2a, 11a festgestellt werden kann. Diese Möglichkeiten können einzeln oder auch in Kombination genutzt werden.
  • Gemäß Block 311 können die Kopfhaltung 42a, die Augenposition 42b, und/oder die Augenbewegungen 42c, der Versuchsperson 4 registriert werden. Gemäß Block 312 können dann die Bereiche 2a, 11a der Bilddaten 2, 11, denen die Versuchsperson 4 ihre Aufmerksamkeit zuwendet, aus der Kopfhaltung 42a, der Augenposition 42b und/oder den Augenbewegungen 42c ausgewertet werden.
  • Gemäß Block 313 können verschiedene Teilbereiche der Bilddaten 2, 11 sukzessive für die Versuchsperson 4 sichtbar gemacht werden, bis die Versuchsperson 4 die Bilddaten 2, 11 erkennt und die Eingabe 41 tätigt. Hierbei kann insbesondere gemäß Block 313a ein und derselbe Datensatz von Bilddaten 2, 11 mehreren Versuchspersonen 4 präsentiert werden. Diesen Versuchspersonen 4 können unterschiedliche Abfolgen sukzessive sichtbar werdender Teilbereiche der Bilddaten 2, 11 präsentiert werden.
  • Gemäß Block 314 können diejenigen Teilbereiche der Bilddaten 2, 11, die zum Zeitpunkt der Eingabe 41 der Versuchsperson 4 sichtbar sind, als diejenigen Bereiche 2a, 11a gewertet werden, denen die Versuchsperson 4 ihre Aufmerksamkeit zuwendet.
  • In Schritt 330 wird die lokale Relevanz der ermittelten Bereiche 2a, 11a in der Relevanzkarte 12, 22 erhöht, wobei insbesondere beispielsweise ein Voting-Mechanismus über viele Versuchspersonen 4 zum Einsatz kommen kann.
  • 5 ist ein schematisches Ablaufdiagramm eines Ausführungsbeispiels des Verfahrens 400 zur Überwachung und/oder Steuerung der Aufmerksamkeit eines Fahrzeugführers oder Maschinenbedieners 40. In Schritt 410 werden Bilddaten 2 der Situation, in der sich das geführte Fahrzeug bzw. die bediente Maschine befindet, mit mindestens einem Sensor erfasst. In Schritt 420 wird zu diesen Bilddaten 2 eine ortsaufgelöste Relevanzkarte 22 aus einem trainierten künstlichen neuronalen Netzwerk, KNN, abgerufen. In Schritt 430 wird auf der Basis dieser Relevanzkarte 22 wird eine Information und/oder Warnung 6 an den Fahrzeugführer bzw. Maschinenbediener 40 ausgegeben.
  • Innerhalb des Kastens 430 sind zwei Möglichkeiten angegeben, wie die Information und/oder Warnung 6 generiert werden kann. Diese Möglichkeiten können einzeln oder auch in Kombination genutzt werden.
  • Gemäß Block 431 kann dem Fahrzeugführer oder Maschinenbediener 40 eine Überlagerung der Situation mit einem Hinweis auf mindestens einen Bildbereich, dessen lokale Relevanz ausweislich der Relevanzkarte einen vorgegebenen Schwellwert überschreitet, präsentiert werden.
  • Gemäß Block 432 können die Kopfhaltung 42a, die Augenposition 42b, und/oder die Augenbewegungen 42c, des Fahrzeugführers bzw. Maschinenbedieners 40 registriert werden. Hieraus kann in Block 433 ausgewertet werden, welchen Teil 7 der Situation der Fahrzeugführer bzw. Maschinenbediener 40 vorwiegend beobachtet. In Block 434 kann geprüft werden, inwieweit dieser Teil 7 der Situation im Einklang steht mit mindestens einem räumlichen Bereich der Bilddaten, dessen lokale Relevanz ausweislich der Relevanzkarte 22 einen vorgegebenen Schwellwert überschreitet. Wenn der Teil 7 der Situation nicht mit dem besagten räumlichen Bereich der Bilddaten in Einklang steht (Wahrheitswert 0), kann eine für den Fahrzeugführer bzw. Maschinenbediener 40 wahrnehmbare optische, akustische und/oder haptische Warneinrichtung angesteuert werden.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • GB 2454857 B [0003]

Claims (15)

  1. Verfahren (100) zum Trainieren eines Klassifikators (1) für Bilddaten (2) anhand von Lern-Bilddaten (11) und zugehörigen Labels (14), wobei die Labels (14) jeweils eine Zuordnung zu einer oder mehreren Klassen (3a-3c) einer vorgegebenen Klassifikation beinhalten, mit den Schritten: • für Datensätze von Lern-Bilddaten (11) werden jeweils ortsaufgelöste Relevanzkarten (12) bereitgestellt (110), die angeben, wie relevant welche räumlichen Bereiche der jeweiligen Lern-Bilddaten (11) für die Beurteilung der in diesen Lern-Bilddaten (11) dargestellten Situation sind; • aus Datensätzen von Lern-Bilddaten (11) und zugehörigen Relevanzkarten (12) werden Lern-Vorlagen (13) ermittelt (120), wobei in diesen Lern-Vorlagen (13) die Informationen aus den Lern-Bilddaten (11) lokal umso stärker ausgeprägter sind, je höher die lokale Relevanz gemäß der Relevanzkarte (12) ist; • die Lern-Vorlagen (13) werden dem Klassifikator (1) zugeführt (130); und • Parameter (15), die das Verhalten des Klassifikators (1) charakterisieren, werden optimiert (140) mit dem Ziel, dass der Klassifikator (1) die Lern-Vorlagen (13) auf Zuordnungen zu einer oder mehreren Klassen (3a-3c) abbildet, die mit den Labels (14) der Lern-Bilddaten (11), aus denen die Lern-Vorlagen (13) hervorgegangen sind, in Einklang stehen.
  2. Verfahren (100) nach Anspruch 1, wobei in den Lern-Vorlagen (13) räumliche Bereiche, deren lokale Relevanz unterhalb eines vorgegebenen Schwellwerts liegt, ausgeblendet, weichgezeichnet oder in sonstiger Weise unkenntlich gemacht werden (121).
  3. Verfahren (200) zum Klassifizieren von Bilddaten (2) mit einem trainierten Klassifikator (1), mit den Schritten: • für die Bilddaten (2) wird eine ortsaufgelöste Relevanzkarte (22) bereitgestellt (210), die angibt, wie relevant welche räumlichen Bereiche der Bilddaten (2) für die Beurteilung der in diesen Bilddaten (2) dargestellten Situation sind; • aus den Bilddaten (2) und der ortsaufgelösten Relevanzkarte (22) wird eine Vorlage (23) ermittelt (220), in der die Informationen aus den Bilddaten (2) lokal umso stärker ausgeprägter sind, je höher die lokale Relevanz gemäß der Relevanzkarte (22) ist; und • die Vorlage (23) wird dem Klassifikator (1) zugeführt (230) und von dem Klassifikator (1) auf eine Zuordnung zu einer oder mehreren Klassen (3a-3c) einer vorgegebenen Klassifikation abgebildet (240).
  4. Verfahren (200) nach Anspruch 3, wobei die Bilddaten (2) mit mindestens einem von einem Fahrzeug getragenen Sensor aufgenommen werden (205) und wobei die Vorlage (23), nicht jedoch die ursprünglich aufgenommenen Bilddaten (2), über ein Bussystem des Fahrzeugs, das von weiteren Bordsystemen des Fahrzeugs mitbenutzt wird, zu dem Klassifikator (1) übermittelt werden (231).
  5. Verfahren (100, 200) nach einem der Ansprüche 1 bis 4, wobei die ortsaufgelöste Relevanzkarte (22, 12) zu mindestens einem Datensatz von Bilddaten (2) bzw. Lern-Bilddaten (11) aus einem trainierten künstlichen neuronalen Netzwerk, KNN, abgerufen wird (111, 211).
  6. Verfahren (300) zur Messung einer ortsaufgelösten Relevanzkarte (12, 22) für einen Datensatz von Bilddaten (2, 11), wobei diese ortsaufgelöste Relevanzkarte (12, 22) angibt, wie relevant welche räumlichen Bereiche der Bilddaten (2, 11) für die Beurteilung der in diesen Bilddaten (2, 11) dargestellten Situation sind, mit den Schritten: • die Bilddaten (2, 11) werden mindestens einer Versuchsperson (4) präsentiert (310), wobei währenddessen überwacht wird, welchen räumlichen Bereichen (2a, 11a) der Bilddaten (2, 11) die Versuchsperson (4) ihre Aufmerksamkeit zuwendet; • in Antwort auf eine Eingabe (41) von der Versuchsperson (4), dass sie die relevanten Inhalte der Bilddaten (2, 11) wahrgenommen hat, werden räumliche Bereiche (2a, 11a), denen die Versuchsperson (4) zuvor ihre Aufmerksamkeit zugewendet hat, erfasst (320); • die lokale Relevanz dieser Bereiche (2a, 11a) in der Relevanzkarte (12, 22) wird erhöht (330).
  7. Verfahren (300) nach Anspruch 6, wobei die Kopfhaltung (42a), die Augenposition (42b), und/oder die Augenbewegungen (42c), der Versuchsperson (4) registriert werden (311) und wobei die räumlichen Bereiche (2a, 11a) der Bilddaten (2, 11), denen die Versuchsperson (4) ihre Aufmerksamkeit zuwendet, aus der Kopfhaltung (42a), der Augenposition (42b) und/oder den Augenbewegungen (42c) ausgewertet werden (312).
  8. Verfahren (300) nach einem der Ansprüche 6 bis 7, wobei verschiedene Teilbereiche der Bilddaten (2, 11) sukzessive für die Versuchsperson (4) sichtbar werden (313) und wobei diejenigen Teilbereiche der Bilddaten (2, 11), die zum Zeitpunkt der Eingabe (41) der Versuchsperson (4) sichtbar sind, als diejenigen Bereiche (2a, 11a) gewertet werden (314), denen die Versuchsperson (4) ihre Aufmerksamkeit zuwendet.
  9. Verfahren (300) nach Anspruch 8, wobei ein und derselbe Datensatz von Bilddaten (2, 11) mehreren Versuchspersonen (4) präsentiert wird (313a) und wobei diesen Versuchspersonen (4) unterschiedliche Abfolgen sukzessive sichtbar werdender Teilbereiche der Bilddaten (2, 11) präsentiert werden (313b).
  10. Verfahren (400) zur Überwachung und/oder Steuerung der Aufmerksamkeit eines Fahrzeugführers oder Maschinenbedieners (40) mit den Schritten: • es werden Bilddaten (2) der Situation, in der sich das geführte Fahrzeug bzw. die bediente Maschine befindet, mit mindestens einem Sensor erfasst (410); • zu diesen Bilddaten (2) wird eine ortsaufgelöste Relevanzkarte (22) aus einem trainierten künstlichen neuronalen Netzwerk, KNN, abgerufen (420), wobei diese ortsaufgelöste Relevanzkarte (22) angibt, wie relevant welche räumlichen Bereiche der Bilddaten (2) für die Beurteilung der in diesen Bilddaten (2) dargestellten Situation sind; • auf der Basis dieser Relevanzkarte (22) wird eine Information und/oder Warnung (6) an den Fahrzeugführer bzw. Maschinenbediener (40) ausgegeben (430).
  11. Verfahren (400) nach Anspruch 10, wobei dem Fahrzeugführer oder Maschinenbediener (40) eine Überlagerung der Situation mit einem Hinweis auf mindestens einen räumlichen Bereich der Bilddaten, dessen lokale Relevanz ausweislich der Relevanzkarte einen vorgegebenen Schwellwert überschreitet, präsentiert wird (431).
  12. Verfahren (400) nach einem der Ansprüche 10 bis 11, wobei • die Kopfhaltung (42a), die Augenposition (42b), und/oder die Augenbewegungen (42c), des Fahrzeugführers bzw. Maschinenbedieners (40) registriert werden (432); • aus der Kopfhaltung (42a), der Augenposition (42b), und/oder den Augenbewegungen (42c), ausgewertet wird (433), welchen Teil (7) der Situation der Fahrzeugführer bzw. Maschinenbediener (40) vorwiegend beobachtet; • geprüft wird (434), inwieweit dieser Teil (7) der Situation im Einklang steht mit mindestens einem räumlichen Bereich der Bilddaten, dessen lokale Relevanz ausweislich der Relevanzkarte (22) einen vorgegebenen Schwellwert überschreitet; und • in Antwort auf die Feststellung, dass der vom Fahrzeugführer bzw. Maschinenbediener (40) vorwiegend beobachtete Teil nicht im Einklang zu dem diesem räumlichen Bereich der Bilddaten steht, eine für den Fahrzeugführer bzw. Maschinenbediener (40) wahrnehmbare optische, akustische und/oder haptische Warneinrichtung angesteuert wird (435).
  13. Computerprogramm, enthaltend maschinenlesbare Anweisungen, die, wenn sie auf einem oder mehreren Computern ausgeführt werden, den oder die Computer dazu veranlassen, ein Verfahren (100, 200, 300, 400) nach einem der Ansprüche 1 bis 12 auszuführen.
  14. Maschinenlesbarer Datenträger und/oder Downloadprodukt mit dem Computerprogramm nach Anspruch 13.
  15. Computer, ausgerüstet mit dem Computerprogramm nach Anspruch 13, und/oder mit dem maschinenlesbaren Datenträger und/oder Downloadprodukt nach Anspruch 14.
DE102020208008.9A 2020-06-29 2020-06-29 Bildklassifikation und zugehöriges Training für sicherheitsrelevante Klassifikationsaufgaben Pending DE102020208008A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102020208008.9A DE102020208008A1 (de) 2020-06-29 2020-06-29 Bildklassifikation und zugehöriges Training für sicherheitsrelevante Klassifikationsaufgaben
US17/357,071 US11978262B2 (en) 2020-06-29 2021-06-24 Image classification and associated training for safety-relevant classification tasks
CN202110716868.1A CN113935362A (zh) 2020-06-29 2021-06-28 用于安全相关分类任务的图像分类和所属训练

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102020208008.9A DE102020208008A1 (de) 2020-06-29 2020-06-29 Bildklassifikation und zugehöriges Training für sicherheitsrelevante Klassifikationsaufgaben

Publications (1)

Publication Number Publication Date
DE102020208008A1 true DE102020208008A1 (de) 2021-12-30

Family

ID=78827053

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020208008.9A Pending DE102020208008A1 (de) 2020-06-29 2020-06-29 Bildklassifikation und zugehöriges Training für sicherheitsrelevante Klassifikationsaufgaben

Country Status (3)

Country Link
US (1) US11978262B2 (de)
CN (1) CN113935362A (de)
DE (1) DE102020208008A1 (de)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020208008A1 (de) * 2020-06-29 2021-12-30 Robert Bosch Gesellschaft mit beschränkter Haftung Bildklassifikation und zugehöriges Training für sicherheitsrelevante Klassifikationsaufgaben
US11800065B2 (en) 2021-08-19 2023-10-24 Geotab Inc. Mobile image surveillance systems and methods
CN116824198A (zh) * 2022-03-21 2023-09-29 华为云计算技术有限公司 一种偏见评估方法、装置、介质、程序产品及电子设备

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2454857B (en) 2006-09-18 2010-06-09 Bosch Gmbh Robert Method for processing a microscope intensity image

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3271863B1 (de) * 2015-03-20 2021-07-28 Fraunhofer Gesellschaft zur Förderung der angewandten Forschung E.V. Relevanzpunktezuweisung für ein künstliches neuronales netzwerk
US10121082B2 (en) * 2015-10-07 2018-11-06 Honda Motor Co., Ltd. System and method for providing laser camera fusion for identifying and tracking a traffic participant
EP3364342A1 (de) * 2017-02-17 2018-08-22 Cogisen SRL Verfahren zur bildverarbeitung und videokompression
US10699192B1 (en) * 2019-01-31 2020-06-30 StradVision, Inc. Method for optimizing hyperparameters of auto-labeling device which auto-labels training images for use in deep learning network to analyze images with high precision, and optimizing device using the same
EP3812974A1 (de) * 2019-10-25 2021-04-28 Onfido Ltd Inferenzsystem mit maschinellem lernen
DE102020208008A1 (de) * 2020-06-29 2021-12-30 Robert Bosch Gesellschaft mit beschränkter Haftung Bildklassifikation und zugehöriges Training für sicherheitsrelevante Klassifikationsaufgaben

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2454857B (en) 2006-09-18 2010-06-09 Bosch Gmbh Robert Method for processing a microscope intensity image

Also Published As

Publication number Publication date
CN113935362A (zh) 2022-01-14
US20210406587A1 (en) 2021-12-30
US11978262B2 (en) 2024-05-07

Similar Documents

Publication Publication Date Title
EP3682367A1 (de) Gestensteuerung zur kommunikation mit einem autonomen fahrzeug auf basis einer einfachen 2d kamera
DE102020208008A1 (de) Bildklassifikation und zugehöriges Training für sicherheitsrelevante Klassifikationsaufgaben
DE112014007249T5 (de) Bildverarbeitungsvorrichtung, Fahrzeuganzeigesystem, Anzeigevorrichtung, Bildverarbeitungsverfahren und Bildverarbeitungsprogramm
EP3661796B1 (de) Verfahren zum betreiben eines bildschirms eines kraftfahrzeugs sowie kraftfahrzeug
WO2014173863A1 (de) Verfahren und vorrichtung zur erkennung von nicht motorisierten verkehrsteilnehmern
DE102017127592A1 (de) Verfahren zum Klassifizieren von Bildszenen in einem Fahrunterstützungssystem
DE102019208663B4 (de) Verfahren zur Unterstützung eines Fahrers hinsichtlich für eine Verkehrssituation relevanter Objekte und Kraftfahrzeug
WO2013152929A1 (de) Lernverfahren zur automatisierten erkennung von verkehrszeichen, verfahren zur bestimmung eines aktualisierten parametersatzes für eine klassifikation von einem verkehrszeichen und verkehrszeichenerkennungssystem
DE102014214514A1 (de) Vorrichtung und Verfahren zum Austausch von Daten zwischen Fahrzeugen zum Einrichten einer Kolonnenfahrt
DE102016014712B4 (de) Fahrzeug und Verfahren zur Ausgabe von Informationen an eine Fahrzeugumgebung
WO2018215242A2 (de) Verfahren zur ermittlung einer fahranweisung
DE102017215283A1 (de) Verfahren zum Anonymisieren eines Bilds für ein Kamerasystem eines Kraftfahrzeugs, Bildverarbeitungseinrichtung, Kamerasystem sowie Kraftfahrzeug
DE102018128634A1 (de) Verfahren zum Bereitstellen einer visuellen Information über zumindest einen Teil einer Umgebung, Computerprogrammprodukt, mobiles Kommunikationsgerät und Kommunikationssystem
DE102016114693A1 (de) Verfahren zum Unterstützen eines Fahrers eines Kraftfahrzeugs beim Führen des Kraftfahrzeugs, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102018205539A1 (de) Erkennung von Objekten und Situationen in Messdaten mit verbesserter Unterdrückung nicht-repräsentativer Korrelationen
DE112019007195T5 (de) Anzeigesteuerungseinrichtung, anzeigesteuerungsverfahren und anzeigesteuerungsprogramm
DE102006037600A1 (de) Verfahren zur auflösungsabhängigen Darstellung der Umgebung eines Kraftfahrzeugs
DE102019204602B4 (de) Verfahren und Vorrichtung zur Maskierung von in einem Bild enthaltenen Objekten
DE102018213745A1 (de) Verfahren zum Betreiben eines Infotainmentsystems für einen Passagier in einem Ego-Fahrzeug und Infotainmentsystem
DE102017207658A1 (de) Verfahren zum Identifizieren eines Fahrzeugs mit einem Zu-satzkennzeichen, und eine Vorrichtung zur Durchführung des Verfahrens
DE102019219658A1 (de) System und Verfahren zur Darstellung einer durch ein Objekt für einen Verkehrsteilnehmer verdeckten Sicht
DE102018221920A1 (de) Inhaltsadaptive verlustbehaftete Kompression von Messdaten
DE102020100970B4 (de) Verfahren und Vorrichtung zum Anlernen eines lernfähigen Algorithmus, Computerprogrammprodukt, Fahrerassistenz-System und Fahrzeug
WO2021245156A1 (de) Klassifikation von bilddaten mit anpassung des detaillierungsgrades
DE102023003134A1 (de) Verfahren zur Darstellung von Anzeigeinhalten einer Head-up-Anzeigeeinheit

Legal Events

Date Code Title Description
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009620000

Ipc: G06V0030190000