DE102020102624A1 - Fortschrittliche vermeidung von kollisionen mit wildtieren für fahrzeuge - Google Patents

Fortschrittliche vermeidung von kollisionen mit wildtieren für fahrzeuge Download PDF

Info

Publication number
DE102020102624A1
DE102020102624A1 DE102020102624.2A DE102020102624A DE102020102624A1 DE 102020102624 A1 DE102020102624 A1 DE 102020102624A1 DE 102020102624 A DE102020102624 A DE 102020102624A DE 102020102624 A1 DE102020102624 A1 DE 102020102624A1
Authority
DE
Germany
Prior art keywords
animal
vehicle
attribute data
processors
attribute
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102020102624.2A
Other languages
English (en)
Inventor
Daniel Pohl
Stefan Menzel
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intel Corp
Original Assignee
Intel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intel Corp filed Critical Intel Corp
Publication of DE102020102624A1 publication Critical patent/DE102020102624A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01KANIMAL HUSBANDRY; AVICULTURE; APICULTURE; PISCICULTURE; FISHING; REARING OR BREEDING ANIMALS, NOT OTHERWISE PROVIDED FOR; NEW BREEDS OF ANIMALS
    • A01K11/00Marking of animals
    • A01K11/006Automatic identification systems for animals, e.g. electronic devices, transponders for animals
    • A01K11/008Automatic identification systems for animals, e.g. electronic devices, transponders for animals incorporating GPS
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01KANIMAL HUSBANDRY; AVICULTURE; APICULTURE; PISCICULTURE; FISHING; REARING OR BREEDING ANIMALS, NOT OTHERWISE PROVIDED FOR; NEW BREEDS OF ANIMALS
    • A01K29/00Other apparatus for animal husbandry
    • A01K29/005Monitoring or measuring activity, e.g. detecting heat or mating
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • G01C3/08Use of electric radiation detectors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/46Indirect determination of position data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/13Receivers
    • G01S19/14Receivers specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/13Receivers
    • G01S19/14Receivers specially adapted for specific applications
    • G01S19/16Anti-theft; Abduction
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/0009Transmission of position information to remote stations
    • G01S5/0018Transmission from mobile station to base station
    • G01S5/0027Transmission from mobile station to base station of actual mobile position, i.e. position determined on mobile
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/0009Transmission of position information to remote stations
    • G01S5/0072Transmission between mobile stations, e.g. anti-collision systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/02Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
    • G01S5/0284Relative positioning
    • G01S5/0289Relative positioning of multiple transceivers, e.g. in ad hoc networks
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/02Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
    • G01S5/0294Trajectory determination or predictive filtering, e.g. target tracking or Kalman filtering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Environmental Sciences (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Animal Husbandry (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Birds (AREA)
  • Zoology (AREA)
  • Biophysics (AREA)
  • Traffic Control Systems (AREA)

Abstract

Gemäß verschiedenen Aspekten kann ein Fahrzeug Folgendes beinhalten: einen oder mehrere Empfänger, wobei der eine oder die mehreren Empfänger ein Tierverfolgungssignal, das Tierattributdaten umfasst, von einer Tierverfolgungseinrichtung empfangen, die dazu ausgelegt ist, Tierattributdaten zu speichern; einen oder mehrere Prozessoren, wobei die Prozessoren dazu ausgelegt sind, die Tierattributdaten zu verarbeiten, um zu bestimmen, ob sich ein Tier im Pfad des Fahrzeugs befinden wird, und das Fahrzeug basierend auf der Bestimmung, dass sich das Tier im Pfad des Fahrzeugs befinden wird, zu steuern, und ferner das Fahrzeug basierend auf den Tierattributdaten und/oder dem Verhalten eines Tieres basierend auf den Tierattributdaten zu steuern.

Description

  • Technisches Gebiet
  • Verschiedene Aspekte betreffen allgemein eine Tierverfolgungseinrichtung, die ein Tierverfolgungssignal zu einem Fahrzeug überträgt, das mit mindestens einem Empfänger und mindestens einem Prozessor ausgestattet ist, um das Fahrzeug so zu betreiben, dass eine Kollision mit einem Tier basierend auf Tierattributdaten, die von dem Tierverfolgungssignal empfangen werden, vermieden wird.
  • Hintergrund
  • Allgemein können moderne Fahrzeuge verschiedene aktive und passive Assistenzsysteme beinhalten, um das Fahren des Fahrzeugs während eines Notfalls zu unterstützen. Ein Notfall kann eine vorausgesagte Kollision des Fahrzeugs mit einem Tier sein. Das Fahrzeug kann einen oder mehrere Empfänger, einen oder mehrere Prozessoren und einen oder mehrere Sensoren, z. B. Bildsensoren, beinhalten, die dazu ausgelegt sind, eine Kollision des Fahrzeugs mit einem Tier vorherzusagen. Ferner können ein oder mehrere autonome Fahrzeugsysteme in einem Fahrzeug implementiert sein, z. B. um den Pfad des Fahrzeugs umzuleiten, das Fahrzeug mehr oder weniger autonom zu fahren usw. Als ein Beispiel kann ein Notbremsassistent (EBA: Emergency Brake Assist), auch als Bremsassistent (BA oder BAS) bezeichnet, im Fahrzeug implementiert sein. Der Notbremsassistent kann ein Bremssystem beinhalten, das den Bremsdruck in einem Notfall erhöht.
  • Figurenliste
  • Es sollte angemerkt werden, dass überall in den Zeichnungen gleiche Bezugsziffern verwendet werden, um die gleichen oder ähnliche Elemente, Merkmale und Strukturen darzustellen. Die Zeichnungen sind nicht notwendigerweise maßstabsgetreu, stattdessen wird der Schwerpunkt auf die Veranschaulichung von Aspekten der Offenbarung gelegt. In der folgenden Beschreibung werden manche Aspekte der Offenbarung mit Bezug auf die folgenden Zeichnungen beschrieben, in denen gilt:
    • 1A zeigt ein beispielhaftes Fahrzeug in Kommunikation mit einer Tierverfolgungseinrichtung;
    • 1B zeigt ausführlich eine beispielhafte Tierverfolgungseinrichtung;
    • 2 zeigt ein beispielhaftes Fahrzeug, das eine Kollisionsvermeidungsvorrichtung beinhaltet und sich in Kommunikation mit mehreren Tierverfolgungseinrichtungen befindet;
    • 3 zeigt ein beispielhaftes Fahrzeug, das eine Kollisionsvermeidungsvorrichtung beinhaltet und sich in Kommunikation mit mehreren Tierverfolgungseinrichtungen befindet;
    • 4 zeigt ein beispielhaftes Verfahren zum Bestimmen der Position eines Tieres mittels Triangulation;
    • 5 zeigt ein beispielhaftes Tool mit künstlicher Intelligenz, das zum Vorhersagen des Verhaltens eines Tieres und/oder zum Bestimmen einer Kollisionsvermeidungshandlung verwendet wird;
    • 6 zeigt ein beispielhaftes Flussdiagramm eines Verfahrens zum Vermeiden einer Kollision eines oder mehrerer Tiere mit einem Fahrzeug gemäß manchen Aspekten.
  • Beschreibung
  • Die folgende ausführliche Beschreibung bezieht sich auf die begleitenden Zeichnungen, die veranschaulichend spezifische Einzelheiten und Aspekte, in denen die Offenbarung umgesetzt werden kann, zeigen. Diese Aspekte sind in hinreichenden Einzelheiten beschrieben, um Fachleuten zu ermöglichen, die Offenbarung umzusetzen. Andere Aspekte können genutzt werden und strukturelle, logische und elektrische Änderungen können vorgenommen werden, ohne vom Schutzumfang der Offenbarung abzuweichen. Die verschiedenen Aspekte schließen sich nicht notwendigerweise gegenseitig aus, da manche Aspekte mit einem oder mehreren anderen Aspekten kombiniert werden können, um neue Aspekte zu bilden. Verschiedene Aspekte sind in Verbindung mit Verfahren beschrieben und verschiedene Aspekte sind in Verbindung mit Einrichtungen beschrieben. Es versteht sich jedoch, dass in Verbindung mit Verfahren beschriebene Aspekte gleichermaßen für Einrichtungen gelten, und umgekehrt.
  • Das Wort „beispielhaft“ wird hierin verwendet, um „als ein Beispiel, ein Fall oder eine Veranschaulichung dienend“ zu bedeuten. Ein jeglicher Aspekt oder ein jegliches Design, die hierin als „beispielhaft“ beschrieben sind, soll nicht notwendigerweise als bevorzugt oder vorteilhaft gegenüber anderen Aspekten oder Designs ausgelegt werden.
  • Die Begriffe „mindestens eine/r/s“ und „eine/r/s oder mehr“ können so verstanden werden, dass sie eine numerische Anzahl größer oder gleich eins (z. B. eins, zwei, drei, vier, [...] usw.) beinhalten. Der Begriff „mehrere“ kann so verstanden werden, dass er eine numerische Anzahl größer oder gleich zwei (z. B. zwei, drei, vier, fünf, [...] usw.) beinhaltet.
  • Der Ausdruck „mindestens eines von“ bezüglich einer Gruppe von Elementen kann hierin verwendet werden, um mindestens ein Element aus der Gruppe, die aus den Elementen besteht, zu bedeuten. Beispielsweise kann der Ausdruck „mindestens eines von“ bezüglich einer Gruppe von Elementen hierin verwendet werden, um eine Auswahl von Folgendem zu bedeuten: eines der aufgelisteten Elemente, mehrere von einem der aufgelisteten Elemente, mehrere von einzelnen aufgelisteten Elementen oder mehrere von einer Vielzahl von aufgelisteten Elementen.
  • Die Wörter „“ Mehrzahl und „Vielzahl“ in der Beschreibung und in den Ansprüchen beziehen sich ausdrücklich auf eine Anzahl größer als eins. Dementsprechend beziehen sich jegliche Ausdrücke, die explizit die vorgenannten Wörter anführen (z. B. „mehrere [Objekte]“, „eine Vielzahl von [Objekten]“), die sich auf eine Anzahl von Objekten beziehen, ausdrücklich auf mehr als eines der Objekte. Die Begriffe „Gruppe (von)“, „Satz [von]“, „Sammlung (von)“, „Reihe (von)“, „Sequenz (von)“, „Gruppierung (von)“ usw. und dergleichen in der Beschreibung und in den Ansprüchen, falls vorhanden, beziehen sich auf eine Anzahl gleich oder größer als eins, d. h. eins oder mehr.
  • Der Begriff „Daten“, wie hierin verwendet, kann so verstanden werden, dass er Informationen in einer beliebigen geeigneten analogen oder digitalen Form beinhaltet, z. B. als eine Datei, ein Teil einer Datei, ein Satz von Dateien, ein Signal oder ein Strom, ein Teil eines Signals oder eines Stroms, ein Satz von Signalen oder Strömen und dergleichen bereitgestellt. Ferner kann der Begriff „Daten“ auch verwendet werden, um einen Bezug auf Informationen zu bedeuten, z. B. in Form eines Zeigers. Der Begriff Daten ist jedoch nicht auf die vorgenannten Beispiele beschränkt und kann verschiedene Formen annehmen und beliebige Informationen repräsentieren, wie in der Technik verstanden.
  • Der Begriff „Prozessor“, wie zum Beispiel hierin verwendet, kann als eine Art von Entität verstanden werden, die die Bearbeitung von Daten ermöglicht. Die Daten können gemäß einer oder mehreren spezifischen Funktionen bearbeitet werden, die durch den Prozessor oder eine Steuerung ausgeführt werden. Ferner kann ein Prozessor oder eine Steuerung, wie hierin verwendet, als eine beliebige Art von Schaltung verstanden werden, z. B. eine beliebige Art von analoger oder digitaler Schaltung.
  • Der Begriff „Bearbeiten“ oder „Bearbeitung“, wie zum Beispiel hierin als sich auf Datenbearbeitung, Dateibearbeitung oder Anforderungsbearbeitung beziehend verwendet, kann als eine beliebige Art von Operation verstanden werden, z. B. eine E/A-Operation, und/oder eine beliebige Art von Logikoperation. Eine E/A-Operation kann beispielsweise Speichern (auch als Schreiben bezeichnet) und Lesen beinhalten.
  • Ein Prozessor kann somit eine analoge Schaltung, eine digitale Schaltung, eine Mischsignalschaltung, eine Logikschaltung, einen Mikroprozessor, eine Zentralverarbeitungseinheit (CPU), eine Grafikverarbeitungseinheit (GPU), einen Digitalsignalprozessor (DSP), ein feldprogrammierbares Gate-Array (FPGA), eine integrierte Schaltung, eine anwendungsspezifische integrierte Schaltung (ASIC) usw. oder eine beliebige Kombination davon sein oder beinhalten. Eine beliebige andere Art von Implementierung der jeweiligen Funktionen, die nachstehend ausführlicher beschrieben sind, können auch als ein Prozessor, eine Steuerung oder eine Logikschaltung verstanden werden. Es versteht sich, dass beliebige zwei (oder mehr) der hierin ausführlich dargelegten Prozessoren, Steuerungen oder Logikschaltungen als eine einzelne Entität mit äquivalenter Funktionalität oder dergleichen umgesetzt sein können, und dass umgekehrt ein beliebiger einzelner Prozessor, eine einzelne Steuerung oder eine einzelne Logikschaltung, die hierin ausführlich dargelegt sind, als zwei (oder mehr) separate Entitäten mit äquivalenter Funktionalität oder dergleichen umgesetzt sein können.
  • Unterschiede zwischen software- und hardwareimplementierter Datenbearbeitung können verschwimmen. Ein Prozessor, eine Steuerung und/oder eine Schaltung, die hierin ausführlich dargelegt sind, können in Software, Hardware und/oder als eine Hybridimplementierung einschließlich Software und Hardware implementiert sein.
  • Der hierin ausführlich dargelegte Begriff „System“ (z. B. ein Rechensystem, ein Speichersystem, ein Speicherungssystem usw.) kann als ein Satz von interagierenden Elementen verstanden werden, wobei die Elemente beispielhalber und nicht beschränkend eine oder mehrere mechanische Komponenten, eine oder mehrere elektrische Komponenten, eine oder mehrere Anweisungen (z. B. in Speicherungsmedien codiert) und/oder ein oder mehrere Prozessoren und dergleichen sein können.
  • Der hierin ausführlich dargelegte Begriff „Mechanismus“ (z. B. ein Federmechanismus usw.) kann als ein Satz von interagierenden Elementen verstanden werden, wobei die Elemente beispielhalber und nicht beschränkend eine oder mehrere mechanische Komponenten, eine oder mehrere elektrische Komponenten, eine oder mehrere Anweisungen usw. sein können.
  • Wie hierin verwendet, kann der Begriff „Speicher“, „Speichereinrichtung“ und dergleichen als ein dauerhaftes computerlesbares Medium verstanden werden, in dem Daten oder Informationen für einen Abruf gespeichert werden können. Hierin enthaltene Bezüge auf „Speicher“ können somit so verstanden werden, dass sie sich auf flüchtigen oder nichtflüchtigen Speicher beziehen, einschließlich Direktzugriffspeicher (RAM), Nur-LeseSpeicher (ROM), Flash-Speicher, Festkörperspeicherung, Magnetband, Festplattenlaufwerk, optisches Laufwerk usw. oder eine beliebige Kombination davon. Ferner versteht es sich, dass Register, Schieberegister, Prozessorregister, Datenpuffer usw. auch hierin durch den Begriff Speicher eingeschlossen werden. Es versteht sich, dass eine einzelne Komponente, die als „Speicher“ oder „ein Speicher“ bezeichnet wird, aus mehr als einem verschiedenen Speichertyp gebildet sein kann, und sich somit auf eine kollektive Komponente beziehen kann, die einen oder mehrere Speichertypen beinhaltet. Es versteht sich ohne weiteres, dass eine jegliche einzelne Speicherkomponente in mehrere kollektiv äquivalente Speicherkomponenten getrennt werden kann, und umgekehrt. Obwohl Speicher als getrennt von einer oder mehreren anderen Komponenten dargestellt sein kann (wie etwa in den Zeichnungen), versteht sich ferner, dass Speicher innerhalb einer anderen Komponente integriert sein kann, wie etwa auf einem gemeinsamen integrierten Chip.
  • Gemäß verschiedenen Aspekten können Informationen (z. B. Vektordaten) in einer beliebigen geeigneten Form bearbeitet (z. B. verarbeitet, analysiert, gespeichert usw.) werden, z. B. können Daten die Informationen repräsentieren und können über ein Rechensystem bearbeitet werden.
  • Der Begriff „Karte“, der bezüglich einer zwei- oder dreidimensionalen Karte verwendet wird, kann eine beliebige geeignete Weise zum Beschreiben von Positionen von Objekten im zwei- oder dreidimensionalen Raum beinhalten. Gemäß verschiedenen Aspekten kann eine Voxel-Karte verwendet werden, um Objekte im dreidimensionalen Raum basierend auf mit Objekten assoziierten Voxeln zu beschreiben. Um eine Kollision basierend auf einer Voxel-Karte zu verhindern, kann Raytracing (Strahlenverfolgung), Raycasting, Rasterisierung usw. auf die Voxel-Daten angewendet werden.
  • Gemäß verschiedenen Aspekten kann der Begriff „Vorhersagen“, der hierin mit Bezug auf „Vorhersagen einer Kollision“, „Vorhersagen einer Gefahr“, „Vorhersagen des Verhaltens eines Tieres“ usw. verwendet wird, als eine beliebige geeignete Art von Bestimmung einer möglichen Kollision zwischen einem Tier und einem Fahrzeug verstanden werden.
  • In manchen Aspekten können ein oder mehrere Entfernungsbildgebungssensoren zum Erfassen von Objekten in einer Umgebung eines Fahrzeugs verwendet werden. Ein Entfernungsbildgebungssensor kann das Assoziieren von Entfernungsinformationen (oder mit anderen Worten Abstandsinformationen oder Tiefeninformationen) mit einem Bild ermöglichen, um z. B. ein Entfernungsbild mit Entfernungsdaten, die mit Pixeldaten des Bildes assoziiert sind, bereitzustellen. Dies ermöglicht zum Beispiel das Bereitstellen eines Entfernungsbildes der Umgebung des Fahrzeugs einschließlich Entfernungsinformationen über ein oder mehrere in dem Bild dargestellte Objekte. Die Entfernungsinformationen können zum Beispiel eine oder mehrere Farben, eine oder mehrere Schattierungen, die mit einem relativen Abstand vom Entfernungsbildsensor assoziiert sind, usw. beinhalten. Gemäß verschiedenen Aspekten können Positionsdaten, die mit Positionen von Objekten relativ zum Fahrzeug und/oder relativ zu einer Baugruppe des Fahrzeugs assoziiert sind, aus den Entfernungsinformationen bestimmt werden. Gemäß verschiedenen Aspekten kann ein Entfernungsbild zum Beispiel durch eine Stereokamera erhalten werden, z. B. aus zwei oder mehr Bildern mit einer unterschiedlichen Perspektive berechnet werden. Dreidimensionale Koordinaten von Punkten an einem Objekt können zum Beispiel durch Stereophotogrammetrie basierend auf zwei oder mehr fotografischen Bildern, die aus unterschiedlichen Positionen aufgenommen werden, erhalten werden. Ein Entfernungsbild kann jedoch basierend auf Bildern erzeugt werden, die mittels anderer Kameratypen erhalten werden, z. B. basierend auf Laufzeit(ToF: Time of Flight)-Messungen usw. In manchen Aspekten kann ein Entfernungsbild ferner mit zusätzlichen Sensordaten zusammengefügt werden, z. B. mit Sensordaten eines oder mehrerer Radarsensoren usw.
  • Als ein Beispiel kann ein Entfernungsbild Informationen beinhalten, um einen relativen Abstand von in dem Bild angezeigten Objekten anzugeben. Diese Abstandsinformationen können unter anderem Farben und/oder Schattierung sein, um einen relativen Abstand von einem Sensor darzustellen. Basierend auf (z. B. einer Sequenz von) Entfernungsbildern kann eine dreidimensionale Karte aus den Tiefeninformationen erstellt werden. Die Kartenerstellung kann unter Verwendung einer Karten-Engine erzielt werden, die einen oder mehrere Prozessoren oder ein dauerhaftes computerlesbares Medium beinhalten kann, die dazu ausgelegt sind, eine Voxel-Karte (oder eine beliebige andere geeignete Karte) aus den durch die Entfernungsbilder bereitgestellten Entfernungsinformationen zu erzeugen. Gemäß verschiedenen Aspekten können eine Bewegungsrichtung und eine Geschwindigkeit eines sich bewegenden Objekts, z. B. eines sich bewegenden Hindernisses, das sich einem Fahrzeug nähert, über eine Sequenz von Entfernungsbildern unter Berücksichtigung der Zeit, zu der die Entfernungsbilder erzeugt wurden, bestimmt werden.
  • Ein oder mehrere Aspekte betreffen ein Fahrzeug. Der Begriff „Fahrzeug“, wie hierin verwendet, kann als ein beliebiger geeigneter Fahrzeugtyp verstanden werden, z. B. ein Motorfahrzeug, auch als Kraftfahrzeug bezeichnet. Als ein Beispiel kann ein Fahrzeug ein Auto sein, auch als ein Automobil, ein Personenkraftwagen usw. bezeichnet. Als ein anderes Beispiel kann ein Fahrzeug ein Lastwagen (auch als ein Lastkraftwagen bezeichnet), ein Kleintransporter usw. sein. Obwohl hierin verschiedene Aspekte für Motorfahrzeuge (z. B. ein Auto, ein Lastwagen usw.) beschrieben sind, kann ein Fahrzeug jedoch auch einen beliebigen Typ von Schiffen, Drohnen, Luftfahrzeugen, Kettenfahrzeugen, Booten usw. beinhalten.
  • Der Begriff „Wildtiere“, wie hierin verwendet, kann so verstanden werden, dass er ein beliebiges Tier, freilebend oder Haustier, beinhaltet, das in den Pfad eines Fahrzeugs kommen kann.
  • Allgemein sind Wildtier-Fahrzeug-Kollisionen ein großes Problem. Es gibt 725.000 bis 1,5 Millionen Kollisionen jedes Jahr allein in den Vereinigten Staaten von Amerika, was jährlich 200 Todesopfer und 30.000 Verletzte verursacht. Die Verwendung von Technologie zum Verhindern oder Reduzieren von Fahrzeugkollisionen mit Tieren kann Leben retten.
  • Die Bewegung von Wildtieren ist schwierig vorherzusagen. Um Fahrzeugkollisionen mit Tieren zu vermeiden, mussten menschliche Fahrer manuell bezüglich der potenziellen Gefahr einer Kollision mit Wildtieren reagieren.
  • In jüngster Zeit sind Fahrzeuge mit Bildsensoren ausgestattet worden, um das Bild eines Tieres aufzunehmen und ein Bild mit einer Datenbank von Massen und Formen abzugleichen, um die Art des Tieres zu bestimmen und sein Verhalten zu schätzen. Dies ist auf Bilder beschränkt, die während Tageslicht oder innerhalb des Bereichs der Fahrzeugscheinwerfer aufgenommen werden.
  • Diese automatisierten Systeme können Wildtiere detektieren und werden die Bremsen des Fahrzeugs falls möglich anwenden. Es wird jedoch keine andere Handlung als Bremsen vorgenommen.
  • Gemäß verschiedenen Aspekten ist ein System bereitgestellt, das eine Bewegung von Tieren verfolgen kann und einen Pfad und/oder ein Verhalten des Tieres vorhersagen kann, um eine Fahrzeughandlung zu identifizieren, die eine Fahrzeugkollision mit dem Tier verhindern kann.
  • In verschiedenen Aspekten kann das Verfolgen von Wildtieren verwendet werden, um die Bewegung von Wildtieren genauer vorherzusagen, was sowohl Menschen- als auch Tierleben retten kann. Zusätzlich dazu kann das Verwenden von Verfahren außer einem alleinigen Bremsen beim Verhindern einer Kollision helfen. Beispielsweise könnte das Betätigen der Hupe eines Fahrzeugs das Tier aus dem Pfad des Fahrzeugs verscheuchen, was die Chance einer Vermeidung einer Kollision erhöht.
  • Zusätzlich dazu können Fahrzeuge helle Scheinwerfer reduzieren, damit Tiere nicht geblendet werden und sie an der Stelle stehenbleiben, falls sie sich im Pfade eines sich bewegenden Fahrzeugs befinden.
  • Falls eine Route als ein hohes Risiko für den aktuellen Pfad des Fahrzeugs erachtet wird, kann eine alternative Route angeboten werden. Falls zum Beispiel mehrere Rehe nahe einer Landstraße verfolgt werden, kann eine Route über eine Autobahn wünschenswert sein, falls sie historisch eine niedrigere Rate an Kollisionen mit Tieren aufweist.
  • Verschiedene Aspekte können die Verwendung von breitflächiger Tierverfolgung, Tools mit künstlicher Intelligenz, wie etwa einem künstlichen Neuronalnetzwerk, zum Vorhersagen der Bewegung oder des Verhaltens eines Tieres und 4G/5G-Netze zum Verbessern der Fahrzeugreaktion auf eine potenzielle Kollision mit Wildtieren beinhalten.
  • Wildtierverfolgungseinrichtungen, die die Position eines Tieres senden, sind schon im Umlauf. Derartige Einrichtungen können an dem Tier durch Implantieren der Einrichtung im Tier, Anbringen der Einrichtung an der Oberfläche des Tieres oder durch andere mögliche Mittel befestigt sein. Ferner können die Tierverfolgungseinrichtungen mit Speicher zum Speichern von Tierattributdaten ausgestattet sein. Tierattributdaten könnten die Geschwindigkeit des Tieres unter Verwendung von Mikrogyros oder die Beschleunigung des Tieres unter Verwendung von Beschleunigungsmessern beinhalten. Verschiedene Aspekte beinhalten die Verwendung von breitflächiger Tierverfolgung. Beispielsweise werden in Deutschland Wildtiere durch Jäger überwacht, die die Größe der Wildpopulation aktiv überwachen.
  • Mit der Verwendung von Tierverfolgungseinrichtungen zur Verfolgung aller Wildtiere kann ein Fahrzeug Tierattributdaten zur Unterstützung der Vermeidung von Kollisionen empfangen. Die Tierverfolgungseinrichtung kann eine Tierverfolgungseinrichtung an Fahrzeuge senden. Nach dem Empfang des Tierverfolgungssignals, das Tierattributdaten umfasst, kann das Fahrzeug Daten mit seinen Navigationskartenerzeugungssystemen und auch Tierwarnsystemen kombinieren, um die Vermeidung einer Kollision mit dem Tier zu unterstützen.
  • Viele Fahrzeugtypen könnten von dieser Technologie profitieren. Beispielsweise werden gefährdete Rundschwanzseekühe häufig von Schiffsschrauben getroffen und verletzt oder getötet. Falls Boote mit Technologie zum Identifizieren verfolgter Rundschwanzseekühe, die mit einer Tierverfolgungseinrichtung versehen sind, ausgestattet wären, könnten Wasserfahrzeuge einen gewissen Abstand von einer verfolgten Rundschwanzseekuh beibehalten, von einem Bereich mit Rundschwanzseekühen wegsteuern oder die Geschwindigkeit zu einer sicheren Geschwindigkeit für die Rundschwanzseekühe reduzieren.
  • Als ein anderes Beispiel werden bereits viele Zugvögel verfolgt. Ein Flugzeug kann über einen Schwarm von Zugvögeln gewarnt werden, der sich seiner Abflugbahn nähert, und kann den Abflug verzögern oder eine andere Abflugrichtung wählen.
  • Ferner können die Tierverfolgungseinrichtungen über ein Ad-Hoc-Netzwerk im Gegensatz zu einem festen Netzwerk kommunizieren. Die Tierverfolgungseinrichtungen würden mit anderen Tierverfolgungseinrichtungen und den Fahrzeugen kommunizieren, um die Position eines Tieres zu triangulieren. Unter Verwendung mehrerer verfolgter Tiere und eines oder mehrerer Fahrzeuge, selbst ohne GPS, würde das Fahrzeug in der Lage sein, die Position von Wildtieren durch Triangulation der Signalstärke und der Richtung des Tierverfolgungssignals zu bestimmen.
  • In einem anderen Aspekt dieser Offenbarung würde die Tierverfolgungseinrichtung ein Tierverfolgungssignal direkt zu der Cloud oder einer intermediären Kommunikationseinrichtung senden. Fahrzeuge würden dann das Tierverfolgungssignal und seine assoziierten Tierattributdaten von der Cloud oder der intermediären Kommunikationseinrichtung empfangen, bevor sie die Daten mit ihren Navigationskartenerstellungssystemen und ihrem Tierwarnsystem und/oder -indikator kombinieren.
  • Zusätzlich zu der Verwendung der mit dem Tierverfolgungssignal assoziierten Richtung, Geschwindigkeit und Beschleunigung können andere Tierattribute verwendet werden, um das Verhalten eines Tieres vorherzusagen. Beispielsweise können Tools mit künstlicher Intelligenz verwendet werden, um die Bewegung und/oder das Verhalten eines Tieres basierend auf den Tierattributdaten aus dem Tierverfolgungssignal vorherzusagen.
  • In einem Aspekt dieser Offenbarung kann ein trainiertes Neuronalnetzwerk zur Vorhersage einer Bewegung von Wildtieren unter Verwendung der Daten aus dem Tierverfolgungssignal die Bewegung eines Tieres vorhersagen und weiter trainiert werden. Das Neuronalnetzwerk kann in der Cloud gehostet werden und die Ergebnisse der Vorhersage der Bewegung und/oder des Verhaltens des Tieres können zum Fahrzeug übertragen werden.
  • Beispielsweise kann ein globales Neuronalnetzwerk zum Vorhersagen von allgemeinen Bewegungen von Wildtieren Daten für alle verfolgten Tiere verwenden.
  • Als ein anderes Beispiel kann ein Neuronalnetzwerk für Bewegungen von Wildtieren innerhalb einer lokalen Entfernung verwendet werden, um die Bewegung und/oder das Verhalten eines Tieres genauer vorherzusagen. Beispielsweise können nur Daten für Tiere, die innerhalb eines Radius von 5 km von der Fahrzeugposition verfolgt werden, zum Trainieren eines Neuronalnetzwerks verwendet werden. Dies kann bereitgestellt sein, da die gleiche Tierspezies unterschiedliche Verhalten in unterschiedlichen örtlich begrenzten Populationen aufweisen kann. Beispielsweise kann sich ein Reh in einem Stadtgebiet anders verhalten als ein Reh in einem ländlichen Gebiet. Vorhersagen basierend auf einer lokalen Population können genauer sein als die Vorhersagen basierend auf nationalen oder globalen Populationen.
  • Zusätzlich dazu kann die Jahreszeit und das Geschlecht dabei helfen, die Bewegung und/oder das Verhalten des Tieres zu bestimmen. Beispielsweise ist der Herbst häufig die Brunftzeit für Rotwild, wenn Hirsche den Rehen unermüdlich folgen. Das Verhalten eines Hirsches während dieser Jahreszeit kann sich von seinem Verhalten zu anderen Jahreszeiten unterscheiden.
  • In einem anderen Beispiel können Daten außer Tierattributdaten bereitgestellt und verwendet werden. Unter Verwendung von Echtzeitdaten der letzten Stunden kann ein Fahrzeug Daten darüber empfangen, dass eine spezifische Straße durch einen Wald noch keinen Fahrzeugverkehr erfahren hat. Derartige Daten könnten angeben, dass Wildtiere sich wahrscheinlicher einer Straße nähern werden, da sie keinen kürzlichen Fahrzeugverkehr aufwies. Wildtierverfolgungsdaten geben an, dass Wildtiere sich langsam in Richtung der Straße bewegen. Unter Verwendung der Live-Wildtierverfolgungsdaten und der historischen Fahrzeugverkehrsdaten kann ein Tool mit künstlicher Intelligenz vorhersagen, dass sich das Fahrzeug einer möglichen Kollision mit den Wildtieren nähert.
  • In noch einem anderen Beispiel verursachte kürzlicher starker Regen nahe einem Gebiet, in dem ein Fahrzeug fährt, eine nahegelegene Überflutung. Aus historischen Daten kann bestimmt werden, dass in Zeiten wie diesen Tiere dazu tendieren, sich von den überfluteten Gebieten zu entfernen und sich direkt in Richtung der Straße bewegen, auf der das Fahrzeug fährt. Aufgrund des erhöhten Risikos einer Begegnung mit Wildtieren kann die Kollisionsvermeidungsvorrichtung die Geschwindigkeit des Fahrzeugs reduzieren oder eine alternative Route vorschlagen, die ein geringeres Risiko einer Kollision mit Wildtieren aufweist.
  • Andere Daten, die bei der Bestimmung des Verhaltens von Tieren nützlich sein können, beinhalten:
    • • Spezies
    • • Geschlecht
    • • Position
    • • Richtung
    • • Geschwindigkeit
    • • Beschleunigung
    • • Jahreszeit
    • • Tageszeit
    • • Alter
    • • Einzelnes Tier im Vergleich zu mehreren Tieren
    • • Umfeld
    • • Wetter
  • Es versteht sich, dass die obige Auflistung nicht vollständig ist und andere Eingabedaten verwendet werden können, um das Verhalten von Tieren zu bestimmen.
  • Ein Effekt, den die Kollisionsvermeidungsvorrichtung aufweisen kann, besteht darin, dass ein Tier nicht sichtbar sein muss, um zu bestimmen, dass es in den Pfad des sich bewegenden Fahrzeugs kommen kann.
  • Eine Alternative zum Hosten von Tools mit künstlicher Intelligenz in der Cloud könnte darin bestehen, dass sie in einem Fahrzeugspeicher gespeichert sind. Wenn das vortrainierte Neuronalnetzwerk im Fahrzeug gespeichert ist, würde das Fahrzeug Live-Daten empfangen und sie unter Verwendung des gespeicherten Neuronalnetzwerks verarbeiten. Die Tierverfolgungssignale innerhalb einer gewissen Umgebung des Fahrzeugs würden die Daten zum Fahrzeug übertragen. Die Daten aus diesen Signalen würden als eine Eingabe in das vortrainierte Neuronalnetzwerk dienen und live im Fahrzeug verarbeitet werden.
  • Viele Faktoren können durch ein Tool mit künstlicher Intelligenz verwendet werden, um die Bewegung eines Tieres zu bestimmen. Historische Daten darüber, wie Wildtiere auf Fahrzeuge reagieren, können zum Trainieren eines Tools mit künstlicher Intelligenz verwendet werden. Viele verschiedene Eingabedaten, wie etwa Live-Daten und/oder historische Daten, können verwendet werden, um eine Vorhersage für die Bewegung/das Verhalten eines Tieres vorzunehmen. Beispielsweise, ob das Tier allein ist oder es von anderen Tieren begleitet wird, wie etwa ein Tier in einer Herde. Ob es ein Raubtier in der Umgebung eines Beutetieres gibt. Beispielsweise ein Raubtier, das ein Beutetier jagt. Daten bezüglich dessen, ob ein Tier des anderen Geschlechts oder junge und alte Tiere in der Umgebung anwesend sind. Wie etwa ein Muttertier mit ihren Jungtieren. Alle derartigen Beispiele können Faktoren sein und können als eine Eingabe in ein Tool mit künstlicher Intelligenz, wie etwa ein Neuronalnetzwerk, verwendet werden, um zu bestimmen, wie sich ein Tier bewegen oder verhalten kann.
  • Zusätzlich zu der Verwendung von Tierattributdaten von einer Tierverfolgungseinrichtung, um die Bewegung eines Tieres zu bestimmen, kann bildbasierte Detektion verwendet werden, um das Kollisionsvermeidungssystem zu ergänzen, um die Vermeidung von Kollisionen mit Tieren zu unterstützen. Wiederum können Tools mit künstlicher Intelligenz trainiert werden, Bilder als eine Eingabe anzunehmen und zu bestimmen, ob ein Tier anwesend ist. Dies kann durchgeführt werden, ohne dass das Tier vollständig sichtbar sein muss. Falls beispielsweise nur ein Hirschgeweih im Bild sichtbar ist, kann das Tool mit künstlicher Intelligenz trainiert werden, zu bestimmen, dass das Tier ein Hirsch ist, alleinig basierend darauf, dass das Geweih im Bild sichtbar ist. Im Vergleich zu bestehenden Systemen würde dies auch die Detektion eines Tieres ermöglichen, falls das Tier nicht vollständig in einem Bild sichtbar ist, z. B. nur das Geweih und der Kopf eines Wildtieres durch die Bildsensoren des Fahrzeugs aufgenommen werden.
  • Die Bildsensoren eines Fahrzeugs können auch verwendet werden, um eine Karte des Umfelds des Fahrzeugs zu erzeugen, um die Identifizierung einer sicheren Fahrzeughandlung zu unterstützen. Falls es beispielsweise einen Graben an der Seite der Straße gibt, könnte das Manövrieren des Fahrzeugs in den Graben zur Vermeidung eines Tieres nicht wünschenswert sein.
  • Automatische Systeme, die für das Bremsen konzipiert sind, um das Fahrzeug bei der Detektion, dass es eine Fahrzeugkollision mit einem Tier geben kann, abzubremsen oder anzuhalten, sind möglicherweise nicht die beste Option. Fahrzeughandlungen außer dem Bremsen können bereitgestellt sein. Beispielsweise könnte ein Versuch implementiert werden, ein Tier zu motivieren, sich aus dem Pfad des Fahrzeugs zu bewegen, um die Kollision zu vermeiden. Dies könnte entscheidend sein, insbesondere, falls eine Vollbremsung nur den Aufprall verringern, aber ihn nicht vollständig vermeiden wird.
  • In der offiziellen Anleitung in Deutschland, wie auf Wildtierbegegnungen reagiert werden soll, heißt es: „Wildtiere werden durch Fernlicht geblendet. Ein Tier wird wie erstarrt in dem Lichtkegel stehen bleiben. Daher sollte Fernlicht sofort ausgeschaltet werden, wenn ein Wildtier auf einem potenziellen Kollisionskurs detektiert wird. Ferner wird geraten, zu hupen, um das Tier zu veranlassen, sich zu entfernen, zusätzlich zu dem schon etablierten Protokoll des Abbremsens und Anhaltens.“
  • Eine breitflächige Verwendung von Wildtierverfolgungseinrichtungen wird schon weitläufig in Ländern wie Deutschland eingesetzt. Durch das Ausnutzen verfolgter Tiere können Tierattributdaten verwendet werden, um die Vorhersage des Verhaltens von Tieren und die Verhinderung von Fahrzeugkollisionen mit Tieren zu unterstützen. Da Tierverfolgungseinrichtungen kleiner und kostengünstiger werden, kann erwartet werden, dass Tiertelemetrie mehr und mehr Wildtiere abdeckt. Tierverfolgungsdaten für große Wildtierpopulationen können die Genauigkeit von Tools mit künstlicher Intelligenz für die Vorhersage der Bewegung von Wildtieren erhöhen.
  • Obwohl das Verhalten eines Tieres nicht mit 100%-iger Gewissheit vorhergesagt werden kann, können Tools mit künstlicher Intelligenz, die zum Vorhersagen eines wahrscheinlichsten Szenarios in Anbetracht von Eingabedaten trainiert sind, die beste Fahrzeugreaktion ergeben, um die größte Chance zur Vermeidung einer Kollision zu erzeugen.
  • Die Verfolgung der Position, Geschwindigkeit und Beschleunigung eines Tieres durch Tierverfolgungseinrichtungen kann direkt verwendet werden, um den aktuellen Pfad des Tieres ohne Verwendung eines Tools mit künstlicher Intelligenz vorherzusagen. Auf diese Weise kann das Fahrzeug in seinen Pfad kommende Wildtiere in seiner Umgebung antizipieren, selbst wenn die Wildtiere hinter Bäumen oder einem kleinen Hügel verborgen sind.
  • 1A veranschaulicht eine Fahrzeugkollisionsvermeidungsvorrichtung gemäß verschiedenen Aspekten. Das Fahrzeug 110 kann mindestens einen Prozessor 112, mindestens einen Empfänger 114 und einen oder mehrere Bildsensoren 116 beinhalten. Die Tierverfolgungseinrichtung 120 kann ein Tierverfolgungssignal, das Tierattributdaten enthält, zu dem mindestens einen Empfänger 114 übertragen.
  • 1B veranschaulicht die Tierverfolgungseinrichtung 120 ausführlicher. Die Tierverfolgungseinrichtung 120 kann an einem Tier befestigt sein. Beispielsweise kann sie in dem Tier implantiert sein oder Teil eines am Tier angebrachten Halsbandes sein. Die Tierverfolgungseinrichtung 120 kann eine Batterie 142, einen Speicher 144, einen oder mehrere Prozessoren 150, einen Sender 152, einen GPS-Sensor 154 und einen Beschleunigungsmesser 156 beinhalten. Die Batterie 142 dient als die Leistungsversorgung für die Tierverfolgungseinrichtung 120. Der GPS-Sensor 154 und der Beschleunigungsmesser 156 können Positions- bzw. Beschleunigungsdaten des Tieres messen. Tierattributdaten, wie etwa Positionsdaten und Beschleunigungsdaten, können im Speicher 144 gespeichert werden. Der Prozessor 150 kann die im Speicher 144 gespeicherten Tierverfolgungsdaten oder die Tierverfolgungsdaten direkt von den Sensoren 154 und 156 verarbeiten. Der Prozessor 150 kann ein Tierverfolgungssignal einschließlich Tierattributdaten erzeugen, die zu dem Sender 152 übertragen werden sollen. Es versteht sich, dass die Tierverfolgungseinrichtung 120 eine beliebige Anzahl von Sensoren zum Messen anderer Tierattribute beinhalten kann. Beispielsweise kann die Tierverfolgungseinrichtung 120 ein Thermometer zum Messen der Temperatur des Tieres beinhalten. Die Tierverfolgungseinrichtung 120 kann auch einen Empfänger (nicht gezeigt) zum Empfangen von Signalen beinhalten. Es versteht sich ferner, dass, obwohl manche Aspekte als separate Komponenten gezeigt sind, sie zu einer Komponente kombiniert werden könnten. Beispielsweise können der Prozessor 150 und der Speicher 144 eine Komponente sein.
  • 2 veranschaulicht ein Fahrzeug, das mit einer wie in 1 beschriebenen Fahrzeugkollisionsvermeidungsvorrichtung ausgestattet ist, die mehrere Tierverfolgungssignale (nicht gezeigt) von mehreren Tieren 210a und 210b empfängt. Die Tierverfolgungseinrichtungen 120a und 120b sind an den Tieren 210a bzw. 210b befestigt. Die Tierverfolgungseinrichtungen 102a und 120b sind mit Speicher zum Speichern von Tierattributdaten bezüglich des Tieres 210a bzw. 210b ausgestattet. Unter den in den Tierverfolgungseinrichtungen 120a und 120b gespeicherten Tierattributdaten können sich Positionsdaten, Richtungsdaten, Geschwindigkeitsdaten und/oder Beschleunigungsdaten befinden. Ein oder mehrere Empfänger 114 des Fahrzeugs 110 sind in der Lage, durch die Tierverfolgungseinrichtungen 120a und 120b übertragene Tierverfolgungssignale zu empfangen. In manchen Aspekten dieser Offenbarung kann das Tierverfolgungssignal durch eine intermediäre Kommunikationseinrichtung (nicht gezeigt) von den Tierverfolgungseinrichtungen 120a und 120b zum Empfänger 114 laufen.
  • Wenn ein oder mehrere Empfänger 114 des Fahrzeugs 110 mehrere Tierverfolgungssignale von den Tierverfolgungseinrichtungen 120a und 120b empfangen, verarbeiten ein oder mehrere Prozessoren 112 die als Teil des Tierverfolgungssignals übertragenen Tierattributdaten. Basierend auf zumindest den Positionsdaten, Richtungsdaten, Geschwindigkeitsdaten und/oder Beschleunigungsdaten des Tieres 210a können beispielsweise der eine oder die mehreren Prozessoren 112 bestimmen, dass das Tier 210a einen projizierten Pfad von 220a aufweist und sich in dem Pfad des Fahrzeugs 110 befinden wird. Basierend auf der Bestimmung, dass sich das Tier 210a im Pfad des Fahrzeugs 110 befinden wird, können die Prozessoren 112 das Fahrzeug 110 steuern, seine Scheinwerfer zu reduzieren, sodass das Tier 210a nicht geblendet wird, zu hupen, um das Tier 210a aus dem Pfad des Fahrzeugs 110 zu verscheuchen, die Spur zu wechseln, um eine Kollision mit dem Tier 210a zu vermeiden, und eine beliebige Anzahl von Fahrzeughandlungen, die eine Kollision zwischen dem Fahrzeug 110 und dem Tier 210a verhindern können.
  • In einem anderen Beispiel kann der eine oder die mehreren Prozessoren 112 basierend auf zumindest den Positionsdaten, Richtungsdaten, Geschwindigkeitsdaten und/oder Beschleunigungsdaten des Tieres 210b bestimmen, dass das Tier 210b einen projizierten Pfad von 220b aufweist und sich nicht im Pfad des Fahrzeugs 110 befinden wird. Basierend auf der Bestimmung, dass sich das Tier 210b nicht im Pfad des Fahrzeugs 110 befinden wird, können die Prozessoren 112 bestimmen, dass keine Fahrzeughandlung notwendig ist, um eine Kollision mit dem Tier 210b zu vermeiden.
  • 3 veranschaulicht ein Fahrzeug, das mit einer wie in 1 beschriebenen Fahrzeugkollisionsvermeidungsvorrichtung ausgestattet ist, und mehrere Tiere 310a-310c mit ihren jeweiligen Tierverfolgungseinrichtungen 120a-120c. Ein oder mehrere Empfänger 114 des Fahrzeugs 110 sind in der Lage, durch die Tierverfolgungseinrichtungen 120a und 120b übertragene Tierverfolgungssignale zu empfangen, wie in 2 beschrieben. Durch das Empfangen von Tierverfolgungssignalen von den Tieren 310a-310c können der eine oder die mehreren Prozessoren 112 des Fahrzeugs 110 bestimmen, dass es Tiere in der Umgebung des Fahrzeugs 110 gibt, selbst wenn die Sicht auf die Tiere behindert ist.
  • Beispielsweise kann die Sicht von der Perspektive des Fahrzeugs 110 aus auf die Tiere 310a und 310b durch Bäume oder ein beliebiges anderes Hindernis behindert sein. Auch wenn die Tiere 310a und 310b möglicherweise nicht sichtbar sind, können die Prozessoren 112 das Fahrzeug basierend auf den Tierattributdaten des Tierverfolgungssignals steuern, das durch den einen oder die mehreren Empfänger 114 empfangen und durch die Tierverfolgungseinrichtungen 120a und 120b übertragen wird.
  • Zusätzlich zu der Bestimmung des Vorhandenseins von Tieren durch das Empfangen eines Tierverfolgungssignals kann das Fahrzeug 110 auch mit einem oder mehreren Bildsensoren 116 ausgestattet sein, um das Vorhandensein eines Tieres zu bestimmen. Beispielsweise können der eine oder die mehreren Empfänger 114 Tierattributdaten für das Tier 310c aus dem durch die Tierverfolgungseinrichtung 120c übertragenen Tierverfolgungssignal empfangen. Zusätzlich dazu können der eine oder die mehreren Bildsensoren 116 Bilder des Tieres 310c aufnehmen, da es eine nicht behinderte Sicht auf das Tier 310c von der Perspektive des Fahrzeugs 110 aus gibt. Der eine oder die mehreren Prozessoren 112 können die Tierattributdaten und die aufgenommenen Bilder in Zusammenhang zueinander verarbeiten, um eine Fahrzeughandlung zu bestimmen. Durch das Verwenden von sowohl Tierattributdaten als auch aufgenommenen Bildern können die Prozessoren 112 in der Lage sein, die beste Fahrzeughandlung zu bestimmen.
  • Zusätzlich dazu können der eine oder die mehreren Bildsensoren 116 in der Lage sein, Bilder der Fahrzeugumgebung aufzunehmen, um eine Karte zu erzeugen. Der eine oder die mehreren Prozessoren 112 können die Karte auch verwenden, um eine sichere Fahrzeughandlung basierend auf der Karte des Umfelds des Fahrzeugs 110 zu bestimmen.
  • Zusätzlich dazu können der eine oder die mehreren Bildsensoren 116 in der Lage sein, Bilder von teilweise nicht sichtbaren Tieren aufzunehmen. Beispielsweise können die Bildsensoren 116 eine Teilsicht auf die Tiere 310a und 310b besitzen. Die Prozessoren können in der Lage sein, das Vorhandensein der Tiere 310a und 310b aus den Bildern, die von teilweise nicht sichtbaren Tieren durch die Bildsensoren 116 aufgenommen werden, zu bestimmen. Wiederum können der eine oder die mehreren Prozessoren 112 die Tierattributdaten und die aufgenommenen Bilder in Zusammenhang zueinander verarbeiten, um eine Fahrzeughandlung zu bestimmen. Durch das Verwenden sowohl der Tierattributdaten als auch der aufgenommenen Bilder können die Prozessoren 112 in der Lage sein, die beste Fahrzeughandlung zu bestimmen.
  • 4 veranschaulicht ein Ad-Hoc-Netzwerk, das zum Bestimmen der Position eines Tieres 400 selbst ohne GPS verwendet wird. Kommunikationseinrichtungen 410a - 410c können eine beliebige Einrichtung sein, die in der Lage ist, das Tierverfolgungssignal zu empfangen, das durch die an dem Tier 400 befestigte Tierverfolgungseinrichtung übertragen wird und zumindest die Stärke und Richtung des Tierverfolgungssignals überträgt. Durch das Messen der Signalstärke und -richtung aus drei verschiedenen Punkten, den Positionen der Kommunikationseinrichtungen 410a-410c, kann die Position des Tieres 400 bestimmt werden. Die Kommunikationseinrichtungen 410a - 410c können andere Tierverfolgungseinrichtungen, Fahrzeuge und/oder eine beliebige andere Kommunikationseinrichtung sein.
  • 5 veranschaulicht eine schematische Ansicht 500 eines Tools 530 mit künstlicher Intelligenz, das trainiert sein kann, ein wahrscheinlichstes Verhalten oder eine wahrscheinlichste Bewegung eines Tieres zu bestimmen. Das Tool 530 mit künstlicher Intelligenz kann als eine Eingabe historische Daten 510 und/oder Live-Daten 520 annehmen. Die historischen Daten 510 und/oder die Live-Daten 520 können zum Trainieren des Tools 530 mit künstlicher Intelligenz verwendet werden. Die historischen Daten 510 und die Live-Daten 520 können beliebige Daten sein, die bei der Vorhersage des Verhaltens oder der Bewegung eines Tieres nützlich sind. Beispielsweise können die historischen Daten 510 das Verhalten eines Tieres während Überflutungen beinhalten. Basierend auf den historischen Daten könnte beobachtet werden, dass sich Tiere von der Überflutungsquelle entfernen und sich potenziell in Richtung von Straßen und in die Pfade von Fahrzeugen bewegen. Die Live-Daten 520 können die in einem empfangenen Tierverfolgungssignal enthaltenen Tierattribute beinhalten, um die Bestimmung der Handlungen des aktuellen Tieres, das sich in der Umgebung des Fahrzeugs befindet, zu unterstützen. Beispielsweise können die Live-Daten 520 die Richtung eines Tieres beinhalten, um zu bestimmen, ob es in den Pfad des Fahrzeugs kommen wird. Die Live-Daten 520 können auch Daten beinhalten, die nicht dem Tier zugeschrieben sind, wie etwa aktuelle Wetterbedingungen. Falls es beispielsweise regnet, ist das Bremsen zur Vermeidung einer Kollision möglicherweise nicht die beste Option, da die Straßenbedingungen rutschig sein können.
  • Das Tool 530 mit künstlicher Intelligenz kann ein beliebiges Modell sein, das in der Lage ist, historische Daten und/oder Live-Daten zu akzeptieren, um das Verhalten eines Tieres vorherzusagen. Beispielsweise kann das Tool 530 mit künstlicher Intelligenz ein trainiertes künstliches Neuronalnetzwerk 532 und/oder ein künstliches Echtzeit-Neuronalnetzwerk 534 beinhalten. Unter Verwendung der Live-Daten 520 und/oder der historischen Daten 510 als eine Eingabe in das Tool 530 mit künstlicher Intelligenz können beispielsweise das trainierte künstliche Neuronalnetzwerk 532 und/oder das künstliche Echtzeit-Neuronalnetzwerk 534 bestimmen, ob sich ein Tier auf eine Art und Weise verhalten wird, die es in den Pfad eines Fahrzeugs bringen wird, und können als eine Ausgabe eine Tierverhaltensvorhersage 540 erzeugen. Beispielsweise kann 540 eine vorhergesagte Bewegung eines Tieres sein. Zusätzlich dazu könnte 540 ein anderes Verhalten eines Tieres bestimmen. Zum Beispiel, ob das Betätigen der Hupe des Fahrzeugs dabei helfen könnte, das Tier aufzuschrecken und zu bewirken, dass es sich aus dem Pfad des Fahrzeugs bewegt.
  • Der eine oder die mehreren Prozessoren 112 des Fahrzeugs 110 können eine defensive Handlung bestimmen, um eine Kollision zwischen dem Fahrzeug und dem Tier zu vermeiden, basierend auf dem vorhergesagten Verhalten des Tieres.
  • 6 veranschaulicht ein schematisches Flussdiagramm eines beispielhaften Verfahrens 600 zum Steuern eines Fahrzeugs, um eine Kollision mit Wildtieren zu vermeiden. Das Verfahren kann Folgendes beinhalten: bei 610 Empfangen eines Tierverfolgungssignals von einer Tierverfolgungseinrichtung, das Tierverfolgungsattributdaten beinhaltet; bei 620 Verarbeiten der Tierverfolgungsattributdaten; bei 630 Bestimmen, ob das Tier in den Pfad des Fahrzeugs kommen wird; und bei 640 Steuern des Fahrzeugs basierend auf der Bestimmung, ob das Tier in den Pfad des Fahrzeugs kommen wird oder nicht.
  • Gemäß manchen Aspekten kann das Empfangen 610 des Tierverfolgungssignals direkt von der Tierverfolgungseinrichtung oder von einer intermediären Kommunikationseinrichtung empfangen werden.
  • Gemäß manchen Aspekten kann das Verarbeiten 620 der mit dem Tier assoziierten Tierverfolgungsattribute durch die Prozessoren im Fahrzeug verarbeitet werden und kann die Verwendung eines Tools mit künstlicher Intelligenz, das in einem Speicher des Fahrzeugs gespeichert ist, beinhalten.
  • Gemäß manchen Aspekten kann das Verarbeiten 620 der mit dem Tier assoziierten Tierverfolgungsattribute durch das Übertragen eines Eingabesignals, in dem Tierattributdaten (Live-Daten) enthalten sind, zu einem Tool mit künstlicher Intelligenz, das in der Cloud gehostet wird und ein vorhergesagtes Verhalten eines Tieres ausgibt, verarbeitet werden. Das Verarbeiten 620 der Tierverfolgungsdaten kann ferner das Empfangen des von der Cloud ausgegebenen vorhergesagten Verhaltens des Tieres beinhalten.
  • Gemäß manchen Aspekten kann das Steuern 640 des Fahrzeugs auf der Ausgabe eines Tools mit künstlicher Intelligenz über das vorhergesagte Verhalten des Tieres basieren. Beispielsweise Hupen, falls das vorhergesagte Verhalten des Tieres angibt, dass Hupen das Tier dahingehend aufscheuchen wird, sich aus dem Pfad des Fahrzeugs zu bewegen.
  • Es versteht sich, dass jegliche Schritte des Verfahrens 600 durch die Prozessoren des Fahrzeugs oder in der Cloud durchgeführt werden können. Zusätzlich dazu kann das Fahrzeug ausgestattet sein, um Daten wie notwendig zu übertragen oder zu empfangen, um mit der Cloud, Tierverfolgungseinrichtungen, anderen Fahrzeugen usw. zu kommunizieren, um die Schritte des Verfahrens 600 durchzuführen.
  • Im Folgenden sind verschiedene Beispiele mit Bezug auf die oben beschriebenen Aspekte bereitgestellt.
  • Beispiel 1 ist eine Fahrzeugsteuervorrichtung. Die Fahrzeugsteuervorrichtung beinhaltet einen oder mehrere Empfänger, die dazu ausgelegt sind, ein Tierverfolgungssignal von einer an einem Tier befestigten Tierverfolgungseinrichtung zu empfangen und mit dem Tier assoziierte Tierattributdaten zu speichern. Das Tierverfolgungssignal beinhaltet die Tierattributdaten. Die Fahrzeugsteuervorrichtung beinhaltet ferner einen oder mehrere Prozessoren, die dazu ausgelegt sind, die empfangenen Tierattributdaten zu verarbeiten, um zu bestimmen, ob sich das Tier in einem Pfad des Fahrzeugs befinden wird; eine Fahrzeughandlung basierend auf der Bestimmung, dass sich das Tier im Pfad des Fahrzeugs befinden wird, zu bestimmen und ein Fahrzeug gemäß der Fahrzeughandlung zu steuern.
  • In Beispiel 2 kann der Gegenstand von Beispiel 1 optional beinhalten, dass der eine oder die mehreren Empfänger das Tierverfolgungssignal über einen intermediären Sendeempfänger empfangen.
  • In Beispiel 3 kann der Gegenstand eines der Beispiele 1 oder 2 optional beinhalten, dass die Fahrzeugsteuervorrichtung ferner einen oder mehrere Sender beinhaltet. Der eine oder die mehreren Sender sind dazu ausgelegt, ein Eingabesignal einschließlich der Tierattributdaten zu einem Server zu übertragen.
  • In Beispiel 4 kann der Gegenstand von Beispiel 3 optional beinhalten, dass der Server ferner dazu ausgelegt ist, die Bewegung eines Tieres basierend auf den Tierattributdaten vorherzusagen und die Bewegung des Tieres zum Fahrzeug zu übertragen. Das Fahrzeug ist dazu ausgelegt, die Bewegung des Tieres vom Server zu empfangen und die Fahrzeughandlung basierend auf der Bewegung des Tieres zu bestimmen.
  • In Beispiel 5 kann der Gegenstand eines der Beispiele 1-3 optional beinhalten, dass der eine oder die mehreren Prozessoren die Bewegung eines Tieres basierend auf den Tierattributdaten bestimmen.
  • In Beispiel 6 kann der Gegenstand eines der Beispiele 1-5 optional beinhalten, dass die Tierattributdaten ein Speziesattribut beinhalten.
  • In Beispiel 7 kann der Gegenstand eines der Beispiele 1-6 optional beinhalten, dass die Tierattributdaten ein Geschlechtsattribut beinhalten.
  • In Beispiel 8 kann der Gegenstand eines der Beispiele 1-7 optional beinhalten, dass die Tierattributdaten ein Geschwindigkeitsattribut beinhalten.
  • In Beispiel 9 kann der Gegenstand eines der Beispiele 1-8 optional beinhalten, dass die Tierattributdaten ein Beschleunigungsattribut beinhalten.
  • In Beispiel 10 kann der Gegenstand eines der Beispiele 1-9 optional beinhalten, dass die Fahrzeughandlung die Modifikation einer Lichthelligkeit ist.
  • In Beispiel 11 kann der Gegenstand eines der Beispiele 1-10 optional beinhalten, dass die Fahrzeughandlung die Erzeugung eines Tons ist.
  • In Beispiel 12 kann der Gegenstand eines der Beispiele 1-11 optional beinhalten, dass die Fahrzeughandlung die Abänderung einer Fahrzeugrichtung ist.
  • In Beispiel 13 kann der Gegenstand eines der Beispiele 1-12 optional einen Indikator beinhalten. Der eine oder die mehreren Prozessoren sind dazu ausgelegt, den Indikator zu aktivieren.
  • In Beispiel 14 kann der Gegenstand von Beispiel 13 optional beinhalten, dass der Indikator dazu ausgelegt ist, eine Route mit hohem Risiko anzugeben.
  • In Beispiel 15 kann der Gegenstand von Beispiel 14 optional beinhalten, dass der eine oder die mehreren Prozessoren dazu ausgelegt sind, eine alternative Route bereitzustellen.
  • In Beispiel 16 kann der Gegenstand eines der Beispiele 1-15 optional einen oder mehrere Bildsensoren beinhalten, die dazu ausgelegt sind, ein Bild aufzunehmen.
  • In Beispiel 17 kann der Gegenstand von Beispiel 16 optional beinhalten, dass der eine oder die mehreren Prozessoren dazu ausgelegt sind, das aufgenommene Bild zu verarbeiten, um ein Tier zu bestimmen.
  • In Beispiel 18 kann der Gegenstand von Beispiel 17 optional beinhalten, dass das aufgenommene Bild eine behinderte Ansicht des Tieres ist.
  • In Beispiel 19 kann der Gegenstand eines der Beispiele 17 und 18 optional beinhalten, dass die Fahrzeughandlung ferner auf dem bestimmten Tier basiert.
  • In Beispiel 20 kann der Gegenstand eines der Beispiele 1-19 optional beinhalten, dass das Fahrzeug ein Luftfahrzeug ist.
  • In Beispiel 21 kann der Gegenstand eines der Beispiele 1-19 optional beinhalten, dass das Fahrzeug ein Wasserfahrzeug ist.
  • In Beispiel 22 kann der Gegenstand eines der Beispiele 1-19 optional beinhalten, dass das Fahrzeug ein Kraftfahrzeug ist.
  • In Beispiel 23 kann der Gegenstand eines der Beispiele 1-22 optional beinhalten, dass die Fahrzeughandlung ferner auf Wetterbedingungen basiert.
  • Beispiel 24 ist ein System zur Fahrzeugsteuerung, das eine oder mehrere an einem Tier befestigte Tierverfolgungseinrichtungen aufweist, die dazu ausgelegt sind, ein Tierverfolgungssignal zu übertragen und mit einem Tier assoziierte Tierattributdaten zu speichern. Das Tierverfolgungssignal beinhaltet die Tierattributdaten. Das Fahrzeugsteuersystem weist ferner Folgendes auf: einen oder mehrere Empfänger, die dazu ausgelegt sind, das Tierverfolgungssignal zu empfangen; und einen oder mehrere Prozessoren, die dazu ausgelegt sind, die empfangenen Tierattributdaten zu verarbeiten, um zu bestimmen, ob sich das Tier in einem Pfad des Fahrzeugs befinden wird. Das System zur Fahrzeugsteuerung kann eine Fahrzeughandlung basierend auf der Bestimmung, dass sich das Tier im Pfad des Fahrzeugs befinden wird, bestimmen und das Fahrzeug gemäß der Fahrzeughandlung steuern.
  • In Beispiel 25 beinhaltet der Gegenstand von Beispiel 24 einen intermediären Sendeempfänger. Das Tierverfolgungssignal wird von der Tierverfolgungseinrichtung über den intermediären Sendeempfänger zum Fahrzeug übertragen.
  • In Beispiel 26 kann der Gegenstand von Beispiel 25 optional beinhalten, dass das Fahrzeug ferner einen oder mehrere Sender aufweist, die dazu ausgelegt sind, ein Eingabesignal einschließlich der Tierattributdaten zum Server zu übertragen.
  • In Beispiel 27 kann der Gegenstand von Beispiel 26 optional beinhalten, dass der Server dazu ausgelegt ist, die Bewegung eines Tieres basierend auf den Tierattributdaten vorherzusagen. Der Server kann optional die Bewegung des Tieres zum Fahrzeug übertragen. Das Fahrzeug kann die Bewegung des Tieres empfangen und die Fahrzeughandlung basierend auf der Bewegung des Tieres bestimmen.
  • In Beispiel 28 kann der Gegenstand eines der Beispiele 24-26 optional beinhalten, dass der eine oder die mehreren Prozessoren ferner dazu ausgelegt sind, die Bewegung eines Tieres basierend auf den Tierattributdaten zu bestimmen.
  • In Beispiel 29 kann der Gegenstand eines der Beispiele 24-28 optional beinhalten, dass die Tierattributdaten ein Speziesattribut beinhalten.
  • In Beispiel 30 kann der Gegenstand eines der Beispiele 24-29 optional beinhalten, dass die Tierattributdaten ein Geschlechtsattribut beinhalten.
  • In Beispiel 31 kann der Gegenstand eines der Beispiele 24-30 optional beinhalten, dass die Tierattributdaten ein Geschwindigkeitsattribut beinhalten.
  • In Beispiel 32 kann der Gegenstand eines der Beispiele 24-31 optional beinhalten, dass die Tierattributdaten ein Beschleunigungsattribut beinhalten.
  • In Beispiel 33 kann der Gegenstand eines der Beispiele 24-32 optional beinhalten, dass die Fahrzeughandlung die Modifikation einer Lichthelligkeit ist.
  • In Beispiel 34 kann der Gegenstand eines der Beispiele 24-33 optional beinhalten, dass die Fahrzeughandlung die Erzeugung eines Tons ist.
  • In Beispiel 35 kann der Gegenstand eines der Beispiele 24-34 optional beinhalten, dass die Fahrzeughandlung die Abänderung eines Fahrzeugpfades ist.
  • In Beispiel 36 kann der Gegenstand eines der Beispiele 24-34 optional einen Indikator beinhalten. Der eine oder die mehreren Prozessoren sind ferner dazu ausgelegt, den Indikator zu aktivieren.
  • In Beispiel 37 kann der Gegenstand von Beispiel 36 optional beinhalten, dass der Indikator dazu ausgelegt ist, eine Route mit hohem Risiko anzugeben.
  • In Beispiel 38 kann der Gegenstand von Beispiel 37 optional beinhalten, dass der eine oder die mehreren Prozessoren ferner dazu ausgelegt sind, eine alternative Route bereitzustellen.
  • In Beispiel 39 kann der Gegenstand eines der Beispiele 24-38 optional einen oder mehrere Bildsensoren beinhalten, die dazu ausgelegt sind, ein Bild aufzunehmen.
  • In Beispiel 40 kann der Gegenstand von Beispiel 39 optional beinhalten, dass der eine oder die mehreren Prozessoren ferner dazu ausgelegt sind, das aufgenommene Bild zu verarbeiten, um ein Tier zu bestimmen.
  • In Beispiel 41 kann der Gegenstand von Beispiel 40 optional beinhalten, dass das aufgenommene Bild eine behinderte Ansicht des Tieres ist.
  • In Beispiel 42 kann der Gegenstand eines der Beispiele 40-41 optional beinhalten, dass die Fahrzeughandlung auf dem bestimmten Tier basiert.
  • In Beispiel 43 kann der Gegenstand eines der Beispiele 24-42 optional beinhalten, dass das Fahrzeug ein Luftfahrzeug ist.
  • In Beispiel 44 kann der Gegenstand eines der Beispiele 24-42 optional beinhalten, dass das Fahrzeug ein Wasserfahrzeug ist.
  • In Beispiel 45 kann der Gegenstand eines der Beispiele 24-42 optional beinhalten, dass das Fahrzeug ein Kraftfahrzeug ist.
  • In Beispiel 46 kann der Gegenstand eines der Beispiele 24-45 optional beinhalten, dass die Fahrzeughandlung ferner auf Wetterbedingungen basiert.
  • Beispiel 47 ist eine Vorrichtung zum Steuern eines Fahrzeugs, die Mittel zum Empfangen eines Tierverfolgungssignals von einer an einem Tier befestigten Tierverfolgungseinrichtung und zum Speichern von mit dem Tier assoziierten Tierattributdaten aufweist. Die Vorrichtung beinhaltet auch Mittel zum Verarbeiten der empfangenen Tierattributdaten, um zu bestimmen, ob sich das Tier in einem Pfad eines Fahrzeugs befinden wird, und eine Fahrzeughandlung basierend auf der Bestimmung, dass sich das Tier im Pfad des Fahrzeugs befinden wird, zu bestimmen. Die Vorrichtung weist ferner Mittel zum Steuern des Fahrzeugs gemäß der Fahrzeughandlung auf.
  • In Beispiel 48 beinhaltet der Gegenstand von Beispiel 47 optional Mittel zum Empfangen des Tierverfolgungssignals über einen intermediären Sendeempfänger.
  • In Beispiel 49 beinhaltet der Gegenstand eines der Beispiele 47 und 48 optional Mittel zum Übertragen eines Eingabesignals einschließlich der Tierattributdaten zu einem Server.
  • In Beispiel 50 beinhaltet der Gegenstand von Beispiel 49 optional Mittel zum Empfangen der Bewegung eines Tieres basierend auf den Tierattributdaten vom Server.
  • In Beispiel 51 beinhaltet der Gegenstand eines der Beispiele 47-49 optional Mittel zum Bestimmen der Bewegung eines Tieres basierend auf den Tierattributen.
  • In Beispiel 52 beinhaltet der Gegenstand eines der Beispiele 47-51 optional, dass die Tierattribute ein Speziesattribut beinhalten.
  • In Beispiel 53 beinhaltet der Gegenstand eines der Beispiele 47-52 optional, dass die Tierattribute ein Geschlechtsattribut beinhalten.
  • In Beispiel 54 beinhaltet der Gegenstand eines der Beispiele 47-53 optional, dass die Tierattribute ein Geschwindigkeitsattribut beinhalten.
  • In Beispiel 55 beinhaltet der Gegenstand eines der Beispiele 47-54 optional, dass die Tierattribute ein Beschleunigungsattribut beinhalten.
  • In Beispiel 56 beinhaltet der Gegenstand eines der Beispiele 47-55 optional Mittel zum Modifizieren einer Lichthelligkeit.
  • In Beispiel 57 beinhaltet der Gegenstand eines der Beispiele 47-56 optional Mittel zum Erzeugen eines Tons.
  • In Beispiel 58 beinhaltet der Gegenstand eines der Beispiele 47-57 optional Mittel zum Ausweichen.
  • In Beispiel 59 beinhaltet der Gegenstand eines der Beispiele 47-58 optional Mittel zum Aktivieren eines Indikators.
  • In Beispiel 60 beinhaltet der Gegenstand von Beispiel 59 optional Mittel zum Angeben einer Route mit hohem Risiko.
  • In Beispiel 61 beinhaltet der Gegenstand von Beispiel 60 optional Mittel zum Bereitstellen einer alternativen Route.
  • In Beispiel 62 beinhaltet der Gegenstand eines der Beispiele 47-61 optional Mittel zum Aufnehmen eines Bildes.
  • In Beispiel 63 beinhaltet der Gegenstand von Beispiel 62 optional Mittel zum Verarbeiten des aufgenommenen Bildes, um ein Tier zu bestimmen.
  • In Beispiel 64 beinhaltet der Gegenstand von Beispiel 63 optional, dass das aufgenommene Bild eine behinderte Ansicht des Tieres ist.
  • In Beispiel 65 beinhaltet der Gegenstand eines der Beispiele 63 und 64 optional, dass die Fahrzeughandlung auf dem bestimmten Tier basiert.
  • Beispiel 66 ist ein Verfahren zur Vermeidung einer Kollision mit einem Tier, das Empfangen eines Tierverfolgungssignals von einer Tierverfolgungseinrichtung, die Tierattributdaten speichert und an einem Tier befestigt ist, beinhaltet. Das Tierverfolgungssignal beinhaltet die Tierattributdaten. Das Verfahren beinhaltet ferner Verarbeiten der empfangenen Tierattributdaten, um zu bestimmen, ob sich das Tier in einem Pfad der Fahrzeughandlung befinden wird, und Bestimmen einer Fahrzeughandlung basierend auf der Bestimmung, dass sich das Tier im Pfad des Fahrzeugs befinden wird. Der Prozess beinhaltet auch Steuern eines Fahrzeugs gemäß der Fahrzeughandlung.
  • In Beispiel 67 kann der Gegenstand von Beispiel 66 optional Empfangen des Tierverfolgungssignals über einen intermediären Sendeempfänger beinhalten.
  • In Beispiel 68 kann der Gegenstand eines der Beispiele 66 und 67 optional Übertragen eines Eingabesignals einschließlich der Tierattributdaten zu einem Server beinhalten.
  • In Beispiel 69 kann der Gegenstand von Beispiel 68 optional Empfangen der Bewegung eines Tieres basierend auf den Tierattributdaten und, dass die Fahrzeughandlung ferner basierend auf der Bewegung des Tieres bestimmt wird, beinhalten.
  • In Beispiel 70 kann der Gegenstand eines der Beispiele 66-68 optional Bestimmen der Bewegung eines Tieres basierend auf den Tierattributdaten beinhalten.
  • In Beispiel 71 kann der Gegenstand von Beispiel 70 optional beinhalten, dass die Fahrzeughandlung auf der bestimmten Bewegung des Tieres basiert.
  • In Beispiel 72 kann der Gegenstand eines der Beispiele 66-71 optional beinhalten, dass die Tierattribute ein Speziesattribut beinhalten.
  • In Beispiel 73 kann der Gegenstand eines der Beispiele 66-72 optional beinhalten, dass die Tierattribute ein Geschlechtsattribut beinhalten.
  • In Beispiel 74 kann der Gegenstand eines der Beispiele 66-73 optional beinhalten, dass die Tierattribute ein Geschwindigkeitsattribut beinhalten.
  • In Beispiel 75 kann der Gegenstand eines der Beispiele 66-74 optional beinhalten, dass die Tierattribute ein Beschleunigungsattribut beinhalten.
  • In Beispiel 76 kann der Gegenstand eines der Beispiele 66-75 optional beinhalten, dass die Fahrzeughandlung die Modifikation einer Lichthelligkeit beinhaltet.
  • In Beispiel 77 kann der Gegenstand eines der Beispiele 66-76 optional beinhalten, dass die Fahrzeughandlung die Erzeugung eines Tons beinhaltet.
  • In Beispiel 78 kann der Gegenstand eines der Beispiele 66-77 optional beinhalten, dass die Fahrzeughandlung Ausweichen beinhaltet.
  • In Beispiel 79 kann der Gegenstand eines der Beispiele 66-78 optional Aktivieren eines Indikators beinhalten.
  • In Beispiel 80 kann der Gegenstand von Beispiel 79 optional Angeben einer Route mit hohem Risiko beinhalten.
  • In Beispiel 81 kann der Gegenstand von Beispiel 80 optional Bereitstellen einer alternativen Route beinhalten.
  • In Beispiel 82 kann der Gegenstand eines der Beispiele 66- optional Aufnehmen eines Bildes beinhalten.
  • In Beispiel 83 kann der Gegenstand von Beispiel 82 optional Bestimmen eines Tieres basierend auf dem aufgenommenen Bild beinhalten.
  • In Beispiel 84 kann der Gegenstand von Beispiel 83 optional beinhalten, dass das aufgenommene Bild eine behinderte Ansicht des Tieres ist.
  • In Beispiel 85 kann der Gegenstand eines der Beispiele 83 und 84 optional beinhalten, dass die Fahrzeughandlung auf dem bestimmten Tier basiert.
  • In Beispiel 86 kann der Gegenstand eines der Beispiele 66-85 optional beinhalten, dass das Fahrzeug ein Luftfahrzeug ist.
  • In Beispiel 87 kann der Gegenstand eines der Beispiele 66-85 optional beinhalten, dass das Fahrzeug ein Wasserfahrzeug ist.
  • In Beispiel 88 kann der Gegenstand eines der Beispiele 66-85 optional beinhalten, dass das Fahrzeug ein Kraftfahrzeug ist.
  • In Beispiel 89 kann der Gegenstand eines der Beispiele 66-88 optional beinhalten, dass die Fahrzeughandlung ferner auf Wetterbedingungen basiert.
  • Beispiel 90 ist ein dauerhaftes computerlesbares Medium, das Anweisungen darauf speichert, die bei Ausführung mittels eines oder mehrerer Prozessoren eines Fahrzeugs das Fahrzeug steuern, ein beliebiges der Verfahren der Beispiele 66-89 durchzuführen.
  • Obwohl die Offenbarung insbesondere mit Bezug auf spezifische Aspekte gezeigt und beschrieben wurde, sollten Fachleute verstehen, dass verschiedene Änderungen an der Form und den Einzelheiten vorgenommen werden können, ohne vom Gedanken und Schutzumfang der Offenbarung, wie durch die angehängten Ansprüche definiert, abzuweichen. Der Schutzumfang der Offenbarung wird somit durch die angehängten Ansprüche angegeben, und alle Änderungen, die in die Bedeutung und den Äquivalenzbereich der Ansprüche fallen, sollen daher eingeschlossen werden.

Claims (20)

  1. Fahrzeugsteuervorrichtung, die Folgendes umfasst: einen oder mehrere Empfänger, die dazu ausgelegt sind, ein Tierverfolgungssignal von einer an einem Tier befestigten Tierverfolgungseinrichtung zu empfangen und mit dem Tier assoziierte Tierattributdaten zu speichern, wobei das Tierverfolgungssignal die Tierattributdaten beinhaltet; einen oder mehrere Prozessoren, die dazu ausgelegt sind, die empfangenen Tierattributdaten zu verarbeiten, um: zu bestimmen, ob sich das Tier in einem Pfad des Fahrzeugs befinden wird; eine Fahrzeughandlung basierend auf der Bestimmung, dass sich das Tier im Pfad des Fahrzeugs befinden wird, zu bestimmen, und ein Fahrzeug gemäß der Fahrzeughandlung zu steuern.
  2. Fahrzeugsteuervorrichtung nach Anspruch 1, wobei der eine oder die mehreren Empfänger dazu ausgelegt sind, das Tierverfolgungssignal über einen intermediären Sendeempfänger zu empfangen.
  3. Fahrzeugsteuervorrichtung nach einem der Ansprüche 1 oder 2, die ferner Folgendes umfasst: einen oder mehrere Sender, die dazu ausgelegt sind, ein Eingabesignal einschließlich der Tierattributdaten zu einem Server zu übertragen.
  4. Fahrzeugsteuervorrichtung nach einem der Ansprüche 1 bis 3, wobei der eine oder die mehreren Prozessoren dazu ausgelegt sind, die Bewegung eines Tieres basierend auf den Tierattributdaten zu bestimmen; wobei optional der eine oder die mehreren Prozessoren dazu ausgelegt sind, die Fahrzeughandlung basierend auf der Bewegung des Tieres zu bestimmen.
  5. Fahrzeugsteuervorrichtung nach einem der Ansprüche 1 bis 4, wobei der eine oder die mehreren Prozessoren ferner dazu ausgelegt sind, die Bewegung eines Tieres basierend auf den Tierattributdaten zu bestimmen.
  6. Fahrzeugsteuervorrichtung nach einem der Ansprüche 1 bis 5, wobei die Tierattributdaten mindestens eines der folgenden Attribute umfassen: ein Speziesattribut; ein Geschlechtsattribut; ein Geschwindigkeitsattribut; und ein Beschleunigungsattribut.
  7. Fahrzeugsteuervorrichtung nach einem der Ansprüche 1 bis 6, wobei die Fahrzeughandlung mindestens eine der folgenden Handlungen umfasst: Modifizieren einer Lichthelligkeit; Erzeugen eines Tons; Modifizieren eines Fahrzeugpfades.
  8. Fahrzeugsteuervorrichtung nach einem der Ansprüche 1 bis 7, die ferner Folgendes umfasst: einen oder mehrere Bildsensoren, die dazu ausgelegt sind, ein Bild aufzunehmen; wobei optional der eine oder die mehreren Prozessoren dazu ausgelegt sind, das aufgenommene Bild zu verarbeiten, um ein Tier zu bestimmen.
  9. System zur Fahrzeugsteuerung, wobei das System Folgendes umfasst: eine oder mehrere an einem Tier befestigte Tierverfolgungseinrichtungen, die dazu ausgelegt sind, ein Tierverfolgungssignal zu übertragen und mit einem Tier assoziierte Tierattributdaten zu speichern, wobei das Tierverfolgungssignal die Tierattributdaten umfasst; einen oder mehrere Empfänger, die dazu ausgelegt sind, das Tierverfolgungssignal zu empfangen; und einen oder mehrere Prozessoren, die dazu ausgelegt sind, die empfangenen Tierattributdaten zu verarbeiten, um zu bestimmen, ob sich das Tier in einem Pfad des Fahrzeugs befinden wird; und eine Fahrzeughandlung basierend auf der Bestimmung, dass sich das Tier im Pfad des Fahrzeugs befinden wird, zu bestimmen und das Fahrzeug gemäß der Fahrzeughandlung zu steuern.
  10. System nach Anspruch 9, das ferner Folgendes umfasst: einen intermediären Sendeempfänger, der dazu ausgelegt ist, das Tierverfolgungssignal von der Tierverfolgungseinrichtung zum Fahrzeug zu übertragen.
  11. System nach einem der Ansprüche 9 oder 10, wobei das Fahrzeug ferner einen oder mehrere Sender umfasst, die dazu ausgelegt sind, ein Eingabesignal einschließlich der Tierattributdaten zu einem Server zu übertragen.
  12. System nach einem der Ansprüche 9 bis 11, das ferner Folgendes umfasst: den Server, der dazu ausgelegt ist, die Bewegung eines Tieres basierend auf den Tierattributdaten vorherzusagen.
  13. System nach einem der Ansprüche 9 bis 12, wobei der eine oder die mehreren Prozessoren dazu ausgelegt sind, die Bewegung eines Tieres basierend auf den Tierattributdaten zu bestimmen; wobei optional der eine oder die mehreren Prozessoren dazu ausgelegt sind, die Fahrzeughandlung basierend auf der Bewegung des Tieres zu bestimmen.
  14. System nach einem der Ansprüche 9 bis 13, wobei der eine oder die mehreren Prozessoren ferner dazu ausgelegt sind, die Bewegung eines Tieres basierend auf den Tierattributdaten zu bestimmen.
  15. System nach einem der Ansprüche 9 bis 14, wobei die Tierattributdaten mindestens eines der folgenden Attribute umfassen: ein Speziesattribut; ein Geschlechtsattribut; ein Geschwindigkeitsattribut; und ein Beschleunigungsattribut.
  16. System nach einem der Ansprüche 9 bis 15, wobei die Fahrzeughandlung mindestens eine der folgenden Handlungen umfasst: Modifizieren einer Lichthelligkeit; Erzeugen eines Tons; Modifizieren eines Fahrzeugpfades.
  17. System nach einem der Ansprüche 9 bis 16, das ferner Folgendes umfasst: einen oder mehrere Bildsensoren, die dazu ausgelegt sind, ein Bild aufzunehmen; wobei optional der eine oder die mehreren Prozessoren dazu ausgelegt sind, das aufgenommene Bild zu verarbeiten, um ein Tier zu bestimmen.
  18. Verfahren zur Vermeidung einer Kollision mit einem Tier, wobei das Verfahren Folgendes umfasst: Empfangen eines Tierverfolgungssignals von einer Tierverfolgungseinrichtung, die Tierattributdaten speichert und an einem Tier befestigt ist, wobei das Tierverfolgungssignal die Tierattributdaten umfasst; Verarbeiten der empfangenen Tierattributdaten, um zu bestimmen, ob sich das Tier in einem Pfad der Fahrzeughandlung befinden wird, und eine Fahrzeughandlung basierend auf der Bestimmung, dass sich das Tier im Pfad des Fahrzeugs befinden wird, zu bestimmen; und Steuern eines Fahrzeugs gemäß der Fahrzeughandlung.
  19. Verfahren nach Anspruch 18, das ferner Folgendes umfasst: Empfangen der Bewegung eines Tieres basierend auf den Tierattributdaten; und Bestimmen der Fahrzeughandlung ferner basierend auf der Bewegung des Tieres.
  20. Verfahren nach einem der Ansprüche 18 oder 19, das ferner Folgendes umfasst: Bestimmen der Bewegung eines Tieres basierend auf den Tierattributdaten.
DE102020102624.2A 2019-03-30 2020-02-03 Fortschrittliche vermeidung von kollisionen mit wildtieren für fahrzeuge Pending DE102020102624A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/370,906 US20190225214A1 (en) 2019-03-30 2019-03-30 Advanced wild-life collision avoidance for vehicles
US16/370,906 2019-03-30

Publications (1)

Publication Number Publication Date
DE102020102624A1 true DE102020102624A1 (de) 2020-10-01

Family

ID=67298421

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020102624.2A Pending DE102020102624A1 (de) 2019-03-30 2020-02-03 Fortschrittliche vermeidung von kollisionen mit wildtieren für fahrzeuge

Country Status (3)

Country Link
US (1) US20190225214A1 (de)
CN (1) CN111768650A (de)
DE (1) DE102020102624A1 (de)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200019177A1 (en) * 2019-09-24 2020-01-16 Intel Corporation Cognitive robotic systems and methods with fear based action/reaction
US11840260B2 (en) * 2020-08-03 2023-12-12 Autobrains Technologies Ltd Non-human animal crossing alert
US11950567B2 (en) 2021-03-04 2024-04-09 Sky View Environmental Service Llc Condor monitoring systems and related methods
US11400958B1 (en) * 2021-09-20 2022-08-02 Motional Ad Llc Learning to identify safety-critical scenarios for an autonomous vehicle

Also Published As

Publication number Publication date
CN111768650A (zh) 2020-10-13
US20190225214A1 (en) 2019-07-25

Similar Documents

Publication Publication Date Title
DE102020102624A1 (de) Fortschrittliche vermeidung von kollisionen mit wildtieren für fahrzeuge
DE102018132981B4 (de) Autonomes fahrsystem, computerimplementiertes verfahren und autonomes fahrzeug zur ampelzustandsbewertung
DE102013200132B4 (de) Fahrspurhaltesystem für ein Fahrzeug
DE102018129295A1 (de) Systeme und Verfahren zum Abbilden von Fahrbahnstörobjekten in autonomen Fahrzeugen
DE102019103352A1 (de) Trajektorienverfolgung für die fahrzeugseitensteuerung unter verwendung eines neuronalen netzwerks
DE102018100469A1 (de) Generierten von simulierten sensordaten zum trainieren und überprüfen von erkennungsmodellen
DE102019205223A1 (de) Einfädelverhaltenssysteme und Verfahren zum Einfädeln von Fahrzeugen
WO2020261823A1 (ja) 障害物検出システム、農作業車、障害物検出プログラム、障害物検出プログラムを記録した記録媒体、障害物検出方法
DE102020119870A9 (de) Fahrzeugrisikoerkennung und -vermeidung
DE102018116001A1 (de) Verfahren und systeme zur erkennung des toten winkels in einem autonomen fahrzeug
DE112018008222T5 (de) Bewegungsplan-erzeugungseinrichtung und autonomes fahrsystem
DE102021129444A1 (de) Hinderniserkennung und -benachrichtigung für motorradfahrzeuge
DE102018120723A1 (de) Trajektorienplanmodifikation für einen autonomen Fahrzeugbetrieb in einer heterogenen Fahrzeugumgebung
DE112017007205T5 (de) Modusumschaltsteuergerät, Modusumschaltsteuerungssystem, Modusumschaltsteuerverfahren und Programm
DE102021125932A1 (de) System und Verfahren für auf Neuronalem Netzwerk basiertes autonomes Fahren
DE102020105117A1 (de) Verfahren und Systeme zum Verbessern von Karten
DE102015224796A1 (de) Verfahren und Steuergerät zum Erkennen einer möglichen Kollision eines unbemannten Luftfahrzeugs mit einem Objekt
DE112018000448T5 (de) System und Verfahren zur automatischen Anhängererfassung
DE112016005947B4 (de) Fahrzeugbestimmungsvorrichtung, Fahrzeugbestimmungsverfahren und Fahrzeugbestimmungsprogramm
DE102021132853A1 (de) Auf deep learning basierende kamerakalibrierung
DE102021127118A1 (de) Identifizieren von Objekten mit LiDAR
DE102017108254A1 (de) Rundumsichtkamerasystem zur Objekterkennung und -verfolgung
JP2020178659A (ja) 収穫機
DE102020107339A1 (de) Objektverfolgung für fahrzeuge
DE102021133739A1 (de) Steuern eines autonomen fahrzeugs unter verwendung einer näheregel