DE102020120663A1 - Verfahren und Vorrichtung zum Bereitstellen von Unfallvermeidungs-Informationen an Insassen von autonomen Fahrzeugen - Google Patents

Verfahren und Vorrichtung zum Bereitstellen von Unfallvermeidungs-Informationen an Insassen von autonomen Fahrzeugen Download PDF

Info

Publication number
DE102020120663A1
DE102020120663A1 DE102020120663.1A DE102020120663A DE102020120663A1 DE 102020120663 A1 DE102020120663 A1 DE 102020120663A1 DE 102020120663 A DE102020120663 A DE 102020120663A DE 102020120663 A1 DE102020120663 A1 DE 102020120663A1
Authority
DE
Germany
Prior art keywords
vehicle
user interface
time
situation
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102020120663.1A
Other languages
English (en)
Inventor
John Weast
Matt Yurdana
Ignacio Alvarez
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mobileye Vision Technologies Ltd
Original Assignee
Intel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intel Corp filed Critical Intel Corp
Publication of DE102020120663A1 publication Critical patent/DE102020120663A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0015Planning or execution of driving tasks specially adapted for safety
    • B60W60/0016Planning or execution of driving tasks specially adapted for safety of the vehicle or its occupants
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle
    • G08G1/0969Systems involving transmission of navigation instructions to the vehicle having a display in the form of a map
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W50/16Tactile feedback to the driver, e.g. vibration or force feedback to the driver on the steering wheel or the accelerator pedal
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle
    • G08G1/096833Systems involving transmission of navigation instructions to the vehicle where different aspects are considered when computing the route
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle
    • G08G1/096855Systems involving transmission of navigation instructions to the vehicle where the output is provided in a suitable form to the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/166Navigation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/167Vehicle dynamics information
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/171Vehicle or relevant part thereof displayed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/175Autonomous driving
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)

Abstract

Verfahren und Vorrichtung zum Bereitstellen von Unfallvermeidungs-Informationen an Insassen von autonomen Fahrzeugen werden offenbart. Eine beispielhafte Vorrichtung umfasst einen Sicherheitsanalysator zum Bestimmen, dass sich ein autonom gesteuertes Fahrzeug zu einem ersten Zeitpunkt in einer sicheren Situation und zu einem zweiten Zeitpunkt in einer gefährlichen Situation befindet. Die beispielhafte Vorrichtung umfasst auch einen Benutzerschnittstellengenerator zum: Erzeugen von Benutzerschnittstellendaten, um Inhalt für eine Benutzerschnittstelle zu definieren, der ausgebildet ist, über einen Bildschirm angezeigt zu werden, wobei die Benutzerschnittstelle ausgebildet ist, eine graphische Darstellung des Fahrzeugs zu umfassen, die Benutzerschnittstelle ausgebildet ist, graphisch anzuzeigen, dass sich das Fahrzeug zu dem ersten Zeitpunkt in der sicheren Situation befindet, und Modifizieren der Benutzerschnittstellendaten, sodass die Benutzerschnittstelle graphisch anzeigt, dass sich das Fahrzeug zu dem zweiten Zeitpunkt in der gefährlichen Situation befindet.

Description

  • ZUGEHÖRIGE ANMELDUNGEN
  • Dieses Patent beansprucht die Priorität der Provisorischen US-Patentanmeldung mit dem Aktenzeichen 62/907,181, eingereicht am 8. Oktober 2019, die hierin durch Bezugnahme in ihrer Gesamtheit aufgenommen ist.
  • GEBIET DER OFFENBARUNG
  • Diese Offenbarung bezieht sich im Allgemeinen auf autonome Fahrzeuge und genauer auf Verfahren und eine Vorrichtung zum Bereitstellen von Unfallvermeidungsinformationen an Insassen von autonomen Fahrzeugen.
  • HINTERGRUND
  • Die Technik hat sich in den letzten Jahren auf dem Gebiet der autonom gesteuerten Fahrzeuge erheblich weiterentwickelt. Ein vollständig autonomes Fahrzeug ist nun in der Lage, alle Operationen des Fahrzeugs zu steuern, um ohne irgendeine Eingabe durch einen Menschen sicher von einem Ort zu einem anderen zu navigieren.
  • Figurenliste
    • 1 ist eine schematische Darstellung eines beispielhaften autonomen Fahrzeugs, das eine beispielhafte Steuerung implementiert, gemäß den hierin offenbarten Lehren.
    • 2 ist ein Blockdiagramm, das eine beispielhafte Implementierung der beispielhaften Steuerung von 1 darstellt.
    • 3 und 4 stellen zwei beispielhafte Benutzerschnittstellen dar, die gemäß den hierin offenbarten Lehren erzeugt wurden.
    • 5 ist ein Diagramm, das eine Projektion zweiter Ordnung eines Punktes auf eine Tangentialebene einer gekrümmten Oberfläche darstellt.
    • 6 ist ein Flussdiagramm, das beispielhafte maschinenlesbare Anweisungen darstellt, die ausgeführt werden können, um die beispielhafte Steuerung von 1 und/oder 2 zu implementieren.
    • 7 ist ein Blockdiagramm einer beispielhaften Verarbeitungsplattform, die strukturiert ist, um die Anweisungen von 6 zur Implementierung der beispielhaften Steuerung von 1 und/oder 2 zu implementieren.
  • 8 ist ein Blockdiagramm einer beispielhaften Software-Vertriebsplattform für den Vertrieb von Software (z.B. Software, die den beispielhaften computerlesbaren Anweisungen von 6 entspricht) an Kunden-Vorrichtungen wie beispielsweise Verbraucher (z.B. zur Lizenzierung, zum Verkauf und/oder zur Nutzung), Einzelhändler (z.B. zum Verkauf, Wiederverkauf, zur Lizenzierung und/oder zur Unterlizenzierung) und/oder Originalausrüstungshersteller (O-EMs; original equipment manufacturers) (z.B. zur Aufnahme in Produkte, die z.B. an Einzelhändler und/oder an Direktkaufkunden vertrieben werden sollen).
  • Die Figuren sind nicht maßstabsgetreu. Allgemein können die gleichen Bezugszeichen in der/den Figur(en) und der beiliegenden Beschreibung verwendet werden, um auf dieselben oder gleichen Teile Bezug zu nehmen. Gemäß der Verwendung in diesem Patent zeigt die Angabe, dass irgendein Teil (z.B. eine Schicht, ein Film, ein Bereich, eine Region oder eine Platte) auf irgendeine Weise auf einem anderen Teil (z. B. positioniert auf, sich befindet auf, angeordnet auf oder gebildet auf etc.) ist, dass das Bezugsteil entweder mit dem anderen Teil in Kontakt ist, oder dass das Bezugsteil über dem anderen Teil mit einem oder mehreren Zwischenteilen, die sich dazwischen befinden, ist. Verbindungsreferenzen (z.B. angebracht, gekoppelt, verbunden und gefügt) sind breit auszulegen und können Zwischenbauglieder zwischen einer Sammlung von Elementen und relative Bewegung zwischen Elementen umfassen, sofern nicht anders angegeben. Als solche lassen Verbindungsreferenzen nicht notwendigerweise rückschließen, dass zwei Elemente direkt verbunden und fester Beziehung zueinander sind. Die Angabe, dass irgendein Teil mit einem anderen Teil in „Kontakt“ ist, bedeutet, dass es kein Zwischenteil zwischen den zwei Teilen gibt.
  • Die Deskriptoren „erste/r/s“, „zweite/r/s“, „dritte/r/s“ etc. werden hierin verwendet, wenn mehrere Elemente oder Komponenten identifiziert werden, auf die getrennt Bezug genommen werden kann. Sofern nicht anders angegeben oder basierend auf ihrem Verwendungskontext verstanden, sollen solche Deskriptoren keine Bedeutung von Priorität, physischer Reihenfolge oder Anordnung in einer Liste oder zeitlicher Ordnung unterstellen, sondern werden lediglich als Etiketten verwendet, um auf mehrere Elemente oder Komponenten separat zu verweisen, um die offenbarten Beispiele leichter verständlich zu machen. Bei einigen Beispielen kann der Deskriptor „erste/r/s“ verwendet werden, um auf ein Element in der detaillierten Beschreibung zu verweisen, während auf dasselbe Element in einem Anspruch mit einem unterschiedlichen Deskriptor wie „zweite/r/s“ oder „dritte/r/s“ verwiesen werden kann. In solchen Fällen versteht es sich, dass solche Deskriptoren lediglich der Einfachheit halber verwendet werden, um auf mehrere Elemente oder Komponenten zu verweisen.
  • DETAILLIERTE BESCHREIBUNG
  • Es wurde gezeigt, dass vollständig autonome Fahrzeuge ohne menschliches Eingreifen sicher auf Straßen navigieren, basierend auf der Rückmeldung von einer Mehrzahl von Sensoren an den Fahrzeugen, die die umgebende Umgebung in Verbindung mit einem Navigationssystem (z.B. einem globalen Positionierungssystem) überwachen. Untersuchungen haben jedoch gezeigt, dass viele Menschen weiterhin über die Fähigkeit solcher Fahrzeuge besorgt sind und ein gewisses Maß an Angst erfahren, wenn sie als Insasse in einem autonom gesteuerten Fahrzeug sitzen. Einige autonom gesteuerte Fahrzeuge umfassen eine oder mehrere Mensch-Maschine-Schnittstellen (z.B. Anzeigebildschirm(e)), die Informationen bereitstellen, die den Betriebszustand des autonomen Steuersystems anzeigen. Solche bordeigenen Anzeigebildschirme werden manchmal als „Vertrauensbildschirme“ bezeichnet, weil sie dafür vorgesehen sind, dem/den Insassen Vertrauen zu vermitteln, dass das Fahrzeug sich der umgebenden Umgebung bewusst ist und vollständig in der Lage ist, durch dieselbe hindurch zu navigieren.
  • Oft umfassen die auf einem Vertrauensbildschirm bereitgestellten Informationen eine graphische Darstellung des autonomen Fahrzeugs, in dem der Insasse fährt (gemeinhin als das Ego-Fahrzeug bezeichnet), sowie eine graphische Darstellung der umgebenden Umgebung. Nach hiesigem Gebrauch umfasst eine graphische Darstellung irgendeine Art von visueller Darstellung, wie z.B. eine photorealistische Darstellung, eine virtuelle Darstellung, generische und/oder abstrakte Icons usw. Üblicherweise umfasst die Darstellung der umgebenden Umgebung einige oder alle Aspekte der realen Welt, die durch das autonome Steuerungssystem des Ego-Fahrzeugs detektiert werden. Beispielsweise kann die Anzeige eine graphische Darstellung von detektierten stationären Objekten (z. B. Straßenzeichen, Ampeln, Linien auf Straßen, Bordsteinen, Verkehrsmittelstreifen, Bürgersteigen, Laternenmasten, Bäumen, Gebäuden, Straßenbauarbeitern und/oder -ausrüstung, stationären Gefahren (z. B. Schlaglöchern, behinderten Fahrzeugen, stationärem Schutt usw.), detektierten beweglichen Objekten (z.B. anderen Fahrzeugen, Fußgängern, Radfahrern, Straßenbauarbeitern und/oder -ausrüstung, beweglichen Gefahren (z.B. beweglichem Schutt usw.) sowie kartenbasierten Navigationsdetails (z.B. Straßen, Fahrspurtrennungen, Auffahrten, Abfahrten, Kreuzungen, einer vorgesehenen zu folgenden Route usw.) bereitstellen. Die graphische Darstellung kann relativ realistisch (z. B. die Formen von detektierten Autos, Fußgängern und anderen detektierten Objekten zeigen) oder abstrakt (z. B. Boxen und/oder andere geometrische Grundformen anstelle von Objekten aus der realen Welt bereitstellen) sein. Das graphische Darstellen solcher Informationen auf einem Vertrauensbildschirm ermöglicht es dem/den Insassen, das, was auf dem Bildschirm ist, schnell mit dem zu vergleichen, was sie aus den Fenstern des Fahrzeugs sehen, um zu bestätigen, dass das autonome Fahrzeug sich aller relevanten Informationen bewusst ist, um sicher durch die umgebende Umgebung zu navigieren.
  • Zusätzlich zum Bereitstellen einer graphischen Darstellung der umgebenden Umgebung und der Beziehung des autonomen Fahrzeugs innerhalb dieser Umgebung können Vertrauensbildschirme auch Informationen über den Betrieb des Fahrzeugs bereitstellen. Zum Beispiel können Vertrauensbildschirme graphische und/oder textliche Informationen bereitstellen, die die Bewegungsrichtung, die Bewegungsgeschwindigkeit, eine zurückgelegte Distanz, die Füllstände des Benzintanks, eine aktuelle Beschleunigung des Fahrzeugs, den Winkel der Räder/des Lenkrads, eine Aktivierung der Blinker usw. anzeigen. Ferner kann der Vertrauensbildschirm bei einigen Beispielen Erklärungen dafür bereitstellen, warum bestimmte Operationen stattfinden. Wenn beispielsweise ein Fußgänger die Straße an einer Kreuzung überquert, an der das autonome Fahrzeug abzubiegen beabsichtigt, kann der Vertrauensbildschirm den Text „Vorrang gewähren für Fußgänger“ umfassen, um zu erläutern, warum das Fahrzeug an der Kreuzung angehalten hat. Der Vertrauensbildschirm kann auch Details über zukünftige Operationen basierend auf der vorgesehenen Navigationsroute, der gefolgt werden soll, bereitstellen. Der Vertrauensbildschirm kann zum Beispiel den Text „In 300 Metern rechts abbiegen“ umfassen, um die bevorstehende Operation eines Abbiegens nach rechts zu erläutern.
  • Während Vertrauensbildschirme in autonomen Fahrzeugen einige oder alle der vorangehenden Aspekte der Echtzeitwahrnehmung der umgebenden Umgebung (z.B. der Nähe anderer Fahrzeuge in der Nähe) und des aktuellen Planungszustands (z.B. das nächste geplante Abbiegen auf der Route zum Ziel) des Fahrzeugs bereitstellen können, stellen existierende Vertrauensbildschirme keine Echtzeiterklärungen von durch das autonome Fahrzeug detektierten gefährlichen Situationen und den nachfolgenden, durch das Fahrzeug zur Vermeidung der gefährlichen Situationen durchgeführten Aktionen bereit. Ferner ist ein Nachteil der Beschränkung der auf einem Vertrauensbildschirm dargestellten Informationen auf das, was ein autonomes Fahrzeug in dem Moment (z.B. im Wesentlichen in Echtzeit) tut, dass solche Informationen nicht vermitteln, wie das Fahrzeug proaktiv für die Sicherheit des/der Insassen sorgt, was das Fahrzeug in der Lage ist zu tun, um für die Sicherheit des/der Insassen zu sorgen oder warum ein autonomes Fahrzeug in einer komplexen und/oder gefährlichen Fahrsituation bestimmte Aktionen ausführt. Folglich fragen sich der/die Insasse(n), was das Fahrzeug in irgendeinem gegebenen Moment während einer Fahrt tun könnte, wodurch die Angst und/oder Besorgnis des/der Insassen erhöht wird, während sie sich in einem autonomen Fahrzeug befinden. Hierin offenbarte Beispiele stellen im Wesentlichen Echtzeit- (z.B. weniger als 1 Sekunde Verzögerung) Benachrichtigungen über gefährliche, durch ein autonomes Fahrzeug detektierte Situationen auf einem Vertrauensbildschirm auf eine Weise bereit, die durch einen Insassen schnell und leicht verstanden werden kann. Zusätzlich oder alternativ stellen hierin offenbarte Beispiele hochentwickelte Benachrichtigungen über vorhergesehene zukünftige gefährliche Situationen bereit. Nach hiesigem Gebrauch ist eine gefährliche Situation definiert als eine Situation, die deterministisch bestimmt sein kann, eine oder mehrere mathematisch definierte Regeln für sicheres Fahren zu verletzen, die einem durch das autonome Fahrzeug implementierten Sicherheitsmodell zugeordnet sind. Das Sicherheitsmodell kann mehrere Regeln für sicheres Fahren definieren. Wenn irgendeine dieser Regeln verletzt wird (z. B. wenn Schwellengeschwindigkeiten, Abstände, Beschleunigungen und/oder andere Parameter im Hinblick auf bestimmte, durch die Regeln für sicheres Fahren definierte Bedingungen erfüllt sind), befindet sich das autonome Fahrzeug somit per Definition in einer gefährlichen Situation. Wenn andererseits die aktuellen Umstände des Fahrzeugs derart sind, dass alle deterministisch analysierten Regeln für sicheres Fahren erfüllt werden, befindet sich das Fahrzeug nicht in einer gefährlichen Situation (z.B. einer sicheren oder ungefährlichen Situation). Hierin offenbarte Beispiele stellen graphische Darstellungen über einen Vertrauensbildschirm bereit, die intuitiv vermitteln, wann ein autonomes Fahrzeug eine gefährliche Situation detektiert hat und wie das Fahrzeug auf die Situation reagiert (z.B. durch eine oder mehrere Ausweichaktionen wie beispielsweise starkes Bremsen, Ausscheren nach links oder rechts usw.) und/oder eine oder mehrere andere Aktionen. Infolgedessen sind der/die Insasse(n) in irgendeinem Moment in der Lage zu verstehen, was das Fahrzeug tut und warum, um bezüglich der Fähigkeiten des Fahrzeugs beruhigter zu sein.
  • Untersuchungen haben gezeigt, dass (ein) Insasse(n) in einem autonomen Fahrzeug ihre Zeit üblicherweise nicht mit dem Betrachten des Vertrauensbildschirms verbringen, sondern stattdessen aus den Fenstern auf die reale Welt blicken und/oder sich mit einer anderen Aktivität beschäftigen (z. B. ein Telefon oder eine andere tragbare Vorrichtung verwenden, schlafen, mit (einem) anderen Insassen sprechen usw.). Somit werden möglicherweise das Bereitstellen von im Wesentlichen Echtzeit-Kontextinformationen über gefährliche Situationen (hierin alternativ als Gefahrenrisiken oder kurz Risikosituationen bezeichnet) und die resultierenden Sicherheitsaktionen, die durch das Fahrzeug implementiert werden, durch den/die Insassen nicht wahrgenommen. Das heißt, bei einigen Beispielen schauen der/die Insasse(n) möglicherweise nicht auf den Vertrauensbildschirm oder achten möglicherweise nicht auf die Straße und sind sich daher möglicherweise einer gefährlichen Situation nicht bewusst, bis sie die Auswirkungen eines kräftigen Betätigens der Bremsen oder eines plötzlichen Ausweichens des Fahrzeugs nach links oder rechts spüren. Solche plötzlichen und unerwarteten Bewegungen verursachen bei dem/den Insassen wahrscheinlich Angst und Fragen darüber, was das autonome Fahrzeug tut. Bei einigen Beispielen können Licht und/oder Geräusche ausgelöst werden, sobald die gefährliche Situation detektiert wird, um den/die Insassen zu warnen. Solche Warnungen erfolgen jedoch möglicherweise nur einen Moment, bevor das Fahrzeug eine plötzliche Ausweichaktion implementiert, um für die Sicherheit des/der Insassen zu sorgen. Dies ist möglicherweise nicht ausreichend Zeit für eine Person, um die Situation zu beurteilen, indem sie aus den Fenstern schaut oder sich an den Vertrauensbildschirm wendet. Ferner ist das Ereignis, wenn die gefährliche Situation nur im Wesentlichen in Echtzeit dargestellt wird, möglicherweise schon vorüber, wenn sich der/die Insasse(n) ihrer Situation ausreichend bewusst werden, sodass sie nicht in der Lage sind, durch Bezugnahme auf den Vertrauensbildschirm zu verstehen, was passiert ist. Ferner ist die gefährliche Situation für den/die Insassen, die aus den Fenstern schauen, möglicherweise im Nachhinein nicht ersichtlich. Unter solchen Umständen kann die Angst des/der Insassen nach der Erfahrung weiter bestehen, weil sie sich nicht einfach versichern können, dass das autonome Fahrzeug in einer mit den Erwartungen an sicheres Fahren konsistenten Weise gehandelt hat. Sie könnten sogar einen gegenteiligen Eindruck haben. Dementsprechend kann bei einigen Beispielen ein Vertrauensbildschirm automatisch eine graphische Darstellung einer detektierten gefährlichen Situation und einer entsprechenden Reaktion ein oder mehrere Male nach dem Auftreten des Ereignisses wiedergeben, um dem/den mehreren Insassen Gelegenheit zu geben, das Geschehene zu überprüfen und sich davon zu überzeugen, dass das Fahrzeug auf die Situation in geeigneter Weise reagiert hat. Dies wird es nicht nur ermöglichen, dass sich der/die Insasse(n) im Anschluss an eine plötzliche und unerwartete Aktionen in dem Fahrzeug beruhigen, sondern kann auch das allgemeine Vertrauen des/der Insassen in die Fähigkeit von autonomen Fahrzeugen erhöhen, mit anderen gefährlichen Situationen umzugehen, die unerwartet auftreten können.
  • Im Gegensatz zum Menschen identifizieren autonome Fahrzeuge gefährliche Situationen und reagieren auf dieselben, basierend auf komplexen Sicherheitsmodellen, die durch bestimmte mathematische Prinzipien und die formale Logik der Unfallvermeidung definiert sind. Bei einigen Beispielen basieren die bestimmten mathematisch definierten Regeln, die die durch ein autonomes Fahrzeug ergriffene Sicherheitsaktionen regeln, auf dem durch MOBILEYE®, einem INTEL®-Unternehmen, entwickelten Responsibility Sensitive Safety-(RSS) Modell. Es können auch andere Modelle verwendet werden. Es ist unwahrscheinlich, dass ein typischer Insasse in der Lage ist, die komplexe Mathematik, die den durch autonome Fahrzeuge implementierten Sicherheitsmodellen zugeordnet ist, zu verstehen und/oder daran interessiert ist, den erforderlichen Aufwand zu betreiben, um sie zu verstehen. Dementsprechend wird bei einigen Beispielen die komplexe Entscheidungsfindung eines autonomen Fahrzeugs auf einem Vertrauensbildschirm dargestellt, der intuitive Graphiken verwendet, die durch einen typischen Insassen schnell und leicht verstanden werden können
  • 1 ist eine schematische Darstellung eines beispielhaften autonomen Fahrzeugs 100, das eine beispielhafte Steuerung 102 implementiert, gemäß den hierin offenbarten Lehren. Bei diesem Beispiel ist das Fahrzeug 100 in der Lage, vollständig autonom zu sein. Nach hiesigem Gebrauch ist ein vollständig autonomes Fahrzeug definiert als ein Fahrzeug, das in der Lage ist, die Operationen des Fahrzeugs zu steuern, um das Fahrzeug ohne menschliches Eingreifen zu einem Ziel zu navigieren. Bei diesem Beispiel werden vollständig autonome Operationen des Fahrzeugs 100 durch die Steuerung 102 gesteuert. Während es in der Lage ist, ohne menschliches Eingreifen zu arbeiten, kann ein vollständig autonomes Fahrzeug dennoch Eingaben von einem Menschen (z.B. einem Fahrer oder anderen Insassen) empfangen, die sich auf die Art auswirken, wie das Fahrzeug gesteuert wird und/oder bestimmte Operationen implementiert werden. Ferner kann das autonome Fahrzeug 100, obwohl es in der Lage ist, vollständig autonom zu sein, bei einigen Beispielen auch in der Lage sein, in einer halbautonomen und/oder nicht-autonomen Weise zu arbeiten, wobei einige oder alle der Operationen des Fahrzeugs von menschlichem Eingreifen abhängig sind. Ferner kann, obwohl das in 1 gezeigte Fahrzeug ein Personenkraftwagen ist, irgendeine andere Art von Fahrzeug (z.B. ein Lastkraftwagen, ein Flugzeug, ein Bus, ein Boot usw.) eingesetzt werden.
  • Bei dem dargestellten Beispiel ist die Steuerung 102 kommunikativ mit Sensoren 104 gekoppelt. Die Sensoren 104 stellen Eingänge an die Steuerung 102 bereit, um es der Steuerung 102 zu ermöglichen, Entscheidungen darüber zu treffen, wie sie das Fahrzeug steuert und sicher durch die umgebende Umgebung navigiert. Bei einigen Beispielen umfassen die Sensoren 104 Sensoren, die in Systemen des autonomen Fahrzeugs 100 verwendet werden. Die Sensoren 104 können zum Beispiel Radgeschwindigkeitssensoren, Fahrhöhensensoren, Lenkradsensoren und/oder Radwinkelsensoren, Temperatursensoren, Sitzbelegungssensoren usw. umfassen. Zusätzlich oder alternativ können die Sensoren 104 bei einigen Beispielen Sensoren zum Detektieren von Bedingungen der Umgebung, die das autonome Fahrzeug 100 umgibt, umfassen. Die Sensoren 104 können z.B. Kameras für sichtbares Licht, Infrarotkameras, Radarsensoren, LiDAR-Sensoren, Ultraschallsensoren usw. umfassen. Ferner umfassen die Sensoren bei einigen Beispielen Sensoren zum Detektieren des Ortes, der Position und Bewegung des autonomen Fahrzeugs 100. Die Sensoren 104 können z.B. Trägheitsmesseinheiten, Beschleunigungssensoren, Gyroskope, Magnetometer, Globales-Positionierungssystem- (GPS; global positioning system) Sensoren usw. umfassen.
  • Bei dem dargestellten Beispiel von 1 ist die Steuerung 102 über ein Netzwerk 108 kommunikativ mit einem entfernten Server 106 gekoppelt. Bei einigen Beispielen stellt der entfernte Server 106 Informationen bereit, die der Steuerung 102 bei der Navigation des Fahrzeugs 100 helfen. Beispielsweise kann der entfernte Server 106 Karten, Routeninformationen, aktuelle Verkehrsbedingungen usw. bereitstellen. Zusätzlich oder alternativ sammelt der entfernte Server 106 bei einigen Beispielen Informationen von der Steuerung 102 bezüglich der Operationen, der Navigation und/oder der umgebenden Umgebung des Fahrzeugs. Bei einigen Beispielen ist der entfernte Server 106 in Kommunikation mit mehreren Fahrzeugen. Bei einigen solchen Beispielen kann die Steuerung 102 des Fahrzeugs 100 über den entfernten Server 106 mit anderen Fahrzeugen kommunizieren. Bei anderen Beispielen kann die Steuerung 102 direkt mit anderen in der Nähe befindlichen Fahrzeugen kommunizieren (z.B. über das Netzwerk 108 und/oder über Kurzstrecken-Funkkommunikation), um zusätzliche Details über die das Fahrzeug 100 umgebende Umgebung zu erhalten und/oder bereitzustellen.
  • Bei dem dargestellten Beispiel von 1 ist die Steuerung 102 kommunikativ mit einem Insassen-Schnittstellen-System 110 gekoppelt. Bei einigen Beispielen umfasst das Insassen-Schnittstellen-System 110 einen Anzeigebildschirm 112, um dem/den Insassen in dem Fahrzeug Warnungen, Benachrichtigungen und/oder andere Informationen bereitzustellen. Genauer gesagt dient der Anzeigebildschirm 112 bei einigen Beispielen als Vertrauensbildschirm, wie vorangehend beschrieben wurde, um dem/den Insassen in dem Fahrzeug 100 Informationen über die Fähigkeiten und/oder Operationen des Fahrzeugs bereitzustellen, um für die Sicherheit des/der Insassen zu sorgen. Bei einigen Beispielen umfasst das Insassen-Schnittstellen-System 110 einen Lautsprecher 114, um akustische Warnungen, Benachrichtigungen, Nachrichten und/oder Informationen an den/die Insassen bereitzustellen. Bei einigen Beispielen umfasst das Insassen-Schnittstellen-System 110 mehrere Anzeigebildschirme 112 und/oder mehrere Lautsprecher 114, die an verschiedenen Orten innerhalb des Fahrzeugs 100 positioniert sind (z.B. vorne und hinten und/oder links und rechts). Bei einigen solchen Beispielen zeigen die verschiedenen Bildschirme die gleichen Informationen an. Bei anderen Beispielen können die verschiedenen Bildschirme unterschiedliche Informationen bereitstellen. Bei einigen Beispielen werden die über den einen oder die mehreren Anzeigebildschirme 112 gerenderten und/oder durch den einen oder die mehreren Lautsprecher 114 ausgegebenen Informationen durch die Steuerung 102 erzeugt und/oder bereitgestellt, umfassend zum Beispiel die Fahrtrichtung, Geschwindigkeit, den vorgesehenen Weg usw. der anderen Fahrzeuge in der Nähe des Fahrzeugs 100 (z. B. Fahrzeuge, die sich einer Kreuzung nähern, über eine Auffahrt zusammenfahren usw.).
  • Bei einigen Beispielen ist das Insassen-Schnittstellen-System 110 in das Fahrzeug 100 eingebracht und/oder eingebaut. Beispielsweise können der eine oder die mehreren Anzeigebildschirme 112 (und die zugeordneten Lautsprecher und/oder andere zugehörige Komponenten) in einer vorderen Konsole des Fahrzeugs sein, können eine ausklappbare Anzeige sein, die an der Decke des Fahrzeugs befestigt ist, und/oder können in der Rückseite eines oder mehrerer der Sitze in dem Fahrzeug installiert sein (z. B. um durch die Insassen, die sich hinter diesen Sitzen befinden, sichtbar zu sein). Bei anderen Beispielen ist das Insassen-Schnittstellen-System 110 physisch unabhängig und/oder getrennt von dem Fahrzeug 100, aber in Kommunikation mit demselben. Beispielsweise kann ein Teil oder die gesamte Funktionalität des Insassen-Schnittstellen-Systems 110 durch ein Smartphone oder eine andere tragbare Rechenvorrichtung (z. B. einen Laptop, ein Tablet usw.) implementiert werden, die aus dem Fahrzeug 100 entfernt und/oder durch einen Insassen mitgeführt werden kann. Bei einigen solchen Beispielen kommuniziert die Steuerung 102 mit dem Insassen-Schnittstellen-System 110 unter Verwendung irgendeiner geeigneten drahtlosen Kommunikationstechnologie (z.B. Wi-Fi, Bluetooth usw.). Bei einigen Beispielen umfasst das Insassen-Schnittstellen-System 110 sowohl Anzeigebildschirme 112, die in das Fahrzeug 100 integriert und/oder eingebaut sind, als auch Anzeigebildschirme 112, die tragbaren elektronischen Vorrichtungen zugeordnet sind, die durch die Insassen mitgeführt werden können. Bei einigen Beispielen kann ein Insasse zwischen einer Verwendung des einen oder der mehreren integrierten Anzeigebildschirme 112 und des einen oder der mehreren tragbaren Anzeigebildschirme 112 hin- und herschalten und/oder beide Arten von Anzeigebildschirmen 112 gleichzeitig verwenden. Bei einigen Beispielen kann die Steuerung 102 Informationen zur Anzeige auf einem Anzeigebildschirm bereitstellen, der entfernt von dem Fahrzeug 100 positioniert ist (z.B. einem Anzeigebildschirm, der dem entfernten Server 106 und/oder einer anderen Rechenvorrichtung in Kommunikation mit der Steuerung 102 über das Netzwerk 108 zugeordnet ist).
  • Bei einigen Beispielen umfasst das Insassen-Schnittstellen-System 110 Mittel zum Empfangen von Eingaben von dem/den Insassen. Bei einigen Beispielen ist beispielsweise der Anzeigebildschirm 112 ein Touchscreen, um es dem/den Insassen zu ermöglichen, mit dem auf dem Bildschirm gerenderten Inhalt zu interagieren. Zusätzlich oder alternativ umfasst das Insassen-Schnittstellen-System 110 eine Tastatur, Knöpfe, Wählscheiben usw., um es dem/den Insassen zu ermöglichen, Eingaben an das Fahrzeug bereitzustellen. Ferner umfasst das Insassen-Schnittstellen-System 110 bei einigen Beispielen ein Mikrofon zum Empfangen von Sprachbefehlen von dem/den Insassen. Bei einigen Beispielen werden die Eingaben der Insassen an die Steuerung 102 bereitgestellt, um den Betrieb des Fahrzeugs zu steuern. Bei einigen Beispielen ermöglichen die Eingaben der Insassen dem/den Insassen, den über den Anzeigebildschirm 112 gerenderten Inhalt zu steuern (z.B. anzufragen, dass bestimmte Informationen gerendert werden).
  • Viele unterschiedliche Arten von Informationen können auf dem Anzeigebildschirm 112 dargestellt werden. Bei einigen Beispielen umfassen die auf dem Anzeigebildschirm 112 dargestellten Informationen Navigationsinformationen, die den Ort und/oder die geplante Route des Fahrzeugs anzeigen (z. B. eine Karte mit der ausgelegten Route, eine Auflistung der vergangenen und/oder bevorstehenden Richtungsänderungen entlang der Route, der geschätzten Ankunftszeit am Zielort usw.). Bei einigen Beispielen umfassen die auf dem Anzeigebildschirm 112 dargestellten Informationen Benachrichtigungen und/oder Indikatoren der aktuellen Betriebszustände und/oder Bedingungen des Fahrzeugs und/oder andere Informationen, die für den/die Insassen von Interesse sein können (z. B. aktuelle Geschwindigkeit, Reifendruck, Temperatur im Fahrzeug, Heizungs- und/oder Klimaanlageneinstellungen, Außentemperatur, Gesamtkilometerstand des Fahrzeugs, Kilometerstand der aktuellen Fahrt usw.). Bei einigen Beispielen identifizieren die auf dem Anzeigebildschirm 112 dargestellten Informationen Objekte in der umgebenden Umgebung, die durch die Sensoren 104 detektiert werden, und/oder den Zustand, das Vorhandensein, die Nähe und/oder den relativen Ort solcher Objekte (z. B. Fußgänger, andere Fahrzeuge, Verkehrssignalen, Straßenschilder, Fahrspurtrennungen, Straßenbauarbeiter und/oder -ausrüstung, Gefahren (z. B. Schlaglöcher, Schutt usw.) und so weiter).
  • In Verbindung mit Informationen, die die umgebende Umgebung darstellen, rendert der Anzeigebildschirm 112 bei einigen Beispielen Inhalt, der gefährliche Situationen anzeigt, die durch die detektierte Umgebung dargestellt sind. Wenn eine gefährliche Situation detektiert wird, muss das autonome Fahrzeug 100 möglicherweise oft schnell reagieren, um einen Unfall zu vermeiden und/oder anderweitig für die Sicherheit des/der Insassen und oder anderer in der umgebenden Umgebung zu sorgen. Plötzliche Reaktionen auf gefährliche Situationen können abrupte Manöver durch das Fahrzeug 100 umfassen (z.B. starkes Betätigen der Bremsen, Ausweichen zur Seite, Ausführen eines plötzlichen Fahrspurwechsels usw.), die für den/die Insassen beängstigend sein können, insbesondere wenn sie sich der Gefahr nicht bewusst sind. Einige gefährliche Situationen erfordern möglicherweise keine abrupte Reaktion, können aber dennoch eine oder mehrere Aktionen durch das Fahrzeug 100 umfassen (z.B. Verlangsamen, ein allmählicher Spurwechsel, Stehenbleiben für eine längere Zeitperiode usw.), die verursachen, dass der/die Insassen sich fragen, was das Fahrzeug tut. Dementsprechend stellen bei einigen Beispielen die auf dem Anzeigebildschirm 112 dargestellten Informationen zusätzlich zu der Darstellung, wenn gefährliche Situationen detektiert wurden, auch Erläuterungen dazu bereit, wie und/oder warum das autonome Fahrzeug 100 die Aktionen ausgeführt hat, die es als Reaktion auf die Situation durchgeführt hat.
  • Bei einigen Beispielen werden Informationen bezüglich gefährlicher Situationen und die eine oder die mehreren zugeordneten Reaktionen, die durch das autonome Fahrzeug 100 implementiert werden, auf dem Anzeigebildschirm 112 im Wesentlichen in Echtzeit dargestellt. Unter vielen Umständen blicken der/die Insassen möglicherweise nicht auf den Anzeigebildschirm 112, wenn eine gefährliche Situation detektiert wird. Dementsprechend kann bei einigen Beispielen das Insassen-Schnittstellen-System 110 eine akustische Warnung bereitstellen, um den/die Insassen über die detektierte Situation zu informieren. Zusätzlich oder alternativ kann bei einigen Beispielen die Identifizierung der gefährlichen Situation und die folgende Reaktion ein oder mehrere Male auf dem Anzeigebildschirm 112 wiedergegeben werden, um dem/den Insassen eine Gelegenheit zu geben, zu verstehen, was passiert ist und warum. Auf diese Weise können sich Insassen nach einem plötzlichen und potenziell alarmierenden Moment beruhigen. Ferner kann das Bereitstellen einer Darstellung davon, wenn eine gefährliche Situation detektiert wurde, und wie das autonome Fahrzeug auf solche Situationen reagiert hat, dem/den Insassen mehr Vertrauen in die Fähigkeiten des Fahrzeugs geben, gefährliche Situationen in Zukunft zu detektieren und zu vermeiden. Bei einigen Beispielen wird die Identifikation der gefährlichen Situation und die entsprechende durch das autonome Fahrzeug 100 ergriffene Reaktion im Anschluss an das Ereignis automatisch auf dem Anzeigebildschirm 112 wiedergegeben. Bei anderen Beispielen kann die Wiedergabe durch den/die Insassen manuell ausgewählt werden. Bei einigen Beispielen verwirdt/verwerfen der/die Insassen möglicherweise das wiedergegebene Ereignis, anstatt es ihm zu erlauben, sich zu wiederholen.
  • 2 ist ein Blockdiagramm, das eine beispielhafte Implementierung der beispielhaften Steuerung 102 von 1 darstellt. Bei dem dargestellten Beispiel umfasst die Steuerung 102 eine beispielhafte Sensorkommunikationsschnittstelle 202, eine beispielhafte entferne Kommunikationsschnittstelle 204, eine beispielhafte Insassenkommunikationsschnittstelle 206, einen beispielhaften Umgebungsanalysator 208, einen beispielhaften Navigationsanalysator 210, einen beispielhaften Fahrzeugsystemanalysator 212, einen beispielhaften Sicherheitsanalysator 214, einen beispielhaften Speicher 216, eine beispielhafte Betriebssteuerung 218 und einen beispielhaften Benutzerschnittstellengenerator 220.
  • Die beispielhafte Sensorkommunikationsschnittstelle 202 ermöglicht eine Kommunikation zwischen der Steuerung 102 und den Sensoren 104. Die beispielhafte entfernte Kommunikationsschnittstelle 204 ermöglicht eine Kommunikation zwischen der Steuerung 102 und dem entfernten Server 106 über das Netzwerk 108. Zusätzlich oder alternativ ermöglicht die entfernte Kommunikationsschnittstelle 204 eine Kommunikation zwischen der Steuerung 102 und anderen in der Nähe befindlichen Fahrzeugen und/oder anderen von dem Netzwerk unabhängigen Kommunikationsvorrichtungen (z.B. direkte Funkkommunikationen). Die beispielhafte Insassenkommunikationsschnittstelle 206 ermöglicht eine Kommunikation zwischen der Steuerung 102 und dem Insassen-Schnittstellen-System 110. Bei einigen Beispielen ist jede von der Sensorkommunikationsschnittstelle 202, der entfernten Kommunikationsschnittstelle 204 und der Insassenkommunikationsschnittstelle 206 unabhängig voneinander implementiert. Bei anderen Beispielen können zwei oder mehr von der Sensor-kommunikationsschnittstelle 202, der entfernten Kommunikationsschnittstelle 204 und der Insassenkommunikationsschnittstelle 206 zusammen als Teil einer einzelnen Kommunikationsschnittstelle integriert sein. Bei einigen Beispielen können eine oder mehrere von der Sensorkommunikationsschnittstelle 202, der entfernten Kommunikationsschnittstelle 204 und der Insassenkommunikationsschnittstelle 206 durch eine oder mehrere tragbare Rechenvorrichtungen (z. B. ein Smartphone, ein Tablet, ein Laptop usw.) implementiert und/oder Teil derselben sein.
  • Der beispielhafte Umgebungsanalysator 208 verarbeitet und/oder analysiert die Rückmeldung der Sensoren 104, um die Umstände der Umgebung, die das autonome Fahrzeugs 100 umgibt, zu bestimmen. Zusätzlich oder alternativ kann der beispielhafte Umgebungsanalysator 208 die Umstände der Umgebung, die das Fahrzeug 100 umgibt, basierend auf Kommunikationen von dem entfernten Server 106, von anderen in der Nähe befindlichen Fahrzeugen und/oder von anderen Vorrichtungen in Kommunikation mit dem Fahrzeug 100 (z.B. Sensorsystemen, die unter Straßen gebaut und/oder durch Lokalbehörden und/oder andere Entitäten in die Fahrbahninfrastruktur eingebracht wurden), bestimmen.
  • Basierend auf solchen Daten von den Sensoren 104 und/oder von entfernten Quellen identifiziert der beispielhafte Umgebungsanalysator 208 das Vorliegen, den relativen Ort, die Nähe und/oder Geschwindigkeit von Fahrzeugen in der Nähe. Ferner kann der Umgebungsanalysator 208 andere Objekte und/oder Merkmale der umgebenden Umgebung (z. B. Fußgänger, Straßenschilder, Verkehrssignale, Straßenmarkierungen usw.) identifizieren, basierend auf der Sensor-Rückmeldung und/oder anderen von entfernten Quellen gemeldeten Daten. Bei einigen Beispielen basiert die Identifikation von Merkmalen von und/oder Objekten in der umgebenden Umgebung auf der Implementierung von einem oder mehreren Modellen künstlicher Intelligenz (z.B. können ein oder mehrere solche Modelle lokal (z.B. in dem beispielhaften Speicher 216 umfasst) oder entfernt (z.B. in der Cloud vorliegend und über ein drahtloses Netzwerk zugänglich) sein.
  • Der beispielhafte Navigationsanalysator 210 verarbeitet und/oder analysiert die Rückmeldung von den Sensoren 104, um den Ort des autonomen Fahrzeugs zu bestimmen. Beispielsweise kann der Navigationsanalysator 210 Rückmeldungen von einem GPS-Sensor Kartendaten zuordnen, um den aktuellen Ort des Fahrzeugs zu bestimmen und eine Route für das autonome Fahrzeug 100 zu entwickeln und/oder zu aktualisieren, um in Richtung eines spezifizierten Ziels zu navigieren. Bei einigen Beispielen können die Kartendaten lokal in dem beispielhaften Speicher 216 gespeichert sein. Bei anderen Beispielen kann der Navigationsanalysator 210 mit dem entfernten Server 106 kommunizieren, um die Kartendaten zu erhalten und/oder eine geplante Route für das Fahrzeug 100 zu entwickeln.
  • Der beispielhafte Fahrzeugsystemanalysator 212 verarbeitet und/oder analysiert Rückmeldungen von den Sensoren 104, um die Betriebszustände und/oder den einen oder die mehreren Zustände der Systeme des Fahrzeugs zu bestimmen. Der Fahrzeugsystemanalysator 212 kann z.B. die Rotationsgeschwindigkeit der Räder, den Winkel, zu dem die Räder zeigen, die längliche (Vorderseite-zu-Rückseite) und/oder die laterale (Seite-zu-Seite) Beschleunigung des Fahrzeugs usw. bestimmen.
  • Der beispielhafte Sicherheitsanalysator 214 verarbeitet Rückmeldungen von den Sensoren 104, Informationen von entfernten Quellen (z.B. dem entfernten Server 106, anderen in der Nähe befindlichen Fahrzeugen, in der Nähe befindlicher Infrastruktur usw.) und/oder Ausgaben eines oder mehrerer von dem Umgebungsanalysator 208, dem Navigationsanalysator 210 und/oder dem Fahrzeugsystemanalysator 212, um gefährliche Fahrsituationen zu detektieren und/oder zu bestimmen, dass sich das Fahrzeug 100 aktuell in sicheren Umständen befindet. Bei einigen Beispielen identifiziert der Sicherheitsanalysator 214 gefährliche Situationen, indem er die verfügbaren Daten über die umgebende Umgebung und den aktuellen Betriebszustand des Fahrzeugs im Hinblick auf Definitionen oder Regeln für sicheres Fahren analysiert. Bei einigen Beispielen bestimmt der Sicherheitsanalysator 214, wann immer die dem Fahrzeug 100 zugeordneten Umstände eine Regel für sicheres Fahren verletzen, dass eine gefährliche Situation vorliegt. Bei einigen Beispielen entsprechen die Regeln für sicheres Fahren deterministischen mathematischen Formeln, die einem in dem beispielhaften Speicher 216 gespeicherten Sicherheitsmodell zugeordnet sind. Bei einigen Beispielen ist das Sicherheitsmodell das durch INTEL® entwickelte Responsibility Sensitive Safety (RSS)-Modell. Es können auch andere Modelle verwendet werden.
  • Das RSS-Modell setzt Grundregeln des Fahrens voraus, die unter menschlichen Fahrern gemeinhin praktiziert werden (entweder durch gesetzliches Mandat oder durch implizite Annahme basierend auf Prinzipien des gesunden Menschenverstands und/oder der Vernunft). Das RSS-Modell wird beschrieben in Shalev-Shwartz et al., „On a Formal Model of Safe and Scalable Self-driving Cars", Mobileye, 2017, zuletzt überarbeitet am 27. Oktober 2018, 37 Seiten, und das hierin durch Bezugnahme vollständig aufgenommen ist. Auf einer hohen Ebene umfasst das RSS-Modell fünf Grundregeln, die wie folgt charakterisiert werden können: (1) jemandem nicht von hinten auffahren, (2) nicht rücksichtslos einschneiden, (3) Vorfahrt wird gewährt, nicht genommen, (4) auf Bereiche mit eingeschränkter Sicht achten und (5) einen Unfall vermeiden, ohne einen anderen zu verursachen, wann immer dies möglich ist.
  • Aus den vorangehend dargestellten Grundregeln definiert das RSS-Modell bestimmte Regeln für sicheres Fahren, die zur Analyse durch den Sicherheitsanalysator 214 mathematisch ausgedrückt werden können. Nehmen Sie zum Beispiel die erste Grundregel, jemandem nicht von hinten aufzufahren. Damit diese Grundregel erfüllt wird, ist es erforderlich, dass ein Fahrzeug einen sicheren Längsabstand hinter einem anderen Fahrzeug einhält, wenn beide Fahrzeuge in die gleiche Richtung fahren. Was einen sicheren Längsabstand ausmacht, hängt offensichtlich von den Umständen ab, umfassend die Geschwindigkeit der Fahrzeuge und wie schnell die Fahrzeuge in der Lage sind, bis zum Stillstand zu verlangsamen. Der Mindestlängsabstand, der für ein erstes (hinteres) Fahrzeug, das einem zweiten (vorderen) Fahrzeug folgt, das sich in die gleiche Richtung bewegt, sicher ist (z.B. genügend Zeit und Raum bereitstellt, um eine Kollision zu vermeiden), wird mathematisch in Gleichung 1 ausgedrückt: d m i n , l o n g = [ v r ρ + 1 2 α m a x ρ 2 + ( v r + ρ α m a x ) 2 2 β m i n v f 2 2 β m a x ] +
    Figure DE102020120663A1_0001
    wobei vr die Geschwindigkeit des hinteren Fahrzeugs ist, vf die Geschwindigkeit des vorderen Fahrzeugs ist, p die Reaktionszeit des hinteren Fahrzeugs ist, αmax die maximale Beschleunigung des hinteren Fahrzeugs während der Reaktionszeit ist, βmin die Mindestverlangsamung des hinteren Fahrzeugs aufgrund einem nach der Reaktionszeit initiierten Bremsen ist, βmax die maximale Verlangsamung des vorderen Fahrzeugs ist, und wobei die Notation [x]+ := max{x, 0} ist. Gleichung 1 ist weit genug gefasst, um unterschiedliche Reaktionszeiten verschiedener Fahrzeuge zu betrachten und unterschiedliche Beschleunigungs- und Verlangsamungsraten solcher Fahrzeuge zu berücksichtigen. Bei einigen Beispielen bestimmt der Sicherheitsanalysator 214 die Reaktionszeit als die Zeit, die benötigt wird, um Rückmeldungen von den Sensoren 104 zu sammeln, plus die Zeit, die benötigt wird, um solche Daten zu analysieren, um zu bestimmen, ob eine gefährliche Situation vorliegt, und die Zeit, um eine ordnungsgemäße Reaktion zu bestimmen und zu implementieren.
  • Bei einigen Beispielen bestimmt der Sicherheitsanalysator 214 die Werte für die Geschwindigkeits-, Beschleunigungs- und Verlangsamungsparameter in Gleichung 1 basierend auf der Rückmeldung von den Sensoren 104 (z. B. kann die Rückmeldung nasse und/oder glatte Straßen anzeigen, was anzeigt, dass die Verlangsamung langsamer sein wird als auf trockenen Straßen) und/oder basierend auf tabellarischen Werten für bestimmte Arten von Fahrzeugen, die aus der Sensorrückmeldung identifiziert werden (z. B. brauchen große Sattelschlepper länger zum Beschleunigen und Verlangsamen als kleinere Fahrzeuge). Solche Tabellenwerte können lokal in dem Speicher 216 gespeichert und/oder von dem entfernten Server 106 erhalten werden. Bei einigen Beispielen können die Tabellenwerte im Voraus gemäß einem oder mehreren Standards definiert werden. Zusätzlich oder alternativ können bei einigen Beispielen Werte für einen oder mehrere der Parameter in Gleichung 1 durch andere Fahrzeuge und/oder andere Infrastruktur in der Nähe des Fahrzeugs 100 bereitgestellt werden. Wenn z.B. das Fahrzeug 100 einem Lastkraftwagen hinterherfährt, kann der Lastkraftwagen Werte bezüglich seiner Geschwindigkeit, Beschleunigung und Verlangsamung unter aktuellen Umständen an die Steuerung 102 des Fahrzeugs 100 bereitstellen (z.B. über Funkkommunikationen mit der entfernten Kommunikationsschnittstelle 204 der Steuerung 102). Ferner können bei einigen Beispielen Sensoren, die durch eine lokale Stadtverwaltung und/oder andere Entitäten an festen Orten (z. B. unterirdisch, an Verkehrsmasten, an Laternenmasten usw.) instand gehalten werden, Werte für einen oder mehrere der Parameter bestimmen und diese an das Fahrzeug 100 bereitstellen (z. B. über Funkkommunikation mit der entfernten Kommunikationsschnittstelle 204 der Steuerung 102). Sobald die Parameter für Gleichung 1 definiert und/oder bestimmt sind, kann der Sicherheitsanalysator 214 die Gleichung analysieren, um den sicheren Längsabstand unter den Umständen zu bestimmen. Wenn die Sensorrückmeldung (wie durch den Umgebungsanalysator 208 analysiert) anzeigt, dass sich ein Fahrzeug vor dem autonomen Fahrzeug 100 innerhalb des sicheren Längsabstands befindet, wurde die durch Gleichung 1 definierte Regel für sicheres Fahren verletzt, und der Sicherheitsanalysator 214 bestimmt, dass eine gefährliche Situation vorliegt. Eine solche Bestimmung löst dann die Initiierung einer ordnungsgemäßen Reaktion aus (z.B. Betätigen der Bremsen, Lenken um das vordere Fahrzeug herum usw.), bis ein Abstand zwischen dem autonomen Fahrzeug 100 und dem anderen Fahrzeug wieder gleich oder größer als der sichere Längsabstand ist.
  • Bei einigen Beispielen können die Parameter für eine ordnungsgemäße Reaktion auch durch Regeln für sicheres Fahren definiert werden, die in dem in dem beispielhaften Speicher 216 gespeicherten Sicherheitsmodell umfasst sind. Zum Beispiel werden, wie vorangehend im Hinblick auf den durch Gleichung 1 definierten sicheren Längsabstand erläutert, maximale und minimale Beschleunigungs- und Verlangsamungsraten für die Fahrzeuge angenommen. Dementsprechend umfasst bei einigen Beispielen eine ordnungsgemäße Reaktion auf eine Situation mit gefährlichem Längsabstands (z. B. wenn Gleichung 1 verletzt wurde) eine Beibehaltung der Beschleunigung des Fahrzeugs bei oder unter αmax und bei oder über βmin während der relevanten Zeitperioden, die der Reaktionszeit p zugeordnet sind. Die Befolgung dieser Regel ermöglicht es dem autonomen Fahrzeug 100, die gefährliche Situation sicher zu lösen, indem es einen sicheren Längsabstand zwischen sich selbst und dem Fahrzeug vor ihm wiederherstellt. Offensichtlich hat das autonome Fahrzeug 100 keine Kontrolle über die Verlangsamung des vorderen Fahrzeugs. Dementsprechend wird bei einigen Beispielen der Wert für βmax konservativ angenommen.
  • Während die Einhaltung eines sicheren Längsabstands Auffahrunfälle reduzieren (z.B. vermeiden) kann, können Kollisionen auch von der Seite erfolgen. Dementsprechend kann eine andere Regel für sicheres Fahren, die einen sicheren Seitenabstand zwischen einem ersten Fahrzeug, das sich links von einem zweiten Fahrzeug befindet, definiert, mathematisch durch Gleichung 2 ausgedrückt werden: d m i n , l a t = μ + [ ( v 1 + v 1, ρ ) 2 ρ + v 1, p 2 2 β 1, l a t , m i n ( ( v 2 + v 1, ρ ) 2 ρ + v 2, ρ 2 2 β 2, l a t , m i n ) ] +
    Figure DE102020120663A1_0002
    wobei µ ein Grundlinien-Seitenabstand zwischen den zwei Fahrzeugen ist, v1 die Geschwindigkeit des ersten Fahrzeugs (z.B. des autonomen Fahrzeugs 100 durch Anwenden der Gleichung 2) ist, β1,lαt,min die minimale laterale Verlangsamung des ersten Fahrzeugs nach der Reaktionszeit ist, β2,lat,min die minimale laterale Verlangsamung des zweiten Fahrzeugs nach der Reaktionszeit ist und v1,p definiert ist als v1 - pαlat,max und vz,p definiert ist als v2 - pαlαt,max (wobei αlat,mar die maximale laterale Beschleunigung der zwei Fahrzeuge zueinander während der Reaktionszeit ist).
  • Wie bei Gleichung 1 kann der Sicherheitsanalysator 214 Werte für die Parameter von Gleichung 2 bestimmen und dann die Gleichung auswerten, um den sicheren Seitenabstand zu bestimmen (dmin,lat). Genauer gesagt kann der Sicherheitsanalysator 214, wie vorangehend in Verbindung mit Gleichung 1 beschrieben, Werte für die Parameter in Gleichung 2 basierend auf Rückmeldungen von Sensoren, basierend auf Tabellenwerten, die entfernt oder lokal gespeichert sein können, und/oder basierend auf Daten bestimmen, die von anderen Fahrzeugen, Vorrichtungen und/oder Infrastruktur in der Nähe von (z. B. innerhalb direkter Funkkommunikationsreichweite von) dem Fahrzeug 100 bereitgestellt werden. Wenn die definierten und/oder bestimmten Werte für die Parameter in Gleichung 2 anzeigen, dass sich ein Fahrzeug innerhalb des sicheren Seitenabstands befindet, bestimmt der Sicherheitsanalysator 214, dass eine gefährliche Situation vorliegt. Eine solche Bestimmung löst möglicherweise die Initiierung einer ordnungsgemäßen Reaktion aus (z.B. Ausscheren weg vor einem seitlich einscherenden Fahrzeug, Wechseln der Fahrspur, Betätigen der Bremsen, Beschleunigen usw.), bis ein Seitenabstand zwischen dem autonomen Fahrzeug 100 und dem anderen Fahrzeug wieder gleich oder größer als der sichere Längsabstand ist. Bei einigen Beispielen wird die ordnungsgemäße Reaktion auf eine Situation mit gefährlichem Seitenabstand auch durch spezifische Regeln für sicheres Fahren definiert, die in dem Speicher 216 gespeichert sind.
  • Die Fahrregel für den Sicherheitsabstand in Längsrichtung (mathematisch ausgedrückt in Gleichung 1) und die Fahrregel für den seitlichen Sicherheitsabstand (mathematisch ausgedrückt in Gleichung 2) und die entsprechenden Regeln für die ordnungsgemäße Reaktion sind nur einige Beispiele für Regeln für sicheres Fahren, die in dem in Speicher 216 gespeicherten Sicherheitsmodell umfasst sein können. Andere beispielhafte Regeln können die Beschränkungen und/oder Anforderungen für andere Umstände definieren, umfassend die Vermeidung eines Unfalls (z. B. einer Kollision), ohne einen anderen Unfall zu verursachen, die Vorfahrt zwischen zwei Verkehrsströmen, die gekreuzt und/oder kombiniert werden (z. B. an Kreuzungen, wenn eine Fahrspur in eine andere übergeht usw.), Situationen, in denen die Sicht eingeschränkt ist (z.B. bei neblingen Bedingungen, hinter Strukturen oder Objekten entlang Straßenseiten, die einen Fußgänger, der die Straße überqueren möchte, verdecken können usw.), Situationen, in denen es keine markierten Fahrspuren gibt (z.B. Parkplätze, unstrukturierte Straßen usw.) und so weiter. Wie vorangehend erwähnt wurde, sind die Regeln für sicheres Fahren in dem Sicherheitsmodell mathematisch derart definiert, dass Verletzungen oder die Einhaltung solcher Regeln deterministisch analysiert werden können. Ferner sind bei einigen Beispielen die Regeln für sicheres Fahren derart definiert, dass, wenn alle Fahrzeuge die Regeln einhalten, kein Unfall zwischen solchen Fahrzeugen auftreten sollte. Natürlich kann es möglich sein, dass ein unterschiedliches Fahrzeug, das die Regeln für sicheres Fahren des Sicherheitsmodells nicht einhält, einen Unfall verursacht. Das heißt, während die Regeln für sicheres Fahren Grundregeln des gesunden Menschenverstandes voraussetzen, an die sich die meisten Fahrer wahrscheinlich halten, kann es Umstände geben, in denen sich ein bestimmtes Fahrzeug (z.B. ein bestimmter Fahrer) in einer Weise verhält, die nicht mit den Regeln für sicheres Fahren des Sicherheitsmodells übereinstimmt, die zu einem Unfall führen könnte. Dementsprechend kann das Sicherheitsmodell bei einigen Beispielen, um die Wahrscheinlichkeit von durch solche Fahrer verursachten Unfällen zu reduzieren, zusätzliche Regeln für sicheres Fahren definieren, die Beschränkungen und/oder Voraussetzungen für Ausweichmanöver definieren, die ansprechend auf die obigen Situationen durchgeführt werden, um Unfälle zu vermeiden, während die Wahrscheinlichkeit reduziert wird, einen anderen Unfall zu verursachen.
  • Bei dem dargestellten Beispiel von 2 sind der Umgebungsanalysator 208, der Navigationsanalysator 210, der Fahrzeugsystemanalysator 212 und der Sicherheitsanalysator 214 als separate Elemente der Steuerung 102 gezeigt. Bei einigen Beispielen können jedoch eines oder mehrere dieser Elemente kombiniert und/oder in einen gemeinsamen Analysator integriert werden, der einen Teil oder die gesamte Funktionalität der einzeln beschriebenen Elemente ausführt.
  • Die beispielhafte Betriebssteuerung 218 steuert den Betrieb des Fahrzeugs 100 basierend auf den Ausgaben des Umgebungsanalysators 208, des Navigationsanalysators 210, des Fahrzeugsystemanalysators 212 und/oder des Sicherheitsanalysators 214. Zum Beispiel kann bei einigen Beispielen die Betriebssteuerung 218 verschiedene Systeme des Fahrzeugs 100 (überwacht durch den Fahrzeugsystemanalysator 212) steuern, um auf Objekte und Umstände zu reagieren, die in der umgebenden Umgebung detektiert werden (wie durch den Umgebungsanalysator 208 detektiert), um das Fahrzeug in Richtung eines gewünschten Ziels zu navigieren (basierend auf einer Route, die durch den Navigationsanalysator 210 bereitgestellt wird). Ferner implementiert die Betriebssteuerung 218 die ordnungsgemäßen Reaktionen, die den durch den Sicherheitsanalysator 214 detektierten bestimmten gefährlichen Situationen zugeordnet sind.
  • Der beispielhafte Benutzerschnittstellengenerator 220 erzeugt Benutzerschnittstellendaten, die zum Rendern und/oder Anzeigen von Benutzerschnittstellen auf dem Anzeigebildschirm 112 des Insassen-Schnittstellen-Systems 110 verwendet werden können. Bei einigen Beispielen kann der Benutzerschnittstellengenerator 220 die Benutzerschnittstellen für die Anzeige rendern. Bei anderen Beispielen kann der Benutzerschnittstellengenerator 220 die Benutzerschnittstellendaten an einen Renderer weitergeben, der durch die Steuerung und/oder eine separate Vorrichtung implementiert werden kann. Zum Beispiel erzeugt bei Beispielen, bei denen der Anzeigebildschirm 112 einer tragbaren Rechenvorrichtung (z.B. einem Smartphone, einem Tablet, einem Laptop usw.) zugeordnet ist, der Benutzerschnittstellengenerator 220 Benutzerschnittstellendaten, die an die tragbare Rechenvorrichtung (z.B. über die Insassenkommunikationsschnittstelle 206) bereitgestellt werden, um zum Rendern über den Anzeigebildschirm der tragbaren Anzeigevorrichtung weiterverarbeitet zu werden. Obwohl das dargestellte Beispiel den Benutzerschnittstellengenerator 220 als der Steuerung 102 zugeordnet zeigt, kann bei einigen Beispielen ein Teil oder die gesamte Funktionalität des Benutzerschnittstellengenerators 220 durch eine separate Vorrichtung in Kommunikation mit der Steuerung 102 ausgeführt und/oder in einer solchen dupliziert werden. Zum Beispiel kann bei Beispielen, bei denen der Anzeigebildschirm 112 einer tragbaren Rechenvorrichtung zugeordnet ist, die durch einen Insassen in dem Fahrzeug 100 mitgeführt wird, die tragbare Rechenvorrichtung ihren eigenen Benutzerschnittstellengenerator umfassen, um die Benutzerschnittstellendaten zu erzeugen, die zum Rendern und/oder Anzeigen von Benutzerschnittstellen zur Anzeige, basierend auf Daten, die durch den Benutzerschnittstellengenerator 220 der Steuerung 102 erzeugt und bereitgestellt werden, und/oder basierend auf Daten von einer oder mehreren der anderen Komponenten der Steuerung 102, verwendet werden.
  • Bei einigen Beispielen basieren die durch den Benutzerschnittstellengenerator 220 für die Benutzerschnittstellen erzeugten Daten auf den Ausgaben des Umgebungsanalysators 208, des Navigationsanalysators 210, des Fahrzeugsystemanalysators 212 und/oder des Sicherheitsanalysators 214 und/oder basieren auf den durch die Betriebssteuerung 218 implementierten Aktionen. Bei einigen Beispielen wird in den Benutzerschnittstellen ein begrenzter Satz von Informationen angezeigt, die wahrscheinlich für den/die Insassen von besonderem Interesse sind. Beispielhafte Benutzeroberflächen 300, 400 sind in den dargestellten Beispielen der 3 und 4 separat gezeigt. Bei einigen Beispielen können durch den Benutzerschnittstellengenerator 220 erzeugte Benutzerschnittstellen-daten auch akustische Ausgaben definieren, die ausgebildet sind, durch das Insassen-Schnittstellen-System 110 in Verbindung mit dem über den Anzeigebildschirm 112 gerenderten Inhalt erzeugt zu werden. Bei einigen Beispielen können die akustischen Ausgaben eine Glocke oder ein anderes Geräusch sein, um den Insassen vor einer gefährlichen Situation und/oder anderen Umständen zu warnen. Bei einigen Beispielen umfassen die akustischen Ausgaben natürliche Sprache, die die gefährliche Situation beschreibt und/oder beschreibt, was das Fahrzeug 100 tut, um die gefährliche Situation aufzulösen. Ferner kann der Benutzerschnittstellengenerator 220 bei einigen Beispielen andere Arten von Ausgaben und/oder Rückmeldungen definieren, um den/die Insassen zu warnen und/oder seine/ihre Aufmerksamkeit zu erregen (z. B. eine physische, taktile und/oder haptische Ausgabe, Unterbrechung der Wiedergabe von Musik, Video und/oder anderen Medien in dem Fahrzeug 100 usw.). Bei einigen Beispielen können solche Ausgaben unabhängig von dem Anzeigebildschirm 112 sein. Zum Beispiel kann eine haptische/taktile Ausgabe durch Vibrieren eines Sitzes in dem Fahrzeug 100 erzeugt werden. Bei einigen Beispielen entspricht die Art, wie die Ausgaben und/oder Rückmeldungen an die Insassen übermittelt werden, Kommunikationsmechanismen, die für Menschen mit Behinderungen typisch sind (z.B. Hörgeschädigte, Sehbehinderte usw.), um es diesen Personen zu ermöglichen, sich der gefährlichen Situation und/oder anderer Umstände bewusst zu werden, die sie aufgrund ihrer Behinderung ansonsten möglicherweise nicht wahrnehmen könnten.
  • Die beispielhafte Benutzerschnittstelle 300 von 3 ist in zwei Abschnitte geteilt, umfassend ein Navigationspanel 302 und ein Aktuelle-Umstände-Panel 304. Obwohl das Navigationspanel 302 und das Aktuelle-Umstände-Panel 304 nebeneinander in einer einzigen Benutzerschnittstelle 300 gezeigt sind, können bei einigen Beispielen die separaten Panels 302, 304 geteilt sein, um separat angezeigt zu werden. Beispielsweise kann ein Benutzer bei einigen Beispielen zwischen einer Anzeige des Navigationspanels 302 zu einem Zeitpunkt und dem Aktuelle-Umstände-Panel 304 zu einem anderen Zeitpunkt hin- und herschalten. Bei einigen Beispielen wird das Navigationspanel 302 über einen ersten Anzeigebildschirm 112 des Insassenschnittstellensystems 110 bereitgestellt und das Aktuelle-Umstände-Panel 304 wird über einen zweiten Anzeigebildschirm 112 des Insassenschnittstellensystems 110 bereitgestellt. Bei einigen Beispielen entspricht entweder der erste Anzeigebildschirm oder der zweite Anzeigebildschirm einem Bildschirm auf einer tragbaren Rechenvorrichtung (z. B. einem Smartphone, Tablet, Laptop usw.) eines der Insassen in dem Fahrzeug 100 und der andere Anzeigebildschirm ist in das Fahrzeug 100 integriert und/oder eingebaut. Bei einigen Beispielen können die Bildschirme von mehreren unterschiedlichen tragbaren Rechenvorrichtungen verwendet werden, um einen Teil oder den gesamten Inhalt der Benutzerschnittstelle 300 von 3 anzuzeigen.
  • Das Navigationspanel 302 stellt navigationsbasierte Informationen dar, die eines oder mehrere umfassen können von einem Zielort 306, einer Distanz 308 zu dem Zielort, einer geschätzten Zeit 310 bis zur Ankunft am Ziel, einer Karte 312, die einen Zielort 314 und/oder einen aktuellen Fahrzeugort 316 zeigt. Das Aktuelle-Umstände-Panel 304 umfasst eine Darstellung der aktuellen (z.B. im Wesentlichen in Echtzeit) Umstände der Operationen des autonomen Fahrzeugs 100. Bei dem dargestellten Beispiel stellt beispielsweise das Aktuelle-Umstände-Panel 304 einen Aktuelle-Geschwindigkeit-Indikator 318 und einen Aktueller-Fahrbetrieb-Indikator 320 bereit (z.B. über natürlichsprachigen Text bereitgestellt). Zusätzlich oder alternativ umfasst bei einigen Beispielen das Aktuelle-Umstände-Panel 304 eine graphische Darstellung der in der umgebenden Umgebung des autonomen Fahrzeugs 100 detektierten aktuellen Umstände. Bei einigen Beispielen werden alle Aspekte der umgebenden Umgebung, die durch das autonome Fahrzeug 100 detektiert werden, in dem Aktuelle-Umstände-Panel 304 der Benutzerschnittstelle 300 dargestellt. Dies kann jedoch zu viele Informationen bereitstellen, die ein Insasse nicht schnell und einfach verstehen kann. Dementsprechend umfasst bei dem dargestellten Beispiel die graphische Darstellung der umgebenden Umgebung weniger als alle durch das Fahrzeug detektierten Details 100. Unter anderem kann das Aktuelle-Umstände-Panel 304 eine Ego-Fahrzeuggraphik 322 umfassen, die das autonome Fahrzeug 100 darstellt, das sich innerhalb der Fahrbahnmarkierungen 324 befindet, die der Straße in der realen Welt entsprechen, auf der das Fahrzeug 100 fährt. Bei einigen Beispielen können auch andere in der umgebenden Umgebung detektierte Objekte, wie z.B. andere in der Nähe befindliche Fahrzeuge und ihre relative Position zu dem Fahrzeug 100, in dem Aktuelle-Umstände-Panel 304 durch ein geeignetes Icon 326 dargestellt sein. Das Bereitstellen der Ego-Fahrzeuggraphik 322 ermöglicht es dem/den Insassen zu verstehen, wie die Aspekte der umgebenden Umgebung mit dem Fahrzeug 100 in Zusammenhang stehen.
  • Bei einigen Beispielen umfasst das Aktuelle-Umstände-Panel 304 eine Darstellung davon, ob die umgebenden Umstände sicher sind und/oder gefährliche Fahrsituationen darstellen, wie sie durch die Regeln für sicheres Fahren definiert sind, die dem in dem Speicher 216 gespeicherten Sicherheitsmodell (z.B. dem RSS-Modell) zugeordnet sind. Bei einigen Beispielen werden sichere und/oder gefährliche Situationen innerhalb des Aktuelle-Umstände-Panels 304 über eine Sicherheitsabgrenzungsgraphik 328 dargestellt. Bei einigen Beispielen weist die Sicherheitsabgrenzungsgraphik 328 ein erstes Erscheinungsbild oder Zustand (z. B. eine erste Farbe, eine erste Intensität, eine erste Transparenz, eine erste Form usw.) auf, wenn keine gefährlichen Situationen detektiert werden (z. B. das Fahrzeug 100 sich aktuell in sicheren Umständen befindet), und wechselt zu einem zweiten Erscheinungsbild oder Zustand (z. B. einer zweiten unterschiedlichen Farbe, einer zweiten unterschiedlichen Intensität, einer zweiten unterschiedlichen Transparenz, einer zweiten unterschiedlichen Form, Blinken usw.), wenn eine oder mehrere gefährliche Situationen detektiert werden. Bei einigen Beispielen ändert nur ein Abschnitt der Sicherheitsabgrenzungsgraphik 328, der der Richtung des einen oder der mehreren Objekte entspricht, die zu der gefährlichen Situation führen, das Erscheinungsbild, während der Rest der Sicherheitsabgrenzungsgraphik 328 das sicheren Umständen entsprechende Erscheinungsbild beibehält.
  • Als spezifisches Beispiel wird bei dem dargestellten Beispiel von 3 eine gefährliche Situation gezeigt, die durch das Einscheren des anderen Fahrzeugs 326 in die durch das Ego-Fahrzeug 322 belegte Fahrspur verursacht wird. Diese gefährliche Situation wird durch den Sicherheitsanalysator 214 basierend auf dem Abstand zwischen den zwei Fahrzeugen 322, 326 bestimmt, der unter den sicheren Seitenabstand, wie durch die oben dargestellte Gleichung 2 definiert, fällt. Dementsprechend aktualisiert bei diesem Beispiel der Benutzerschnittstellengenerator 220 bei Detektieren der gefährlichen Situation (z.B. wenn die Regel für den sicheren Seitenabstand verletzt wurde) die Sicherheitsabgrenzungsgraphik 328, um das Erscheinungsbild (z.B. Farbe) der Graphik in dem Bereich zu ändern, der der Position des einscherenden Fahrzeugs 326 zugeordnet ist. Bei einigen Beispielen, wie in 3 gezeigt, kann der Benutzerschnittstellengenerator 220 auch das Erscheinungsbild (z.B. Farbe) eines Teils oder des gesamten Icons 326 des einscherenden Fahrzeugs ändern, um die Quelle der gefährlichen Situation hervorzuheben, die durch die Änderung des Erscheinungsbilds der Sicherheitsabgrenzungsgraphik 328 dargestellt wird. Zusätzlich implementiert die Betriebssteuerung 218 ansprechend auf das Detektieren der gefährlichen Situation und das Darstellen derselben auf der Benutzerschnittstelle 300 Operationen, die einer ordnungsgemäßen Reaktion auf die gefährliche Situation entsprechen. Wie vorangehend beschrieben wurde, kann die ordnungsgemäße Reaktion auch durch Regeln in dem in Speicher 216 gespeicherten Sicherheitsmodell definiert werden. Bei dem dargestellten Beispiel, bei dem das Fahrzeug von links einschert und es rechts eine freie Fahrspur gibt, kann die ordnungsgemäße Reaktion darin bestehen, die Fahrspur nach rechts zu wechseln. Aus diesem Grund zeigt der Indikator 320 des aktuellen Fahrbetriebs bei dem dargestellten Beispiel einen Fahrspurwechsel nach rechts an.
  • Ein Bereitstellen der Sicherheitsabgrenzungsgraphik 328, die ihr Erscheinungsbild ansprechend darauf ändert, dass der Sicherheitsanalysator 214 eine gefährliche Situation wie oben dargestellt detektiert, ermöglicht es einem Insassen, schnell und einfach zu verstehen, ob sich das Fahrzeug 100 in einer gefährlichen Situation befindet oder aktuell sicher ist. Wenn eine gefährliche Situation vorliegt, ermöglichen die auf der Benutzerschnittstelle 300 dargestellten Informationen einem Insassen ferner auch zu verstehen, wie das Fahrzeug 100 in der Lage ist, die gefährliche Situation zu vermeiden und/oder zu verstehen, warum das Fahrzeug 100 möglicherweise ein plötzliches Manöver (z.B. plötzlicher Fahrspurwechsel) durchgeführt hat. Natürlich profitiert ein Insasse nur dann von der graphischen Darstellung der gefährlichen Situation und der anschließenden Reaktion, wenn er zu der Zeit des Auftretens der Situation tatsächlich die Benutzerschnittstelle 300 betrachtet hat, da die graphische Darstellung im Wesentlichen in Echtzeit zu dem Auftreten des Ereignisses bereitgestellt wird. Wie bereits erwähnt, verbringen Menschen ihre Zeit in einem autonomen Fahrzeug jedoch üblicherweise nicht damit, auf einen Vertrauensbildschirm wie beispielsweise die Benutzerschnittstelle 300 zu starren. Vielmehr schaut ein Insasse möglicherweise aus dem Fenster, liest ein Buch, unterhält sich mit einem anderen Insassen, schläft und/oder ist mit irgendeiner anderen Aktivität beschäftigt. Dementsprechend können bei einigen Beispielen die gefährliche Situation und die anschließenden Reaktionsaktionen nach dem Ereignis ein oder mehrere Male auf der Benutzerschnittstelle 300 wiedergegeben werden.
  • Genauer gesagt stellt 4 zeigt eine beispielhafte Benutzerschnittstelle 400 dar, die der Benutzerschnittstelle 300 von 3 im Wesentlichen ähnlich ist, außer dass die Benutzerschnittstelle 400 einen etwas späteren Zeitpunkt darstellt und ein überlagertes und/oder neben dem Haupt-Aktuelle-Umstände-Panel bereitgestelltes Wiedergabefenster 402 umfasst. Wie bei dem dargestellten Beispiel von 4 gezeigt ist, umfasst das Wiedergabefenster 402 die gleiche graphische Darstellung der gefährlichen Situation, die in der Benutzerschnittstelle 300 von 3 bereitgestellt wurde. Bei diesem Beispiel zeigt die Benutzerschnittstelle 400 von 4 weiterhin die aktuellen (z.B. im Wesentlichen in Echtzeit) Umstände des autonomen Fahrzeugs 100 basierend auf der Ego-Fahrzeug-Graphik 322 und der zugeordneten Sicherheitsabgrenzungsgraphik 328 in dem Hauptabschnitt des Aktuelle-Umstände-Panels 304. Zu dem bestimmten Zeitpunkt, der in dem dargestellten Beispiel von 4 dargestellt ist, ist das autonome Fahrzeug 100 (dargestellt durch die Ego-Fahrzeug-Graphik 322) auf die mittlere Fahrspur zurückgekehrt, während sich das andere Fahrzeug 326 nun in sicherem Abstand dahinter befindet, was dadurch widergespiegelt wird, dass die gesamte Sicherheitsabgrenzungsgraphik 328 das gleiche Erscheinungsbild (z.B. Farbe) aufweist, das sicheren Umständen entspricht.
  • Bei einigen Beispielen kann die graphische Darstellung der Wiedergabe der gefährlichen Situation in dem Hauptabschnitt des Aktuelle-Umstände-Panels 304 bereitgestellt werden, wobei die Echtzeitumstände in einem kleineren überlagerten Fenster dargestellt werden. Bei einigen Beispielen kann ein Insasse auswählen, zwischen der Echtzeitansicht und der Wiedergabeansicht innerhalb des Hauptabschnitts und eines überlagerten Fensters der Benutzerschnittstelle 400 hin- und herzuschalten. Bei einigen Beispielen kann die Wiedergabe der gefährlichen Situation (entweder automatisch oder ansprechend auf die Auswahl des Benutzers) das gesamte Aktuelle-Umstände-Panel 304 ausfüllen, wobei eine Anzeige der aktuellen Echtzeitansicht vorübergehend unterdrückt wird. Bei einigen Beispielen kann, sobald die Wiedergabe der gefährlichen Situation eine bestimmte Schwellenanzahl von Malen abgeschlossen wurde, das Wiedergabefenster 402 automatisch entfernt werden, um wieder die Echtzeitansicht der aktuellen Umstände anzuzeigen. Bei einigen Beispielen kann die Benutzerschnittstelle 400 zusätzlich zum Bereitstellen einer Wiedergabe der graphischen Darstellung der gefährlichen Situation und der entsprechenden Reaktion auch eine textbasierte Erläuterung dessen bereitstellen, was das Fahrzeug 100 getan hat und warum, wie aus dem bei Bezugszeichen 404 identifizierten Text gezeigt. Ferner können bei einigen Beispielen auch Audioausgaben (z.B. Geräusche, Audionachrichten usw.) während der Wiedergabe einer gefährlichen Situation erzeugt werden.
  • Bei einigen Beispielen kann die Wiedergabe einer gefährlichen Situation ein Zeitfenster umfassen, das beginnt, bevor die gefährlichen Situationen tatsächlich detektiert wurde, und sich erstreckt, bis nachdem das Fahrzeug wieder in eine sichere Situation gebracht wurde. Dementsprechend speichert der beispielhafte Speicher 216 bei einigen Beispielen die gesammelten Rückmeldungen des Sensors 104 in einem kreisförmigen Puffer, um in der Lage zu sein, die Sequenz der Ereignisse, die zu einer gefährlichen Situation führen, eine solche umfassen oder einer solchen folgen, zu rekonstruieren. Bei einigen Beispielen können erzeugte Wiedergaben gefährlicher Situationen für einen längerfristigen Abruf separat gespeichert werden (z.B. nachdem der kreisförmige Puffer durch nachfolgende Daten ersetzt wurde). Bei einigen Beispielen kann die Wiedergabe automatisch im Anschluss an das Detektieren und Auflösen einer gefährlichen Situation erzeugt werden. Zusätzlich oder alternativ kann die Wiedergabe ansprechend auf Benutzereingaben, die denselben auswählen, bereitgestellt werden. Bei einigen Beispielen kann die Benutzerschnittstelle Wiedergabesteuerungsoptionen für die Wiedergabe umfassen (z.B. Abspielen, Pause, Zurückspulen, Geschwindigkeit anpassen, Vollbild anzeigen usw.)
  • Einige gefährliche Situationen können vorübergehend andauern und/oder wenig oder keine plötzlichen Manöver umfassen, die durch den/die Insassen als ungewöhnlich empfunden würden. Bei einigen solcher Beispiele ist es möglicherweise nicht notwendig, den/die Insassen speziell zu warnen, um die Aufmerksamkeit auf die Situation zu lenken und/oder automatisch eine Reaktion auf das Ereignis bereitzustellen. Dementsprechend können bei einigen Beispielen akustische Benachrichtigungen über gefährliche Situationen und/oder ein Rendern einer Wiedergabe einer gefährlichen Situation auf bestimmte Umstände beschränkt sein, die eine oder mehrere Schwellen erfüllen. Bei einigen Beispielen können die Schwellen auf einem oder mehreren von der Dauer einer detektierten gefährlichen Situation, der Häufigkeit sich wiederholender gefährlicher Situationen (z. B. wiederholtes Anhalten und Anfahren im dichten Verkehr), der Art der gefährlichen Situation (z. B. ob es sich um eine gewöhnliche Begebenheit oder einen seltenen Umstand handelt), der Art der ansprechend auf die gefährliche Situation implementierten Änderungen der Fahrzeugdynamik (z. B. Werte, Änderungen und/oder Änderungsraten des Trägheitsmoments, Geschwindigkeit, Beschleunigung/Verlangsamung, Richtung der Räder usw.) basieren. Bei einigen Beispielen kann die Schwelle durch einen Endbenutzer anpassbar und/oder abhängig von Umgebungsfaktoren (z. B. Außentemperatur, nasse versus trockene Straßen usw.) variabel sein.
  • Wie vorangehend erwähnt wurde, wird, ob sich das autonome Fahrzeug 100 aktuell in einer sicheren Situation befindet oder sich in einer gefährlichen Situation befindet (wie durch die relevanten Sicherheitsmodellregeln definiert), durch die Sicherheitsabgrenzungsgraphik 328 graphisch dargestellt, die die Ego-Fahrzeug-Graphik 322 umgibt. Bei dem dargestellten Beispiel entspricht die Sicherheitsabgrenzungsgraphik 328 einem Ring, der die Ego-Fahrzeug-Graphik 322 umgibt. Bei anderen Beispielen ist die Sicherheitsabgrenzungsgraphik 328 eine andere Form (z.B. ein Zylinder, eine Kuppel, ein Rechteck, eine Box usw.). Bei einigen Beispielen kann die Sicherheitsabgrenzungsgraphik 328 (oder ein Abschnitt derselben) nur erscheinen, wenn eine gefährliche Situation detektiert wird. Das heißt, dass bei einigen Beispielen keine Sicherheitsabgrenzungsgraphik 328, dargestellt auf den Benutzerschnittstellen 300, 400, anzeigt, dass aktuell bestimmt wird, dass sich das Fahrzeug 100 in einer sicheren Situation befindet. Bei einigen Beispielen kann, anstatt das Erscheinungsbild einer Sicherheitsabgrenzungsgraphik 328, die die Ego-Fahrzeug-Graphik 322 umgibt, zu verändern, das Erscheinungsbild der Ego-Fahrzeug-Graphik 322 (oder eines Abschnitts derselben) sein Erscheinungsbild ändern (z.B. die Farbe ändern), um anzuzeigen, dass eine gefährliche Situation detektiert wird.
  • Wie vorangehend beschrieben wurde, basiert die Bestimmung einer gefährlichen Situation bei einigen Beispielen auf einer Analyse der Sicherheitsregeln, die dem in dem Speicher 216 gespeicherten RSS-Modell zugeordnet sind. Das RSS-Modell arbeitet in einem situationsbasierten Koordinatensystem, das aus kartesischen Koordinaten übersetzt wird, was nicht direkt der Sicherheitsabgrenzungsgraphik 328 in einer Ringform, wie in den dargestellten Beispielen gezeigt, entspricht. Dementsprechend identifiziert der Benutzerschnittstellengenerator 220 bei einigen Beispielen zum korrekten Rendern des Ortes einer gefährlichen Situation auf dem Ring durch Modifizieren eines relevanten Abschnitts der Sicherheitsabgrenzungsgraphik die in der umgebenden Umgebung detektierten Objekte, die die gefährliche Situation verursachen (z. B. andere Fahrzeuge, die weniger als die durch die RSS-Modellregeln definierten Sicherheitsabstände aufweisen), und führt eine Projektion zweiter Ordnung der Orte der Objekte auf die Sicherheitsabgrenzungsgraphik 328 aus. Die Projektion zweiter Ordnung ermöglicht es, die Seiten- und Längsabstände eines detektierten Objekts (z.B. eines in der Nähe befindlichen Fahrzeugs) auf dem Ring der Sicherheitsabgrenzungsgraphik 328 zu kennzeichnen, um den einen oder die mehreren Abschnitte der Graphik 328 zu identifizieren, die ausgebildet sind, ihr Erscheinungsbild zu ändern (z.B. die Farbe zu ändern). Dies ist in 5 schematisch dargestellt. Eine beispielhafte Methodik zum Berechnen dieser Projektion zweiter Ordnung wird in Hu et al., „A second order algorithm for orthogonal projection onto curves and surfaces“, Elsevier Science, 14. Februar 2005, 11 Seiten, dargestellt, das hierin durch Bezugnahme vollständig aufgenommen ist.
  • 5 ist ein Diagramm, das eine Projektion zweiter Ordnung eines Punktes (p) auf eine Tangentialebene einer gekrümmten Oberfläche bei Punkt p0 basierend auf Gleichung 3 darstellt: q p 0 = s 1 Δ u 1 + s 2 Δ u 2
    Figure DE102020120663A1_0003
    wobei Δu1 und Δu2 als Lösung eines regulären Systems linearer Gleichungen berechnet werden können. Gleichung 3 kann mit irgendeiner geeigneten Genauigkeit gelöst werden. Bei einigen Beispielen kann die Genauigkeit und/oder Granularität der Berechnungen relativ niedrig sein, um die Berechnungskomplexität zu reduzieren, da der Zweck solcher Berechnungen nicht den Betrieb und/oder die Sicherheit des Fahrzeugs beeinträchtigt, sondern sie lediglich ausgebildet sind, dem/den Insassen eine visuelle Darstellung einer gefährlichen Situation bereitzustellen, die schnell und leicht verstanden werden kann. Obwohl Gleichung 3 ausgewertet werden kann, um die Projektion zweiter Ordnung zu bestimmen, kann diese Transformation alternativ auch mit irgendeinem anderen geeigneten Verfahren ausgeführt werden.
  • Bei einigen Beispielen werden Benutzerschnittstellen, die durch den Benutzerschnittstellengenerator 220 gerendert werden, an das Insassenschnittstellensystem 110 (über die Insassenkommunikationsschnittstelle 206) zur Anzeige auf dem zugeordneten Anzeigebildschirm 112 bereitgestellt. Obwohl der Benutzerschnittstellengenerator 220 als Teil der beispielhaften Steuerung 102 gezeigt und beschrieben wird, kann bei einigen Beispielen der Benutzerschnittstellengenerator 220 und/oder ein Teil seiner Funktionalität zusätzlich oder alternativ direkt durch das Insassenschnittstellensystem 110 implementiert werden.
  • Bei einigen Beispielen wird die Steuerung 102 mit dem Insassenschnittstellensystem 110 kombiniert. Bei einigen solcher Beispiele sind sowohl die Steuerung 102 als auch das Insassenschnittstellensystem 110 in das Fahrzeug 100 integriert und/oder eingebaut. Bei anderen Beispielen werden sowohl die Steuerung 102 als auch das Insassenschnittstellensystem 110 durch eine tragbare Rechenvorrichtung (z. B. ein Smartphone, ein Tablet, ein Laptop usw.) implementiert, die von dem Fahrzeug 100 getrennt ist. Bei einigen Beispielen sind eines oder mehrere der Elemente der in 2 gezeigten Steuerung 102 durch eine von dem Fahrzeug getrennte tragbare Rechenvorrichtung implementiert, während andere Elemente der Steuerung 102 in das Fahrzeug 100 integriert sind. Ferner können bei einigen Beispielen einige oder alle Elemente der Steuerung 102 und/oder ihre zugeordneten Funktionalitäten sowohl in dem Fahrzeug 100 als auch in einer separaten tragbaren Rechenvorrichtung (z. B. einem Smartphone, einem Tablet, einem Laptop usw.) dupliziert werden.
  • Während eine beispielhafte Art der Implementierung der beispielhaften Steuerung 102 von 1 in 2 dargestellt ist, können ein oder mehrere der Elemente, Prozesse und/oder Vorrichtungen, die in 2 dargestellt sind, auf irgendeine andere Weise kombiniert, geteilt, neu angeordnet, weggelassen, eliminiert und/oder implementiert werden. Ferner können die beispielhafte Sensor-Kommunikationsschnittstelle 202, die beispielhafte entfernte Kommunikationsschnittstelle 204, die beispielhafte Insassen-Kommunikationsschnittstelle 206, der beispielhafte Umgebungsanalysator 208, der beispielhafte Navigationsanalysator 210, der beispielhafte Fahrzeugsystemanalysator 212, der beispielhafte Sicherheitsanalysator 214, der beispielhafte Speicher 216, die beispielhafte Betriebssteuerung 218, der beispielhafte Benutzerschnittstellengenerator 220, und/oder die beispielhafte Steuerung 102 von 1 durch Hardware, Software, Firmware und/oder irgendeine Kombination von Hardware, Software und/oder Firmware implementiert werden. Somit könnten zum Beispiel irgendwelche von der beispielhaften Sensor-Kommunikationsschnittstelle 202, der beispielhaften entfernten Kommunikationsschnittstelle 204, der beispielhaften Insassen-Kommunikationsschnittstelle 206, dem beispielhaften Umgebungsanalysator 208, dem beispielhaften Navigationsanalysator 210, dem beispielhaften Fahrzeugsystemanalysator 212, dem beispielhaften Sicherheitsanalysator 214, dem beispielhaften Speicher 216, der beispielhaften Betriebssteuerung 218, dem beispielhaften Benutzerschnittstellengenerator 220, und/oder der beispielhaften Steuerung 102 durch eine oder mehrere analoge oder digitale Schaltungen, Logikschaltungen, programmierbare Prozessoren, programmierbare Steuerungen, Graphikverarbeitungseinheiten (GPU(s); graphics processing unit(s)), digitale Signalprozessoren (DSP(s); digital signal processor(s)), anwendungsspezifische integrierte Schaltungen (ASIC(s);application specific integrated circuit(s)), programmierbare Logikvorrichtungen (PLD(s); programmable logic device(s)) und/oder feldprogrammierbare Logikvorrichtungen (FPLD(s); field programmable logic device(s)) implementiert werden. Beim Lesen irgendeiner der Vorrichtungs- oder Systemansprüche dieses Patents, um eine rein software- und/oder firmware-bezogene Implementierung abzudecken, wird zumindest eines von der beispielhaften Sensor-Kommunikationsschnittstelle 202, der beispielhaften entfernten Kommunikationsschnittstelle 204, der beispielhaften Insassen-Kommunikationsschnittstelle 206, dem beispielhaften Umgebungsanalysator 208, dem beispielhaften Navigationsanalysator 210, dem beispielhaften Fahrzeugsystemanalysator 212, dem beispielhaften Sicherheitsanalysator 214, dem beispielhaften Speicher 216, der beispielhaften Betriebssteuerung 218 und/oder dem beispielhaften Benutzerschnittstellengenerator 220 hiermit ausdrücklich so definiert, dass er/sie eine nichtflüchtige computerlesbare Speicherungs- (storage) Vorrichtung oder Speicherungsplatte (z. B. einen Speicher (memory), eine DVD (digital versatile disk), eine CD (compact disk), eine Blu-Ray etc.), umfassend die Software und/oder Firmware, umfasst. Weiterhin kann die beispielhafte Steuerung 102 von 1 ein oder mehrere Elemente, Prozesse und/oder Vorrichtungen zusätzlich zu, oder anstatt, denjenigen umfassen, die in 2 dargestellt sind, und/oder kann mehr als eines von irgendwelchen oder allen der dargestellten Elemente, Prozesse und Vorrichtungen umfassen. Nach hiesigem Gebrauch umfasst der Ausdruck „in Kommunikation“, umfassend Variationen davon, direkte Kommunikation und/oder indirekte Kommunikation über eine oder mehrere Zwischenkomponenten und erfordert keine direkte physische (z.B. drahtgebundene) Kommunikation und/oder ständige Kommunikation, sondern umfasst zusätzlich selektive Kommunikation in periodischen Intervallen, geplanten Intervallen, aperiodischen Intervallen und/oder einmaligen Ereignissen.
  • Ein Flussdiagramm, das beispielhafte Hardware-Logik, maschinenlesbare Anweisungen, hardwareimplementierte Zustandsmaschinen und/oder irgendeine Kombination davon zur Implementierung der Steuerung 102 von 1 und/oder 2 darstellt, ist in 6 gezeigt. Die maschinenlesbaren Anweisungen können ein oder mehrere ausführbare Programme oder einen oder mehrere Abschnitte eines ausführbaren Programms zur Ausführung durch einen Computerprozessor und/oder eine Prozessorschaltungsanordnung wie beispielsweise den Prozessor 712 sein, der in der unten in Verbindung mit 7 erörterten Prozessorplattform 700 gezeigt ist. Das Programm kann in einer Software verkörpert sein, die auf einem nichtflüchtigen computerlesbaren Speicherungsmedium gespeichert ist, wie beispielsweise einer CD-ROM, einer Diskette, einer Festplatte, einer DVD, einer Blu-Ray oder einem dem Prozessor 712 zugeordneten Speicher, aber das gesamte Programm und/oder Teile desselben könnten alternativ durch eine andere Vorrichtung als den Prozessor 712 ausgeführt werden und/oder in einer Firmware oder dedizierter Hardware verkörpert sein. Ferner, obwohl das beispielhafte Programm unter Bezugnahme auf das in 6 dargestellte Flussdiagramm beschrieben wird, können alternativ viele andere Verfahren zur Implementierung der beispielhaften Steuerung 102 verwendet werden. Beispielsweise kann die Reihenfolge der Ausführung der Blöcke geändert werden, und/oder einige der beschriebenen Blöcke können geändert, eliminiert oder kombiniert werden. Zusätzlich oder alternativ können irgendwelche oder alle der Blöcke durch eine oder mehrere Hardware-Schaltungen (z.B. diskrete und/oder integrierte analoge und/oder digitale Schaltungsanordnung, ein FPGA, eine ASIC, einen Komparator, einen Operationsverstärker (op-amp; operational-amplifier), eine Logikschaltung etc.) implementiert werden, die strukturiert sind, um die entsprechende Operation ohne Ausführen von Software oder Firmware auszuführen. Die Prozessorschaltungsanordnung kann auf verschiedene Netzwerkstandorte und/oder lokal auf eine oder mehrere Vorrichtungen verteilt sein (z. B. ein Mehrkernprozessor in einer einzelnen Maschine, mehrere Prozessoren verteilt über ein Server-Rack usw.).
  • Die hierin beschriebenen maschinenlesbaren Anweisungen können in einem oder mehreren aus einem komprimierten Format, einem verschlüsselten Format, einem fragmentierten Format, einem kompilierten Format, einem ausführbaren Format, einem gepackagten Format etc. gespeichert werden. Maschinenlesbare Anweisungen, wie hierin beschrieben, können als Daten oder Datenstrukturen (z.B. Abschnitte von Anweisungen, Code, Code-Darstellungen etc.) gespeichert werden, die zur Erzeugung, Herstellung und/oder Produktion maschinenlesbarer Anweisungen verwendet werden können. Beispielsweise können die maschinenlesbaren Anweisungen fragmentiert und auf einer oder mehreren Speicherungsvorrichtungen und/oder Rechenvorrichtungen (z.B. Servern) gespeichert sein, die an den gleichen oder verschiedenen Standorten eines Netzwerks oder einer Sammlung von Netzwerken (z.B. in der Cloud, in Edge-Vorrichtungen usw.) positioniert sind. Die maschinenlesbaren Anweisungen können eines oder mehrere aus Installation, Modifikation, Anpassung, Aktualisierung, Kombination, Ergänzung, Ausbildung, Entschlüsselung, Dekomprimierung, Entpackung, Verteilung, Neuzuweisung, Kompilierung etc. erfordern, um sie direkt lesbar, interpretierbar und/oder ausführbar durch eine Rechenvorrichtung und/oder eine andere Maschine zu machen. Zum Beispiel können die maschinenlesbaren Anweisungen in mehreren Teilen gespeichert werden, die individuell komprimiert, verschlüsselt und auf getrennten Rechenvorrichtungen gespeichert werden, wobei die Teile, wenn sie entschlüsselt, dekomprimiert und kombiniert werden, einen Satz von ausführbaren Anweisungen bilden, die eine oder mehrere Funktionen implementieren, die zusammen ein Programm wie das hierin beschriebene bilden können.
  • Bei einem anderen Beispiel können die maschinenlesbaren Anweisungen in einem Zustand gespeichert sein, in dem sie durch eine Prozessorschaltungsanordnung gelesen werden können, aber die Hinzufügung einer Bibliothek (z.B. einer Dynamic Link Library (DLL)), eines Software Development Kit (SDK), einer Anwendungs-Programmierungs-Schnittstelle (API; application programming interface) etc. erfordern, um die Anweisungen auf einer bestimmten Rechenvorrichtung oder einer anderen Vorrichtung auszuführen. Bei einem anderen Beispiel müssen die maschinenlesbaren Anweisungen möglicherweise konfiguriert werden (z.B. gespeicherte Einstellungen, Dateneingabe, aufgezeichnete Netzwerkadressen etc.), bevor die maschinenlesbaren Anweisungen und/oder das/die entsprechende(n) Programm(e) ganz oder teilweise ausgeführt werden können. Somit können die maschinenlesbaren Medien, wie hierin verwendet, maschinenlesbare Anweisungen und/oder Programm(e) umfassen, ungeachtet des bestimmten Formats oder Zustands der maschinenlesbaren Anweisungen und/oder Programm(e), wenn sie gespeichert oder anderweitig in Ruhe oder im Transit sind.
  • Die hierin beschriebenen maschinenlesbaren Anweisungen können durch irgendeine vergangene, gegenwärtige oder zukünftige Anweisungssprache, Skriptsprache, Programmiersprache etc. dargestellt werden. Beispielsweise können die maschinenlesbaren Anweisungen unter Verwendung von irgendeiner der folgenden Sprachen dargestellt werden: C, C++, Java, C#, Perl, Python, JavaScript, HyperText Markup Language (HTML), Structured Query Language (SQL), Swift etc.
  • Wie vorangehend erwähnt wurde, können die beispielhaften Prozesse von 6 implementiert sein unter Verwendung von ausführbaren Anweisungen (z. B. computer- und/oder maschinenlesbaren Anweisungen), die auf einem nicht-flüchtigen Computer und/oder einem maschinenlesbaren Medium wie beispielsweise einem Festplattenlaufwerk, einem Flash-Speicher, einem Nurlesespeicher, einer CD, einer DVD, einem Cache, einem Direktzugriffsspeicher und/oder irgendeiner anderen Speicherungsvorrichtung oder Speicherungsplatte, auf der Information für irgendeine Dauer (z. B. für längere Zeitperioden, permanent, für kurze Zeit, zum temporären Puffern und/oder zum Zwischenspeichern (Cachen) der Informationen) gespeichert ist, gespeichert sind. Gemäß hiesiger Verwendung ist der Begriff nichtflüchtiges computerlesbares Medium ausdrücklich so definiert, dass es irgendeine Art von computerlesbarer Speicherungsvorrichtung und/oder Speicherungsplatte umfasst und sich ausbreitende Signale ausschließt und Übertragungsmedien ausschließt.
  • „Aufweisend“ und „umfassend“ (und alle Formen und Zeitformen derselben) werden hierin so verwendet, dass sie offene Begriffe sind. Wann immer ein Anspruch irgendeine Form von „aufweisen“ oder „umfassen“ (z. B. „umfasst“, „weist auf‟, „umfassend“, „aufweisend“ etc.) als einen Oberbegriff oder innerhalb einer Anspruchsrezitation irgendeiner Art verwendet, versteht es sich, dass zusätzliche Elemente, Begriffe etc. vorhanden sein können, ohne außerhalb des Schutzbereichs des entsprechenden Anspruchs oder der Rezitation zu fallen. Gemäß hiesiger Verwendung ist, wenn der Ausdruck „zumindest“ zum Beispiel in einem Oberbegriff eines Anspruchs als Übergangsbegriff verwendet wird, er auf die gleiche Weise offen ist wie die Begriffe „umfassend“ und „aufweisend“ offen sind. Der Ausdruck „und/oder“, wenn er z.B. in einer Form wie A, B und/oder C verwendet wird, bezieht sich auf irgendeine Kombination oder Teilmenge von A, B, C wie beispielsweise (1) A allein, (2) B allein, (3) C allein, (4) A mit B, (5) A mit C, (6) B mit C und (7) A mit B und mit C. Nach hiesigem Gebrauch in dem Kontext von der Beschreibung von Strukturen, Komponenten, Gegenständen, Objekten und/oder Dingen soll sich der Ausdruck „zumindest eines von A und B“ auf Implementierungen beziehen, die irgendeines von (1) zumindest einem A, (2) zumindest einem B und (3) zumindest einem A und zumindest einem B umfassen. In ähnlicher Weise soll sich der Ausdruck „zumindest eines von A oder B“, nach hiesigem Gebrauch in dem Kontext der Beschreibung von Strukturen, Komponenten, Gegenständen, Objekten und/oder Dingen, auf Implementierungen beziehen, die irgendeines von (1) zumindest einem A, (2) zumindest einem B und (3) zumindest einem A und zumindest einem B umfassen. Nach hiesigem Gebrauch in dem Kontext der Beschreibung der Performance oder Ausführung von Prozessen, Anweisungen, Handlungen, Aktivitäten und/oder Schritten, soll sich der Ausdruck „zumindest eines von A und B“ auf Implementierungen beziehen, die irgendeines von (1) zumindest einem A, (2) zumindest einem B und (3) zumindest einem A und zumindest einem B umfassen. In ähnlicher Weise, nach hiesigem Gebrauch in dem Kontext der Beschreibung der Performance oder Ausführung von Prozessen, Anweisungen, Handlungen, Aktivitäten und/oder Schritten, soll sich der Ausdruck „zumindest eines von A oder B“ auf Implementierungen beziehen, die irgendeines von (1) zumindest einem A, (2) zumindest einem B und (3) zumindest einem A und zumindest einem B umfassen.
  • Nach hiesigem Gebrauch schließen singuläre Verweise (z.B. „einer, eine, eines“, „erste/s/r“, „zweite/s/r“ etc.) eine Pluralität nicht aus. Der Begriff „eine“ Entität bezieht sich nach hiesigem Gebrauch auf eine oder mehrere dieser Entität. Die Begriffe „ein“ (oder „eine“), „eine/r/s oder mehrere“ und „zumindest eine/r/s“ können hierin austauschbar verwendet werden. Ferner können, obwohl individuell aufgeführt, eine Mehrzahl von Mitteln, Elementen oder Verfahrenshandlungen z.B. durch eine einzelne Einheit oder Prozessor implementiert werden. Zusätzlich, obwohl individuelle Merkmale in unterschiedlichen Beispielen oder Ansprüchen umfasst sein können, können diese möglicherweise kombiniert werden, und das Umfassen in unterschiedlichen Beispielen oder Ansprüchen impliziert nicht, dass eine Kombination von Merkmalen nicht durchführbar und/oder vorteilhaft ist.
  • Das Programm von 6 beginnt bei Block 602, wo die beispielhafte Steuerung 218 das Fahrzeug 100 unter sicheren Umständen autonom steuert. Das heißt, die Betriebssteuerung 218 steuert die Operationen des autonomen Fahrzeugs, um unter Umständen, in denen keine gefährliche Situation detektiert wurde, durch die umgebende Umgebung zu einem Zielort zu navigieren. Bei Block 604 bestimmt der beispielhafte Sicherheitsanalysator 214, ob eine gefährliche Situation detektiert wurde. Wie vorangehend beschrieben wurde, detektiert der Sicherheitsanalysator 214 eine gefährliche Situation basierend auf der Verletzung einer durch das Sicherheitsmodell (z.B. das RSS-Modell) mathematisch definierten Regel für sicheres Fahren. Wenn keine gefährliche Situation detektiert wird, fährt die Steuerung zu Block 606 fort, wo der beispielhafte Benutzerschnittstellengenerator 220 eine Darstellung der aktuellen Umstände des Fahrzeugs 100 rendert, die eine Ego-Fahrzeug-Graphik 322 und eine Sicherheitsabgrenzungsgraphik 328 umfasst, die sichere Umstände anzeigt. Danach kehrt die Steuerung zu Block 602 zurück.
  • Wenn der beispielhafte Sicherheitsanalysator 214 beim Zurückkehren zu Block 604 eine gefährliche Situation detektiert, fährt die Steuerung zu Block 608 fort, wo die Betriebssteuerung 218 das Fahrzeug 100 autonom steuert, um auf die gefährliche Situation zu reagieren. Bei einigen Beispielen basiert die bestimmte Reaktion, die durch die Betriebssteuerung 218 implementiert wird, auf einer oder mehreren Regeln für sicheres Fahren, die durch das Sicherheitsmodell definiert werden, das auch die gefährliche Situation definiert. Bei Block 610 rendert der beispielhafte Benutzerschnittstellengenerator 220 eine Darstellung der aktuellen Umstände des Fahrzeugs 100, wobei ein Abschnitt der Sicherheitsabgrenzungsgraphik 328 modifiziert wird, um die gefährliche Situation anzuzeigen. Bei einigen Beispielen wird der Abschnitt der Sicherheitsabgrenzungsgraphik 328 basierend auf einer Änderung der Farbe (z.B. von blau zu rot) modifiziert. Bei einigen Beispielen wird der Ort des modifizierten Abschnitts der Sicherheitsabgrenzungsgraphik 328 basierend auf den sicheren Seiten- und/oder Längsabständen bestimmt, die verletzt wurden, um zu der gefährlichen Situation zu führen. Bei einigen Beispielen wird der bestimmte Ort des modifizierten Abschnitts der Sicherheitsabgrenzungsgraphik 328 bestimmt, indem die Koordinaten der relevanten Seiten- und/oder Längsabstände in die Form der Sicherheitsabgrenzungsgraphik 328 transformiert werden. Obwohl Block 610 als nach Block 608 auftretend gezeigt und beschrieben wird, kann bei einigen Beispielen die Implementierung der Blöcke 608 und 610 parallel ausgeführt werden.
  • Bei Block 612 bestimmt der beispielhafte Sicherheitsanalysator 214, ob die gefährliche Situation vermieden wurde. Das heißt, der Sicherheitsanalysator 214 bestimmt, dass die gefährliche Situation nicht mehr vorliegt und die Umstände des autonomen Fahrzeugs 100 zu einer sicheren Situation zurückgekehrt sind. Wenn die gefährliche Situation nicht vermieden wurde (z.B. immer noch vorliegt), kehrt die Steuerung zu Block 608 zurück. Wenn die gefährliche Situation vermieden wurde (z. B. wenn das Fahrzeug zu einer sicheren Situation zurückgekehrt ist), fährt die Steuerung zu Block 614 fort, wo der beispielhafte Benutzerschnittstellengenerator 220 eine Darstellung der aktuellen Umstände des Fahrzeugs 100 mit der Sicherheitsabgrenzungsgraphik 328, die sichere Umstände anzeigt, rendert.
  • Bei Block 616 bestimmt der beispielhafte Benutzerschnittstellengenerator 220, ob die gefährliche Situation und/oder die zugeordnete Reaktion wiedergegeben werden soll. Bei einigen Beispielen führt der Benutzerschnittstellengenerator 220 diese Bestimmung basierend darauf durch, ob eine oder mehrere Schwellen erfüllt wurden. Zum Beispiel, ob die Dauer der gefährlichen Situation eine Schwellen-Zeitperiode überschreitet, ob seit einer zuvor detektierten gefährlichen Situation eine Schwellen-Zeitperiode abgelaufen ist, ob die Reaktion des Fahrzeugs der Fahrdynamik zugeordnete Manöver umfasst, die entsprechende Schwellen erfüllen (z. B. plötzliches Bremsen, plötzliche Beschleunigung, große Abweichungen beim Lenken der Räder usw.), usw. Wenn der beispielhafte Benutzerschnittstellengenerator 220 bestimmt, die gefährliche Situation und/oder die zugeordnete Reaktion nicht wiederzugeben (z. B. die relevanten Schwellen wurden nicht erfüllt), kehrt die Steuerung zu Block 602 zurück. Wenn der beispielhafte Benutzerschnittstellengenerator 220 bestimmt, die gefährliche Situation und/oder die zugeordnete Reaktion wiederzugeben, fährt die Steuerung zu Block 618 fort.
  • Bei Block 618 wählt der beispielhafte Benutzerschnittstellengenerator 220 ein zeitliches Fenster historischer Daten für die Antwort aus. Bei einigen Beispielen kann das zeitliche Fenster eine erste Schwellen-Zeitperiode vor der Detektion der gefährlichen Situation umfassen und/oder eine zweite Schwellen-Zeitperiode nach dem Ende der gefährlichen Situation verlängern. Bei Block 620 rendert der Benutzerschnittstellengenerator 220 die erneute Wiedergabe der gefährlichen Situation und/oder der zugeordneten Reaktion. Danach kehrt die Steuerung zu Block 602 zurück. Obwohl die Wiedergabe in 6 so gezeigt und beschrieben ist, dass sie erfolgt, nachdem eine entsprechende gefährliche Situation vermieden wurde (z.B. geendet hat), kann bei einigen Beispielen der Benutzerschnittstellengenerator 220 die Wiedergabe initiieren, während die gefährliche Situation noch andauert.
  • 7 ist ein Blockdiagramm einer beispielhaften Prozessorplattform 700, die strukturiert ist, um die Anweisungen von 6 auszuführen, um die Steuerung 102 von 1 und/oder 2 zu implementieren. Die Prozessorplattform 700 kann z. B. ein Server, ein Personal-Computer, eine Workstation, eine selbstlernende Maschine (z. B. ein neuronales Netz), eine mobile Vorrichtung (z. B. ein Mobiltelefon, ein Smartphone, ein Tablet wie z. B. ein iPad™), ein persönlicher digitaler Assistent (PDA; personal digital assistant), oder irgendeine andere Art von Rechenvorrichtung sein.
  • Die Prozessorplattform 700 des dargestellten Beispiels umfasst einen Prozessor 712. Der Prozessor 712 des dargestellten Beispiels ist Hardware. Beispielsweise kann der Prozessor 712 durch eine oder mehrere integrierte Schaltungen, Logikschaltungen, Mikroprozessoren, GPUs, DSPs oder Steuerungen von irgendeiner erwünschten Familie oder Hersteller implementiert werden. Der Hardwareprozessor kann ein auf Halbleiter basierendes (z. B. Silizium-basiertes) Bauelement sein. Bei diesem Beispiel implementiert der Prozessor den beispielhaften Umgebungsanalysator 208, den beispielhaften Navigationsanalysator 210, den beispielhaften Fahrzeugsystemanalysator 212, den beispielhaften Sicherheitsanalysator 214, die beispielhafte Betriebssteuerung 218 und den beispielhaften Benutzerschnittstellengenerator 220.
  • Der Prozessor 712 des dargestellten Beispiels umfasst einen lokalen Speicher 713 (z. B. einen Cache). Der Prozessor 712 des dargestellten Beispiels ist in Kommunikation mit einem Hauptspeicher, umfassend einen flüchtigen Speicher 714 und einen nichtflüchtigen Speicher 716, über einen Bus 718. Der flüchtige Speicher 714 kann durch einen synchronen dynamischen Direktzugriffsspeicher (SDRAM; Synchronous Dynamic Random Access Memory), einen dynamischen Direktzugriffsspeicher (DRAM; Dynamic Random Access Memory), einen dynamischen RAMBUS®-Direktzugriffsspeicher (RDRAM®; RAMBUS Dynamic Random Access Memory) und/oder irgendeinen anderen Typ von Direktzugriff-Speichervorrichtung implementiert werden. Der nichtflüchtige Speicher 716 kann durch einen Flash-Speicher und/oder durch irgendeinen anderen gewünschten Typ von Speichervorrichtung implementiert sein. Zugriff auf den Hauptspeicher 714, 716 wird durch eine Speichersteuerung gesteuert.
  • Die Prozessorplattform 700 des dargestellten Beispiels umfasst auch eine Schnittstellenschaltung 720. Die Schnittstellenschaltung 720 kann durch irgendeinen Typ von Schnittstellenstandard, wie beispielsweise einer Ethernet-Schnittstelle, einen universellen seriellen Bus (USB; universal serial bus), eine Bluetooth®-Schnittstelle, eine Nahfeldkommunikations- (NFC; near field communication) Schnittstelle und/oder eine PCI-Express-Schnittstelle, implementiert werden. Bei diesem Beispiel umfasst die Schnittstellenschaltung die beispielhafte Sensor-Kommunikationsschnittstelle 202, die beispielhafte entfernte Kommunikationsschnittstelle 204 und die beispielhafte Insassen-Kommunikationsschnittstelle 206.
  • Bei dem dargestellten Beispiel sind eine oder mehrere Eingabevorrichtungen 722 mit der Schnittstellenschaltung 720 verbunden. Die Eingabevorrichtung(en) 722 erlaubt/erlauben es einem Benutzer, Daten und/oder Befehle in den Prozessor 712 einzugeben. Die eine oder die mehreren Eingabevorrichtungen können z.B. durch einen Audio-Sensor, ein Mikrophon, eine Lichtkamera (Standbild oder Video), eine Infrarotkamera, einen Radarsensor, einen LiDAR-Sensor, einen Ultraschallsensor, eine inertiale Messeinheit, einen Beschleunigungssensor, ein Gyroskop, ein Magnetometer, einen GPS- (Global Positioning System; globales Positionierungssystem) Sensor, eine Tastatur, eine Schaltfläche, eine Maus, einen Touchscreen, ein Trackpad, einen Trackball, einen Isopoint und/oder ein Spracherkennungssystem implementiert werden.
  • Eine oder mehrere Ausgabevorrichtungen 724 sind ebenfalls mit der Schnittstellenschaltung 720 des dargestellten Beispiels verbunden. Die Ausgabevorrichtungen 724 können zum Beispiel durch Anzeigevorrichtungen (z. B. eine Leuchtdiode (LED; light emitting diode), eine organische Leuchtdiode (OLED; organic light emitting diode), eine Flüssigkristallanzeige (LDC; liquid crystal display), eine Kathodenstrahlröhren-Anzeige (CRT; cathode ray tube), eine In-Place-Switching- (IPS) Anzeige, einen Touchscreen), eine Tastausgabevorrichtung, einen Drucker und/oder Lautsprecher implementiert werden. Die Schnittstellenschaltung 720 des dargestellten Beispiels umfasst somit typischerweise eine Graphiktreiberkarte, einen Graphiktreiberchip und/oder einen Graphiktreiberprozessor.
  • Die Schnittstellenschaltung 720 des dargestellten Beispiels umfasst auch eine Kommunikationsvorrichtung wie beispielsweise einen Sender, einen Empfänger, einen Sendeempfänger, ein Modem, ein privates Gateway, einen drahtlosen Zugriffspunkt und/oder eine Netzwerkschnittstelle, um den Datenaustausch mit externen Maschinen (z.B. Rechenvorrichtungen irgendeiner Art) über ein Netzwerk 726 zu ermöglichen. Die Kommunikation kann z.B. über eine Ethernet-Verbindung, eine Digitaler-Teilnehmeranschluss- (DSL; digital subscriber line) Verbindung, eine Telefonleitungsverbindung, ein Koaxialkabelsystem, ein Satellitensystem, ein drahtloses Line-of-Site-System (Line-of-site; Sichtverbindung), ein Mobiltelefonsystem etc. erfolgen.
  • Die Prozessorplattform 700 des dargestellten Beispiels umfasst auch eine oder mehrere Massenspeicherungsvorrichtungen 728 zum Speichern von Software und/oder Daten. Beispiele solcher Massenspeicherungsvorrichtungen 728 umfassen Diskettenlaufwerke, Festplattenlaufwerke, CD-Laufwerke, Blu-Ray-Laufwerke, ein redundantes Array aus unabhängigen Platten (RAID; redundant array of independent disks) und DVD-Laufwerke. Bei diesem Beispiel umfassen die Massenspeicherungsvorrichtungen 728 den beispielhaften Speicher 216.
  • Die maschinenausführbaren Anweisungen 732 von 6 können in der Massenspeicherungsvorrichtung 728, in dem flüchtigen Speicher 714, in dem nicht-flüchtigen Speicher 716 und/oder auf einem entfernbaren nicht-flüchtigen computerlesbaren Speicherungsmedium, wie beispielsweise einer CD oder DVD, gespeichert sein.
  • Ein Blockdiagramm, das eine beispielhafte Software-Vertriebsplattform 805 zum Vertrieb von Software wie beispielsweise der beispielhaften computerlesbaren Anweisungen 732 von 7 an Dritte darstellt, ist in 8 dargestellt. Die beispielhafte Software-Vertriebsplattform 805 kann durch irgendeine(n) Computerserver, Data Facility, Cloud-Service usw. implementiert werden, der/die in der Lage ist, Software zu speichern und an andere Rechenvorrichtungen zu übertragen. Die Dritten können Kunden des Unternehmens sein, das die Software-Vertriebsplattform besitzt und/oder betreibt. Zum Beispiel kann das Unternehmen, das die Software-Vertriebsplattform besitzt und/oder betreibt, ein Entwickler, ein Verkäufer und/oder ein Lizenzgeber von Software, wie beispielsweise der beispielhaften computerlesbaren Anweisungen 732 von 7, sein. Die Dritten können Verbraucher, Benutzer, Einzelhändler, OEMs usw. sein, die die Software zur Nutzung und/oder zum Weiterverkauf und/oder zur Unterlizenzierung erwerben und/oder lizenzieren. Bei dem dargestellten Beispiel umfasst die Software-Vertriebsplattform 805 einen oder mehrere Server und eine oder mehrere Speicherungsvorrichtungen. Die Speicherungsvorrichtungen speichern die computerlesbaren Anweisungen 732, die den beispielhaften computerlesbaren Anweisungen entsprechen können, die durch das Flussdiagramm von 6, wie vorangehend beschrieben, dargestellt sind. Der eine oder die mehreren Server der beispielhaften Software-Vertriebsplattform 805 sind in Kommunikation mit einem Netzwerk 810, das irgendeinem oder mehreren von dem Internet und/oder irgendeinem der vorangehend beschriebenen beispielhaften Netzwerke 108, 726 entsprechen kann. Bei einigen Beispielen reagieren der eine oder die mehreren Server auf Anfragen, die Software an eine anfragende Partei als Teil einer kommerziellen Transaktion zu übertragen. Die Zahlung für die Lieferung, den Verkauf und/oder die Lizenz der Software kann durch den einen oder die mehreren Server der Software-Vertriebsplattform und/oder über eine Dritt-Zahlungsentität gehandhabt werden. Die Server ermöglichen es Käufern und/oder Lizenzgebern, die computerlesbaren Anweisungen 732 von der Software-Vertriebsplattform 805 herunterzuladen. Beispielsweise kann die Software, die den in dem Flussdiagramm von 6 dargestellten beispielhaften computerlesbaren Anweisungen entsprechen kann, auf die beispielhafte Prozessorplattform 700 heruntergeladen werden, die ausgebildet ist, die computerlesbaren Anweisungen auszuführen, um die beispielhafte Steuerung 102 zu implementieren. Bei einigen Beispielen bieten ein oder mehrere Server der Software-Vertriebsplattform 805 periodisch Updates für die Software (z.B. die beispielhaften computerlesbaren Anweisungen 732) an, übertragen und/oder erzwingen dieselben, um sicherzustellen, dass Verbesserungen, Patches, Updates usw. verteilt und auf die Software auf den Endbenutzervorrichtungen angewendet werden.
  • Aus dem Vorstehenden wird ersichtlich, dass beispielhafte Verfahren, Vorrichtungen und Herstellungsartikel offenbart wurden, die die Steuerung eines autonomen Fahrzeugs in einer Weise ermöglichen, die bei dem/den Insassen ein erhöhtes Vertrauen in die Fähigkeit des Fahrzeugs, für die Sicherheit der Fahrgäste zu sorgen, herstellt. Insbesondere überwachen und detektieren hierin offenbarte Beispiele, wenn sich das Fahrzeug entweder in sicheren Situationen oder in gefährlichen Situationen befindet, basierend auf einer Auswertung mathematisch definierter Regeln für sicheres Fahren, die in einem Sicherheitsmodell umfasst sind. Wenn sich das Fahrzeug in einer sicheren Situation befindet, wird dies über einen oder mehrere Anzeigebildschirme für den/die Insassen graphisch dargestellt. Ebenso wird, wenn eine gefährliche Situation detektiert wurde, der auf dem Anzeigebildschirm gerenderte Inhalt aktualisiert, um das Wesen der gefährlichen Situation anzuzeigen und somit dem/den Insassen die Arten von Gefahren, die zu identifizieren das Fahrzeug in der Lage ist, zu demonstrieren. Ferner implementiert das Fahrzeug bei einigen Beispielen automatisch die richtige(n) Reaktion(en) auf die gefährlichen Situationen, bis das Fahrzeug wieder in eine sichere Situation gebracht ist. Da eine oder mehrere solche Reaktionen bei einigen Beispielen plötzlich und ohne Warnung an den/die Insassen erfolgen können, kann dem/den Insassen eine Wiedergabe der detektierten gefährlichen Situation und der entsprechenden Reaktion(en) des Fahrzeugs über den Anzeigebildschirm bereitgestellt werden, um es dem/den Insassen zu ermöglichen zu verstehen, was passiert ist, und sich zu beruhigen, da sie erfahren, warum das Fahrzeug die Aktionen ausgeführt hat, die es ausgeführt hat.
  • Beispielhafte Verfahren, Vorrichtungen, Systeme und Herstellungsartikel zum Bereitstellen von Informationen zur Unfallvermeidung an Insassen von autonomen Fahrzeugen sind hierin offenbart. Weitere Beispiele und Kombinationen daraus umfassen Folgendes:
    • Beispiel 1 umfasst eine Vorrichtung, umfassend einen Sicherheitsanalysator zum Bestimmen, dass sich ein autonom gesteuertes Fahrzeug zu einem ersten Zeitpunkt in einer sicheren Situation und zu einem zweiten Zeitpunkt in einer gefährlichen Situation befindet, wobei die gefährliche Situation bestimmt wird, wenn eine deterministisch bewertete Regel für sicheres Fahren eines Sicherheitsmodells verletzt wird, wobei die sichere Situation bestimmt wird, wenn keine deterministisch bewertete Regel für sicheres Fahren des Sicherheitsmodells verletzt wird, und einen Benutzerschnittstellengenerator zum Erzeugen von Benutzerschnittstellendaten zum Definieren von Inhalt für eine Benutzerschnittstelle, ausgebildet, über einen Bildschirm angezeigt zu werden, wobei die Benutzerschnittstelle ausgebildet ist, eine graphische Darstellung des Fahrzeugs zu umfassen, wobei die Benutzerschnittstelle ausgebildet ist, graphisch anzuzeigen, dass sich das Fahrzeug zu dem ersten Zeitpunkt in der sicheren Situation befindet, und Modifizieren der Benutzerschnittstellendaten, sodass die Benutzerschnittstelle graphisch anzeigt, dass sich das Fahrzeug zu dem zweiten Zeitpunkt in der gefährlichen Situation befindet.
    • Beispiel 2 umfasst die Vorrichtung gemäß Beispiel 1, wobei die Benutzerschnittstellendaten ausgebildet sind, zu dem zweiten Zeitpunkt eine Sicherheitsabgrenzungsgraphik zur Anzeige in der Benutzerschnittstelle zu definieren, wobei die Sicherheitsabgrenzungsgraphik ausgebildet ist, die graphische Darstellung des Fahrzeugs zu umgeben, wobei die Sicherheitsabgrenzungsgraphik ausgebildet ist, die gefährliche Situation anzuzeigen.
    • Beispiel 3 umfasst die Vorrichtung gemäß Beispiel 2, wobei die Benutzerschnittstelle ausgebildet ist, die Sicherheitsabgrenzungsgraphik, die die graphische Darstellung des Fahrzeugs zu dem ersten Zeitpunkt umgibt, zu umfassen, wobei die Sicherheitsabgrenzungsgraphik ausgebildet ist, zu dem ersten Zeitpunkt ein erstes Erscheinungsbild aufzuweisen und zu dem zweiten Zeitpunkt ein zweites Erscheinungsbild aufzuweisen, wobei das erste Erscheinungsbild ausgebildet ist, die sichere Situation anzuzeigen, und das zweite Erscheinungsbild ausgebildet ist, die gefährliche Situation anzuzeigen.
    • Beispiel 4 umfasst die Vorrichtung gemäß Beispiel 2, wobei ein erster Abschnitt der Sicherheitsabgrenzungsgraphik eine erste Farbe ist und ein zweiter Abschnitt der Sicherheitsabgrenzungsgraphik eine zweite Farbe ist, wobei ein Ort des ersten Abschnitts einer Richtung eines Objekts relativ zu dem Fahrzeug entspricht, das zur Bestimmung der gefährlichen Situation geführt hat.
    • Beispiel 5 umfasst die Vorrichtung gemäß Beispiel 4, wobei die Benutzerschnittstellen-Daten ausgebildet sind, eine graphische Darstellung des Objekts zur Anzeige in der Benutzerschnittstelle zu definieren, wobei die graphische Darstellung des Objekts relativ zu der graphischen Darstellung des Fahrzeugs basierend auf einer relativen Position des Objekts zu dem Fahrzeug in der realen Welt positioniert ist.
    • Beispiel 6 umfasst die Vorrichtung gemäß Beispiel 5, wobei die graphische Darstellung des Objekts zu dem ersten Zeitpunkt ein erstes Erscheinungsbild und zu dem zweiten Zeitpunkt ein zweites Erscheinungsbild aufweist.
    • Beispiel 7 umfasst die Vorrichtung gemäß Beispiel 1, wobei der Benutzerschnittstellengenerator ausgebildet ist, die Benutzerschnittstellendaten im Wesentlichen in Echtzeit zu modifizieren, mit der Bestimmung, dass sich das Fahrzeug zu dem ersten Zeitpunkt in der gefährlichen Situation befindet.
    • Beispiel 8 umfasst die Vorrichtung gemäß Beispiel 1, ferner umfassend Speicher zur Speicherung von Daten, die die gefährliche Situation und eine durch das Fahrzeug implementierte Reaktion zur Vermeidung der gefährlichen Situation anzeigen, wobei der Benutzerschnittstellengenerator ausgebildet ist zum Erzeugen der Benutzerschnittstellendaten, sodass die Benutzerschnittstelle eine Wiedergabe einer graphischen Darstellung der gefährlichen Situation und der Reaktion zu einem dritten Zeitpunkt nach dem zweiten Zeitpunkt umfasst, wobei die Wiedergabe auf den gespeicherten Daten basiert.
    • Beispiel 9 umfasst die Vorrichtung gemäß Beispiel 8, wobei die Benutzerschnittstelle ausgebildet ist, die Wiedergabe mehr als einmal anzuzeigen.
    • Beispiel 10 umfasst die Vorrichtung gemäß Beispiel 1, wobei die Benutzerschnittstellendaten ausgebildet sind, zumindest eine von einer akustischen Ausgabe, einer visuellen Ausgabe oder einer haptischen Ausgabe zu definieren, die ausgebildet ist, getrennt von dem auf dem Bildschirm angezeigten Inhalt erzeugt zu werden, wobei die zumindest eine der akustischen Ausgabe, der visuellen Ausgabe oder der haptischen Ausgabe ausgebildet ist, erzeugt zu werden, wenn der Sicherheitsanalysator bestimmt, dass sich das Fahrzeug in der gefährlichen Situation befindet.
    • Beispiel 11 umfasst die Vorrichtung gemäß Beispiel 1, wobei der Bildschirm in das Fahrzeug integriert ist.
    • Beispiel 12 umfasst die Vorrichtung gemäß Beispiel 1, wobei der Bildschirm einer tragbaren Rechenvorrichtung eines Insassen in dem Fahrzeug zugeordnet ist.
    • Beispiel 13 umfasst die Vorrichtung gemäß Beispiel 1, wobei der Bildschirm entfernt außerhalb des Fahrzeugs positioniert ist.
    • Beispiel 14 umfasst ein nichtflüchtiges computerlesbares Medium, umfassend Anweisungen, die bei Ausführung eine Maschine zumindest veranlassen zum Bestimmen, dass sich ein autonom gesteuertes Fahrzeug zu einem ersten Zeitpunkt in einer sicheren Situation und zu einem zweiten Zeitpunkt in einer gefährlichen Situation befindet, wobei die gefährliche Situation bestimmt wird, wenn eine deterministisch bewertete Regel für sicheres Fahren eines Sicherheitsmodells verletzt wird, wobei die sichere Situation bestimmt wird, wenn keine deterministisch bewertete Regel für sicheres Fahren des Sicherheitsmodells verletzt wird; und Erzeugen von Benutzerschnittstellendaten zum Definieren von Inhalt für eine Benutzerschnittstelle, ausgebildet, über einen Bildschirm angezeigt zu werden, wobei die Benutzerschnittstelle eine graphische Darstellung des Fahrzeugs umfasst, wobei die Benutzerschnittstelle ausgebildet ist, graphisch anzuzeigen, dass sich das Fahrzeug zu dem ersten Zeitpunkt in der sicheren Situation befindet, und Modifizieren der Benutzerschnittstellendaten, sodass die Benutzerschnittstelle graphisch anzeigt, dass sich das Fahrzeug zu dem zweiten Zeitpunkt in der gefährlichen Situation befindet.
    • Beispiel 15 umfasst das nichtflüchtige computerlesbare Medium gemäß Beispiel 14, wobei die Benutzerschnittstellendaten ausgebildet sind, zu dem zweiten Zeitpunkt eine Sicherheitsabgrenzungsgraphik zur Anzeige in der Benutzerschnittstelle zu definieren, wobei die Sicherheitsabgrenzungsgraphik ausgebildet ist, die graphische Darstellung des Fahrzeugs zu umgeben, wobei die Sicherheitsabgrenzungsgraphik ausgebildet ist, die gefährliche Situation anzuzeigen.
    • Beispiel 16 umfasst das nichtflüchtige computerlesbare Medium gemäß Beispiel 15, wobei die Benutzerschnittstelle ausgebildet ist, die Sicherheitsabgrenzungsgraphik, die die graphische Darstellung des Fahrzeugs zu dem ersten Zeitpunkt umgibt, zu umfassen, wobei die Sicherheitsabgrenzungsgraphik ausgebildet ist, zu dem ersten Zeitpunkt ein erstes Erscheinungsbild aufzuweisen und zu dem zweiten Zeitpunkt ein zweites Erscheinungsbild aufzuweisen, wobei das erste Erscheinungsbild ausgebildet ist, die sichere Situation anzuzeigen, und das zweite Erscheinungsbild ausgebildet ist, die gefährliche Situation anzuzeigen.
    • Beispiel 17 umfasst das nichtflüchtige computerlesbare Medium gemäß Beispiel 15, wobei ein erster Abschnitt der Sicherheitsabgrenzungsgraphik eine erste Farbe ist und ein zweiter Abschnitt der Sicherheitsabgrenzungsgraphik eine zweite Farbe ist, wobei ein Ort des ersten Abschnitts einer Richtung eines Objekts relativ zu dem Fahrzeug entspricht, das zur Bestimmung der gefährlichen Situation geführt hat.
    • Beispiel 18 umfasst das nichtflüchtige computerlesbare Medium gemäß Beispiel 17, wobei die Benutzerschnittstellen-Daten ausgebildet sind, eine graphische Darstellung des Objekts zur Anzeige in der Benutzerschnittstelle zu definieren, wobei die graphische Darstellung des Objekts relativ zu der graphischen Darstellung des Fahrzeugs basierend auf einer relativen Position des Objekts zu dem Fahrzeug in der realen Welt positioniert ist.
    • Beispiel 19 umfasst das nichtflüchtige computerlesbare Medium gemäß Beispiel 18, wobei die graphische Darstellung des Objekts zu dem ersten Zeitpunkt ein erstes Erscheinungsbild und zu dem zweiten Zeitpunkt ein zweites Erscheinungsbild aufweist.
    • Beispiel 20 umfasst das computerlesbare Medium gemäß Beispiel 14, wobei die Anweisungen ferner verursachen, dass die Maschine die Benutzerschnittstellen-daten im Wesentlichen in Echtzeit modifiziert, mit der Bestimmung, dass sich das Fahrzeug zu dem ersten Zeitpunkt in der gefährlichen Situation befindet.
    • Beispiel 21 umfasst das nichtflüchtige computerlesbare Medium gemäß Beispiel 14, wobei die Anweisungen ferner verursachen, dass die Maschine Daten, die die gefährliche Situation und eine durch das Fahrzeug implementierte Reaktion zur Vermeidung der gefährlichen Situation anzeigen, speichert und die Benutzerschnittstellendaten erzeugt, sodass die Benutzerschnittstelle eine Wiedergabe einer graphischen Darstellung der gefährlichen Situation und der Reaktion zu einem dritten Zeitpunkt nach dem zweiten Zeitpunkt umfasst, wobei die Wiedergabe auf den gespeicherten Daten basiert.
    • Beispiel 22 umfasst das nichtflüchtige computerlesbare Medium gemäß Beispiel 21, wobei die Benutzerschnittstelle ausgebildet ist, die Wiedergabe mehr als einmal anzuzeigen.
    • Beispiel 23 umfasst das nichtflüchtige computerlesbare Medium gemäß Beispiel 14, wobei die Benutzerschnittstellendaten ausgebildet sind, zumindest eine von einer akustischen Ausgabe, einer visuellen Ausgabe oder einer haptischen Ausgabe zu definieren, die ausgebildet ist, getrennt von dem auf dem Bildschirm angezeigten Inhalt erzeugt zu werden, wobei die zumindest eine der akustischen Ausgabe, der visuellen Ausgabe oder der haptischen Ausgabe ausgebildet ist, ansprechend auf die Bestimmung, dass sich das Fahrzeug in der gefährlichen Situation befindet, erzeugt zu werden.
    • Beispiel 24 umfasst ein Verfahren, umfassend ein Bestimmen, durch Ausführen einer Anweisung mit einem Prozessor, dass sich ein autonom gesteuertes Fahrzeug zu einem ersten Zeitpunkt in einer sicheren Situation und zu einem zweiten Zeitpunkt in einer gefährlichen Situation befindet, wobei die gefährliche Situation bestimmt wird, wenn eine deterministisch bewertete Regel für sicheres Fahren eines Sicherheitsmodells verletzt wird, wobei die sichere Situation bestimmt wird, wenn keine deterministisch bewertete Regel für sicheres Fahren des Sicherheitsmodells verletzt wird; und Erzeugen, durch Ausführen einer Anweisung mit dem Prozessor, von Benutzerschnittstellendaten zum Definieren von Inhalt für eine Benutzerschnittstelle, ausgebildet, über einen Bildschirm angezeigt zu werden, wobei die Benutzerschnittstelle eine graphische Darstellung des Fahrzeugs umfasst, wobei die Benutzerschnittstelle ausgebildet ist, graphisch anzuzeigen, dass sich das Fahrzeug zu dem ersten Zeitpunkt in der sicheren Situation befindet, und Modifizieren, durch Ausführen einer Anweisung mit dem Prozessor, der Benutzerschnittstellendaten, sodass die Benutzerschnittstelle graphisch anzeigt, dass sich das Fahrzeug zu dem zweiten Zeitpunkt in der gefährlichen Situation befindet.
    • Beispiel 25 umfasst das Verfahren gemäß Beispiel 24, wobei die Benutzerschnittstellendaten ausgebildet sind, zu dem zweiten Zeitpunkt eine Sicherheitsabgrenzungsgraphik zur Anzeige in der zu umgebenden Benutzerschnittstelle zu definieren, die Sicherheitsabgrenzungsgraphik die graphische Darstellung des Fahrzeugs, wobei die Sicherheitsabgrenzungsgraphik ausgebildet ist, die gefährliche Situation anzuzeigen.
    • Beispiel 26 umfasst das Verfahren gemäß Beispiel 25, wobei die Benutzerschnittstelle ausgebildet ist, die Sicherheitsabgrenzungsgraphik, die die graphische Darstellung des Fahrzeugs zu dem ersten Zeitpunkt umgibt, zu umfassen, wobei die Sicherheitsabgrenzungsgraphik ausgebildet ist, zu dem ersten Zeitpunkt ein erstes Erscheinungsbild aufzuweisen und zu dem zweiten Zeitpunkt ein zweites Erscheinungsbild aufzuweisen, wobei das erste Erscheinungsbild ausgebildet ist, die sichere Situation anzuzeigen, und das zweite Erscheinungsbild ausgebildet ist, die gefährliche Situation anzuzeigen.
    • Beispiel 27 umfasst das Verfahren gemäß Beispiel 25, wobei ein erster Abschnitt der Sicherheitsabgrenzungsgraphik eine erste Farbe ist und ein zweiter Abschnitt der Sicherheitsabgrenzungsgraphik eine zweite Farbe ist, wobei ein Ort des ersten Abschnitts einer Richtung eines Objekts relativ zu dem Fahrzeug entspricht, das zur Bestimmung der gefährlichen Situation geführt hat. Beispiel 28 umfasst das Verfahren gemäß Beispiel 27, wobei die Benutzerschnittstellen-Daten ausgebildet sind, eine graphische Darstellung des Objekts zur Anzeige in der Benutzerschnittstelle zu definieren, wobei die graphische Darstellung des Objekts relativ zu der graphischen Darstellung des Fahrzeugs basierend auf einer relativen Position des Objekts zu dem Fahrzeug in der realen Welt positioniert ist.
    • Beispiel 29 umfasst das Verfahren gemäß Beispiel 28, wobei die graphische Darstellung des Objekts zu dem ersten Zeitpunkt ein erstes Erscheinungsbild und zu dem zweiten Zeitpunkt ein zweites Erscheinungsbild aufweist.
    • Beispiel 30 umfasst das Verfahren gemäß Beispiel 24, ferner umfassend ein Modifizieren der Benutzerschnittstellendaten im Wesentlichen in Echtzeit, mit der Bestimmung, dass sich das Fahrzeug zu dem ersten Zeitpunkt in der gefährlichen Situation befindet.
    • Beispiel 31 umfasst das Verfahren gemäß Beispiel 24, ferner umfassend Speicherung von Daten, die die gefährliche Situation und eine durch das Fahrzeug implementierte Reaktion zur Vermeidung der gefährlichen Situation anzeigen, und Erzeugen der Benutzerschnittstellendaten, sodass die Benutzerschnittstelle eine Wiedergabe einer graphischen Darstellung der gefährlichen Situation und der Reaktion zu einem dritten Zeitpunkt nach dem zweiten Zeitpunkt umfasst, wobei die Wiedergabe auf den gespeicherten Daten basiert.
    • Beispiel 32 umfasst das Verfahren gemäß Beispiel 31, wobei die Benutzerschnittstelle ausgebildet ist, die Wiedergabe mehr als einmal anzuzeigen.
    • Beispiel 33 umfasst das Verfahren gemäß Beispiel 24, wobei die Benutzerschnittstellendaten ausgebildet sind, zumindest eine von einer akustischen Ausgabe, einer visuellen Ausgabe oder einer haptischen Ausgabe zu definieren, die ausgebildet ist, getrennt von dem auf dem Bildschirm angezeigten Inhalt erzeugt zu werden, wobei die zumindest eine der akustischen Ausgabe, der visuellen Ausgabe oder der haptischen Ausgabe ausgebildet ist, ansprechend auf die Bestimmung, dass sich das Fahrzeug in der gefährlichen Situation befindet, erzeugt zu werden.
  • Obgleich bestimmte beispielhafte Verfahren, Vorrichtungen und Fertigungsartikel hierin offenbart wurden, ist der Schutzbereich der Abdeckung dieses Patents nicht darauf beschränkt. Vielmehr deckt dieses Patent alle Verfahren, Vorrichtungen und Fertigungsartikel ab, die einigermaßen in den Schutzbereich der Ansprüche dieses Patents fallen.
  • Die folgenden Ansprüche sind hiermit in diese detaillierte Beschreibung aufgenommen, wobei jeder Anspruch als getrenntes Ausführungsbeispiel der vorliegenden Offenbarung für sich steht.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Nicht-Patentliteratur
    • Shalev-Shwartz et al., „On a Formal Model of Safe and Scalable Self-driving Cars“, Mobileye, 2017 [0029]

Claims (24)

  1. Eine Vorrichtung, umfassend: einen Sicherheitsanalysator zum Bestimmen, dass sich ein autonom gesteuertes Fahrzeug zu einem ersten Zeitpunkt in einer sicheren Situation und zu einem zweiten Zeitpunkt in einer gefährlichen Situation befindet, wobei die gefährliche Situation bestimmt wird, wenn eine bewertete Regel für sicheres Fahren eines Sicherheitsmodells verletzt wird, wobei die sichere Situation bestimmt wird, wenn keine bewertete Regel für sicheres Fahren des Sicherheitsmodells verletzt wird, und einen Benutzerschnittstellengenerator zum: Erzeugen von Benutzerschnittstellendaten zum Definieren von Inhalt für eine Benutzerschnittstelle, ausgebildet, über einen Bildschirm angezeigt zu werden, wobei die Benutzerschnittstelle ausgebildet ist, eine graphische Darstellung des Fahrzeugs zu umfassen, wobei die Benutzerschnittstelle ausgebildet ist, graphisch anzuzeigen, dass sich das Fahrzeug zu dem ersten Zeitpunkt in der sicheren Situation befindet, und Modifizieren der Benutzerschnittstellendaten, sodass die Benutzerschnittstelle graphisch anzeigt, dass sich das Fahrzeug zu dem zweiten Zeitpunkt in der gefährlichen Situation befindet.
  2. Die Vorrichtung gemäß Anspruch 1, wobei die Benutzerschnittstellen-daten ausgebildet sind, zu dem zweiten Zeitpunkt eine Sicherheitsabgrenzungsgraphik zur Anzeige in der Benutzerschnittstelle zu definieren, wobei die Sicherheitsabgrenzungsgraphik ausgebildet ist, die graphische Darstellung des Fahrzeugs zu umgeben, wobei die Sicherheitsabgrenzungsgraphik ausgebildet ist, die gefährliche Situation anzuzeigen.
  3. Die Vorrichtung gemäß Anspruch 2, wobei die Benutzerschnittstelle ausgebildet ist, die Sicherheitsabgrenzungsgraphik, die die graphische Darstellung des Fahrzeugs zu dem ersten Zeitpunkt umgibt, zu umfassen, wobei die Sicherheitsabgrenzungsgraphik ausgebildet ist, zu dem ersten Zeitpunkt ein erstes Erscheinungsbild aufzuweisen und zu dem zweiten Zeitpunkt ein zweites Erscheinungsbild aufzuweisen, wobei das erste Erscheinungsbild ausgebildet ist, die sichere Situation anzuzeigen, und das zweite Erscheinungsbild ausgebildet ist, die gefährliche Situation anzuzeigen.
  4. Die Vorrichtung gemäß Anspruch 2 oder 3, wobei ein erster Abschnitt der Sicherheitsabgrenzungsgraphik eine erste Farbe ist und ein zweiter Abschnitt der Sicherheitsabgrenzungsgraphik eine zweite Farbe ist, wobei ein Ort des ersten Abschnitts einer Richtung eines Objekts relativ zu dem Fahrzeug entspricht, das zur Bestimmung der gefährlichen Situation geführt hat.
  5. Die Vorrichtung gemäß Anspruch 4, wobei die BenutzerschnittstellenDaten ausgebildet sind, eine graphische Darstellung des Objekts zur Anzeige in der Benutzerschnittstelle zu definieren, wobei die graphische Darstellung des Objekts relativ zu der graphischen Darstellung des Fahrzeugs basierend auf einer relativen Position des Objekts zu dem Fahrzeug in der realen Welt positioniert ist.
  6. Die Vorrichtung gemäß Anspruch 5, wobei die graphische Darstellung des Objekts zu dem ersten Zeitpunkt ein erstes Erscheinungsbild und zu dem zweiten Zeitpunkt ein zweites Erscheinungsbild aufweist.
  7. Die Vorrichtung gemäß einem der Ansprüche 1-6, wobei der Benutzerschnittstellengenerator ausgebildet ist, die Benutzerschnittstellendaten im Wesentlichen in Echtzeit zu modifizieren, mit der Bestimmung, dass sich das Fahrzeug zu dem ersten Zeitpunkt in der gefährlichen Situation befindet.
  8. Die Vorrichtung gemäß einem der Ansprüche 1-7, ferner umfassend Speicher zur Speicherung von Daten, die die gefährliche Situation und eine durch das Fahrzeug implementierte Reaktion zur Vermeidung der gefährlichen Situation anzeigen, wobei der Benutzerschnittstellengenerator ausgebildet ist, die Benutzerschnittstellendaten zu erzeugen, sodass die Benutzerschnittstelle eine Wiedergabe einer graphischen Darstellung der gefährlichen Situation und der Reaktion zu einem dritten Zeitpunkt nach dem zweiten Zeitpunkt umfasst, wobei die Wiedergabe auf den gespeicherten Daten basiert.
  9. Die Vorrichtung gemäß Anspruch 8, wobei die Benutzerschnittstelle ausgebildet ist, die Wiedergabe mehr als einmal anzuzeigen.
  10. Die Vorrichtung gemäß einem der Ansprüche 1-9, wobei die Benutzerschnittstellendaten ausgebildet sind, zumindest eine von einer akustischen Ausgabe, einer visuellen Ausgabe oder einer haptischen Ausgabe zu definieren, die ausgebildet ist, getrennt von dem auf dem Bildschirm angezeigten Inhalt erzeugt zu werden, wobei die zumindest eine der akustischen Ausgabe, der visuellen Ausgabe oder der haptischen Ausgabe ausgebildet ist, erzeugt zu werden, wenn der Sicherheitsanalysator bestimmt, dass sich das Fahrzeug in der gefährlichen Situation befindet.
  11. Die Vorrichtung gemäß einem der Ansprüche 1-10, wobei der Bildschirm in das Fahrzeug integriert ist.
  12. Die Vorrichtung gemäß einem der Ansprüche 1-11, wobei der Bildschirm einer tragbaren Rechenvorrichtung eines Insassen in dem Fahrzeug zugeordnet ist.
  13. Die Vorrichtung gemäß einem der Ansprüche 1-12, wobei der Bildschirm entfernt außerhalb des Fahrzeugs positioniert ist.
  14. Ein computerlesbares Medium, umfassend Anweisungen, die bei Ausführung eine Maschine zumindest veranlassen zum: Bestimmen, dass sich ein autonom gesteuertes Fahrzeug zu einem ersten Zeitpunkt in einer sicheren Situation und zu einem zweiten Zeitpunkt in einer gefährlichen Situation befindet, wobei die gefährliche Situation bestimmt wird, wenn eine bewertete Regel für sicheres Fahren eines Sicherheitsmodells verletzt wird, wobei die sichere Situation bestimmt wird, wenn keine bewertete Regel für sicheres Fahren des Sicherheitsmodells verletzt wird, und Erzeugen von Benutzerschnittstellendaten, um Inhalt für eine Benutzerschnittstelle zu definieren, der ausgebildet ist, über einen Bildschirm angezeigt zu werden, wobei die Benutzerschnittstelle eine graphische Darstellung des Fahrzeugs umfasst, wobei die Benutzerschnittstelle ausgebildet ist, graphisch anzuzeigen, dass sich das Fahrzeug zu dem ersten Zeitpunkt in der sicheren Situation befindet, und Modifizieren der Benutzerschnittstellendaten, sodass die Benutzerschnittstelle graphisch anzeigt, dass sich das Fahrzeug zu dem zweiten Zeitpunkt in der gefährlichen Situation befindet.
  15. Das computerlesbare Medium gemäß Anspruch 14, wobei die Benutzerschnittstellendaten ausgebildet sind, zu dem zweiten Zeitpunkt eine Sicherheitsabgrenzungsgraphik zur Anzeige in der Benutzerschnittstelle zu definieren, wobei die Sicherheitsabgrenzungsgraphik ausgebildet ist, die graphische Darstellung des Fahrzeugs zu umgeben, wobei die Sicherheitsabgrenzungsgraphik ausgebildet ist, die gefährliche Situation anzuzeigen.
  16. Das computerlesbare Medium gemäß Anspruch 15, wobei die Benutzerschnittstelle ausgebildet ist, die Sicherheitsabgrenzungsgraphik, die die graphische Darstellung des Fahrzeugs zu dem ersten Zeitpunkt umgibt, zu umfassen, wobei die Sicherheitsabgrenzungsgraphik ausgebildet ist, zu dem ersten Zeitpunkt ein erstes Erscheinungsbild aufzuweisen und zu dem zweiten Zeitpunkt ein zweites Erscheinungsbild aufzuweisen, wobei das erste Erscheinungsbild ausgebildet ist, die sichere Situation anzuzeigen, und das zweite Erscheinungsbild ausgebildet ist, die gefährliche Situation anzuzeigen.
  17. Das computerlesbare Medium gemäß einem der Ansprüche 15 oder 16, wobei ein erster Abschnitt der Sicherheitsabgrenzungsgraphik eine erste Farbe ist und ein zweiter Abschnitt der Sicherheitsabgrenzungsgraphik eine zweite Farbe ist, wobei ein Ort des ersten Abschnitts einer Richtung eines Objekts relativ zu dem Fahrzeug entspricht, das zur Bestimmung der gefährlichen Situation geführt hat.
  18. Das computerlesbare Medium gemäß Anspruch 17, wobei die Benutzerschnittstellendaten ausgebildet sind, eine graphische Darstellung des Objekts zur Anzeige in der Benutzerschnittstelle zu definieren, wobei die graphische Darstellung des Objekts relativ zu der graphischen Darstellung des Fahrzeugs basierend auf einer relativen Position des Objekts zu dem Fahrzeug in der realen Welt positioniert ist.
  19. Das computerlesbare Medium gemäß Anspruch 18, wobei die graphische Darstellung des Objekts zu dem ersten Zeitpunkt ein erstes Erscheinungsbild und zu dem zweiten Zeitpunkt ein zweites Erscheinungsbild aufweist.
  20. Das computerlesbare Medium gemäß einem der Ansprüche 14-19, wobei die Anweisungen ferner verursachen, dass die Maschine die Benutzerschnittstellendaten im Wesentlichen in Echtzeit modifiziert, mit der Bestimmung, dass sich das Fahrzeug zu dem ersten Zeitpunkt in der gefährlichen Situation befindet.
  21. Das computerlesbare Medium gemäß einem der Ansprüche 14-20, wobei die Anweisungen ferner die Maschine veranlassen zum: Speichern von Daten, die die gefährliche Situation und eine durch das Fahrzeug implementierte Reaktion zur Vermeidung der gefährlichen Situation anzeigen; und Erzeugen der Benutzerschnittstellendaten, sodass die Benutzerschnittstelle eine Wiedergabe einer graphischen Darstellung der gefährlichen Situation und der Reaktion zu einem dritten Zeitpunkt nach dem zweiten Zeitpunkt umfasst, wobei die Wiedergabe auf den gespeicherten Daten basiert.
  22. Ein Verfahren, umfassend: Bestimmen, durch Ausführen einer Anweisung mit einem Prozessor, dass sich ein autonom gesteuertes Fahrzeug zu einem ersten Zeitpunkt in einer sicheren Situation und zu einem zweiten Zeitpunkt in einer gefährlichen Situation befindet, wobei die gefährliche Situation bestimmt wird, wenn eine bewertete Regel für sicheres Fahren eines Sicherheitsmodells verletzt wird, wobei die sichere Situation bestimmt wird, wenn keine bewertete Regel für sicheres Fahren des Sicherheitsmodells verletzt wird; Erzeugen, durch Ausführen einer Anweisung mit dem Prozessor, von Benutzerschnittstellendaten, um Inhalt für eine Benutzerschnittstelle zu definieren, die ausgebildet, über einen Bildschirm angezeigt zu werden, wobei die Benutzerschnittstelle eine graphische Darstellung des Fahrzeugs umfasst, wobei die Benutzerschnittstelle ausgebildet ist, graphisch anzuzeigen, dass sich das Fahrzeug zu dem ersten Zeitpunkt in der sicheren Situation befindet, und Modifizieren, durch Ausführen einer Anweisung mit dem Prozessor, der Benutzerschnittstellendaten, sodass die Benutzerschnittstelle graphisch anzeigt, dass sich das Fahrzeug zu dem zweiten Zeitpunkt in der gefährlichen Situation befindet.
  23. Das Verfahren gemäß Anspruch 22, wobei die Benutzerschnittstellendaten ausgebildet sind, zu dem zweiten Zeitpunkt eine Sicherheitsabgrenzungsgraphik zur Anzeige in der zu umgebenden Benutzerschnittstelle zu definieren, die Sicherheitsabgrenzungsgraphik die graphische Darstellung des Fahrzeugs, wobei die Sicherheitsabgrenzungsgraphik ausgebildet ist, die gefährliche Situation anzuzeigen.
  24. Das Verfahren gemäß einem der Ansprüche 22 oder 23, ferner umfassend: Speichern von Daten, die die gefährliche Situation und eine durch das Fahrzeug implementierte Reaktion zur Vermeidung der gefährlichen Situation anzeigen; und Erzeugen der Benutzerschnittstellendaten, sodass die Benutzerschnittstelle eine Wiedergabe einer graphischen Darstellung der gefährlichen Situation und der Reaktion zu einem dritten Zeitpunkt nach dem zweiten Zeitpunkt umfasst, wobei die Wiedergabe auf den gespeicherten Daten basiert.
DE102020120663.1A 2019-09-27 2020-08-05 Verfahren und Vorrichtung zum Bereitstellen von Unfallvermeidungs-Informationen an Insassen von autonomen Fahrzeugen Pending DE102020120663A1 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201962907181P 2019-09-27 2019-09-27
US62/907,181 2019-09-27
US16/888,823 US11472440B2 (en) 2019-09-27 2020-05-31 Methods and apparatus to provide accident avoidance information to passengers of autonomous vehicles
US16/888,823 2020-05-31

Publications (1)

Publication Number Publication Date
DE102020120663A1 true DE102020120663A1 (de) 2021-04-01

Family

ID=72922578

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020120663.1A Pending DE102020120663A1 (de) 2019-09-27 2020-08-05 Verfahren und Vorrichtung zum Bereitstellen von Unfallvermeidungs-Informationen an Insassen von autonomen Fahrzeugen

Country Status (3)

Country Link
US (2) US11472440B2 (de)
CN (1) CN112581786A (de)
DE (1) DE102020120663A1 (de)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10429846B2 (en) * 2017-08-28 2019-10-01 Uber Technologies, Inc. Systems and methods for communicating intent of an autonomous vehicle
US11254212B2 (en) 2019-09-09 2022-02-22 Byton North America Corporation Shifting a road view based on a speed for a vehicle
US11518402B2 (en) * 2020-02-28 2022-12-06 Nissan North America, Inc. System and method for controlling a vehicle using contextual navigation assistance
US11673548B2 (en) * 2020-09-10 2023-06-13 Ford Global Technologies, Llc Vehicle detection and response
JP7363757B2 (ja) * 2020-12-22 2023-10-18 トヨタ自動車株式会社 自動運転装置及び自動運転方法
KR20220117625A (ko) * 2021-02-17 2022-08-24 한국기술교육대학교 산학협력단 자율형 cps의 성능 자가진화를 위한 연합 강화학습 기반의 자율형 cps 자가진화 프레임워크 및 이를 이용한 자율형 cps의 성능 자가진화 방법
US20220297683A1 (en) * 2021-03-19 2022-09-22 Toyota Motor Engineering & Manufacturing North America, Inc. Vehicle guard rail system
KR20230019334A (ko) * 2021-07-30 2023-02-08 현대자동차주식회사 차량 경로 제어 장치 및 차량의 경로 제어 방법

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8676431B1 (en) * 2013-03-12 2014-03-18 Google Inc. User interface for displaying object-based indications in an autonomous driving system
US9522676B2 (en) * 2014-04-30 2016-12-20 Denso International America, Inc. Situation awareness assistant for vehicle control
FR3026708B1 (fr) * 2014-10-07 2016-11-18 Jtekt Europe Sas Securisation d'une fonction d'aide a la conduite au sein d'une direction assistee
US10134279B1 (en) * 2017-05-05 2018-11-20 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for visualizing potential risks
US10564638B1 (en) * 2017-07-07 2020-02-18 Zoox, Inc. Teleoperator situational awareness
KR102540919B1 (ko) * 2018-02-20 2023-06-07 현대자동차주식회사 차량의 주행 제어 장치 및 방법
US11561541B2 (en) * 2018-04-09 2023-01-24 SafeAI, Inc. Dynamically controlling sensor behavior
JP7155650B2 (ja) * 2018-06-21 2022-10-19 トヨタ自動車株式会社 周辺監視装置
EP4152116B1 (de) * 2018-08-02 2024-03-13 Motional AD LLC Teleoperation von autonomen fahrzeugen
US10953873B2 (en) 2019-03-29 2021-03-23 Intel Corporation Extension to safety protocols for autonomous vehicle operation
US11316928B2 (en) * 2019-06-30 2022-04-26 GM Cruise Holdings, LLC Adaptive real-time streaming for autonomous vehicles
US11279349B2 (en) 2019-09-26 2022-03-22 Intel Corporation Safety module, automated driving system, and methods thereof
EP4081759A4 (de) 2019-12-27 2023-10-25 INTEL Corporation Vorrichtung und verfahren zur routenplanung
US11815908B2 (en) 2020-03-27 2023-11-14 Mobileye Vision Technologies Ltd. Enhanced operational domain monitoring and visualization systems and methods

Also Published As

Publication number Publication date
US11472440B2 (en) 2022-10-18
US20230076098A1 (en) 2023-03-09
CN112581786A (zh) 2021-03-30
US20200339157A1 (en) 2020-10-29
US11807273B2 (en) 2023-11-07

Similar Documents

Publication Publication Date Title
DE102020120663A1 (de) Verfahren und Vorrichtung zum Bereitstellen von Unfallvermeidungs-Informationen an Insassen von autonomen Fahrzeugen
DE112018004000B4 (de) Überwachen eines fahrzeug-bedienungsrisikos unter verwendung von sensoreinheiten
DE102020100078A1 (de) Verbessern des autonomen fahrens mit empfehlung eines entfernten betrachters
Bella et al. Effects of directional auditory and visual warnings at intersections on reaction times and speed reduction times
DE102019115783A1 (de) Kollisionsverhinderung für ein verbundenes fahrzeug auf der grundlage eines digitalen verhaltenszwillings
EP3005338B1 (de) Fahrerassistenzsystem mit zusätzlichen informationen zu einer strassenkarte
DE112012006226B4 (de) Fahrassistenzvorrichtung
DE112018007027T5 (de) Abbiegewegvisualisierung zum verbessern von räumlichem und situativem bewusstsein bei abbiegemanövern
DE112017007184T5 (de) Unterstützungsvorrichtung, unterstützungsverfahren und programm
DE102017221191A1 (de) Verfahren zur Anzeige des Verlaufs einer Sicherheitszone vor einem Fahrzeug oder einem Objekt mit einer Anzeigeeinheit, Vorrichtung zur Durchführung des Verfahrens sowie Kraftfahrzeug und Computerprogramm
DE102017221643A1 (de) System und Verfahren zur Fahrzeugsteuerung unter Verwendung von Fahrzeugkommunikation
DE102018107756A1 (de) Systeme zum ausgeben eines warnsignals von einem fahrzeug, um in der nähe befindliche entitäten zu warnen
DE102015210781A1 (de) Verfahren und Steuereinheit zur Kommunikation zwischen einem autonomen Fahrzeug und einem Verkehrsteilnehmer
DE112012004781T5 (de) Versicherungsverfolgung
DE102017223360A1 (de) System und verfahren zur fahrzeugsteuerung in drängelsituationen
DE102011113019A1 (de) Verfahren zur Ermittlung und Bewertung von Gefahren einer Situation zwischen zumindest zwei Verkehrsteilnehmern in einem Straßenkreuzungsbereich und Verfahren zur Unterstützung eines Fahrers beim Führen eines Fahrzeugs
DE102017221616A1 (de) System und Verfahren für einen Einfädelassistenten unter Anwendung von Fahrzeugkommunikation
DE102013226336A1 (de) Kommunikation zwischen autonomen Fahrzeugen und Menschen
Capallera et al. Owner manuals review and taxonomy of ADAS limitations in partially automated vehicles
DE102017223364A1 (de) System und verfahren zur fahrzeugsteuerung in drängelsituationen
DE102020100024A1 (de) Verwendung von geofences zur einschränkung des fahrzeugbetriebs
Ahmed et al. Assessment of drivers’ perceptions of connected vehicle–human machine interface for driving under adverse weather conditions: Preliminary findings from Wyoming
DE102021112832A1 (de) Überflutungsanzeigevorrichtung, Überflutungsdetektionsvorrichtung, Server, Überflutungsanzeigesystem, Überflutungsanzeigeverfahren, Überflutungsdetektionsverfahren und Programm
DE102018124578A1 (de) System und verfahren zur dynamischen fahrzeuganpassung und zum -tuning
DE102019215657A1 (de) Fahrzeugsteuerungsstystem und -verfahren

Legal Events

Date Code Title Description
R081 Change of applicant/patentee

Owner name: MOBILEYE VISION TECHNOLOGIES LTD., IL

Free format text: FORMER OWNER: INTEL CORPORATION, SANTA CLARA, CALIF., US

R082 Change of representative

Representative=s name: BOEHMERT & BOEHMERT ANWALTSPARTNERSCHAFT MBB -, DE