DE102016100729A1 - Betrieb eines autonomen Fahrzeugs in Umgebungen mit blockierter Sicht - Google Patents

Betrieb eines autonomen Fahrzeugs in Umgebungen mit blockierter Sicht Download PDF

Info

Publication number
DE102016100729A1
DE102016100729A1 DE102016100729.3A DE102016100729A DE102016100729A1 DE 102016100729 A1 DE102016100729 A1 DE 102016100729A1 DE 102016100729 A DE102016100729 A DE 102016100729A DE 102016100729 A1 DE102016100729 A1 DE 102016100729A1
Authority
DE
Germany
Prior art keywords
vehicle
area
occupant
autonomous vehicle
outside
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102016100729.3A
Other languages
English (en)
Inventor
Katsuhiro Sakai
Danil V. Prokhorov
Bunyo Okumura
Naoki Nagasaka
Masahiro Harada
Nobuhide Kamata
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Engineering and Manufacturing North America Inc
Original Assignee
Toyota Motor Engineering and Manufacturing North America Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Engineering and Manufacturing North America Inc filed Critical Toyota Motor Engineering and Manufacturing North America Inc
Publication of DE102016100729A1 publication Critical patent/DE102016100729A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q9/00Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q9/00Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
    • B60Q9/008Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling for anti-collision purposes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/0097Predicting future conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/0098Details of control systems ensuring comfort, safety or stability not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0015Planning or execution of driving tasks specially adapted for safety
    • B60W60/0018Planning or execution of driving tasks specially adapted for safety by employing degraded modes, e.g. reducing speed, in response to suboptimal conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2510/00Input parameters relating to a particular sub-units
    • B60W2510/10Change speed gearings
    • B60W2510/1005Transmission ratio engaged
    • B60W2510/101Transmission neutral state
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2510/00Input parameters relating to a particular sub-units
    • B60W2510/18Braking system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2510/00Input parameters relating to a particular sub-units
    • B60W2510/20Steering systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/04Vehicle stop
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/221Physiology, e.g. weight, heartbeat, health or special needs
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/225Direction of gaze
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • B60W2554/4026Cycles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • B60W2554/4029Pedestrians
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/801Lateral distance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/802Longitudinal distance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2710/00Output or target parameters relating to a particular sub-units
    • B60W2710/10Change speed gearings
    • B60W2710/1005Transmission ratio engaged
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2710/00Output or target parameters relating to a particular sub-units
    • B60W2710/18Braking system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2710/00Output or target parameters relating to a particular sub-units
    • B60W2710/20Steering systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Business, Economics & Management (AREA)
  • Acoustics & Sound (AREA)

Abstract

Beschrieben sind Anordnungen im Zusammenhang mit dem Betrieb eines autonomen Fahrzeugs in Umgebungen mit blockierter Sicht. Mindestens ein Abschnitt einer externen Umgebung des autonomen Fahrzeugs kann abgetastet werden, um ein oder mehrere darin befindliche Objekte zu erfassen. Ein Insassensichtbereich der externen Umgebung kann bestimmt werden. Es kann bestimmt werden, ob sich eines oder mehrere des einen oder der mehreren erfassten Objekte außerhalb des bestimmten Insassensichtbereichs befinden. Als Reaktion auf die Bestimmung, dass sich ein erfasstes Objekt außerhalb des bestimmten Insassensichtbereichs befindet, können eine oder mehrere Maßnahmen ergriffen werden. Beispielsweise kann die Maßnahme das Präsentieren einer Warnung innerhalb des autonomen Fahrzeugs beinhalten. Alternativ oder zusätzlich kann die Maßnahme das Veranlassen einer Modifikation eines gegenwärtigen Fahrvorgangs des autonomen Fahrzeugs beinhalten.

Description

  • GEBIET
  • Der hierin beschriebene Gegenstand betrifft im Allgemeinen Fahrzeuge mit einem autonomen Betriebsmodus und im Besonderen den Betrieb derartiger Fahrzeuge in Abschnitten einer Fahrumgebung mit blockierter Sicht.
  • HINTERGRUND
  • Manche Fahrzeuge beinhalten einen Betriebsmodus, bei dem ein Rechnersystem verwendet wird, um das Fahrzeug mit minimaler oder keiner Eingabe eines menschlichen Fahrers entlang einer Fahrtroute zu navigieren und/oder manövrieren. Derartige Fahrzeuge beinhalten Sensoren, die ausgebildet sind, um Informationen über die umliegende Umgebung, einschließlich des Vorhandenseins von Objekten in der Umgebung, zu erfassen. Die Rechnersysteme sind zum Verarbeiten der erfassten Informationen ausgebildet, um zu bestimmen, wie das Fahrzeug durch die umliegende Umgebung zu navigieren und/oder manövrieren ist. Aus verschiedenen Gründen können zwischen dem, was ein menschlicher Insasse des Fahrzeugs in der umliegenden Umgebung wahrnehmen kann, und dem, was Fahrzeugsensoren in der umliegenden Umgebung erfassen können, Unterschiede bestehen.
  • KURZFASSUNG
  • In einem Aspekt ist die vorliegende Offenbarung auf ein Verfahren zum Betreiben eines autonomen Fahrzeugs in einer Umgebung mit blockierter Sicht gerichtet. Das Verfahren kann das Abtasten mindestens eines Abschnitts einer externen Umgebung des autonomen Fahrzeugs zum Erfassen eines oder mehrerer darin befindlicher Objekte beinhalten. Das Verfahren kann auch das Bestimmen eines Insassensichtbereichs der externen Umgebung beinhalten. Das Verfahren kann ferner das Bestimmen beinhalten, ob sich eines oder mehrere des einen oder der mehreren erfassten Objekte außerhalb des bestimmten Insassensichtbereichs befinden. Das Verfahren kann – als Reaktion auf die Bestimmung, dass sich eines oder mehrere des einen oder der mehreren erfassten Objekte außerhalb des bestimmten Insassensichtbereichs befinden – das Präsentieren einer Warnung innerhalb des autonomen Fahrzeugs beinhalten.
  • In einem anderen Aspekt ist die vorliegende Offenbarung auf ein System zum Betreiben eines autonomen Fahrzeugs in einer Umgebung mit blockierter Sicht gerichtet. Das System beinhaltet ein Sensorsystem und einen Prozessor, der mit dem Sensorsystem betriebsmäßig verbunden ist. Das Sensorsystem kann ausgebildet sein, um ein oder mehrere Objekte zu erfassen, die sich in dem mindestens einen Abschnitt einer externen Umgebung des autonomen Fahrzeugs befinden. Der Prozessor ist programmiert, um ausführbare Operationen einzuleiten. Die ausführbaren Operationen können das Bestimmen eines Insassensichtbereichs der externen Umgebung beinhalten. Die ausführbaren Operationen können auch das Bestimmen beinhalten, ob sich eines oder mehrere des einen oder der mehreren erfassten Objekte außerhalb des bestimmten Insassensichtbereichs befinden. Die ausführbaren Operationen können ferner – als Reaktion auf die Bestimmung, dass sich eines oder mehrere des einen oder der mehreren erfassten Objekte außerhalb des bestimmten Insassensichtbereichs befinden – das Präsentieren einer Warnung innerhalb des autonomen Fahrzeugs beinhalten.
  • In noch einem anderen Aspekt ist die vorliegende Offenbarung auf ein Verfahren zum Betreiben eines autonomen Fahrzeugs in einer Umgebung mit blockierter Sicht gerichtet. Das Verfahren kann das Abtasten mindestens eines Abschnitts einer externen Umgebung des autonomen Fahrzeugs zum Erfassen eines oder mehrerer darin befindlicher Objekte beinhalten. Das Verfahren kann auch das Bestimmen eines Insassensichtbereichs der externen Umgebung beinhalten. Das Verfahren kann ferner das Bestimmen beinhalten, ob sich eines oder mehrere des einen oder der mehreren erfassten Objekte außerhalb des bestimmten Insassensichtbereichs befinden. Das Verfahren kann – als Reaktion auf die Bestimmung, dass sich eines oder mehrere des einen oder der mehreren erfassten Objekte außerhalb des bestimmten Insassensichtbereichs befinden – das Veranlassen einer Modifikation eines gegenwärtigen Fahrvorgangs des autonomen Fahrzeugs beinhalten.
  • In einem weiteren Aspekt ist die vorliegende Offenbarung auf ein System zum Betreiben eines autonomen Fahrzeugs in einer Umgebung mit blockierter Sicht gerichtet. Das System beinhaltet ein Sensorsystem und einen Prozessor, der mit dem Sensorsystem betriebsmäßig verbunden ist. Das Sensorsystem kann ausgebildet sein, um ein oder mehrere Objekte, die sich in dem mindestens einen Abschnitt einer externen Umgebung des autonomen Fahrzeugs befinden, zu erfassen. Der Prozessor ist programmiert, um ausführbare Operationen einzuleiten. Die ausführbaren Operationen können das Bestimmen eines Insassensichtbereichs der externen Umgebung beinhalten. Die ausführbaren Operationen können auch das Bestimmen beinhalten, ob sich eines oder mehrere des einen oder der mehreren erfassten Objekte außerhalb des bestimmten Insassensichtbereichs befinden. Die ausführbaren Operationen können ferner – als Reaktion auf die Bestimmung, dass sich eines oder mehrere des einen oder der mehreren erfassten Objekte außerhalb des bestimmten Insassensichtbereichs befinden – das Veranlassen einer Modifikation eines gegenwärtigen Fahrvorgangs des autonomen Fahrzeugs beinhalten.
  • In noch einem anderen Aspekt ist die vorliegende Offenbarung auf ein Verfahren zum Betreiben eines autonomen Fahrzeugs in einer Umgebung mit blockierter Sicht gerichtet. Das Verfahren kann das Identifizieren eines informationsrelevanten Bereichs entlang einer gegenwärtigen Fahrtroute des Fahrzeugs beinhalten. Der informationsrelevante Bereich kann mit einem künftigen Fahrvorgang zusammenhängen. Das Verfahren kann auch das Bestimmen eines Insassensichtbereichs der externen Umgebung beinhalten. Das Verfahren kann ferner das Bestimmen beinhalten, ob sich mindestens ein Abschnitt des informationsrelevanten Bereichs außerhalb des bestimmten Insassensichtbereichs befindet. Das Verfahren kann – als Reaktion auf die Bestimmung, dass sich mindestens ein Abschnitt des informationsrelevanten Bereichs außerhalb des bestimmten Insassensichtbereichs befindet – das Veranlassen einer Modifikation eines gegenwärtigen Fahrvorgangs des autonomen Fahrzeugs beinhalten.
  • In noch einem anderen Aspekt ist die vorliegende Offenbarung auf ein System zum Betreiben eines autonomen Fahrzeugs in einer Umgebung mit blockierter Sicht gerichtet. Das System kann einen Prozessor beinhalten. Der Prozessor ist programmiert, um ausführbare Operationen einzuleiten. Die ausführbaren Operationen können das Identifizieren eines informationsrelevanten Bereichs entlang einer gegenwärtigen Fahrtroute beinhalten. Der informationsrelevante Bereich kann mit einem künftigen Fahrvorgang zusammenhängen. Die ausführbaren Operationen können auch das Bestimmen eines Insassensichtbereichs der externen Umgebung beinhalten. Die ausführbaren Operationen können ferner das Bestimmen beinhalten, ob sich mindestens ein Abschnitt des informationsrelevanten Bereichs außerhalb des bestimmten Insassensichtbereichs befindet. Die ausführbaren Operationen können auch – als Reaktion auf die Bestimmung, dass sich mindestens ein Abschnitt des informationsrelevanten Bereichs außerhalb des bestimmten Insassensichtbereichs befindet – das Veranlassen einer Modifikation eines gegenwärtigen Fahrvorgangs des autonomen Fahrzeugs beinhalten.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • 1 ist ein Beispiel eines autonomen Fahrzeugs.
  • 2 ist ein Beispiel eines Verfahrens zum Betreiben eines autonomen Fahrzeugs in einer Umgebung mit blockierter Sicht.
  • 3 ist ein Beispiel eines Verfahrens zum Betreiben eines autonomen Fahrzeugs in einer Umgebung mit blockierter Sicht.
  • 4 ist ein Beispiel einer Umgebung, in der sich ein erfasstes Objekt außerhalb eines bestimmten Insassensichtbereichs eines autonomen Fahrzeugs befindet.
  • 5 ist ein Beispiel einer Umgebung, in der sich ein erfasstes Objekt außerhalb eines bestimmten Insassensichtbereichs eines autonomen Fahrzeugs befindet.
  • 6 ist ein Beispiel einer Umgebung, in der sich ein erfasstes Objekt außerhalb eines bestimmten Insassensichtbereichs eines autonomen Fahrzeugs befindet.
  • 7 ist ein Beispiel eines Displays, das sich in einem autonomen Fahrzeug befindet, wobei eine visuelle Warnung auf dem Display präsentiert wird.
  • 8 ist ein Beispiel eines Verfahrens zum Betreiben eines autonomen Fahrzeugs in einer Umgebung mit blockierter Sicht.
  • 9 ist ein Beispiel einer Umgebung, in der sich mindestens ein Abschnitt eines informationsrelevanten Bereichs außerhalb eines bestimmten Sichtbereichs eines Insassen des autonomen Fahrzeugs befindet.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Diese ausführliche Beschreibung betrifft den Betrieb eines autonomen Fahrzeugs in Umgebungen mit blockierter Sicht. In einer oder mehreren Implementierungen kann bestimmt werden, ob sich Objekte, die durch ein Sensorsystem des autonomen Fahrzeugs erfasst werden, außerhalb eines bestimmten Insassensichtbereichs befinden. Als Reaktion auf die Bestimmung, dass sich ein Objekt außerhalb eines bestimmten Insassensichtbereichs befindet, kann das autonome Fahrzeug ausgebildet sein, um eine oder mehrere Aktionen bzw. Maßnahmen durchzuführen, einschließlich beispielsweise des Präsentierens einer Warnung innerhalb des autonomen Fahrzeugs und/oder des Veranlassens einer Modifikation eines gegenwärtigen Fahrvorgangs des autonomen Fahrzeugs. In einer oder mehreren Implementierungen kann ein informationsrelevanter Bereich entlang einer Fahrtroute identifiziert werden. Falls sich mindestens ein Abschnitt des informationsrelevanten Bereichs außerhalb eines bestimmten Insassensichtbereichs befindet, dann kann eine Modifikation eines gegenwärtigen Fahrvorgangs des autonomen Fahrzeugs veranlasst werden. Die vorliegende ausführliche Beschreibung betrifft Systeme, Verfahren und Computerprogrammprodukte, die derartige Merkmale enthalten. In zumindest einigen Fällen können solche Systeme, Verfahren und Computerprogrammprodukte das Vertrauen von Insassen in den autonomen Betrieb des Fahrzeugs verbessern.
  • Detaillierte Ausführungsformen sind hierin offenbart; jedoch sollte verstanden werden, dass die offenbarten Ausführungsformen lediglich als beispielhaft gedacht sind. Deshalb sind hierin offenbarte konkrete konstruktive und funktionelle Details nicht als einschränkend auszulegen, sondern lediglich als eine Grundlage für die Ansprüche und als eine repräsentative Grundlage, um einem Fachmann zu lehren, die Aspekte hierin in praktisch jeder geeignet detaillierten Konstruktion vielfältig einzusetzen. Ferner sind die hierin verwendeten Begriffe und Formulierungen nicht als einschränkend gedacht, sondern vielmehr dazu, eine verständliche Beschreibung von möglichen Implementierungen bereitzustellen. Verschiedene Ausführungsformen sind in den 19 gezeigt, doch sind die Ausführungsformen nicht auf die veranschaulichte Konstruktion oder Anwendung beschränkt.
  • Es versteht sich, dass der Einfachheit und Klarheit der Darstellung halber Bezugszeichen gegebenenfalls zwischen den verschiedenen Figuren wiederholt werden, um entsprechende oder analoge Elemente anzugeben. Darüber hinaus werden zahlreiche konkrete Details aufgeführt, um ein tiefgreifendes Verständnis der hierin beschriebenen Ausführungsformen zu vermitteln. Jedoch wird der Durchschnittsfachmann verstehen, dass die hierin beschriebenen Ausführungsformen ohne diese konkreten Details praktizierbar sind.
  • Unter Bezugnahme auf 1 wird ein Beispiel eines Fahrzeugs 100 aufgezeigt. Wie hierin verwendet, bedeutet „Fahrzeug” jegliche Form motorisierten Transports. In einer oder mehreren Implementierungen kann das Fahrzeug 100 ein Automobil sein. Zwar werden hierin Anordnungen in Bezug auf Automobile beschrieben, doch versteht sich, dass die Ausführungsformen nicht auf Automobile beschränkt sind. In einer oder mehreren Implementierungen kann das Fahrzeug 100 ein Wasserfahrzeug, ein Luftfahrzeug oder irgendeine andere Form motorisierten Transports sein. Das Fahrzeug 100 kann ein vorderes Ende 102 und ein hinteres Ende 104 besitzen.
  • Gemäß Anordnungen hierin kann das Fahrzeug 100 ein autonomes Fahrzeug sein. Wie hierin verwendet, bedeutet „autonomes Fahrzeug” ein Fahrzeug, das ausgebildet ist, um in einem autonomen Modus zu arbeiten. „Autonomer Modus” bedeutet, dass ein oder mehrere Rechnersysteme verwendet werden, um das Fahrzeug mit minimaler oder keiner Eingabe eines menschlichen Fahrers entlang einer Fahrtroute zu navigieren und/oder manövrieren. In einer oder mehreren Anordnungen kann das Fahrzeug 100 hochautomatisiert sein. In einigen Fällen kann das Fahrzeug 100 ausgebildet sein, um selektiv zwischen einem autonomen Modus und einem manuellen Modus geschaltet zu werden. Ein solches Schalten kann auf irgendeine derzeit bekannte oder später entwickelte geeignete Weise umgesetzt werden. „Manueller Modus” bedeutet, dass ein Großteil des Navigierens und/oder Manövrierens des Fahrzeugs entlang einer Fahrtroute durch einen menschlichen Fahrer erfolgt.
  • Das Fahrzeug 100 kann verschiedene Elemente beinhalten, von denen einige Teil eines autonomen Fahrsystems sein können. Einige der möglichen Elemente des Fahrzeugs 100 sind in 1 gezeigt und werden nun beschrieben. Es versteht sich, dass das Fahrzeug 100 nicht notwendigerweise alle der in 1 gezeigten oder hierin beschriebenen Elemente aufweisen muss. Das Fahrzeug 100 kann irgendeine Kombination der in 1 gezeigten verschiedenen Elemente aufweisen. Ferner kann das Fahrzeug 100 neben den in 1 gezeigten zusätzliche Elemente aufweisen. In einigen Anordnungen kann es sein, dass das Fahrzeug 100 eines oder mehrere der in 1 gezeigten Elemente nicht beinhaltet. Ferner sind die verschiedenen Elemente in 1 zwar als innerhalb des Fahrzeugs 100 befindlich gezeigt, doch versteht sich, dass sich eines oder mehrere dieser Elemente außerhalb des Fahrzeugs 100 befinden können. Ferner können die gezeigten Elemente durch große Abstände physisch getrennt sein.
  • Das Fahrzeug 100 kann einen oder mehrere Prozessoren 110 beinhalten. „Prozessor” bedeutet irgendeine Komponente oder Gruppe von Komponenten, die ausgebildet ist, um irgendeinen der hierin beschriebenen Prozesse oder irgendeine Form von Anweisungen zum Durchführen solcher Prozesse oder zum Durchführenlassen solcher Prozesse auszuführen. Der Prozessor 110 kann mit einem oder mehreren Universalprozessoren und/oder einem oder mehreren Spezialprozessoren implementiert sein. Beispiele für geeignete Prozessoren umfassen Mikroprozessoren, Mikrocontroller, DSP-Prozessoren und andere Schaltungsanordnungen, die Software ausführen können. Weitere Beispiele für geeignete Prozessoren umfassen, sind jedoch nicht beschränkt auf, eine zentrale Verarbeitungseinheit (CPU), einen Arrayprozessor, einen Vektorprozessor, einen digitalen Signalprozessor (DSP), eine feldprogrammierbare Gatteranordnung (FPGA), eine programmierbare logische Anordnung (PLA), eine anwendungsspezifische integrierte Schaltung (ASIC), programmierbare logische Schaltung und einen Controller. Der Prozessor 110 kann mindestens eine Hardwareschaltung (z. B. eine integrierte Schaltung) beinhalten, die ausgebildet ist, um in dem Programmcode enthaltene Anweisungen auszuführen. In Anordnungen, in denen eine Mehrzahl von Prozessoren 110 vorhanden ist, können solche Prozessoren unabhängig voneinander arbeiten, oder einer oder mehrere Prozessoren können in Kombination miteinander arbeiten. In einer oder mehreren Anordnungen kann der Prozessor 110 ein Hauptprozessor des Fahrzeugs 100 sein. Beispielsweise kann der Prozessor 110 eine Motorsteuerungseinheit (ECU) sein.
  • Das Fahrzeug 100 kann einen oder mehrere Datenspeicher 115 zum Speichern einer oder mehrerer Arten von Daten beinhalten. Der Datenspeicher 115 kann einen flüchtigen und/oder nicht flüchtigen Speicher beinhalten. Beispiele für geeignete Datenspeicher 115 umfassen RAM (Random Access Memory), Flash-Speicher, ROM (Read-Only Memory), PROM (Programmable Read-Only Memory), EPROM (Erasable Programmable Read-Only Memory), EEPROM (Electrically Erasable Programmable Read-Only Memory), Register, magnetische Platten, optische Platten, Festplatten oder irgendein anderes geeignetes Speichermedium oder irgendeine Kombination davon. Der Datenspeicher 115 kann eine Komponente des Prozessors 110 sein, oder der Datenspeicher 115 kann mit dem Prozessor 110 zur Verwendung durch diesen betriebsmäßig verbunden sein. Der Begriff „betriebsmäßig verbunden”, wie durch die gesamte Beschreibung hindurch verwendet, kann unmittelbare oder mittelbare Verbindungen beinhalten, einschließlich Verbindungen ohne unmittelbaren physischen Kontakt.
  • Das Fahrzeug 100 kann ein autonomes Fahrmodul 120 beinhalten. Das autonome Fahrmodul 120 kann als computerlesbarer Programmcode implementiert sein, der, wenn er durch einen Prozessor ausgeführt wird, einen oder mehrere der verschiedenen hierin beschriebenen Prozesse implementiert, einschließlich beispielsweise des Bestimmens einer Modifikation eines gegenwärtigen Fahrvorgangs des Fahrzeugs 100 und/oder des direkten oder indirekten Veranlassens einer Modifikation eines gegenwärtigen Fahrvorgangs des Fahrzeugs 100. Das autonome Fahrmodul 120 kann eine Komponente des Prozessors 110 sein, oder das autonome Fahrmodul 120 kann auf anderen Verarbeitungssystemen, mit denen der Prozessor 110 betriebsmäßig verbunden ist, ausgeführt werden und/oder auf diese verteilt sein.
  • Das autonome Fahrmodul 120 kann Anweisungen (z. B. Programmlogik) beinhalten, die durch den Prozessor 110 ausführbar sind. Derartige Anweisungen können Anweisungen zum Ausführen verschiedener Fahrzeugfunktionen und/oder zum Übermitteln von Daten an, Empfangen von Daten von, Zusammenwirken mit und/oder Steuern des Fahrzeugs 100 oder eines oder mehrerer Systeme davon (z. B. eines oder mehrerer von Fahrzeugsystemen 145) beinhalten. Alternativ oder zusätzlich kann der Datenspeicher 115 derartige Anweisungen enthalten.
  • Das Fahrzeug 100 kann ein Sichtanalysemodul 121 beinhalten. Das Sichtanalysemodul 121 kann als computerlesbarer Programmcode implementiert sein, der, wenn er durch einen Prozessor ausgeführt wird, einen oder mehrere der verschiedenen hierin beschriebenen Prozesse implementiert. Das Sichtanalysemodul 121 kann eine Komponente des Prozessors 110 sein, oder das Sichtanalysemodul 121 kann auf anderen Verarbeitungssystemen, mit denen der Prozessor 110 betriebsmäßig verbunden ist, ausgeführt werden und/oder auf diese verteilt sein.
  • Das Sichtanalysemodul 121 kann zum Erfassen, Analysieren, Feststellen und/oder Interpretieren von Informationen über einen Fahrzeuginsassen und/oder eine externe Umgebung des Fahrzeugs 100 ausgebildet sein, um einen Insassensichtbereich zu bestimmen. „Insassensichtbereich” bedeutet einen Abschnitt der externen Umgebung, der für einen Fahrzeuginsassen sichtbar ist. Die Bestimmung des Insassensichtbereichs kann auf einem oder mehreren Faktoren basieren, einschließlich beispielsweise der Position eines Insassen innerhalb des Fahrzeugs 100, Hindernissen in der externen Umgebung (z. B. anderen Fahrzeugen, Wetterbedingungen, etc.), Hindernissen in dem Fahrzeug (z. B. Abschnitten des Fahrzeugrahmens oder Formteilen, die das Sichtfeld blockieren, Scheibentönung, etc.), der Sitzposition (z. B. Höhe, Lage in einer Längsrichtung des Fahrzeugs, Liegeposition, etc.), Körpermaßen eines menschlichen Insassen (z. B. Größe), körperlicher Einschränkungen eines menschlichen Insassen und/oder Einschränkungen der Sinneswahrnehmungen eines menschlichen Insassen, um nur einige Möglichkeiten zu nennen. Das Körpermaß eines menschlichen Insassen, körperliche Einschränkungen eines menschlichen Insassen und/oder Einschränkungen der Sinneswahrnehmungen eines menschlichen Insassen können auf Daten eines bestimmten Menschen, eines Durchschnittsmenschen oder einem anderen Datensatz basieren.
  • In einer oder mehreren Anordnungen können die Körpermaße eines menschlichen Insassen auf tatsächlichen Maßen eines oder mehrerer Merkmale eines menschlichen Insassen basieren. Zum Beispiel können ein oder mehrere Bilder mindestens eines Abschnitts des Körpers eines menschlichen Insassen erfasst werden. Beispielsweise können ein oder mehrere Bilder mindestens eines Abschnitts des Körpers eines menschlichen Insassen durch einen Scanner, eine Kamera und/oder einen Sensor erfasst werden. Das Sichtanalysemodul 121 oder ein anderes Element kann irgendeine geeignete Körpererkennungssoftware und/oder Körperanalysesoftware beinhalten. In einer oder mehreren Anordnungen kann mindestens ein Abschnitt des Gesichts eines menschlichen Insassen erfasst werden. Gesichtserkennungs- und/oder -analysesoftware kann verwendet werden, um die Bilderfassung zu erleichtern und/oder erfasste Bilder zu analysieren. Das Analysieren der Bilder kann ein Bestimmen oder Messen eines oder mehrerer körperlicher Merkmale eines menschlichen Insassen beinhalten, wie etwa Augengröße, Pupillenabstand, Abstand zwischen den Augen, Abstand zwischen mindestens einem der Augen und einem oder mehreren anderen Gesichts- oder Körpermerkmalen, Abstand zwischen mindestens einem der Augen und einem Aufbau innerhalb des Fahrzeugs, Kopfwinkel, Augenwinkel, der vertikale Meridian in jedem Auge, der horizontale Meridian in jedem Auge, um nur einige Möglichkeiten zu nennen.
  • In einer oder mehreren Anordnungen können solche Messungen zumindest zum Teil verwendet werden, um den Insassensichtbereich zu bestimmen. In einer oder mehreren Anordnungen kann der Insassensichtbereich auch durch Einkalkulieren von Informationen/Daten über das Sichtfeld eines Menschen bestimmt werden. Beispielsweise kann in einer oder mehreren Anordnungen ein vorbestimmtes menschliches Sichtfeld einen Satz von vorbestimmten Sichtspektren beinhalten, welche auf einem bestimmten Menschen, einem Durchschnittsmenschen oder einem anderen Datensatz basieren können. Als ein Beispiel kann ein Satz vorbestimmter Sichtspektren beinhalten: etwa 60 Grad nasal (z. B. in Richtung der Nase oder nach innen) ab dem vertikalen Meridian in jedem Auge bis etwa 100 Grad temporal (z. B. weg von der Nase oder nach außen) ab dem vertikalen Meridian in jedem Auge und etwa 60 Grad über und etwa 75 Grad unter dem horizontalen Meridian jedes Auges.
  • In einer oder mehreren Anordnungen kann das Sichtanalysemodul 121 ausgebildet sein, um die tatsächlichen Sichtspektren eines menschlichen Insassen des Fahrzeugs 100 zu bestimmen oder berücksichtigen, wenn es den Insassensichtbereich bestimmt. Beispielsweise kann das Sichtanalysemodul 121 ausgebildet sein, um Informationen/Daten bezüglich eines oder mehrerer Aspekte der Sicht eines menschlichen Insassen des Fahrzeugs zu erhalten, darauf zuzugreifen und/oder diese zu empfangen. Beispielsweise kann das Sichtanalysemodul 121 ausgebildet sein, um zumindest einen partiellen Sichtfeldtest eines menschlichen Insassen des Fahrzeugs 100 durchzuführen. Alternativ oder zusätzlich kann das Sichtanalysemodul 121 Informationen/Daten oder Eingaben empfangen, die der Sicht eines menschlichen Insassen entsprechen, einschließlich Informationen/Daten betreffend etwaige medizinische Zustände, Korrekturgläser, Sehschärfe, frühere Sehtests, etc.
  • Das Sichtanalysemodul 121 kann ausgebildet sein, um den Ort eines in der externen Umgebung erfassten Objekts relativ zu dem Insassensichtbereich zu bestimmen. Insbesondere kann das Sichtanalysemodul 121 ausgebildet sein, um zu bestimmen, ob sich ein in der externen Umgebung erfasstes Objekt außerhalb des Insassensichtbereichs befindet. Alternativ oder zusätzlich kann das Sichtanalysemodul 121 ausgebildet sein, um zu bestimmen, ob sich mindestens ein Abschnitt eines informationsrelevanten Bereichs der externen Umgebung außerhalb des bestimmten Insassensichtbereichs befindet.
  • Das Sichtanalysemodul 121 kann Anweisungen (z. B. Programmlogik) beinhalten, die durch den Prozessor 110 ausführbar sind. Derartige Anweisungen können Anweisungen zum Bestimmen eines Insassensichtbereichs, zum Bestimmen des Orts eines erfassten Objekts relativ zu dem Insassensichtbereich und/oder zum Bestimmen, ob sich mindestens ein Abschnitt eines informationsrelevanten Bereichs außerhalb des bestimmten Insassensichtbereichs befindet, beinhalten. Alternativ oder zusätzlich kann der Datenspeicher 115 derartige Anweisungen enthalten.
  • Das Fahrzeug 100 kann ein Bestimmungsmodul 122 eines informationsrelevanten Bereichs beinhalten. Das Bestimmungsmodul 122 eines informationsrelevanten Bereichs kann als ein computerlesbarer Programmcode implementiert sein, der, wenn er durch einen Prozessor ausgeführt wird, die verschiedenen hierin beschriebenen Prozesse implementiert. Das Bestimmungsmodul 122 eines informationsrelevanten Bereichs kann eine Komponente des Prozessors 110 sein, oder das Bestimmungsmodul 122 eines informationsrelevanten Bereichs kann auf anderen Verarbeitungssystemen, mit denen der Prozessor 110 betriebsmäßig verbunden ist, ausgeführt werden und/oder auf diese verteilt sein.
  • Das Bestimmungsmodul 122 eines informationsrelevanten Bereichs kann ausgebildet sein, um einen informationsrelevanten Bereich entlang einer Fahrtroute des Fahrzeugs zu identifizieren. „Informationsrelevanter Bereich” bedeutet irgendeinen Abschnitt einer externen Umgebung eines Fahrzeugs, in dem darin enthaltene Informationen für einen menschlichen Fahrer relevant sind, um zu erkennen, wann ein künftiger Fahrvorgang durchzuführen ist. In diesem Zusammenhang sind mit „relevant” Informationen gemeint, die beim Bestimmen, ob das Fahrzeug einen künftigen Fahrvorgang sicher und erfolgreich absolvieren kann, wichtig sind. Der informationsrelevante Bereich kann sich ändern, wenn sich Veränderungen des Orts, der Position und/oder Richtung des Fahrzeugs 100 ergeben.
  • Das Bestimmungsmodul 122 eines informationsrelevanten Bereichs kann mit einem Sensorsystem 125, einem Kamerasystem 127, einem Navigationssystem 180 und/oder einem anderen Element des Fahrzeugs 100 betriebsmäßig verbunden sein, um einen informationsrelevanten Bereich zu identifizieren. In einer oder mehreren Anordnungen kann das Bestimmungsmodul 122 eines informationsrelevanten Bereichs mit einem oder mehreren der Datenspeicher 115 betriebsmäßig verbunden sein, welche Abbildungen bzw. Karten oder andere Daten beinhalten können. Während das Fahrzeug 100 entlang einer Fahrtroute fährt, können künftige Fahrvorgänge, die das Fahrzeug 100 entlang der Fahrtroute durchführen wird, in Bezug auf andere Abschnitte der externen Umgebung beurteilt werden.
  • Verschiedene Beispiele für informationsrelevante Bereiche werden hierin beschrieben. Falls sich ein Fahrzeug beispielsweise einer Kreuzung nähert und ein Rechtsabbiegen in eine Querstraße geplant ist, dann wäre ein informationsrelevanter Bereich mindestens ein Abschnitt der Querstraße, der sich zur Linken der Kreuzung befindet. Ein Beispiel für einen solchen Bereich ist mit 950 in 9 gezeigt und wird später ausführlicher beschrieben. Das Vorhandensein oder Nichtvorhandensein von Objekten in einem solchen Bereich wäre relevant für den künftigen Fahrvorgang (z. B. Rechtsabbiegen in die Querstraße). In einer oder mehreren Anordnungen kann sich der informationsrelevante Bereich innerhalb eines vorbestimmten Bereichs oder Abstands befinden. Beispielsweise kann sich für den in 9 gezeigten informationsrelevanten Bereich der informationsrelevante Bereich von der Kreuzung bis zu einem vorbestimmten Abstand weg von der Kreuzung erstrecken. In einer oder mehreren Anordnungen kann der vorbestimmte Abstand etwa 50 Fuß oder weniger, etwa 75 Fuß oder weniger, etwa 100 Fuß oder weniger, etwa 150 Fuß oder weniger, etwa 200 Fuß oder weniger, etc. betragen.
  • Wie vorstehend erwähnt, kann das Fahrzeug 100 ein Sensorsystem 125 beinhalten. Das Sensorsystem 125 kann einen oder mehrere Sensoren beinhalten. „Sensor” bedeutet irgendeine Vorrichtung, Komponente und/oder System, welche(s) etwas detektieren, bestimmen, feststellen, überwachen, messen, quantifizieren und/oder erfassen bzw. abtasten kann. Der eine oder die mehreren Sensoren können ausgebildet sein, um in Echtzeit zu detektieren, bestimmen, festzustellen, überwachen, messen, quantifizieren und/oder erfassen bzw. abzutasten. Wie hierin verwendet, bedeutet der Begriff „Echtzeit” einen Grad an Verarbeitungsansprechgeschwindigkeit, den ein Nutzer oder System als hinreichend zeitnah für einen bestimmten Prozess oder eine zu tätigende Bestimmung empfindet, oder der es dem Prozessor ermöglicht, mit irgendeinem externen Prozess Schritt zu halten. Das Sensorsystem 125 kann einen zugehörigen Sensorerfassungsbereich besitzen. „Sensorerfassungsbereich” bedeutet einen Abschnitt einer Umgebung, der sich innerhalb der Reichweite eines oder mehrerer Sensoren eines Sensorsystems befindet. Der Sensorerfassungsbereich des Sensorsystems 125 kann beispielsweise durch das Sensorsystem 125, das Sichtanalysemodul 121 und/oder ein anderes Modul oder Element bestimmt werden.
  • In Anordnungen, in denen das Sensorsystem 125 eine Mehrzahl von Sensoren beinhaltet, können die Sensoren unabhängig voneinander arbeiten. Alternativ können zwei oder mehr der Sensoren in Kombination miteinander arbeiten. Das Sensorsystem 125 und/oder der eine oder die mehreren Sensoren können mit dem Prozessor 110, dem Datenspeicher 115, dem autonomen Fahrmodul 120 und/oder einem anderen Element des Fahrzeugs 100 betriebsmäßig verbunden sein.
  • Das Sensorsystem 125 kann irgendeine geeignete Art von Sensor beinhalten. Beispielsweise kann das Sensorsystem 125 einen oder mehrere Sensoren beinhalten, die ausgebildet sind, um Informationen über das Fahrzeug 100 zu detektieren, bestimmen, festzustellen, überwachen, messen, quantifizieren und/oder erfassen. Alternativ oder zusätzlich kann das Sensorsystem 125 einen oder mehrere Sensoren beinhalten, die ausgebildet sind, um Informationen über die externe Umgebung, in der sich das Fahrzeug 100 befindet, einschließlich Informationen über Objekte in der externen Umgebung, zu detektieren, bestimmen, festzustellen, überwachen, messen, quantifizieren und/oder erfassen. Derartige Objekte können ortsfeste Objekte oder bewegliche Objekte sein. Alternativ oder zusätzlich zu einem oder mehreren der obigen Beispiele kann das Sensorsystem 125 einen oder mehrere Sensoren beinhalten, die ausgebildet sind, um den Ort des Fahrzeugs 100 und/oder den Ort von Objekten in der Umgebung relativ zu dem Fahrzeug 100 zu detektieren, bestimmen, festzustellen, überwachen, messen, quantifizieren und/oder erfassen. Verschiedene Beispiele dieser und anderer Arten von Sensoren werden hierin beschrieben. Es versteht sich, dass die Ausführungsformen nicht auf die beschriebenen speziellen Sensoren beschränkt sind.
  • Das Sensorsystem 125 kann einen oder mehrere Sensoren beinhalten, die ausgebildet sind, um Positions- und Richtungsänderungen des Fahrzeugs 100, wie etwa beispielsweise jene, die auf Trägheitsbeschleunigung beruhen, zu detektieren, bestimmen, festzustellen, überwachen, messen, quantifizieren und/oder erfassen. In einer oder mehreren Anordnungen kann das Sensorsystem 125 Beschleunigungsmesser, Gyroskope und/oder andere geeignete Sensoren beinhalten. Das Sensorsystem 125 kann Sensoren beinhalten, die ein oder mehrere interne Systeme des Fahrzeugs 100 (z. B. ein O2-Überwachungsgerät, einen Kraftstoffmesser, eine Motoröltemperatur, Kühlmitteltemperatur, etc.) überwachen können.
  • Das Sensorsystem 125 kann einen oder mehrere Umfeldsensoren 126 beinhalten. Die Umfeldsensoren 126 können ausgebildet sein, um Objekte in mindestens einem Abschnitt der externen Umgebung des Fahrzeugs 100 und/oder Informationen/Daten über derartige Objekte zu detektieren, bestimmen, festzustellen, überwachen, messen, quantifizieren und/oder erfassen. Der eine oder die mehreren Umfeldsensoren 126 können an irgendeiner geeigneten Stelle des Fahrzeugs vorgesehen sein. In einer oder mehreren Anordnungen können sich einer oder mehrere der Umfeldsensoren 126 in Richtung des vorderen Endes 102 des Fahrzeugs 100 befinden. In einer oder mehreren Anordnungen können sich ein oder mehrere Umfeldsensoren 126 auf einer linken Seite des vorderen Endes 102 des Fahrzeugs 100 befinden. Alternativ oder zusätzlich können sich ein oder mehrere Umfeldsensoren 126 auf einer rechten Seite des vorderen Endes 102 des Fahrzeugs 100 befinden. Zusätzlich oder alternativ können sich ein oder mehrere Umfeldsensoren 126 an irgendeiner geeigneten Stelle am oder nahe dem hinteren Ende 104 des Fahrzeugs 100 befinden.
  • Verschiedene Beispiele der Umfeldsensoren 126 werden hierin beschrieben. Jedoch versteht sich, dass die Ausführungsformen nicht auf die beschriebenen speziellen Sensoren beschränkt sind.
  • In einer oder mehreren Anordnungen können einer oder mehrere der Umfeldsensoren 126 zumindest zum Teil Funksignale verwenden (z. B. RADAR-basierte Sensoren). Der eine oder die mehreren funkbasierten Sensoren können ausgebildet sein, um das Vorhandensein eines oder mehrerer Objekte in der externen Umgebung des Fahrzeugs 100, die Position jedes erfassten Objekts relativ zu dem Fahrzeug 100, den Abstand zwischen jedem erfassten Objekt und dem Fahrzeug 100 in einer oder mehreren Richtungen (z. B. in der Längsrichtung, der Querrichtung und/oder (einer) anderen Richtung(en)), die Geschwindigkeit jedes erfassten Objekts und/oder die Bewegung jedes erfassten Objekts direkt oder indirekt zu detektieren, bestimmen, festzustellen, überwachen, messen, quantifizieren und/oder erfassen.
  • In einer oder mehreren Anordnungen können einer oder mehrere der Umfeldsensoren 126 zumindest zum Teil Laser verwenden. Beispielsweise können einer oder mehrere der Umfeldsensoren 126 Laser-Entfernungsmesser oder ein LIDAR sein oder als Teil hiervon beinhaltet sein. Derartige Vorrichtungen können eine Laserquelle oder/oder einen Laserscanner beinhalten, welche ausgebildet sind, um Laserlicht auszusenden, und einen Detektor, der zum Erfassen von Reflexionen des Laserlichts ausgebildet ist. Der Laser-Entfernungsmesser oder LIDAR kann ausgebildet sein, um in einem kohärenten oder einem inkohärenten Erfassungsmodus zu arbeiten. Der eine oder die mehreren laserbasierten Sensoren können ausgebildet sein, um das Vorhandensein eines oder mehrerer Objekte in der externen Umgebung des Fahrzeugs 100, die Position jedes erfassten Objekts relativ zu dem Fahrzeug 100, den Abstand zwischen jedem erfassten Objekt und dem Fahrzeug 100 in einer oder mehreren Richtungen (z. B. in der Längsrichtung, der Querrichtung und/oder (einer) anderen Richtung(en)), die Geschwindigkeit jedes erfassten Objekts und/oder die Bewegung jedes erfassten Objekts direkt oder indirekt zu detektieren, bestimmen, festzustellen, überwachen, messen, quantifizieren und/oder erfassen.
  • In einer oder mehreren Anordnungen können einer oder mehrere der Umfeldsensoren 126 zumindest zum Teil Ultraschall verwenden. Derartige Sensoren können eine Ultraschallquelle beinhalten, die ausgebildet ist, um Ultraschallsignale auszusenden, und einen Detektor, der ausgebildet ist, um Reflexionen des Ultraschallsignals zu erfassen. Der eine oder die mehreren ultraschallbasierten Umfeldsensoren 126 können ausgebildet sein, um das Vorhandensein eines oder mehrerer Objekte in der externen Umgebung des Fahrzeugs 100, die Position jedes erfassten Objekts relativ zu dem Fahrzeug 100, den Abstand zwischen jedem erfassten Objekt und dem Fahrzeug 100 in einer oder mehreren Richtungen (z. B. in der Längsrichtung, der Querrichtung und/oder (einer) anderen Richtung(en)), die Geschwindigkeit jedes erfassten Objekts und/oder die Bewegung jedes erfassten Objekts direkt oder indirekt zu detektieren, bestimmen, festzustellen, überwachen, messen, quantifizieren und/oder erfassen. Ein derartiges Erfassen kann auf einer Eigenschaft (z. B. der Intensität) eines reflektierten Ultraschallsignals basieren.
  • In einigen Anordnungen können das Sensorsystem 125, der Prozessor 110 und/oder eines oder mehrere der Module 120, 121, 122 ausgebildet sein, um einen oder mehrere Aspekte, Charakteristika und/oder Eigenschaften eines erfassten Objekts direkt oder indirekt zu detektieren, bestimmen, festzustellen, überwachen, messen, quantifizieren und/oder erfassen. Beispielsweise können das Sensorsystem 125, der Prozessor 110 und/oder eines oder mehrere der Module 120, 121, 122 ausgebildet sein, um die Größe, relative Größe, Länge, Breite, Höhe, eine Abmessung, das Material, eine Materialeigenschaft, die Geschwindigkeit, die Beschleunigung und/oder die Bewegungsbahn eines erfassten Objekts direkt oder indirekt zu detektieren, bestimmen, festzustellen, überwachen, messen, quantifizieren und/oder erfassen.
  • Alternativ oder zusätzlich zu irgendeinem der vorstehend beschriebenen Sensoren kann das Sensorsystem 125 weitere Arten von Sensoren beinhalten. Das Sensorsystem 125, der Prozessor 110 und/oder eines oder mehrere der Module 120, 121, 122 können betreibbar sein, um Bewegungen eines oder mehrerer der Sensoren des Sensorsystems 125 zu steuern. Es sei darauf hingewiesen, dass ein jeder der hierin beschriebenen Sensoren an irgendeiner geeigneten Stelle in Bezug auf das Fahrzeug 100 vorgesehen sein kann. Beispielsweise können sich ein oder mehrere Sensoren innerhalb des Fahrzeugs 100 befinden, ein oder mehrere Sensoren können sich an der Außenseite des Fahrzeugs befinden und/oder ein oder mehrere Sensoren können so angeordnet sein, dass sie gegenüber dem Äußeren des Fahrzeugs 100 freiliegen.
  • Das Fahrzeug 100 kann ein Kamerasystem 127 beinhalten. In einer oder mehreren Anordnungen kann das Kamerasystem 127 ein Teil des Sensorsystems 125 sein. Das Kamerasystem 127 kann eine oder mehrere Kameras 128 und/oder eine oder mehrere Insassensichtkameras 129 beinhalten. „Kamera” ist als irgendeine Vorrichtung, Komponente und/oder System definiert, welche(s) visuelle Daten erfassen kann. „Visuelle Daten” beinhalten Video- und/oder Bildinformationen/-daten. Die visuellen Daten können irgendeine geeignete Form aufweisen.
  • In einer oder mehreren Anordnungen können eine oder mehrere der Kameras 128 und/oder eine oder mehrere der Insassensichtkameras 129 ein Objektiv (nicht gezeigt) und ein Bilderfassungselement (nicht gezeigt) beinhalten. Das Bilderfassungselement kann irgendeine geeignete Art von Bilderfassungsvorrichtung oder -system sein, einschließlich beispielsweise eines Flächen-Arraysensors, eines Charge-Coupled-Device(CCD)-Sensors, eines Complementary-Metal-Oxide-Semiconductor(CMOS)-Sensors, eines Zeilensensors, einer CCD (monochrom). Das Bilderfassungselement kann Bilder in irgendeiner geeigneten Wellenlänge in dem elektromagnetischen Spektrum erfassen. Das Bilderfassungselement kann Farbbilder und/oder Graustufenbilder erfassen. Eine oder mehrere der Kameras 128 und/oder eine oder mehrere der Insassensichtkameras 129 können mit Vergrößerungs- (bzw. Zoom-in) und/oder Verkleinerungs-(bzw. Zoom-out)-Fähigkeiten ausgebildet sein.
  • In einer oder mehreren Anordnungen können eine oder mehrere der Kameras 128 und/oder eine oder mehrere der Insassensichtkameras 129 nach außen gewandt sein. „Nach außen gewandt” bedeutet eine Kamera, die so ausgerichtet, positioniert, ausgebildet, bedienbar und/oder angeordnet ist, dass sie visuelle Daten aus mindestens einem Abschnitt der externen Umgebung des Fahrzeugs 100 erfasst. Die eine oder mehreren Kameras 128 und/oder die eine oder mehreren Insassensichtkameras 129 können sich in irgendeinem geeigneten Bereich des Fahrzeugs 100 befinden. Beispielsweise können sich eine oder mehrere der Kameras 128 und/oder eine oder mehrere der Insassensichtkameras 129 innerhalb des Fahrzeugs 100 befinden. Eine oder mehrere der Kameras 128 und/oder eine oder mehrere der Insassensichtkameras 129 können sich an der Außenseite des Fahrzeugs 100 befinden. Eine oder mehrere der Kameras 128 und/oder eine oder mehrere der Insassensichtkameras 129 können sich an der Außenseite des Fahrzeugs 100 befinden oder gegenüber dieser freiliegen.
  • Die Position einer oder mehrerer der Kameras 128 und/oder einer oder mehrerer der Insassensichtkameras 129 kann derart fixiert sein, dass sich ihre Position relativ zu dem Fahrzeug 100 nicht verändert. Eine oder mehrere der Kameras 128 und/oder eine oder mehrere der Insassensichtkameras 129 können beweglich sein, so dass sich ihre Position verändern kann, um das Erfassen von visuellen Daten aus unterschiedlichen Abschnitten der externen Umgebung des Fahrzeugs 100 zu erlauben. Die Bewegung der Kameras 128 und/oder der Insassensichtkameras 129 kann auf irgendeine geeignete Weise erreicht werden. Beispielsweise können die Kameras 128 und/oder die Insassensichtkameras 129 drehbar um eine oder mehrere Achsen, schwenkbar, gleitbeweglich und/oder ausziehbar sein, um nur einige Möglichkeiten zu nennen. In einer oder mehreren Anordnungen können die Kameras 128 und/oder die Insassensichtkameras 129 irgendeinen geeigneten Bewegungsbereich besitzen, darunter beispielsweise im Wesentlichen kugelförmig, im Wesentlichen halbkugelförmig, im Wesentlichen kreisförmig und/oder im Wesentlichen linear. Wie hierin verwendet, beinhaltet der Begriff „im Wesentlichen” exakt den Begriff, den er modifiziert, und geringfügige Abweichungen davon. So bedeutet beispielsweise der Begriff „im Wesentlichen kugelförmig” exakt kugelförmig und geringfügige Abweichungen davon.
  • Die eine oder mehreren Kameras 128, die Insassensichtkameras 129, die Bewegung der einen oder mehreren Kameras 128 und/oder die Bewegung der einen oder mehreren Insassensichtkameras 129 können durch das Kamerasystem 127, das Sensorsystem 125, den Prozessor 110 und/oder eines oder mehrere der Module 120, 121, 122 gesteuert werden.
  • „Insassensichtkamera” bedeutet irgendeine Kamera, die ausgebildet, positioniert, angeordnet, beweglich und/oder ausgerichtet ist, um visuelle Daten einer externen Umgebung eines Fahrzeugs zu erfassen, erlangen und/oder sammeln, um den Abschnitt oder die Abschnitte der externen Umgebung, die tatsächlich von einem menschlichen Insassen des Fahrzeugs gesehen werden können, zu bestimmen oder festzustellen. Der Insassensichtbereich kann beispielsweise durch das Sichtanalysemodul 121 und/oder den Prozessor 110 bestimmt werden. Die eine oder mehreren Insassensichtkameras 129 können an irgendeiner geeigneten Stelle vorgesehen sein. Beispielsweise können sich die eine oder mehreren Insassensichtkameras 129 im Inneren des Fahrzeugs 100 befinden.
  • In einer oder mehreren Anordnungen können eine oder mehrere Insassensichtkameras 129 vorgesehen sein, um visuelle Daten zu erfassen, erlangen und/oder sammeln, so dass ein Insassensichtbereich für den Fahrer des Fahrzeugs 100 bestimmt werden kann. Alternativ oder zusätzlich können eine oder mehrere Insassensichtkameras 129 vorgesehen sein, um visuelle Daten zu erfassen, erlangen und/oder sammeln, so dass ein Insassensichtbereich für einen anderen Passagier als den Fahrer des Fahrzeugs 100 bestimmt werden kann.
  • Das Sichtanalysemodul 121 und/oder der Prozessor 110 können ausgebildet sein, um visuelle Daten, die durch die eine oder die mehreren Insassensichtkameras 129 erfasst werden, zu analysieren, um einen Insassensichtbereich zu bestimmen. Das Sichtanalysemodul 121 und/oder der Prozessor 110 können ausgebildet sein, um Informationen/Daten, die von dem Sensorsystem 125 in Bezug auf erfasste Objekte in der externen Umgebung erfasst werden, zu analysieren und die erfassten Objekte relativ zu dem Insassensichtbereich zu orten. Das Sensorsystem 125, das Sichtanalysemodul 121 und/oder der Prozessor 110 können ausgebildet sein, um den Sensorerfassungsbereich zu bestimmen. Das Sichtanalysemodul 121 und/oder der Prozessor 110 können ausgebildet sein, um den Insassensichtbereich und den Sensorerfassungsbereich festzustellen oder zu vergleichen.
  • Das Fahrzeug 100 kann ein Eingabesystem 130 beinhalten. Ein „Eingabesystem” ist als irgendeine Vorrichtung, Komponente, System, Element oder Anordnung oder Gruppen davon definiert, welche die Eingabe von Informationen/Daten in eine Maschine ermöglichen. Das Eingabesystem 160 kann eine Eingabe von einem Fahrzeuginsassen (z. B. einem Fahrer oder einem Passagier) empfangen. Irgendein geeignetes Eingabesystem 130 kann verwendet werden, darunter beispielsweise ein Keypad, Display, Touchscreen, Multi-Touchscreen, Taste, Joystick, Maus, Rollkugel, Mikrofon und/oder Kombinationen davon.
  • Das Fahrzeug 100 kann ein Ausgabesystem 131 beinhalten. Ein „Ausgabesystem” ist als irgendeine Vorrichtung, Komponente, System, Element oder Anordnung oder Gruppen davon definiert, welches es ermöglichen, einem Nutzer (z. B. einer Person, einem Fahrzeuginsassen, etc.) Informationen/Daten zu präsentieren. Das Ausgabesystem 131 kann ein Display beinhalten, wie vorstehend beschrieben. Alternativ oder zusätzlich kann das Ausgabesystem 131 ein Mikrofon, Ohrhörer und/oder Lautsprecher beinhalten. Einige Komponenten des Fahrzeugs 100 können sowohl als eine Komponente des Eingabesystems 130 als auch als eine Komponente des Ausgabesystems 131 dienen.
  • In einer oder mehreren hierin beschriebenen Anordnungen kann mindestens ein Teil des Ausgabesystems 131 aktiviert werden, um als Reaktion auf die Bestimmung, dass sich ein oder mehrere in der externen Umgebung erfasste Objekte außerhalb eines bestimmten Insassensichtbereichs befinden, eine Warnung bereitzustellen. Das Ausgabesystem 131 kann ausgebildet sein, um einem oder mehreren Insassen des Fahrzeugs 100 eine Warnung zu präsentieren. Die Warnung kann irgendeine Art von Warnung sein, einschließlich beispielsweise einer visuellen Warnung 132. Eine „visuelle Warnung” ist irgendeine Ausgabe, die Informationen auf eine Weise bereitstellt, die für den menschlichen Sehsinn wahrnehmbar ist. Die visuelle Warnung 132 kann einen Fahrzeuginsassen visuell auf das Vorhandensein eines in der externen Umgebung des Fahrzeugs 100 erfassten Objekts aufmerksam machen, das sich außerhalb des bestimmten Insassensichtbereichs befindet. Die visuelle Warnung 132 kann irgendeine geeignete Form aufweisen. Die visuelle Warnung 132 kann durch eine oder mehrere Komponenten des Ausgabesystems 131, wie etwa ein oder mehrere Displays 133 und/oder eine oder mehrere Lichtquellen 134, die sich in dem Fahrzeug 100 befinden, präsentiert werden.
  • Ein „Display” ist als eine Komponente oder eine Gruppe von Komponenten definiert, welche Informationen/Daten in visueller Form, einschließlich beispielsweise Video, Bildern, Graphiken, etc., präsentieren. In einer oder mehreren Anordnungen kann sich das Display 133 in einem vorderen Innenbereich eines Fahrzeugs 100 befinden. Zum Beispiel kann das Display 133 in einem Armaturenbrett oder einer Instrumententafel (nicht gezeigt) des Fahrzeugs 100 beinhaltet sein.
  • Das Display 133 kann irgendeine geeignete Art von Display bzw. Anzeige sein. Beispielsweise kann das Display 133 ein Flüssigkristalldisplay (LCD), ein Leuchtdioden(LED)-Display oder irgendein anderes geeignetes Display sein. In einer oder mehreren Anordnungen kann das vordere Display 133 ein Berührungsbildschirmdisplay, ein Multi-Touch-Display oder ein ferngesteuertes Display sein. Ein Touch-Screen kann es einem Nutzer erlauben, sich durch Berührung mit dem vorderen Display 133 mit einem oder mehreren angezeigten Elementen zu befassen oder mit diesen zu interagieren, wie etwa einer graphischen Benutzeroberfläche (GUI) und/oder anderen auf irgendeinem Fahrzeugsystem laufenden Anwendungen, einschließlich irgendeiner der hierin beschriebenen. Zum Beispiel kann ein Nutzer eine Auswahl treffen und einen Cursor bewegen, indem er einfach das vordere Display 133 über einen Finger oder Stift berührt.
  • Die visuelle Warnung 132 kann irgendeine geeignete Form aufweisen. In einer oder mehreren Anordnungen kann die visuelle Warnung 132 ein Wort, ein Satz oder eine Nachricht sein, welche(s) auf dem Display 133 präsentiert wird. In einer oder mehreren Anordnungen kann die visuelle Warnung 132 Darstellungen eines oder mehrerer Gegenstände beinhalten. Zum Beispiel kann die visuelle Warnung 132 eine Darstellung der externen Umgebung beinhalten. Die Darstellung der externen Umgebung kann graphische, photographische, Video- und/oder Karteninformationen oder Daten präsentieren, welche aus irgendeiner geeigneten Quelle, einschließlich beispielsweise des Datenspeichers 115, des Navigationssystems 180 und einer anderen Quelle, mit der der ein oder mehrere Elemente des Fahrzeugs 100 betriebsmäßig verbunden sind, erhalten werden können. Derartige visuelle Informationen/Daten können in Echtzeit auf dem Display 133 präsentiert werden.
  • Die visuelle Warnung 132 kann eine Darstellung des einen oder der mehreren in der externen Umgebung erfassten Objekte beinhalten. Die visuelle Warnung 132 kann eine Darstellung des Insassensichtbereichs beinhalten. Die visuelle Warnung 132 kann eine Darstellung des Sensorerfassungsbereichs der externen Umgebung beinhalten. In einer oder mehreren Anordnungen können die Darstellung des einen oder der mehreren Objekte, die Darstellung des Insassensichtbereichs und/oder die Darstellung des Sensorerfassungsbereichs über die Darstellung der externen Umgebung gelegt sein.
  • Alternativ oder zusätzlich kann die visuelle Warnung 132 durch eine oder mehrere Lichtquellen 134 präsentiert werden. Die eine oder mehreren Lichtquellen 134 können irgendeine Art von Lichtenergie erzeugen oder emittieren. In einer oder mehreren Anordnungen können die eine oder mehreren Lichtquellen 134 elektrisch betrieben sein. In einer oder mehreren Anordnungen können die eine oder mehreren Lichtquellen 134 eine oder mehrere der folgenden Arten von elektrisch betriebenen Lichtquellen beinhalten: elektronenangeregte Lampen, Glühlampen, Elektrolumineszenz(EL)-Lampen, Gasentladungslampen, Hochintensitätsentladungslampen und/oder Laser, um nur einige Möglichkeiten zu nennen. In einer oder mehreren Anordnungen können die eine oder mehreren Lichtquellen 134 Leuchtdioden (LEDs) sein. Zum Beispiel können die eine oder mehreren Lichtquellen 134 organische LEDs, Polymer-LEDs, Festkörperbeleuchtung, LED-Lampen und/oder organische Aktivmatrix-LEDs sein. In einigen Anordnungen können die eine oder mehreren Lichtquellen 134 die gleiche Art von Lichtquelle sein. In anderen Anordnungen können eine oder mehrere der einen oder mehreren Lichtquellen 134 eine andere Art von Lichtquelle als die übrigen Lichtquellen sein.
  • Alternativ oder zusätzlich zu der visuellen Warnung 132 kann die Warnung eine akustische Warnung 135 sein. Eine „akustische Warnung” ist irgendeine Ausgabe, die Informationen auf eine Weise bereitstellt, die für den menschlichen Hörsinn wahrnehmbar ist. Die akustische Warnung 135 kann einen Fahrzeuginsassen über das Vorhandensein eines in der externen Umgebung des Fahrzeugs 100 erfassten Objekts, das sich außerhalb des bestimmten Insassensichtbereichs befindet, informieren. Die akustische Warnung 135 kann irgendeine geeignete Form aufweisen. Die akustische Warnung 135 kann durch eine oder mehrere Komponenten des Ausgabesystems 131 präsentiert werden, etwa indem sie über einen oder mehrere Lautsprecher 136 oder über einen oder mehrere Audiokanäle im Fahrzeug ausgesendet wird. In einem solchen Fall kann die akustische Warnung ein Ton, eine Mehrzahl von Tönen, ein Wort, ein Satz oder eine Nachricht sein.
  • Die akustische Warnung 135 kann durch eine oder mehrere Komponenten des Ausgabesystems 131 präsentiert werden, etwa indem sie über einen oder mehrere Lautsprecher 136 ausgesendet wird. „Lautsprecher” bedeutet ein oder mehrere Elemente, eine oder mehrere Vorrichtungen, eine oder mehrere Komponenten, ein oder mehrere Systeme und/oder irgendeine Kombination davon, welche als Reaktion auf ein eingegebenes Audiosignal Klang erzeugen. Beispiele für Lautsprecher umfassen beispielsweise elektroakustische Wandler, Soundchips und Soundkarten. Mit jedem Lautsprecher können ein oder mehrere Audioausgabekanäle (nicht gezeigt) betriebsmäßig verbunden sein. „Audioausgabekanal” bedeutet irgendeine geeignete Vorrichtung, Komponente oder Konstruktion zum Führen von Audiosignalen.
  • Das Fahrzeug 100 kann ein oder mehrere Fahrzeugsysteme 145 beinhalten. Verschiedene Beispiele des einen oder der mehreren Fahrzeugsysteme 145 sind in 1 gezeigt. Jedoch kann das Fahrzeug 100 mehr, weniger oder andere Systeme beinhalten. Es sollte verstanden werden, dass bestimmte Fahrzeugsysteme zwar separat definiert werden, doch jedes oder irgendeines der Systeme oder Teile davon über Hardware und/oder Software in dem Fahrzeug 100 anderweitig kombiniert oder abgetrennt werden kann.
  • Das Fahrzeug 100 kann ein Antriebssystem 150 beinhalten. Das Antriebssystem 150 kann eine(n) oder mehrere derzeit bekannte oder später entwickelte Mechanismen, Vorrichtungen, Elemente, Komponenten, Systeme und/oder Kombinationen davon beinhalten, die ausgebildet sind, um angetriebene Bewegung für das Fahrzeug 100 bereitzustellen. Das Antriebssystem 150 kann eine Maschine und eine Energiequelle beinhalten.
  • Die Maschine kann irgendeine derzeit bekannte oder später entwickelte geeignete Art von Maschine oder Motor sein. Beispielsweise kann die Maschine eine Verbrennungskraftmaschine, ein Elektromotor, eine Dampfmaschine und/oder eine Stirling-Maschine sein, um nur einige Möglichkeiten zu nennen. In einigen Ausführungsformen könnte das Antriebssystem eine Mehrzahl von Maschinen- bzw. Motortypen beinhalten. Beispielsweise kann ein Benzin-Elektro-Hybridfahrzeug einen Benzinmotor und einen Elektromotor beinhalten.
  • Die Energiequelle kann irgendeine geeignete Energiequelle sein, die verwendet werden kann, um die Maschine zumindest teilweise mit Leistung zu versorgen. Die Maschine kann ausgebildet sein, um die Energiequelle in mechanische Energie umzuwandeln. Beispiele für Energiequellen umfassen Benzin, Diesel, Propan, Wasserstoff, andere Kraftstoffe auf Basis von komprimiertem Gas, Ethanol, Solarpanels, Batterien bzw. Akkumulatoren und/oder andere Quellen elektrischer Energie. Alternativ oder zusätzlich kann die Energiequelle Kraftstofftanks, Batterien bzw. Akkumulatoren, Kondensatoren und/oder Schwungräder beinhalten. In einigen Ausführungsformen kann die Energiequelle verwendet werden, um Energie für andere Systeme des Fahrzeugs 100 bereitzustellen.
  • Das Fahrzeug 100 kann Räder, Reifen und/oder Raupenketten beinhalten. Irgendeine geeignete Art von Rädern, Reifen und/oder Raupenketten kann verwendet werden. In einer oder mehreren Anordnungen können die Räder, Reifen und/oder Raupenketten des Fahrzeugs 100 ausgebildet sein, um sich unterschiedlich in Bezug auf andere Räder, Reifen und/oder Raupenketten des Fahrzeugs 100 zu drehen. Die Räder, Reifen und/oder Raupenketten können aus irgendeinem geeigneten Material hergestellt sein.
  • Das Fahrzeug 100 kann ein Bremssystem 155 beinhalten. Das Bremssystem 155 kann eine(n) oder mehrere derzeit bekannte oder später entwickelte Mechanismen, Vorrichtungen, Elemente, Komponenten, Systeme und/oder Kombinationen davon beinhalten, die zum Abbremsen des Fahrzeugs 100 ausgebildet sind. Beispielsweise kann das Bremssystem 155 Reibung verwenden, um die Räder/Reifen zu verlangsamen. Das Bremssystem 155 kann die kinetische Energie der Räder/Reifen in elektrischen Strom umwandeln.
  • Ferner kann das Fahrzeug 100 ein Lenksystem 160 beinhalten. Das Lenksystem 160 kann eine(n) oder mehrere derzeit bekannte oder später entwickelte Mechanismen, Vorrichtungen, Elemente, Komponenten, Systeme und/oder Kombinationen davon beinhalten, die ausgebildet sind, um den Kurs des Fahrzeugs 100 anzupassen.
  • Das Fahrzeug 100 kann ein Drosselsystem 165 beinhalten. Das Drosselsystem 165 kann eine(n) oder mehrere derzeit bekannte oder später entwickelte Mechanismen, Vorrichtungen, Elemente, Komponenten, Systeme und/oder Kombinationen davon beinhalten, die ausgebildet sind, um die Betriebsgeschwindigkeit einer Maschine/eines Motors des Fahrzeugs 100 und wiederum die Geschwindigkeit des Fahrzeugs 100 zu steuern bzw. kontrollieren.
  • Das Fahrzeug 100 kann ein Übersetzungssystem 170 beinhalten. Das Übersetzungssystem 170 kann eine(n) oder mehrere derzeit bekannte oder später entwickelte Mechanismen, Vorrichtungen, Elemente, Komponenten, Systeme und/oder Kombinationen davon beinhalten, die ausgebildet sind, um mechanische Kraft von der Maschine/dem Motor des Fahrzeugs 100 auf die Räder/Reifen zu übertragen. Beispielsweise kann das Übersetzungssystem 170 ein Getriebe, eine Kupplung, ein Differentialgetriebe, Antriebswellen und/oder andere Elemente beinhalten. In Anordnungen, in denen das Übersetzungssystem 170 Antriebswellen beinhaltet, können die Antriebswellen eine oder mehrere Achsen beinhalten, die ausgebildet sind, um mit den Rädern/Reifen gekoppelt zu werden.
  • Das Fahrzeug 100 kann ein Signalisierungssystem 175 beinhalten. Das Signalisierungssystem 175 kann eine(n) oder mehrere derzeit bekannte oder später entwickelte Mechanismen, Vorrichtungen, Elemente, Komponenten, Systeme und/oder Kombinationen davon beinhalten, die ausgebildet sind, um für den Fahrer des Fahrzeugs 100 eine Beleuchtung bereitzustellen und/oder Informationen in Bezug auf einen oder mehrere Aspekte des Fahrzeugs 100 bereitzustellen. Beispielsweise kann das Signalisierungssystem 175 Informationen über die Anwesenheit, Position, Größe, Fahrtrichtung des Fahrzeugs und/oder die Absichten des Fahrers in Bezug auf Fahrtrichtung und -geschwindigkeit bereitstellen. Beispielsweise kann das Signalisierungssystem 175 Scheinwerfer, Rücklichter, Bremslichter, Warnblinker und Abbiegesignallichter beinhalten.
  • Das Fahrzeug 100 kann ein Navigationssystem 180 beinhalten. Das Navigationssystem 180 kann eine(n) oder mehrere derzeit bekannte oder später entwickelte Mechanismen, Vorrichtungen, Elemente, Komponenten, Systeme, Anwendungen und/oder Kombinationen davon beinhalten, die ausgebildet sind, um den geographischen Standort des Fahrzeugs 100 zu bestimmen und/oder eine Fahrtroute für das Fahrzeug 100 zu bestimmen.
  • Das Navigationssystem 180 kann eine oder mehrere Mapping-Anwendungen beinhalten, um eine Fahrtroute für das Fahrzeug 100 zu bestimmen. Beispielsweise kann ein Fahrer oder Passagier einen Ausgangspunkt und einen Zielpunkt eingeben. Die Mapping-Anwendung kann eine oder mehrere geeignete Fahrtrouten zwischen dem Ausgangspunkt und dem Zielpunkt bestimmen. Eine Fahrtroute kann basierend auf einem oder mehreren Parameter (z. B. kürzeste Fahrtstrecke, kürzeste Fahrtzeit, etc.) ausgewählt werden. In einigen Anordnungen kann das Navigationssystem 180 ausgebildet sein, um die Fahrtroute dynamisch zu aktualisieren, während das Fahrzeug 100 in Betrieb ist.
  • Das Navigationssystem 180 kann ein globales Positionierungssystem, ein lokales Positionierungssystem oder ein Geolokationssystem beinhalten. Das Navigationssystem 180 kann mit irgendeinem einer Reihe von Satellitenpositionierungssystemen, wie etwa dem Globalen Positionierungssystem (GPS) der Vereinigten Staaten, dem russischen Glonass-System, dem europäischen Galileo-System, dem chinesischen Beidou-System, oder irgendeinem System, das Satelliten aus einer Kombination von Satellitensystemen verwendet, oder irgendeinem in Zukunft entwickelten Satellitensystem, einschließlich des geplanten chinesischen COMPASS-Systems und des indischen regionalen Satellitennavigationssystems, implementiert werden. Ferner kann das Navigationssystem 180 das Übertragungssteuerungsprotokoll (TCP) und/oder ein Geographisches Informationssystem (GIS) und Ortungsdienste verwenden.
  • Das Navigationssystem 180 kann einen Sendeempfänger beinhalten, der ausgebildet ist, um eine Position des Fahrzeugs 100 in Bezug auf die Erde zu schätzen. Beispielsweise kann das Navigationssystem 180 einen GPS-Sendeempfänger beinhalten, um den Breitengrad, Längengrad und/oder die Höhenlage des Fahrzeugs zu bestimmen. Das Navigationssystem 180 kann andere Systeme (z. B. laserbasierte Lokalisierungssysteme, inertialgestütztes GPS und/oder kamerabasierte Lokalisierung) verwenden, um den Ort des Fahrzeugs 100 zu bestimmen.
  • Alternativ oder zusätzlich kann das Navigationssystem 180 auf Zugangspunkt-Geolokationsdiensten basieren, wie jenen, die die Schnittstelle zur Anwendungsprogrammierung (API) von W3C-Geolocation verwenden. Mit einem solchen System lässt sich der Ort des Fahrzeugs 100 durch Heranziehen von Standortinformationsservern, einschließlich beispielsweise der Internetprotokoll(IP)-Adresse, Wi-Fi- und Bluetooth-Medienzugriffssteuer(MAC)-Adresse, Radiofrequenz-Identifikation (RFID), Wi-Fi-Verbindungsortung oder Geräte-GPS sowie Cell-IDs des Globalsystems für Mobilkommunikationen (GSM)/Codemultiplex-Vielfachzugriffs (CDMA), bestimmen. Somit versteht sich, dass die konkrete Art und Weise, wie die geographische Position des Fahrzeugs 100 bestimmt wird, von der Arbeitsweise des konkret verwendeten Standortverfolgungssystems abhängt.
  • Der Prozessor 110 und/oder das autonome Fahrmodul 120 können betriebsmäßig verbunden sein, um mit den verschiedenen Fahrzeugsystemen 145 und/oder einzelnen Komponenten davon zu kommunizieren. Beispielsweise können – um auf 1 zurückzukommen – der Prozessor 110 und/oder das autonome Fahrmodul 120 in Verbindung stehen, um Informationen von den verschiedenen Fahrzeugsystemen 145 zu senden und/oder empfangen, um die Bewegung, Geschwindigkeit, das Manövrieren, den Kurs, die Richtung, etc. des Fahrzeugs 100 zu steuern. Der Prozessor 110 und/oder das autonome Fahrmodul 120 können einige oder alle dieser Fahrzeugsysteme 145 steuern und können somit ganz oder teilweise autonom sein.
  • Der Prozessor 110 und/oder das autonome Fahrmodul 120 können betreibbar sein, um die Navigation und/oder das Manövrieren des Fahrzeugs 100 durch Steuern eines oder mehrerer der Fahrzeugsysteme 145 und/oder Komponenten davon zu steuern. Beispielsweise können der Prozessor 110 und/oder das autonome Fahrmodul 120, wenn sie in einem autonomen Modus arbeiten, die Richtung und/oder Geschwindigkeit des Fahrzeugs 100 steuern. Der Prozessor 110 und/oder das autonome Fahrmodul 120 können das Fahrzeug 100 zum Beschleunigen (z. B. durch Erhöhen der Versorgung mit Kraftstoff, der der Maschine bereitgestellt wird), Abbremsen (z. B. durch Verringern der Kraftstoffversorgung der Maschine und/oder durch Betätigen von Bremsen) und/oder Richtungswechseln (z. B. durch Drehen der beiden Vorderräder) veranlassen. Wie hierin verwendet, bedeutet „veranlassen” oder „Veranlassen”, das Eintreten eines Ereignisses oder einer Aktion zu bewirken, forcieren, erzwingen, lenken, befehligen, anordnen und/oder ermöglichen oder sich zumindest in einem Zustand zu befinden, in dem sich ein solches Ereignis oder eine solche Aktion bzw. Maßnahme entweder auf direkte oder indirekte Weise ereignen kann.
  • Das Fahrzeug 100 kann ein oder mehrere Stellglieder 140 beinhalten. Die Stellglieder 140 können irgendein Element oder eine Kombination von Elementen sein, die zum Modifizieren, Einstellen und/oder Ändern eines oder mehrerer der Fahrzeugsysteme 145 oder Komponenten davon als Reaktion auf den Empfang von Signalen oder anderen Eingaben von dem Prozessor 110 und/oder dem autonomen Fahrmodul 120 betreibbar sind. Irgendein geeignetes Stellglied kann verwendet werden. Beispielsweise können das eine oder die mehreren Stellglieder 140 Motoren, pneumatische Stellglieder, hydraulische Kolben, Relais, Elektromagneten und/oder piezoelektrische Stellglieder beinhalten, um nur einige Möglichkeiten zu nennen.
  • Gemäß hierin beschriebenen Anordnungen kann das Fahrzeug 100 zum Betreiben eines autonomen Fahrzeugs in Umgebungen mit blockierter Insassensicht ausgebildet sein. Gemäß Anordnungen hierin kann das Fahrzeug 100 (oder ein oder mehrere Elemente davon) ausgebildet sein, um einen Insassensichtbereich der externen Umgebung, einen Sensorerfassungsbereich des Sensorsystems 125 und/oder des Kamerasystems 127 zu bestimmen und/oder einen informationsrelevanten Bereich entlang einer gegenwärtigen Fahrtroute des Fahrzeugs 100, der mit einem künftigen Fahrvorgang zusammenhängt, zu identifizieren.
  • In einer oder mehreren Anordnungen kann als Reaktion auf die Bestimmung, dass sich ein oder mehrere erfasste Objekte in der externen Umgebung außerhalb eines bestimmten Insassensichtbereichs befinden, eine Aktion bzw. Maßnahme durchgeführt werden. Beispielsweise kann die Maßnahme das Präsentieren einer Warnung innerhalb des Fahrzeugs 100 sein. Alternativ oder zusätzlich kann die Maßnahme das Veranlassen sein, dass ein gegenwärtiger Fahrvorgang des Fahrzeugs 100 modifiziert wird. Diese und weitere Beispiele möglicher Maßnahmen werden die gesamte Beschreibung hindurch ausführlicher beschrieben. In einer oder mehreren Anordnungen können der Prozessor 110, das Fahrmodul 120, das Sichtanalysemodul 121 und/oder (ein) andere(s) Elemente) ausgebildet sein, um zu bestimmen, ob sich eines oder mehrere erfasste Objekte in der externen Umgebung außerhalb eines bestimmten Insassensichtbereichs befinden.
  • In einer oder mehreren Anordnungen kann als Reaktion auf die Bestimmung, dass sich mindestens ein Abschnitt eines informationsrelevanten Bereichs außerhalb des bestimmten Insassensichtbereichs befindet, eine Maßnahme ergriffen werden. Beispielsweise kann die Maßnahme das Veranlassen sein, dass ein gegenwärtiger Fahrvorgang des Fahrzeugs 100 modifiziert wird. Diese und weitere Beispiele möglicher Maßnahmen werden die gesamte Beschreibung hindurch ausführlicher beschrieben. In einer oder mehreren Anordnungen können der Prozessor 110, das Fahrmodul 120, das Sichtanalysemodul 121, das Bestimmungsmodul 122 eines informationsrelevanten Bereichs und/oder (ein) andere(s) Element(e) ausgebildet sein, um zu bestimmen, ob sich mindestens ein Abschnitt eines informationsrelevanten Bereichs außerhalb des bestimmten Insassensichtbereichs befindet.
  • Nachdem die verschiedenen potentiellen Systeme, Vorrichtungen, Elemente und/oder Komponenten des Fahrzeugs 100 beschrieben wurden, werden nun verschiedene Verfahren zum Betreiben eines autonomen Fahrzeugs in einer Umgebung mit blockierter Sicht beschrieben. Bezugnehmend auf 2 wird nun ein Beispiel eines Verfahrens zum Betreiben eines autonomen Fahrzeugs in einer Umgebung mit blockierter Sicht aufgezeigt. Verschiedene mögliche Schritte des Verfahrens 200 werden nun beschrieben. Das in 2 veranschaulichte Verfahren 200 ist auf die vorstehend im Hinblick auf 1 beschriebenen Ausführungsformen anwendbar, doch versteht sich, dass das Verfahren 200 mit anderen geeigneten Systemen und Anordnungen ausführbar ist. Überdies kann das Verfahren 200 andere Schritte beinhalten, die hier nicht gezeigt sind, und in der Tat ist das Verfahren 200 nicht darauf beschränkt, jeden in 2 gezeigten Schritt zu beinhalten. Die hier als Teil des Verfahrens 200 veranschaulichten Schritte sind nicht auf diese spezielle chronologische Reihenfolge beschränkt. In der Tat können einige der Schritte in einer anderen Reihenfolge als der gezeigten durchgeführt werden, und/oder zumindest einige der gezeigten Schritte können gleichzeitig erfolgen.
  • Bei Block 210 kann mindestens ein Abschnitt einer externen Umgebung des autonomen Fahrzeugs abgetastet werden, um einen oder mehrere darin befindliche Objekte zu erfassen. In einer oder mehreren Anordnungen kann das Erfassen der externen Umgebung durch einen oder mehrere Sensoren des Sensorsystems 125 (z. B. einen oder mehrere der Umfeldsensoren 126) und/oder durch das Kamerasystem 127 (z. B. eine oder mehrere der Kameras 128) durchgeführt werden. In einigen Anordnungen kann das Erfassen der externen Umgebung kontinuierlich oder in irgendeinem geeigneten Intervall durchgeführt werden.
  • Falls in der externen Umgebung ein Objekt erfasst wird, kann das Verfahren 200 mit Block 220 fortfahren. Falls in der externen Umgebung keine Objekte erfasst werden, kann das Verfahren 200 zu Block 210 zurückkehren, oder das Verfahren 200 kann enden.
  • Bei Block 220 kann ein Insassensichtbereich der externen Umgebung bestimmt werden. Die Bestimmung des Insassensichtbereichs kann durch irgendein geeignetes Element oder eine Kombination von Elementen des Fahrzeugs 100 durchgeführt werden. In einer oder mehreren Anordnungen kann die Bestimmung des Insassensichtbereichs durch das Sensorsystem 125, das Kamerasystem 127, das Sichtanalysemodul 121 und/oder den Prozessor 110 durchgeführt werden. Die Bestimmung des Insassensichtbereichs kann kontinuierlich oder in irgendeinem geeigneten Intervall durchgeführt werden. Das Verfahren 200 kann mit Block 230 fortfahren.
  • Das eine oder die mehreren erfassten Objekte können relativ zu dem bestimmten Insassensichtbereich geortet werden. Insbesondere kann bei Block 230 bestimmt werden, ob sich eines oder mehrere des einen oder der mehreren erfassten Objekte außerhalb des bestimmten Insassensichtbereichs befinden. Die Bestimmung kann durch irgendein geeignetes Element oder eine Kombination von Elementen des Fahrzeugs 100 durchgeführt werden. Beispielsweise kann die Bestimmung in einer oder mehreren Anordnungen durch den Prozessor 110, das Sensorsystem 125, das Kamerasystem 127 und/oder das Sichtanalysemodul 121 durchgeführt werden. Die Bestimmung, ob sich eines oder mehrere des einen oder der mehreren erfassten Objekte außerhalb des bestimmten Insassensichtbereichs befinden, kann kontinuierlich oder in irgendeinem geeigneten Intervall durchgeführt werden. Die Bestimmung, ob sich eines oder mehrere des einen oder der mehreren erfassten Objekte außerhalb des bestimmten Insassensichtbereichs befinden, kann ein Vergleichen des Orts des einen oder der mehreren erfassten Objekte mit dem Ort des bestimmten Insassensichtbereichs beinhalten. Das Verfahren kann mit Block 240 fortfahren.
  • Bei Block 240 kann als Reaktion auf die Bestimmung, dass sich eines oder mehrere des einen oder der mehreren erfassten Objekte außerhalb des bestimmten Insassensichtbereichs befinden, eine Warnung innerhalb des autonomen Fahrzeugs präsentiert werden. Die Warnung kann irgendeine Art von Warnung, einschließlich beispielsweise einer visuellen Warnung 132 und/oder einer akustischen Warnung 135, sein. Die Warnung kann einen oder mehrere der Fahrzeuginsassen davon in Kenntnis setzen, dass das Fahrzeug (z. B. das Sensorsystem 125 und/oder das Kamerasystem 127) ein Objekt erfasst, welches von einem oder mehreren der Fahrzeuginsassen nicht wahrnehmbar ist.
  • Wenn die Warnung präsentiert wird, kann das Verfahren 200 enden. Alternativ kann das Verfahren 200 zu Block 210 oder einem anderen Block des Verfahrens 200 zurückkehren. In einer oder mehreren Anordnungen kann das Verfahren 200 zusätzliche Blöcke (nicht gezeigt) beinhalten. Es sollte verstanden werden, dass in einer oder mehreren Anordnungen als Reaktion auf die Bestimmung, dass sich das eine oder die mehreren erfassten Objekte innerhalb des bestimmten Insassensichtbereichs befinden, keine Maßnahme ergriffen wird (z. B. wird keine Warnung präsentiert). Alternativ oder zusätzlich wird als Reaktion auf die Bestimmung, dass sich keines des einen oder der mehreren erfassten Objekte außerhalb des bestimmten Insassensichtbereichs befindet, keine Maßnahme ergriffen (z. B. wird keine Warnung präsentiert).
  • Ein nicht einschränkendes Beispiel für den Betrieb des Fahrzeugs in Übereinstimmung mit dem Verfahren 200 wird nun in Bezug auf 4 beschrieben. Für die Zwecke dieses Beispiels kann das Fahrzeug 100 in einer Umgebung 400 auf einer Straße 405 fahren. Wie hierin verwendet, bedeutet „Straße” eine Durchgangsstraße, Route, einen Pfad oder Weg zwischen zwei Orten, auf der/dem ein Fahrzeug fahren kann. Die Straße 405 kann gepflastert oder anderweitig aufgebessert sein, um die Fahrt eines Fahrzeugs darauf zu erleichtern. In einigen Fällen kann die Straße 405 ungepflastert oder unbefestigt sein. Die Straße 405 kann eine öffentliche Straße oder eine private Straße sein. Die Straße 405 kann eine(n) oder mehrere Brücken, Tunnel, Stützkonstruktionen, Einmündungen, Kreuzungen bzw. Übergänge, Anschlussstellen und Mautstraßen beinhalten oder ein Teil davon sein.
  • Die Straße 405 kann eine Mehrzahl von Fahrspuren 407, 410, 412, 415 beinhalten. Wie hierin verwendet, ist eine „Fahrspur” ein Abschnitt einer Straße, der zur Verwendung durch eine einzige Reihe von Fahrzeugen vorgesehen ist, und/oder ein Abschnitt einer Straße, der von einer einzigen Reihe von Fahrzeugen verwendet wird. In einigen Fällen können die eine oder mehreren Fahrspuren 407, 410, 412, 415 durch Markierungen auf der Straße 405 oder auf irgendeine andere geeignete Weise ausgewiesen sein. In einigen Fällen können die eine oder mehreren Fahrspuren 407, 410, 412, 415 nicht markiert sein.
  • In der in 4 gezeigten Anordnung kann die Straße 405 für zwei Fahrtrichtungen vorgesehen sein. Für die Zwecke dieses Beispiels können sich Fahrzeuge in einer ersten Richtung 417 in einer ersten Fahrspur 407 und einer zweiten Fahrspur 410 bewegen, und Fahrzeuge können sich in einer zweiten Richtung 420 in einer dritten Fahrspur 412 und einer vierten Fahrspur 415 bewegen. Die erste Richtung 417 kann von der zweiten Richtung 415 verschieden sein. Beispielsweise kann die erste Richtung 417 im Wesentlichen entgegengesetzt zur zweiten Richtung 415 sein, wie in 4 gezeigt. Die erste und zweite Fahrspur 407, 410 können von der dritten und vierten Fahrspur 412, 415 durch einen Mittelstreifen 422 getrennt sein. Es versteht sich, dass die in 4 gezeigten konkreten Anordnungen lediglich als ein Beispiel vorgesehen sind, und dass die hierin beschriebenen Anordnungen nicht auf dieses Beispiel beschränkt sind.
  • In 4 kann die gegenwärtige Fahrspur des Fahrzeugs 100 die erste Fahrspur 407 sein. „Gegenwärtige Fahrspur” bedeutet eine Fahrspur, auf der zum gegenwärtigen Zeitpunkt ein Fahrzeug fährt. Ein anderes Fahrzeug (z. B. Lastkraftwagen 430) kann sich in der zweiten Fahrspur 410 befinden. Das Fahrzeug 100 und der Lastkraftwagen 430 können an einer Kreuzung angehalten werden.
  • Das Fahrzeug 100 kann, etwa durch Verwenden des Sensorsystems 125 und/oder des Kamerasystems 127, mindestens einen Abschnitt der Umgebung 400 abtasten. Das Fahrzeug 100 kann einen zugehörigen Erfassungsbereich 460 besitzen. Das Fahrzeug 100 kann das Vorhandensein eines Objekts 440 (z. B. eines Fußgängers, Radfahrers, Tiers, etc.) in der externen Umgebung 400 und insbesondere innerhalb des Erfassungsbereichs 460 erfassen.
  • Ein Insassensichtbereich 450 der externen Umgebung 400 kann bestimmt werden. Die Bestimmung des Insassensichtbereichs 450 kann beispielsweise durch das Kamerasystem 127, das Sichtanalysemodul 121 und/oder den Prozessor 110 durchgeführt werden. In diesem Beispiel kann ein Abschnitt des Insassensichtbereichs 450 durch das Vorhandensein des Lastkraftwagens 430 blockiert sein. Demzufolge mag es sein, dass der Insassensichtbereich 450 nicht so groß ist, wie er andernfalls ohne das Vorhandensein des Lastkraftwagens 430 wäre. Die Bestimmung des Insassensichtbereichs 450 kann kontinuierlich oder in irgendeinem geeigneten Intervall durchgeführt werden. Der Insassensichtbereich 450 kann sich basierend auf Veränderungen in der externen Umgebung 400 (z. B. der Lastkraftwagen 430 bewegt sich, ein anderes Fahrzeug kommt hinzu, etc.) ändern.
  • Es sei darauf hingewiesen, dass der in 4 gezeigte Insassensichtbereich 450 für den Fahrer des Fahrzeugs 100 bestimmt wird. Jedoch sind die Anordnungen nicht auf den Fahrersichtbereich beschränkt. In der Tat kann der Insassensichtbereich alternativ oder zusätzlich einen oder mehrere Passagiersichtbereiche beinhalten.
  • Der Ort des erfassten Objekts 440 relativ zu dem Insassensichtbereich 450 kann bestimmt werden. Insbesondere kann bestimmt werden, ob sich das erfasste Objekt 440 außerhalb des bestimmten Insassensichtbereichs 450 befindet. Die Bestimmung kann beispielsweise durch den Prozessor 110 und/oder das Sichtanalysemodul 121 durchgeführt werden. In diesem Beispiel kann bestimmt werden, dass sich das erfasste Objekt 440 außerhalb des bestimmten Insassensichtbereichs 450 befindet.
  • Als Reaktion auf eine solche Bestimmung kann eine Warnung innerhalb des Fahrzeugs 100 präsentiert werden. Die Warnung kann irgendeine Art von Warnung sein, einschließlich beispielsweise einer visuellen Warnung 132 und/oder einer akustischen Warnung 135. Für die Zwecke dieses Beispiels kann eine akustische Warnung 135 präsentiert werden. Die akustische Warnung 135 kann irgendeine geeignete Information bereitstellen. Beispielsweise kann die akustische Warnung 135 darauf hinweisen, dass ein Objekt außerhalb des Insassensichtbereichs erfasst wird. Die akustische Warnung 135 kann auch auf den Ort des erfassten Objekts relativ zu dem Fahrzeug 100, die Beschaffenheit des erfassten Objekts (z. B. Fahrzeug, Fußgänger, etc.), die gegenwärtige Geschwindigkeit des erfassten Objekts und/oder die gegenwärtige Richtung, in der sich das erfasste Objekt bewegt, hinweisen, um nur einige Möglichkeiten zu nennen.
  • In einer oder mehreren Anordnungen kann die akustische Warnung 135 an einem Ort innerhalb des Fahrzeugs 100 ausgestrahlt werden, der im Allgemeinen dem Ort des erfassten Objekts 440 relativ zu dem Fahrzeug 100 entspricht. So befindet sich beispielsweise in der in 4 gezeigten Anordnung das Objekt 440 auf einer linken Seite des Fahrzeugs 100. Dementsprechend kann die akustische Warnung 135 innerhalb des Fahrzeugs 100 auf einem linksseitigen Abschnitt davon, wie etwa aus einem oder mehreren auf der linken Seite des Fahrzeugs 100 befindlichen Lautsprechern 136, ausgestrahlt werden.
  • Wenn die Warnung präsentiert wird, kann einem oder mehreren Fahrzeuginsassen das Vorhandensein eines Objekts in einem Abschnitt der Umgebung 400, der durch das Fahrzeug 100 erfasst wird, der jedoch für den einen oder die mehreren Fahrzeuginsassen nicht sichtbar ist, bewusst gemacht werden. Mit einem solchen Bewusstsein können der eine oder die mehreren Fahrzeuginsassen Vertrauen in den autonomen Betriebsmodus des Fahrzeugs 100 gewinnen. Auch kann der Fahrer beschließen, das Fahrzeug 100 zumindest teilweise im manuellen Modus zu betreiben, oder er kann es dem Fahrzeug 100 weiterhin gestatten, im autonomen Betriebsmodus weiterzufahren.
  • Ein weiteres nicht einschränkendes Beispiel für den Betrieb des Fahrzeugs in Übereinstimmung mit dem Verfahren 300 wird nun in Bezug auf 5 beschrieben. Für die Zwecke dieses Beispiels kann sich das Fahrzeug 100 in einer Umgebung 500 befinden. Das Fahrzeug 100 kann auf einer Straße 505 fahren. Die vorstehende Erörterung der Straße 405 in 4 ist auf die Straße 505 anwendbar. Die Straße 505 kann eine Mehrzahl von Fahrspuren, einschließlich einer ersten Fahrspur 510 und einer zweiten Fahrspur 515, beinhalten.
  • Die gegenwärtige Fahrspur des Fahrzeugs 100 kann die erste Fahrspur 510 sein. Ein Objekt (z. B. zweites Fahrzeug 530) kann sich in der zweiten Fahrspur 515 befinden. Das Fahrzeug 100 und das zweite Fahrzeug 530 können angehalten werden und darauf warten, in einen Kreisverkehr 520 einzufahren. Ein drittes Fahrzeug 540 kann sich in der Umgebung 500 befinden. Das dritte Fahrzeug 540 kann im Kreisverkehr 520 fahren.
  • Das Fahrzeug 100 kann, etwa durch Verwenden des Sensorsystems 125 und/oder des Kamerasystems 127, mindestens einen Abschnitt der Umgebung 500 abtasten. Dementsprechend kann das Fahrzeug 100 einen zugehörigen Erfassungsbereich 560 besitzen. Das Fahrzeug 100 kann das Vorhandensein eines Objekts (z. B. des dritten Fahrzeugs 540) erfassen, wenn sich mindestens ein Abschnitt des dritten Fahrzeugs 560 innerhalb des Erfassungsbereichs 560 befindet.
  • Ein Insassensichtbereich 550 der externen Umgebung 500 kann bestimmt werden. Die Bestimmung des Insassensichtbereichs 550 kann beispielsweise durch das Sensorsystem 125, das Kamerasystem 127, das Sichtanalysemodul 121 und/oder den Prozessor 110 durchgeführt werden. In diesem Beispiel kann der Insassensichtbereich 550 durch das Vorhandensein des zweiten Fahrzeugs 530 teilweise blockiert sein. Demzufolge mag es sein, dass der Insassensichtbereich 550 nicht so groß ist, wie er andernfalls ohne das Vorhandensein des zweiten Fahrzeugs 530 wäre.
  • Der Ort des dritten Fahrzeugs 540 relativ zu dem Insassensichtbereich 550 kann bestimmt werden. Insbesondere kann bestimmt werden, ob sich das dritte Fahrzeug 540 außerhalb des bestimmten Insassensichtbereichs 550 befindet. Die Bestimmung kann beispielsweise durch den Prozessor 110 und/oder das Sichtanalysemodul 121 durchgeführt werden. In diesem Beispiel wird bestimmt, dass sich das dritte Fahrzeug 540 außerhalb des bestimmten Insassensichtbereichs 550 befindet.
  • Als Reaktion auf eine derartige Bestimmung kann eine Warnung innerhalb des Fahrzeugs 100 präsentiert werden. Die Warnung kann irgendeine Art von Warnung sein, einschließlich beispielsweise einer visuellen Warnung 132 und/oder einer akustischen Warnung 135. Für die Zwecke dieses Beispiels kann eine visuelle Warnung 132 präsentiert werden. Die visuelle Warnung 132 kann von einer oder mehreren Komponenten des Ausgabesystems 131, wie etwa einem oder mehreren Displays 133 und/oder einer oder mehreren Lichtquellen 134, präsentiert werden.
  • Die visuelle Warnung 132 kann irgendeine geeignete Form besitzen. In einer oder mehreren Anordnungen stellt die visuelle Warnung 132 irgendeine geeignete Information bereit. Zum Beispiel kann die visuelle Warnung 132 darauf hinweisen, dass ein Objekt außerhalb des Insassensichtbereichs erfasst wird. Die visuelle Warnung 132 kann auch auf den Ort des erfassten Objekts relativ zu dem Fahrzeug 100, die Beschaffenheit des erfassten Objekts (z. B. Fahrzeug, Fußgänger, etc.), die gegenwärtige Geschwindigkeit des erfassten Objekts und/oder die gegenwärtige Richtung, in die sich das erfasste Objekt bewegt, hinweisen, um nur einige Möglichkeiten zu nennen.
  • 7 zeigt ein Beispiel, in dem die visuelle Warnung 132 auf einem Display 133 präsentiert wird. Um die Beschreibung zu erleichtern, entspricht die auf dem Display 133 präsentierte visuelle Warnung 132 allgemein dem in 5 für dieses Beispiel präsentierten Szenarium. In einer oder mehreren Anordnungen kann die visuelle Warnung 132 eine Darstellung der externen Umgebung 710 beinhalten. Die Darstellung der externen Umgebung 710 kann graphische, photographische, Video-, Satelliten- und/oder Karteninformationen oder -daten präsentieren, welche aus irgendeiner geeigneten Quelle erhalten werden können, einschließlich beispielsweise aus dem Datenspeicher 115, dem Navigationssystem 180 und einer anderen geeigneten Quelle, mit der ein oder mehrere Elemente des Fahrzeugs 100 betriebsmäßig verbunden sind. Eine solche Quelle kann sich außerhalb des Fahrzeugs 100 befinden.
  • Die visuelle Warnung 132 kann eine Darstellung des/der erfassten Objekte 740 in der externen Umgebung beinhalten. Insbesondere kann die visuelle Warnung 132 eine Darstellung des/der erfassten Objekte 740 beinhalten, die sich außerhalb des Insassensichtbereichs befinden. In einer oder mehreren Anordnungen kann die visuelle Warnung 132 eine Darstellung jener erfassten Objekte beinhalten, die sich innerhalb des Insassensichtbereichs befinden. Alternativ mag es in einer oder mehreren Anordnungen sein, dass die visuelle Warnung 132 keine Darstellung der erfassten Objekte beinhaltet, die sich innerhalb des Insassensichtbereichs befinden. Zum Beispiel ist in 7 keine Darstellung des zweiten Fahrzeugs 530 beinhaltet. Die Darstellung des/der erfassten Objekte 740 kann über die Darstellung der externen Umgebung 710 gelegt sein, wie in 7 gezeigt. Die Darstellung des/der erfassten Objekte 740 kann im Wesentlichen lagegenau relativ zu der Darstellung der externen Umgebung 710 positioniert sein.
  • Die visuelle Warnung 132 kann eine Darstellung des Insassensichtbereichs 750 und/oder eine Darstellung des Erfassungsbereichs 760 beinhalten. Die Darstellung des Insassensichtbereichs 750 und/oder die Darstellung des Erfassungsbereichs 760 können über die Darstellung der externen Umgebung 710 gelegt sein. In einigen Fällen können die Darstellung des Insassensichtbereichs 750 und/oder die Darstellung des Erfassungsbereichs 760 in einer oder mehrfacher Hinsicht, einschließlich beispielsweise unterschiedlicher Farben, Schattierung oder Grenzen, voneinander unterscheidbar sein.
  • Alternativ oder zusätzlich zu dem Vorstehenden kann die visuelle Warnung 132 eine oder mehrere Lichtquellen 134 beinhalten. In einem solchen Fall können eine oder mehrere der Lichtquellen zum Emittieren von Lichtenergie aktiviert werden, um einen Insassen des Fahrzeugs 100 zu warnen, dass ein Objekt in der externen Umgebung erfasst wird, das sich nicht innerhalb des bestimmten Insassensichtbereichs befindet.
  • In einer oder mehreren Anordnungen können die Lichtquellen an einem Ort innerhalb des Fahrzeugs 100 aktiviert werden, der generell dem Ort des einen oder der mehreren erfassten Objekte entspricht, welche sich außerhalb des bestimmten Insassensichtbereichs befinden. So befindet sich beispielsweise in der in 5 gezeigten Anordnung das Objekt (z. B. drittes Fahrzeug 540) auf der linken Seite des Fahrzeugs 100. Dementsprechend können eine oder mehrere Lichtquellen auf der linken Seite des Fahrzeugs 100 aktiviert werden.
  • Ein weiteres Beispiel eines Verfahrens zum Betreiben eines autonomen Fahrzeugs in Abschnitten einer externen Umgebung mit blockierter Sicht wird nun beschrieben. Bezugnehmend auf 3 ist ein Beispiel eines Verfahrens zum Betreiben eines autonomen Fahrzeugs in Abschnitten einer externen Umgebung mit blockierter Sicht gezeigt. Verschiedene mögliche Schritte des Verfahrens 300 werden nun beschrieben. Das in 3 veranschaulichte Verfahren 300 mag auf die vorstehend in Bezug auf 1 beschriebenen Ausführungsformen anwendbar sein, doch versteht sich, dass das Verfahren 300 mit anderen geeigneten Systemen und Anordnungen ausführbar ist. Überdies kann das Verfahren 300 andere Schritte beinhalten, die hier nicht gezeigt sind, und in der Tat ist das Verfahren 300 nicht darauf beschränkt, jeden in 3 gezeigten Schritt zu beinhalten. Die Schritte, die hier als Teil des Verfahrens 300 veranschaulicht sind, sind nicht auf diese spezielle chronologische Reihenfolge beschränkt. In der Tat können einige der Schritte in einer anderen als der gezeigten Reihenfolge durchgeführt werden, und/oder zumindest einige der gezeigten Schritte können gleichzeitig erfolgen.
  • Block 310, Block 320 und Block 330 in 3 ähneln Block 210, Block 220 bzw. Block 230 in 2. Dementsprechend gilt die vorstehend in Bezug auf die Blöcke 210, 220 und 230 geführte Erörterung gleichermaßen für die Blöcke 310, 320 bzw. 330. Das Verfahren kann mit Block 340 fortfahren.
  • Bei Block 340 kann das Fahrzeug 100 als Reaktion auf die Bestimmung, dass sich eines oder mehrere des einen oder der mehreren erfassten Objekte außerhalb des bestimmten Insassensichtbereichs befinden, veranlasst werden, einen gegenwärtigen Fahrvorgang des Fahrzeugs 100 zu modifizieren. In einer oder mehreren Anordnungen können der Prozessor 110 und/oder das Fahrmodul 120 das Fahrzeug 100 veranlassen, den gegenwärtigen Fahrvorgang zu modifizieren. Der Prozessor 110 und/oder das Fahrmodul 120 können mit einem oder mehreren der Fahrzeugsysteme 145 betriebsmäßig verbunden sein, um die Modifikation des gegenwärtigen Fahrvorgangs des Fahrzeugs 100 zu veranlassen. In einer oder mehreren Anordnungen können der Prozessor 110 und/oder das Fahrmodul 120 betreibbar sein, um das eine oder die mehreren Stellglieder 140 zu steuern, welche eines oder mehrere der Fahrzeugsysteme 145 oder Teile davon steuern können, um die Modifikation des gegenwärtigen Fahrvorgangs des Fahrzeugs 100 zu veranlassen.
  • Irgendeine geeignete Modifikation des gegenwärtigen Fahrvorgangs des Fahrzeugs 100 kann veranlasst werden. In einer oder mehreren Anordnungen kann die Modifikation des gegenwärtigen Fahrvorgangs ein Verringern der Geschwindigkeit des Fahrzeugs 100 beinhalten. Alternativ oder zusätzlich kann die Modifikation des gegenwärtigen Fahrvorgangs ein Bewegen des Fahrzeugs 100 auf eine vorsichtige Weise beinhalten.
  • Wenn der gegenwärtige Fahrvorgang modifiziert wird, kann das Verfahren 300 enden. Alternativ kann das Verfahren 300 zu Block 310 zurückkehren. Als eine weitere Alternative kann das Verfahren 300 zusätzliche Blöcke (nicht gezeigt) beinhalten. Zum Beispiel kann die Modifikation des gegenwärtigen Fahrvorgangs abgebrochen werden, sobald sich das Fahrzeug 100 bis zu einer Stelle bewegt hat, an der sich das eine oder die mehreren erfassten Objekte innerhalb des Insassensichtbereichs befinden. Es sei darauf hingewiesen, dass in einer oder mehreren Anordnungen als Reaktion auf die Bestimmung, dass sich das eine oder die mehreren erfassten Objekte innerhalb des bestimmten Insassensichtbereichs befinden, keine Maßnahme ergriffen wird (z. B. wird der gegenwärtige Fahrvorgang nicht modifiziert). Alternativ oder zusätzlich wird als Reaktion auf die Bestimmung, dass sich keines des einen oder der mehreren erfassten Objekte außerhalb des bestimmten Insassensichtbereichs befindet, keine Maßnahme ergriffen (z. B. wird der gegenwärtige Fahrvorgang nicht modifiziert).
  • Ein nicht einschränkendes Beispiel für den Betrieb des Fahrzeugs in Übereinstimmung mit dem Verfahren 300 wird nun in Bezug auf 6 beschrieben. Für die Zwecke dieses Beispiels kann das Fahrzeug 100 in einer Umgebung 600 auf einer Straße 605 fahren. Die vorstehende Erörterung der Straße 405 in 4 ist auf die Straße 605 anwendbar. Die Straße 605 kann eine Mehrzahl von Fahrspuren beinhalten, einschließlich einer ersten Fahrspur 610, einer zweiten Fahrspur 615 und einer dritten Fahrspur 620.
  • In der in 6 gezeigten Anordnung kann die Straße 605 für zwei Fahrtrichtungen vorgesehen sein. Für die Zwecke dieses Beispiels können sich Fahrzeuge in einer ersten Fahrtrichtung 618 in der ersten Fahrspur 610 und der zweiten Fahrspur 615 bewegen, und Fahrzeuge können sich in einer zweiten Fahrtrichtung 617 in der dritten Fahrspur 420 bewegen. Die erste Fahrtrichtung 618 ist von der zweiten Fahrtrichtung 617 verschieden. In einer oder mehreren Anordnungen kann die erste Fahrtrichtung 618 im Wesentlichen entgegengesetzt zu der zweiten Richtung 617 sein, wie in 6 gezeigt. Es versteht sich, dass die in 6 gezeigten konkreten Anordnungen lediglich als ein Beispiel vorgesehen sind, und dass hierin beschriebene Anordnungen nicht auf dieses Beispiel beschränkt sind.
  • In 6 kann die gegenwärtige Fahrspur des Fahrzeugs 100 die erste Fahrspur 610 sein. Ein oder mehrere Objekte (z. B. ein Lastkraftwagen 630 und ein vorderes Fahrzeug 635) können sich in der zweiten Fahrspur 615 befinden. Ein Objekt (z. B. ein abbiegendes Fahrzeug 640) kann sich in der dritten Fahrspur 620 befinden. Das abbiegende Fahrzeug 640 kann auf eine Gelegenheit warten, nach links in eine Querstraße 680 abzubiegen. Die Querstraße 680 und die Straße 605 können irgendeine geeignete Ausrichtung zueinander besitzen. Beispielsweise können die Querstraße 680 und die Straße 605 um etwa 90 Grad relativ zueinander ausgerichtet sein, wie in 6 gezeigt.
  • Das Fahrzeug 100 kann, etwa durch Verwenden des Sensorsystems 125 und/oder des Kamerasystems 127, mindestens einen Abschnitt der Umgebung 600 abtasten. Das Fahrzeug 100 kann einen zugehörigen Erfassungsbereich 660 besitzen. Das Fahrzeug 100 kann das Vorliegen eines Objekts (z. B. des dritten Fahrzeugs 640) erfassen, wenn sich das dritte Fahrzeug 640 innerhalb des Erfassungsbereichs 660 befindet.
  • Ein Insassensichtbereich 650 der externen Umgebung 600 kann bestimmt werden. Die Bestimmung des Insassensichtbereichs 650 kann beispielsweise durch das Sensorsystem 125, das Kamerasystem 127, das Sichtanalysemodul 121 und/oder den Prozessor 110 durchgeführt werden. In diesem Beispiel kann der Insassensichtbereich 650 durch das Vorhandensein des Lastkraftwagens 630 und/oder des vorderen Fahrzeugs 635 teilweise blockiert sein. Demzufolge mag es sein, dass der Insassensichtbereich 650 nicht so groß ist, wie er andernfalls ohne das Vorhandensein solcher Hindernisobjekte wäre.
  • Der Ort des dritten Fahrzeugs 640 relativ zu dem Insassensichtbereich 650 kann bestimmt werden. Insbesondere kann bestimmt werden, ob sich das dritte Fahrzeug 640 außerhalb des bestimmten Insassensichtbereichs 650 befindet. Die Bestimmung kann durch den Prozessor 110 und/oder das Sichtanalysemodul 121 durchgeführt werden. In diesem Beispiel wird bestimmt, dass sich das dritte Fahrzeug 640 außerhalb des bestimmten Insassensichtbereichs 650 befindet.
  • Als Reaktion auf eine solche Bestimmung kann das Fahrzeug 100 veranlasst werden, einen gegenwärtigen Fahrvorgang zu modifizieren. Beispielsweise kann die gegenwärtige Geschwindigkeit des Fahrzeugs 100 verringert werden. Das Fahrzeug kann mit einer gegenwärtigen Geschwindigkeit fahren. Die Geschwindigkeit des Fahrzeugs 100 kann um einen vorbestimmten Betrag bezogen auf die gegenwärtige Geschwindigkeit oder die angegebene Geschwindigkeitsbegrenzung, um einen vorbestimmten Prozentsatz bezogen auf die gegenwärtige Geschwindigkeit oder die angegebene Geschwindigkeitsbegrenzung oder um eine fest vorgegebene Geschwindigkeit verringert werden. In einer oder mehreren Anordnungen kann der vorbestimmte Prozentsatz mindestens etwa 10%, mindestens etwa 15%, mindestens etwa 20%, mindestens etwa 25%, mindestens etwa 30%, mindestens etwa 35%, mindestens etwa 40%, mindestens etwa 45% oder mindestens etwa 50% der gegenwärtigen Geschwindigkeit des Fahrzeugs oder der angegebenen Geschwindigkeitsbegrenzung betragen. Das Fahrzeug 100 kann mindestens solange mit der reduzierten Geschwindigkeit weiterbetrieben werden, bis bestimmt wird, dass sich das dritte Fahrzeug 640 innerhalb des erfassten Insassensichtbereichs 650 befindet.
  • Bezugnehmend auf 8 wird nun ein Beispiel eines weiteren Verfahrens zum Betreiben eines autonomen Fahrzeugs in Abschnitten einer Fahrtroute mit blockierter Sicht aufgezeigt. Verschiedene mögliche Schritte des Verfahrens 800 werden nun beschrieben. Das in 8 veranschaulichte Verfahren 800 mag auf die vorstehend in Bezug auf 1 beschriebenen Ausführungsformen anwendbar sein, doch versteht sich, dass das Verfahren 800 mit anderen geeigneten Systemen und Anordnungen ausführbar ist. Überdies kann das Verfahren 800 andere Schritte beinhalten, die hier nicht gezeigt sind, und in der Tat ist das Verfahren 800 nicht darauf beschränkt, jeden in 8 gezeigten Schritt zu beinhalten. Die hier als Teil des Verfahrens 800 veranschaulichten Schritte sind nicht auf diese spezielle chronologische Reihenfolge beschränkt. In der Tat können einige der Schritte in einer anderen als der gezeigten Reihenfolge durchgeführt werden, und/oder zumindest einige der gezeigten Schritte können gleichzeitig erfolgen.
  • Bei Block 810 kann ein informationsrelevanter Bereich entlang mindestens eines Abschnitts der Fahrtroute identifiziert werden. Der informationsrelevante Bereich kann mit einem künftigen Fahrvorgang des Fahrzeugs 100 zusammenhängen. In einer oder mehreren Anordnungen kann das Identifizieren des informationsrelevanten Bereichs durch das Bestimmungsmodul 122 eines informationsrelevanten Bereichs, das Navigationssystem 180 und/oder den Prozessor 110 durchgeführt werden. In einigen Anordnungen kann das Identifizieren des informationsrelevanten Bereichs kontinuierlich oder in irgendeinem geeigneten Intervall durchgeführt werden. Das Verfahren 800 kann mit Block 820 fortfahren.
  • Bei Block 820 kann ein Insassensichtbereich der externen Umgebung bestimmt werden. Die Bestimmung des Insassensichtbereichs kann durch irgendein geeignetes Element oder eine Kombination von Elementen des Fahrzeugs 100 durchgeführt werden. In einer oder mehreren Anordnungen kann die Bestimmung des Insassensichtbereichs durch das Sensorsystem 125, das Kamerasystem 127 (z. B. eine oder mehrere Insassensichtkameras), das Sichtanalysemodul 121 und/oder den Prozessor 110 durchgeführt werden. Die Bestimmung des Insassensichtbereichs kann kontinuierlich oder in irgendeinem geeigneten Intervall durchgeführt werden. Das Verfahren 800 kann mit Block 830 fortfahren.
  • Bei Block 830 kann bestimmt werden, ob sich mindestens ein Abschnitt des informationsrelevanten Bereichs außerhalb des bestimmten Insassensichtbereichs befindet. Die Bestimmung kann durch irgendein geeignetes Element oder eine Kombination von Elementen des Fahrzeugs 100 durchgeführt werden. Beispielsweise kann die Bestimmung in einer oder mehreren Anordnungen durch den Prozessor 110, das Sichtanalysemodul 121 und/oder das Bestimmungsmodul 122 eines informationsrelevanten Bereichs durchgeführt werden. Die Bestimmung des Insassensichtbereichs kann kontinuierlich oder in irgendeinem geeigneten Intervall durchgeführt werden. Das Verfahren 800 kann mit Block 840 fortfahren.
  • Bei Block 840 kann – als Reaktion auf die Bestimmung, dass sich mindestens ein Abschnitt des informationsrelevanten Bereichs außerhalb des bestimmten Insassensichtbereichs befindet – eine Modifikation eines gegenwärtigen Fahrvorgangs des Fahrzeugs 100 veranlasst werden. Irgendeine geeignete Modifikation eines gegenwärtigen Fahrvorgangs des Fahrzeugs 100 kann durchgeführt werden. Zum Beispiel kann der gegenwärtige Fahrvorgang ein Vorwärtsfahren mit einer gegenwärtigen Geschwindigkeit sein. In einem solchen Fall kann der gegenwärtige Fahrvorgang durch Verringern der Geschwindigkeit des Fahrzeugs modifiziert werden. Es sei darauf hingewiesen, dass die Modifikation des gegenwärtigen Fahrvorgangs des Fahrzeugs 100 automatisch umgesetzt werden kann. Ferner kann die Modifikation des gegenwärtigen Fahrvorgangs des Fahrzeugs 100 ungeachtet dessen umgesetzt werden, ob das Fahrzeug 100 (z. B. das Sensorsystem 125 und/oder das Kamerasystem 127) in der Lage ist, den gesamten informationsrelevanten Bereich abzutasten.
  • In einer oder mehreren Anordnungen können der Prozessor 110 und/oder das Fahrmodul 120 das Fahrzeug 100 veranlassen, den gegenwärtigen Fahrvorgang des Fahrzeugs 100 zu modifizieren. Der Prozessor 110 und/oder das Fahrmodul 120 können mit einem oder mehreren der Fahrzeugsysteme 145 betriebsmäßig verbunden sein, um zu veranlassen, dass eine Modifikation eines gegenwärtigen Fahrvorgangs des Fahrzeugs 100 umgesetzt wird. In einer oder mehreren Anordnungen können der Prozessor 110 und/oder das Fahrmodul 120 betreibbar sein, um das eine oder die mehreren Stellglieder 140 zu steuern, welche eines oder mehrere der Fahrzeugsysteme 145 oder Teile davon steuern können, um die Modifikation des gegenwärtigen Fahrvorgangs umzusetzen.
  • Wenn die Modifikation des gegenwärtigen Fahrvorgangs umgesetzt ist, kann das Verfahren 800 enden. Alternativ kann das Verfahren 800 zu Block 810 zurückkehren. Als eine weitere Alternative kann das Verfahren 800 zusätzliche Blöcke (nicht gezeigt) beinhalten. In einigen Fällen kann die Modifikation des gegenwärtigen Fahrvorgangs abgebrochen werden, sobald sich das Fahrzeug 100 bis zu einer vorbestimmten Stelle bewegt hat. Die vorbestimmte Stelle kann irgendeine Stelle sein, für die bestimmt wird, dass sich der informationsrelevante Bereich gänzlich innerhalb des Insassensichtbereichs befindet. Alternativ kann die vorbestimmte Stelle eine Stelle sein, für die bestimmt wird, dass sich ein Großteil des informationsrelevanten Bereichs (z. B. mindestens etwa 51%, mindestens etwa 55%, mindestens etwa 60%, mindestens etwa 65%, mindestens etwa 70%, mindestens etwa 75%, mindestens etwa 80%, mindestens etwa 85%, mindestens etwa 90% oder mindestens etwa 95%) innerhalb des Insassensichtbereichs befindet.
  • Das Verfahren 800 kann in verschiedenen Szenarien umgesetzt werden. In einer oder mehreren Anordnungen kann das Verfahren 800 in Fällen umgesetzt werden, in denen der Fahrer für den sicheren Betrieb des Fahrzeugs 100 verantwortlich ist. Falls das Fahrzeug 100 (z. B. das Sensorsystem 125 und/oder das Kamerasystem 127) keine Objekte in einem informationsrelevanten Bereich erfasst, der mit einem künftigen Fahrvorgang zusammenhängt, und falls das Fahrzeug 100 (z. B. das Sensorsystem 125 und/oder das Fahrmodul 120) bestimmt, dass es sicher ist, mit dem künftigen Fahrvorgang fortzufahren, kann es sein, dass sich der Fahrer des Fahrzeugs 100 zumindest in manchen Fällen nicht auf diese Bestimmung verlassen will und/oder sollte. Zum Beispiel könnte ein Ausfall mindestens eines Teils des Sensorsystems 125 und/oder mindestens eines Teils des Kamerasystems 127 vorliegen. In Bezug auf derartige informationsrelevante Bereiche sollte der Fahrer sich visuell von der Unbedenklichkeit der Situation überzeugen statt sich auf das Fahrzeug 100 zu verlassen. Falls somit bestimmt wird, dass der Fahrer mindestens einen Abschnitt des informationsrelevanten Bereichs nicht sehen kann, welcher mit einem künftigen Fahrvorgang zusammenhängt, dann kann die gegenwärtige Geschwindigkeit des Fahrzeugs 100 verringert werden oder irgendeine andere Modifikation des gegenwärtigen Fahrvorgangs kann unternommen werden, so dass der Fahrer oder ein anderer Fahrzeuginsasse den informationsrelevanten Bereich visuell oder auf andere Weise wahrnehmen kann.
  • Ein nicht einschränkendes Beispiel für den Betrieb des Fahrzeugs 100 in Übereinstimmung mit dem Verfahren 800 wird nun in Bezug auf 9 beschrieben. Für die Zwecke dieses Beispiels kann das Fahrzeug 100 in einer Umgebung 900 fahren, die eine erste Straße 905 und eine zweite Straße 910 beinhaltet. Die erste Straße 905 und die zweite Straße 910 können sich kreuzen, so dass sie eine Kreuzung 925 bilden. In einer oder mehreren Anordnungen kann Verkehr in Bezug auf die Kreuzung 925 unter Verwendung irgendeiner geeigneten Verkehrssteuerungsvorrichtung (z. B. Stoppschilder, Ampeln, etc.) reguliert werden. In einer oder mehreren Anordnungen kann es sein, dass die Kreuzung 925 keine zugehörige Verkehrssteuerungsvorrichtung aufweist. Die erste Straße 905 und die zweite Straße 910 können in irgendeinem geeigneten Winkel zueinander ausgerichtet sein. Beispielsweise können die erste Straße 905 und die zweite Straße 910 im Wesentlichen um 90 Grad zueinander ausgerichtet sein, wie in 9 gezeigt. Jedoch können die erste Straße 905 und die zweite Straße 910 in einer oder mehreren Anordnungen in einem spitzen Winkel relativ zueinander ausgerichtet sein. In einer oder mehreren Anordnungen können die erste Straße 905 und die zweite Straße 910 stumpfwinklig zueinander abgewinkelt sein. Ferner kann die Kreuzung 925 in einigen Anordnungen durch mehr als zwei Straßen gebildet sein.
  • Die erste Straße 905 und die zweite Straße 910 können irgendeine geeignete Gestaltung und/oder Anordnung aufweisen. Die erste Straße 905 und/oder die zweite Straße 910 können für zwei Fahrtrichtungen vorgesehen sein, einschließlich einer Mehrzahl von Fahrspuren. Für die Zwecke dieses Beispiels kann die erste Straße 905 einen ersten Satz einer oder mehrerer Fahrspuren 903 und einen zweiten Satz einer oder mehrerer Fahrspuren 904 beinhalten. Der erste Satz von Fahrspuren 903 kann für Fahrzeugverkehr in einer ersten Richtung 916 vorgesehen oder bestimmt sein. Der zweite Satz von Fahrspuren 904 kann für Fahrzeugverkehr in einer zweiten Richtung 917 vorgesehen oder bestimmt sein. Die erste Richtung 916 kann von der zweiten Richtung 917 verschieden sein. Beispielsweise kann die erste Richtung 916 im Wesentlichen entgegengesetzt zur zweiten Richtung 917 sein.
  • Der erste Satz von Fahrspuren 903 und der zweite Satz von Fahrspuren 904 können irgendeine geeignete Art und/oder Anzahl von Fahrspuren beinhalten. Beispielsweise zeigt 9 ein Beispiel, in dem der erste Satz von Fahrspuren 903 – zumindest in Bezug auf den Abschnitt der ersten Straße 905 unterhalb der Kreuzung 925 – eine Fahrspur 907 und eine eigens vorgesehene Rechtsabbiegerspur 908 beinhalten kann. Der zweite Satz von Fahrspuren 904 kann eine einzige Fahrspur 906 beinhalten.
  • Die zweite Straße 910 kann einen dritten Satz einer oder mehrerer Fahrspuren 918 und einen vierten Satz einer oder mehrerer Fahrspuren 919 beinhalten. Der dritte Satz von Fahrspuren 918 kann für Fahrzeugverkehr in einer dritten Richtung 913 vorgesehen oder bestimmt sein. Der vierte Satz von Fahrspuren 919 kann für Fahrzeugverkehr in einer vierten Richtung 914 vorgesehen oder bestimmt sein. Die dritte Richtung 913 kann von der vierten Richtung 914 verschieden sein. Zum Beispiel kann die dritte Richtung 913 im Wesentlichen entgegengesetzt zur vierten Richtung 914 sein.
  • Der dritte Satz von Fahrspuren 918 und der vierte Satz von Fahrspuren 919 können irgendeine geeignete Art und/oder Anzahl von Fahrspuren beinhalten. Beispielsweise zeigt 9 ein Beispiel, in dem der dritte Satz von Fahrspuren 918 eine Fahrspur 912 beinhalten kann und der vierte Satz von Fahrspuren 919 eine Fahrspur 914 beinhalten kann.
  • Es versteht sich, dass Anordnungen, die hierin in Bezug auf die erste Straße 905, die zweite Straße 910 und/oder die Kreuzung 925 gezeigt und beschrieben sind, lediglich als Beispiele vorgesehen sind, und dass die Anordnungen nicht auf die gezeigten und beschriebenen speziellen Anordnungen beschränkt sind. In der Tat können hierin beschriebene Anordnungen im Zusammenhang mit Straßen verwendet werden, die irgendeine Anzahl, Art und/oder Anordnung von Fahrspuren aufweisen.
  • Das Fahrzeug 100 kann auf der ersten Straße 905 fahren. Der gegenwärtige Fahrweg des Fahrzeugs 100 kann ein Rechtsabbiegen in die zweite Straße 910 beinhalten. Das Fahrzeug 100 kann sich der Kreuzung 925 nähern, während es in der ersten Richtung 916 fährt. Während es sich der Kreuzung 925 nähert, kann die gegenwärtige Fahrspur des Fahrzeugs 100 die eigens vorgesehene Rechtsabbiegerspur 908 sein. Ein anderes Fahrzeug 930 kann sich in der Fahrspur 907 befinden. Dem Fahrzeug 100 und dem anderen Fahrzeug 930 kann etwa durch eine Verkehrssteuerungsvorrichtung bedeutet werden, vor dem Weiterfahren in die Kreuzung 925 anzuhalten.
  • Ein informationsrelevanter Bereich entlang mindestens eines Abschnitts der Fahrtroute kann durch das Fahrzeug 100 (z. B. das Bestimmungsmodul 122 eines informationsrelevanten Bereichs, das Navigationssystem 180 und/oder den Prozessor 110) identifiziert werden. Der informationsrelevante Bereich kann mit einem geplanten künftigen Fahrvorgang des Fahrzeugs 100 zusammenhängen. In diesem Beispiel kann der geplante künftige Fahrvorgang ein Rechtsabbiegen in die zweite Straße 910 sein. Infolgedessen kann ein informationsrelevanter Bereich einen Bereich 950 der Fahrspur 912 beinhalten, der sich (in 9) links der Kreuzung 925 befindet, da Fahrzeuge, die sich in diesem Bereich 950 bewegen, für das Fahrzeug 100 von Interesse wären, während es in die zweite Straße 910 einbiegt.
  • Das Fahrzeug 100 kann einen Insassensichtbereich 960 der externen Umgebung 900 bestimmen. Jedoch kann der Insassensichtbereich 960 aufgrund des Vorhandenseins des anderen Fahrzeugs 930 beeinträchtigt sein. In einem solchen Fall mag es sein, dass der Insassensichtbereich 960 nicht so groß ist, wie er andernfalls in Abwesenheit des anderen Fahrzeugs 960 wäre.
  • Das Fahrzeug 100 (das Sichtanalysemodul 121, das Bestimmungsmodul 122 eines informationsrelevanten Bereichs und/oder der Prozessor 110) kann bestimmen, ob sich mindestens ein Abschnitt des informationsrelevanten Bereichs 950 außerhalb des bestimmten Insassensichtbereichs 960 befindet. Als Reaktion auf die Bestimmung, dass sich mindestens ein Abschnitt des informationsrelevanten Bereichs außerhalb des bestimmten Insassensichtbereichs befindet, kann eine Modifikation eines gegenwärtigen Fahrvorgangs des Fahrzeugs 100 veranlasst werden. Zum Beispiel kann die Modifikation des gegenwärtigen Fahrvorgangs des Fahrzeugs 100 ein Verringern einer gegenwärtigen Geschwindigkeit des Fahrzeugs 100 beinhalten. In einem solchen Fall kann die gegenwärtige Geschwindigkeit des Fahrzeugs 100 auf eine reduzierte Geschwindigkeit verringert werden. Die reduzierte Geschwindigkeit kann mindestens so lange beibehalten werden, bis der erfasste Insassensichtbereich des informationsrelevanten Bereichs den gesamten informationsrelevanten Bereich oder zumindest einen erheblichen Großteil des informationsrelevanten Bereichs beinhaltet.
  • In einer oder mehreren Anordnungen können der Prozessor 110 und/oder das Fahrmodul 120 das Fahrzeug 100 veranlassen, den gegenwärtigen Fahrvorgang zu modifizieren. Der Prozessor 110 und/oder das Fahrmodul 120 können mit einem oder mehreren der Fahrzeugsysteme 145 betriebsmäßig verbunden sein, um den gegenwärtigen Fahrvorgang des Fahrzeugs 100 umzusetzen. In einer oder mehreren Anordnungen können der Prozessor 110 und/oder das Fahrmodul 120 betreibbar sein, um das eine oder die mehreren Stellglieder 140 zu steuern, welche eines oder mehrere der Fahrzeugsysteme 145 oder Teile davon steuern können, um den gegenwärtigen Fahrvorgang umzusetzen.
  • Es sei darauf hingewiesen, dass ein Fahrzeuginsasse (z. B. ein Fahrer und/oder anderer Passagier) in einer oder mehreren Anordnungen aufgefordert werden kann, die Genehmigung zum Umsetzen des künftigen Fahrvorgangs zu erteilen. Der Fahrzeuginsasse kann auf irgendeine geeignete Weise aufgefordert werden. Beispielsweise kann eine Aufforderung auf einem Display innerhalb des Fahrzeugs 100 präsentiert werden. Alternativ oder zusätzlich kann die Aufforderung über einen oder mehrere Audiokanäle akustisch an den Fahrer oder anderen Passagier ausgegeben werden. Andere Formen des Aufforderns können alternativ oder zusätzlich zu den vorstehend beschriebenen Formen des Aufforderns verwendet werden. Als Reaktion auf den Empfang einer Eingabe, die der Zustimmung eines Fahrzeuginsassen zur Umsetzung des künftigen Fahrvorgangs entspricht, kann das Fahrzeug 100 veranlasst werden, den künftigen Fahrvorgang umzusetzen.
  • Es versteht sich, dass hierin beschriebene Anordnungen zahlreiche Vorteile bereitstellen können, einschließlich eines oder mehrerer der hierin erwähnten Vorteile. Beispielsweise können hierin beschriebene Anordnungen die Leistung eines autonomen Fahrzeugs verbessern, wenn es in Umgebungen mit blockierter Sicht betrieben wird. Hierin beschriebene Anordnungen können bei Fahrzeuginsassen einen Grad an Sicherheit und Vertrauen schaffen, indem diese darüber informiert werden, dass das Fahrzeug Kenntnis vom Vorhandensein von Objekten hat, die für einen oder mehrere der Fahrzeuginsassen möglicherweise nicht sichtbar sind. Hierin beschriebene Anordnungen können auch dadurch bei Fahrzeuginsassen einen Grad an Sicherheit und Vertrauen schaffen und/oder die Sicherheit des Fahrzeugs verbessern, indem sie einen gegenwärtigen Fahrvorgang des autonomen Fahrzeugs modifizieren. Ferner können hierin beschriebene Anordnungen auch den sicheren Betrieb des Fahrzeugs verbessern, indem sie einen gegenwärtigen Fahrvorgang des autonomen Fahrzeugs modifizieren, wenn sich informationsrelevante Bereiche bezüglich künftiger Fahrvorgänge außerhalb des bestimmten Insassensichtbereichs befinden.
  • Die Flussdiagramme und Blockdiagramme in den Figuren veranschaulichen die Architektur, Funktionalität und den Betrieb möglicher Implementierungen von Systemen, Verfahren und Computerprogrammprodukten gemäß verschiedenen Ausführungsformen. In dieser Hinsicht kann jeder Block in den Flussdiagrammen oder Blockdiagrammen ein Modul, Segment oder einen Abschnitt eines Codes darstellen, welcher eine oder mehrere ausführbare Anweisungen zum Implementieren der angegebenen logischen Funktion(en) umfasst. Es sei auch darauf hingewiesen, dass die in dem Block angegebenen Funktionen in einigen alternativen Implementierungen in einer anderen als in der in den Figuren angegebenen Reihenfolge ablaufen können. Beispielsweise können zwei nacheinander gezeigte Blöcke in Wirklichkeit im Wesentlichen gleichzeitig ausgeführt werden, oder die Blöcke können mitunter, je nach der damit verbundenen Funktionalität, in der umgekehrten Reihenfolge ausgeführt werden.
  • Die vorstehend beschriebenen Systeme, Komponenten und/oder Prozesse können in Hardware oder einer Kombination aus Hardware und Software realisiert sein und können auf zentralisierte Weise in einem Verarbeitungssystem oder auf eine verteilte Weise realisiert sein, wobei unterschiedliche Elemente über mehrere miteinander verbundene Verarbeitungssysteme verteilt sind. Irgendeine Art von Verarbeitungssystem oder ein anderes Gerät, das zum Durchführen der hierin beschriebenen Verfahren ausgelegt ist, ist geeignet. Eine typische Kombination aus Hardware und Software kann ein Verarbeitungssystem mit einem computerverwendbaren Programmcode sein, der, wenn er geladen und ausgeführt wird, das Verarbeitungssystem derart steuert, dass es die hierin beschriebenen Verfahren durchführt. Die Systeme, Komponenten und/oder Prozesse können auch in einen computerlesbaren Speicher eingebettet sein, wie etwa ein Computerprogrammprodukt oder eine andere maschinenlesbare Datenprogrammspeichervorrichtung, die ein Programm von Anweisungen dinglich verkörpert, welche durch die Maschine ausführbar sind, um hierin beschriebene Verfahren und Prozesse durchzuführen. Diese Elemente können auch in ein Anwendungsprodukt eingebettet sein, das alle Merkmale umfasst, welche die Umsetzung der hierin beschriebenen Verfahren ermöglichen, und das diese Verfahren durchführen kann, wenn es in ein Verarbeitungssystem geladen wird.
  • Ferner können hierin beschriebene Anordnungen in Form eines Computerprogrammprodukts vorliegen, das in einem oder mehreren computerlesbaren Medien mit einem darauf enthaltenen, z. B. gespeicherten, computerlesbaren Programmcode enthalten ist. Irgendeine Kombination von einem oder mehreren computerlesbaren Medien kann verwendet werden. Das computerlesbare Medium kann ein computerlesbares Signalmedium oder ein computerlesbares Speichermedium sein. Die Formulierung „computerlesbares Speichermedium” bedeutet ein nicht transitorisches Speichermedium. Ein computerlesbares Speichermedium kann beispielsweise ein elektronisches, magnetisches, optisches, elektromagnetisches, Infrarot- oder Halbleitersystem, -gerät oder -vorrichtung sein oder irgendeine geeignete Kombination der Vorstehenden, ist jedoch nicht hierauf beschränkt. Konkretere Beispiele (eine nicht erschöpfende Aufstellung) des computerlesbaren Speichermediums würden die Folgenden umfassen: einen elektrischen Anschluss mit einem oder mehreren Drähten, eine tragbare Computerdiskette, ein Festplattenlaufwerk (HDD), ein Halbleiterlaufwerk (SSD), einen Direktzugriffsspeicher (RAM), einen Nur-Lese-Speicher (ROM), einen löschbaren, programmierbaren Nur-Lese-Speicher (EPROM oder Flash-Speicher), eine optische Faser, einen tragbaren Compactdisc-Nur-Lese-Speicher (CD-ROM), eine Digital-Versatile-Disc (DVD), eine optische Speichervorrichtung, eine magnetische Speichervorrichtung oder irgendeine geeignete Kombination der Vorstehenden. Im Zusammenhang mit diesem Dokument kann ein computerlesbares Speichermedium irgendein dingliches Medium sein, das ein Programm zur Verwendung durch oder in Verbindung mit einem Anweisungsausführungssystem, -gerät oder -vorrichtung enthalten oder speichern kann.
  • Ein auf einem computerlesbaren Medium enthaltener Programmcode kann unter Verwendung irgendeines geeigneten Mediums, einschließlich, aber nicht beschränkt auf drahtlos, drahtgebunden, optische Faser, Kabel, RF, etc. oder irgendeine geeignete Kombination der Vorstehenden, übertragen werden. Ein Computerprogrammcode zum Durchführen von Operationen für Aspekte der vorliegenden Anordnungen kann in irgendeiner Kombination aus einer oder mehreren Programmiersprachen, einschließlich einer objektorientierten Programmiersprache, wie etwa JavaTM, Smalltalk, C++ oder dergleichen, und herkömmlichen prozeduralen Programmiersprachen, wie etwa der „C”-Programmiersprache oder ähnlichen Programmiersprachen, verfasst sein. Der Programmcode kann gänzlich auf dem Computer des Nutzers, teilweise auf dem Computer des Nutzers, als ein eigenständiges Softwarepaket, teilweise auf dem Computer des Nutzers und teilweise auf einem entfernten Computer oder gänzlich auf dem entfernten Computer oder Server ablaufen. Im letzteren Szenario kann der entfernte Computer durch irgendeine Art von Netzwerk, einschließlich eines lokalen Netzwerks (LAN) oder eines Weitverkehrsnetzes (WAN), mit dem Computer des Nutzers verbunden sein, oder die Verbindung kann mit einem externen Computer (zum Beispiel durch das Internet unter Verwendung eines Internetdienstanbieters) hergestellt werden.
  • Die Begriffe „ein” bzw. „eine”, wie hierin verwendet, sind als eins oder mehr als eins definiert. Der Begriff „Mehrzahl”, wie hierin verwendet, ist als zwei oder mehr als zwei definiert. Der Begriff „ein(e) weitere(r)”, wie hierin verwendet, ist als mindestens ein zweites oder mehr definiert. Die Begriffe „einschließlich” und/oder „mit”, wie vorliegend verwendet, sind definiert als umfassend (d. h. offene Sprache). Die Formulierung „mindestens eine(r) aus ... und ...”, wie hierin verwendet, betrifft und umfasst irgendeine und alle möglichen Kombinationen eines oder mehrerer der zugehörigen aufgeführten Gegenstände. Als ein Beispiel beinhaltet die Formulierung „mindestens eines aus A, B und C” nur A, nur B, nur C oder irgendeine Kombination davon (z. B. AB, AC, BC oder ABC).
  • Aspekte hierin können in anderen Formen ausgeführt sein, ohne vom Geist oder wesentlichen Attributen davon abzuweichen. Dementsprechend sollte als Angabe des Schutzumfangs der Erfindung auf die folgenden Ansprüche Bezug genommen werden und nicht auf die vorstehende Spezifikation.

Claims (15)

  1. Verfahren zum Betreiben eines autonomen Fahrzeugs in einer Umgebung mit blockierter Sicht, umfassend: Abtasten mindestens eines Abschnitts einer externen Umgebung des autonomen Fahrzeugs, um ein oder mehrere darin befindliche Objekte zu erfassen; Bestimmen eines Insassensichtbereichs der externen Umgebung; Bestimmen, ob sich eines oder mehrere des einen oder der mehreren erfassten Objekte außerhalb des bestimmten Insassensichtbereichs befinden; und als Reaktion auf die Bestimmung, dass sich eines oder mehrere des einen oder der mehreren erfassten Objekte außerhalb des bestimmten Insassensichtbereichs befinden, Präsentieren einer Warnung innerhalb des autonomen Fahrzeugs.
  2. System zum Betreiben eines autonomen Fahrzeugs in einer Umgebung mit blockierter Sicht, umfassend: ein Sensorsystem, das ausgebildet ist, um ein oder mehrere Objekte, die sich in mindestens einem Abschnitt einer externen Umgebung des autonomen Fahrzeugs befinden, zu erfassen; einen Prozessor, der mit dem Sensorsystem betriebsmäßig verbunden ist, wobei der Prozessor programmiert ist, um ausführbare Operationen einzuleiten, die umfassen: Bestimmen eines Insassensichtbereichs der externen Umgebung; Bestimmen, ob sich eines oder mehrere des einen oder der mehreren erfassten Objekte außerhalb des bestimmten Insassensichtbereichs befinden; und als Reaktion auf die Bestimmung, dass sich eines oder mehrere des einen oder der mehreren erfassten Objekte außerhalb des bestimmten Insassensichtbereichs befinden, Präsentieren einer Warnung innerhalb des autonomen Fahrzeugs.
  3. Verfahren nach Anspruch 1 oder System nach Anspruch 2, wobei die Warnung eine akustische Warnung ist, und wobei das Präsentieren der Warnung innerhalb des autonomen Fahrzeugs ein Ausstrahlen der akustischen Warnung innerhalb des autonomen Fahrzeugs beinhaltet.
  4. Verfahren nach Anspruch 3 oder System nach Anspruch 3, wobei die akustische Warnung an einem Ort innerhalb des autonomen Fahrzeugs ausgestrahlt wird, der dem Ort des einen oder der mehreren erfassten Objekte entspricht, welche sich außerhalb des bestimmten Insassensichtbereichs befinden.
  5. Verfahren nach Anspruch 1 oder System nach Anspruch 2, wobei die Warnung eine visuelle Warnung ist, und wobei das Präsentieren der Warnung innerhalb des autonomen Fahrzeugs ein Anzeigen der visuellen Warnung innerhalb des autonomen Fahrzeugs beinhaltet.
  6. Verfahren nach Anspruch 5 oder System nach Anspruch 5, wobei die visuelle Warnung eine Darstellung der externen Umgebung beinhaltet, und wobei mindestens eine aus einer Darstellung des einen oder mehrerer des einen oder der mehreren erfassten Objekte, welche sich außerhalb des Insassensichtbereichs befinden, einer Darstellung des Insassensichtbereichs oder einer Darstellung des mindestens einen abgetasteten Abschnitts einer externen Umgebung über die Darstellung der externen Umgebung gelegt ist.
  7. Verfahren zum Betreiben eines autonomen Fahrzeugs in einer Umgebung mit blockierter Sicht, umfassend: Abtasten mindestens eines Abschnitts einer externen Umgebung des autonomen Fahrzeugs, um ein oder mehrere darin befindliche Objekts zu erfassen; Bestimmen eines Insassensichtbereichs der externen Umgebung; Bestimmen, ob sich eines oder mehrere des einen oder der mehreren erfassten Objekte außerhalb des bestimmten Insassensichtbereichs befinden; und als Reaktion auf die Bestimmung, dass sich eines oder mehrere des einen oder der mehreren erfassten Objekte außerhalb des bestimmten Insassensichtbereichs befinden, Veranlassen einer Modifikation eines gegenwärtigen Fahrvorgangs des autonomen Fahrzeugs.
  8. System zum Betreiben eines autonomen Fahrzeugs in einer Umgebung mit blockierter Sicht, umfassend: ein Sensorsystem, das zum Erfassen eines oder mehrerer Objekte ausgebildet ist, welche sich in mindestens einem Abschnitt einer externen Umgebung des autonomen Fahrzeugs befinden; einen Prozessor, der mit dem Sensorsystem betriebsmäßig verbunden ist, wobei der Prozessor programmiert ist, um ausführbare Operationen einzuleiten, die umfassen: Bestimmen eines Insassensichtbereichs der externen Umgebung; Bestimmen, ob sich eines oder mehrere des einen oder der mehreren erfassten Objekte außerhalb des bestimmten Insassensichtbereichs befinden; und als Reaktion auf die Bestimmung, dass sich eines oder mehrere des einen oder der mehreren erfassten Objekte außerhalb des bestimmten Insassensichtbereichs befinden, Veranlassen einer Modifikation eines gegenwärtigen Fahrvorgangs des autonomen Fahrzeugs.
  9. Verfahren nach Anspruch 7 oder System nach Anspruch 8, wobei das Veranlassen einer Modifikation eines gegenwärtigen Fahrvorgangs des autonomen Fahrzeugs das Veranlassen einer Verringerung einer gegenwärtigen Geschwindigkeit des autonomen Fahrzeugs beinhaltet.
  10. Verfahren nach Anspruch 9 oder System nach Anspruch 9, wobei die gegenwärtige Geschwindigkeit des autonomen Fahrzeugs auf eine reduzierte Geschwindigkeit verringert wird, und wobei die reduzierte Geschwindigkeit mindestens so lange beibehalten wird, bis bestimmt wird, dass sich eines oder mehrere des einen oder der mehreren erfassten Objekte, welche sich außerhalb des bestimmten Insassensichtbereichs befinden, innerhalb des Insassensichtbereichs befinden.
  11. Verfahren nach Anspruch 7 oder System nach Anspruch 8, ferner beinhaltend: als Reaktion auf die Bestimmung, dass sich eines oder mehrere des einen oder der mehreren erfassten Objekte außerhalb des bestimmten Insassensichtbereichs befinden, Präsentieren einer Warnung innerhalb des autonomen Fahrzeugs.
  12. Verfahren zum Betreiben eines autonomen Fahrzeugs in einer Umgebung mit blockierter Sicht, umfassend: Identifizieren eines informationsrelevanten Bereichs entlang der Fahrtroute, wobei der informationsrelevante Bereich mit einem künftigen Fahrvorgang zusammenhängt; Bestimmen eines Insassensichtbereichs der externen Umgebung; Bestimmen, ob sich mindestens ein Abschnitt des informationsrelevanten Bereichs außerhalb des bestimmten Insassensichtbereichs befindet; und als Reaktion auf die Bestimmung, dass sich mindestens ein Abschnitt des informationsrelevanten Bereichs außerhalb des bestimmten Insassensichtbereichs befindet, Veranlassen einer Modifikation eines gegenwärtigen Fahrvorgangs des autonomen Fahrzeugs.
  13. System zum Betreiben eines autonomen Fahrzeugs in einer Umgebung mit blockierter Sicht, umfassend: einen Prozessor, wobei der Prozessor programmiert ist, um ausführbare Operationen einzuleiten, die umfassen: Identifizieren eines informationsrelevanten Bereichs entlang der Fahrtroute, wobei der informationsrelevante Bereich mit einem künftigen Fahrvorgang zusammenhängt; Bestimmen eines Insassensichtbereichs der externen Umgebung; Bestimmen, ob sich mindestens ein Abschnitt des informationsrelevanten Bereichs außerhalb des bestimmten Insassensichtbereichs befindet; und als Reaktion auf die Bestimmung, dass sich mindestens ein Abschnitt des informationsrelevanten Bereichs außerhalb des bestimmten Insassensichtbereichs befindet, Veranlassen einer Modifikation eines gegenwärtigen Fahrvorgangs des autonomen Fahrzeugs.
  14. Verfahren nach Anspruch 12 oder System nach Anspruch 13, wobei das Veranlassen einer Modifikation eines gegenwärtigen Fahrvorgangs des autonomen Fahrzeugs das Verringern einer gegenwärtigen Geschwindigkeit des autonomen Fahrzeugs beinhaltet.
  15. Verfahren nach Anspruch 14 oder System nach Anspruch 14, wobei die gegenwärtige Geschwindigkeit des autonomen Fahrzeugs auf eine reduzierte Geschwindigkeit verringert wird, und wobei die reduzierte Geschwindigkeit mindestens so lange beibehalten wird, bis der erfasste Insassensichtbereich des informationsrelevanten Bereichs mindestens einen erheblichen Großteil des informationsrelevanten Bereichs beinhaltet.
DE102016100729.3A 2015-01-29 2016-01-18 Betrieb eines autonomen Fahrzeugs in Umgebungen mit blockierter Sicht Pending DE102016100729A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/609,273 2015-01-29
US14/609,273 US9649979B2 (en) 2015-01-29 2015-01-29 Autonomous vehicle operation in view-obstructed environments

Publications (1)

Publication Number Publication Date
DE102016100729A1 true DE102016100729A1 (de) 2016-08-04

Family

ID=56410133

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016100729.3A Pending DE102016100729A1 (de) 2015-01-29 2016-01-18 Betrieb eines autonomen Fahrzeugs in Umgebungen mit blockierter Sicht

Country Status (4)

Country Link
US (2) US9649979B2 (de)
JP (2) JP6737600B2 (de)
CN (1) CN105835874B (de)
DE (1) DE102016100729A1 (de)

Families Citing this family (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9649979B2 (en) * 2015-01-29 2017-05-16 Toyota Motor Engineering & Manufacturing North America, Inc. Autonomous vehicle operation in view-obstructed environments
US10328855B2 (en) 2015-03-18 2019-06-25 Uber Technologies, Inc. Methods and systems for providing alerts to a connected vehicle driver and/or a passenger via condition detection and wireless communications
US9610893B2 (en) 2015-03-18 2017-04-04 Car1St Technologies, Llc Methods and systems for providing alerts to a driver of a vehicle via condition detection and wireless communications
KR101709521B1 (ko) * 2015-07-30 2017-03-09 주식회사 한글과컴퓨터 무인 스마트카를 이용한 공익서비스 시스템 및 방법
US10093181B1 (en) * 2015-09-30 2018-10-09 Waymo Llc Occupant facing vehicle display
US20170124881A1 (en) * 2015-10-28 2017-05-04 Velvac Incorporated Blind zone warning for semi-trailer
US9915951B2 (en) * 2015-12-27 2018-03-13 Toyota Motor Engineering & Manufacturing North America, Inc. Detection of overhanging objects
US10328949B2 (en) * 2016-01-28 2019-06-25 Toyota Motor Engineering & Manufacturing North America, Inc. Sensor blind spot indication for vehicles
US10323952B2 (en) * 2016-04-26 2019-06-18 Baidu Usa Llc System and method for presenting media contents in autonomous vehicles
US9975481B2 (en) * 2016-05-23 2018-05-22 Ford Global Technologies, Llc Method and apparatus for animal presence alert through wireless signal detection
US10078335B2 (en) 2016-06-28 2018-09-18 Toyota Motor Engineering & Manufacturing North America, Inc. Ray tracing for hidden obstacle detection
US10137890B2 (en) 2016-06-28 2018-11-27 Toyota Motor Engineering & Manufacturing North America, Inc. Occluded obstacle classification for vehicles
US9910442B2 (en) 2016-06-28 2018-03-06 Toyota Motor Engineering & Manufacturing North America, Inc. Occluded area detection with static obstacle maps
US10543852B2 (en) * 2016-08-20 2020-01-28 Toyota Motor Engineering & Manufacturing North America, Inc. Environmental driver comfort feedback for autonomous vehicle
US10093322B2 (en) 2016-09-15 2018-10-09 International Business Machines Corporation Automatically providing explanations for actions taken by a self-driving vehicle
US10769452B2 (en) * 2016-11-14 2020-09-08 Lyft, Inc. Evaluating and presenting pick-up and drop-off locations in a situational-awareness view of an autonomous vehicle
JP6478415B2 (ja) * 2016-12-20 2019-03-06 本田技研工業株式会社 車両制御システム、車両制御方法、および車両制御プログラム
US10082869B2 (en) * 2017-02-03 2018-09-25 Qualcomm Incorporated Maintaining occupant awareness in vehicles
US10166996B2 (en) * 2017-02-09 2019-01-01 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for adaptively communicating notices in a vehicle
WO2018170074A1 (en) * 2017-03-14 2018-09-20 Starsky Robotics, Inc. Vehicle sensor system and method of use
JP6558393B2 (ja) 2017-04-06 2019-08-14 トヨタ自動車株式会社 進路設定装置及び進路設定方法
US10124804B2 (en) * 2017-04-12 2018-11-13 GM Global Technology Operations LLC Method and apparatus for traffic control device detection optimization
US11430071B2 (en) * 2017-08-16 2022-08-30 Mobileye Vision Technologies Ltd. Navigation based on liability constraints
US10261514B2 (en) 2017-08-16 2019-04-16 Uber Technologies, Inc. Systems and methods for communicating autonomous vehicle scenario evaluation and intended vehicle actions
US10429846B2 (en) 2017-08-28 2019-10-01 Uber Technologies, Inc. Systems and methods for communicating intent of an autonomous vehicle
JP6939376B2 (ja) 2017-10-10 2021-09-22 トヨタ自動車株式会社 自動運転システム
WO2019168530A1 (en) * 2018-02-28 2019-09-06 Nissan North America, Inc. Transportation network infrastructure for autonomous vehicle decision making
US10752249B2 (en) * 2018-03-14 2020-08-25 Toyota Research Institute, Inc. Vehicle systems and methods for providing turn assistance at an intersection
US11467590B2 (en) 2018-04-09 2022-10-11 SafeAI, Inc. Techniques for considering uncertainty in use of artificial intelligence models
US11561541B2 (en) * 2018-04-09 2023-01-24 SafeAI, Inc. Dynamically controlling sensor behavior
US11169536B2 (en) 2018-04-09 2021-11-09 SafeAI, Inc. Analysis of scenarios for controlling vehicle operations
US11625036B2 (en) 2018-04-09 2023-04-11 SafeAl, Inc. User interface for presenting decisions
US10809735B2 (en) 2018-04-09 2020-10-20 SafeAI, Inc. System and method for a framework of robust and safe reinforcement learning application in real world autonomous vehicle application
US10901416B2 (en) 2018-07-19 2021-01-26 Honda Motor Co., Ltd. Scene creation system for autonomous vehicles and methods thereof
US11326888B2 (en) * 2018-07-25 2022-05-10 Uatc, Llc Generation of polar occlusion maps for autonomous vehicles
KR20210014253A (ko) * 2019-07-29 2021-02-09 현대자동차주식회사 군집 주행 제어 장치, 그를 포함한 시스템 및 그 방법
US20210229641A1 (en) * 2020-01-29 2021-07-29 GM Global Technology Operations LLC Determination of vehicle collision potential based on intersection scene
US11151366B2 (en) * 2020-01-30 2021-10-19 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for occluding vehicle occupant communication
US11505202B2 (en) * 2020-06-22 2022-11-22 Gm Cruise Holdings Llc User-assisted maintenance of autonomous vehicle fleet
CN111959528B (zh) * 2020-08-20 2021-11-02 广州小马智行科技有限公司 移动载体的显示设备的控制方法、装置与处理器
US11978266B2 (en) 2020-10-21 2024-05-07 Nvidia Corporation Occupant attentiveness and cognitive load monitoring for autonomous and semi-autonomous driving applications

Family Cites Families (89)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7164117B2 (en) * 1992-05-05 2007-01-16 Automotive Technologies International, Inc. Vehicular restraint system control system and method using multiple optical imagers
US7049945B2 (en) * 2000-05-08 2006-05-23 Automotive Technologies International, Inc. Vehicular blind spot identification and monitoring system
US7783403B2 (en) * 1994-05-23 2010-08-24 Automotive Technologies International, Inc. System and method for preventing vehicular accidents
US5587929A (en) * 1994-09-02 1996-12-24 Caterpillar Inc. System and method for tracking objects using a detection system
US5668675A (en) * 1995-01-18 1997-09-16 Fredricks; Ronald J. Opto-electronic aid for alignment of exterior vehicle mirrors to minimize blind spot effects
US6501536B1 (en) * 1995-01-18 2002-12-31 Ronald J. Fredricks Method and apparatus for determining the location of an occupant of a vehicle
CN1179217A (zh) * 1995-03-24 1998-04-15 株式会社小松制作所 无人驾驶自卸卡车行驶路线数据制定方法及制定装置
US5926126A (en) * 1997-09-08 1999-07-20 Ford Global Technologies, Inc. Method and system for detecting an in-path target obstacle in front of a vehicle
AU6894100A (en) * 1999-08-06 2001-03-05 Roadrisk Technologies, Llc Methods and apparatus for stationary object detection
DE10025492A1 (de) * 2000-05-23 2001-12-13 Daimler Chrysler Ag Verfahren und Vorrichtung zur Rückmeldung des Fahrzustands eines Fahrzeugs an den Fahrer
JP4771602B2 (ja) 2001-03-07 2011-09-14 本田技研工業株式会社 オートクルーズ装置
US6882287B2 (en) * 2001-07-31 2005-04-19 Donnelly Corporation Automotive lane change aid
EP1302356B1 (de) * 2001-10-15 2006-08-02 Ford Global Technologies, LLC. Verfahren und Einrichtung zur Steuerung eines Fahrzeuges
AU2003225228A1 (en) * 2002-05-03 2003-11-17 Donnelly Corporation Object detection system for vehicle
JP2003344539A (ja) 2002-05-22 2003-12-03 Toshiba Tec Corp 自律走行車
DE10247290B4 (de) * 2002-10-10 2013-04-18 Volkswagen Ag Verfahren und Vorrichtung zur Überwachung toter Winkel eines Kraftfahrzeugs
KR20040091788A (ko) 2003-04-22 2004-11-02 현대자동차주식회사 고속도로 자율주행 시스템 및 그의 제어방법
DE112004002122D2 (de) * 2003-11-14 2006-10-26 Continental Teves Ag & Co Ohg Verfahren und Einrichtung zur Verringerung von Unfallschäden
JP2006072830A (ja) * 2004-09-03 2006-03-16 Aisin Aw Co Ltd 運転支援システム及び運転支援モジュール
US7499774B2 (en) * 2004-10-22 2009-03-03 Irobot Corporation System and method for processing safety signals in an autonomous vehicle
US7720580B2 (en) * 2004-12-23 2010-05-18 Donnelly Corporation Object detection system for vehicle
CN101535087B (zh) * 2005-11-01 2013-05-15 唐纳利公司 具有显示装置的内部后视镜
DE102006027114A1 (de) * 2006-06-12 2007-12-13 Robert Bosch Gmbh Steuergerät und Verfahren zur Fahrerunterstützung
US9037323B2 (en) * 2006-12-01 2015-05-19 General Electric Company Method and apparatus for limiting in-train forces of a railroad train
US9126533B2 (en) * 2007-02-23 2015-09-08 Aisin Aw Co., Ltd. Driving support method and driving support device
JP4345832B2 (ja) * 2007-03-12 2009-10-14 トヨタ自動車株式会社 道路状況検出システム
JP4434224B2 (ja) * 2007-03-27 2010-03-17 株式会社デンソー 走行支援用車載装置
US7908060B2 (en) * 2007-07-31 2011-03-15 International Business Machines Corporation Method and system for blind spot identification and warning utilizing portable and wearable devices
US8645001B2 (en) * 2007-09-04 2014-02-04 International Business Machines Corporation Method and system for blind spot identification and warning utilizing visual indicators
JP5347257B2 (ja) * 2007-09-26 2013-11-20 日産自動車株式会社 車両用周辺監視装置および映像表示方法
US8190355B2 (en) * 2007-10-10 2012-05-29 International Business Machines Corporation Driving assistance and monitoring
US20090096597A1 (en) * 2007-10-11 2009-04-16 Avery Jr Richard M Driver interface unit
US8031062B2 (en) * 2008-01-04 2011-10-04 Smith Alexander E Method and apparatus to improve vehicle situational awareness at intersections
JP4992755B2 (ja) 2008-02-25 2012-08-08 株式会社デンソー 交差点運転支援システム、車載器、及び、路側機
US8489284B2 (en) * 2008-08-21 2013-07-16 International Business Machines Corporation Automated dynamic vehicle blind spot determination
JP5024255B2 (ja) 2008-09-25 2012-09-12 トヨタ自動車株式会社 運転支援装置
US8126642B2 (en) 2008-10-24 2012-02-28 Gray & Company, Inc. Control and systems for autonomously driven vehicles
CN101380951A (zh) * 2008-10-30 2009-03-11 马抗震 一种机动、电动车辆自动驾驶识别***
US8087791B2 (en) * 2009-04-15 2012-01-03 Toyota Motor Engineering And Manufacturing North America, Inc. Methods and systems for adjusting the position of vehicle outside mirrors
US8072351B1 (en) * 2009-07-21 2011-12-06 Absher Ii Charlie A Blind spot alert apparatus
DE102009028029A1 (de) * 2009-07-27 2011-02-03 Robert Bosch Gmbh Verfahren zur Erhöhung der Sicherheit eines Fahrzeugs und zentrale Verarbeitungseinheit für ein Fahrerassistenzsystem
SE534621C2 (sv) * 2010-01-19 2011-10-25 Volvo Technology Corp Anordning för döda vinkeln-varning
US8924067B2 (en) * 2010-10-12 2014-12-30 Caterpillar Inc. Autonomous machine control system
DE102010051068A1 (de) * 2010-11-12 2012-05-16 Claas Selbstfahrende Erntemaschinen Gmbh Landwirtschaftliche Erntemaschine
DE102010056389A1 (de) * 2010-12-28 2012-06-28 GM Global Technology Operations LLC Verfahren und Überwachungsvorrichtung zum Überwachen eines Anfahrvorgangs eines Kraftfahrzeugs
US8589014B2 (en) 2011-06-01 2013-11-19 Google Inc. Sensor field selection
CN103124662B (zh) * 2011-07-11 2015-04-29 丰田自动车株式会社 车辆的紧急避险装置
DE102011115223A1 (de) * 2011-09-24 2013-03-28 Audi Ag Verfahren zum Betrieb eines Sicherheitssystems eines Kraftfahrzeugs und Kraftfahrzeug
JP5929093B2 (ja) 2011-10-24 2016-06-01 日産自動車株式会社 車両用走行支援装置
US8577563B2 (en) * 2011-11-09 2013-11-05 Cnh America Llc Initiating tractor stop and bale wrap function
US9771070B2 (en) * 2011-12-09 2017-09-26 GM Global Technology Operations LLC Method and system for controlling a host vehicle
JP5494729B2 (ja) * 2012-05-31 2014-05-21 株式会社デンソー 接近報知装置
US9180882B1 (en) * 2012-06-20 2015-11-10 Google Inc. Avoiding blind spots of other vehicles
US9139135B2 (en) * 2012-09-07 2015-09-22 Musaid A. ASSAF System and method that minimizes hazards of blind spots while driving
US9221396B1 (en) * 2012-09-27 2015-12-29 Google Inc. Cross-validating sensors of an autonomous vehicle
US9031729B2 (en) * 2012-11-29 2015-05-12 Volkswagen Ag Method and system for controlling a vehicle
US9008886B2 (en) * 2012-12-12 2015-04-14 Caterpillar Inc. Method of modifying a worksite
US8783920B1 (en) * 2013-01-01 2014-07-22 Shahriar Mohktari Sharghi Systems for indicating visibility of a blind spot to a driver
US9367065B2 (en) 2013-01-25 2016-06-14 Google Inc. Modifying behavior of autonomous vehicles based on sensor blind spots and limitations
DE102013102087A1 (de) * 2013-03-04 2014-09-04 Conti Temic Microelectronic Gmbh Verfahren zum Betrieb eines Fahrerassistenzsystems eines Fahrzeugs
US8676431B1 (en) * 2013-03-12 2014-03-18 Google Inc. User interface for displaying object-based indications in an autonomous driving system
US9751534B2 (en) * 2013-03-15 2017-09-05 Honda Motor Co., Ltd. System and method for responding to driver state
EP2799902A1 (de) * 2013-04-30 2014-11-05 Baselabs GmbH Verfahren und Vorrichtung zur Verfolgung von mehreren Objekten
FR3005924B1 (fr) * 2013-05-27 2016-10-21 Renault Sa Procede de fonctionnement d'un vehicule en mode manuel et en mode autonome
US8874301B1 (en) * 2013-07-09 2014-10-28 Ford Global Technologies, Llc Autonomous vehicle with driver presence and physiological monitoring
US9616887B2 (en) * 2013-07-19 2017-04-11 Nissan Motor Co., Ltd. Driving assistance device for vehicle and driving assistance method for vehicle
US9199667B2 (en) * 2014-03-14 2015-12-01 Mitsubishi Electric Research Laboratories, Inc. System and method for semi-autonomous driving of vehicles
US9507345B2 (en) * 2014-04-10 2016-11-29 Nissan North America, Inc. Vehicle control system and method
US9153133B1 (en) * 2014-07-18 2015-10-06 John D. Baker Motorcycle blind spot detector
US9533614B2 (en) * 2014-08-18 2017-01-03 Lenovo (Singapore) Pte. Ltd. Vehicle collision avoidance modification
US9911330B2 (en) * 2014-08-21 2018-03-06 Nissan Motor Co., Ltd. Driving assistance device and driving assistance method
US9997077B2 (en) * 2014-09-04 2018-06-12 Honda Motor Co., Ltd. Vehicle operation assistance
KR101596751B1 (ko) * 2014-09-26 2016-02-23 현대자동차주식회사 운전자 맞춤형 사각 영역 표시 방법 및 장치
US9248834B1 (en) * 2014-10-02 2016-02-02 Google Inc. Predicting trajectories of objects based on contextual information
DE102014117830A1 (de) * 2014-12-04 2016-06-09 Valeo Schalter Und Sensoren Gmbh Verfahren zum Bestimmen eines fahrerspezifischen Totwinkelfeldes für ein Fahrerassistenzsystem, Fahrerassistenzsystem sowie Kraftfahrzeug
US10614726B2 (en) * 2014-12-08 2020-04-07 Life Long Driver, Llc Behaviorally-based crash avoidance system
US9649979B2 (en) * 2015-01-29 2017-05-16 Toyota Motor Engineering & Manufacturing North America, Inc. Autonomous vehicle operation in view-obstructed environments
US9493157B2 (en) * 2015-01-29 2016-11-15 Toyota Motor Engineering & Manufacturing North America, Inc. Autonomous vehicle operation in obstructed occupant view and sensor detection environments
DE102015207821A1 (de) * 2015-04-28 2016-11-03 Bayerische Motoren Werke Aktiengesellschaft Längsführendes Fahrerassistenzsystem in einem Kraftfahrzeug
US9931985B1 (en) * 2015-05-07 2018-04-03 Ambarella, Inc. Blind-spot monitoring using machine vision and precise FOV information
US9937795B2 (en) * 2015-06-24 2018-04-10 Nissan North America, Inc. Vehicle operation assistance information management for autonomous vehicle control transfer
US20160378112A1 (en) * 2015-06-26 2016-12-29 Intel Corporation Autonomous vehicle safety systems and methods
US9815481B2 (en) * 2015-09-28 2017-11-14 GM Global Technology Operations LLC Vehicle-user-interaction system
CN109906165A (zh) * 2016-08-10 2019-06-18 兹沃公司 使用推断的注意力模型经由收集和存储的元数据提供信息的方法和设备
JP6544320B2 (ja) * 2016-08-26 2019-07-17 トヨタ自動車株式会社 自動運転車両の制御システム及び制御方法
JP6686871B2 (ja) * 2016-12-26 2020-04-22 トヨタ自動車株式会社 自動運転システム
JP6470335B2 (ja) * 2017-03-15 2019-02-13 株式会社Subaru 車両の表示システム及び車両の表示システムの制御方法
KR102347689B1 (ko) * 2017-04-10 2022-01-05 현대자동차주식회사 차량의 사각존용 필러 디스플레이 장치
US10011216B1 (en) * 2017-04-27 2018-07-03 Toyota Motor Engineering & Manufacturing North America, Inc. Auto turn signal initiation based on lane change and driver history

Also Published As

Publication number Publication date
JP2020123361A (ja) 2020-08-13
US20170185088A1 (en) 2017-06-29
US9649979B2 (en) 2017-05-16
JP2016157427A (ja) 2016-09-01
CN105835874B (zh) 2021-05-11
US10591922B2 (en) 2020-03-17
CN105835874A (zh) 2016-08-10
JP7125443B2 (ja) 2022-08-24
JP6737600B2 (ja) 2020-08-12
US20160221500A1 (en) 2016-08-04

Similar Documents

Publication Publication Date Title
DE102016100729A1 (de) Betrieb eines autonomen Fahrzeugs in Umgebungen mit blockierter Sicht
DE102016100737A1 (de) Betrieb eines autonomen Fahrzeugs in Umgebungen mit blockierter Insassensicht und Sensorerfassung
DE102016108812A1 (de) Umstellen von Betriebsmodi eines Kraftfahrzeugs
DE102015120831B4 (de) Gemischte autonome und manuelle Steuerung autonomer Fahrzeuge
DE102016114535B4 (de) Wegbestimmung für automatisierte Fahrzeuge
DE112020006426T5 (de) Systeme und verfahren zur fahrzeugnavigation
DE112020002604T5 (de) Systeme und verfahren für die fahrzeugnavigation
DE112020003897T5 (de) Systeme und verfahren zur überwachung von fahrspurüberlastung
DE102016115541A1 (de) System und verfahren zum autonomen valet-parken unter verwendung plenoptischer kameras
DE102016120507A1 (de) Prädizieren von fahrzeugbewegungen anhand von fahrerkörpersprache
DE112017003287T5 (de) Head-up-display für strassenverhältnisse
US9434382B1 (en) Vehicle operation in environments with second order objects
DE102016110215A1 (de) System und Verfahren zum Steuern von Fahrzeugkomponenten basierend auf von einer Kamera erhaltenen Bildinformationen
DE102019201844A1 (de) Fahrzeugsteuerungssystem und Steuerverfahren
DE112017007184T5 (de) Unterstützungsvorrichtung, unterstützungsverfahren und programm
DE102016120508A1 (de) Autonomes Fahren an Kreuzungen basierend auf Wahrnehmungsdaten
DE102016123748A1 (de) System und Verfahren zur Navigation mit erweiterter Realität bei verminderter Sicht
DE102020115011B4 (de) Nutzerschnittstelle für autonomes Fahrzeug mit prognostizierten Trajektorien
DE102015118489A1 (de) Fernbedienung eines autonomen Fahrzeugs in einer unerwarteten Umgebung
DE102016112492A1 (de) Minimierung inkorrekter Sensordatenassoziationen für autonome Fahrzeuge
DE112021000094T5 (de) Systeme und verfahren zur fahrzeugnavigation, die ampeln und verkehrszeichen einbezieht
DE102016100416A1 (de) Prüfstand für virtuelle Sensoren
DE102017112788A1 (de) Systeme und Verfahren zur Erfassung von toten Winkeln
DE102014219575A1 (de) Verbesserte 3-Dimensionale (3-D) Navigation
DE102017112567A1 (de) Totwinkel-erkennungssysteme und verfahren

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R081 Change of applicant/patentee

Owner name: TOYOTA MOTOR ENGINEERING & MANUFACTURING NORTH, US

Free format text: FORMER OWNER: TOYOTA MOTOR ENGINEERING & MANUFACTURING NORTH AMERICA INC., ERLANGER, KY., US

R082 Change of representative

Representative=s name: KUHNEN & WACKER PATENT- UND RECHTSANWALTSBUERO, DE

R016 Response to examination communication