DE102019113839B3 - Vorrichtung und Verfahren zur Überwachung einer Fahrgastzelle - Google Patents

Vorrichtung und Verfahren zur Überwachung einer Fahrgastzelle Download PDF

Info

Publication number
DE102019113839B3
DE102019113839B3 DE102019113839.6A DE102019113839A DE102019113839B3 DE 102019113839 B3 DE102019113839 B3 DE 102019113839B3 DE 102019113839 A DE102019113839 A DE 102019113839A DE 102019113839 B3 DE102019113839 B3 DE 102019113839B3
Authority
DE
Germany
Prior art keywords
sensor
information
data
vehicle
people
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102019113839.6A
Other languages
English (en)
Inventor
Markus Hess
Lars Meinel
Michel Findeisen
Ronald Gerschewski
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
3dvisionlabs GmbH
Indikar Individual Karosseriebau GmbH
Original Assignee
3dvisionlabs GmbH
Indikar Individual Karosseriebau GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 3dvisionlabs GmbH, Indikar Individual Karosseriebau GmbH filed Critical 3dvisionlabs GmbH
Priority to DE102019113839.6A priority Critical patent/DE102019113839B3/de
Priority to EP20174473.7A priority patent/EP3748595B1/de
Application granted granted Critical
Publication of DE102019113839B3 publication Critical patent/DE102019113839B3/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • A61B5/6893Cars
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/04Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/04Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
    • G08B21/0407Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons based on behaviour analysis
    • G08B21/043Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons based on behaviour analysis detecting an emergency event, e.g. a fall
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/04Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
    • G08B21/0438Sensor means for detecting
    • G08B21/0476Cameras to detect unsafe condition, e.g. video cameras
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/06Alarms for ensuring the safety of persons indicating a condition of sleep, e.g. anti-dozing alarms
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/18Status alarms
    • G08B21/22Status alarms responsive to presence or absence of persons
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/18Status alarms
    • G08B21/24Reminder alarms, e.g. anti-loss alarms
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/01Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
    • G08B25/016Personal emergency signalling and security systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30268Vehicle interior

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Emergency Management (AREA)
  • Business, Economics & Management (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Gerontology & Geriatric Medicine (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Vascular Medicine (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computer Security & Cryptography (AREA)
  • Psychology (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Social Psychology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Psychiatry (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Traffic Control Systems (AREA)
  • Alarm Systems (AREA)
  • Emergency Alarm Devices (AREA)

Abstract

Die Erfindung betrifft eine Vorrichtung und ein Verfahren zur Überwachung einer Fahrgastzelle eines Fahrzeuges und deren Insassen, wobei ein optischer Sensor zur Erfassung von Bildinformationen in Form von 2D-Daten und Entfernungsinformationen in Form von 3D-Daten oberhalb der Sitze angeordnet ist und mit dem Sensor sind die Anzahl der Personen in der Fahrgastzelle und deren Sitzposition erkennbar, mittels einer Verarbeitungseinrichtung die 2D- und 3D-Daten in Zustandsinformationen der Personen umwandelbar sind und dass die Zustandsinformationen Informationen in Form von Zustand der Personen und Art und Ort der Positionierung der Personen in der Fahrgastzelle zum Klassifizieren eines Notfalls umfassen und wobei der Sensor ein hemisphärisch abbildender 3D-Sensor ist, mit dem die komplette Fahrgastzelle erfassbar ist und wobei der Sensor einen ersten Öffnungswinkel von 135° und einen orthogonal zu dem ersten Öffnungswinkel angeordneten zweiten Öffnungswinkel von 180° aufweist.Verfahrensgemäß weist der Sensor eine Personenerkennung auf und erfasst Bildinformationen in Form von 2D-Daten und Entfernungsinformationen in Form von 3D-Daten zu den Insassen derart, dass über eine Verarbeitungseinrichtung die erfassten Daten in Informationen über den Zustand und/oder die Position und/oder die Haltung der Insassen im Fahrzeug umgewandelt werden und dass anhand der Informationen eine Klassifizierung von Notfällen erfolgt, wobei die Überwachung der Fahrgastzelle mittels eines einzigen hemisphärisch abbildenden 3D-Sensors unter Nutzung von Stereo-Vision erfolgt.

Description

  • Die Erfindung betrifft eine Vorrichtung und ein Verfahren zur Überwachung einer Fahrgastzelle und deren Insassen und findet insbesondere für Sonderfahrzeuge und autonom fahrende Fahrzeuge Anwendung.
  • Beispielsweise aus dem Artikel „ZF Friedrichshafen AG - Presseinformation 16.10.2018 URL:http://press.zf.com/press/de/releases/release_2993.html“ ist eine Vorrichtung zur Überwachung einer Fahrgastzelle eines Fahrzeuges und seiner Insassen unter Verwendung eines optischen Sensors zur Erfassung von Bildinformationen bekannt. Der Sensor ist oberhalb der Sitzposition angeordnet und erfasst die Insassen und deren Sitzposition.
    Aus der Druckschrift WO 01/72557 A1 ist eine Vorrichtung und ein Verfahren zum Erfassen eines Objektes oder einer Person im Innenraum eines Fahrzeuges bekannt. Im Innenraum des Fahrzeuges ist ein Laser zum Aussenden von Laserlichtpulsen und ein optischer Empfänger oder ein Sensor zum Empfangen von, an dem Objekt oder der Person reflektierten Laserlichtpulsen vorgesehen.
    Der Laser ist mit einer Erfassungseinrichtung verbunden, die fortlaufend die Empfangsleistung erfasst und bei Erreichen Eines, einer hinreichenden Empfangsleistung entsprechenden Grenzwertes den Laserlichtpuls abschaltet. Die Vorrichtung ist vorzugsweise im Dachhimmel angeordnet.
  • Die Druckschrift EP 2 284 044 A1 beschreibt ein Fahrzeug und Verfahren zum Betreiben eines abgestellten Fahrzeugs mit unbeaufsichtigten Kindern oder Tieren. Es wird in einem parkenden Fahrzeug mittels einer Erfassungseinrichtung in Form einer Kamera und eines Mikrofones mindestens eine Größe in Form eines Videobildes oder einer Tonaufnahme erfasst, welche mit mindestens einem Merkmal des Lebewesens korreliert ist. Die Verbindung mit einer Empfangsstation zur Darstellung des Videobildes und der Tonaufnahme erfolgt mittels WLAN-Verbindung, GSM, UMTS oder einer vergleichbaren Funkverbindung. Das Verfahren eignet sich insbesondere zum Überwachen eines in dem Fahrzeug schlafenden Kindes durch eine Person außerhalb des Fahrzeugs, um zu überprüfen, ob das Kind erwacht ist.
  • Eine Vorrichtung zur Durchführung von Fahrerzustandsanalysen ist aus der Druckschrift DE 10 2012 002 037 A1 bekannt. Es werden über den Stress-, Gesundheits- und Müdigkeitszustand des Fahrers über den gesamtem Fahrzeitraum, auch über längere Zeiträume, aussagefähige Daten betreffend den Zustand des Fahrers erfasst und über ein Ampelsystem dargestellt.
    Die Vorrichtung analysiert und wertet die Herzfrequenzvariabilität aus, wobei die Vitaldaten, insbesondere die EKG-Signal-Daten über textile kapazitive EMG-Sensoren in oder an Ruheelementen des Fahrers angeordnet sind und so eine berührungslose Erfassung der Vitaldaten, insbesondere der EKG-Signal-Daten erfolgt, wobei die Sensoren insbesondere in der Rückenlehne des Fahrzeugsitzes angeordnet sind.
  • In der Druckschrift DE 10 2016 206 126 A1 wird ein Verfahren und eine Vorrichtung zum Überwachen oder Regeln einer Fahraufgabe-Übergabe in einem selbstfahrenden Fahrzeug und ein System für eine Fahraufgabe-Übergabe in einem selbstfahrenden Fahrzeug beschrieben. Das Verfahren ist für ein selbstfahrendes Fahrzeug vorgesehen. Dabei kann durch das Verfahren die Fahraufgabe-Übergabe überwacht, geregelt oder auch gesteuert werden. Dabei lässt sich das Fahrzeug mithilfe geeigneter im Fahrzeug verbauter Sensoren und Steuergeräte autonom im Verkehrsraum bewegen, wobei eine Fahrzeugführungsaktivität eines Fahrers des Fahrzeugs vollständig unterbleibt. Der Fahrer ist dann für diesen Zeitraum nicht mit der Fahraufgabe betraut und lediglich passiver Passagier im Fahrzeug. Bei der Fahraufgabe-Übernahme-Information und/oder der Sensorinformation handelt es sich um verarbeitete Daten von Signalen von geeignet im Fahrzeug angeordneten Sensoren. Beispielsweise kann die Fahraufgabe-Übernahme-Information unter Beteiligung von Daten von im Lenkrad des Fahrzeugs verbauten Berührungssensoren gebildet werden. Die Sensorinformation kann unter Beteiligung von Daten von im Fahrzeug verbauten optischen Sensoren gebildet werden. Unter einer einem Fahrzeugsitz des Fahrzeugs zugeordneten Schnittstelle kann in diesem Zusammenhang eine Schnittstelle verstanden werden, die eine Information von oder über einen Insassen einliest, der auf dem Fahrzeugsitz sitzt, die der Schnittstelle zugeordnet ist. Als Sensor kann ein 3D-Sensor zur Anwendung kommen, wobei die Sensorinformation über eine Schnittstelle zu dem 3D-Sensor des Fahrzeugs eingelesen werden. Ein 3D-Sensor eignet sich besonders für die schnelle und unaufwändige Klassifizierung von Fahrzeuginsassen.
  • Aus der Druckschrift DE 10 2005 060 054 B4 ist ein Stereo-Vision-System bekannt, das insbesondere für Insassenrückhaltesysteme mit einem Airbag in Fahrzeugen konzipiert ist. Für die Erfassung von Insassen und deren Sitzposition im Fahrzeug ist eine Vielzahl von Sensoren zur Erzeugung von Bildern vorgesehen. Mit einer Verarbeitungseinheit wird aus den erzeugten Bildern eine Stereoabbildung generiert, welche den räumlichen Abstand der Bildpunkt-Paare enthält. Diese Parameter werden zur Auslösung des Airbags berücksichtigt.
  • Der Begriff „Stereo Vision“ bezeichnet eine Extraktion von 3D-Informationen aus mehreren 2D-Ansichten einer Szene. Die hierfür bekannten konventionellen Stereo-Kameras bestehen üblicherweise aus zwei parallel zueinander ausgerichteten Kameras, so dass ein weitgehend ähnliches Prinzip realisiert wird wie beim menschlichen Stereo-Sehen. Eine angeschlossene Verarbeitungseinheit löst die Bilderfassung der Kameras synchron aus und verarbeitet die erfassten Bilddaten zu 3D-Informationen. Hierfür kommen Algorithmen der Bildauswertung zum Einsatz, welche den visuellen Versatz der Bilder ermitteln.
  • Aufgabe der Erfindung ist es, eine Vorrichtung und ein Verfahren zur Überwachung einer Fahrgastzelle zu entwickeln, welche einen einfachen konstruktiven Aufbau aufweist und mittels Personenerkennung Notfälle erkennt.
  • Diese Aufgabe wird mit den kennzeichnenden Merkmalen des ersten und achten Patentanspruchs gelöst.
  • Vorteilhafte Ausgestaltungen ergeben sich aus den Unteransprüchen.
  • Die Vorrichtung weist einen optischen Sensor zur Überwachung einer Fahrgastzelle eines Fahrzeuges und deren Insassen auf, wobei der optische Sensor zur Erfassung von Bildinformationen in Form von 2D-Daten und Entfernungsinformationen in Form von 3D-Daten oberhalb der Sitze angeordnet ist. Mit dem Sensor sind die Anzahl der Personen in der Fahrgastzelle und deren Sitzposition und Lage erkennbar. Der Sensor ist mit einer Verarbeitungseinrichtung verbunden oder in Form einer kombinierten Sensor-/Verarbeitungseinrichtung ausgebildet, wobei mittels der Verarbeitungseinrichtung die Bildinformationen in Form von 2D-Daten und Entfernungsinformationen in Form von 3D-Daten in Zustandsinformationen der Personen umwandelbar sind. Die Zustandsinformationen umfassen Informationen in Form von Zustand der Personen und Art und Ort der Positionierung der Personen in der Fahrgastzelle zum Klassifizieren eines Notfalls, wobei der Sensor ein hemisphärisch abbildender 3D-Sensor ist, mit dem die komplette Fahrgastzelle erfassbar ist und wobei der Sensor einen ersten Öffnungswinkel von 135° und einen orthogonal zu dem ersten Öffnungswinkel angeordneten zweiten Öffnungswinkel von 180° aufweist.
  • Als Zustand kann hierbei die Körperhaltung, Position, Bewegungsmuster oder Vitaldaten verstanden werden.
  • Mit dem genannten Sensor kann eine Erkennung von Notfällen in Form von Bewegungslosigkeit, Liegen usw., Sitzplatzbelegung und Vitalparameter in Form von beispielsweise Herzschlag von Personen im Fahrzeug erfolgen.
  • Die Verarbeitung der 2D/3D-Daten und zugehörigen Daten findet vorzugsweise direkt im Gerät statt, was die Notwendigkeit einer Ausgabe von Bildinformationen unnötig macht. Dies dient insbesondere dem Schutz der Privatsphäre der Insassen.
  • Mittels der Verarbeitungseinrichtung sind die Informationen derart auswertbar, dass mit der Verarbeitungseinrichtung eine Klassifizierung des Zustands der Personen erzeugbar ist und entsprechend der Klassifizierung eine Kommunikation mit einem definierten Empfänger unter Bereitstellung der Erfassungsdaten erfolgt.
  • Die Kommunikation erfolgt vorzugsweise mittels eines fahrzeuginternen Kommunikationssystems beziehungsweise als Anbindung an das fahrzeuginterne ECall-System oder mittels eines sensorinternen Kommunikationssystems. Die Kommunikation erfolgt in Form von abstrahierten Zustandsdaten derart, dass eine Entscheidung über einen Notfall getroffen wird, die von dem System mit ja/nein eingeordnet wird.
  • Der Sensor ist in Form eines hemisphärisch abbildenden 3D-Sensors ausgebildet, wobei mittels des 3D-Sensors die komplette Fahrgastzelle erfassbar ist.
    Die Erfassung der Fahrgastzelle erfolgt insbesondere mittels omnidirektionaler (= extrem weitwinkeliger) Stereo-Vision basierter 3D-Sensorik. Der Sensor weist hier einen ersten Öffnungswinkel von 135° und einen orthogonal zu dem ersten Öffnungswinkel angeordneten zweiten Öffnungswinkel von 180° auf.
  • Je nach Anordnung des Sensors ist so der Öffnungswinkel >=135° × 180° (horizontal x vertikal) bzw. >=135° × 180° (vertikal x horizontal).
  • So können möglichst alle Insassen im Fahrzeuginnenraum sowie ihre Position, ihre Bewegungen und ihr Zustand beziehungsweise ihre Körperhaltung mit einem einzigen Gerät erfasst werden. Bevorzugt funktioniert der Sensor sowohl bei Tageslicht als auch bei Nacht beziehungsweise kompletter Dunkelheit mit aktiver Beleuchtung in Form von IR-Beleuchtung.
  • Die Bilddaten sind derart umwandelbar, dass die Personen in Form abstrahierter Bewegungs-, Positions- und Körperhaltungsdaten inklusive Gelenkinformationen verarbeitbar sind.
  • Des Weiteren sind mit dem Sensor Gegenstände von Personen unterscheidbar.
  • Der optische 3D-Sensor ist bevorzugt derart aufgebaut, dass er aus zwei separaten und miteinander in Wirkverbindung stehenden Kameras gebildet ist, die ein hemisphärisches Umfeld in Echtzeit erfassen und die in einer gemeinsamen Baugruppe baulich integriert sind. In dieser gemeinsamen Baugruppe ist weiterhin eine den zwei Kameras angeschlossene Verarbeitungseinheit baulich integriert, welche die von den zwei Kameras des 3D-Sensors erfassten Bilddaten und 3D-Daten auswertet. Damit wird es möglich, die Fahrgastzelle mit einem einzigen Sensor komplett in drei Dimensionen zu erfassen und auf dem Sensor auszuwerten, das heißt Personen zu erkennen, Objekte zu erkennen und Algorithmen zur Szenenanalyse zu prozessieren.
  • Das System weist vorzugsweise einen integrierten Prozessor (Embedded-Prozessor/System on Chip) mit CPU und/oder GPU und/oder ASIC und/oder FPGA und/oder ARM-Prozessor auf, der für Berechnungen unter Nutzung eines Stereokorrespondenzverfahrens, zur Berechnung von Tiefen- und 3D-Informationen (x-y-z) und für kundenspezifische Analysesoftware und/oder Applikationen mit Auswertung der Tiefen- und/oder 3Dlnformationen, mit applikationsspezifischer Datenauswertung und mit Informationsgenerierung geeignet ist.
  • Bei dem erfindungsgemäßen Verfahren erfolgt die Überwachung einer Fahrgastzelle eines Fahrzeuges und deren Insassen mittels eines optischen Sensors, wobei der Sensor oberhalb der Insassen angeordnet ist. Der Sensor weist eine Personenerkennung auf und erfasst Bildinformationen in Form von 2D-Daten und Entfernungsinformationen in Form von 3D-Daten zu den Insassen. Über eine Verarbeitungseinrichtung werden die erfassten Daten in Informationen über den Zustand und/oder die Position und/oder die Haltung der Insassen im Fahrzeug umgewandelt, wobei anhand der Informationen eine Klassifizierung von Notfällen erfolgt.
  • Im Falle eines Notfalls erfolgt eine Kommunikation mit Übermittlung der Zustandsdaten mit einem externen Empfänger in Form einer Notfallzentrale oder einer hinterlegten Nummer.
  • Die Kommunikation erfolgt mittels eines fahrzeuginternen oder sensorinternen Kommunikationssystems. Bei der Nutzung fahrzeuginterner Kommunikationssysteme kann insbesondere das fahrzeuginterne ECall-System genutzt werden. Die Kommunikation erfolgt mittels abstrahierter Zustandsdaten, sodass eine Beurteilung erfolgen kann, Notfall ja/nein.
    Ein Sensorinternes Kommunikationssystem kann kabelgebunden oder drahtlos implementiert sein. Für eine kabelgebundene Ausführung eignet sich insbesondere Ethernet (802.3), KNX, CAN, UART/RS232 oder USB. Auch eine Kombination der Systeme ist möglich. Die drahtlose Übertragung erfolgt mittels WLAN (802.11), Bluetooth, Zigbee, Z-WAVE, GSM oder UMTS.
  • Die Überwachung mittels des Sensors ist derart mit dem Fahrzeug kombiniert, dass in Abhängigkeit der Informationen des Sensors das Fahrzeug selbstständig anhalten kann. Dies ist insbesondere bei autonomen Fahrzeugen möglich. Des Weiteren ist das Anhalten des Fahrzeuges möglich, sobald ein Insasse versucht, eine Tür zu öffnen.
  • Die Erkennung der Personen und ihrer Haltungen erfolgt insbesondere mit Hilfe KI-basierter Algorithmen aus den Bild- und Entfernungsinformationen. Der genutzte Sensor ist hier ein hemisphärisch abbildender 3D-Sensor unter Nutzung von Stereo-Vision, sodass die Überwachung der Fahrgastzelle mittels eines einzigen Sensors erfolgen kann.
  • Die erfindungsgemäße Lösung gewährleistet die Überwachung des Zustandes von Insassen im Fahrzeug mit der optischen Sensorik und ermöglicht die Erkennung von Notfällen (Bewegungslosigkeit, Liegen usw.), Sitzplatzbelegung und perspektivisch bspw. Vitalparameter (bspw. Herzschlag) von Personen im Fahrzeug.
    Vorteilhafter Weise kann mit nur einem Sensor die Überwachung der kompletten Fahrgastzelle eines PKWs mit zwei Sitzreihen durch Nutzung Hemisphärischer Stereo-Vision Sensortechnologie realisiert werden. Bei weiteren Sitzreihen des PKWs oder bei der Überwachung beispielsweise von Kleinbussen oder auch anderen Bussen, Straßenbahnen oder anderen Schiebenfahrzeugen können, wenn nötig, mehrere Sensoren kombiniert werden.
  • Eine derartige Vorrichtung und Verfahren eignen sich insbesondere für das autonome Fahren, wobei erkennbar ist, wie viele Personen und in welchem Zustand die Personen im Fahrzeug sind. Die Vorrichtung kann auch zur Unfallvermeidung eingesetzt werden, beispielsweise zum Stoppen des Fahrzeuges, wenn sich andere Fahrzeuge auf die Türen zubewegen.
  • Des Weiteren eignen sich die Vorrichtung und das Verfahren für Sonderfahrzeuge derart, dass nach Beschuss oder Unfall des Fahrzeuges der Zustand der Personen im Fahrzeug erkennbar und übermittelbar ist.
  • Die Erfindung wird nachfolgend an einem Ausführungsbeispiel und zugehörigen Zeichnungen näher erläutert.
  • Es zeigen:
    • 1 eine beispielhafte Anordnung eines hemisphärisch abbildenden 3D-Sensors in einem PKW,
    • 2 eine Darstellung der abstrahierten Bewegungs-, Positions- und Körperhaltungsdaten inklusive Gelenkinformationen in einer Bildinformation,
    • 3 ein Schema des Systems zur Verarbeitung der mit dem Sensor erfassten Daten.
  • Gemäß 1 wird die Fahrgastzelle des dargestellten PKWs bekannter Weise von einem Dach 1, einer Windschutzscheibe 2, einem Armaturenbrett und einer Fußablage begrenzt. Weiterhin sind Fahrzeugsitze 3 in einer ersten und zweiten Sitzreihe vorgesehen, auf denen Person beziehungsweise die Insassen sitzen können. Im vorderen Bereich des Daches 1 und/oder im oberen Bereich der Windschutzscheibe 2 bzw. im mittleren vorderen Bereich im Dachhimmel ist der hemisphärisch abbildende 3D-Sensor 4 angeordnet, der die gesamte Fahrgastzelle erfasst. Der mittels des Sensors erfassbare Bereich 5 ist schematisch in der 1 dargestellt und erstreckt sich entlang der Frontscheibe 2 und des Dachhimmels und bildet einen Teilkreis im Innenraum, der bis an die Sitze 5 oder darüber hinaus in Richtung der Fußablagen reicht.
  • Die Auswertung der Daten erfolgt im Sensor 4 selbst, so dass der Sensor 4 keine Bilddaten der im Fahrzeug befindlichen Personen und/oder Gegenstände ausgibt.
    Mit dem Sensor 4 wird die Erkennung von Personen und ihrer Haltungen mit Hilfe Klbasierter Algorithmen aus Bild- und 3D-Informationen realisiert. So kann eine Bewegungs- und Körperhaltungsschätzung sowie Vitalparameterbestimmung erfolgen.
    Dadurch ist es möglich, eine Zustandsmessung von Fahrzeuginsassen mit Bezug zum 3D-Raum des Fahrzeuges beziehungsweise in der Fahrgastzelle zu realisieren und auf Basis der Auswertung dieser Daten Notfälle zu klassifizieren.
  • In 2 ist eine Darstellung einer Bildinformation 6 beziehungsweise ein Foto dargestellt, welches mittels des optischen Sensors erfasst wird wobei im Folgenden die Bilddaten umgewandelt werden, sodass die Personen in Form abstrahierter Bewegungs-, Positions- und Körperhaltungsdaten inklusive Gelenkinformationen darstellbar sind. Dies entspricht gemäß 2 einer Strichdarstellung 7.
  • In 3 ist der schematische Ablauf zur Verarbeitung der mit dem Sensor erfassten Daten dargestellt. Mittels wenigstens zweier Kameras werden Bildinformationen aufgenommen und folgend mit Hilfe einer CPU (HS-Core-3D) in Bilddaten und Entfernungsdaten beziehungsweise 2D- und 3D-Informationen umgewandelt. Die Bilddaten beziehungsweise Bildinformationen werden derart umgewandelt, dass die Personen in Form abstrahierter Bewegungs-, Positions- und Körperhaltungsdaten inklusive Gelenkinformationen verarbeitet werden, sodass keine Bildinformationen über die Insassen gespeichert werden, wodurch Schutz der Privatsphäre der Insassen gewährleistet ist.
    Mit den ermittelten 2D- und 3D-Informationen erfolgt in der CPU eine Personenerkennung und die Beurteilung der Person mittels dreier Kriterien. Diese Kriterien umfassen die Klassifikation nach dem Zustand der Person, wobei insbesondere Vitalzeichen überprüft werden.
    Als zweites Kriterium erfolgt die Klassifikation nach der Bewegung, das heißt ob die Person sich noch bewegt oder beispielsweise ohnmächtig ist. Das dritte Kriterium ist die Lokalisierung der Person, das heißt ob die Person liegt oder sitzt.
    Mit den ermittelten Daten wird mittels eines Profilers eine Entscheidung über den Zustand der Personen getroffen, wobei bei der Entscheidung eines Notfalls eine Kommunikation erfolgt derart, dass eine Meldung beziehungsweise ein Notruf abgesetzt wird.
  • Die Verarbeitung in der Verarbeitungseinrichtung erfolgt unter Zuhilfenahme eines angepassten Betriebssystems (Board-Support Package) und mit einer Anwendungssteuerung, die je nach benötigter Anwendung programmierbar ist.

Claims (10)

  1. Vorrichtung zur Überwachung einer Fahrgastzelle eines Fahrzeuges und deren Insassen, dadurch gekennzeichnet, dass ein optischer Sensor zur Erfassung von Bildinformationen in Form von 2D-Daten und Entfernungsinformationen in Form von 3D-Daten oberhalb der Sitze angeordnet ist und dass mit dem Sensor die Anzahl der Personen in der Fahrgastzelle und deren Sitzposition erkennbar sind und dass der Sensor mit einer Verarbeitungseinrichtung verbunden oder eine Verarbeitungseinrichtung in dem Sensor angeordnet ist, wobei mittels der Verarbeitungseinrichtung die 2D- und 3D-Daten in Zustandsinformationen der Personen umwandelbar sind und dass die Zustandsinformationen Informationen in Form von Zustand der Personen und Art und Ort der Positionierung der Personen in der Fahrgastzelle zum Klassifizieren eines Notfalls umfassen und wobei der Sensor ein hemisphärisch abbildender 3D-Sensor ist, mit dem die komplette Fahrgastzelle erfassbar ist und wobei der Sensor einen ersten Öffnungswinkel von 135° und einen orthogonal zu dem ersten Öffnungswinkel angeordneten zweiten Öffnungswinkel von 180° aufweist.
  2. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass mittels der Verarbeitungseinrichtung die Informationen auswertbar sind derart, dass mit der Verarbeitungseinrichtung eine Klassifizierung des Zustands der Personen erzeugbar ist und entsprechend der Klassifizierung eine Kommunikation mit einem definierten Empfänger unter Bereitstellung von Erfassungsdaten erzeugbar ist.
  3. Vorrichtung nach Anspruch 2, dadurch gekennzeichnet, dass die Kommunikation mittels eines fahrzeuginternen Kommunikationssystems oder mittels eines sensorinternen Kommunikationssystems erfolgt.
  4. Vorrichtung nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass die Bilddaten derart umwandelbar sind, dass die Personen in Form abstrahierter Bewegungs-, Positions- und Körperhaltungsdaten inklusive Gelenkinformationen verarbeitbar sind.
  5. Vorrichtung nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass mit dem Sensor Gegenstände von Personen unterscheidbar sind.
  6. Verfahren zur Überwachung einer Fahrgastzelle eines Fahrzeuges und deren Insassen mittels eines optischen Sensors, wobei der Sensor oberhalb der Insassen angeordnet ist, dadurch gekennzeichnet, dass der Sensor eine Personenerkennung aufweist und Bildinformationen in Form von 2D-Daten und Entfernungsinformationen in Form von 3D-Daten zu den Insassen erfasst und dass über eine Verarbeitungseinrichtung die erfassten Daten in Informationen über den Zustand und/oder die Position und/oder die Haltung der Insassen im Fahrzeug umgewandelt werden und dass anhand der Informationen eine Klassifizierung von Notfällen erfolgt, und wobei die Überwachung der Fahrgastzelle mittels eines einzigen hemisphärisch abbildenden 3D-Sensors unter Nutzung von Stereo-Vision erfolgt.
  7. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass im Falle eines Notfalls eine Kommunikation mit Übermittlung der Zustandsdaten mit einem externen Empfänger in Form einer Notfallzentrale oder einer hinterlegten Nummer erfolgt.
  8. Verfahren nach Anspruch 7, dadurch gekennzeichnet, dass die Kommunikation mittels eines fahrzeuginternen oder sensorinternen Kommunikationssystems erfolgt.
  9. Verfahren nach einem der Ansprüche 6 bis 8, dadurch gekennzeichnet, dass die Überwachung mit dem Fahrzeug derart kombiniert ist, dass in Abhängigkeit der Informationen des Sensors das Fahrzeug selbstständig anhalten kann.
  10. Verfahren nach einem der Ansprüche 6 bis 9, dadurch gekennzeichnet, dass die Erkennung der Personen und ihrer Haltungen mit Hilfe KI-basierter Algorithmen aus den Bild- und Entfernungsinformationen erfolgt.
DE102019113839.6A 2019-05-23 2019-05-23 Vorrichtung und Verfahren zur Überwachung einer Fahrgastzelle Active DE102019113839B3 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102019113839.6A DE102019113839B3 (de) 2019-05-23 2019-05-23 Vorrichtung und Verfahren zur Überwachung einer Fahrgastzelle
EP20174473.7A EP3748595B1 (de) 2019-05-23 2020-05-13 Vorrichtung und verfahren zur überwachung einer fahrgastzelle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019113839.6A DE102019113839B3 (de) 2019-05-23 2019-05-23 Vorrichtung und Verfahren zur Überwachung einer Fahrgastzelle

Publications (1)

Publication Number Publication Date
DE102019113839B3 true DE102019113839B3 (de) 2020-07-09

Family

ID=70736588

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019113839.6A Active DE102019113839B3 (de) 2019-05-23 2019-05-23 Vorrichtung und Verfahren zur Überwachung einer Fahrgastzelle

Country Status (2)

Country Link
EP (1) EP3748595B1 (de)
DE (1) DE102019113839B3 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020214910A1 (de) 2020-11-27 2022-06-02 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zur Überwachung eines Fahrzeuginnenraums

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001072557A1 (de) 2000-03-28 2001-10-04 Siemens Aktiengesellschaft Vorrichtung und verfahren zum erfassen eines objektes oder einer person im innenraum eines fahrzeuges
DE102005060054B4 (de) 2004-12-27 2009-07-30 Trw Automotive U.S. Llc, Livonia Verfahren und Vorrichtung zum Verbessern des Dynamikbereichs eines Stereo-Vision-Systems
EP2284044A1 (de) 2009-08-07 2011-02-16 Audi AG Fahrzeug und Verfahren zum Betrieben eines abgestellten Fahrzeugs mit unbeaufsichtete Kinder oder Tiere
DE102012002037A1 (de) 2012-02-03 2013-08-08 automation & software Günther Tausch GmbH Vorrichtung zur Durchführung von Fahrerzustandsanalysen
DE102016206126A1 (de) 2015-12-16 2017-06-22 Robert Bosch Gmbh Verfahren und Vorrichtung zum Überwachen oder Regeln einer Fahraufgabe-Übergabe in einem selbstfahrenden Fahrzeug und System für eine Fahraufgabe-Übergabe in einem selbstfahrenden Fahrzeug

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6442465B2 (en) * 1992-05-05 2002-08-27 Automotive Technologies International, Inc. Vehicular component control systems and methods
DE10257963A1 (de) * 2002-12-12 2004-07-08 Daimlerchrysler Ag Verfahren und Vorrichtung zur Bestimmung der 3D-Position von PKW-Insassen
JP4438753B2 (ja) * 2006-01-27 2010-03-24 株式会社日立製作所 車両内状態検知システム,車両内状態検知装置および方法
JP2008002838A (ja) * 2006-06-20 2008-01-10 Takata Corp 車両乗員検出システム、作動装置制御システム、車両
DE102011109564B4 (de) * 2011-08-05 2024-05-02 Mercedes-Benz Group AG Verfahren und Vorrichtung zur Überwachung zumindest eines Fahrzeuginsassen und Verfahren zum Betrieb zumindest einer Assistenzvorrichtung
US9956963B2 (en) * 2016-06-08 2018-05-01 GM Global Technology Operations LLC Apparatus for assessing, predicting, and responding to driver fatigue and drowsiness levels

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001072557A1 (de) 2000-03-28 2001-10-04 Siemens Aktiengesellschaft Vorrichtung und verfahren zum erfassen eines objektes oder einer person im innenraum eines fahrzeuges
DE102005060054B4 (de) 2004-12-27 2009-07-30 Trw Automotive U.S. Llc, Livonia Verfahren und Vorrichtung zum Verbessern des Dynamikbereichs eines Stereo-Vision-Systems
EP2284044A1 (de) 2009-08-07 2011-02-16 Audi AG Fahrzeug und Verfahren zum Betrieben eines abgestellten Fahrzeugs mit unbeaufsichtete Kinder oder Tiere
DE102012002037A1 (de) 2012-02-03 2013-08-08 automation & software Günther Tausch GmbH Vorrichtung zur Durchführung von Fahrerzustandsanalysen
DE102016206126A1 (de) 2015-12-16 2017-06-22 Robert Bosch Gmbh Verfahren und Vorrichtung zum Überwachen oder Regeln einer Fahraufgabe-Übergabe in einem selbstfahrenden Fahrzeug und System für eine Fahraufgabe-Übergabe in einem selbstfahrenden Fahrzeug

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ZF Friedrichshafen AG – Presseinformation 16.10.2018 URL:https://press.zf.com/press/de/releases/release_2993.html [abgerufen am 14.04.2020] *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020214910A1 (de) 2020-11-27 2022-06-02 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zur Überwachung eines Fahrzeuginnenraums

Also Published As

Publication number Publication date
EP3748595A1 (de) 2020-12-09
EP3748595B1 (de) 2021-11-03

Similar Documents

Publication Publication Date Title
DE102019134141B4 (de) Sicherheitsgurt-Zustandsbestimmungsverfahren
EP1620289B1 (de) Vorrichtung und verfahren zur kalibrierung eines bildsensors
DE10158415C2 (de) Verfahren zur Überwachung des Innenraums eines Fahrzeugs, sowie ein Fahrzeug mit mindestens einer Kamera im Fahrzeuginnenraum
DE102008028844B4 (de) Verfahren und Vorrichtung zur Fahrerunterstützung mittels Fahrerassistenzsystemen
DE102017121069A1 (de) Insassenvalidierungssysteme und - verfahren
DE102008019731B4 (de) Verfahren und Vorrichtung zur Fahrer-Beifahrer-Unterscheidung
DE102016206126A1 (de) Verfahren und Vorrichtung zum Überwachen oder Regeln einer Fahraufgabe-Übergabe in einem selbstfahrenden Fahrzeug und System für eine Fahraufgabe-Übergabe in einem selbstfahrenden Fahrzeug
DE102005047967A1 (de) Erfassen eines Auges eines Benutzers und Bestimmen von Ort und Blinzelzustand des Benutzers
DE102013220240A1 (de) Insassenanwesenheitssystem für ein Fahrzeug, Zentralverriegelungssystem, Verfahren zum Überprüfen der Anwesenheit von Insassen in dem Fahrzeug sowie Verfahren zum automatischen Betätigen von Türschlössern
WO2005007468A1 (de) Sicherheitsgurt-warnvorrichtung
DE102017201822A1 (de) Verfahren und Vorrichtung zur Ansteuerung eines Fahrzeugsitzes
EP2710573A1 (de) Verfahren und vorrichtung zum erkennen eines möglichen kollisionsobjektes
DE102019212412A1 (de) Überwachungsvorrichtung und Verfahren zur Überwachung eines Lebewesens im Innenraum eines Fahrzeugs und Computerprogramm
DE102004020255B4 (de) Überwachungssystem für Fahrzeuge
DE102019113839B3 (de) Vorrichtung und Verfahren zur Überwachung einer Fahrgastzelle
DE102009014437A1 (de) Objekterkennungssystem und -verfahren
DE102015010421A1 (de) Dreidimensionale Erfassung des Fahrzeuginnenraums
DE102009034283B4 (de) Vorrichtung und Verfahren zur Überwachung eines Umgebungsbereiches eines Fahrzeuges
DE102021112630B4 (de) Vision-basierte Airbag-Freigabe
DE102020210055A1 (de) Verfahren und Vorrichtung zur Innenraumüberwachung eines Fahrzeugs
DE102022103604A1 (de) Bordeigene überwachungseinrichtung für ein fahrzeug
DE102018222664B3 (de) Autonom fahrendes Taxi sowie Verfahren zum Betrieb eines autonom fahrenden Taxis
DE102013005039B4 (de) Vorrichtung zum Steuern eines Airbagmoduls
DE102020215652A1 (de) Fahrzeug-bildverarbeitungssystem
DE102013021929B4 (de) Kraftfahrzeug mit Kameras und Bildanalyseeinrichtungen

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final