DE60114238T2 - Erkennung menschlicher gesichtsmerkmale für kraftfahrzeugrückhaltesysteme - Google Patents

Erkennung menschlicher gesichtsmerkmale für kraftfahrzeugrückhaltesysteme Download PDF

Info

Publication number
DE60114238T2
DE60114238T2 DE60114238T DE60114238T DE60114238T2 DE 60114238 T2 DE60114238 T2 DE 60114238T2 DE 60114238 T DE60114238 T DE 60114238T DE 60114238 T DE60114238 T DE 60114238T DE 60114238 T2 DE60114238 T2 DE 60114238T2
Authority
DE
Germany
Prior art keywords
infrared
vehicle
person
driver
detector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60114238T
Other languages
English (en)
Other versions
DE60114238D1 (de
Inventor
J. John BERENZ
W. George MCIVER
W. Jospeh NIESEN
Barry Dunbridge
A. Gregory SHREVE
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ZF Active Safety and Electronics US LLC
Original Assignee
TRW Automotive US LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by TRW Automotive US LLC filed Critical TRW Automotive US LLC
Publication of DE60114238D1 publication Critical patent/DE60114238D1/de
Application granted granted Critical
Publication of DE60114238T2 publication Critical patent/DE60114238T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/06Alarms for ensuring the safety of persons indicating a condition of sleep, e.g. anti-dozing alarms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/015Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting the presence or position of passengers, passenger seats or child seats, and the related safety parameters therefor, e.g. speed or timing of airbag inflation in relation to occupant position or seat belt use
    • B60R21/01512Passenger detection systems
    • B60R21/0153Passenger detection systems using field detection presence sensors
    • B60R21/01534Passenger detection systems using field detection presence sensors using electromagneticwaves, e.g. infrared
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/015Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting the presence or position of passengers, passenger seats or child seats, and the related safety parameters therefor, e.g. speed or timing of airbag inflation in relation to occupant position or seat belt use
    • B60R21/01512Passenger detection systems
    • B60R21/0153Passenger detection systems using field detection presence sensors
    • B60R21/01538Passenger detection systems using field detection presence sensors for image processing, e.g. cameras or sensor arrays
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/015Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting the presence or position of passengers, passenger seats or child seats, and the related safety parameters therefor, e.g. speed or timing of airbag inflation in relation to occupant position or seat belt use
    • B60R21/01512Passenger detection systems
    • B60R21/01542Passenger detection systems detecting passenger motion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/015Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting the presence or position of passengers, passenger seats or child seats, and the related safety parameters therefor, e.g. speed or timing of airbag inflation in relation to occupant position or seat belt use
    • B60R21/01512Passenger detection systems
    • B60R21/01552Passenger detection systems detecting position of specific human body parts, e.g. face, eyes or hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/143Sensing or illuminating at different wavelengths
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19608Tracking movement of a target, e.g. by detecting an object predefined as a target, using target direction and or velocity to predict its new position
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19639Details of the system layout
    • G08B13/19645Multiple cameras, each having view on one of a plurality of scenes, e.g. multiple cameras for multi-room surveillance or for tracking an object by view hand-over
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19639Details of the system layout
    • G08B13/19647Systems specially adapted for intrusion detection in or around a vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60SSERVICING, CLEANING, REPAIRING, SUPPORTING, LIFTING, OR MANOEUVRING OF VEHICLES, NOT OTHERWISE PROVIDED FOR
    • B60S1/00Cleaning of vehicles
    • B60S1/02Cleaning windscreens, windows or optical devices
    • B60S1/04Wipers or the like, e.g. scrapers
    • B60S1/06Wipers or the like, e.g. scrapers characterised by the drive
    • B60S1/08Wipers or the like, e.g. scrapers characterised by the drive electrically driven
    • B60S1/0818Wipers or the like, e.g. scrapers characterised by the drive electrically driven including control systems responsive to external conditions, e.g. by detection of moisture, dirt or the like
    • B60S1/0822Wipers or the like, e.g. scrapers characterised by the drive electrically driven including control systems responsive to external conditions, e.g. by detection of moisture, dirt or the like characterized by the arrangement or type of detection means
    • B60S1/0862Wipers or the like, e.g. scrapers characterised by the drive electrically driven including control systems responsive to external conditions, e.g. by detection of moisture, dirt or the like characterized by the arrangement or type of detection means including additional sensors

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Electromagnetism (AREA)
  • Image Processing (AREA)
  • Air Bags (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)

Description

  • HINTERGRUND DER ERFINDUNG
  • 1. Gebiet der Erfindung
  • Diese Erfindung betrifft allgemein ein Bildverarbeitungssystem in einem Fahrzeug zum Detektieren der Anwesenheit einer Person und insbesondere ein Bildverarbeitungssystem zur Verwendung in einem Fahrzeug, das ein menschliches Gesicht identifiziert und diese Information zum Zwecke der Fahrzeugsicherheit verwendet.
  • 2. Diskussion der betroffenen Technik
  • Die Oberste Verkehrssicherheitsbehörde der Vereinigten Staaten von Amerika (National Highway Traffic Safety Administration) schreibt Fahrgast-Seitenairbags bei allen nach 1998 hergestellten Personenkraftwagen vor. Airbags retteten Tausende Leben, aber sicherere Airbagauslösesysteme können sogar mehr Leben retten. Von der Obersten Verkehrssicherheitsbehörde der Vereinigten Staaten von Amerika wurden Vorschläge unterbreitet, fortgeschrittene Airbags vorzuschreiben, die sicherer und effizienter sind. Es gibt folglich in der Technik einen Bedarf für ein fortgeschrittenes Airbagauslösesystem, das das Auslösen eines Airbags in Abhängigkeit von der Detektion, der Identifizierung und der Nachverfolgung einer Person in dem Fahrgastsitz eines Fahrzeuges bestimmt.
  • Zukünftige Airbagauslösesysteme werden in der Lage sein, eine Person in dem Fahrgastsitz des Fahrzeuges zu identifizieren und nachzuverfolgen. Basierend auf dieser Information stellt das System Signale bereit, ob während eines Unfallereignisses der Airbag zu zünden ist, der Airbag mit einer niedrigen Geschwindigkeit zu zünden ist oder der Airbag mit einer normalen hohen Geschwindigkeit zu zünden ist, und zwar in Abhängigkeit davon, ob eine Person in dem Fahrgastsitz Platz genommen hat, von der Größe der Person und von der Position der Person bezüglich der Airbagauslöseklappe. Falls eine Person in dem Fahrgastsitz detektiert wird und sich diese in einem kleinen Abstand (beispielsweise innerhalb von 3 Inch) von der Airbagklappe befindet, dann wird bei einem Beispiel der Airbag während eines Unfallereignisses nicht gezündet. Falls eine Person in dem Fahrgastsitz detektiert wird und sich diese nahe (beispielsweise zwischen 3 und 8 Inch) an der Airbagklappe befindet, wird der Airbag während eines Unfallereignisses mit einer niedrigeren Geschwindigkeit gezündet. Falls die Person in dem Fahrgastsitz detektiert wird und sich diese weit genug (beispielsweise mehr als 8 Inch) von der Airbagklappe befindet, dann wird der Airbag während eines Unfallereignisses mit der normalen hohen Geschwindigkeit gezündet.
  • Heutige Fahrgasterfassungssysteme umfassen typischerweise Ultraschallsensoren, Gewichtssensoren, Infrarot-Sensoren und/oder elektromagnetische Sensoren, um einen Fahrgast zur Airbagauslösung zu detektieren. Ultraschallerfassungssysteme erfassen die Bewegung von Objekten im Bereich des Fahrgastsitzes und bestimmen, ob sich das Objekt näher zu dem Sensor-Ort oder von diesem weiter weg bewegt. Jedoch können Ultraschallsensoren nicht das Wesen des Objektes identifizieren und können folglich nicht melden, ob es eine Person oder irgendein anderes Objekt, beispielsweise eine Lebensmitteltasche, ist. Ähnlich wie die Ultraschallsensoren können Mikrowellensensoren, die in aktiven Doppler-Radar-Systemen verwendet werden, Objekte nachverfolgen, aber nicht die Anwesenheit eines Menschen identifizieren. Gewichtssensoren identifizieren Objekte in dem Fahrgastsitz basierend auf dem angelegten Druck, aber berücksichtigen nicht den Ort des Fahrgastes bezüglich des Airbags. Passive IR-Sensoren nehmen thermische Bilder des Fahrgastsitzes auf, aber diese Systeme sind sehr aufwendig. Heutige aktive IR-Sensoren erfassen den relativen Ort des Fahrgastes bezüglich des Airbags, aber können nicht die Anwesenheit eines Menschen identifizieren. Elektromagnetische Systeme umfassen LC-Resonanzschaltungen, bei denen die Körperkapazität genutzt wird, um die Anwesenheit von Objekten zu detektieren und diese zu identifizieren, aber diese Systeme können die Objekte nicht nachverfolgen.
  • Das US-Patent 5,835,613, das am 10. November 1998 an Breed et al. erteilt wurde, offenbart ein Überwachungssystem für einen Fahrzeuginnenraum, das behauptet, Personen in dem Fahrgastraum des Fahrzeuges zu identifizieren, zu orten und zu überwachen. Das Überwachungssystem verwendet Infrarotstrahler, die den Innenraum des Fahrzeuges beleuchten, und Anordnungen von ladungsgekoppelten Vorrichtungen (CCD, charge coupled device), die die Strahlung detektieren. Ausgangssignale von den CCD-Anordnungen werden von Berechnungsvorrichtungen analysiert, die Mustererkennungsalgorithmen verwenden, um den Inhalt oder die Objekte in dem Fahrgastsitz zu klassifizieren, zu identifizieren oder zu orten. Das in dem Patent '613 offenbarte Mustererkennungssystem zum Bestimmen von Fahrzeuginsassen verwendet eine komplizierte Software, die die Form eines Individuums in allen möglichen Beleuchtungssituationen unter verschiedenen Bedingungen lernen muss. Zusätzlich ist die Anwendung der Mustererkennung auf diese Weise hinsichtlich ihrer Fähigkeit, das Individuum nachzuverfolgen, während er oder sie sich in dem Fahrgastsitz hin und her bewegt, beschränkt. Ferner ist die Eignung einer allgemeinen Mustererkennung zum Identifizieren und Nachverfolgen von Menschen fragwürdig unzuverlässig. Die Mustererkennung kann nicht identifizieren, wer die Person ist, sie kann nur die Form eines Objektes detektieren.
  • Das US-Patent 5,729,619 von Puma betrifft ein System zum Identifizieren der Identität eines Fahrzeugfahrers und zum Bestimmen, ob sich der Fahrer im Rauschzustand befindet oder andersartig schläfrig ist.
  • Das System bestimmt das durch Detektieren von Rauschmitteln und/oder der physiologischen Beiprodukte von Rauschmitteln oder anderen sekundären biochemischen Änderungen, die von Rauschmitteln in dem Tränenfilm verursacht werden, der die Oberfläche der Augen des Fahrers bedeckt. Obwohl diese Anordnung unter manchen Umständen zuverlässige Identifikationstechniken bereitstellen kann, ist sie aufwendig zu implementieren und erfordert genaue Messungen.
  • Es wird ein verbesserter Airbagauslösesensor und ein verbessertes Airbagauslösesystem benötigt, das in der Lage ist, effektiv eine Person in dem Fahrgastsitz eines Fahrzeuges zu identifizieren und nachzuverfolgen. Es ist daher eine Aufgabe der vorliegenden Erfindung, ein derartiges Erfassungssystem für eine Fahrgastairbagauslösung eines Fahrzeuges bereitzustellen.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Gemäß den Lehren der vorliegenden Erfindung ist ein Bildverarbeitungssystem zum Bereitstellen von Fahrzeugsicherheitsmerkmalen offenbart, das eine Gesichtserkennungssoftware und Algorithmen zum Identifizieren und Nachverfolgen einer Person verwendet. Das System umfasst Infrarotstrahler, die ein Infrarotsignal entlang einem vorbestimmten Gesichtsfeld abstrahlen, und einen Infrarotsensor, beispielsweise einen CMOS-Sensor, der als eine Videosignalanordnung verwendet wird und die reflektierte Infrarotbeleuchtung von Objekten in dem Gesichtsfeld empfängt. Ein Prozessor, der eine Gesichtserkennungssoftware umfasst, wird zum Detektieren von menschlichen Gesichtern verwendet. Sobald ein Gesicht detektiert wird, kann es mit einer Datenbank verglichen werden, um die Person zu identifizieren.
  • Verschiedene Anwendungen des Bildverarbeitungssystems zum Bereitstellen von Fahrzeugsicherheitsmerkmalen umfassen das Identifizieren des Fahrers oder des Fahrgastes zum persönlichen Anpassen der Airbags des Fahrzeuges, das Bereitstellen einer Kollisionsvermeidung vor einem Unfall, das Bereitstellen einer Detektion im toten Winkel, das Bereitstellen einer Aufzeichnung eines Fahrzeugunfalls und das Bereitstellen eines Warnsignals, falls der Fahrer schläfrig erscheint. Zusätzliche Aufgaben, Vorteile und Merkmale der vorliegenden Erfindung werden von der folgenden Beschreibung und den anhängenden Ansprüchen, die zusammen mit den begleitenden Zeichnungen zu betrachten sind, ersichtlich.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • 1 ist eine weggeschnittene, seitliche, ebene Ansicht einer Person in dem Fahrgastsitz eines Fahrzeuges in Verbindung mit einem Bilderfassungssystem für eine Airbagauslösung gemäß einer Ausführungsform der vorliegenden Erfindung;
  • 2 ist eine perspektivische Ansicht einer Videokamera und einer LED-Beleuchtungseinheit, die in dem Airbagauslösesystem der vorliegenden Erfindung verwendet werden;
  • 3 ist ein Graph mit der Wellenlänge auf der horizontalen Achse und der Luminanzenergie auf der vertikalen Achse, der die Luminanzkurve für Sonnenlicht zeigt;
  • 4 ist eine Darstellung von Orientierungs- und Positionsparametern einer Kamera bezüglich des Mittelpunktes der Airbagklappe und senkrecht dazu;
  • 5 ist ein Blockdiagramm des Airbagauslösesystems der vorliegenden Erfindung;
  • 6 ist eine schematische Darstellung, die eine Bildrahmendifferenztechnik darstellt, die in dem Airbagauslösesystem der vorliegenden Erfindung verwendet wird;
  • 7 ist ein Zeitsteuerungsdiagramm für die Bildrahmendifferenztechnik der Erfindung;
  • 8 ist eine ebene Ansicht von oben auf ein Fahrzeug, die verschiedene Sensor-Orte zum Erfassen verschiedener Bereiche des Fahrzeuges für verschiedene Sicherheits- und Komfortzwecke gemäß einer Ausführungsform der vorliegenden Erfindung zeigt;
  • 9 ist eine Seitenansicht eines Fahrzeuges, die eine Kamera mit einem Gesichtsfeld zum Detektieren von Objekten vor dem Fahrzeug gemäß einer anderen Ausführungsform der vorliegenden Erfindung zeigt;
  • 10 ist eine Draufsicht auf ein Fahrzeug, das eine Seitenkamera und eine Kamera hinten in der Mitte zum Detektieren von Objekten seitlich des und hinter dem Fahrzeug gemäß einer Ausführungsform der vorliegenden Erfindung umfasst;
  • 11 ist eine Seitenansicht eines Fahrzeuges, das gemäß einer anderen Ausführungsform der vorliegenden Erfindung eine Kamera umfasst, die vor dem Fahrer des Fahrzeuges positioniert ist; und
  • 12 ist eine Seitenansicht eines Fahrzeuges, das gemäß einer anderen Ausführungsform der vorliegenden Erfindung eine Kamera umfasst, die in der Deckenleuchte des Fahrzeuges für Einsatzzwecke im Falle eines Eindringens angebracht ist.
  • DETAILLIERTE BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSFORMEN
  • Die folgende Diskussion der bevorzugten Ausführungsformen, die auf ein Airbagauslösesystem gerichtet sind, das eine Erkennung eines menschlichen Gesichtsmerkmals verwendet, ist lediglich beispielhaft, und es ist keinesfalls beabsichtigt, dass sie die Erfindung oder ihre Anwendungen oder ihre Einsatzmöglichkeiten beschränkt.
  • Gemäß einer Ausführungsform der vorliegenden Erfindung wird eine Technik zum Detektieren, Identifizieren und Nachverfolgen einer Person in dem Fahrgastsitz eines Fahrzeuges offenbart. Wie zuvor diskutiert wurde, ist es manchmal wünschenswert, einen Fahrgastseitenairbag in einem Fahrzeug während eines Unfallereignisses mit einer niedrigen Geschwindigkeit auszulösen oder den Airbag nicht auszulösen, und zwar in Abhängigkeit davon, ob eine Person den Fahrgastsitz des Fahrzeuges einnimmt, von der Nähe der Person zu der Airbagklappe und von der Größe der Person. Erfindungsgemäß wird die Identifizierung und die Nachverfolgung der Person von einer Gesichtserkennungssoftware bestimmt, insbesondere von einer Software, die die Augen der Person und andere Gesichtsmerkmale erkennt und nachverfolgt. Die Nachverfolgung kann auf diese Weise bei vielen Kopfwinkeln und Kopfstellungen erfolgen. Der Softwarealgorithmus würde ein kalibriertes Gesicht und eine kalibrierte Merkmalsseparation verwenden, um den Abstand zu schätzen. Das Nachverfolgen eines lokal beschränkten Bereichs des menschlichen Gesichts ermöglicht, dass mehr Bildrahmen pro Sekunde aufgenommen werden, was ermöglicht, dass die Person häufiger nachverfolgt wird. Das häufigere Nachverfolgen der Gesichtsmerkmale vermeidet das Aufnehmen eines verschwommenen Bildes, weil das Bild häufiger aktualisiert wird.
  • In der Technik ist diverse Software bekannt, die Daten von Videodatenmustern, die von einem zu analysierenden Objekt erhalten werden, verarbeitet und bestimmt, ob das Objekt ein Gesicht hat. Beispielsweise umfasst eine derartige Software die "Visionics Face-It"-Software, die Fachleuten gut bekannt ist. Es wird betont, dass die vorliegende Erfindung nicht auf eine spezielle Gesichtsmerkmals-Zuordnungsfunktion beschränkt ist, sondern jeden bekannten Algorithmus umfassen kann, der für die hier beschriebenen Zwecke zum Erkennen von Gesichtsmerkmalen geeignet ist, ob er zweidimensional oder dreidimensional ist, die dann auch für Abstandsmessungsfunktionen verwendet werden. Ferner werden erfindungsgemäß Abstandsmessungsalgorithmen zusammen mit der bekannten Gesichtserkennungssoftware verwendet.
  • Wie nachstehend detailliert diskutiert wird, verwendet die vorliegende Erfindung Infrarotstrahlung, die von Objekten in der Fahrgastseite des Fahrgastraumes eines Fahrzeuges wegreflektiert wird und die von einer elektronischen Videokamera empfangen wird. Die Videokamera erzeugt die elektrischen Signale und das Bild, das von der Gesichtserkennungssoftware verwendet wird, um die Anwesenheitsermittlung und das Nachverfolgen der Person zu bestimmen.
  • 1 ist eine weggeschnittene, seitliche, ebene Ansicht des fahrgastseitigen Raumes 10 eines Fahrzeuges 12. In dieser Darstellung ist eine Person 16 in dem Fahrgastsitz 18 gezeigt, wo sich die Person 16 während eines Unfallereignisses nach vorne bewegt. Es wird gezeigt, dass ein Airbagkissen 20 während eines Unfallereignisses durch eine Airbagklappe 24, die in einem Armaturenbrett 22 untergebracht ist, entfaltet wird.
  • Eine Videokamera und eine IR-LED-Beleuchtungseinheit 26 ist an dem Armaturenbrett 22 an einer für die hier beschriebenen Zwecke geeigneten Stelle angebracht. 2 ist eine perspektivische Ansicht der Einheit 26, die von dem Fahrzeug 12 entfernt ist. Die Einheit 26 umfasst eine Gruppe 28 von IR-LEDs 30. Eine Mehrzahl von LEDs 30 wird bereitgestellt, um die erforderliche Intensität für einen Betrieb bei Tageslicht bereitzustellen. Die Gruppe 28 strahlt einen Strahl mit IR-Strahlung in Richtung der Person 16, der von dort in Richtung der Einheit 26 zurückreflektiert wird. Eine Videokamera 34 wird in der Einheit 26 bereitgestellt, um die von der Person 16 reflektierte Strahlung zu empfangen. Die Videokamera 34 wird mittels eines nicht beschränkenden Beispiels verwendet, bei dem ein beliebiger Detektor verwendet werden kann, der eine Infrarotstrahlung detektiert, die für die hier beschriebenen Zwecke geeignet ist.
  • Ein Filter 36 wird über der Kamera 34 vorgesehen, um Strahlung herauszufiltern, die sich nicht innerhalb des gewünschten Infrarotbereichs befindet. Der Filter 36 kann ein beliebiger Filter sein, der für die hier beschriebenen Zwecke geeignet ist, beispielsweise ein TiO2-Filter oder ein Polarisations-Filter. Die Filterschichten und die Filterdicke können derart ausgewählt werden, dass das IR-Bild an den Detektor übertragen wird, aber das sichtbare Bild von dem Detektor wegreflektiert wird. Der Polarisations-Filter kann verwendet werden, um das zu dem Detektor gerichtete sichtbare Licht unter Verwendung einer elektro-optischen Polarisation, die die IR-Wellenlängen passieren lässt, aber die Nicht-IR-Wellenlängen stark abschwächt, zu reduzieren. 3 zeigt die Luminanzkurve für Sonnenlicht, wo der Filter 36 die Infrarotstrahlung in dem Bandpassfenster mit 40 nm passieren lässt. Der Filter 36 stellt einen gewissen Schutz gegen Sonnenlicht bereit, das die Funktionsweise des Airbagauslösesystems und die Erkennung des Gesichts der Person 16 beeinträchtigen kann.
  • Bei dieser Ausführungsform der vorliegenden Erfindung wird eine einzige Kamera verwendet, um die Person 16 aufzunehmen und deren Abstand zu überwachen. Die zum Durchführen dieser Funktion eingesetzte Software verwendet zwei getrennte Orte auf dem Gesicht des Insassens, um die Abstandsmessung bereitzustellen. Bei einer bevorzugten Ausführungsform werden die Augen der Person detektiert, um die Triangulation zum Zwecke der Abstandsmessung bereitzustellen. Fachleute erkennen jedoch, dass auch andere Merkmale der Person 16 verwendet werden können, beispielsweise die Ohren, etc. der Person. Der Softwarealgorithmus ermöglicht auch, dass die Größe des Kopfes der Person bestimmt wird, so dass es nicht erforderlich ist, dass beide Augen im Aufnahmebereich sind, um die Person nachzuverfolgen, nachdem sie erfasst wurde. Die Software kann zusätzlich verwendet werden, um andere Teile des Körpers der Person zu erkennen, beispielsweise den Rumpf der Person zusammen mit der Gesichtsmerkmalsdetektion oder der Detektion der Kopfgröße.
  • Weil menschliche Gesichtsmerkmale einzigartig sind, kann eine Datenbank verwendet werden, um eine spezielle Information über eine Person zu speichern, beispielsweise den Abstand von Auge-zu-Auge, so dass die Software speziell diese Person identifizieren kann. Das ist bei einem Beispiel wichtig, so dass das System Kinder und Frauen, die zu der Gruppe von einem fünftel Prozent der erwachsenen weiblichen Bevölkerung der Vereinigten Staaten von Amerika mit der kleinsten Körpergröße gehören (fifth-percent females), identifizieren kann und das Zünden des Airbags bei diesen Leuten verhindert, wie in der von der Regierung angeordneten Verordnungen gefordert wird. Die Fähigkeit, speziell eine Person zu identifizieren, verbessert auch die Genauigkeit der Abstandsmessung des Systems, weil das System den Abstand der Augen der Person oder anderer spezieller Gesichtsmerkmale kennt.
  • Die Aufnahme- und Nachverfolgungssoftware muss für eine spezielle Sitzposition, eine spezielle Airbagposition und einen speziellen Fahrzeugaufbau, etc. kalibriert werden. 4 ist eine Darstellung der Kameraorientierungs- und Kamerapositionsparameter bezüglich des Mittelpunktes der Airbagklappe 24 und rechtwinklig zu dieser. Die drei Parameter, die in dem Fahrzeug für die erfindungsgemäße Abstandsmessung geschätzt werden müssen, nachdem die Kamera und die "Visionics Face-It"-Software kalibriert sind, umfassen zwei Positionsabstände und einen Winkelversatz.
  • Die zwei Positionsabstände sind der seitliche Abstand der Kamera 34 bezüglich des Mittelpunktes des Airbags (ΔY), der seitlich und rechtwinklig zu dem Normalvektor ausgehend vom Mittelpunkt der Airbagklappe 24 gemessen wird, und der Versatz (ΔX) nach vorne oder nach hinten der Kamera 34 bezüglich des Mittelpunktes der Airbagklappe 24, der entlang einer Achse gemessen wird, die sich parallel zu dem Normalvektor ausgehend von dem Mittelpunkt der Airbagklappe 24 befindet. Der Winkelparameter ist der Azimutversatz (Δθ) zwischen der optischen Achse der Kamera 34 und dem Normalvektor, der aus dem Mittelpunkt des Airbags 20 austritt. Nur zwei dieser Parameter, ΔX und ΔΦ, werden in der modifizierten monokularen Abstandsgleichung verwendet.
  • Eine nachstehend beschriebene Kalibrierungsprozedur kann verwendet werden, um ΔY, ΔX und ΔΦ zu bestimmen. Es gibt einen Kompromiss zwischen dem Messen einer großen Anzahl von Kalibrierungspunkten und dem linearen Interpolieren dazwischen oder dem Messen einer kleinen Anzahl von Kalibrierungspunkten und dem nicht-linearen Interpolieren dazwischen. Theoretisch würde das Kalibrieren mit einer großen Anzahl von Punkten kein Modell zum Schätzen, das hier beschrieben ist, erfordern. Der Aufwand zum Durchführen einer großen Anzahl von Messungen, der für eine Kalibrierung nach dem Brechstangenprinzip erforderlich ist, und die Möglichkeit, dass ein Betrieb der Kamera 34 oder der Software außerhalb des zulässigen Bereichs mit der Kalibrierung nach der Brechstangenmethode auftreten könnte, muss in Erwägung gezogen werden, bevor dieser Ansatz verwendet wird. Der hier verwendete Ansatz verwendet eine kleine Anzahl von Kalibrierungstests, um ein Modell für die Interpolation zu bilden.
  • Ausgehend von 4 können die folgenden Gleichungen aufgestellt werden, um die in dem Airbagklappen-Referenzrahmen (xyz) durchgeführten Messungen zu jenen, die in den Kameralinsen-Referenzrahmen (xyz) durchgeführt wurden, in Beziehung zu bringen. Bei den folgenden Gleichungen werden nur Gesichtspositionen vor der Airbagklappe (x > 0) betrachtet. Für ρ,θ (Nickwinkel oder Elevationswinkel) und Φ (Gierwinkel oder Azimutwinkel), die in dem Kugelkoordinatensystem der Kamera definiert sind, lauten die Gleichungen für die Abstände x und y in dem Airbagkoordinatensystem: x = –ΔX + ρsin(θ + Δθ)cos(Φ + ΔΦ) (1) y = –ΔY + ρsin (θ + Δθ)sin(Φ + ΔΦ) (2)
  • Dabei wird angenommen, dass θ + Δθ während der Kalibrierung festgelegt ist. Das Umformen der Gleichungen (1) und (2) ergibt:
    Figure 00080001
  • Das Durchführen von Augenkoordinaten-Auslesemessungen bei einem konstanten x + ΔX und das anschließende Bestimmen der Steigung des Tangens bezüglich Änderungen in y ergibt:
    Figure 00090001
  • Bei bekanntem x und bei bekanntem Ergebnis der rechten Seite der Gleichung (4) kann ΔX bestimmt werden. Bei bekannten ΔX können die Gleichung (3) und die Messdaten dazu verwendet werden, ΔY zu bestimmen. Anschließend kann unter Verwendung von ΔX und ΔY der Gleichung (3) und der Daten ΔΦ bestimmt werden. Unter Verwendung von Gleichung (3) und der Tatsache, dass: eye_separation_distance = yrt_eye – Yleft-eye (5)ist, folgt die modifizierte monokulare Gleichung aus Gleichung (6) zum Definieren des Zielparameters x oder des Abstandes des Auges zum Airbag.
  • Figure 00090002
  • Die Kalibriertabelle besteht aus einer Nachschlagetabelle (lookup table) der von der SDK (Software Development Kit, Softwareentwicklungsbibliothek) bestimmten Augenkoordinate als ein Pixelwert, der mit der zugeordneten Strahlsteigung, so wie sie in dem Kamerakoordinatensystem gesehen wird, verknüpft ist. Die Gleichung (6) kann bezüglich der Strahlsteigungen (Tangens von einzelnen Winkeln) vereinfacht werden, so dass die Kalibriertabelle direkt verwendet werden kann, um den Abstand des Auges zum Airbag aus einer monokularen Betriebsweise zu bestimmen. Das Anwenden der trigonometrischen Tangensidentität in nachstehender Gleichung (7)
    Figure 00090003
    und das Anwenden dieser Identität bei Gleichung (6) lässt die modifizierte monokulare Gleichung in einer Form, die bei einem direkten Nachschlagen des Tangens/der Steigungen aus der Kalibriernachschlagetabelle verwendet werden kann. Diese Gleichung ist in nachstehender Gleichung (8) dargelegt.
  • Figure 00100001
  • 5 ist ein Blockdiagramm eines Bildverarbeitungssystems 50 der Erfindung, das einen digitalen Signalprozessor (DSP) 52 umfasst. Der DSP 52 umfasst die Gesichtserkennungssoftware und Abstandsmessungsfunktionen, die die Analyse bei dem von der Kamera 34 erzeugten Bild durchführen. Ein Taktgenerator 60 stellt eine Zeitsteuerung für die verschiedenen digitalen Einrichtungen in dem System 50 bereit, und ein Leistungsmanagementsystem 62 stellt Strom bereit. Der DSP 52 ist an einen CMOS-Chip 70 angeschlossen, der eine Pixelanordnung 72 umfasst, die den IR-Detektor darstellt, beispielsweise die Kamera 34. Bei diesem Beispiel umfasst die Pixelanordnung 72 256 × 256 Pixel, um das gewünschte Auflösungsniveau bereitzustellen. Der CMOS-Chip 70 umfasst auch verschiedene Elemente für die Zeitsteuerung und für Steuerungszwecke, die eine zustandsangepasste Logik 74, eine Takt-/Zeitsteuerungsschaltung 76, eine analoge Aufbereitungsschaltung 78, Register/Puffer 80, eine auf Chipebene programmierbare logische Schaltung 82, etc. umfassen. Zusätzlich ist auch ein Analog-zu-Digital-Umsetzer 84 vorgesehen, um das analoge Signal von der Pixelanordnung 72 in ein dieses darstellende Digitalsignal umzusetzen. Ein SRAM-Speicher 86 auf dem Chip ist für Speicherzwecke dargestellt, aber er kann sich auch außerhalb des Chips befinden. Die Funktionsweise dieser Einrichtungen in dem hier beschriebenen System ist Fachleuten ersichtlich.
  • Bei einer Ausführungsform sind die Infrarot-LEDs 30 kontinuierlich eingeschaltet, um die von der Kamera 34 empfangene reflektierte Strahlung bereitzustellen. Jedoch muss typischerweise eine Art von Filterung oder Signalverarbeitung durchgeführt werden, um die von direktem Sonnenlicht auf die Kamera 34 verursachten Probleme zu korrigieren, das durch den Filter 36 passiert. Insbesondere muss das System 50 in der Lage sein, zwischen von Sonnenlicht verursachten Schatten und tatsächlichen Kanten von Merkmalen des Insassen 16 zu unterscheiden. Erfindungsgemäß wird eine Bildrahmendifferenztechnik angewendet, die die LEDs 30 für eine vorbestimmte Zeitspanne und eine vorbestimmte Anzahl von Videodatenrahmen impulsartig einschaltet und dann für eine vorbestimmte Zeitspanne über die gleiche Anzahl von Videodatenrahmen impulsartig ausschaltet. Anschließend werden die Datenrahmen voneinander subtrahiert, so dass die Rahmen ohne IR-Beleuchtung von den Rahmen mit IR-Beleuchtung subtrahiert werden können und der Hintergrund eliminiert werden kann. Der Detektor wird synchron mit den Impulsen elektronisch geschlossen (shuttered), um eine Belichtungssteuerung bereitzustellen. Die hier beschriebene Rahmendifferenztechnik wird zusammen mit den Infrarotimpulsen verwendet, um das gewünschte Ergebnis zu erzielen. In anderen Worten, die Rahmendifferenzbildung ist mit den Infrarotimpulsen synchronisiert.
  • Das Konzept der Rahmendifferenzbildung ist die zeitgesteuerte Öffnung der Blende und die Speicherung der Bilder auf Pixelebene unter Verwendung von lediglich natürlicher Beleuchtung und natürlicher Beleuchtung mit zusätzlicher Infrarotbeleuchtung. Die Rahmendifferenzbildung ermöglicht, dass diese Bilder subtrahiert werden, um die Effekte einer starken sichtbaren Beleuchtung abzuschwächen. Der Aufbau umfasst einen Neutraldichtefilter (neutral density filter), der die IR-Beleuchtung einschließlich eines Hintergrundes im ungünstigsten Fall einstellt, um das Eingangssignal für den Analog-zu-Digital-Umsetzer zu maximieren. Die Gesichtserkennung erfordert, dass der Analog-zu-Digital-Bereich für das subtrahierte Bild 5 bis 6 Bit beträgt. Das sichtbare Licht würde innerhalb des verbleibenden Bereichs passen, der für den Analog-zu-Digital-Umsetzer zulässig ist. Die Bilddifferenzbildung wird entweder im Analogbereich, wo zwei Kondensatoren auf Pixelebene, je einer pro Beleuchtungspegel, geladen werden, oder im Digitalbereich, wo ein RAM-Speicher des digitalisierten Pixelausgangssignals bei jeder Beleuchtung verwendet werden, durchgeführt. Die Rahmendifferenzbildung arbeitet derart, dass sie die Beleuchtungseffekte der sichtbaren Beleuchtung heraussubtrahiert und dass sie den Bildkontrast verbessert. Die Rahmendifferenzbildungsfunktion kann in dem Erfassungserzeugungsmodus mit einer hohen Bandbreite oder in dem Nachverfolgungsmodus mit einer niedrigen Bandbreite unter Verwendung einer gepulsten LED-Beleuchtung durchgeführt werden. Die Anzahl der Elektronen von der gepulsten IR-Lichtquelle muss 10 Mal größer als das Photonenrauschen der Umgebungsbeleuchtung sein. Hier ist das Rauschen der Umgebungsbeleuchtung die Quadratwurzel des Doppelten der Anzahl der Elektronen innerhalb der Sonnenintensität, weil zwei Bildrahmen für jedes einzelne empfangene IR-Bild aufgenommen werden.
  • 6 ist eine Darstellung wie die Rahmendifferenzbildung gemäß einer Ausführungsform der Erfindung in der Kamera 34 durchgeführt wird. 7 ist eine Signalzeitsteuerungslinie, die die Funktionsweise der Rahmendifferenztechnik der Erfindung zeigt. Eine Pixelanordnung 90 in der Kamera 34 empfängt Strahlung von der Szene über eine vorbestimmte Zeitspanne (10 μs) während eines IR-Impulses von den LEDs 30. Zu diesem Zeitpunkt empfängt die Pixelanordnung 90 Umgebungslicht und Infrarotlicht. Die von jedem Pixel oder jeder Photodiode 92 in der Anordnung 90 gespeicherte Ladung wird anschließend an einen Ladungsspeicherungsort 94 übertragen, der aus einer Mehrzahl von Kondensatoren mit je einem Kondensator 96 für jedes Pixel 92 gebildet ist. Etwa 10 μs später am Ende des Impulses von der Gruppe 28 detektiert die Pixelanordnung 90 lediglich das Umgebungslicht über die gleiche Zeitspanne. Die zu diesem Zeitpunkt von der Pixelanordnung 90 empfangene Ladung wird in einem Kondensatorspeicherort 98 mit Kondensatoren 100 gespeichert. In dem Detektor wird ein elektronischer Shutter verwendet, um diesen für den hier beschriebenen Betrieb zu den ordnungsgemäßen Zeitpunkten synchron mit den Impulsen aus IR-Strahlung zu öffnen und zu schließen.
  • Die zwei Speicherorte 94 und 98 werden in einem Summenbildungsverstärker 102 summiert. Die Differenz zwischen den zwei Speicherorten 94 und 98 wird anschließend von einem Analog-zu-Digital-Umsetzer 104 digitalisiert und stellt den Datenrahmen dar, wo das Umgebungslicht entfernt wurde. Das Auslesen der Daten dauert etwa 10 ms, und in der nächsten Zeitspanne tritt anschließend der nächste Impuls von der Gruppe 28 auf. Das komplette Rahmendifferenzbildungsverfahren kann auf einem einzigen Chip in CMOS-Technologie durchgeführt werden, wo die Pixelanordnung 90 und die Speicherorte 94 und 98 gemeinsam vorgesehen sind. Bei einer anderen Ausführungsform wird die Rahmendifferenzbildung während einer anderen Zeitspanne an einer vom Chip entfernten Stelle durchgeführt, wo sich die Speicherorte 94 und 98 ein RAM sind.
  • Die Rahmendifferenzbildungstechnik der Erfindung kann auf folgende Weise beschrieben werden. Die Variablen sind als eine Umgebungsbeleuchtung I(x, y), eine direkte Umgebungsbeleuchtung T(x, y), ein Reflektionsgrad des Szene R(x, y) und eine modulierte Quelle als L, wenn sie eingeschaltet ist, und als 0, wenn sie ausgeschaltet ist, definiert. Die Antwort der Kamera 34 ist proportional zum Produkt des Reflektionsgrades und der Beleuchtung. S(x, y, AUS) = k·(I(x, y)·R(x, y)) + T(x, y) S·(x, y, EIN) = k·((L + I(x, y))·R(x, y)) + T(x, y) D(x, y) = S(x, y, EIN) – S(x, y, AUS) = KL·R(x, y)
  • Diese Differenzszene hat einen viel kleineren Dynamikbereich als das einfache Bild S(x, y, AUS). Der gleiche Vorteil kann durch Auslesen des Bildrahmens mit der LED, das anschließende Auslesen des Bildrahmens ohne LED und dem Subtrahieren der Rahmen außerhalb der Kamera 34 erreicht werden. Der Nachteil ist ein erhöhter Dynamikbereich, der erforderlich ist, um eine Sättigung zu vermeiden.
  • L muss viel größer als die Antwort auf eine direkte Umgebungsbeleuchtung auf I sein. Folglich wird I so klein wie möglich gemacht, indem ein schmaler Bandpassfilter, der hinsichtlich der Frequenz mit L ausgerichtet ist, verwendet wird. Die Rohabtastrate muss zweimal so hoch sein, wie für die Objektnachverfolgung erforderlich ist, weil zwei Rahmen subtrahiert werden, um einen Rahmen zum Versorgen der Gesichtserkennungssoftware zu erhalten. Die LEDs 30 müssen viel schneller sein. Die IR-Strahlungsquelle muss derart moduliert werden, dass die gesamte Strahlung während des Zeitraumes auftritt, in dem alle Detektoren aktiv sind. Falls die Integrationszeiten aller Pixel in dem Detektor nicht ausgerichtet sind, wird die zur Verfügung stehende Zeitspanne, in der die Quelle eingeschaltet ist, durch die Fehlausrichtung im ungünstigsten Fall reduziert.
  • Das zuvor beschriebene Gesichtserkennungssystem zum Identifizieren und Nachverfolgen einer Person in einem Fahrgastsitz eines Fahrzeuges kann auf andere Typen von Fahrzeugsystemen für andere Zwecke ausgedehnt werden. 8 ist eine ebene Ansicht von oben auf ein Fahrzeug 110, die an verschiedenen Orten für andere Zwecke positionierte Sensoren oder Kameras zeigt. Beispielsweise ist ein nach vorne gerichteter Infrarotsensor 112 an einer Stelle in der Mitte an dem Armaturenbrett 22 positioniert und nach vorne gerichtet, um Objekte vor dem Fahrzeug zu detektieren. Zusätzlich ist ein nach hinten gerichteter Infrarotsensor 114 an einem Ort in der Mitte an dem Armaturenbrett 22 angeordnet und in Richtung des hinteren Fahrgastraumes des Fahrzeuges 110 gerichtet, um Vorgänge in diesem Teil des Fahrzeuges zu überwachen. Zusätzlich ist ein Infrarotsensor 116 an dem Armaturenbrett 22 vor dem Fahrersitz 118 positioniert, um die Gesichtsmerkmale des Fahrers für verschiedene nachstehend diskutierte Zwecke zu detektieren. Ein Infrarotsensor 120 ist an dem Armaturenbrett 22 vor dem Fahrgastsitz 122 für die Airbagauslösung positioniert, wie zuvor diskutiert wurde. Die verschiedenen Sensoren 112, 114, 116 und 120 können auf verschiedene Arten in verschiedenen Systemen verwendet werden. Andere Sensor-Orte können auch für andere Zwecke verwendet werden, die mit der Diskussion hier übereinstimmen. Einige der Anwendungen werden nachstehend diskutiert.
  • Bei einer erfindungsgemäßen Ausführungsform ist ein Sensor oder eine Kamera in Richtung auf den Fahrgastsitz und den Fahrersitz gerichtet, der bzw. die ein Bild des Gesichtsmerkmales des Fahrers und des Fahrgastes aufnimmt. Unter Verwendung der Gesichtsmerkmalssoftware werden die Gesichtsmerkmale, beispielsweise die Augen oder eine beliebige Kombination von 2-D oder 3-D Gesichts-/Kopf-/Rumpf-Merkmalkoordinaten des Fahrers und des Fahrgastes mit Bildern verglichen, die in einer Computerdatenbank oder einer Nachschlagetabelle gespeichert sind. Falls die Software eine Übereinstimmung des menschlichen Gesichts mit einem in der Datenbank gespeicherten auffindet, wird der Airbag des Fahrers und/oder des Fahrgastes angepasst, so dass die Charakteristika dieser Person verwendet werden, um die Airbagauslösung zu personalisieren. Das hilft dabei, den Airbag automatisch für junge Personen mit einem niedrigen Gewicht, kleine Fahrer, etc. anzupassen.
  • Erfindungsgemäß umfasst eine Anwendung für schläfrige Fahrer das Ermitteln, wenn ein Fahrer am Steuer einschläft, und das Aufwecken des Fahrers. Anfänglich erfasst die Gesichtserkennungssoftware zu regelmäßigen Zeitspannen die Gesichtsmerkmale des Fahrers und deren Koordinaten. In Abhängigkeit von den neuen Koordinaten der Gesichtsmerkmale des Fahrers gibt die Software eine Warnung an den Fahrer, dass er oder sie einschläft, aus. Diese Warnung basiert auf der Häufigkeit des Nickens des Kopfes des Fahrers, d. h. die Kopfbewegung nach vorne und nach hinten, ob die Augen des Fahrers geschlossen sind, etc. Insbesondere wird der Prozentsatz der Zeit, während welchem die Augen während eines festen Zeitintervalls geschlossen sind, verwendet, um zu bestimmen, ob der Fahrer schläft. Vorläufige Studien zeigten, dass, wenn die Augen eines Fahrers mehr als 70 % über die Zeitspanne von zwei Sekunden geschlossen sind, der Fahrer schläfrig ist und beim Einschlafen sein kann. Zusätzlich werden die Bewegung des Kopfes des Fahrers nach hinten und nach vorne oder die Augen des Fahrers, die ein Mobiltelefon betrachten, verwendet, um zu bestimmen, ob der Fahrer auf die vor ihm liegende Strasse achtet. Die Gesichtserkennungssoftware kann die Differenz der Augenkoordinaten des Fahrers erfassen, und diese Information kann dem Fahrer zurückgegeben werden. Diese Information kehrt zu dem Fahrer in der Form einer mechanischen Bewegung oder einer elektrischen Stimulierung oder des Erzeugens eines lauten Signals, um den Fahrer aufzuwecken, zurück.
  • Ähnlich wie bei der zuvor diskutierten Anwendung für schläfrige Fahrer kann eine Einnahme von Drogen verursachen, dass der Fahrer einschläft. Heutzutage verwenden viele Fahrer Koffein oder "Speed", um sich während einer langen Fahrt wach zu halten. Wenn jedoch die Wirkung der Droge nachlässt, verschlechtert sich die Reaktionszeit des Fahrers hinsichtlich kritischer Änderungen der Strassen- oder der Fahrbedingungen. Folglich hilft das Überwachen der Pupillen des Fahrers, einen Fahrer zu detektieren, der Drogen verwendet, wenn die Wirkung der Drogen endet. Die Gesichtsmerkmalserkennungssoftware bestimmt im Wesentlichen, wie häufig die Iris des Auges von dem Augenlid des Fahrers blockiert ist, um zu bestimmen, ob der Fahrer beim Einschlafen ist.
  • Das hier beschriebene Gesichtsmerkmalerkennungssystem kann auch zur Fahreridentifizierung verwendet werden. Wenn der Fahrer in ein Fahrzeug einsteigt, nimmt eine Kamera, die nach außen gerichtet ist und in der Nähe der Fahrertür angeordnet ist, ein Bild der Gesichtsmerkmale des Fahrers auf. Unter Verwendung der Gesichtsmerkmalserkennungssoftware werden Gesichtsmerkmale, beispielsweise die Augen oder eine beliebige Kombination von 2-D- oder 3-D Gesichts-/Kopf-/Rumpf-Merkmalskoordinaten aus der Perspektive des Fahrers mit Bildern verglichen, die in der Softwaredatenbank gespeichert sind. Falls die Software eine Übereinstimmung des Gesichts mit einem in der Datenbank gespeicherten ermittelt, öffnen sich die Türen und das Fahrzeug kann automatisch gestartet werden. Andernfalls bleibt das Fahrzeug abgeschaltet. Bei einer anderen Ausführungsform kann die Kamera dazu verwendet werden, den Fahrer zum Zwecke des Startens des Fahrzeuges zu identifizieren, nachdem der Fahrer Zugang zu dem Fahrzeug erhalten hat und sich der Fahrer in dem Sitz befindet. Zusätzlich kann in einer elterlichen Kontrollsituation der Fahrer als eine junge Person identifiziert werden, bei der Algorithmus die Steuerung des Fahrzeuges auf eine Maximalgeschwindigkeit zur Verwendung durch diesen Fahrer einstellt.
  • Das Fahrer-ID-Konzept kann auf Fahrerkomfortmerkmale ausgedehnt werden, die auch die Gesichtserkennungssoftware verwenden. Insbesondere können die menschlichen Gesichtsmerkmale des Fahrers verwendet werden, um die letzte Sitzposition, die Einstellung des Rückspiegels und der Seitenspiegel, die Lenkradeinstellung, die Radioeinstellung, etc. des Fahrers abzurufen. Bei diesem Beispiel kann der Computer des Fahrzeuges die letzte Sitzposition und die Einstellung des Rückspiegels und der Seitenspiegel des Fahrers mit den menschlichen Gesichtsmerkmalen des Fahrers speichern. Wenn die Kamera nachfolgend die Gesichtsmerkmale des Fahrers aufnimmt und dieses Bild mit einer gespeicherten persönlichen Präferenz des Fahrers übereinstimmt, können der Sitz und die Spiegel automatisch zu den gewünschten Stellungen repositioniert werden.
  • Die Verwendung der speziellen Bildaufnahmetechnik- und Bildverarbeitungstechnik der vorliegenden Erfindung ermöglicht die Detektion der Anwesenheit von Leuten jeglichen Alters und jeglicher Größe, ob sie wach sind oder schlafen, in dem Innenraum eines Fahrzeuges mit einer sehr hohen Zuverlässigkeit. Diese Detektion ist zu allen Zeiten für stehende oder sich bewegende Fahrzeuge effektiv, ob der Motor läuft oder nicht, ohne dass sie von einer externen Anregung der Vorgänge des Fahrzeuges gestört wird, so dass die Bestimmung von für den Menschen gefährlichen Situationen im Inneren ermöglicht wird, um Warnungsalarme lokal zu erzeugen oder diese zu kommunizieren. Das umfasst Situationen mit zurückgelassenen Kindern, einem medizinischen Notfall, eingeschlossenen Insassen, schlafenden Insassen, etc.
  • 9 ist eine Seitenansicht eines Fahrzeuges 130, das einen nach vorne gerichtet angebrachten Sensor 132 umfasst, der ein Sensor-Gesichtsfeld vor dem Fahrzeug 130 bereitstellt.
  • Reflektionen von Objekten in der nach vorne gerichteten Richtung, beispielsweise von einem Fußgänger auf einem Fußgängerübergang, von einem sich langsam bewegenden Fahrzeug, etc., werden von dem Verarbeitungssystem registriert und stellen dem Fahrer eine Warnung bereit, dass sich ein Objekt in der Bahn des Fahrzeuges befindet. Durch Erkennen eines Fußgängers auf einem Fußgängerübergang oder dergleichen kann eine vorbeugende Unfallvermeidungsfunktion unter Verwendung des Gesichtserkennungssystems der vorliegenden Erfindung bereitgestellt werden.
  • 10 ist eine Draufsicht auf ein Fahrzeug 140, das eine zentral angebrachte Kamera 142 hinter dem Fahrzeug 140 zum Bereitstellen eines Hinweises auf Objekte in der Bahn des Fahrzeuges umfasst, wenn es sich nach hinten bewegt. Zusätzlich kann eine Kamera 144, die in dem Seitenspiegel 146 des Fahrers platziert ist, Objekte detektieren, die sich in dem toten Winkel des Fahrers befinden und die der Fahrer nicht sehen könnte, um Warnungen bereitzustellen. Bei diesem Beispiel ermöglicht die Kamera 144 dem Fahrer, auf die Straße vor ihm konzentriert zu bleiben, aber er kann immer noch sicher nach rechts oder links abbiegen oder die Fahrspur wechseln. Die Kamera 144 kann zum Detektieren von Fußgängern oder Fahrradfahrern im toten Winkel des Fahrzeuges durch das Gesichtserkennungssystem vorgesehen sein.
  • Bei schweren Autounfällen ist es manchmal schwierig festzustellen, was den Unfall verursachte. Bei einem Beispiel kann vor dem Unfallereignis die äußere, nach vorne gerichtete Kamera Bilder vor dem Unfall aufnehmen. Diese Bilder werden an den Fahrer in Form einer elektrischen oder einer mechanischen Warnung zurückgesendet, so dass der Fahrer Anpassungen vornehmen kann, um eine Kollision zu vermeiden. Im Falle einer Fahrzeugkollision können die aufgenommenen Bilder gespeichert werden, so dass zu einem späteren Zeitpunkt die erfassten Zustände vor dem Unfall zur Verfügung stehen, um eine Schadensschätzung nach dem Unfall durchzuführen. Nach dem Unfall kann ein Unfallbenachrichtigungssignal in Form eines Funkwellensignals automatisch gesendet werden, was die Polizei und die Feuerwehr über den Unfallort alarmiert.
  • Um die Aufmerksamkeit des Fahrers auf die Strasse gerichtet und die Hände auf dem Lenkrad zu halten, können Gesichtsgesten des Fahrers, beispielsweise eine Bewegung von Gesichtsmerkmalen, verwendet werden, um Funktionen durchzuführen, die zuvor manuell durchgeführt wurden. Beispielsweise kann ein Gesichtsmerkmalbefehl des Fahrers mit einem bestehenden gespeicherten Gesichtsmerkmal verglichen werden, der bewirkt, dass das Fahrzeug die Autosteuerungseinrichtungen automatisch verändert, ohne dass der Fahrer bzw. die Fahrerin seine oder ihre Augen von der Strasse wegrichten muss. Einige Beispiele umfassen die Steuerung von Autozubehör, beispielsweise das Einschalten und Abschalten des Radios, das Einschalten und Abschalten der Lichter des Fahrzeuges, das Einschalten und Abschalten der Scheibenwischer der Windschutzscheibe oder das Betätigen der Hupe. 11 zeigt eine Seitenansicht eines Fahrzeuges 152, das einen Sensor 154 des hier diskutierten Typs umfasst, der vor einem Fahrer 156 zum Identifizieren und Nachverfolgen der Gesichtsmerkmale des Fahrers 156 positioniert ist. Das Gesichtserkennungssystem der Erfindung kann diese Information auf die hier diskutierte Weise verwenden.
  • Ferner kann eine Kamera in dem Fahrzeug positioniert sein, um ein Eindringen zu überwachen. Bei diesem Beispiel nimmt eine Kamera ein Bild irgendwo innerhalb des Fahrgastraumes des Fahrzeuges auf. Falls eine Person in dem Rücksitz des Fahrzeuges detektiert wird, nimmt die Kamera ein Bild der Gesichtsmerkmale der Person auf. Falls die Gesichtsmerkmale einem in dem Computer gespeicherten entsprechen, wird kein Alarm ausgelöst. Andernfalls kann ein Alarm ertönen, um den Fahrer zu warnen, dass sich jemand auf dem Rücksitz befindet. Die Kamera kann ein Aufzeichnen des Eindringlings zur späteren Identifikation bereitstellen, und die Detektion der Anwesenheit eines Menschen, nachdem das Fahrzeug abgeschlossen ist, bereitstellen. 12 zeigt eine Seitenansicht eines Fahrzeuges 160, die dieses Beispiel darstellt, wo ein Sensor 162 an einem zentralen Ort in dem Fahrgastraum des Fahrzeuges, beispielsweise in der mittleren Deckenleuchte, angebracht ist.
  • Die vorangegangene Diskussion offenbart und beschreibt lediglich beispielhafte Ausführungsformen der vorliegenden Erfindung. Ein Fachmann wird aus einer derartigen Diskussion und den begleitenden Zeichnungen und den Ansprüchen leicht erkennen, dass verschiedene Änderungen, Modifikationen und Variationen daran gemacht werden können, ohne vom Bereich der Erfindung, wie er in den folgenden Ansprüchen definiert ist, abzuweichen.

Claims (12)

  1. Abbildungssystem (26) für ein Fahrzeug (12), wobei das System (26) umfasst: eine Infrarotquelle (30), die einen Infrarotstrahl entlang eines speziellen Gesichtsfeldes in dem oder um das Fahrzeug (12) erzeugt; einen Infrarotdetektor (34), der auf Infrarotstrahlung reagiert, die von Objekten in dem Gesichtsfeld des Infrarotstrahls reflektiert werden, wobei der Detektor (34) Abbildungssignale aus der reflektierten Infrarotstrahlung erzeugt; und einen Prozessor (52), der auf die Abbildungssignale von dem Detektor (34) reagiert, wobei der Prozessor (52) eine Gesichtserkennungssoftware umfasst, die Gesichtsmerkmale einer Person (16) abbildet, um das Gesicht einer Person zu detektieren, dadurch gekennzeichnet, dass der Prozessor (52) das detektierte Abbild des Gesichtes der Person mit gespeicherten Abbildungen vergleicht, wobei der Prozessor (52) in Reaktion auf das detektierte Abbild, das einem gespeicherten Abbild entspricht, die Person (16) identifiziert und bewirkt, dass eine Funktion des Fahrzeuges (12) durchgeführt wird, die das individuelle Anpassen eines Airbags für eine spezielle Person (16), die detektiert wurde, einschließt.
  2. System (26) nach Anspruch 1, wobei die Infrarotquelle (30) eine Gruppe von Infrarot-Leuchtdioden ist.
  3. System (26) nach Anspruch 2, wobei der Infrarotdetektor (34) eine elektronische Videokamera ist.
  4. System (26) nach Anspruch 3, wobei die Gruppe der Leuchtdioden und die elektronische Kamera als eine einzelne Einheit bereitgestellt werden, die in dem Fahrzeug (12) angebracht ist.
  5. System (26) nach Anspruch 1, wobei der Prozessor (52) die Augen der Person nachverfolgt und überwacht.
  6. System (26) nach Anspruch 1, das ferner ein Infrarotfilter umfasst, das vor dem Detektor (34) positioniert ist.
  7. System (26) nach Anspruch 1, wobei der Infrarotdetektor (34) eine Pixelmatrix von Fotodioden umfasst.
  8. System (26) nach Anspruch 1, wobei die Infrarotquelle (30) über eine vorbestimmte Zeitspanne in vorbestimmten Intervallen eingeschaltet gepulst wird.
  9. System (26) nach Anspruch 8, wobei die gepulste Quelle (30) und der Detektor (34) derart synchronisiert sind, dass eine Differenz aufeinanderfolgender Bilder ein Abbild ohne Umgebungslichtvariationen darstellt.
  10. System (26) nach Anspruch 1, wobei der Infrarotdetektor (34) eine Pixelmatrix von Dioden umfasst.
  11. System (26) nach Anspruch 1, wobei die Infrarotquelle (30) in vorbestimmten Intervallen ein und aus gepulst wird.
  12. System (26) nach Anspruch 2, wobei die Infrarotquelle (30) in vorbestimmten Intervallen ein und aus gepulst wird.
DE60114238T 2000-07-21 2001-07-10 Erkennung menschlicher gesichtsmerkmale für kraftfahrzeugrückhaltesysteme Expired - Lifetime DE60114238T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US621160 2000-07-21
US09/621,160 US6724920B1 (en) 2000-07-21 2000-07-21 Application of human facial features recognition to automobile safety
PCT/US2001/021700 WO2002008023A2 (en) 2000-07-21 2001-07-10 Application of human facial features recognition to automobile safety

Publications (2)

Publication Number Publication Date
DE60114238D1 DE60114238D1 (de) 2006-03-02
DE60114238T2 true DE60114238T2 (de) 2006-07-13

Family

ID=24488984

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60114238T Expired - Lifetime DE60114238T2 (de) 2000-07-21 2001-07-10 Erkennung menschlicher gesichtsmerkmale für kraftfahrzeugrückhaltesysteme

Country Status (5)

Country Link
US (1) US6724920B1 (de)
EP (1) EP1355807B1 (de)
JP (2) JP4025643B2 (de)
DE (1) DE60114238T2 (de)
WO (1) WO2002008023A2 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016123231B4 (de) 2016-05-16 2021-10-21 Hyundai Motor Company Vorrichtung und Verfahren zum Steuern eines Airbags
DE102020129547A1 (de) 2020-11-10 2022-05-12 Bayerische Motoren Werke Aktiengesellschaft Kamerasystem für ein Fahrzeug, insbesondere Kraftfahrzeug, und Fahrzeug, insbesondere Kraftfahrzeug
DE112018006579B4 (de) 2018-01-25 2023-05-04 Mitsubishi Electric Corporation Insassendetektionsvorrichtung und Insassendetektionsverfahren

Families Citing this family (148)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9290146B2 (en) * 1992-05-05 2016-03-22 Intelligent Technologies International, Inc. Optical monitoring of vehicle interiors
US8152198B2 (en) * 1992-05-05 2012-04-10 Automotive Technologies International, Inc. Vehicular occupant sensing techniques
US8054203B2 (en) * 1995-06-07 2011-11-08 Automotive Technologies International, Inc. Apparatus and method for determining presence of objects in a vehicle
US20090046538A1 (en) * 1995-06-07 2009-02-19 Automotive Technologies International, Inc. Apparatus and method for Determining Presence of Objects in a Vehicle
US7570785B2 (en) * 1995-06-07 2009-08-04 Automotive Technologies International, Inc. Face monitoring system and method for vehicular occupants
GB0024274D0 (en) * 2000-10-04 2000-11-15 Harris John W Vehicle security and occupant safety system
IT1321041B1 (it) * 2000-11-03 2003-12-30 St Microelectronics Srl Sensore ottico intelligente per sistemi air-bag.
US8751957B1 (en) * 2000-11-22 2014-06-10 Pace Micro Technology Plc Method and apparatus for obtaining auditory and gestural feedback in a recommendation system
JP4350921B2 (ja) * 2001-06-12 2009-10-28 本田技研工業株式会社 乗員保護装置
US6873714B2 (en) * 2002-02-19 2005-03-29 Delphi Technologies, Inc. Auto calibration and personalization of eye tracking system using larger field of view imager with higher resolution
US20040132101A1 (en) 2002-09-27 2004-07-08 Xencor Optimized Fc variants and methods for their generation
US6914526B2 (en) * 2002-03-22 2005-07-05 Trw Inc. Intrusion detection system using linear imaging
JP2004058799A (ja) * 2002-07-26 2004-02-26 Murakami Corp 車載用乗員撮影装置
DK2345671T3 (en) 2002-09-27 2016-02-15 Xencor Inc Optimized Fc variants and methods for their formation
JP4016796B2 (ja) * 2002-10-22 2007-12-05 オムロン株式会社 車載用撮像装置及びそれを用いた車両運転支援装置
US20040140885A1 (en) * 2003-01-17 2004-07-22 Slicker James M. Vehicle security system
DE10306159A1 (de) * 2003-02-14 2004-08-26 Daimlerchrysler Ag Verfahren zur Voreinstellung eines Insassenschutzsystems eines Fahrzeugs
JP2004330891A (ja) * 2003-05-08 2004-11-25 Fujitsu Ten Ltd 利便性向上装置
US7256686B2 (en) * 2003-05-27 2007-08-14 Sears Manufacturing Co. Vehicle seat with vibration monitoring ability
US7379559B2 (en) * 2003-05-28 2008-05-27 Trw Automotive U.S. Llc Method and apparatus for determining an occupant's head location in an actuatable occupant restraining system
EP1654133B1 (de) * 2003-08-04 2009-10-07 Robert Bosch Gmbh Blendschutzsystem für ein fahrzeug
DE102004007521A1 (de) * 2003-08-04 2005-02-24 Robert Bosch Gmbh Blendschutzsystem für ein Fahrzeug
US20060261931A1 (en) * 2003-08-15 2006-11-23 Ziyi Cheng Automobile security defence alarm system with face identification and wireless communication function
US20060030985A1 (en) * 2003-10-24 2006-02-09 Active Recognition Technologies Inc., Vehicle recognition using multiple metrics
CA2548817A1 (en) 2003-12-04 2005-06-23 Xencor, Inc. Methods of generating variant proteins with increased host string content and compositions thereof
JP4370915B2 (ja) * 2004-01-14 2009-11-25 オムロン株式会社 車載アプリケーション選択システム及び車載アプリケーション選択装置
EP1737890A2 (de) 2004-03-24 2007-01-03 Xencor, Inc. Immunoglobulinvarianten ausserhalb der fc-region
US6967581B2 (en) * 2004-04-07 2005-11-22 Harry Karsten Breath alcohol detection system with identity verification
US20060012679A1 (en) * 2004-07-14 2006-01-19 Ressler Galen E Multifunction vehicle interior imaging system
US20060011399A1 (en) * 2004-07-15 2006-01-19 International Business Machines Corporation System and method for controlling vehicle operation based on a user's facial expressions and physical state
EP1919950A1 (de) 2004-07-15 2008-05-14 Xencor, Inc. Optimierte fc-varianten
DE102004044771B4 (de) 2004-09-16 2006-08-24 Bayerische Motoren Werke Ag Verfahren zur bildbasierten Fahreridentifikation in einem Kraftfahrzeug
KR101027427B1 (ko) 2004-11-12 2011-04-11 젠코어 인코포레이티드 FcRn에 대하여 증가된 결합력을 갖는 Fc 변이체
US7210356B2 (en) 2005-02-18 2007-05-01 Caterpillar Inc Physical agents directive dosimeter system
DE102005021171A1 (de) * 2005-05-06 2006-11-16 Daimlerchrysler Ag Verfahren zur Einstellung eines Insassenschutz- und/oder Komfortsystems sowie Insassenschutz- und/oder Komfortsystem
DE102005022678A1 (de) * 2005-05-17 2006-11-23 Robert Bosch Gmbh Sicherheitssystem für ein Fahrzeug
US9818120B2 (en) 2015-02-20 2017-11-14 Innovative Global Systems, Llc Automated at-the-pump system and method for managing vehicle fuel purchases
DE102005047137A1 (de) * 2005-09-30 2007-04-05 Daimlerchrysler Ag Insassenschutzsystem für ein Fahrzeug
US20070120970A1 (en) * 2005-11-15 2007-05-31 Goffin Glen P Video telephony device having automatic user detection and recognition capabilities to provide user-specific information
US20070158116A1 (en) * 2006-01-12 2007-07-12 Trw Automotive U.S. Llc Adjustable steering column assembly
DE102006019112A1 (de) * 2006-04-25 2007-10-31 Siemens Ag Fahrzeug
JP2007316036A (ja) * 2006-05-29 2007-12-06 Honda Motor Co Ltd 車両の乗員検知装置
BRPI0712837B8 (pt) * 2006-06-11 2021-06-22 Volvo Tech Corporation método para determinação e análise de uma localização de interesse visual
US20080148030A1 (en) * 2006-12-14 2008-06-19 General Instrument Corporation Method and System for Configuring Electronic Communication Device
JP2008269496A (ja) * 2007-04-24 2008-11-06 Takata Corp 乗員情報検出システム、乗員拘束システム、車両
JP2009029347A (ja) * 2007-07-30 2009-02-12 Honda Motor Co Ltd 車両の乗員検知装置
US7719431B2 (en) * 2007-10-05 2010-05-18 Gm Global Technology Operations, Inc. Systems, methods and computer products for drowsy driver detection and response
GB2454916A (en) * 2007-11-23 2009-05-27 Dimuth Jayawarna Fatigue monitoring using facial images
US9517679B2 (en) * 2009-03-02 2016-12-13 Flir Systems, Inc. Systems and methods for monitoring vehicle occupants
US9998697B2 (en) 2009-03-02 2018-06-12 Flir Systems, Inc. Systems and methods for monitoring vehicle occupants
US8040247B2 (en) * 2009-03-23 2011-10-18 Toyota Motor Engineering & Manufacturing North America, Inc. System for rapid detection of drowsiness in a machine operator
US8369608B2 (en) * 2009-06-22 2013-02-05 Toyota Motor Engineering & Manufacturing North America, Inc. System and method for detecting drowsy facial expressions of vehicle drivers under changing illumination conditions
WO2011021114A1 (en) 2009-08-20 2011-02-24 Nds Limited Electronic book security features
US9556272B2 (en) 2009-11-11 2017-01-31 The Trustees Of The University Of Pennsylvania Anti-TEM1 antibodies and uses thereof
CN102069710B (zh) * 2009-11-24 2014-03-26 鸿富锦精密工业(深圳)有限公司 驾驶监控装置及方法
US8384534B2 (en) * 2010-01-14 2013-02-26 Toyota Motor Engineering & Manufacturing North America, Inc. Combining driver and environment sensing for vehicular safety systems
US8836491B2 (en) * 2010-04-29 2014-09-16 Ford Global Technologies, Llc Occupant detection
US11292477B2 (en) 2010-06-07 2022-04-05 Affectiva, Inc. Vehicle manipulation using cognitive state engineering
US11067405B2 (en) 2010-06-07 2021-07-20 Affectiva, Inc. Cognitive state vehicle navigation based on image processing
US11465640B2 (en) 2010-06-07 2022-10-11 Affectiva, Inc. Directed control transfer for autonomous vehicles
US10796176B2 (en) 2010-06-07 2020-10-06 Affectiva, Inc. Personal emotional profile generation for vehicle manipulation
US10911829B2 (en) 2010-06-07 2021-02-02 Affectiva, Inc. Vehicle video recommendation via affect
US10897650B2 (en) 2010-06-07 2021-01-19 Affectiva, Inc. Vehicle content recommendation using cognitive states
US10627817B2 (en) 2010-06-07 2020-04-21 Affectiva, Inc. Vehicle manipulation using occupant image analysis
US11017250B2 (en) 2010-06-07 2021-05-25 Affectiva, Inc. Vehicle manipulation using convolutional image processing
US11410438B2 (en) 2010-06-07 2022-08-09 Affectiva, Inc. Image analysis using a semiconductor processor for facial evaluation in vehicles
US11935281B2 (en) 2010-06-07 2024-03-19 Affectiva, Inc. Vehicular in-cabin facial tracking using machine learning
US11823055B2 (en) 2019-03-31 2023-11-21 Affectiva, Inc. Vehicular in-cabin sensing using machine learning
US10922567B2 (en) * 2010-06-07 2021-02-16 Affectiva, Inc. Cognitive state based vehicle manipulation using near-infrared image processing
US11704574B2 (en) 2010-06-07 2023-07-18 Affectiva, Inc. Multimodal machine learning for vehicle manipulation
US11587357B2 (en) 2010-06-07 2023-02-21 Affectiva, Inc. Vehicular cognitive data collection with multiple devices
US10779761B2 (en) 2010-06-07 2020-09-22 Affectiva, Inc. Sporadic collection of affect data within a vehicle
US11318949B2 (en) 2010-06-07 2022-05-03 Affectiva, Inc. In-vehicle drowsiness analysis using blink rate
US11511757B2 (en) 2010-06-07 2022-11-29 Affectiva, Inc. Vehicle manipulation with crowdsourcing
US10482333B1 (en) 2017-01-04 2019-11-19 Affectiva, Inc. Mental state analysis using blink rate within vehicles
US11151610B2 (en) * 2010-06-07 2021-10-19 Affectiva, Inc. Autonomous vehicle control using heart rate collection based on video imagery
TWI496093B (zh) * 2010-11-16 2015-08-11 Fih Hong Kong Ltd 人臉識別鬧鐘及其鬧醒用戶的方法
PT3255613T (pt) * 2010-12-15 2022-12-02 Auto Telematics Ltd Método e sistema para registar o comportamento de veículos
TWI422504B (zh) * 2010-12-31 2014-01-11 Altek Corp 車用設備控制系統及其方法
JP5636102B2 (ja) * 2011-06-17 2014-12-03 本田技研工業株式会社 乗員検知装置
WO2013074897A1 (en) * 2011-11-16 2013-05-23 Flextronics Ap, Llc Configurable vehicle console
US9008906B2 (en) 2011-11-16 2015-04-14 Flextronics Ap, Llc Occupant sharing of displayed content in vehicles
US9116786B2 (en) 2011-11-16 2015-08-25 Flextronics Ap, Llc On board vehicle networking module
US9081653B2 (en) 2011-11-16 2015-07-14 Flextronics Ap, Llc Duplicated processing in vehicles
US9173100B2 (en) 2011-11-16 2015-10-27 Autoconnect Holdings Llc On board vehicle network security
US9055022B2 (en) 2011-11-16 2015-06-09 Flextronics Ap, Llc On board vehicle networking module
US9043073B2 (en) 2011-11-16 2015-05-26 Flextronics Ap, Llc On board vehicle diagnostic module
US9088572B2 (en) 2011-11-16 2015-07-21 Flextronics Ap, Llc On board vehicle media controller
US8949823B2 (en) 2011-11-16 2015-02-03 Flextronics Ap, Llc On board vehicle installation supervisor
GB2497603B (en) * 2012-03-23 2014-08-20 Jaguar Land Rover Ltd Windscreen clearing system for a vehicle
WO2013162748A1 (en) 2012-04-27 2013-10-31 The Trustees Of The University Of Pennsylvania Anti-tumor endothelial marker-1 (tem1) antibody variants and uses thereof
DE102012009703A1 (de) * 2012-05-16 2013-11-21 Volkswagen Ag Verfahren und Vorrichtung zur Personenerkennung im Umfeld eines Kraftfahrzeugs
US9751534B2 (en) 2013-03-15 2017-09-05 Honda Motor Co., Ltd. System and method for responding to driver state
KR101500085B1 (ko) * 2013-06-13 2015-03-18 현대자동차주식회사 벡터를 이용한 시선 추적 장치 및 방법
US9103688B2 (en) * 2013-08-21 2015-08-11 Continental Automotive Systems, Inc. Adapting vehicle personality using analyzed driver performance metrics
US20150066346A1 (en) * 2013-08-28 2015-03-05 Elwha LLC, a limited liability company of the State of Delaware Vehicle collision management system responsive to a situation of an occupant of an approaching vehicle
JP6314435B2 (ja) * 2013-11-13 2018-04-25 株式会社デンソー ドライバ監視装置
US9767373B2 (en) * 2014-09-05 2017-09-19 Ford Global Technologies, Llc Head-mounted display head pose and activity estimation
US20160297362A1 (en) * 2015-04-09 2016-10-13 Ford Global Technologies, Llc Vehicle exterior side-camera systems and methods
US10144374B2 (en) * 2015-10-19 2018-12-04 Toyota Motor Engineering & Manufacturing North America, Inc. Automatic settings for vehicle components based on measured anthropometric features
DE102015221520A1 (de) * 2015-11-03 2017-05-04 Robert Bosch Gmbh Verfahren und Vorrichtung zum Bereitstellen einer Insasseninformation für eine Sicherheitseinrichtung für ein Fahrzeug
US10692126B2 (en) 2015-11-17 2020-06-23 Nio Usa, Inc. Network-based system for selling and servicing cars
US10705530B2 (en) * 2016-01-29 2020-07-07 Nissan Motor Co., Ltd. Vehicle travel control method and vehicle travel control device
US10065651B2 (en) 2016-05-10 2018-09-04 Samsung Electronics Co., Ltd Electronic device and method for determining a state of a driver
US20210291817A1 (en) 2016-06-23 2021-09-23 State Farm Mutual Automobile Insurance Company Systems and methods for environmental analysis based upon vehicle sensor data
US20180012196A1 (en) 2016-07-07 2018-01-11 NextEv USA, Inc. Vehicle maintenance manager
US10089543B2 (en) 2016-07-29 2018-10-02 Honda Motor Co., Ltd. System and method for detecting distraction and a downward vertical head pose in a vehicle
US9928734B2 (en) 2016-08-02 2018-03-27 Nio Usa, Inc. Vehicle-to-pedestrian communication systems
WO2018035531A1 (en) * 2016-08-19 2018-02-22 Massachusetts Intitute Of Technology Systems and methods for providing visual allocation management
US10031523B2 (en) 2016-11-07 2018-07-24 Nio Usa, Inc. Method and system for behavioral sharing in autonomous vehicles
US10708547B2 (en) 2016-11-11 2020-07-07 Nio Usa, Inc. Using vehicle sensor data to monitor environmental and geologic conditions
US10694357B2 (en) 2016-11-11 2020-06-23 Nio Usa, Inc. Using vehicle sensor data to monitor pedestrian health
US10410064B2 (en) 2016-11-11 2019-09-10 Nio Usa, Inc. System for tracking and identifying vehicles and pedestrians
US10699305B2 (en) 2016-11-21 2020-06-30 Nio Usa, Inc. Smart refill assistant for electric vehicles
US10249104B2 (en) 2016-12-06 2019-04-02 Nio Usa, Inc. Lease observation and event recording
US10074223B2 (en) 2017-01-13 2018-09-11 Nio Usa, Inc. Secured vehicle for user use only
US10031521B1 (en) 2017-01-16 2018-07-24 Nio Usa, Inc. Method and system for using weather information in operation of autonomous vehicles
US10471829B2 (en) 2017-01-16 2019-11-12 Nio Usa, Inc. Self-destruct zone and autonomous vehicle navigation
US9984572B1 (en) 2017-01-16 2018-05-29 Nio Usa, Inc. Method and system for sharing parking space availability among autonomous vehicles
US10464530B2 (en) 2017-01-17 2019-11-05 Nio Usa, Inc. Voice biometric pre-purchase enrollment for autonomous vehicles
US10286915B2 (en) 2017-01-17 2019-05-14 Nio Usa, Inc. Machine learning for personalized driving
US10897469B2 (en) 2017-02-02 2021-01-19 Nio Usa, Inc. System and method for firewalls between vehicle networks
US10922566B2 (en) 2017-05-09 2021-02-16 Affectiva, Inc. Cognitive state evaluation for vehicle navigation
US10403016B2 (en) 2017-06-02 2019-09-03 Apple Inc. Face syncing in distributed computing environment
US10234302B2 (en) 2017-06-27 2019-03-19 Nio Usa, Inc. Adaptive route and motion planning based on learned external and internal vehicle environment
US20190012552A1 (en) * 2017-07-06 2019-01-10 Yves Lambert Hidden driver monitoring
US10710633B2 (en) 2017-07-14 2020-07-14 Nio Usa, Inc. Control of complex parking maneuvers and autonomous fuel replenishment of driverless vehicles
US10369974B2 (en) 2017-07-14 2019-08-06 Nio Usa, Inc. Control and coordination of driverless fuel replenishment for autonomous vehicles
US10837790B2 (en) 2017-08-01 2020-11-17 Nio Usa, Inc. Productive and accident-free driving modes for a vehicle
DE102017214296B3 (de) * 2017-08-16 2018-07-26 Audi Ag Verfahren zum Betreiben eines Insassenschutzsystems eines Fahrzeugs und Insassenschutzsystem für ein Fahrzeug
US10635109B2 (en) 2017-10-17 2020-04-28 Nio Usa, Inc. Vehicle path-planner monitor and controller
US10935978B2 (en) 2017-10-30 2021-03-02 Nio Usa, Inc. Vehicle self-localization using particle filters and visual odometry
US10606274B2 (en) 2017-10-30 2020-03-31 Nio Usa, Inc. Visual place recognition based self-localization for autonomous vehicles
US10717412B2 (en) 2017-11-13 2020-07-21 Nio Usa, Inc. System and method for controlling a vehicle using secondary access methods
US10369966B1 (en) 2018-05-23 2019-08-06 Nio Usa, Inc. Controlling access to a vehicle using wireless access devices
US11490843B2 (en) 2018-11-16 2022-11-08 Toyota Motor North America, Inc. Vehicle occupant health monitor system and method
US10729378B2 (en) 2018-11-30 2020-08-04 Toyota Motor North America, Inc. Systems and methods of detecting problematic health situations
CN109830077A (zh) * 2019-01-15 2019-05-31 苏州佳世达光电有限公司 监控装置及监控方法
FR3092050A1 (fr) * 2019-01-29 2020-07-31 Transdev Group Dispositif électronique de génération d’un signal à l’intérieur d’un véhicule, véhicule, procédé de génération et programme d’ordinateur associés
US11887383B2 (en) 2019-03-31 2024-01-30 Affectiva, Inc. Vehicle interior object management
CN110750589B (zh) * 2019-09-04 2022-08-16 武汉烽火众智数字技术有限责任公司 一种数据分析方法、装置及计算机存储介质
US11351987B2 (en) * 2019-09-13 2022-06-07 Intel Corporation Proactive vehicle safety system
US11193312B1 (en) * 2019-09-30 2021-12-07 Ambarella International Lp Child safety lock
KR20210053387A (ko) * 2019-11-01 2021-05-12 현대자동차주식회사 후석 탑승자 보호 장치 및 그의 제어 방법
US11568655B2 (en) * 2020-03-26 2023-01-31 Intel Corporation Methods and devices for triggering vehicular actions based on passenger actions
CN113635833A (zh) * 2020-04-26 2021-11-12 晋城三赢精密电子有限公司 基于汽车a柱的车载显示装置、方法、***及存储介质
CN112100305B (zh) * 2020-09-15 2021-07-30 重庆中科云从科技有限公司 一种基于多源数据的轨迹确定方法、装置、设备及介质
CN114987389A (zh) * 2022-07-18 2022-09-02 中国第一汽车股份有限公司 一种车辆控制***、方法、装置、设备及介质

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4509040A (en) * 1981-12-01 1985-04-02 Nissan Motor Company, Limited Alarm system for preventing an automotive vehicle driver from dozing at the wheel
US6324453B1 (en) 1998-12-31 2001-11-27 Automotive Technologies International, Inc. Methods for determining the identification and position of and monitoring objects in a vehicle
US5845000A (en) 1992-05-05 1998-12-01 Automotive Technologies International, Inc. Optical identification and monitoring system using pattern recognition for use with vehicles
US5829782A (en) 1993-03-31 1998-11-03 Automotive Technologies International, Inc. Vehicle interior identification and monitoring system
US4648052A (en) 1983-11-14 1987-03-03 Sentient Systems Technology, Inc. Eye-tracker communication system
JPS60152904A (ja) 1984-01-20 1985-08-12 Nippon Denso Co Ltd 車両運転者位置認識装置
US4720189A (en) 1986-01-07 1988-01-19 Northern Telecom Limited Eye-position sensor
JPH01158579A (ja) 1987-09-09 1989-06-21 Aisin Seiki Co Ltd 像認識装置
US5164992A (en) 1990-11-01 1992-11-17 Massachusetts Institute Of Technology Face recognition system
US5835613A (en) 1992-05-05 1998-11-10 Automotive Technologies International, Inc. Optical identification and monitoring system using pattern recognition for use with vehicles
DE4400664C2 (de) 1994-01-12 1995-11-16 Spies Martin Dipl Ing Fh Vorrichtung zur Erkennung der Sitzbelegung in Fahrzeugen etc.
DE4416507C5 (de) 1994-05-10 2006-10-19 Volkswagen Ag Verfahren zur Erkennung einer Benutzungsberechtigung für ein Fahrzeug
US5850193A (en) * 1995-03-30 1998-12-15 Sumitomo Electric Industries, Ltd. Apparatus for assisting driver in carefully driving
US5729619A (en) * 1995-08-08 1998-03-17 Northrop Grumman Corporation Operator identity, intoxication and drowsiness monitoring system and method
US6144366A (en) 1996-10-18 2000-11-07 Kabushiki Kaisha Toshiba Method and apparatus for generating information input using reflected light image of target object
DE19645175A1 (de) 1996-11-02 1998-05-07 Telefunken Microelectron Verfahren zum Steuern einer optischen Überwachungseinrichtung
US6079738A (en) 1997-08-22 2000-06-27 Breed Automotive Technology, Inc. Occupant presence and position sensing system
US6100811A (en) 1997-12-22 2000-08-08 Trw Inc. Fingerprint actuation of customized vehicle features
DE19757595C2 (de) 1997-12-23 2000-05-11 Siemens Ag Verfahren und Vorrichtung zur Aufnahme eines dreidimensionalen Abstandsbildes
US6225890B1 (en) * 1998-03-20 2001-05-01 Trimble Navigation Limited Vehicle use control
US6154559A (en) * 1998-10-01 2000-11-28 Mitsubishi Electric Information Technology Center America, Inc. (Ita) System for classifying an individual's gaze direction
US6060989A (en) 1998-10-19 2000-05-09 Lucent Technologies Inc. System and method for preventing automobile accidents

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016123231B4 (de) 2016-05-16 2021-10-21 Hyundai Motor Company Vorrichtung und Verfahren zum Steuern eines Airbags
DE112018006579B4 (de) 2018-01-25 2023-05-04 Mitsubishi Electric Corporation Insassendetektionsvorrichtung und Insassendetektionsverfahren
DE102020129547A1 (de) 2020-11-10 2022-05-12 Bayerische Motoren Werke Aktiengesellschaft Kamerasystem für ein Fahrzeug, insbesondere Kraftfahrzeug, und Fahrzeug, insbesondere Kraftfahrzeug

Also Published As

Publication number Publication date
WO2002008023A3 (en) 2003-09-04
US6724920B1 (en) 2004-04-20
JP4025643B2 (ja) 2007-12-26
JP2007033439A (ja) 2007-02-08
JP2004504219A (ja) 2004-02-12
EP1355807B1 (de) 2005-10-19
EP1355807A2 (de) 2003-10-29
DE60114238D1 (de) 2006-03-02
WO2002008023A2 (en) 2002-01-31

Similar Documents

Publication Publication Date Title
DE60114238T2 (de) Erkennung menschlicher gesichtsmerkmale für kraftfahrzeugrückhaltesysteme
US7110570B1 (en) Application of human facial features recognition to automobile security and convenience
DE60106134T2 (de) Gesichtsaufnahmesensor zur Personenerkennung, -identifizierung und -beobachtung für Airbagsteuerung
DE102005031637B4 (de) Beleuchtungsvorrichtung für den Fahrgastraum eines Fahrzeugs
US6553296B2 (en) Vehicular occupant detection arrangements
DE69935804T2 (de) Sitzbelegungserkennung
EP1497160B1 (de) Sicherheitsvorrichtung für ein fahrzeug
DE19734307C2 (de) Verfahren und Vorrichtung zur Überwachung und/oder Beeinflussung des Fahrzeugverhaltens eines fahrergesteuerten Kraftfahrzeugs
US6772057B2 (en) Vehicular monitoring systems using image processing
DE102018220286A1 (de) Ablenkungserfassungssystem
DE102007055404A1 (de) Sicherheitssystem für ein Kraftfahrzeug
US20110285982A1 (en) Method and arrangement for obtaining information about objects around a vehicle
US20020116106A1 (en) Vehicular monitoring systems using image processing
DE19932520A1 (de) Vorrichtung zur Steuerung eines Sicherheitssystems
DE112014000934T5 (de) Bildgebungsgestütztes Insassenüberwachungssystem mit breit gefächerter Funktionsunterstützung
EP1185442B1 (de) Vorrichtung und verfahren zur sitzüberwachung mittels einer optoelektronischen triangulationstechnik
EP2810267A1 (de) SIGNALGEBER, SYSTEM UND VERFAHREN ZUR HERVORHEBUNG VON OBJEKTEN IM STRAßENVERKEHR SOWIE VERWENDUNG DES SYSTEMS UND VERWENDUNG DES SIGNALGEBERS
JP2003532959A (ja) 車両の死角識別及びモニタリング・システム
DE102019109505A1 (de) Datenverarbeitungsvorrichtung, überwachungssystem, wecksystem, datenverarbeitungsverfahren und datenverarbeitungsprogramm
DE112020000682T5 (de) Lichtquellenvorrichtung und elektronische vorrichtung
EP1049046A1 (de) Verfahren und Vorrichtung zur Ermittlung der Position eines Objektes innerhalb einer Szene
DE102018217869A1 (de) Innenraumerfassungssystem
DE102020210055A1 (de) Verfahren und Vorrichtung zur Innenraumüberwachung eines Fahrzeugs
Boverie A new class of intelligent sensors for the inner space monitoring of the vehicle of the future
DE112020000677T5 (de) Lichtquellenvorrichtung und elektronische vorrichtung

Legal Events

Date Code Title Description
8364 No opposition during term of opposition