DE102018131805A1 - Vorrichtung zum erfassen einer gesichtsposition - Google Patents

Vorrichtung zum erfassen einer gesichtsposition Download PDF

Info

Publication number
DE102018131805A1
DE102018131805A1 DE102018131805.7A DE102018131805A DE102018131805A1 DE 102018131805 A1 DE102018131805 A1 DE 102018131805A1 DE 102018131805 A DE102018131805 A DE 102018131805A DE 102018131805 A1 DE102018131805 A1 DE 102018131805A1
Authority
DE
Germany
Prior art keywords
face
detecting
facial
distance
driver
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102018131805.7A
Other languages
English (en)
Inventor
Yoshio Matsuura
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Publication of DE102018131805A1 publication Critical patent/DE102018131805A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q9/00Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0381Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30268Vehicle interior

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Ophthalmology & Optometry (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Position Input By Displaying (AREA)
  • Traffic Control Systems (AREA)

Abstract

Eine Vorrichtung zum Erfassen einer Gesichtsposition enthält: einen Bildanalysator, der dazu eingerichtet ist, ein Bild eines durch eine Abbildungseinheit abgebildeten Gesichts zu analysieren und eine Positionsbeziehung zwischen mindestens zwei charakteristischen Punkten in dem Gesicht zu entnehmen; und eine Gesichtspositionsberechnungsvorrichtung, die zum Berechnen einer Position des Gesichts eingerichtet ist. Die Gesichtspositionsberechnungsvorrichtung berechnet bei Bedienung eines Bedienbildschirms eine Position des Gesichts in einem Raum gemäß Positionsbeziehungen zwischen dem abgebildeten Gesicht, der Abbildungseinheit und einer Bedieneinheit, und, außer bei der Bedienung, gemäß der Positionsbeziehung zwischen den mindestens zwei charakteristischen Punkten, die der Bildanalysator aus dem abgebildeten Gesicht entnimmt, und Positionsbeziehungen zwischen mehreren Positionen des Gesichts und mehreren der mindestens zwei charakteristischen Punkte, die den mehreren Gesichtspositionen entsprechen, welche bei jeweiligen Bedienungen erhalten wurden.

Description

  • QUERVERWEIS AUF ZUGEHÖRIGE ANMELDUNG
  • Diese Anmeldung basiert auf der japanischen Patentanmeldung mit der Nr. 2017-236658, die am 11. Dezember 2017 beim japanischen Patentamt eingereicht wurde, wobei deren gesamter Inhalt hierin durch Bezugnahme aufgenommen ist.
  • GEBIET DER ERFINDUNG
  • Die vorliegende Erfindung betrifft eine Vorrichtung zum Erfassen der Gesichtsposition eines Fahrzeugführers oder dergleichen.
  • STAND DER TECHNIK
  • In einem Fahrzeug besteht der Bedarf nach einer Anwendung, die dazu eingerichtet ist, zu bestimmen, wohin ein Fahrer schaut, und entsprechend eine vorbestimmte Steuerung durchzuführen. Beispielsweise wird in einem Fall, in dem der Fahrer einen Rückspiegel betrachtet, eine Nachricht oder ein Bild auf dem Rückspiegel angezeigt, oder es wird in einem Fall, in dem der Fahrer ein Anzeigeinstrument nicht beobachtet, wenn der Fahrer das Anzeigeinstrument prüfen soll, eine Warnung an den Fahrer ausgegeben. Beim Bestimmen eines solchen visuell erkannten Abschnitts ist es notwendig, die Blickrichtung des Fahrers und die Gesichtsposition in dem Raum (zum Beispiel die Entfernung von einer Referenzposition) zu erfassen.
  • Ein Beispiel eines Detektors des Gesichts des Fahrers ist ein Fahrerüberwachungsgerät mit einer Kamera. Das Fahrerüberwachungsgerät ist eine Vorrichtung, die den Zustand eines Fahrers gemäß dem von der Kamera aufgenommenen Gesichtsbild des Fahrers überwacht und eine vorbestimmte Steuerung durchführt, beispielsweise einen Alarm ausgibt, wenn der Fahrer während des Fahrens einnickt oder zur Seite schaut. Aus dem Gesichtsbild, das durch das Fahrerüberwachungsgerät erhalten wird, können Informationen über die Blickrichtung erhalten werden; Informationen über die Gesichtsposition in dem Raum können jedoch nicht erhalten werden. Daher ist es unmöglich, nur anhand des Gesichtsbilds, das durch das Fahrerüberwachungsgerät erhalten wird, zu bestimmen, wohin der Fahrer schaut.
  • Die JP 2007-230369 A offenbart, dass die Gesichtsrichtung bzw. -ausrichtung (Winkel) und die Blickrichtung eines Fahrers aus dem Gesichtsbild bzw. anhand des Gesichtsbilds des Fahrers erfasst werden und dass dementsprechend eine vorbestimmte Steuerung (Lautstärkeregelung der Lautsprecher oder dergleichen) einer fahrzeuginternen Vorrichtung ausgeführt wird. Da es jedoch nicht möglich ist, die Gesichtsposition in dem Raum mit diesem Verfahren zu erfassen, ist es unmöglich zu bestimmen, wohin der Fahrer schaut. Darüber hinaus offenbaren jede der JP 2012 - 208714 A und der JP 2014-49023 A , dass eine auf einem Touch Panel erfasste gedrückte Stelle gemäß der relativen Positionsbeziehung zwischen dem Gesicht eines Benutzers und dem Touch Panel korrigiert wird. Es ist jedoch auch nach diesen Literaturen nicht möglich, die Gesichtsposition in dem Raum zu erfassen.
  • Als Verfahren zum Erfassen der Gesichtsposition in dem Raum ist es denkbar, mehrere Kameras vorzusehen oder einen dezidierten Sensor vorzusehen. Bei diesen Verfahren nimmt jedoch die Anzahl der Komponenten zu, die Konfiguration wird kompliziert und die Kosten sind hoch.
  • KURZDARSTELLUNG
  • Eine Aufgabe der vorliegenden Erfindung besteht darin, eine Vorrichtung zum Erfassen einer Gesichtsposition zu realisieren, die eine Gesichtsposition in einem Raum ohne komplizierte Konfiguration erfassen kann.
  • Eine Vorrichtung zum Erfassen einer Gesichtsposition gemäß der vorliegenden Erfindung enthält bzw. umfasst: eine Bilderfassungs- bzw. Abbildungseinheit, die dazu eingerichtet ist, ein Gesicht eines Benutzers abzubilden, eine Bedieneinheit, die dazu eingerichtet ist, eine vorbestimmte Eingabe von dem Benutzer, der einen Bedienbildschirm bedient bzw. betätigt, zu empfangen; einen Bildanalysator, der dazu eingerichtet ist, ein Bild des durch die Abbildungseinheit abgebildeten Gesichts zu analysieren und eine Positionsbeziehung zwischen mindestens zwei charakteristischen Punkten in dem Gesicht bzw. des Gesichts in dem bzw. aus dem Bild zu entnehmen; und eine Gesichtspositionsberechnungsvorrichtung, die dazu eingerichtet ist, eine Position des von der Bilderfassungseinheit bzw. Abbildungseinheit abgebildeten Gesichts zu berechnen. Bei einer Betätigung bzw. Bedienung des Bedienbildschirms berechnet die Gesichtspositionsberechnungsvorrichtung eine Position des Gesichts in einem Raum gemäß Positionsbeziehungen zwischen dem abgebildeten Gesicht, der Abbildungseinheit und der Bedieneinheit. Außer bei der Betätigung bzw. Bedienung berechnet die Gesichtspositionsberechnungsvorrichtung eine Position des Gesichts in dem Raum gemäß der Positionsbeziehung zwischen den mindestens zwei charakteristischen Punkten, die der Bildanalysator aus dem abgebildeten Gesicht entnimmt, und Positionsbeziehungen zwischen mehreren Positionen des Gesichts und mehreren charakteristischen Punkten, die jeweils den mehreren Positionen des Gesichts entsprechen, welche bei jeweiligen Betätigungen bzw. Bedienungen erhalten wurden.
  • Gemäß einer solchen Vorrichtung zum Erfassen einer Gesichtsposition wird bei Betätigung bzw. Bedienung der Bedieneinheit die Positionsbeziehung zwischen charakteristischen Punkten (zum Beispiel dem Abstand zwischen den Augen) aus einem Gesichtsbild entnommen, und eine Gesichtsposition in dem Raum wird gemäß den Positionsbeziehungen zwischen dem abgebildeten Gesicht, der Abbildungseinheit und der Bedieneinheit berechnet. Wenn die Bedieneinheit nicht betätigt bzw. bedient wird, wird eine Gesichtsposition in dem Raum gemäß der Positionsbeziehung zwischen den aus einem Gesichtsbild entnommenen charakteristischen Punkten und Positionsbeziehungen zwischen mehreren Gesichtspositionen und charakteristischen Punkten, die bei jeweiligen Betätigungen bzw. Bedienungen erhalten werden, berechnet. Daher ist es möglich, die Gesichtsposition in dem Raum mit einer einfachen Konfiguration zu erfassen, ohne mehrere Abbildungseinheiten vorzusehen oder einen dezidierten Sensor vorzusehen.
  • Bei der vorliegenden Erfindung kann die Gesichtspositionsberechnungsvorrichtung bei Betätigung bzw. Bedienung des Bedienbildschirms geometrisch eine Position des Gesichts in dem Raum gemäß einem Winkel des Gesichts in Bezug auf die Abbildungseinheit, einem Winkel der Blickrichtung bzw. eines Blickrichtungswinkels des Benutzers, der den Bedienbildschirm betrachtet, und einer Entfernung von der Abbildungseinheit zu einem Bedienpunkt auf dem Bedienbildschirm berechnen.
  • Die vorliegende Erfindung kann eine Einheit zum Erzeugen eines annähernden Ausdrucks bzw. Näherungsausdrucks enthalten, welche dazu eingerichtet ist, einen annähernden Ausdruck bzw. Näherungsausdruck zur Berechnung einer Position des Gesichts aus der Positionsbeziehung der mindestens zwei charakteristischen Punkte zu erzeugen. Die Einheit zum Erzeugen eines Näherungsausdrucks sammelt statistische Daten, die durch Zuordnung der Positionsbeziehung der mindestens zwei charakteristischen Punkte, welche durch den Bildanalysator bei jeder Betätigung bzw. Bedienung des Bedienbildschirms entnommen werden, zu einer Position des Gesichts, welche durch die Gesichtspositionsberechnungsvorrichtung bei jeder Betätigung bzw. Bedienung des Bedienbildschirms berechnet wird, erhalten werden, und erzeugt den Näherungsausdruck gemäß den statistischen Daten.
  • In der vorliegenden Erfindung kann die Einheit zum Erzeugen eines Näherungsausdrucks den Näherungsausdruck jedes Mal aktualisieren, wenn der Bedienbildschirm bedient wird.
  • Die vorliegende Erfindung kann ferner eine Bestimmungseinheit für einen visuell erkannten bzw. betrachteten Abschnitt bzw. eine Einheit zur Bestimmung eines visuell erkannten bzw. betrachteten Abschnitts umfassen, die dazu eingerichtet ist, einen Abschnitt, den der Benutzer visuell erkennt bzw. betrachtet, zu bestimmen, entsprechend bzw. gemäß einer Position des Gesichts in dem Raum, die die Gesichtspositionsberechnungsvorrichtung berechnet, und einer Blickrichtung des Benutzers, die der Bildanalysator entnimmt.
  • In der vorliegenden Erfindung kann die Position des Gesichts in dem Raum eine Entfernung von der Abbildungseinheit zu einem vorbestimmten Teil des Gesichts sein.
  • In der vorliegenden Erfindung kann die Bedieneinheit aus einem Touch Panel bzw. interaktiven Bedienfeld bzw. Bildschirm-Tastfeld gebildet sein. Dieses Touch Panel kann ein Touch Panel einer an einem Fahrzeug montierten Fahrzeugnavigationsvorrichtung sein.
  • In der vorliegenden Erfindung kann die Abbildungseinheit eine Kamera eines Fahrerüberwachungsgeräts sein, das an einem Fahrzeug montiert ist, und dazu eingerichtet ist, den Zustand eines Fahrers zu überwachen.
  • Gemäß der vorliegenden Erfindung ist es möglich, eine Vorrichtung zum Erfassen einer Gesichtsposition bereitzustellen, die dazu in der Lage ist, die Gesichtsposition in dem Raum mit einer einfachen Konfiguration zu erfassen.
  • Figurenliste
    • 1 ist ein Blockdiagramm einer Vorrichtung zum Erfassen einer Gesichtsposition gemäß einer Ausführungsform der vorliegenden Erfindung.
    • 2 ist eine Darstellung zur Erläuterung der Abbildung des Gesichts eines Fahrers.
    • 3 ist eine Darstellung zur Erläuterung einer Blickrichtung eines Fahrers.
    • 4 ist eine Darstellung zur Erläuterung eines Prinzips zur Erfassung einer Gesichtsposition gemäß der vorliegenden Erfindung.
    • 5 ist ein Diagramm, das einen Näherungsausdruck zur Berechnung einer Gesichtsposition veranschaulicht.
    • 6 ist ein Flussdiagramm, das den Betrieb der Vorrichtung zum Erfassen einer Gesichtsposition veranschaulicht.
    • 7 ist ein Blockdiagramm einer Vorrichtung zum Erfassen einer Gesichtsposition gemäß einer anderen Ausführungsform.
    • 8 ist ein Flussdiagramm, dass den Betrieb gemäß der anderen Ausführungsform veranschaulicht.
  • DETAILLIERTE BESCHREIBUNG
  • Ausführungsformen einer Vorrichtung zum Erfassen einer Gesichtsposition gemäß der vorliegenden Erfindung werden nachstehend unter Bezugnahme auf die Zeichnungen beschrieben. Im Folgenden wird als Beispiel eine Vorrichtung beschrieben, die an einem Fahrzeug montiert ist und zum Erfassen der Gesichtsposition des Fahrers eingerichtet ist.
  • Zuerst wird die Konfiguration der Vorrichtung zum Erfassen einer Gesichtsposition unter Bezugnahme auf 1 beschrieben. In 1 ist eine Vorrichtung zum Erfassen einer Gesichtsposition 100 aus einem Fahrerüberwachungsgerät 10, einem Touch Panel 11 bzw. interaktiven Bedienfeld bzw. Bildschirm-Tastfeld, einem Bedienpunktdetektor 12, einer Gesichtspositionsberechnungsvorrichtung 13, einer Einheit zum Erzeugen eines annähernden Ausdrucks bzw. Näherungsausdrucks 14 und einer Steuereinrichtung 30 gebildet. Das Fahrerüberwachungsgerät 10 ist eine Vorrichtung, die dazu eingerichtet ist, zu überwachen, ob sich der Fahrer in einem normalen Zustand befindet oder nicht, während das Gesicht des Fahrers abgebildet wird, und umfasst eine Kamera 1, einen Signalprozessor 2, einen Bildanalysator 3 und einen Fahrerzustandsdetektor 4.
  • Wie in 2 veranschaulicht, ist die Kamera 1 beispielsweise auf einem Armaturenbrett 52 des Fahrersitzes eines Fahrzeugs V angeordnet. Die Installationsposition und der Installationswinkel der Kamera 1 sind so eingestellt, dass die Kamera 1 ein Gesicht 50a eines auf einem Sitz 51 sitzenden Fahrers 50 abbilden kann. Gestrichelte Linien veranschaulichen den Bilderfassungs- bzw. Abbildungsbereich der Kamera 1. Die Kamera 1 bildet in der vorliegenden Erfindung eine „Abbildungseinheit“ bzw. „Bilderfassungseinheit“ und weist eine Bilderfassungs- bzw. Abbildungsvorrichtung wie einen CMOS-Bildsensor auf. Das Fahrzeug V ist beispielsweise ein vierrädriges Kraftfahrzeug. Der Fahrer 50 ist ein Beispiel eines „Benutzers“ in der vorliegenden Erfindung.
  • Der Signalprozessor 2 führt Prozesse aus, wie beispielsweise das Umwandeln eines Bildsignals des von der Kamera 1 abgebildeten Gesichts in ein digitales Signal. Der Bildanalysator 3 analysiert ein Gesichtsbild gemäß dem von dem Signalprozessor 2 ausgegebenen Bildsignal, entnimmt charakteristische Punkte (z. B. Augen) und erfasst den Gesichtswinkel, die Blickrichtung, die Bewegung der Augenlider und dergleichen. Der Fahrerzustandsdetektor 4 erfasst den Zustand des Fahrers 50 gemäß dem von dem Bildanalysator 3 erhaltenen Analyseergebnis. Beispielsweise erfasst der Fahrerzustandsdetektor 4 in einem Fall, in dem die Augenlider für mehr als eine bestimmte Zeitspanne geschlossen sind, dass der Fahrer 50 am Einschlafen ist. In einem Fall, in dem die Blickrichtung auch während der Fahrt zur Seite gerichtet ist, erfasst der Fahrerzustandsdetektor 4 den Fahrer 50, als während der Fahrt zur Seite schauend. Das Erfassungsergebnis, das durch den Fahrerzustandsdetektor 4 erhalten wird, wird über einen CAN-Kommunikator (Controller Area Network Communicator) 20 an eine nicht veranschaulichte, im Fahrzeug montierte, elektronische Steuereinrichtung (Electronic Control Unit, ECU) gesendet. Die ECU führt eine vorbestimmte Steuerung (beispielsweise Ausgabe eines Alarms) an dem Fahrzeug gemäß dem Erfassungsergebnis durch.
  • Das Touch Panel 11 ist ein Beispiel einer „Bedieneinheit“ in der vorliegenden Erfindung. In der Ausführungsform ist das Touch Panel 11 ein Touch Panel einer Fahrzeugnavigationsvorrichtung, die an dem Fahrzeug montiert ist. Wie in den 2 und 3 veranschaulicht, ist das Touch Panel 11 neben der Kamera 1 auf dem Armaturenbrett 52 des Fahrersitzes des Fahrzeugs V vorgesehen. Wie in 3 veranschaulicht, weist das Touch Panel 11 einen Bedienbildschirm 11a auf. Das Touch Panel 11 empfängt eine vorbestimmte Eingabe, wenn der Fahrer 50 den Bedienbildschirm 11a bedient bzw. betätigt.
  • Der Bedienpunktdetektor 12 ist eine Schaltung, die einen Bedienpunkt P ( 3), d. h. die Stelle, an der ein Drückvorgang bzw. eine Drückbedienung bzw. eine Drückbetätigung ausgeführt wird, auf dem Bedienbildschirm 11a erfasst. Der Position des Bedienpunkts P wird durch XY-Koordinaten von nicht dargestellten Schalterelektroden bestimmt, die in einer Matrix angeordnet sind, und die Schalterelektrode, die in dem Abschnitt angeordnet ist, in dem ein Drückvorgang ausgeführt wird, wird elektrisch leitfähig bzw. leitend. Somit wird der Bedienpunkt P erfasst.
  • Wenn der Bedienbildschirm 11a des Touch Panels 11 betätigt bzw. bedient wird, berechnet die Gesichtspositionsberechnungsvorrichtung 13 die Position des von der Kamera 1 abgebildeten Gesichts 50a gemäß einem Parameter Δx, der aus dem Erfassungsergebnis in dem Bedienpunktdetektor bzw. des Bedienpunktdetektors 12 erhalten wird, und Parametern θd und θf , die aus dem Analyseergebnis in dem Bildanalysator bzw. des Bildanalysators 3 erhalten werden. Diese Parameter und der arithmetische Ausdruck der Gesichtsposition werden später detailliert beschrieben. In der Ausführungsform wird eine Entfernung D von der Kamera 1 zu dem in 2 dargestellten Gesicht 50a als die Gesichtsposition in dem Raum (absolute Position) berechnet. Da die Position der Kamera 1 in dem Raum im Voraus bestimmt wird, kann, wenn die Entfernung D zu dem Gesicht 50a in Bezug auf die Kameraposition bekannt ist, die Position des Gesichts 50a in dem Raum bestimmt werden. Das Berechnungsergebnis (Entfernung D) in der bzw. der Gesichtspositionsberechnungsvorrichtung 13 wird über den CAN-Kommunikator 20 an die oben beschriebene ECU gesendet. Zusätzlich erfasst bzw. erlangt die Gesichtspositionsberechnungsvorrichtung 13 einen später zu beschreibenden Parameter Δd von dem Bildanalysator 3. Die Entfernung D und der Parameter Δd werden an die Einheit zum Erzeugen eines Näherungsausdrucks 14 gesendet.
  • Die Einheit zum Erzeugen eines Näherungsausdrucks 14 sammelt statistische Daten, die durch Zuordnen der Gesichtsposition (Entfernung D) und des Parameters Δd (wird später beschrieben) zueinander erhalten werden, wenn der Bedienbildschirm 11a betätigt bzw. bedient wird, und erzeugt einen annähernden Ausdruck Fn bzw. einen Näherungsausdruck Fn zum Berechnen der Position des Gesichts 50a in dem Raum gemäß den statistischen Daten. Die Gesichtspositionsberechnungsvorrichtung 13 berechnet die Position des Gesichts 50a unter Verwendung dieses Näherungsausdrucks Fn, wenn der Bedienbildschirm 11a nicht betätigt bzw. nicht bedient wird. 5 veranschaulicht ein Beispiel des Näherungsausdrucks Fn, und die Details des Näherungsausdrucks Fn werden später beschrieben.
  • Die Steuereinrichtung 30 ist aus einem Mikrocomputer, der eine CPU, einen Speicher und dergleichen umfasst, gebildet, und steuert integral den Betrieb der Vorrichtung zum Erfassen einer Gesichtsposition 100. Aus diesem Grund ist die Steuereinrichtung 30 mit jeder Einheit der Vorrichtung zum Erfassen einer Gesichtsposition 100 über eine Signalleitung (nicht dargestellt) verbunden und kommuniziert mit jeder Einheit.
  • Es sei angemerkt, dass die Funktionen des Bildanalysators 3, des Fahrerzustandsdetektors 4, der Gesichtspositionsberechnungsvorrichtung 13 und der Einheit zum Erzeugen eines Näherungsausdrucks 14 tatsächlich durch Software realisiert werden.
  • Als nächstes wird das Prinzip der Erfassung der Gesichtsposition in dem Raum unter Verwendung der oben beschriebenen Vorrichtung zum Erfassen einer Gesichtsposition 100 beschrieben.
  • Wie 3 veranschaulicht, wird der Fahrer 50 in einem Fall, in dem der Fahrer 50 das Touch Panel 11 bedient, unvermeidlich den Bedienbildschirm 11a sehen. Aus diesem Grund ist die Blickrichtung des Fahrers 50 (durch einen Pfeil angedeutet) zu dem Bedienpunkt P auf dem Bedienbildschirm 11a gerichtet. Bei der vorliegenden Erfindung wird die Gesichtsposition unter Verwendung dieses Verhaltens erfasst.
  • Wie 4 veranschaulicht, wird in einem Fall, in dem eine Betätigung bzw. Bedienung auf dem Bedienpunkt P des Bedienbildschirms 11a des Touch Panels 11 ausgeführt wird, die Entfernung Δx von der Kamera 1 zu dem Bedienpunkt P anhand des Erfassungsergebnisses des Bedienpunktdetektors 12 bestimmt. Zusätzlich werden aus dem von der Kamera 1 abgebildeten Bild des Gesichts 50a zwei Parameter erhalten, d. h., der Winkel des Gesichts 50a in Bezug auf die Kamera 1 (nachstehend als ein „Gesichtswinkel“ bezeichnet) θd und der Winkel der Blickrichtung des Fahrers 50, der auf den Bedienbildschirm 11a schaut, (nachstehend als ein „Blickrichtungswinkel“ bezeichnet) θf. Ferner wird aus dem Bild des Gesichts 50a die Positionsbeziehung zwischen den Augen 50b, 50c, welche charakteristische Punkte sind, d. h., ein Abstand Δd zwischen den Augen, ermittelt bzw. erlangt.
  • In 4 wird die folgende geometrische Beziehung zwischen der Entfernung D, die die Position des Gesichts 50a in dem Raum darstellt, und den Parametern Δx, θd , θf festgelegt. D sin θ d + ( D cos θ d ) tan θ f = Δ x
    Figure DE102018131805A1_0001
    Aus diesem Grund kann die Entfernung D aus dem folgenden arithmetischen Ausdruck berechnet werden. D = Δ x/ ( sin θ d + cos θ d tan θ f )
    Figure DE102018131805A1_0002
    Es sei angemerkt, dass in 4 die Entfernung D die Entfernung von der Mitte der vorderen Oberfläche der Kamera 1 zu dem Mittelpunkt zwischen den Augen 50b, 50c auf dem Gesicht 50a ist. Der Gesichtswinkel θd ist der Winkel zwischen der optischen Achse der Kamera 1 und einer geraden Linie, die die Entfernung D darstellt. Der Blickrichtungswinkel θf ist der Winkel zwischen der geraden Linie, die den Bedienpunkt P und einen vorbestimmten Teil (hier den Mittelpunkt zwischen den Augen 50b, 50c) des Gesichts verbindet, und einer senkrechten Linie, die parallel zu der optischen Achse der Kamera 1 verläuft, und den vorbestimmten Abschnitt bzw. vorbestimmten Teil kreuzt bzw. schneidet.
  • Jedes Mal, wenn der Bedienbildschirm 11a betätigt bzw. bedient wird, berechnet die Gesichtspositionsberechnungsvorrichtung 13 die Entfernung D aus dem obigen arithmetischen Ausdruck (1) unter Verwendung der Parameter Δx, θd , θf , die erhalten werden, wenn die Betätigung bzw. Bedienung ausgeführt wird, und berechnet somit die Gesichtsposition in dem Raum. Danach gibt die Gesichtspositionsberechnungsvorrichtung 13 die berechnete Entfernung D und den Abstand Δd zwischen den Augen, der von bzw. aus dem Gesichtsbild ermittelt bzw. erlangt wurde, an die Einheit zum Erzeugen eines Näherungsausdrucks 14 aus. Die Einheit zum Erzeugen eines Näherungsausdrucks 14 speichert die Entfernung D, die sie von der Gesichtspositionsberechnungsvorrichtung 13 empfangen hat, und den Abstand Δd zwischen den Augen in Zuordnung zueinander bzw. einander zugeordnet, jedes Mal wenn der Bedienbildschirm 11a betätigt bzw. bedient wird. Als Ergebnis sammelt die Einheit zum Erzeugen eines Näherungsausdrucks 14 diskrete statistische Daten, die durch Zuordnung von D und Δd zueinander erhalten werden, wie in 5 veranschaulicht. Gemäß diesen statistischen Daten erzeugt die Einheit zum Erzeugen eines Näherungsausdrucks 14 den annähernden Ausdruck Fn bzw. den Näherungsausdruck Fn zum Berechnen der Entfernung D (der Gesichtsposition in dem Raum) aus dem Abstand Δd zwischen den Augen. Als Schätz- bzw. Annäherungs- bzw. Näherungsverfahren kann in diesem Fall ein bekanntes Verfahren wie ein Interpolationsverfahren oder ein Verfahren der kleinsten Quadrate verwendet werden. Es sei angemerkt, dass der Näherungsausdruck Fn jedes Mal neu geschrieben und aktualisiert wird, wenn der Näherungsausdruck Fn neu berechnet wird.
  • Wie oben beschrieben, berechnet die Gesichtspositionsberechnungsvorrichtung 13 die Entfernung D, welche die Gesichtsposition in dem Raum ist, unter Verwendung des obigen Näherungsausdrucks Fn, wenn der Bedienbildschirm 11a nicht bedient bzw. betätigt wird. Da die Kamera 1 das Gesicht 50a kontinuierlich abbildet, auch wenn der Bedienbildschirm 11a nicht bedient bzw. nicht betätigt wird, ist es möglich, den Abstand Δd zwischen den Augen durch den Bildanalysator 3 in Echtzeit zu erfassen bzw. zu erlangen. Daher ist es durch Anwenden des erfassten Δd auf den Näherungsausdruck Fn möglich, die Gesichtsposition zu berechnen, die erhalten wird, wenn der Bedienbildschirm 11a nicht betätigt bzw. nicht bedient wird.
  • Informationen über die Gesichtsposition (Entfernung D), die auf diese Weise von der Gesichtspositionsberechnungsvorrichtung 13 berechnet werden, werden zusammen mit Informationen wie der Blickrichtung (dem Blickrichtungswinkel θf ), die von dem Bildanalysator 3 entnommen wurden, über den CAN-Kommunikator 20 an die vorbestimmte ECU übertragen. Die vorbestimmte ECU bestimmt den Abschnitt (beispielsweise ein auf dem Armaturenbrett 52 vorgesehenes Anzeigeinstrument), den der Fahrer 50 aktuell visuell erkennt bzw. betrachtet, gemäß Informationen wie der Gesichtsposition und der Blickrichtung.
  • Wie oben beschrieben wird bei der Ausführungsform, wenn das Touch Panel 11 betätigt bzw. bedient wird, der Abstand Δd zwischen den Augen aus dem Gesichtsbild entnommen, und die Entfernung D von der Kamera 1 zu dem Gesicht 50a, d. h., die Position des Gesichts 50a in dem Raum, wird geometrisch berechnet, gemäß der Entfernung Δx, die durch den Bedienpunkt P bestimmt wird, dem Gesichtswinkel θd und dem Blickrichtungswinkel θf , welche aus dem Gesichtsbild ermittelt bzw. erhalten werden (dem obigen arithmetischen Ausdruck (1)). Zusätzlich werden die statistischen Daten, die durch Zuordnung des Abstands Δd zwischen den Augen zu der Entfernung D zu diesem Zeitpunkt erhalten werden, gesammelt, und der Näherungsausdruck Fn wird aus den gesammelten statistischen Daten erzeugt. Wenn das Touch Panel 11 nicht betätigt bzw. nicht bedient wird, wird die Entfernung D gemäß dem aus dem Gesichtsbild entnommenen Abstand Δd zwischen den Augen und dem Näherungsausdruck Fn berechnet. Daher ist es möglich, die Position des Gesichts 50a in dem Raum mit einer einfachen Konfiguration zu erfassen, ohne mehrere Kameras vorzusehen oder einen dezidierten Sensor vorzusehen. Da insbesondere die Kamera des an dem Fahrzeug montierten Fahrerüberwachungsgeräts 10 als die Kamera 1 verwendet wird und das ebenfalls an dem Fahrzeug montierte Touch Panel der Fahrzeugnavigationsvorrichtung als das Touch Panel 11 verwendet wird, ist eine Veränderung der Software ohne Hinzufügen einer redundanten Komponente ausreichend.
  • 6 ist ein Flussdiagramm, das den Betrieb der Vorrichtung zum Erfassen einer Gesichtsposition 100 veranschaulicht. Das Fahrerüberwachungsgerät 10 führt die Schritte S1 bis S4 aus, die Gesichtspositionsberechnungsvorrichtung 13 führt die Schritte S5 bis S11 aus, und die Einheit zum Erzeugen eines Näherungsausdrucks 14 führt die Schritte S12 bis S14 aus.
  • In Schritt S1 wird das Fahrerüberwachungsgerät 10 gemäß einer Betätigung eines (nicht dargestellten) Zündschalters oder dergleichen aktiviert. In Schritt S2 beginnt die Kamera 1, das Gesicht 50a des Fahrers 50 abzubilden. Diese Abbildung wird fortgesetzt, während das Fahrerüberwachungsgerät 10 arbeitet. In Schritt S3 analysiert der Bildanalysator 3 das von der Kamera 1 aufgenommene Gesichtsbild. In Schritt S4 wird der Abstand Δd (4) zwischen den Augen 50b, 50c, die charakteristische Punkte sind, aus dem Gesichtsbild entnommen. Es sei angemerkt, dass der Fahrerzustandsdetektor 4 den Zustand des Fahrers gemäß dem Analyseergebnis in Schritt S3 erfasst; da dies jedoch nicht direkt auf die vorliegende Erfindung bezogen ist, wird dieser Schritt in 6 weggelassen.
  • In Schritt S5 wird die Entfernung D (4), die die Position des Gesichts 50a in dem Raum ist, unter Verwendung des in Schritt S4 entnommenen Abstands Δd zwischen den Augen und des Näherungsausdrucks Fn, den die Einheit zum Erzeugen eines Näherungsausdrucks 14 bereits berechnet hat, berechnet. In Schritt S6 wird bestimmt, ob der Bedienbildschirm 11a des Touch Panels 11 betätigt bzw. bedient wird oder nicht, gemäß bzw. in Abhängigkeit von dem Vorhandensein oder Nichtvorhandensein eines Erfassungssignals von dem Bedienpunktdetektor 12. In einem Fall, in dem der Bedienbildschirm 11a nicht betätigt bzw. nicht bedient wird (Schritt S6; NEIN), kehrt der Prozess zu Schritt S2 zurück, und der oben beschriebene Vorgang wird wiederholt. In einem Fall, in dem der Bedienbildschirm 11a betätigt bzw. bedient wird (Schritt S6; JA), schreitet der Prozess zu Schritt S7 voran.
  • In Schritt S7 wird die Entfernung Δx (4) von der Kamera 1 zu dem Bedienpunkt P gemäß der Position des Bedienpunktes P erlangt bzw. erfasst, welche der Bedienpunktdetektor 12 erfasst. In Schritt S8 wird der aus dem Gesichtsbild entnommene Gesichtswinkel θd (4) erlangt bzw. erfasst. In Schritt S9 wird der aus dem Gesichtsbild entnommene Blickrichtungswinkel θf (4) erlangt bzw. erfasst. In Schritt S10 wird der Abstand Δd (4) zwischen den Augen 50b, 50c, der aus dem Gesichtsbild entnommen wurde, erlangt bzw. erfasst. In Schritt S11 wird die Entfernung D aus dem obigen arithmetischen Ausdruck (1) unter Verwendung von in den Schritten S7 bis S9 erlangten bzw. erfassten Δx, θd , θf berechnet, und die Position des Gesichts 50a in dem Raum wird geometrisch berechnet.
  • In Schritt S12 werden die in Schritt S11 berechnete Entfernung D und der in Schritt S10 erlangte bzw. erfasste Abstand Δd zwischen den Augen einander zugeordnet bzw. in Zuordnung zueinander gespeichert. In Schritt S13, wird der Näherungsausdruck Fn zum Berechnen der Entfernung D unter Verwendung der statistischen Daten D und Δd, die in Schritt S12 gespeichert wurden, erzeugt. In Schritt S14 wird der zuletzt erzeugte Näherungsausdruck Fn auf den dieses Mal in Schritt S13 erzeugten Näherungsausdruck Fn aktualisiert. Danach kehrt der Prozess zu Schritt S2 zurück, und die oben beschriebene Reihe von Prozessen wird wiederholt. Daher wird die Aktualisierung des Näherungsausdrucks Fn in Schritt S14 jedes Mal durchgeführt, wenn der Bedienbildschirm 11a des Touch Panels 11 betätigt bzw. bedient wird.
  • 7 veranschaulicht eine Vorrichtung zum Erfassen einer Gesichtsposition 200 gemäß einer anderen Ausführungsform der vorliegenden Erfindung. In 7 sind Teile, die mit denen in 1 identisch sind, mit identischen Bezugszeichen versehen.
  • In der Vorrichtung zum Erfassen einer Gesichtsposition 200 von 7 wurde der Konfiguration der Vorrichtung zum Erfassen einer Gesichtsposition 100 von 1 eine Bestimmungseinheit für einen visuell erkannten Abschnitt 15 bzw. eine Einheit zur Bestimmung eines visuell erkannten bzw. betrachteten Abschnitts 15 hinzugefügt. In dem Fall von 1 bestimmt die ECU-Seite den Abschnitt, den der Fahrer 50 visuell erkennt bzw. betrachtet. In dem Fall von 7 bestimmt die Vorrichtung zum Erfassen einer Gesichtsposition 200 den Abschnitt, den der Fahrer 50 visuell erkennt bzw. betrachtet.
  • In 7 ist die Bestimmungseinheit für einen visuell erkannten Abschnitt 15 zwischen einer Gesichtspositionsberechnungsvorrichtung 13 und einem CAN-Kommunikator 20 vorgesehen, und erlangt bzw. erfasst eine Entfernung D, die die Gesichtsposition in einem Raum darstellt, von der Gesichtspositionsberechnungsvorrichtung 13. Zusätzlich erlangt bzw. erfasst die Bestimmungseinheit für einen visuell erkannten Abschnitt 15 einen Blickrichtungswinkel θf , der eine Blickrichtung darstellt, von einem Bildanalysator 3. Wenn die Entfernung D und der Blickrichtungswinkel θf bestimmt werden, kann der Abschnitt, den der Fahrer 50 visuell erkennt bzw. betrachtet, bestimmt werden. Daher bestimmt die Bestimmungseinheit für einen visuell erkannten Abschnitt 15 den visuell erkannten bzw. betrachteten Abschnitt gemäß D und θf . Das Bestimmungsergebnis wird über einen CAN-Kommunikator 20 an eine vorbestimmte ECU gesendet. Da andere Punkte mit denen der Vorrichtung zum Erfassen einer Gesichtsposition 100 von 1 identisch sind, wird die Beschreibung der Abschnitte, die sich mit denen in 1 überschneiden, weggelassen.
  • 8 ist ein Flussdiagramm, das den Betrieb der Vorrichtung zum Erfassen einer Gesichtsposition 200 von 7 veranschaulicht. In 8 sind Schritte, die mit denen in 6 identisch sind, mit identischen Bezugszeichen bezeichnet. Der Unterschied zwischen dem Flussdiagramm von 8 und dem von 6 ist, dass Schritt S4 in 6 durch Schritt S4a ersetzt ist und Schritt S5a nach Schritt S5 in 8 hinzugefügt ist. In Schritt S4a wird ein Blickrichtungswinkel θf zusätzlich zu einem Abstand Δd zwischen Augen von bzw. aus einem Gesichtsbild entnommen. In Schritt S5a wird gemäß dem in Schritt S4a entnommenen Blickrichtungswinkel θf und einer in Schritt S5 berechneten Gesichtsposition (Entfernung D) der Abschnitt ermittelt, den ein Fahrer 50 visuell erkennt bzw. betrachtet. Da andere Schritte mit denen in 6 identisch sind, wird die Beschreibung der Schritte, die sich mit denen in 6 überschneiden, weggelassen.
  • In der vorliegenden Erfindung können zusätzlich zu den oben beschriebenen Ausführungsformen verschiedene Ausführungsformen verwendet werden, die im Folgenden beschrieben werden.
  • In den obigen Ausführungsformen wird ein Beispiel beschrieben, bei dem der Näherungsausdruck Fn aus den statistischen Daten ermittelt wird, welche durch Zuordnung des Abstands Δd zwischen den Augen (der Positionsbeziehung der charakteristischen Punkte) zu der Entfernung D zu dem Gesicht (die Gesichtsposition in dem Raum) erhalten werden, wenn der Bedienbildschirm 11a betätigt bzw. nicht bedient wird, und die Gesichtsposition wird unter Verwendung dieses Näherungsausdrucks Fn berechnet, wenn der Bedienbildschirm 11a nicht betätigt bzw. nicht bedient wird. Die vorliegende Erfindung ist jedoch nicht darauf beschränkt. Zum Beispiel kann eine Tabelle bereitgestellt werden, die erhalten wird, indem Abstände Δd zwischen den Augen zu der Entfernung D zu einem Gesicht zugeordnet werden, die erhalten werden, wenn Betätigungen bzw. Bedienungen auf einem Bedienbildschirm 11a ausgeführt wird. Wenn der Bedienbildschirm 11a nicht betätigt bzw. nicht bedient wird, kann die Entfernung D, die dem Abstand Δd zwischen den Augen, der aus einem Gesichtsbild erhalten wird, entspricht, durch Bezugnahme auf diese Tabelle entnommen werden, um die Gesichtsposition zu berechnen.
  • In den obigen Ausführungsformen wird der Abstand Δd zwischen den Augen 50b, 50c als ein Beispiel der Positionsbeziehung der charakteristischen Punkte des Gesichts verwendet. Die vorliegende Erfindung ist jedoch nicht auf dieses Beispiel beschränkt. Zum Beispiel können die Entfernung zwischen den Ohren, die Entfernung zwischen Augenbrauen, die Entfernung zwischen einem Auge und einem Ohr, die Entfernung zwischen einer Nase und einem Ohr oder dergleichen als die Positionsbeziehung von charakteristischen Punkten verwendet werden. Darüber hinaus sind mindestens zwei charakteristische Punkte ausreichend; es können jedoch drei oder mehr charakteristische Punkte verwendet werden. Ferner ist die Positionsbeziehung zwischen den charakteristischen Punkten nicht auf den Abstand (Entfernung) beschränkt und kann ein Winkel sein.
  • In den obigen Ausführungsformen wird die Entfernung D von der Kamera 1 zu dem vorbestimmten Teil des Gesichts 50a als der Parameter verwendet, der die Gesichtsposition in dem Raum darstellt. Die vorliegende Erfindung ist jedoch nicht darauf beschränkt, und eine Entfernung D von einem anderen Abschnitt als der Kamera 1 zu einem vorbestimmten Teil des Gesichts 50a kann die Gesichtsposition in dem Raum darstellen. Darüber hinaus ist die Gesichtsposition in dem Raum nicht auf die Entfernung D beschränkt und kann durch Koordinatenwerte dargestellt werden.
  • In den obigen Ausführungsformen wird ein Beispiel beschrieben, bei dem die Entfernung D aus dem arithmetischen Ausdruck (1) jedes Mal berechnet wird, wenn das Touch Panel 11 betätigt bzw. bedient wird. Die vorliegende Erfindung ist jedoch nicht auf dieses Beispiel beschränkt. Zum Beispiel kann eine Entfernung D nach jeweils zwei oder drei Betätigungen bzw. Bedienungen berechnet werden. In diesem Fall wird, wenn eine Betätigung bzw. Bedienung durchgeführt wird aber die Entfernung D nicht berechnet wird, die Entfernung D anhand des Näherungsausdrucks Fn berechnet.
  • In den obigen Ausführungsformen wird das Touch Panel 11 als ein Beispiel der Bedieneinheit verwendet. Die Bedieneinheit kann jedoch beispielsweise eine Platine oder eine Platte sein, auf der mehrere Druckknöpfe nebeneinander angeordnet sind.
  • In den obigen Ausführungsformen wird ein Beispiel beschrieben, bei dem die Steuereinrichtung 30 getrennt von dem Bildanalysator 3, dem Fahrerzustandsdetektor 4, der Gesichtspositionsberechnungsvorrichtung 13 und der Einheit zum Erzeugen eines Näherungsausdrucks 14 vorgesehen wird. Der Bildanalysator 3, der Fahrerzustandsdetektor 4, die Gesichtspositionsberechnungsvorrichtung 13 und die Einheit zum Erzeugen eines Näherungsausdrucks 14 können jedoch in der Steuereinrichtung 30 eingebaut sein.
  • In den obigen Ausführungsformen wird die Vorrichtung zum Erfassen einer Gesichtsposition zum Erfassen des Gesichts eines Fahrzeugführers als ein Beispiel beschrieben. Die vorliegende Erfindung kann jedoch auch auf eine Vorrichtung zum Erfassen einer Gesichtsposition für andere Zwecke angewandt werden.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2007230369 A [0005]
    • JP 2012 [0005]
    • JP 208714 A [0005]
    • JP 2014049023 A [0005]

Claims (9)

  1. Vorrichtung zum Erfassen einer Gesichtsposition, umfassend: eine Abbildungseinheit, die dazu eingerichtet ist, ein Gesicht eines Benutzers abzubilden; eine Bedieneinheit, die einen Bedienbildschirm umfasst und dazu eingerichtet ist, eine vorbestimmte Eingabe von dem den Bedienbildschirm bedienenden Benutzer zu empfangen; einen Bildanalysator, der dazu eingerichtet ist, ein von der Abbildungseinheit abgebildetes Bild des Gesichts zu analysieren und eine Positionsbeziehung von mindestens zwei charakteristischen Punkten in dem Gesicht zu entnehmen; und eine Gesichtspositionsberechnungsvorrichtung, die dazu eingerichtet ist, eine Position des von der Abbildungseinheit abgebildeten Gesichts zu berechnen, wobei die Gesichtspositionsberechnungsvorrichtung dazu eingerichtet ist, eine Position des Gesichts in einem Raum gemäß Positionsbeziehungen zwischen dem abgebildeten Gesicht, der Abbildungseinheit und der Bedieneinheit bei Bedienung des Bedienbildschirms zu berechnen, und wobei die Gesichtspositionsberechnungsvorrichtung dazu eingerichtet ist, eine Position des Gesichts in dem Raum gemäß der Positionsbeziehung zwischen den mindestens zwei charakteristischen Punkten, die der Bildanalysator von dem abgebildeten Gesicht entnimmt, und Positionsbeziehungen zwischen mehreren Positionen des Gesichts und mehreren der mindestens zwei charakteristischen Punkte zu berechnen, die den mehreren Positionen des Gesichts entsprechen, welche bei jeweiligen Bedienungen erhalten wurden, außer bei der Bedienung.
  2. Vorrichtung zum Erfassen einer Gesichtsposition nach Anspruch 1, wobei bei Bedienung des Bedienbildschirms, die Gesichtspositionsberechnungsvorrichtung eine Position des Gesichts in dem Raum gemäß einem Winkel des Gesichts in Bezug auf die Abbildungseinheit, einem Winkel der Blickrichtung des Benutzers, der den Bedienbildschirm betrachtet, und einer Entfernung von der Abbildungseinheit zu einem Bedienpunkt auf dem Bedienbildschirm geometrisch berechnet.
  3. Vorrichtung zum Erfassen einer Gesichtsposition nach Anspruch 1 oder 2, die ferner eine Einheit zum Erzeugen eines Näherungsausdrucks umfasst, welche dazu eingerichtet ist, einen Näherungsausdruck zur Berechnung einer Position des Gesichts aus der Positionsbeziehung der mindestens zwei charakteristischen Punkte zu erzeugen, wobei die Einheit zum Erzeugen eines Näherungsausdrucks dazu eingerichtet ist, statistische Daten zu sammeln, die durch Zuordnung einer Positionsbeziehung der mindestens zwei charakteristischen Punkte, welche durch den Bildanalysator bei jeder Bedienung des Bedienbildschirms entnommen werden, zu einer Position des Gesichts, die von der Gesichtspositionsberechnungsvorrichtung bei jeder Bedienung des Bedienbildschirms berechnet wird, erhalten werden, und dazu eingerichtet ist, den Näherungsausdruck gemäß den statistischen Daten zu erzeugen.
  4. Vorrichtung zum Erfassen einer Gesichtsposition nach Anspruch 3, wobei die Einheit zum Erzeugen eines Näherungsausdrucks den Näherungsausdruck jedes Mal aktualisiert, wenn der Bedienbildschirm bedient wird.
  5. Vorrichtung zum Erfassen einer Gesichtsposition nach einem der Ansprüche 1 bis 4, ferner umfassend eine Bestimmungseinheit für einen visuell erkannten Abschnitt, die dazu eingerichtet ist, einen Abschnitt, den der Benutzer visuell erkennt, zu bestimmen, gemäß einer Position des Gesichts in dem Raum, die die Gesichtspositionsberechnungsvorrichtung berechnet, und einer Blickrichtung des Benutzers, die der Bildanalysator entnimmt.
  6. Vorrichtung zum Erfassen einer Gesichtsposition nach einem der Ansprüche 1 bis 5, wobei die Position des Gesichts in dem Raum eine Entfernung von der Abbildungseinheit zu einem vorbestimmten Teil des Gesichts ist.
  7. Vorrichtung zum Erfassen einer Gesichtsposition nach einem der Ansprüche 1 bis 6, wobei die Bedieneinheit aus einem Touch Panel gebildet ist.
  8. Vorrichtung zum Erfassen einer Gesichtsposition nach Anspruch 7, wobei das Touch Panel ein Touch Panel einer an einem Fahrzeug montierten Fahrzeugnavigationsvorrichtung ist.
  9. Vorrichtung zum Erfassen einer Gesichtsposition nach einem der Ansprüche 1 bis 8, wobei die Abbildungseinheit eine Kamera eines Fahrerüberwachungsgeräts ist, das an einem Fahrzeug montiert ist, und dazu eingerichtet ist, einen Zustand eines Fahrers zu überwachen.
DE102018131805.7A 2017-12-11 2018-12-11 Vorrichtung zum erfassen einer gesichtsposition Pending DE102018131805A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017236658A JP6791108B2 (ja) 2017-12-11 2017-12-11 顔位置検出装置
JP2017-236658 2017-12-11

Publications (1)

Publication Number Publication Date
DE102018131805A1 true DE102018131805A1 (de) 2019-06-13

Family

ID=66629467

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018131805.7A Pending DE102018131805A1 (de) 2017-12-11 2018-12-11 Vorrichtung zum erfassen einer gesichtsposition

Country Status (4)

Country Link
US (1) US10776944B2 (de)
JP (1) JP6791108B2 (de)
CN (1) CN110059530B (de)
DE (1) DE102018131805A1 (de)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6822482B2 (ja) 2016-10-31 2021-01-27 日本電気株式会社 視線推定装置、視線推定方法及びプログラム記録媒体
AU2019369206A1 (en) 2019-12-16 2021-07-01 Beijing Didi Infinity Technology And Development Co., Ltd. Systems and methods for distinguishing a driver and passengers in an image captured inside a vehicle
US11370360B2 (en) 2019-12-25 2022-06-28 Panasonic Intellectual Property Management Co., Ltd. Display system
CN111709348A (zh) * 2020-06-11 2020-09-25 苏州百胜动力机器股份有限公司 一种基于驾驶员面部监视的舷外机安全驾驶控制***
CN111950348A (zh) * 2020-06-29 2020-11-17 北京百度网讯科技有限公司 安全带的佩戴状态识别方法、装置、电子设备和存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007230369A (ja) 2006-03-01 2007-09-13 Toyota Motor Corp 車載装置調整装置
JP2012208714A (ja) 2011-03-29 2012-10-25 Kyocera Corp 携帯電子機器
JP2014049023A (ja) 2012-09-03 2014-03-17 Sharp Corp 入力装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004177315A (ja) * 2002-11-28 2004-06-24 Alpine Electronics Inc 視線方向判定装置及びそれを利用した対話システムならびに運転支援システム
JP5251547B2 (ja) * 2008-06-06 2013-07-31 ソニー株式会社 画像撮影装置及び画像撮影方法、並びにコンピュータ・プログラム
CN102265602A (zh) * 2008-12-26 2011-11-30 松下电器产业株式会社 图像拍摄装置
WO2012172870A1 (ja) * 2011-06-14 2012-12-20 日産自動車株式会社 距離計測装置及び環境地図生成装置
JP6499583B2 (ja) * 2013-09-24 2019-04-10 シャープ株式会社 画像処理装置及び画像表示装置
JP2016110269A (ja) * 2014-12-03 2016-06-20 株式会社東海理化電機製作所 操作入力装置
US9877012B2 (en) * 2015-04-01 2018-01-23 Canon Kabushiki Kaisha Image processing apparatus for estimating three-dimensional position of object and method therefor
CN106991367B (zh) * 2016-01-21 2019-03-19 腾讯科技(深圳)有限公司 确定人脸转动角度的方法和装置
JP6702292B2 (ja) * 2017-11-15 2020-06-03 オムロン株式会社 警報制御装置、方法、およびプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007230369A (ja) 2006-03-01 2007-09-13 Toyota Motor Corp 車載装置調整装置
JP2012208714A (ja) 2011-03-29 2012-10-25 Kyocera Corp 携帯電子機器
JP2014049023A (ja) 2012-09-03 2014-03-17 Sharp Corp 入力装置

Also Published As

Publication number Publication date
JP6791108B2 (ja) 2020-11-25
CN110059530B (zh) 2023-07-04
US20190188878A1 (en) 2019-06-20
JP2019105906A (ja) 2019-06-27
CN110059530A (zh) 2019-07-26
US10776944B2 (en) 2020-09-15

Similar Documents

Publication Publication Date Title
DE102018131805A1 (de) Vorrichtung zum erfassen einer gesichtsposition
DE102017214353B4 (de) Fahrerzustands-erfassungssystem, fahrerzustands-erfassungsverfahren und diese enthaltendes fahrzeug
DE102010004165B4 (de) Verfahren und Systeme zum Kalibrieren von Fahrzeugsichtsystemen
DE102013223039B4 (de) Vorrichtung und Verfahren zum Bereitstellen eines AVM-Bildes
DE102019125627B4 (de) Innenraumüberwachungsvorrichtung
DE102017115318A1 (de) Heads-Up-Anzeige zum Beobachten von Fahrzeugwahrnehmungsaktivität
DE112017001724T5 (de) Fahrzeugvorrichtung, fahrzeugprogramm und filterauslegungsprogramm
DE112017005111T5 (de) Bordanzeigesteuervorrichtung
DE102012223481A1 (de) Vorrichtung und Verfahren zum Verfolgen der Position eines peripheren Fahrzeugs
DE102018100215A1 (de) Bildanzeigevorrichtung
DE102019125921A1 (de) Insassenmodelliervorrichtung, Insassenmodellierverfahren und Insassenmodellierprogramm
DE102015214116A1 (de) Verfahren und Einrichtung zum Schätzen einer Blickrichtung eines Fahrzeuginsassen, Verfahren und Einrichtung zum Bestimmen eines für einen Fahrzeuginsassen spezifischen Kopfbewegungsverstärkungsparameters und Verfahren und Vorrichtung zum Blickrichtungsschätzen eines Fahrzeuginsassen
EP3078015B1 (de) Verfahren und vorrichtung zum erzeugen einer warnung mittels zweier durch kameras erfasster bilder einer fahrzeugumgebung
DE112019000388T5 (de) Vorrichtung zur bereitstellung von informationen über eine installationsposition und verfahren zur bereitstellung von informationen über die installationsposition
DE102018127880A1 (de) Gestenbestimmungsvorrichtung und Programm
DE102020105196A1 (de) Verfahren zum Betreiben einer Datenbrille in einem Kraftfahrzeug sowie System mit einem Kraftfahrzeug und einer Datenbrille
DE102022109370A1 (de) Auf Betrachter-Eingaben basierende Steuerung in einem Multibild-Head-up-Display mit erweiterter Realität in einem Fahrzeug
DE102018210902A1 (de) Verfahren zum Ermitteln eines Einstellwerts einer Fahrzeugkomponente
DE102016211034A1 (de) Informationsbereitstellungsvorrichtung für ein Fahrzeug
EP3802204B1 (de) Computerprogrammprodukt zum elektrischen einstellen eines fahrzeugsitzes, einstellsystem und fahrzeug
DE102017125578A1 (de) Auf Tiefenwerten basierendes Gestenbedienungsverfahren und System dafür
DE102018214935B4 (de) Verfahren, Vorrichtung, Computerprogramm und Computerprogrammprodukt zum Ermitteln einer Aufmerksamkeit eines Fahrers eines Fahrzeuges
DE102020214908B4 (de) Verfahren und Vorrichtung zur Überwachung der Blickrichtung eines Fahrers beim Führen eines Kraftfahrzeugs
DE102016103037A1 (de) Verfahren zum Überprüfen einer Funktionstüchtigkeit eines Kamera-Monitor-Systems, Kamera-Monitor-System sowie Kraftfahrzeug
DE112021003430T5 (de) Bildverarbeitungsvorrichtung

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: KILIAN KILIAN & PARTNER MBB PATENTANWAELTE, DE

R012 Request for examination validly filed