WO2021001258A1 - Vorrichtung und verfahren zur ermittlung von bilddaten der augen, augenpositionen oder einer blickrichtung eines fahrzeugnutzers - Google Patents

Vorrichtung und verfahren zur ermittlung von bilddaten der augen, augenpositionen oder einer blickrichtung eines fahrzeugnutzers Download PDF

Info

Publication number
WO2021001258A1
WO2021001258A1 PCT/EP2020/067868 EP2020067868W WO2021001258A1 WO 2021001258 A1 WO2021001258 A1 WO 2021001258A1 EP 2020067868 W EP2020067868 W EP 2020067868W WO 2021001258 A1 WO2021001258 A1 WO 2021001258A1
Authority
WO
WIPO (PCT)
Prior art keywords
eyes
vehicle user
image data
light source
vehicle
Prior art date
Application number
PCT/EP2020/067868
Other languages
English (en)
French (fr)
Inventor
Emin Tarayan
Maria Hirsch
Christoph Weckmann
Peter SINDEWOLF
Original Assignee
Daimler Ag
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daimler Ag filed Critical Daimler Ag
Priority to US17/597,254 priority Critical patent/US11881054B2/en
Priority to CN202080048000.2A priority patent/CN114041174A/zh
Publication of WO2021001258A1 publication Critical patent/WO2021001258A1/de

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/141Control of illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Definitions

  • the invention relates to a device and a method for determining image data of the eyes, the current positions POSAI, POSA2 of the two eyes A1, A2 of a vehicle user and / or a current viewing direction of the vehicle user in a vehicle.
  • the detection of the positions POSAI, POSA2 of the two eyes A1, A2 advantageously serves as the basis for determining a current viewing direction
  • Modern driver assistance systems in particular have functions that can be controlled on the basis of the current direction of the vehicle user's gaze that has been determined. So in today's driver assistance systems and safety systems in
  • Motor vehicles used a large amount of information to enable better adjustment and effectiveness of the systems. This also includes information from the interior of the motor vehicle that may affect the driver or other occupants.
  • a video camera that records the driver's head from the front is usually used to determine such information.
  • the camera can be positioned, for example, in the area of a combination instrument or in the area of the dashboard, near the windshield.
  • Image processing algorithms are used to search an image recorded by the camera for typical features, for example two round eyes, an elongated nose and a transverse mouth.
  • This line of sight or head alignment detection is used, for example, to determine the degree of awareness of the driver in relation to the observation of the road. With the help of this level of attention, driver assistance and / or safety systems are then activated at different times or at different levels, that is to say, operating parameters of these systems are set.
  • a device for recognizing the direction of view of a vehicle user is known, for example, from the document DE 10 205 206 982 A1.
  • This publication reveals an instrument cluster comprising a display, with a camera for driver observation or for tracking the direction of view of the driver being arranged in the edge area of the display. This camera is used, for example, to monitor a driver's readiness to take over while driving automatically, or to recognize that the driver is tired. Depending on the direction of view determined, you can continue to
  • Vehicle functions are controlled. For example, a screen is brightened or a display / area is animated on a screen as soon as the driver's line of sight is directed towards it. Furthermore, functions can be controlled by a combination of viewing direction and language / gestures. With a look at a side window of the vehicle and a hand gesture indicating an opening, the side window can be opened in a targeted manner.
  • a prerequisite for the safe implementation of functions that are based on the determination of eye positions POSAI, POSA2 of the respective vehicle user or on the direction of gaze recognition of the vehicle user is that a camera detects the eye positions POSAI, POSA2 of the vehicle user as continuously and without interference as possible (i.e. especially without Concealment of the eyes by objects arranged in the area between the camera and the eyes).
  • the vehicle user in particular the driver, can, for example, cover the eyes of the vehicle user by the steering wheel rim, depending on his seated position and the body size of the user.
  • the object of the invention is to provide an improved device for determining eye positions and / or a line of sight of a vehicle user in a vehicle, so that disturbances are reduced as much as possible.
  • a first aspect of the invention relates to a device for determining image data of the eyes, eye positions of a vehicle user and / or a current viewing direction of the vehicle user in a vehicle.
  • the proposed device comprises: a camera with which image data of a vehicle interior can be captured, an image data evaluation unit with which, based on the captured image data of the eyes, positions POSAI, POSA2 of the eyes A1, A2 and / or the current direction of view of the vehicle user can be determined and a control device which, if no image data of the eyes .no current positions POSAI, POSA2 of the eyes A1, A2 and / or no viewing direction, can / are ascertained, generates a signal S which activates a light source.
  • the light source has one or more individual light sources, the one or more individual light sources being arranged and designed in such a way that the one or all individual light sources can only be recognized by the vehicle user and are fully visible when his eyes A1, A2, the eye positions and / or a direction of view can be detected by the camera uncovered and / or if his eyes are in a predetermined optimal spatial area or solid angle area relative to the camera, ie in the detection sungs Surrey the camera are arranged.
  • the arrangement of this type advantageously creates an integral display element for the light source or several individual light sources, which indicates to the user that the camera is not capturing image data of the eyes, positions POSAI, POSA2 of eyes A1, A2 and / or the current viewing direction can and at the same time the user is given an orientation for intuitive operation, ie adjustment of the seat, seat position and steering wheel, which enables detection by the camera and the use of the assistance systems dependent on the camera data.
  • vehicle user includes a driver or a co-driver or a passenger of the vehicle.
  • the camera is advantageously sensitive to visible light and advantageously to infrared light.
  • the latter is used in particular to determine the pupil positions of the vehicle user's eyes A1, A2 and to detect the eye positions in a dark environment, for example at night.
  • the camera faces the vehicle interior occupied by a vehicle user or a vehicle driver.
  • the image evaluation unit is designed to extract image data of the eyes from the image data of the camera, i.e. to recognize the eyes of the vehicle user from the entire image data of the camera.
  • the image data evaluation unit is also designed and set up to determine a current viewing direction of the vehicle user. This is done on the basis of the captured image data and evaluation algorithms known in the prior art. Details on this can be found in the relevant state of the art.
  • the light source advantageously has a diaphragm or a diaphragm device which limits the light rays emanating from the light source to a predetermined solid angle.
  • a light source with a diaphragm / diaphragm device can only be recognized by one eye which is arranged in the specified solid angle.
  • the light source comprises one or more pixels of a display connected to the control device.
  • the light source is advantageously designed as part of the display.
  • the display is advantageously a display of an instrument cluster for the vehicle.
  • the display is advantageously an LED, OLED, plasma or LC display.
  • the camera is advantageously integrated into the display.
  • the display preferably has a recess which interrupts the overall contour for receiving the camera, so that the camera is arranged within the display outer contour.
  • control device if a signal S is generated, controls the display to output optical information, and the information advises the vehicle user to adjust his seat position and / or a steering wheel position adjustment so that the positions POS AI , POS A 2 allow eyes A1, A2 a clear view of the light source.
  • the optical information output for this purpose is advantageously represented by a displayed text and / or by at least one corresponding reference sign / graphic. sent.
  • the light source and the optically output information are advantageously shown on a display. In an alternative embodiment, these can be generated with different elements.
  • control device is set up and implemented for this purpose, provided that a signal S is generated, based on the image data obtained from the vehicle user's head, current eye positions of the
  • the seat position and / or the current steering wheel position is / are to be adjusted so that the eyes A1, A2 have a clear view of the camera or are arranged in an optimal spatial area.
  • the corresponding information for this is advantageously output optically and / or acoustically.
  • the device additionally has a seat sensor, with which occupancy of a vehicle seat by the vehicle user can be determined.
  • the device is advantageously activated only when the seat sensor determines the occupancy of the vehicle seat. This serves in particular to save energy and extend the service life of the relevant components. Furthermore, in the event that the driver has left his driver's seat, but the vehicle is still occupied by passengers and the device is energized, unnecessary and irritating visual and acoustic outputs are avoided.
  • individual light sources of the light source are each provided with a diaphragm device which limits the light rays emanating from the respective individual light source to predetermined solid angle ranges.
  • the individual light sources are combined with appropriate optics that limit the light beams emanating from the respective individual light sources to a given solid angle range which at least corresponds to and covers the camera detection range.
  • the specified solid angle ranges of the individual light sources advantageously overlap in one spatial area.
  • the eyes A1, A2 can advantageously recognize all the individual light sources at the same time only in this spatial area. If the vehicle user's eyes A1, A2 are in this area of space, the camera can optimally detect the eyes, i.e. in this area of space there are no obscurations of the eyes, for example, by the steering wheel rim of the vehicle's steering wheel.
  • the vehicle user By activating the light source or the individual light sources, the vehicle user is initially informed that his eyes are not recognizable, the position of his eyes and / or his direction of view cannot currently be determined. In addition, this stimulates the vehicle user to change his seat position and / or the steering wheel position in such a way that he recognizes the light source or all individual light sources at the same time. If this is the case, the vehicle user has optimally set his position relative to the camera. This is particularly relevant for the reliability and functionality of all functions of the vehicle that depend on the determination of the eye positions and / or the direction in which the vehicle user is looking.
  • a first individual light source on the left, a second individual light source on the right and / or a third individual light source above and / or a fourth individual light source below the camera is advantageous.
  • This arrangement of the individual light sources results in particularly simple and intuitive instructions for adjusting at least the sitting position or taking a correct sitting position on the seat. If the vehicle user does not recognize all of them, for example the first, second and fourth individual light sources, this is an indication of the seat adjustment to change in such a way that the head and therefore the eyes must be moved vertically upwards in order to also recognize the third individual light source.
  • the steering wheel position adjustment can be be adjusted so that all four individual light sources can be recognized by the vehicle user at the same time.
  • only the first and second or the first, second and third individual light sources are present.
  • several first, second, third and / or fourth individual light sources of the camera are arranged adjacent to each other.
  • the light source and / or the individual light sources are arranged in such a way that a potential shadowing of the camera caused by the steering wheel in relation to the user's eyes, depending on the seat setting and body dimensions of a user, determined by the steering wheel and operating elements, results in a correspondingly restricted view of the user Light source or the individual light sources causes.
  • the light source is preferably arranged in such a way that it is only partially covered by the steering wheel, so that the user can definitely see activation of the light source but can also make settings so that the entire light source is completely within the user's field of vision and thus the complete, Shadow-free acquisition of the image data th of the eyes, eye positions of a vehicle user and / or a current direction of the vehicle user's gaze.
  • the arrangement of the light source or the individual light sources in relation to the camera are thus dependent on the geometric ratios between driver dimensions, steering wheel and seat setting, with the light source or the individual light sources thus being able to be arranged adjacent to or spaced from the camera.
  • the arrangement ensures that, regardless of the user and his setting of the seat and steering wheel, the light source or several individual light sources are at least partially covered as soon as the camera, due to at least partial obscuration by the steering wheel for the function of assistance systems, does not require any image data of the eyes, or any current required Can adequately detect positions POS AI , POS A 2 of the eyes A1, A2 and / or no required viewing direction.
  • control unit is designed and set up in such a way that if the eyes A1, A2 cannot be detected by the camera, ie, the eyes cannot be detected in the generated image data, from detection the eye positions POSAI, POSA2 and / or functions of the vehicle that are dependent on a determination of the current viewing direction are switched off and a warning is issued to the vehicle user.
  • the warning is advantageously an optically and / or acoustically issued warning. If the camera detects the eyes of the vehicle user and eye positions POS AI , POS A 2 or a current viewing direction of the vehicle user can be determined on the basis of the image data, then advantageously no signal S is generated and thus the light source is not activated.
  • the proposed device thus enables a more reliable determination of eye positions and / or current viewing directions of vehicle users.
  • the proposed device can be understood as a driver assistance system.
  • it In the case of objects that are arranged between the camera and the eyes and thus prevent the eyes from being recognized in the image data, it generates at least one optical warning by activating the light source.
  • activating the light source it is possible for the vehicle user to optimally adjust the seat position adjustment or the steering wheel position adjustment so that the eye positions and / or the direction in which the vehicle user is looking can be determined without interference.
  • Another aspect of the invention relates to a vehicle with a device as described above.
  • the vehicle has a driver assistance system with at least one function that is dependent on the image data of the eyes, on the determined positions POSAI, POSA2 of the eyes A1, A2 and / or on a direction in which the vehicle user is looking.
  • This function is advantageously switched off when a signal S is generated, in which case a warning that the vehicle user can perceive optically and / or acoustically and / or haptically is output, which indicates to the vehicle user that the respective function is due to the The fact is no longer available that the eye positions and / or the direction of view of the vehicle user cannot currently be determined.
  • Another aspect of the invention relates to a method for determining a position of eyes and / or a line of sight of a vehicle user in a vehicle and a method for operating a device as described above.
  • the proposed method comprises the following steps.
  • a camera captures image data of a vehicle interior.
  • an image data evaluation unit uses the captured image data to determine the image data of the eyes, the positions POSAI, POSA2 of the eyes A1, A2 (102) and / or the current viewing direction of the vehicle user.
  • a control device if no current positions POSAI, POSA2 of eyes A1, A2 and / or no viewing direction of the vehicle user can be determined, a control device generates a signal S which activates a light source.
  • the light source has one or more individual light sources which are arranged and designed in such a way that the one or more individual light sources are only recognized by the vehicle user
  • An advantageous development of the proposed method is characterized in that if a signal S is generated and the light source is thus activated, a display for outputting optical information is additionally activated, the information advising the vehicle user of his or her seat position and / or adjust a steering wheel position adjustment in such a way that the positions POSAI, POSA2 of the eyes A1, A2 allow a clear view of the light source.
  • Fig. 2 is a schematic view of a cockpit with a device according to Fig. 1 and
  • FIG. 3 shows a highly schematic flow chart of a proposed method.
  • the device 100 comprises a 4K video camera 101 with which image data of a vehicle interior, ie a head and eyes A1, A2 102 of the vehicle user, can be captured, an image data evaluation unit 103 with which, based on the captured image data, image data of the eyes , Positions POSAI, POSA2 of the eyes A1, A2 102 and / or the current direction of view of the vehicle user can be determined, and a control device 106, if no image data of the eyes, no current positions POSAI, POSA2 of the eyes A1, A2 and / or none Viewing direction can be determined, a signal S is generated, which activates a light source 104.
  • a 4K video camera 101 with which image data of a vehicle interior, ie a head and eyes A1, A2 102 of the vehicle user, can be captured
  • an image data evaluation unit 103 with which, based on the captured image data, image data of the eyes , Positions POSAI, POSA2 of the eyes A1, A2
  • FIG. 1 shows three vertically different positions POSAI ', POSAI ”, POSAI for only the left eye A1 102 of a vehicle user relative to the camera 101.
  • the light source 104 has three vertically one above the other arranged individual light sources 104, which are shown in the form of black circles.
  • a detection area of the camera 101 is marked by solid lines starting from the camera.
  • POSAI ' the simultaneous view of the left eye A1 102 onto all three individual light sources 104 arranged vertically one above the other is blocked by a steering wheel rim 110, which is shown in a circular cross section. From this uppermost position POSAI ', in particular the vertically uppermost individual light source 104 cannot be seen by the vehicle user.
  • the left eye A1 102 in the POSAI ' cannot be recognized by the 4K video camera 101 either. If the eyes A1, A2 102 of the vehicle user are in this example at a vertical position corresponding to POSAI ', the image data evaluation unit 103 is not able to recognize the vehicle user's eyes on the basis of the image data, positions POSAI, POSA2 of the eyes A1, A2 102 and / or to determine the current direction of view of the vehicle user, so that the control unit 106 generates a signal S that activates all individual light sources 104 of the device 100. The vehicle user is encouraged to change his seated position or the steering wheel position in such a way that he has a clear view of all individual light sources 104.
  • control unit is connected to a display 107 for outputting optical information.
  • control unit 106 controls the display 107 to output optical information, the optical information instructing the vehicle user to adjust his seat position and / or a steering wheel position adjustment so that the positions POSAI, POSA2 of the eyes A1, A2 allow a clear view of the light source.
  • the optical information is preferably a graphic and / or a text instruction.
  • FIG. 2 shows an arrangement corresponding to the principle of FIG. 1 from a driver's perspective.
  • the same components are identified by the same reference symbols as in FIG. 1.
  • the driver's gaze is directed at a full-surface display 116, which comprises round instruments 114, a display area 107 and a display area for displaying the individual light sources 104 arranged on the left and right of the camera 101.
  • Light sources 112 for example infrared light sources, illuminating the interior space are arranged next to the camera 101.
  • the camera 101 and the light sources are arranged in a recess in the display 116.
  • the camera 101 is covered by the steering wheel rim 110, so that the eyes A1, A2 of the vehicle user cannot be unhindered by the camera 101.
  • the individual light sources 104 are activated accordingly.
  • the vehicle user has to adjust his seat or the steering wheel so that all individual light sources are visible.
  • Corresponding instructions are displayed on the display area 107.
  • 3 shows a highly schematic flow chart of a proposed method for determining eye positions of a vehicle user and / or a current viewing direction of the vehicle user in a vehicle, with the following steps.
  • a camera 101 captures image data of the vehicle interior.
  • an image data evaluation unit 103 determines the image data of the eyes A1, A2, the positions POSAI, POSA2 of the eyes A1, A2 and / or the direction of gaze of the vehicle user on the basis of the captured image data. If the image data of eyes A1, A2, positions POSAI, POSA2 of eyes A1, A2 and / or the current viewing direction of the vehicle user cannot be determined or can only be determined inadequately, a signal S is generated 203 in a third step 203 by a control unit 106, which activates a light source 104.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Abstract

Die Erfindung betrifft eine Vorrichtung (100) zur Ermittlung von Augenpositionen eines Fahrzeugnutzers und/oder einer aktuellen Blickrichtung des Fahrzeugnutzers in einem Fahrzeug, umfassend: eine Kamera (101), mit der Bilddaten des Kopfes und der Augen A1, A2 (102) des Fahrzeugnutzers erfassbar sind, eine Bilddatenauswerteeinheit (103), mit der auf Basis der erfassten Bilddaten Positionen POSA1, POSA2 der Augen A1, A2 (102) und/oder die aktuelle Blickrichtung des Fahrzeugnutzers ermittelbar sind, und ein Steuergerät (106), das, sofern keine aktuellen Positionen POSA1, POSA2 der Augen A1, A2 und/oder keine Blickrichtung ermittelbar ist/sind, ein Signal S erzeugt, welches eine Lichtquelle (104) aktiviert. Die Lichtquelle (104) eine oder mehrere Einzellichtquellen aufweist, die derart angeordnet und ausgeführt sind, dass die eine oder mehreren Einzellichtquellen nur dann von dem Fahrzeugnutzer erkannt oder gleichzeitig erkannt werden können, wenn seine Augen A1, A2 (102), Augenpositionen und/oder seine aktuellen Blickrichtung von der Kamera (101) unverdeckt erfassbar sind.

Description

VORRICHTUNG UND VERFAHREN ZUR ERMITTLUNG VON BILDDATEN DER AUGEN, AUGENPOSITIONEN ODER
EINER BLICKRICHTUNG EINES FAHRZEUGNUTZERS
Die Erfindung betrifft eine Vorrichtung und ein Verfahren zur Ermittlung von Bilddaten der Augen, der aktuellen Positionen POSAI , POSA2 der zwei Augen A1 , A2 eines Fahrzeugnutzers und/oder einer aktuellen Blickrichtung des Fahrzeugnutzers in einem Fahrzeug. Die Erfassung der Positionen POSAI , POSA2 der zwei Augen A1 , A2 dient dabei vorteilhaft als Grundlage zur Ermittlung einer aktuellen Blickrichtung des
Fahrzeugnutzers.
Insbesondere moderne Fahrerassistenzsysteme weisen Funktionen auf, die auf Basis der ermittelten aktuellen Blickrichtung des Fahrzeugnutzers gesteuert werden können. So wird in heutigen Fahrerassistenzsystemen und Sicherheitssystemen in
Kraftfahrzeugen eine Vielzahl von Informationen benutzt, um eine bessere Einstellung und Wirksamkeit der Systeme zu ermöglichen. Darunter sind auch Informationen aus dem Innenraum des Kraftfahrzeugs, die den Fahrer oder andere Insassen betreffen können.
So ist beispielsweise bekannt, die Blickrichtung des Fahrers eines Kraftfahrzeugs zu er mitteln und eine diesbezügliche Information in Fahrerassistenzsystemen zu nutzen. Zur Ermittlung einer solchen Information wird meist eine Videokamera verwendet, die den Fahrerkopf frontal von vorn aufzeichnet. Die Kamera kann dazu beispielsweise im Be reich eines Kombinationsinstruments bzw. im Bereich der Armaturentafel, in der Nähe der Frontscheibe, positioniert werden. Über Bildverarbeitungsalgorithmen wird ein durch die Kamera aufgenommenes Bild nach typischen Merkmalen durchsucht, beispielsweise zwei runden Augen, einer länglichen Nase und einem quer verlaufenden Mund. Durch Auswertung der Symmetrieeigenschaften dieser Merkmale kann bereits eine einfache Kopfausrichtungserkennung realisiert werden; eine verbesserte Ausführungsform sieht vor, dass auch die Pupillen im Bereich der Augen aufgefunden und ausgewertet werden. Zur ausreichenden Erkennbarkeit der Szenerie bei Dunkelheit kann eine Infrarot-Kamera sowie eine aktive Infrarot-Beleuchtung des Oberkörpers des Fahrers von vorne realisiert werden.
Diese Blickrichtungs- bzw. Kopfausrichtungserkennung wird beispielsweise verwendet, um den Aufmerksamkeitsgrad des Fahrers in Bezug auf die Beobachtung der Straße zu ermitteln. Mit Hilfe dieses Aufmerksamkeitsgrades werden dann Fahrerassistenz- und/oder Sicherheitssysteme unterschiedlich früh oder stark angesteuert, das heißt, es werden Betriebsparameter dieser Systeme eingestellt.
Konkrete Beispiele hierfür sind: Bei Kollisionswarnungs- und Kollisionsnotbremssyste men ist es bekannt, bei Blickabwendung des Fahrers eine frühere Auslösung der War nung bzw. des Bremsvorgangs einzustellen. Bei ACC-Stop&Go-Systemen und Stauas sistenzsystemen wird ein automatisches Anfahren nicht ermöglicht, wenn der Blick des Fahrers nicht auf das Verkehrsgeschehen gerichtet ist. Spurhalteassistenzsysteme (La- ne Departure Warning) warnen bei Unaufmerksamkeit deutlich früher oder stärker als üblich. Schließlich sind noch Spurwechselassistenzsysteme zu nennen, die ebenso frü her oder stärker warnen, wenn der Fahrerblick nicht auf den Außenspiegel gerichtet ist.
Eine Vorrichtung zur Blickrichtungserkennung eines Fahrzeugnutzers ist beispielsweise aus der Druckschrift DE 10 205 206 982 A1 bekannt. Aus dieser Druckschrift geht ein Kombiinstrument umfassend ein Display hervor, wobei im Randbereich des Displays eine Kamera zur Fahrerbeobachtung bzw. zur Blickrichtungsverfolgung des Fahrers angeordnet ist. Mittels dieser Kamera wird beispielsweise eine Übernahmebereitschaft eines Fahrers beim automatischen Fahren überwacht oder eine Müdigkeit beim Fahrer erkannt. In Abhängigkeit der ermittelten Blickrichtung können weiterhin
Fahrzeugfunktionen gesteuert werden. Beispielsweise wird ein Bildschirm aufgehellt oder eine Anzeige/Bereich auf einem Bildschirm animiert, sobald der Blickrichtung des Fahrers darauf gerichtet wird. Weiterhin können Funktionen durch eine Kombination von Blickrichtung und Sprache/Gesten gesteuert werden. So kann mit einem Blick auf eine Seitenscheibe des Fahrzeugs und einer eine Öffnung andeutenden Handgeste gezielt eine Öffnung der Seitenscheibe bewirkt werden. Voraussetzung für eine sichere Durchführung von Funktionen, die auf einer Ermittlung von Augenpositionen POSAI , POSA2 des jeweiligen Fahrzeugnutzers bzw. auf einer Blickrichtungserkennung des Fahrzeugnutzers basieren, ist, dass eine Kamera die Augenpositionen POSAI , POSA2 des Fahrzeugnutzers möglichst kontinuierlich und störungsfrei (das heißt insbesondere ohne Verdeckung der Augen durch im Bereich zwischen der Kamera und den Augen angeordnete Objekte) ermitteln kann.
Zu Störungen bei der Ermittlung der Augenpositionen POSAI , POSA2 des
Fahrzeugnutzers, insbesondere des Fahrers, kann es beispielsweise kommen, wenn abhängig von seiner Sitzposition und den Körpermaßen des Nutzers die Augen des Fahrzeugnutzers durch den Lenkradkranz verdeckt werden.
Aufgabe der Erfindung ist es, eine verbesserte Vorrichtung zur Ermittlung von Augenpo sitionen und/oder einer Blickrichtung eines Fahrzeugnutzers in einem Fahrzeug anzuge ben, so dass Störungen möglichst reduziert werden.
Die Erfindung ergibt sich aus den Merkmalen der unabhängigen Ansprüche. Vorteilhafte Weiterbildungen und Ausgestaltungen sind Gegenstand der abhängigen Ansprüche.
Ein erster Aspekt der Erfindung betrifft eine Vorrichtung zur Ermittlung von Bilddaten der Augen, Augenpositionen eines Fahrzeugnutzers und/oder einer aktuellen Blickrichtung des Fahrzeugnutzers in einem Fahrzeug. Die vorgeschlagene Vorrichtung umfasst: eine Kamera, mit der Bilddaten eines Fahrzeuginnenraums erfassbar sind, eine Bilddaten- auswerteeinheit, mit der auf Basis der erfassten Bilddaten der Augen, Positionen POSAI , POSA2 der Augen A1 , A2 und/oder die aktuelle Blickrichtung des Fahrzeugnutzers ermit telbar sind, und ein Steuergerät, das sofern keine Bilddaten der Augen .keine aktuellen Positionen POSAI , POSA2 der Augen A1 , A2 und/oder keine Blickrichtung ermittelbar ist/sind, ein Signal S erzeugt, welches eine Lichtquelle aktiviert. Die Lichtquelle weist ei ne oder mehrere Einzellichtquellen auf, wobei die eine oder mehrere Einzellichtquellen derart angeordnet und ausgeführt sind, dass die eine oder alle Einzellichtquellen nur dann von dem Fahrzeugnutzer erkannt werden können und vollständig sichtbar sind, wenn seine Augen A1 , A2, die Augenpositionen und/oder eine Blickrichtung von der Kamera unverdeckt erfassbar sind und/oder wenn seine Augen in einem vorgegebenen optimalen Raumbereich oder Raumwinkelbereich relativ zur Kamera, d.h. im Erfas- sungsbereich der Kamera angeordnet sind. Mit anderen Worten kann der Fahrzeugnut zer die Erfassung der Bilddaten der Augen A1 , A2, der Positionen POSAI , POSA2 der Au gen A1 , A2 (102) und/oder die aktuelle Blickrichtung sicherstellen, indem er Sitz oder Lenkrad so einstellt, dass die Lichtquelle, d.h. entweder die Einzellichtquelle oder alle Einzellichtquellen unverdeckt sichtbar sind. In vorteilhafter weise wird durch die derarti ge Anordnung die Lichtquelle oder mehrere Einzellichtquellen ein integrales Anzei geelement geschaffen, das dem Nutzer angezeigt, dass die Kamera Bilddaten der Au gen, Positionen POSAI , POSA2 der Augen A1 , A2 und/oder die aktuelle Blickrichtung nicht erfassen kann und gleichzeitig wird dem Nutzer eine Orientierung zur intuitiven Be dienung d.h. Verstellung von Sitz, Sitzposition und Lenkrad gegeben, die eine Erfassung durch die Kamera und die Nutzung der von den Kameradaten abhängigen Assistenzsys temen ermöglicht.
Der Begriff des„Fahrzeugnutzers“ umfasst vorliegend einen Fahrer oder einen Beifahrer oder einen Passagier des Fahrzeugs.
„A1“ bezeichnet vorliegend beispielsweise das linke Auge und entsprechend„A2“ das rechte Auge des Fahrzeugnutzers.
Der Begriff„Kamera“ bezeichnet vorliegend insbesondere eine Digitalkamera, eine Vide okamera, eine Infrarotkamera oder eine Stereokamera, die jeweils Bilddaten aufzeichnen und an die Bilddatenauswerteeinheit übermitteln. Die Kamera ist vorteilhaft empfindlich für sichtbares Licht und vorteilhaft für Infrarotlicht. Letzteres dient insbesondere zur Er mittlung der Pupillenpositionen der Augen A1 , A2 des Fahrzeugnutzers und zur Erfas sung der Augenpositionen in dunkler Umgebung, beispielsweise bei Nacht. Die Kamera ist dem von einem Fahrzeugnutzer beziehungsweise einem Fahrzeugführer besetzten Fahrzeuginnenraum zugewandt.
Die Bildauswerteeinheit ist dazu ausgebildet aus den Bilddaten der Kamera Bilddaten der Augen zu extrahieren, d.h. aus den gesamten Bilddaten der Kamera die Augen des Fahrzeugnutzers zu erkennen.
Die Positionen POSAI , POSA2 der Augen A1 , A2 bezeichnen insbesondere Positionen in einem fahrzeugfesten Koordinatensystem. Um aus in den Bilddaten ermittelten Positio nen der Augen auf die Positionen POSAI , POSA2 der Augen A1 , A2 im fahrzeugfesten Koordinatensystem zu schließen und insbesondere eine Blickrichtung zu ermitteln sind entsprechende Transformationen und gegebenenfalls Kalibrierungen erforderlich. Ein entsprechender Auswerte-Algorithmus mit entsprechenden Transformationsparametern ist vorteilhaft in der Bilddatenauswerteeinheit hinterlegt.
Die Bilddatenauswerteeinheit ist weiterhin dazu ausgebildet und eingerichtet eine aktuel le Blickrichtung des Fahrzeugnutzers zu ermitteln. Dies erfolgt auf Basis der erfassten Bilddaten und im Stand der Technik bekannter Auswertealgorithmen. Details hierzu sind dem einschlägigen Stand der Technik zu entnehmen.
In einer vorteilhaften Weiterbildung der Vorrichtung ist die Lichtquelle eine LED, eine OLED, eine Glühlampe, eine Halogenlampe, ein Laser oder eine Nernstlampe. Die Lichtquelle wird an geeigneter Position im Fahrzeug angeordnet.
Die Lichtquelle weist vorteilhaft eine Blende bzw. eine Blendenvorrichtung auf, welche von der Lichtquelle ausgehende Lichtstrahlen auf einen vorgegebenen Raumwinkel be grenzen. Damit kann eine derartige Lichtquelle mit Blende/Blendenvorrichtung nur von einem Auge erkannt werden, welches in dem vorgegebenen Raumwinkel angeordnet ist.
Die Lichtquelle umfasst in einer vorteilhaften Weiterbildung ein oder mehrere Pixel eines mit dem Steuergerät verbundenen Displays. Die Lichtquelle ist vorteilhaft als ein Teil des Displays ausgeführt. Das Display ist vorteilhaft ein Display eines Kombiinstruments für das Fahrzeug. Das Display ist vorteilhaft ein LED-, OLED-, Plasma- oder LC-Display. Vorteilhafterweise ist die Kamera in das Display integriert. Bevorzugt weist das Display zur Aufnahme der Kamera eine die Gesamtkontur unterbrechende Ausnehmung auf, so dass das die Kamera innerhalb der Displayaußenkontur angeordnet ist.
Eine vorteilhafte Weiterbildung zeichnet sich dadurch aus, dass das Steuergerät, sofern ein Signal S erzeugt ist, das Display zur Ausgabe einer optischen Information ansteuert, und wobei die Information den Fahrzeugnutzer darauf hinweist, seine Sitzposition und/oder eine Lenkradpositionsverstellung derart anzupassen, sodass die Positionen POSAI , POSA2 der Augen A1 , A2 einen freien Blick auf die Lichtquelle ermöglichen. Der Die hierzu ausgegebene optische Information wird vorteilhaft durch einen angezeigten Text und/oder durch zumindest ein/e entsprechende/s Hinweiszeichen/-graphik reprä- sentiert. Die Lichtquelle und die optisch ausgegebene Information sind vorteilhaft auf ei nem Display angezeigt. In einer alternativen Ausführungsform können diese mit unter schiedlichen Elementen erzeugt werden.
Eine vorteilhafte Weiterbildung der vorgeschlagenen Vorrichtung zeichnet sich dadurch aus, dass die Vorrichtung zusätzlich eine mit dem Steuergerät verbundene Audioausga- beeinheit aufweist, wobei das Steuergerät, sofern ein Signal S erzeugt ist, die Audioaus- gabeeinheit zur Ausgabe einer akustischen Information ansteuert, und wobei die Infor mation den Fahrzeugnutzer darauf hinweist, seine Sitzposition und/oder eine Lenkrad positionsverstellung derart anzupassen, sodass die Positionen POSAI , POSA2 der Augen A1 , A2 einen freien Blick auf die Lichtquelle ermöglichen. Die akustische Information kann beispielsweise ein Warnsignal und/oder ein gesprochener Text sein.
In einer vorteilhaften Weiterbildung der vorgeschlagenen Vorrichtung ist das Steuergerät dazu eingerichtet und ausgeführt, sofern ein Signal S erzeugt ist, auf Basis der vom Kopf des Fahrzeugnutzers gewonnen Bilddaten aktuelle Augenpositionen des
Fahrzeugnutzers zu prädizieren (d.h. auf Basis eines mathematischen Modells zu schätzen), und weiterhin auf Basis der prädizierten Augenpositionen Informationen zu erzeugen, die angeben, wie (d.h. nach unten/oben, vorne/hinten) die aktuelle
Sitzposition und/oder die aktuelle Lenkradposition zu verstellen ist/sind, sodass die Augen A1 , A2 freie Sicht auf die Kamera haben, bzw. in einem optimalen Raumbereich angeordnet sind. Die entsprechende Information hierzu wird vorteilhaft optisch und/oder akustisch ausgegeben.
Eine vorteilhafte Weiterbildung der vorgeschlagenen Vorrichtung zeichnet sich dadurch aus, dass die Vorrichtung zusätzlich einen Sitzsensor aufweist, mit dem eine Belegung eines Fahrzeugsitzes durch den Fahrzeugnutzer ermittelbar ist. Vorteilhaft wird die Vor richtung nur dann aktiviert, wenn der Sitzsensor die Belegung Fahrzeugsitzes ermittelt. Dies dient insbesondere zur Energieeinsparung und verlängert die Lebensdauer der ent sprechenden Komponenten. Des Weiteren werden für den Fall, dass der Fahrer seinen Fahrersitz verlassen hat, das Fahrzeug aber weiterhin durch Mitfahrer besetzt und die Vorrichtung bestromt ist, unnötige und irritierende optische und akustische Ausgaben vermieden. In einer vorteilhaften Weiterbildung sind Einzellichtquellen der Lichtquelle jeweils mit ei ner Blendenvorrichtung versehen, die von der jeweiligen Einzellichtquelle ausgehende Lichtstrahlen auf jeweils vorgegebene Raumwinkelbereiche begrenzt. Alternativ oder zu sätzlich zur Blendenvorrichtung sind die Einzellichtquellen mit einer entsprechenden Op tik kombiniert, die die von den jeweiligen Einzellichtquellen ausgehenden Lichtstrahlen auf einen jeweils vorgegebenen Raumwinkelbereich begrenzt, der zumindest mit dem Kameraerfassungsbereich übereinstimmt und diesen abdeckt.
Die vorgegebenen Raumwinkelbereiche der Einzellichtquellen überlappen sich vorteilhaft in einem Raumbereich. Vorteilhaft können die Augen A1 , A2 nur in diesem Raumbereich alle Einzellichtquellen gleichzeitig erkennen. Sofern sich die Augen A1 , A2 des Fahr zeugnutzers in diesem Raumbereich befinden, ergibt sich eine optimale Erfassbarkeit der Augen durch die Kamera, d.h. in diesem Raumbereich liegen insbesondere keine Verdeckungen der Augen durch beispielsweise den Lenkradkranz des Lenkrades des Fahrzeugs vor.
Der Fahrzeugnutzer wird somit durch die Aktivierung der Lichtquelle bzw. der Einzellicht quellen zunächst darauf hingewiesen, dass seine Augen nicht erkennbar sind, die Posi tion seiner Augen und/oder seine Blickrichtung aktuell nicht ermittelbar ist. Darüber hin aus wird dadurch der Fahrzeugnutzer angeregt, seine Sitzposition und/oder die Lenk radposition derart zu verändern, dass er die Lichtquelle bzw. alle Einzellichtquellen zeit gleich erkennt. Ist dies der Fall, so hat der Fahrzeugnutzer seine relative Position zur Kamera optimal eingestellt. Dies ist insbesondere für die Zuverlässigkeit und Funktionali tät aller Funktionen des Fahrzeugs relevant, die von der Ermittlung der Augenpositionen und/oder der Blickrichtung des Fahrzeugnutzers abhängen.
Vorteilhaft ist eine erste Einzellichtquelle links, eine zweite Einzellichtquelle rechts und/oder eine dritte Einzellichtquelle oberhalb und/oder eine vierte Einzellichtquelle un terhalb von der Kamera angeordnet. Durch diese Anordnung der Einzellichtquellen erge ben sich insbesondere einfache und intuitive Anweisungen zur Verstellung zumindest der Sitzposition oder die Einnahme einer richtigen Sitzposition auf dem Sitz. Erkennt der Fahrzeugnutzer nicht alle, beispielsweise die erste, zweite und vierte Einzellichtquelle, so ist dies ein Hinweis die Sitzverstellung derart zu ändern, dass der Kopf und mithin die Augen vertikal nach oben verfahren werden müssen, um auch die dritte Einzellichtquelle zu erkennen. Alternativ oder zusätzlich kann die Lenkradpositionsverstellung derart an- gepasst werden, dass alle vier Einzellichtquellen vom Fahrzeugnutzer gleichzeitig er kennbar sind. In alternativen Ausführungsformen ist nur die erste und zweite oder die erst, zweite und dritte Einzellichtquelle vorhanden. Alternativ sind jeweils mehrere erste, zweite, dritte und/oder vierte Einzellichtquellen der Kamera benachbart angeordnet.
Die Lichtquelle und/oder die Einzellichtquellen sind dabei derart angeordnet, dass eine von Sitzeinstellung und Körpermaßen eines Nutzers abhängiger durch Lenkrad und Be dienungselemente bestimmte potentielle durch das Lenkrad bewirkte Abschattung der Kamera in Bezug auf die Augen des Nutzers einen entsprechend eingeschränkten Blick des Nutzers auf die Lichtquelle oder die Einzellichtquellen bewirkt. Bevorzugt ist die Lichtquelle so angeordnet, dass diese nur teilweise von dem Lenkrad abgedeckt wird, so dass der Nutzer eine Aktivierung der Lichtquelle auf jeden Fall erkennen aber gleichfalls Einstellungen vornehmen kann, dass die gesamte Lichtquelle vollständig im Sichtbereich des Nutzers liegt und dadurch die vollständige, abschattungsfreie Erfassung der Bildda ten der Augen, Augenpositionen eines Fahrzeugnutzers und/oder einer aktuellen Blick richtung des Fahrzeugnutzers ermöglicht. Die Anordnung der Lichtquelle oder der Einzel lichtquellen in Bezug auf die Kamera sind damit abhängig von den geometrischen Ver hältnissen zwischen Fahrerabmessung, Lenkrad und Sitzeinstellung, wobei die Licht quelle oder die Einzellichtquellen damit der Kamera benachbart oder auch beabstandet angeordnet sein können. Die Anordnung gewährleistet, dass unabhängig vom Nutzer und dessen Einstellung von Sitz und Lenkrad die Lichtquelle oder mehrere Einzellicht quellen zumindest teilweise abgedeckt werden, sobald die Kamera aufgrund zumindest teilweiser Verdeckung durch das Lenkrad für die Funktion von Assistenzsystemen keine erforderlichen Bilddaten der Augen, keine erforderliche aktuelle Positionen POSAI , POSA2 der Augen A1 , A2 und/oder keine erforderliche Blickrichtung ausreichend erfassen kann.
Eine vorteilhafte Weiterbildung der vorgeschlagenen Vorrichtung zeichnet sich dadurch aus, dass die Steuereinheit derart ausgeführt und eingerichtet ist, dass sofern die Augen A1 , A2 von der Kamera nicht erfassbar sind, d.h. dass die Augen in den erzeugten Bild daten nicht ermittelbar sind, von einer Erfassung der Augenpositionen POSAI , POSA2 und oder von einer Ermittlung der aktuellen Blickrichtung abhängige Funktionen des Fahr zeugs abgeschaltet werden und eine Warnung an den Fahrzeugnutzer ausgegeben wird. Die Warnung ist vorteilhaft eine optisch und/oder akustisch ausgegebene War nung. Werden von der Kamera die Augen des Fahrzeugnutzers erfasst und können auf Basis der Bilddaten Augenpositionen POSAI , POSA2 bzw. eine aktuelle Blickrichtung des Fahr zeugnutzers ermittelt werden, dann wird vorteilhaft kein Signal S erzeugt und somit wird die Lichtquelle nicht aktiviert.
Die vorgeschlagene Vorrichtung ermöglicht somit eine zuverlässigere Ermittlung von Au genpositionen und/oder aktuellen Blickrichtungen von Fahrzeugnutzern. Die vorgeschla gene Vorrichtung kann als ein Fahrerassistenzsystem aufgefasst werden. Sie erzeugt im Falle von Objekten, die zwischen der Kamera und den Augen angeordnet sind und somit ein Erkennen der Augen in den Bilddaten verhindern, die Ausgabe zumindest einer opti schen Warnung durch das Aktivieren der Lichtquelle. Durch das Aktivieren der Lichtquel le ist es dem Fahrzeugnutzer möglich, eine optimale Einstellung der Sitzpositionsverstel lung bzw. der Lenkradpositionsverstellung durchzuführen, sodass die Ermittlung der Au genpositionen und/oder der Blickrichtung des Fahrzeugnutzers störungsfrei erfolgen kann.
Ein weiterer Aspekt der Erfindung betrifft ein Fahrzeug mit einer Vorrichtung, wie vorste hend beschrieben.
Eine vorteilhafte Weiterbildung des vorgeschlagenen Fahrzeugs zeichnet sich dadurch aus, dass das Fahrzeug ein Fahrerassistenzsystem mit zumindest einer von den Bildda ten der Augen, von den ermittelten Positionen POSAI , POSA2 der Augen A1 , A2 und/oder von einer Blickrichtung des Fahrzeugnutzers abhängigen Funktion aufweist. Diese Funk tion wird vorteilhaft dann abgeschaltet, wenn ein Signal S erzeugt wird, wobei in diesem Fall eine optisch und/oder akustisch und/oder haptisch für den Fahrzeugnutzer wahr nehmbare Warnung ausgegeben wird, welche den Fahrzeugnutzer darauf hinweist, dass die jeweilige Funktion aufgrund der Tatsache nicht weiter verfügbar ist, dass die Augen positionen und/oder die Blickrichtung des Fahrzeugnutzers aktuell nicht ermittelbar ist/sind.
Ein weiterer Aspekt der Erfindung betrifft ein Verfahren zur Ermittlung einer Position von Augen und/oder einer Blickrichtung eines Fahrzeugnutzers in einem Fahrzeug und ein Verfahren zum Betrieb einer Vorrichtung wie vorstehend beschrieben. Das vorgeschlagene Verfahren umfasst folgende Schritte. In einem ersten Schritt erfolgt durch eine Kamera ein Erfassen von Bilddaten eines Fahrzeuginnenraums. In einem zweiten Schritt erfolgt durch eine Bilddatenauswerteeinheit auf Basis der erfassten Bild daten ein Ermitteln der Bilddaten der Augen, der Positionen POSAI , POSA2 der Augen A1 , A2 (102) und/oder der aktuellen Blickrichtung des Fahrzeugnutzers. In einem dritten Schritt erfolgt durch ein Steuergerät, sofern keine aktuellen Positionen POSAI , POSA2 der Augen A1 , A2 und/oder keine Blickrichtung des Fahrzeugnutzers ermittelbar sind, ein Erzeugen eines Signals S, welches eine Lichtquelle aktiviert. Dabei weist die Lichtquelle eine oder mehrere Einzellichtquellen auf, die derart angeordnet und ausgeführt sind, dass die eine oder mehreren Einzellichtquellen nur dann von dem Fahrzeugnutzer er kannt
oder gleichzeitig erkannt werden können und damit vollständig sichtbar sind, wenn seine Augen A1 , A2, Augenpositionen und/oder seine aktuellen Blickrichtung von der Kamera unverdeckt erfassbar sind.
Eine vorteilhafte Weiterbildung des vorgeschlagenen Verfahrens zeichnet sich dadurch aus, dass sofern ein Signal S erzeugt ist und somit die Lichtquelle aktiviert wird, zusätz lich ein Display zur Ausgabe einer optischen Information angesteuert wird, wobei die In formation den Fahrzeugnutzer darauf hinweist, seine Sitzposition und/oder eine Lenk radpositionsverstellung derart anzupassen, sodass die Positionen POSAI , POSA2 der Au gen A1 , A2 einen freien Blick auf die Lichtquelle ermöglichen.
Eine vorteilhafte Weiterbildung des vorgeschlagenen Verfahrens zeichnet sich dadurch aus, dass sofern ein Signal S erzeugt ist und somit die Lichtquelle aktiviert wird, eine Audioausgabeeinheit zur Ausgabe einer akustischen Information angesteuert wird, und wobei die Information den Fahrzeugnutzer darauf hinweist, seine Sitzposition und/oder eine Lenkradpositionsverstellung derart anzupassen, sodass die Positionen POSAI , POSA2 der Augen A1 , A2 einen freien Blick auf die Lichtquelle ermöglichen.
Vorteile und vorteilhafte Weiterbildung des vorgeschlagenen Verfahrens ergeben sich durch eine analoge und sinngemäße Übertragung der zu der vorgeschlagenen Vorrich tung gemachten Ausführungen. Weitere Vorteile, Merkmale und Einzelheiten ergeben sich aus der nachfolgenden Be schreibung, in der - gegebenenfalls unter Bezug auf die Zeichnungen - zumindest ein Ausführungsbeispiel im Einzelnen beschrieben ist. Gleiche, ähnliche und/oder funktions gleiche Teile sind mit gleichen Bezugszeichen versehen.
Es zeigen:
Fig. 1 einen stark schematisierten Aufbau einer vorgeschlagenen Vorrichtung,
Fig. 2 eine schematisierte Ansicht auf ein Cockpit mit einer Vorrichtung gemäß Fig.1 und
Fig. 3 einen stark schematisierten Ablaufplan eines vorgeschlagenen Verfahrens.
Fig. 1 zeigt einen stark schematisierten Aufbau einer vorgeschlagenen Vorrichtung 100 zur Ermittlung von Augenpositionen eines Fahrzeugnutzers und/oder einer aktuellen Blickrichtung des Fahrzeugnutzers in einem Fahrzeug. Die Vorrichtung 100 umfasst in diesem Ausführungsbeispiel eine 4K-Videokamera 101 , mit der Bilddaten eines Fahr zeuginnenraums, d.h. eines Kopfes und Augen A1 , A2 102 des Fahrzeugnutzers er fassbar sind, eine Bilddatenauswerteeinheit 103, mit der auf Basis der erfassten Bildda ten Bilddaten der Augen, Positionen POSAI , POSA2 der Augen A1 , A2 102 und/oder die aktuelle Blickrichtung des Fahrzeugnutzers ermittelbar sind, und ein Steuergerät 106, das sofern keine Bilddaten der Augen, keine aktuellen Positionen POSAI , POSA2 der Au gen A1 , A2 und/oder keine Blickrichtung ermittelbar ist/sind, ein Signal S erzeugt, wel ches eine Lichtquelle 104 aktiviert.
Zur Vereinfachung sind in Fig. 1 drei vertikal verschiedene Positionen POSAI ', POSAI“, POSAI für nur das linke Auge A1 102 eines Fahrzeugnutzers relativ zur Kamera 101 dargestellt. Die Lichtquelle 104 weist drei vertikal übereinander angeordnete Einzellicht quellen 104 auf, welche in Form schwarzer Kreise dargestellt sind. Ein Erfassungsbe reich der Kamera 101 ist durch durchgezogene Linien ausgehend von der Kamera mar kiert. In der vertikal obersten Position POSAI ' wird die gleichzeitige Sicht des linken Au ges A1 102 auf alle drei vertikal übereinander angeordneten Einzellichtquellen 104 durch einen Lenkradkranz 110, der im Kreisquerschnitt dargestellt ist, blockiert. Aus dieser obersten Position POSAI‘ ist insbesondere die vertikal oberste Einzellichtquelle 104 für den Fahrzeugnutzer nicht erkennbar. Damit ist auch andererseits das linke Auge A1 102 in der POSAI‘ für die 4K-Videokamera 101 nicht erkennbar. Sofern sich die Augen A1 , A2 102 des Fahrzeugnutzers in diesem Beispiel an einer ver tikalen Position entsprechend POSAI‘ befinden, ist die Bilddatenauswerteeinheit 103 nicht in der Lage auf Basis der Bilddaten die Augen des Fahrzeugnutzers zu erkennen, Positionen POSAI , POSA2 der Augen A1 , A2 102 und/oder die aktuelle Blickrichtung des Fahrzeugnutzers zu ermitteln, sodass die Steuereinheit 106 ein Signal S erzeugt, das al le Einzellichtquellen 104 der Vorrichtung 100 aktiviert. Der Fahrzeugnutzer wird dadurch angeregt seine Sitzposition oder die Lenkradposition derart zu verändern, dass er freie Sicht auf alle einzelnen Lichtquellen 104 hat.
Weiterhin ist die Steuereinheit mit einem Display 107 zur Ausgabe einer optischen In formation verbunden. Sobald die Steuereinheit 106 das Signal S erzeugt, steuert diese das Display 107 zur Ausgabe einer optischen Information an, wobei die optische Infor mation den Fahrzeugnutzer darauf hinweist, seine Sitzposition und/oder eine Lenkrad positionsverstellung derart anzupassen, sodass die Positionen POSAI , POSA2 der Augen A1 , A2 einen freien Blick auf die Lichtquelle ermöglichen. Die optische Information ist vorzugsweise eine Grafik und/oder eine Textanweisung.
Fig. 2 zeigt eine gemäß dem Prinzip der Fig. 1 entsprechenden Anordnung aus einer Perspektive eines Fahrers. Gleiche Bauteile sind mit den gleichen Bezugszeichen wie in Fig. 1 gekennzeichnet. Der Fahrerblick ist auf ein vollflächiges Display 116 gerichtet, das Rundinstrumente 114, ein Anzeigefläche 107 und einen Anzeigebereich zur Darstellung der links und rechts der Kamera 101 angeordneten Einzellichtquellen 104 umfasst. Ne ben der Kamera 101 sind den Innenraum beleuchtende Lichtquellen 112, beispielsweise Infrarotlichtquellen, angeordnet. Die Kamera 101 und die Lichtquellen sind in einer Aus nehmung des Displays 116 angeordnet. Entsprechend der Situation in Fig. 1 ist die Ka mera 101 von dem Lenkradkranz 110 verdeckt, so dass die Augen A1 , A2 des Fahr zeugnutzers von der Kamera 101 nicht ungehindert erkennbar sind. Dementsprechend werden die Einzellichtquellen 104 aktiviert. Für eine uneingeschränkte Erkennung der Augen A1 , A2 hat der Fahrzeugnutzer seinen Sitz oder das Lenkrad so einzustellen, dass alle Einzellichtquellen sichtbar sind. Entsprechende Anweisungen werden auf der Anzeigefläche 107 angezeigt. Fig. 3 zeigt einen stark schematisierten Ablaufplan eines vorgeschlagenen Verfahrens zur Ermittlung von Augenpositionen eines Fahrzeugnutzers und/oder einer aktuellen Blickrichtung des Fahrzeugnutzers in einem Fahrzeug, mit folgenden Schritten.
In einem ersten Schritt 201 erfolgt durch eine Kamera 101 ein Erfassen von Bilddaten Fahrzeuginnenraums. In einem zweiten Schritt 202 erfolgt durch eine Bilddatenauswer- teeinheit 103 auf Basis der erfassten Bilddaten ein Ermitteln der Bilddaten der Augen A1 , A2, ein Ermitteln der Positionen POSAI , POSA2 der Augen A1 , A2 und/oder der Blick richtung des Fahrzeugnutzers. Sind die Bilddaten der Augen A1 , A2, Positionen POSAI , POSA2 der Augen A1 , A2 und/oder die aktuelle Blickrichtung des Fahrzeugnutzers nicht oder nur ungenügend ermittelbar, so erfolgt in einem dritten Schritt 203 ein Erzeugen 203 eines Signals S durch ein Steuergerät 106, welches eine Lichtquelle 104 aktiviert.
Obwohl die Erfindung im Detail durch bevorzugte Ausführungsbeispiele näher illustriert und erläutert wurde, so ist die Erfindung nicht durch die offenbarten Beispiele
eingeschränkt und andere Variationen können vom Fachmann hieraus abgeleitet werden, ohne den Schutzumfang der Erfindung zu verlassen. Es ist daher klar, dass eine Vielzahl von Variationsmöglichkeiten existiert. Es ist ebenfalls klar, dass beispielhaft genannte Ausführungsformen wirklich nur Beispiele darstellen, die nicht in irgendeiner Weise als Begrenzung etwa des Schutzbereichs, der Anwendungsmöglichkeiten oder der Konfiguration der Erfindung aufzufassen sind. Vielmehr versetzen die
vorhergehende Beschreibung und die Figurenbeschreibung den Fachmann in die Lage, die beispielhaften Ausführungsformen konkret umzusetzen, wobei der Fachmann in Kenntnis des offenbarten Erfindungsgedankens vielfältige Änderungen, beispielsweise hinsichtlich der Funktion oder der Anordnung einzelner, in einer beispielhaften
Ausführungsform genannter Elemente, vornehmen kann, ohne den Schutzbereich zu verlassen, der durch die Ansprüche und deren rechtliche Entsprechungen, wie etwa weitergehenden Erläuterungen in der Beschreibung, definiert wird.

Claims

Daimler AG Patentansprüche
1. Vorrichtung (100) zur Ermittlung von Bilddaten der Augen, Augenpositionen eines Fahrzeugnutzers und/oder einer aktuellen Blickrichtung des Fahrzeugnutzers in einem Fahrzeug, umfassend:
eine Kamera (101), mit der Bilddaten erfassbar sind,
eine Bilddatenauswerteeinheit (103), mit der auf Basis der erfassten Bildda ten der Augen A1 , A2 (102), Positionen POSAI , POSA2 der Augen A1 , A2 (102) und/oder die aktuelle Blickrichtung des Fahrzeugnutzers ermittelbar sind, und
ein Steuergerät (106), das, sofern keine Bilddaten der Augen, keine aktuel len Positionen POSAI , POSA2 der Augen A1 , A2 und/oder keine Blickrichtung ermittelbar ist/sind, ein Signal S erzeugt, welches eine Lichtquelle (104) akti viert, wobei die Lichtquelle (104) eine oder mehrere Einzellichtquellen auf weist, die derart angeordnet und ausgeführt sind, dass die eine oder mehre ren Einzellichtquellen nur dann vollständig von dem Fahrzeugnutzer sichtbar oder vollständig gleichzeitig sichtbar sind, wenn seine Augen A1 , A2 (102) , Augenpositionen und/oder seine aktuellen Blickrichtung von der Kamera (101) unverdeckt erfassbar sind.
2. Vorrichtung (100) nach Anspruch 1 ,
die Lichtquelle (104) ein oder mehrere Pixel eines mit dem Steuergerät (106) ver bundenen Display (107) umfasst.
3. Vorrichtung (100) nach einem der Ansprüche 1 oder 2,
das Steuergerät (106), sofern ein Signal S erzeugt ist, zur Ausgabe einer opti schen Information eine Ausgabeeinheit vorzugsweise das Display (107) ansteuert, und wobei die Information den Fahrzeugnutzer darauf hinweist, seine Sitzposition und/oder eine Lenkradpositionsverstellung derart anzupassen, sodass die Positio- nen POSAI , POSA2 der Augen A1 , A2 einen freien Blick auf die Lichtquelle ermögli chen.
4. Vorrichtung (100) nach einem der Ansprüche 1 bis 3,
zusätzlich umfassend eine mit dem Steuergerät (106) verbundene Audioausgabe- einheit (108), wobei das Steuergerät (106), sofern ein Signal S erzeugt ist, die Au- dioausgabeeinheit (108) zur Ausgabe einer akustischen Information ansteuert, und wobei die Information den Fahrzeugnutzer darauf hinweist, seine Sitzposition und/oder eine Lenkradpositionsverstellung derart anzupassen, sodass die Positio nen POSAI , POSA2 der Augen A1 , A2 einen freien Blick auf die Lichtquelle ermög lichen
5. Vorrichtung (100) nach einem der Ansprüche 1 bis 4,
zusätzlich aufweisend einen Sitzsensor, mit dem eine Belegung eines Fahrzeug sitzes durch den Fahrzeugnutzer ermittelbar ist, wobei die Vorrichtung (100) nur dann aktiviert ist, sofern der Sitzsensor die Belegung Fahrzeugsitzes ermittelt.
6. Vorrichtung nach den Ansprüchen 1 bis 5,
bei der eine erste Einzellichtquelle links, eine zweite Einzellichtquelle rechts und/oder eine dritte Einzellichtquelle oberhalb, eine vierte Einzellichtquelle unter halb von der Kamera (101) angeordnet sind, und sich die jeweils begrenzten Ab strahlbereiche der vier Einzellichtquellen nur in einem Bereich RB überschneiden.
7. Vorrichtung (100) nach einem der Ansprüche 1 bis 6,
bei der die Steuereinheit (106) derart ausgeführt und eingerichtet ist, dass sofern die Augen A1 , A2 von der Kamera (101) nicht erfassbar sind, von einer Erfassung der Augen A1 , A2 abhängige Funktionen des Fahrzeugs abgeschaltet werden und eine Warnung an den Fahrzeugnutzer ausgegeben wird.
8. Fahrzeug mit einer Vorrichtung nach einem der Ansprüche 1 bis 7.
9. Verfahren zur Erkennung von Augen eines Fahrzeugnutzers, Ermittlung von Au genpositionen eines Fahrzeugnutzers und/oder einer aktuellen Blickrichtung des Fahrzeugnutzers in einem Fahrzeug, mit den Schritten:
durch eine Kamera (101) Erfassen (201) von Bilddaten,
durch eine Bilddatenauswerteeinheit (103) auf Basis der erfassten Bilddaten Ermitteln (202) der Bilddaten der Augen A1 , A2 (102), Positionen POSAI , POSA2 der Augen A1 , A2 (102) und/oder der aktuellen Blickrichtung des Fahrzeugnutzers, und
durch ein Steuergerät (106), sofern keine Bilddaten der Augen, keine aktuel len Positionen POSAI , POSA2 der Augen A1 , A2 und/oder keine Blickrichtung ermittelbar ist/sind, Erzeugen (203) eines Signals S, welches eine Lichtquel le (104) aktiviert, wobei die Lichtquelle (104) eine oder mehrere Einzellicht quellen aufweist, die derart angeordnet und ausgeführt sind, dass die eine oder mehreren Einzellichtquellen nur dann vollständig von dem Fahrzeug nutzer sichtbar oder gleichzeitig sichtbar sind, wenn seine Augen A1 , A2 (102) , Augenpositionen und/oder seine aktuellen Blickrichtung von der Ka mera (101) unverdeckt erfassbar sind.
PCT/EP2020/067868 2019-07-03 2020-06-25 Vorrichtung und verfahren zur ermittlung von bilddaten der augen, augenpositionen oder einer blickrichtung eines fahrzeugnutzers WO2021001258A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US17/597,254 US11881054B2 (en) 2019-07-03 2020-06-25 Device and method for determining image data of the eyes, eye positions and/or a viewing direction of a vehicle user in a vehicle
CN202080048000.2A CN114041174A (zh) 2019-07-03 2020-06-25 用于在车辆内确定车辆使用者的眼睛图像数据、眼睛位置和/或视向的装置和方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102019004692.7A DE102019004692B3 (de) 2019-07-03 2019-07-03 Vorrichtung und Verfahren zur Ermittlung von Bilddaten der Augen, von Augenpositionen und/oder einer Blickrichtung eines Fahrzeugnutzers in einem Fahrzeug
DE102019004692.7 2019-07-03

Publications (1)

Publication Number Publication Date
WO2021001258A1 true WO2021001258A1 (de) 2021-01-07

Family

ID=71409381

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2020/067868 WO2021001258A1 (de) 2019-07-03 2020-06-25 Vorrichtung und verfahren zur ermittlung von bilddaten der augen, augenpositionen oder einer blickrichtung eines fahrzeugnutzers

Country Status (4)

Country Link
US (1) US11881054B2 (de)
CN (1) CN114041174A (de)
DE (1) DE102019004692B3 (de)
WO (1) WO2021001258A1 (de)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019004692B3 (de) * 2019-07-03 2020-11-12 Daimler Ag Vorrichtung und Verfahren zur Ermittlung von Bilddaten der Augen, von Augenpositionen und/oder einer Blickrichtung eines Fahrzeugnutzers in einem Fahrzeug
CN114495510A (zh) * 2022-04-15 2022-05-13 四川九通智路科技有限公司 一种高速公路物联网行车安全管理***及方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1767407A1 (de) * 2005-09-27 2007-03-28 IEE INTERNATIONAL ELECTRONICS & ENGINEERING S.A. Sitzbelegungssensoranordnung
DE102014203444A1 (de) * 2014-02-26 2015-08-27 Application Solutions (Electronics and Vision) Ltd. Vorrichtung und Verfahrung zur Ermittlung eines Augenzustands eines Fahrzeuginsassen
US20180099612A1 (en) * 2016-10-06 2018-04-12 Gentex Corporation Rearview assembly with occupant detection

Family Cites Families (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004014628A1 (de) * 2004-03-25 2005-10-13 Daimlerchrysler Ag Multifunktions-Anzeigevorrichtung
DE102005004511A1 (de) * 2005-01-31 2006-08-10 Daimlerchrysler Ag Verfahren zur Spurverlasswarnung bei Überholvorgängen
DE102005008566A1 (de) * 2005-02-23 2005-09-15 Daimlerchrysler Ag Sichtgerät für Kraftfahrzeuge
JP2008094221A (ja) * 2006-10-11 2008-04-24 Denso Corp 目状態検出装置および目状態検出装置の取り付け方法
JP4926766B2 (ja) * 2007-03-13 2012-05-09 アイシン精機株式会社 撮影範囲調節装置、撮影範囲調節方法及びコンピュータプログラム
JP4519891B2 (ja) * 2007-08-10 2010-08-04 株式会社日本自動車部品総合研究所 車両情報報知装置
KR100921092B1 (ko) * 2008-07-04 2009-10-08 현대자동차주식회사 스티어링 휠에 장착된 카메라를 이용하는 운전자 상태 감시시스템
DE102012005674A1 (de) * 2012-03-21 2013-04-18 Daimler Ag Anzeigevorrichtung und Verfahren zum lenkwinkelabhängigen Darstellen von Informationen
DE102012010757A1 (de) * 2012-05-31 2012-12-06 Daimler Ag Beleuchtungsvorrichtung für ein Fahrzeug
US9150238B2 (en) * 2012-06-04 2015-10-06 GM Global Technology Operations LLC System and method for automatically adjusting a steering tilt position
US9751534B2 (en) * 2013-03-15 2017-09-05 Honda Motor Co., Ltd. System and method for responding to driver state
US10277837B2 (en) * 2013-11-05 2019-04-30 Visteon Global Technologies, Inc. System and method for monitoring a driver of a vehicle
DE102013020699A1 (de) * 2013-11-28 2015-05-28 Daimler Ag Parkassistenzsystem und Verfahren zur Fahrerunterstützung bei Parkmanövern
CN106028913B (zh) 2014-02-19 2018-03-30 三菱电机株式会社 显示控制装置、显示控制装置的显示控制方法
DE102014008808A1 (de) * 2014-06-11 2014-11-27 Daimler Ag Verfahren zur Absicherung der Übertragung von sicherheitsrelevanten Kamerabildern
DE102014221039A1 (de) * 2014-10-16 2016-04-21 Robert Bosch Gmbh Steuergerät für ein Kraftfahrzeug mit Kamera für Fahrergesicht und Verfahren zum Aufnehmen des Gesichtes eines Fahrzeuginsassen
DE102014018397A1 (de) * 2014-12-11 2015-06-18 Daimler Ag Bedieneinheit für ein Kraftfahrzeug zum Bedienen einer Mehrzahl an unterschiedlichen Funktionen
DE102015207982A1 (de) 2015-04-30 2016-11-03 Robert Bosch Gmbh Kombiinstrument für ein Fahrzeug, Verfahren zum Erfassen eines Fahrers eines Fahrzeugs mittels eines Kombiinstruments und Steuergerät
GB2539467A (en) * 2015-06-17 2016-12-21 Ford Global Tech Llc A method for adjusting a component of a vehicle
DE102015013081A1 (de) * 2015-10-08 2016-04-28 Daimler Ag Displayanordnung für ein Fahrzeug und Verfahren zum Verstellen eines Displays
DE102015016649A1 (de) * 2015-12-19 2016-07-28 Daimler Ag Verfahren zur automatischen Einstellung einer entspiegelten Oberfläche eines Displays in einem Fahrzeug
DE102016002289A1 (de) * 2016-02-25 2016-08-11 Daimler Ag Verfahren zur Beobachtung eines Fahrers eines Fahrzeugs
CN108698513B (zh) * 2016-03-02 2019-06-18 富士胶片株式会社 投影型显示装置、投影控制方法及记录介质
DE102016005473A1 (de) * 2016-05-03 2017-02-09 Daimler Ag Verfahren zur Steuerung von mindestens einer Beleuchtungseinheit in einem Fahrgastraum eines Fahrzeuges
EP3249497A1 (de) * 2016-05-24 2017-11-29 Harman Becker Automotive Systems GmbH Augenverfolgung
DE102016011141A1 (de) * 2016-09-15 2017-04-13 Daimler Ag Verfahren zur Überwachung eines Zustandes zumindest eines Insassen eines Fahrzeuges
DE102016012343A1 (de) * 2016-10-14 2017-05-04 Daimler Ag Verfahren zur Terminverwaltung in einem Fahrzeug
US11713048B2 (en) * 2017-05-08 2023-08-01 Joyson Safety Systems Acquisition Llc Integration of occupant monitoring systems with vehicle control systems
DE102017009515A1 (de) * 2017-10-12 2018-03-29 Daimler Ag Verfahren zur Routenplanung
KR20190050227A (ko) * 2017-11-02 2019-05-10 현대자동차주식회사 운전자 자세 제어 장치 및 방법
DE102017010866A1 (de) * 2017-11-24 2019-05-29 Daimler Ag Verfahren zum Betreiben eines Fahrzeugs
US10776644B1 (en) * 2018-03-07 2020-09-15 State Farm Mutual Automobile Insurance Company Image analysis technologies for assessing safety of vehicle operation
DE102018004277A1 (de) * 2018-05-29 2018-10-18 Daimler Ag Verfahren zum Betrieb einer Fahrerkamera eines Fahrzeuges
DE102018004007A1 (de) * 2018-06-21 2018-11-08 Daimler Ag Verfahren zur Einstellung einer mittels einer Lichtquelle einer Fahrerkamera erzeugten Beleuchtung in einem Fahrzeug
DE102018213254A1 (de) * 2018-08-08 2020-02-13 Bayerische Motoren Werke Aktiengesellschaft Beleuchtungsvorrichtung, insbesondere für ein Kraftfahrzeug
WO2020055992A1 (en) * 2018-09-11 2020-03-19 NetraDyne, Inc. Inward/outward vehicle monitoring for remote reporting and in-cab warning enhancements
JP7290930B2 (ja) * 2018-09-27 2023-06-14 株式会社アイシン 乗員モデリング装置、乗員モデリング方法および乗員モデリングプログラム
WO2020087352A1 (en) * 2018-10-31 2020-05-07 SZ DJI Technology Co., Ltd. Method and apparatus for controlling a lighting system of a vehicle
JP6894880B2 (ja) * 2018-11-07 2021-06-30 矢崎総業株式会社 監視システム
US10852822B2 (en) * 2019-05-01 2020-12-01 Aptiv Technologies Limited Display method
DE102019004167A1 (de) * 2019-06-12 2020-12-17 Daimler Ag Verfahren zur Optimierung der Bedienung einer optischen Anzeige
DE102019004692B3 (de) * 2019-07-03 2020-11-12 Daimler Ag Vorrichtung und Verfahren zur Ermittlung von Bilddaten der Augen, von Augenpositionen und/oder einer Blickrichtung eines Fahrzeugnutzers in einem Fahrzeug

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1767407A1 (de) * 2005-09-27 2007-03-28 IEE INTERNATIONAL ELECTRONICS & ENGINEERING S.A. Sitzbelegungssensoranordnung
DE102014203444A1 (de) * 2014-02-26 2015-08-27 Application Solutions (Electronics and Vision) Ltd. Vorrichtung und Verfahrung zur Ermittlung eines Augenzustands eines Fahrzeuginsassen
US20180099612A1 (en) * 2016-10-06 2018-04-12 Gentex Corporation Rearview assembly with occupant detection

Also Published As

Publication number Publication date
US20220319200A1 (en) 2022-10-06
US11881054B2 (en) 2024-01-23
DE102019004692B3 (de) 2020-11-12
CN114041174A (zh) 2022-02-11

Similar Documents

Publication Publication Date Title
EP1182089B1 (de) Verfahren zur Warnung eines Fahrers eines Fahrzeugs
DE102007023141B4 (de) Verfahren zur Einstellung und/oder Nachstellung wenigstens eines Komfort-und/oder Sicherheitssystems in einem Kraftfahrzeug sowie Kraftfahrzeug
DE102007045932B4 (de) Verfahren und Vorrichtung zur Warnung eines Fahrers eines Fahrzeuges
DE102015219111B4 (de) Fahrerassistenzsystem und Verfahren zur Anpassung der Beleuchtung von Bedienelementen bei Kraftfahrzeugen
DE102015201456B4 (de) Verfahren und System zur Ausgabe einer Warnmeldung in einem Fahrzeug
DE102009041187A1 (de) Verfahren und Vorrichtung zur Adaption von Parametern eines Fahrerassistenzsystems
EP3409551B1 (de) Verfahren und vorrichtung zur unterstützung eines in einem fahrzeug befindlichen fahrzeuginsassen
DE102016208410A1 (de) Verfahren und Vorrichtung zum Betreiben eines Signalsystems, Signalsystem, Fahrzeug
DE102013011311B4 (de) Verfahren zum Betreiben eines Informationssystems eines Kraftwagens und Informationssystem für einen Kraftwagen
DE10024227A1 (de) Verfahren und Einrichtung zur elektronischen Überwachung des Aufmerksamkeitsgrades
DE102015003847A1 (de) Verfahren und Fahrerassistenzsystem zum Erfassen und Signalisieren von Lichtsignalen von wenigstens einer Lichtsignaleinrichtung einer Wechsellichtzeichenanlage
EP3622709A1 (de) Verfahren und vorrichtung zur ortsaufgelösten detektion von einem fahrzeugexternen objekt mithilfe eines in einem fahrzeug verbauten sensors
DE102013222584A1 (de) Optisches Wiedergabe- und Erkennungssystem in einem Fahrzeug
DE102017213177A1 (de) Verfahren zum Betreiben eines Bildschirms eines Kraftfahrzeugs sowie Kraftfahrzeug
EP3621848A1 (de) Verfahren und system zur steuerung bzw. zum trainieren des fahrverhaltens eines fahrers über dessen blicklenkung
WO2021001258A1 (de) Vorrichtung und verfahren zur ermittlung von bilddaten der augen, augenpositionen oder einer blickrichtung eines fahrzeugnutzers
DE102019201407A1 (de) Verfahren und Vorrichtung zum Steuern der Aufmerksamkeit eines Fahrers
DE102012218114B4 (de) Verfahren zum Ausrichten mindestens eines Rückspiegels eines Kraftfahrzeugs
DE102012018556B4 (de) Assistenzsystem zur Ermöglichung einer erweiterten Vorausschau für nachfolgende Verkehrsteilnehmer
EP3583488B1 (de) Automatisierte aktivierung eines sichtunterstützungssystems
DE102017103391A1 (de) Verfahren zur Verbesserung der Benutzerfreundlichkeit eines Fahrzeugs
DE102013203653A1 (de) Außenbildeinblendung für Center Display
DE102017011498B4 (de) Verfahren zum Betreiben eines Assistenzsystems und ein Assistenzsystem für einen Kraftwagen
DE102019220012A1 (de) Verfahren zum Betreiben einer Anzeigeeinheit eines Fahrzeugs und Anzeigeeinheit
DE102016011141A1 (de) Verfahren zur Überwachung eines Zustandes zumindest eines Insassen eines Fahrzeuges

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20735522

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20735522

Country of ref document: EP

Kind code of ref document: A1