FR2997046A1 - DRIVING ASSISTANCE SYSTEM AND METHOD FOR MANAGING IT - Google Patents

DRIVING ASSISTANCE SYSTEM AND METHOD FOR MANAGING IT Download PDF

Info

Publication number
FR2997046A1
FR2997046A1 FR1360322A FR1360322A FR2997046A1 FR 2997046 A1 FR2997046 A1 FR 2997046A1 FR 1360322 A FR1360322 A FR 1360322A FR 1360322 A FR1360322 A FR 1360322A FR 2997046 A1 FR2997046 A1 FR 2997046A1
Authority
FR
France
Prior art keywords
vehicle
gesture
assistance system
driver
driving assistance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1360322A
Other languages
French (fr)
Other versions
FR2997046B1 (en
Inventor
Heiko Freienstein
Wolfgang Niem
Markus Koenning
Dietrich Manstetten
Roland Galbas
Markus Sauer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Publication of FR2997046A1 publication Critical patent/FR2997046A1/en
Application granted granted Critical
Publication of FR2997046B1 publication Critical patent/FR2997046B1/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3664Details of the user input interface, e.g. buttons, knobs or sliders, including those provided on a touch screen; remote controllers; input using gestures
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/146Instrument input by gesture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/149Instrument input by detecting viewing direction not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/176Camera images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/21Optical features of instruments using cameras
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Transportation (AREA)
  • Combustion & Propulsion (AREA)
  • Chemical & Material Sciences (AREA)
  • Mechanical Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Optics & Photonics (AREA)
  • Traffic Control Systems (AREA)
  • Eye Examination Apparatus (AREA)
  • Instrument Panels (AREA)

Abstract

Système d'assistance de conduite (12) pour un véhicule, notamment un véhicule automobile (1) comportant une installation de saisie de geste (14) pour saisir un geste indicateur d'une main et/ou du doigt d'une personne, notamment du conducteur du véhicule ainsi qu'une installation de saisie de l'environnement détectant des objets (8-11) à l'extérieur du véhicule. Le système d'assistance de conduite est caractérisé par une installation de saisie de la direction du regard (15) qui saisit au moins un œil de la personne et une installation d'exploitation (13) qui, en fonction de l'œil saisi et du geste indicateur, sélectionne un objet (8-11) situé à l'extérieur du véhicule et affiche des informations par une installation d'affichage (19).A driving assistance system (12) for a vehicle, in particular a motor vehicle (1) comprising a gesture capture device (14) for grasping a gesture indicative of a hand and / or the finger of a person, in particular the driver of the vehicle as well as an environment capture device detecting objects (8-11) outside the vehicle. The driver assistance system is characterized by a gaze direction capturing device (15) which captures at least one eye of the person and an operating installation (13) which, depending on the eye seized and of the indicator gesture, selects an object (8-11) located outside the vehicle and displays information by a display facility (19).

Description

Domaine de l'invention La présente invention se rapporte à un système d'assistance de conduite pour un véhicule, notamment un véhicule automobile comportant une installation de saisie de geste pour saisir un geste indicateur d'une main et/ou du doigt d'une personne, notamment du conducteur du véhicule ainsi qu'une installation de saisie de l'environnement détectant des objets à l'extérieur du véhicule. L'invention se rapporte également à un procédé de ges- tion d'un système d'assistance de conduite, selon lequel on saisit un geste indicateur d'une main et/ou d'un doigt d'une personne, notam- ment du conducteur du véhicule et on détermine des objets à l'extérieur du véhicule. Etat de la technique Selon l'état de la technique, on connaît des systèmes d'assistance de conduite et leur procédé de gestion ou de fonctionne- ment. C'est ainsi que par exemple le document DE 10 2009 046 376 Al décrit un système d'assistance de conduite avec un affichage tête haute (encore appelé affichage HUD) pour présenter des informations sur le pare-brise du véhicule. Il comporte un dispositif d'entrée avec au moins un capteur fonctionnant sans contact et qui sert dans la région de l'habitacle du véhicule à enregistrer les gestes de la main et/ou du doigt du conducteur pour entrer des données. Il est en outre prévu une installation de saisie de l'environnement pour saisir les objets de l'environnement à l'extérieur du véhicule et les représenter schémati- quement dans la plage de vue du conducteur à l'aide de l'afficheur tête haute. Ce document prévoit de marquer les objets de l'environnement, visibles par le conducteur, de façon à leur donner une fonction par rapport au système d'assistance de conduite. Par un geste indicateur, le conducteur peut par exemple désigner ou sélectionner un objet ou le nom d'une localité sur l'image de la chaussée sans avoir à détourner son regard de la direction de regard proprement dite, c'est-à-dire la direction de conduite. Ce dispositif a pour but d'augmenter la sécurité de l'utilisation du système d'assistance de conduite.FIELD OF THE INVENTION The present invention relates to a driving assistance system for a vehicle, in particular a motor vehicle comprising a gesture capture device for grasping a gesture indicative of a hand and / or the finger of a person, including the driver of the vehicle as well as an environment capture facility detecting objects outside the vehicle. The invention also relates to a method for managing a driving assistance system, according to which an indication gesture is taken of a hand and / or a finger of a person, in particular the driver of the vehicle and objects are determined outside the vehicle. STATE OF THE ART According to the state of the art, driver assistance systems and their method of management or operation are known. Thus, for example, document DE 10 2009 046 376 A1 describes a driving assistance system with a head-up display (also called HUD display) for presenting information on the windshield of the vehicle. It comprises an input device with at least one sensor operating without contact and which is used in the vehicle cabin area to record the hand gestures and / or the finger of the driver to enter data. In addition, an environment capture system is provided for capturing objects from the environment outside the vehicle and schematically representing them in the driver's viewing range using the head-up display. . This document provides for marking the objects of the environment, visible to the driver, so as to give them a function with respect to the driving assistance system. By an indicating gesture, the driver can, for example, designate or select an object or the name of a locality on the image of the roadway without having to look away from the viewing direction proper, that is to say driving direction. This device is intended to increase the safety of the use of the driver assistance system.

Exposé et avantages de l'invention La présente invention a pour obje t u n système d'assistance de conduite du type défini ci-dessus caractérisé par une installation de saisie de regard qui saisit au moins un oeil de la per- sonne et une installation d'exploitation qui, en fonction de Fceil saisi et du geste indicateur, sélectionne un objet situé à l'extérieur du véhicule et affiche des informations par une installation d'affichage. Le système d'assistance de conduite selon l'invention a l'avantage d'informer le conducteur de manière simple pour un objet déterminé dans son environnement et la précision de la sélection de l'objet est ainsi considérablement améliorée par comparaison avec les possibilité de l'état de la technique. Le système d'assistance de conduite selon l'invention se caractérise comme indiqué ci-dessus par une installation de saisie du regard qui saisit la position et/ou la direction du regard d'au moins un oeil de la personne, c'est-à-dire du conducteur et qui, par une installation d'exploitation, sélectionne en fonction de la direction de regard saisie et/ou de la position de Fceil et du geste indicateur, un objet à l'extérieur du véhicule et affiche des informations à l'aide d'une installa- tion d'affichage. Selon l'invention, l'affichage des informations ne se produit que si le conducteur, par un geste ou un regard, sélectionne un objet dans l'environnement du véhicule. En tenant compte à la fois de la direction du regard et/ou de la position et aussi du geste indicateur, on peut déterminer un axe directionnel que la personne ou le conducteur dirige vers l'objet souhaité de façon que l'objet se trouve sur cet axe directionnel. De façon préférentielle, comme geste indicateur, on saisit la position de la pointe du doigt avec une installation de saisie de geste.DESCRIPTION AND ADVANTAGES OF THE INVENTION The object of the present invention is to provide a driving assistance system of the type defined above, characterized by a sight capture installation which captures at least one eye of the person and an installation of operation which, depending on the inputted device and the indicator gesture, selects an object located outside the vehicle and displays information by a display facility. The driving assistance system according to the invention has the advantage of informing the driver in a simple manner for a specific object in its environment and the accuracy of the selection of the object is thus considerably improved compared with the possibility of the state of the art. The driving assistance system according to the invention is characterized as indicated above by a sight capture installation which captures the position and / or the direction of the gaze of at least one eye of the person, that is, driver and who, by means of an operating installation, selects, depending on the direction of view and / or the position of the aircraft and the indicator gesture, an object outside the vehicle and displays information at using a display installation. According to the invention, the information display occurs only if the driver, by a gesture or a look, selects an object in the environment of the vehicle. By taking into account both the direction of the gaze and / or the position and also the indicating gesture, it is possible to determine a directional axis that the person or the conductor directs towards the desired object so that the object is on this directional axis. Preferably, as an indicator gesture, the position of the tip of the finger is grasped with a gesture capture installation.

De façon préférentielle, l'installation d'exploitation, à partir de la posi- tion de la pointe du doigt et de la position de Pceil, définit l'axe directionnel. La personne doit ainsi, à partir de la sélection d'un objet qui se trouve dans son champ de vision et avec la pointe du doigt désignant l'objet, générer un axe directionnel et sélectionner l'objet.Preferably, the operating installation, from the position of the tip of the finger and the position of Pceil, defines the directional axis. The person must, from the selection of an object that is in his field of vision and with the tip of the finger designating the object, generate a directional axis and select the object.

Selon un développement préférentiel de l'invention, en plus on saisit la direction du regard d'un oeil ou des deux yeux de la personne, c'est-à-dire du conducteur, et le cas échéant, on la compare avec l'axe directionnel pour contrôler la plausibilité de la sélection de l'objet. Selon un développement préférentiel de l'invention, l'installation de saisie de l'environnement est un système de navigation. Les données de l'environnement ne sont pas saisies de ce fait par une caméra vidéo ou un moyen analogue mais elles sont fournies d'une ma- nière purement virtuelle par le système de navigation du véhicule. A l'aide de la position actuelle du véhicule, dans le système de coordonnées globales du système de navigation, on définit la position du véhicule sur une carte virtuelle et de la même manière, on détermine les objets dans l'environnement du véhicule à l'aide des données cartogra- phiques du système de navigation. Les objets eux-mêmes ne sont pas affichés séparément pour le conducteur. On saisit uniquement son axe directionnel et on le compare avec les objets réels à l'aide de la carte virtuelle du système de navigation pour sélectionner un objet qui se situe dans la ligne d'intérêt du conducteur. L'installation d'exploitation est de préférence reliée au système de navigation pour saisir les données cartographiques et transmettre de préférence l'axe directionnel déterminé préalablement vers le système de navigation qui enregistre l'axe directionnel dans la carte virtuelle et permet ainsi de définir un objet situé sur cet axe direc- tionnel. Selon un développement avantageux de l'invention, l'installation de saisie de gestes et/ou l'installation de saisie du regard comportent au moins un capteur optique, notamment un détecteur d'approche ou de proximité, une caméra vidéo, une installation radar, un détecteur infrarouge, une barrière lumineuse et/ou un capteur à ultrasons. La détermination sans contact ainsi possible pour l'axe directionnel, facilite considérablement la sélection de certains objets de l'environnement pour le conducteur. De façon préférentielle, l'installation d'affichage est un af- ficheur ou un dispositif d'affichage tête haute. Comme les objets eux- mêmes ne sont pas affichés pour le conducteur, il suffit en principe d'avoir un afficheur simple pour afficher les informations souhaitées concernant l'objet sélectionné. Si des informations doivent être affichées en superposition dans le sens d'un affichage tête haute analogue à un contact pour le monde réel, il est avantageux d'utiliser le système d'affichage tête haute. De façon particulièrement préférentielle, l'installation d'exploitation tient compte de la position du véhicule, de la direction de circulation et/ou de la vitesse de circulation du véhicule pour sélection- ner l'objet. En tenant compte des grandeurs ainsi indiquées qui pro- viennent par exemple également du système de navigation, on aura une direction plus précise de l'axe directionnel dans la carte du système de navigation. En sélectionnant en outre, en fonction de la position du véhicule, on ne tient compte que des objets visibles qui peuvent être sélec- tionnés de sorte que parmi les objets situés dans l'axe directionnel, on ne sélectionne que ceux qui sont dans la plage de visibilité du conducteur et non pas d'autres objets cachés situés entre le conducteur et l'objet sélectionné. L'invention a également pour objet un procédé du type défini ci-dessus caractérisé en ce qu'on saisit au moins un oeil de la personne et en fonction de Pceil et du geste indicateur, on sélectionne un objet et on affiche des informations concernant l'objet sélectionné. Le procédé selon l'invention se caractérise ainsi en ce qu'en fonction de la position et/ou de la direction du regard d'au moins un oeil ou d'un geste indicateur de la personne, on sélectionne un objet et on affiche les informations relatives à l'objet sélectionné. Si par exemple le conducteur du véhicule désigne, pendant la conduite, un objet dans l'environnement, l'installation d'exploitation évoquée ci-dessus détermine un axe directionnel, notamment comme décrit ci- dessus, en fonction de la position et/ou de la direction du regard et du geste indicateur pour déterminer l'objet situé sur l'axe directionnel comme objet à sélectionner. De façon préférentielle, on détermine les objets à l'aide d'un système de navigation s'appuyant sur une carte. L'affichage de l'objet sélectionné lui-même ou de tous les objets qui se trouvent dans le champ de vision du conducteur n'est pas nécessaire. A partir des données cartographiques existant dans la plupart des véhicules automobiles et provenant d'un système de navigation, on peut déterminer de manière simple les objets situés dans l'environnement. Comme fré- quemment dans les systèmes de navigation à carte, on a déjà des in- formations relatives aux objets, il suffit d'afficher ces informations pour le conducteur, ce qui se fait de manière simple. Suivant une autre caractéristique avantageuse, l'axe di- rectionnel déterminé est transmis au système de navigation et l'objet situé au point d'intersection de l'axe directionnel et d'un objet visible dans l'environnement sera ainsi déterminé, ce qui permet de définir de manière simple les objets que le conducteur pourra sélectionner. Dans le cas le plus simple, on sélectionne l'objet le plus proche du conducteur.According to a preferred development of the invention, in addition, the direction of the gaze of one or both eyes of the person, that is to say the driver, is grasped, and if necessary, it is compared with the directional axis to control the plausibility of the selection of the object. According to a preferred development of the invention, the environment capture installation is a navigation system. The data of the environment is not captured by a video camera or the like, but is provided in a purely virtual way by the vehicle's navigation system. Using the current position of the vehicle, in the global coordinate system of the navigation system, the position of the vehicle is defined on a virtual map and in the same manner, the objects in the vehicle environment are determined at the same time. map data from the navigation system. The objects themselves are not displayed separately for the driver. It only captures its directional axis and is compared with the real objects using the virtual map of the navigation system to select an object that is in the line of interest of the driver. The operating installation is preferably connected to the navigation system for entering the map data and preferably transmitting the directional axis determined beforehand to the navigation system which records the directional axis in the virtual map and thus makes it possible to define a object located on this directional axis. According to an advantageous development of the invention, the gesture capture installation and / or the gaze capture installation comprise at least one optical sensor, in particular an approach or proximity detector, a video camera, a radar installation , an infrared detector, a light barrier and / or an ultrasonic sensor. The non-contact determination thus possible for the directional axis considerably facilitates the selection of certain objects from the environment for the driver. Preferably, the display installation is a display or a head-up display device. As the objects themselves are not displayed to the driver, in principle it is sufficient to have a simple display to display the desired information about the selected object. If information is to be superimposed in the direction of a head-like contact-like display for the real world, it is advantageous to use the head-up display system. In a particularly preferred manner, the operating installation takes into account the position of the vehicle, the direction of movement and / or the speed of movement of the vehicle to select the object. Taking into account the quantities thus indicated, which come for example also from the navigation system, there will be a more precise direction of the directional axis in the map of the navigation system. Furthermore, by selecting, depending on the position of the vehicle, only visible objects which can be selected are selected so that among the objects in the directional axis only those in the range are selected. visibility of the driver and not other hidden objects located between the driver and the selected object. The invention also relates to a method of the type defined above characterized in that it captures at least one eye of the person and according to Pceil and gesture indicator, one selects an object and displays information about the selected object. The method according to the invention is thus characterized in that, depending on the position and / or the direction of the gaze of at least one eye or a gesture indicative of the person, an object is selected and the information about the selected object. If for example the driver of the vehicle designates, while driving, an object in the environment, the operating installation mentioned above determines a directional axis, especially as described above, depending on the position and / or the direction of the gaze and the gesture to determine the object on the directional axis as the object to be selected. Preferably, the objects are determined using a navigation system based on a map. The display of the selected object itself or of all objects in the driver's field of view is not necessary. From the map data available in most motor vehicles and from a navigation system, objects in the environment can be determined in a simple manner. As is often the case in card-based navigation systems, information about the objects is already available. This information is simply displayed to the driver, which is simple. According to another advantageous characteristic, the determined vertical axis is transmitted to the navigation system and the object situated at the point of intersection of the directional axis and an object visible in the environment will thus be determined, which allows to define in a simple way the objects that the driver can select. In the simplest case, the closest object to the driver is selected.

Selon un développement avantageux de l'invention, on détermine la position et/ou la direction du regard de Fceil et le geste indicateur, notamment la position de la pointe du doigt dans les trois dimensions de l'espace. Il est également prévu de définir l'axe directionnel résistant dans les trois directions de l'espace de sorte que l'on déter- mine ainsi notamment la hauteur indiquée par la personne pour sélec- tionner l'objet parmi des objets situés l'un derrière l'autre dans l'axe directionnel et qui correspond ainsi à la hauteur d'affichage du conducteur. Cela permet au conducteur ou à la personne de déterminer de manière simple un objet qui peut être partiellement caché par un objet situé devant celui-ci. Dessins La présente invention sera décrite ci-après de manière plus détaillée à l'aide d'un système d'assistance de conduite et d'un procédé de gestion d'un tel système représentés dans les dessins an- nexés dans lesquels : - la figure 1 est une vue de dessus simplifiée d'un véhicule et de son environnement, et la figure 2 est une représentation très schématique d'un système d'assistance de conduite équipant un véhicule automobile.35 Description de modes de réalisation de l'invention La figure 1 montre un véhicule automobile 1 circulant sur une chaussée 2 dans la direction de la flèche 3. Dans l'environnement proche du véhicule 1, il y a plusieurs immeubles 4, 5, 6, 7 représentés à titre d'exemple et qui constituent chacun un objet 8, 9, 10, 11. Le véhicule 1 est équipé d'un système d'assistance de conduite 12 représenté très schématiquement à la figure 2. Le système d'assistance de conduite 12 comporte une installation d'exploitation 13 constituée par exemple par un appareil de commande. L'installation d'exploitation 13 est reliée à une installation de saisie de geste 14 et à une installation de saisie de la direction du regard 15 ; l'installation de saisie de geste 14 et l'installation de saisie de la direction du regard 15 peuvent également être regroupées en une unique installation de sur- veillance de l'intérieur de l'habitacle du véhicule. L'installation de saisie de regard 15 et l'installation de saisie de geste 14 ont toutes deux un capteur optique 16, 17 pour déterminer la position et/ou la direction du regard d'au moins un oeil du conducteur ainsi que le geste indicateur à l'aide de la position de la main et/ou du doigt et/ou de leur mouvement. Selon une variante d'exemple de réalisation non représentée ici, l'installation de saisie de la direction du regard 14 et/ou l'installation de saisie de la direction du doigt 15 utilisent un capteur commun 16 ou 17 qui saisit à la fois la position et/ou la direction du regard de Fceil et aussi le geste indicateur du conducteur. L'installation d'exploitation 13 est reliée à un système de navigation 18 pour effectuer un échange de données. L'installation d'exploitation 13 est également reliée à une installation d'affichage 19 utilisée pour afficher certaines informations. L'installation d'affichage 19 est par exemple l'afficheur du tableau de bord du véhicule 1 ou un affichage tête haute. Si le conducteur du véhicule 1 désigne, comme l'indique la figure 1, un objet 8, alors le capteur 16 détecte la position d'au moins un oeil du conducteur et le capteur 17 celui du geste indicateur. Il est prévu que pour la saisie du geste indicateur, on saisit la pointe du doigt de la main qui effectue le geste et on détermine sa position dans l'habitacle du véhicule. La position de Fceil et celle de la pointe du doigt correspondent à une droite qui est l'axe directionnel 20, ce qui permet au conducteur, de sélectionner, de manière simple un certain objet en ce qu'il dirige sa vue avec la pointe du doigt. L'axe directionnel 20 est défini par rapport au véhicule automobile 1 et en particulier on détermine aussi, la position du véhicule automobile 1, sa vitesse actuelle ainsi que sa direction de circulation. L'axe directionnel 20 qui en résulte est transmis par l'installation d'exploitation 13 au système de naviga- tion 18 pour l'enregistrer virtuellement dans la carte du système de na- vigation 18. Les données du véhicule définies préalablement, telles que la vitesse, la position du véhicule et la direction de circulation, permettent de positionner l'axe directionnel 20 sur la carte du système de navigation 18.According to an advantageous development of the invention, the position and / or the direction of the gaze of the eye and the indicating gesture, in particular the position of the point of the finger in the three dimensions of the space, are determined. It is also intended to define the directional axis resistant in the three directions of the space so that it determines in particular the height indicated by the person to select the object among objects located one. behind the other in the directional axis and thus corresponds to the display height of the driver. This allows the driver or person to easily determine an object that can be partially hidden by an object in front of it. Drawings The present invention will be described hereinafter in more detail with the help of a driving assistance system and a method of managing such a system shown in the appended drawings in which: FIG. 1 is a simplified top view of a vehicle and its environment, and FIG. 2 is a very diagrammatic representation of a driving assistance system fitted to a motor vehicle. DESCRIPTION OF EMBODIMENTS OF THE INVENTION FIG. 1 shows a motor vehicle 1 traveling on a roadway 2 in the direction of arrow 3. In the environment close to vehicle 1, there are several buildings 4, 5, 6, 7 represented by way of example and which each constitutes an object 8, 9, 10, 11. The vehicle 1 is equipped with a driver assistance system 12 shown very schematically in Figure 2. The driver assistance system 12 comprises an operating installation 13 constitute eg by a control device. The operating installation 13 is connected to a gesture capture installation 14 and to a sight direction capture installation 15; the gesture capture installation 14 and the sight direction capture installation 15 can also be grouped into a single monitoring system of the interior of the passenger compartment of the vehicle. The gaze capture device 15 and the gesture capture device 14 both have an optical sensor 16, 17 for determining the position and / or direction of the gaze of at least one eye of the driver as well as the indicating gesture. using the position of the hand and / or the finger and / or their movement. According to a variant of embodiment not shown here, the capture installation of the direction of view 14 and / or the gripping installation of the direction of the finger 15 use a common sensor 16 or 17 which captures both the position and / or the direction of gaze of Fceil and also the signal gesture of the driver. The operating installation 13 is connected to a navigation system 18 to perform a data exchange. The operating installation 13 is also connected to a display installation 19 used to display certain information. The display installation 19 is for example the display of the vehicle dashboard 1 or a head-up display. If the driver of the vehicle 1 designates, as indicated in Figure 1, an object 8, then the sensor 16 detects the position of at least one eye of the driver and the sensor 17 that of the indicator gesture. It is expected that for the capture of the indicator gesture, we seize the tip of the finger of the hand that performs the gesture and determine its position in the passenger compartment of the vehicle. The position of the finger and the point of the finger correspond to a straight line which is the directional axis 20, which allows the driver to select, in a simple manner, a certain object in that he directs his view with the tip of the finger. The directional axis 20 is defined with respect to the motor vehicle 1 and in particular is also determined, the position of the motor vehicle 1, its current speed and its direction of movement. The resulting directional axis 20 is transmitted by the operating installation 13 to the navigation system 18 for virtual recording in the navigation system map 18. The previously defined vehicle data, such as the speed, the position of the vehicle and the direction of movement, allow to position the directional axis 20 on the map of the navigation system 18.

Le système de navigation 18 est avantageusement réalisé pour qu'en plus des informations de la chaussée, il contienne également des informations d'objet. C'est ainsi qu'actuellement, on connaît des systèmes de navigation permettant la sélection d'un point intéressant POT. Ces objets définis sont en général assortis d'autres informations telles qu'un numéro de téléphone, un nom ou le cas échéant, même des informations de fond dans la carte du système de navigation qui peut ainsi les afficher à la demande. Si l'installation d'exploitation 13 saisit que l'axe directionnel 20 passe par l'objet 8, alors cet objet 8 sera sélectionné et des informations connues seront présentées par l'installation d'affichage 19. Le système d'assistance de conduite 12 offre ainsi une base pour une combinaison de la direction du regard et du geste indicateur, rapportés à des objets du monde réel permettant une sélection d'informations très étendues concernant cet objet sans que le conducteur doive tout d'abord sélectionner manuellement l'objet (par contact) à l'aide d'un système d'entrée approprié. La relation avec le monde réel offre au conducteur une possibilité de sélection particulièrement simple. De façon préférentielle, l'axe directionnel 20, comme indiqué ci-dessus, est défini à partir de la position de Pceil et de la position de la pointe du doigt dans les trois directions de l'espace. Cela garantit que le conducteur puisse désigner un objet situé derrière un autre objet mais aussi de sélectionner des objets plus grands. Cela permet au conducteur de sélectionner même un objet situé derrière un autre objet dans la mesure où cet objet est au moins en partie visible. Pour cela, on tient également compte du niveau de l'axe directionnel ou de l'angle de hauteur de l'axe directionnel. De façon préférentielle, on exploite pour cela les informations d'altitude du système de navigation. Lorsqu'un objet est sélectionné et que les positions cor- respondantes sont affichées, par un autre dialogue avec le système d'assistance de conduite, on peut par exemple utiliser l'information affi- chée, par exemple pour programmer le système de navigation. Selon un autre exemple de réalisation non représenté, en plus de la position, on saisit également la direction du regard de Fceil ou celle des deux yeux de la personne/conducteur pour contrôler la plausibilité de l'objet. C'est ainsi que de préférence, on détermine la direc- tion du regard comme axe de visée et on compare le point d'intersection de l'axe de visée et de l'axe directionnel avec la position de l'objet sélectionné. Si le point d'intersection et la position de l'objet sont apparemment très différents, il sera demandé par exemple au conducteur de redésigner l'objet par un geste indicateur. Comme pour exécuter le geste indicateur, le conducteur doit également se diriger vers l'objet, on saisit ainsi automatiquement la position correcte et/ou la direction de visée de Fceil ou des yeux pour déterminer l'axe directionnel.25 NOMENCLATURE DES ELEMENTS PRINCIPAUX 1 Véhicule automobile 2 Route/chaussée 3 Flèche de marche-avant 4, 5, 6, 7 Immeubles 8, 9, 10, 11 Objets 12 Système d'assistance de conduite 13 Installation d'exploitation 14 Installation de saisie de geste Installation de saisie de la direction du regard 16, 17 Capteurs optiques 18 Système de navigation 19 Installation d'affichage 15 20 Axe directionnelThe navigation system 18 is advantageously designed so that in addition to the information of the roadway, it also contains object information. Thus, currently, there are known navigation systems for selecting an interesting point POT. These defined objects usually have other information such as a phone number, a name, or even some background information in the navigation system map that can display them on demand. If the operating installation 13 grasps that the directional axis 20 passes through the object 8, then this object 8 will be selected and known information will be presented by the display facility 19. The driving assistance system 12 thus provides a basis for a combination of the gaze direction and the indicator gesture, related to real-world objects allowing a selection of very extensive information concerning this object without the driver having first to manually select the object (by contact) using an appropriate input system. The relationship with the real world offers the driver a particularly simple selection option. Preferably, the directional axis 20, as indicated above, is defined from the position of Pceil and the position of the tip of the finger in the three directions of space. This ensures that the driver can designate an object behind another object but also select larger objects. This allows the driver to select even an object located behind another object to the extent that this object is at least partially visible. For this, we also take into account the level of the directional axis or the height angle of the directional axis. Preferably, the altitude information of the navigation system is used for this purpose. When an object is selected and the corresponding positions are displayed, by another dialogue with the driver assistance system, it is possible, for example, to use the information displayed, for example to program the navigation system. According to another embodiment not shown, in addition to the position, it also captures the direction of gaze of the eye or that of the two eyes of the person / driver to control the plausibility of the object. Thus, preferably, the direction of the gaze is determined as the line of sight and the point of intersection of the line of sight and the directional axis is compared with the position of the selected object. If the point of intersection and the position of the object are apparently very different, for example the driver will be asked to redesign the object by a gesture indicator. As for performing the indicator gesture, the driver must also move towards the object, thus automatically grasping the correct position and / or direction of sight of the eye or eyes to determine the directional axis.25 NOMENCLATURE OF THE MAIN ELEMENTS 1 Motor Vehicle 2 Road / Roadway 3 Forward Arrow 4, 5, 6, 7 Buildings 8, 9, 10, 11 Objects 12 Driver Assistance System 13 Operating Installation 14 Gesture Input Installation Data Entry Facility the direction of gaze 16, 17 Optical sensors 18 Navigation system 19 Display installation 15 20 Directional axis

Claims (10)

REVENDICATIONS1°) Système d'assistance de conduite (12) pour un véhicule, notamment un véhicule automobile (1) comportant une installation de saisie de geste (14) pour saisir un geste indicateur d'une main et/ou du doigt d'une personne, notamment du conducteur du véhicule ainsi qu'une installation de saisie de l'environnement détectant des objets (8-11) à l'extérieur du véhicule, système d'assistance de conduite caractérisé par une installation de saisie de regard (15) qui saisit au moins un oeil de la personne et une installation d'exploitation (13) qui, en fonc- tion de Fceil saisi et du geste indicateur, sélectionne un objet (8-11) situé à l'extérieur du véhicule et affiche des informations par une installation d'affichage (19).CLAIMS 1 °) A driving assistance system (12) for a vehicle, in particular a motor vehicle (1) comprising a gesture capture device (14) for grasping an indicating gesture of a hand and / or the finger of a person, in particular of the driver of the vehicle and an environmental detection system detecting objects (8-11) on the outside of the vehicle, driving assistance system characterized by a sighting installation (15) which captures at least one eye of the person and an operating installation (13) which, depending on the seized device and the indicating gesture, selects an object (8-11) located outside the vehicle and displays information by a display facility (19). 2°) Système d'assistance de conduite selon la revendication 1, caractérisé en ce que l'installation de saisie de l'environnement est un système de navigation (18).2) A driving assistance system according to claim 1, characterized in that the environment capture installation is a navigation system (18). 3°) Système d'assistance de conduite selon la revendication 1, caractérisé en ce que l'installation de saisie de geste (14) et/ou l'installation de saisie de direction du regard (15) comportent un capteur optique (16, 17), notamment un détecteur de proximité, une caméra vidéo, une installation radar, un capteur infrarouge, une barrière lumineuse et/ou un capteur à ultrasons.Driver's assistance system according to Claim 1, characterized in that the gesture-capturing device (14) and / or the gaze-direction acquisition device (15) comprise an optical sensor (16, 17), in particular a proximity detector, a video camera, a radar installation, an infrared sensor, a light barrier and / or an ultrasonic sensor. 4°) Système d'assistance de conduite selon la revendication 1, caractérisé en ce que l'installation d'affichage (19) est un afficheur ou un affichage tête haute.Driving assistance system according to claim 1, characterized in that the display device (19) is a display or a head-up display. 5°) Système d'assistance de conduite selon la revendication 1, caractérisé en ce quepour le choix de l'objet (8-11), l'installation d'exploitation (13) tient compte de la direction de circulation, de la vitesse de circulation et/ou de la position du véhicule.Driving assistance system according to Claim 1, characterized in that for the purpose of selecting the object (8-11), the operating installation (13) takes into account the direction of travel, the speed circulation and / or the position of the vehicle. 6°) Procédé de gestion d'un système d'assistance de conduite (12), no- tamment selon l'une quelconque des revendications 1 à 5, selon lequel on saisit un geste indicateur d'une main et/ou d'un doigt d'une personne, notamment du conducteur du véhicule et on détermine des objets (8-11) à l'extérieur du véhicule, procédé caractérisé en ce qu' on saisit au moins un oeil de la personne et en fonction de Fceil et du geste indicateur, on sélectionne un objet (8-11) et on affiche des informations concernant l'objet sélectionné (8).6 °) A method of managing a driving assistance system (12), in particular according to any one of claims 1 to 5, according to which an indication gesture of a hand and / or a finger of a person, in particular of the driver of the vehicle and objects (8-11) are determined outside the vehicle, characterized in that at least one eye of the person is seized and depending on the indicating gesture, selecting an object (8-11) and displaying information about the selected object (8). 7°) Procédé selon la revendication 6, caractérisé en ce qu' on déterminer les objets à l'aide d'un système de navigation (18).Method according to Claim 6, characterized in that the objects are determined by means of a navigation system (18). 8°) Procédé selon la revendication 6, caractérisé en ce qu' en fonction de la position saisie et/ou de la direction du regard d'au moins un oeil et du geste indicateur, on détermine un axe directionnel (20).8 °) Method according to claim 6, characterized in that depending on the entered position and / or the direction of gaze of at least one eye and the indicator gesture, a directional axis (20) is determined. 9°) Procédé selon la revendication 7, caractérisé en ce qu' on transmet l'axe directionnel (20) au système de navigation (18) et on détermine l'objet sélectionné (8) au point d'intersection de l'axe directionnel (20) et d'un objet (8-11) dans l'environnement du véhicule, no- tamment un objet visible.Method according to Claim 7, characterized in that the directional axis (20) is transmitted to the navigation system (18) and the selected object (8) is determined at the point of intersection of the directional axis. (20) and an object (8-11) in the vehicle environment, including a visible object. 10°) Procédé selon la revendication 6, caractérisé en ce qu' on détermine la position et/ou la direction du regard de Fceil et du geste indicateur dans les trois directions de l'espace.10 °) A method according to claim 6, characterized in that one determines the position and / or the direction of gaze of the eye and gesture indicator in the three directions of space.
FR1360322A 2012-10-23 2013-10-23 DRIVING ASSISTANCE SYSTEM AND METHOD FOR MANAGING IT Expired - Fee Related FR2997046B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102012219280.8 2012-10-23
DE201210219280 DE102012219280A1 (en) 2012-10-23 2012-10-23 Driver assistance system for motor car, has evaluating device selecting and displaying information of objects located outside of vehicle through display device in response to detected eye and pointing gesture of hand and/or finger of person

Publications (2)

Publication Number Publication Date
FR2997046A1 true FR2997046A1 (en) 2014-04-25
FR2997046B1 FR2997046B1 (en) 2018-01-05

Family

ID=50437041

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1360322A Expired - Fee Related FR2997046B1 (en) 2012-10-23 2013-10-23 DRIVING ASSISTANCE SYSTEM AND METHOD FOR MANAGING IT

Country Status (3)

Country Link
CN (1) CN103770734A (en)
DE (1) DE102012219280A1 (en)
FR (1) FR2997046B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180062769A1 (en) * 2016-09-01 2018-03-01 Hyundai Motor Company Motion detecting apparatus, motion detecting method and motion detecting antenna

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012005886B4 (en) * 2012-03-23 2023-02-16 Audi Ag Method for operating an operating device of a motor vehicle
US9189692B2 (en) 2014-02-14 2015-11-17 GM Global Technology Operations LLC Methods and systems for detecting driver attention to objects
DE102014008687A1 (en) * 2014-06-12 2015-12-17 GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) Method for displaying vehicle surroundings information of a motor vehicle
WO2016064361A1 (en) * 2014-10-23 2016-04-28 Tofas Turk Otomobil Fabrikasi Anonim Sirketi A rear view system
DE102015201735A1 (en) 2015-02-02 2016-08-04 Bayerische Motoren Werke Aktiengesellschaft Gesture and eye position-based adjustment of the positioning position of a subject of a motor vehicle subsystem, in particular adjustment of the lower limit of the darkening portion of an electric-optical sun visor
DE102015201728A1 (en) 2015-02-02 2016-08-04 Bayerische Motoren Werke Aktiengesellschaft Method for selecting an operating element of a motor vehicle and operating system for a motor vehicle
DE102015201730A1 (en) 2015-02-02 2016-08-04 Bayerische Motoren Werke Aktiengesellschaft Method for selecting an operating element of a motor vehicle and operating system for a motor vehicle
US20170088165A1 (en) * 2015-09-29 2017-03-30 GM Global Technology Operations LLC Driver monitoring
US20170176207A1 (en) * 2015-12-17 2017-06-22 Jaguar Land Rover Limited In vehicle system and method for providing information regarding points of interest
JP6439735B2 (en) * 2016-04-14 2018-12-19 トヨタ自動車株式会社 Driving support device
US20170350718A1 (en) * 2016-06-03 2017-12-07 Toyota Motor Sales, U.S.A., Inc. Information-attainment system based on monitoring an occupant
DE102016007388A1 (en) 2016-06-17 2016-12-08 Daimler Ag Device and method for detecting gestures of a user of a vehicle
CN106585532B (en) * 2016-11-30 2019-08-13 惠州华阳通用电子有限公司 A kind of inside-automobile rear mirror video switching method and device
DE102017113763B4 (en) * 2017-06-21 2022-03-17 SMR Patents S.à.r.l. Method for operating a display device for a motor vehicle and motor vehicle
DE102017211089A1 (en) 2017-06-29 2019-01-03 Bayerische Motoren Werke Aktiengesellschaft Device for a motor vehicle for communication with another motor vehicle and / or for autonomous tracking of another motor vehicle
US10880023B2 (en) * 2018-08-03 2020-12-29 Gracenote, Inc. Vehicle-based media system with audio advertisement and external-device action synchronization feature
JP2020052875A (en) * 2018-09-28 2020-04-02 株式会社デンソー Gesture input apparatus
CN111284325B (en) * 2018-12-10 2022-04-15 博泰车联网科技(上海)股份有限公司 Vehicle, vehicle equipment and vehicle along-the-road object detailed information display method thereof
DE102019204542A1 (en) * 2019-04-01 2020-10-01 Volkswagen Aktiengesellschaft Method and device for interaction with an environmental object in the vicinity of a vehicle
JP2020199848A (en) * 2019-06-07 2020-12-17 本田技研工業株式会社 Driver state detection device
DE102019210758B4 (en) * 2019-07-19 2021-05-12 Volkswagen Aktiengesellschaft Provision and transmission of position data of the surroundings of a motor vehicle

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004081777A1 (en) * 2003-03-10 2004-09-23 Koninklijke Philips Electronics N.V. Multi-view display
JP2005138755A (en) * 2003-11-07 2005-06-02 Denso Corp Device and program for displaying virtual images
US20100274480A1 (en) * 2009-04-27 2010-10-28 Gm Global Technology Operations, Inc. Gesture actuated point of interest information systems and methods
DE102009046376A1 (en) 2009-11-04 2011-05-05 Robert Bosch Gmbh Driver assistance system for automobile, has input device including manually operated control element that is arranged at steering wheel and/or in area of instrument panel, where area lies in direct vicinity of wheel
EP2441635B1 (en) * 2010-10-06 2015-01-21 Harman Becker Automotive Systems GmbH Vehicle User Interface System

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180062769A1 (en) * 2016-09-01 2018-03-01 Hyundai Motor Company Motion detecting apparatus, motion detecting method and motion detecting antenna
US10816657B2 (en) * 2016-09-01 2020-10-27 Hyundai Motor Company Motion detecting apparatus, motion detecting method and motion detecting antenna

Also Published As

Publication number Publication date
DE102012219280A1 (en) 2014-04-24
FR2997046B1 (en) 2018-01-05
CN103770734A (en) 2014-05-07

Similar Documents

Publication Publication Date Title
FR2997046A1 (en) DRIVING ASSISTANCE SYSTEM AND METHOD FOR MANAGING IT
US20160039285A1 (en) Scene awareness system for a vehicle
CA2598165C (en) Method of operating a night-view system in a vehicle and corresponding night-view system
FR2952012A1 (en) VEHICLE DRIVER ASSISTANCE SYSTEM EQUIPPED WITH DATA ENTRY DEVICE
FR3015700A1 (en) SYSTEM AND METHOD FOR CONTROLLING THE BRIGHTNESS OF A HIGH HEAD DISPLAY AND DISPLAY USING THE SAME
FR2958741A1 (en) METHOD AND INFORMATION SYSTEM FOR MARKING A DESTINATION IN A VEHICLE
FR2993844A1 (en) METHOD FOR ASSISTING THE DRIVER OF A VEHICLE
FR3063557A1 (en) DEVICE FOR DETERMINING THE ATTENTION STATUS OF A VEHICLE DRIVER, ONBOARD SYSTEM COMPRISING SUCH A DEVICE, AND ASSOCIATED METHOD
CN109278642A (en) Vehicle backing map security
EP3681151A1 (en) Image processing device, image processing method, and image display system
EP2043044B1 (en) Method and device for automobile parking assistance
EP1936330B1 (en) Method and system for processing and visualising images of the surroundings of an aircraft
FR2942064A1 (en) Method for alerting driver of motor vehicle e.g. bus, during event occurred on back side of vehicle, involves displaying pictogram in form of contour of visible part of reflection of vehicle on glass of rear-view mirrors
FR2938660A1 (en) CONTROL METHOD AND APPARATUS FOR DETERMINING THE PHOTOMETRIC PARAMETERS OF THE PROJECTION OF A SIGN
FR2979300A1 (en) DEVICE FOR ESTIMATING A FUTURE TRACK OF A VEHICLE AND ASSOCIATING IT WITH PARTS WHICH INCLUDES DIFFERENT ASPECTS ACCORDING TO THEIR POSITIONS IN RELATION TO AN OBSTACLE, FOR A DRIVING ASSISTANCE SYSTEM
EP3643552B1 (en) Method for driving assistance, associated system and vehicle
FR2962583A1 (en) METHOD AND DEVICE FOR ASSISTING A VEHICLE DRIVER FOR A DRIVING MANEUVER
EP3629074A1 (en) Head-up display system, associated display method and computer program product
EP3867126B1 (en) Method and device for assisting with driving a motor vehicle during reversing
FR3060775A1 (en) METHOD FOR DETERMINING A DISPLAY AREA OF AN ELEMENT IN A DISPLAY DEVICE
US20240116530A1 (en) Object detection system
FR3123490A1 (en) Method for managing the display of the lateral safety distance to be observed by a motor vehicle in the event of overtaking a vulnerable road user
FR3124872A1 (en) Electronic device and method for displaying data on a display screen, associated display system, vehicle and computer program
WO2024132690A1 (en) In-vehicle immersive-reality system
EP3008664B1 (en) Method and system for monitoring objects in motion

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4

PLSC Publication of the preliminary search report

Effective date: 20170324

PLFP Fee payment

Year of fee payment: 5

PLFP Fee payment

Year of fee payment: 6

PLFP Fee payment

Year of fee payment: 7

ST Notification of lapse

Effective date: 20210605