FR3140845A1 - Procédé et dispositif de détermination d’un état d’attention d’un conducteur d’un véhicule - Google Patents

Procédé et dispositif de détermination d’un état d’attention d’un conducteur d’un véhicule Download PDF

Info

Publication number
FR3140845A1
FR3140845A1 FR2210617A FR2210617A FR3140845A1 FR 3140845 A1 FR3140845 A1 FR 3140845A1 FR 2210617 A FR2210617 A FR 2210617A FR 2210617 A FR2210617 A FR 2210617A FR 3140845 A1 FR3140845 A1 FR 3140845A1
Authority
FR
France
Prior art keywords
vehicle
data
occupant
state
attention
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
FR2210617A
Other languages
English (en)
Inventor
Gaetan Perrotte
Clement Bougard
Jean Louis Vercher
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aix Marseille Universite
Centre National de la Recherche Scientifique CNRS
PSA Automobiles SA
Original Assignee
Aix Marseille Universite
Centre National de la Recherche Scientifique CNRS
PSA Automobiles SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aix Marseille Universite, Centre National de la Recherche Scientifique CNRS, PSA Automobiles SA filed Critical Aix Marseille Universite
Priority to FR2210617A priority Critical patent/FR3140845A1/fr
Publication of FR3140845A1 publication Critical patent/FR3140845A1/fr
Pending legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • B60W30/143Speed control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • B60W30/16Control of distance between vehicles, e.g. keeping a distance to preceding vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0818Inactivity or incapacity of driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/221Physiology, e.g. weight, heartbeat, health or special needs
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/223Posture, e.g. hand, foot, or seat position, turned or inclined
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/229Attention level, e.g. attentive to driving, reading or sleeping

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)

Abstract

La présente invention concerne un procédé et un dispositif de de détermination d’un état d’attention d’un occupant d’un véhicule (10). A cet effet, des premières données représentatives d’une posture de l’occupant et des deuxièmes données représentatives d’une variable physiologique de l’occupant sont reçues depuis au moins un capteur embarqué dans le véhicule (10). Des troisièmes données représentatives d’un état d’attention de l’occupant sont alors déterminées en fonction des premières données et des deuxièmes données. Figure pour l’abrégé : Figure 1

Description

Procédé et dispositif de détermination d’un état d’attention d’un conducteur d’un véhicule
La présente invention concerne les procédés et dispositifs d’aide à la conduite. La présente invention concerne également un procédé et un dispositif de détermination d’un état attention d’un conducteur d’un véhicule, notamment un véhicule autonome.
Arrière-plan technologique
La sécurité routière fait partie des enjeux importants de nos sociétés. Avec l’augmentation du nombre de véhicules circulant sur les réseaux routiers du monde entier, et ce quelle que soient les conditions de circulation, les risques d’accidents et d’incidents provoqués par les conditions de circulation n’ont jamais été aussi importants.
L’automatisation croissante de la conduite des véhicules amène également à la conception de véhicules autonomes, c’est-à-dire de véhicules dont la conduite est, au moins en partie, gérée par un ou plusieurs systèmes automatiques.
Un problème récurrent dans le domaine de la sécurité routière concerne la somnolence au volant, c’est-à-dire la perte d’attention et de vigilance du conducteur résultant d’un état de conscience altéré, notamment par la fatigue. Un tel problème est également exacerbé dans le cadre de véhicules autonomes, le véhicule circulant sans nécessairement solliciter l’attention du conducteur.
Il est ainsi connu, afin de détecter la somnolence d’un conducteur d’un véhicule, de suivre alternativement des données associées au comportement de conduite du véhicule, par exemple la durée de conduite, le franchissement accidentel de lignes de la route, la déviation latérale du véhicule par rapport à une voie de circulation, ou encore des données associées aux mouvements oculaires et/ou de tête du conducteur du véhicule, par exemple le taux d’ouverture des yeux du conducteur ou encore la durée et la fréquence de clignement des yeux.
La détection de la somnolence à partir de telles données manque cependant de fiabilité. En particulier, les informations sur le conducteur du véhicule sont généralement obtenues de caméra embarquées dans l’habitacle du véhicule et vulnérables aux situations de conduite, par exemple les changements de luminosité, les vibrations, les mouvements des autres parties du corps du conducteur.
En outre, dans le cadre de véhicules autonomes ou semi-autonomes, l’emploi de données véhicules de manière à déterminer l’état de vigilance du conducteur devient obsolète, les comportements sur lesquels se basent la détection de somnolence devenant pris en charge par le véhicule. Lors d’une conduite en mode autonome, le conducteur peut également changer son comportement ou son orientation dans le véhicule, par exemple en s’impliquant dans une autre tâche, se plaçant alors hors de la zone de capture des caméras embarquées.
Dans ces conditions, les systèmes embarqués de détection de somnolence deviennent inopérants et incapables de détecter la somnolence du conducteur de manière fiable.
Résumé de la présente invention
Un objet de la présente invention est de résoudre au moins l’un des problèmes de l’arrière-plan technologique décrit précédemment.
Un autre objet de la présente invention est d’améliorer la gestion de la somnolence d’un conducteur d’un véhicule, notamment dans le cadre d’un véhicule autonome.
Selon un premier aspect, la présente invention concerne un procédé de détermination d’un état d’attention d’un occupant d’un véhicule, le procédé étant mis en œuvre par un calculateur, le procédé comprenant les étapes suivantes :
- réception de premières données représentatives d’une posture de l’occupant et de deuxièmes données représentatives d’une variable physiologique de l’occupant depuis au moins un capteur embarqué dans de véhicule ; et
- détermination de troisièmes données représentatives d’un état d’attention de l’occupant en fonction des premières données et des deuxièmes données.
On comprend ici que l’occupant du véhicule correspond par exemple à un conducteur du véhicule, à un passager, ou encore à un conducteur d’un véhicule autonome ou semi-autonome, lequel n’est pas nécessairement en train de conduire le véhicule à un instant donné.
On comprend en outre que les premières données correspondent à des données permettant de caractériser le positionnement de l’occupant par rapport à un siège du véhicule, par exemple par rapport au siège conducteur, tandis que les deuxièmes données correspondent à des paramètres sur l’état physique de l’occupant, par exemple des données cardiaques et/ou respiratoires et/ou électrodermales. Les troisièmes données sont par exemple déterminées par classification d’un ensemble de données comprenant les premières données et les deuxièmes données à partir d’un modèle de classification appris dans une phase d’apprentissage, l’état d’attention de l’occupant étant associé à une classe d’un ensemble de classes en sortie du modèle de classification.
Ainsi, selon la présente invention, l’état de somnolence de l’occupant du véhicule est détecté par combinaison d’informations posturales et physiologiques, sans requérir que d’interaction avec les systèmes du véhicule ou que le visage de l’occupant soit orienté dans une direction précise. La détection est également plus robuste en se basant sur des données moins susceptibles aux situations de conduite.
Selon une variante, le procédé comprend en outre une étape de rendu d’une alerte de somnolence à destination de l’occupant en fonction des troisièmes données.
Selon une variante supplémentaire, le procédé comprend en outre une étape de contrôle d’un système d’aide à la conduite, dit système ADAS, du véhicule en fonction des troisièmes données.
Selon une autre variante, le procédé comprend en outre une étape de réception de quatrièmes données représentatives d’un visage de l’occupant depuis au moins une caméra embarquée dans le véhicule, les troisièmes données étant déterminées en outre en fonction des quatrièmes données.
Selon une variante additionnelle, le procédé comprend en outre une étape de réception de cinquièmes données représentatives d’une conduite du véhicule depuis au moins un système embarqué dans le véhicule, les troisièmes données étant déterminées en outre en fonction des cinquièmes données.
Selon encore une variante, les premières données sont reçues depuis au moins un capteur de mouvements associé à un siège du véhicule.
Selon un deuxième aspect, la présente invention concerne un dispositif de détermination d’un occupant d’un véhicule, le dispositif comprenant une mémoire associée à un processeur configuré pour la mise en œuvre des étapes du procédé selon le premier aspect de la présente invention.
Selon un troisième aspect, la présente invention concerne un véhicule, par exemple de type automobile, comprenant un dispositif tel que décrit ci-dessus selon le deuxième aspect de la présente invention.
Selon un quatrième aspect, la présente invention concerne un programme d’ordinateur qui comporte des instructions adaptées pour l’exécution des étapes du procédé selon le premier aspect de la présente invention, ceci notamment lorsque le programme d’ordinateur est exécuté par au moins un processeur.
Un tel programme d’ordinateur peut utiliser n’importe quel langage de programmation, et être sous la forme d’un code source, d’un code objet, ou d’un code intermédiaire entre un code source et un code objet, tel que dans une forme partiellement compilée, ou dans n’importe quelle autre forme souhaitable.
Selon un cinquième aspect, la présente invention concerne un support d’enregistrement lisible par un ordinateur sur lequel est enregistré un programme d’ordinateur comprenant des instructions pour l’exécution des étapes du procédé selon le premier aspect de la présente invention.
D’une part, le support d’enregistrement peut être n'importe quel entité ou dispositif capable de stocker le programme. Par exemple, le support peut comporter un moyen de stockage, tel qu'une mémoire ROM, un CD-ROM ou une mémoire ROM de type circuit microélectronique, ou encore un moyen d'enregistrement magnétique ou un disque dur.
D'autre part, ce support d’enregistrement peut également être un support transmissible tel qu'un signal électrique ou optique, un tel signal pouvant être acheminé via un câble électrique ou optique, par radio classique ou hertzienne ou par faisceau laser autodirigé ou par d'autres moyens. Le programme d’ordinateur selon la présente invention peut être en particulier téléchargé sur un réseau de type Internet.
Alternativement, le support d'enregistrement peut être un circuit intégré dans lequel le programme d’ordinateur est incorporé, le circuit intégré étant adapté pour exécuter ou pour être utilisé dans l'exécution du procédé en question.
Brève description des figures
D’autres caractéristiques et avantages de la présente invention ressortiront de la description des exemples de réalisation particuliers et non limitatifs de la présente invention ci-après, en référence aux figures 1 à 3 annexées, et sur lesquelles :
illustre de façon schématique un habitacle d’un véhicule, selon un exemple de réalisation particulier et non limitatif de la présente invention ;
illustre schématiquement un dispositif embarqué dans le véhicule de la et configuré pour déterminer un état d’attention d’un occupant du véhicule de la , selon un exemple de réalisation particulier et non limitatif de la présente invention ;
illustre un organigramme des différentes étapes d’un procédé de détermination d’un état d’attention d’un occupant du véhicule de la , selon un exemple de réalisation particulier et non limitatif de la présente invention.
Description des exemples de réalisation
Un procédé et un dispositif de détermination d’un état d’attention d’un occupant d’un véhicule vont maintenant être décrits dans ce qui va suivre en référence conjointement aux figures 1 à 3. Des mêmes éléments sont identifiés avec des mêmes signes de référence tout au long de la description qui va suivre.
Selon un exemple particulier et non limitatif de réalisation de la présente invention, un procédé de détermination d’un état d’attention d’un occupant d’un véhicule comprend la réception, par un calculateur embarqué dans le véhicule, de premières données représentatives d’une posture de l’occupant et de deuxièmes données représentatives d’une variable physiologique de l’occupant. Les premières données et les deuxièmes données sont avantageusement reçues depuis des capteurs embarqués dans le véhicule. Les premières données sont par exemple obtenues depuis un ensemble de capteurs associés à un siège du véhicule sur lequel est assis l’occupant, ou encore depuis une caméra embarquée dont le champ de vision englobe la position générale de l’occupant sur le siège. Les deuxièmes données sont par exemple obtenues depuis un dispositif connecté de type montre connectée, bracelet connecté ou dispositif médical connecté configuré pour suivre un ou plusieurs paramètres physiologiques du conducteur, par exemple sa fréquence cardiaque ou sa respiration.
Des troisièmes données représentatives d’un état d’attention de l’occupant sont déterminées en fonction des premières et deuxièmes données. En d’autres termes, le niveau d’éveil ou l’endormissement de l’occupant sont détectés à partir des données posturales et physiologiques de l’occupant.
L’état d’attention de l’occupant est par exemple déterminé en le catégorisant par classification d’un ensemble de données comprenant les premières données et les deuxièmes données. La classification est par exemple mise en œuvre dans une méthode d’apprentissage machine (de l’anglais « machine learning »), par exemple mise en œuvre avec un réseau de neurones. Une telle méthode permet d’estimer de manière plus fiable et en temps réel l’état d’attention de l’occupant en fonction des données reçues, sur la base d’un modèle appris à partir de mêmes données d’un ensemble d’autres occupants.
L’état d’attention de l’occupant, par exemple du conducteur du véhicule, est ainsi obtenu à partir de données de posture et physiologiques, adaptées à une plus grande variété de scénarios et à la conduite en mode autonome ou semi-autonome du véhicule, par comparaison aux données de mouvement oculaire ou de conduite du véhicule couramment employées.
La illustre schématiquement une partie d’un habitacle d’un véhicule 10 autonome ou semi-autonome, par exemple un véhicule automobile, selon un exemple de réalisation particulier et non limitatif de la présente invention. Selon d’autres exemples, le véhicule 10 correspond à un car, un bus, un camion, un véhicule utilitaire ou une motocyclette, c’est-à-dire un véhicule de type terrestre motorisé.
Le véhicule 10 correspond à un véhicule circulant sous la supervision totale d’un conducteur ou circulant dans un mode autonome ou semi-autonome. Le véhicule 10 circule selon un niveau d’autonomie égale à 0 ou selon un niveau d’autonomie allant de 1 à 5 par exemple, selon l’échelle définie par l’agence fédérale américaine qui a établi 5 niveaux d’autonomie allant de 1 à 5, le niveau 0 correspondant à un véhicule n’ayant aucune autonomie, dont la conduite est sous la supervision totale du conducteur, le niveau 1 correspondant à un véhicule avec un niveau d’autonomie minimal, dont la conduite est sous la supervision du conducteur avec une assistance minimale d’un système ADAS, et le niveau 5 correspondant à un véhicule complètement autonome.
Les 5 niveaux d’autonomie de la classification de l’agence fédérale chargée de la sécurité routière sont :
- niveau 0 : aucune automatisation, le conducteur du véhicule contrôle totalement les fonctions principales du véhicule (moteur, accélérateur, direction, freins) ;
- niveau 1 : assistance au conducteur, l’automatisation est active pour certaines fonctions du véhicule, le conducteur gardant un contrôle global sur la conduite du véhicule ; le régulateur de vitesse fait partie de ce niveau, comme d’autres aides telles que l’ABS (système antiblocage des roues) ou l’ESP (électro-stabilisateur programmé) ;
- niveau 2 : automatisation de fonctions combinées, le contrôle d’au moins deux fonctions principales est combiné dans l’automatisation pour remplacer le conducteur dans certaines situations ; par exemple, le régulateur de vitesse adaptatif combiné avec le centrage sur la voie permet à un véhicule d’être classé niveau 2, tout comme l’aide au stationnement (de l’anglais « Park assist ») automatique ;
- niveau 3 : conduite autonome limitée, le conducteur peut céder le contrôle complet du véhicule au système automatisé qui sera alors en charge des fonctions critiques de sécurité ; la conduite autonome ne peut cependant avoir lieu que dans certaines conditions environnementales et de trafic déterminées (uniquement sur autoroute par exemple) ;
- niveau 4 : conduite autonome complète sous conditions, le véhicule est conçu pour assurer seul l’ensemble des fonctions critiques de sécurité sur un trajet complet ; le conducteur fournit une destination ou des consignes de navigation mais n’est pas tenu de se rendre disponible pour reprendre le contrôle du véhicule ;
- niveau 5 : conduite complètement autonome sans l’aide de conducteur dans toutes les circonstances.
Selon un exemple particulier de réalisation, le véhicule 10 circule selon un mode semi-autonome ou autonome, c’est-à-dire avec un niveau d’autonomie supérieur ou égal à 2 selon la classification ci-dessus.
Selon une variante, le véhicule 10 embarque avantageusement un ou plusieurs systèmes d’aide à la conduite, dit ADAS (de l’anglais « Advanced Driver-Assistance System » ou en français « Système d’aide à la conduite avancé »). Le véhicule 10 embarque par exemple un ou plusieurs des systèmes ADAS suivants :
- un système de proposition de vitesse légale anticipée, dit système AISA (de l’anglais « Anticipated Intelligent Speed Assist » ou en français « Assistant de vitesse intelligent anticipé ») ou ALSA (de l’anglais « Anticipated Legal Speed Auto » ou en français « Vitesse véhicule légale anticipée ») ; et/ou
- un système de gestion de vitesse en fonction des courbures de la route, dit système CSA (de l’anglais « Curve Speed Adaptation » ou en français « Adaptation de la vitesse en courbure ») ; et/ou
- un système de gestion de vitesse en arrivée sur intersection, dit système JSA (de l’anglais « Junction Speed Adaptation » ou en français « Adaptation de la vitesse en intersection »).
La partie d’habitacle illustrée sur la comprend un siège conducteur avant 102 faisant face au volant et un siège passager avant 103. Au moins un écran est par exemple arrangé sur le cockpit du véhicule 10, en dessous du pare-brise. L’écran correspond par exemple à un écran de type LCD (de l’anglais « Liquid Crystal Display » ou en français « Ecran à cristaux liquides ») ou OLED (de l’anglais « Organic Light-Emitting Diode » ou en français « Diode électroluminescente organique ») ou d’autres solutions techniques d’affichage comme par exemple la projection sur une surface ou la réflexion sur une lame, par exemple via la mise en œuvre d’un affichage en réalité augmentée, notamment un système de Vision Tête Haute, dite VTH ou HUD (de l’anglais « Head-Up Display » ou en français « Affichage Tête Haute »), permettant l’incrustation d’objets virtuels dans le champ de vision du conducteur et/ou du passager, par exemple sous le pare-brise du véhicule ou à hauteur de celui-ci de manière à superposer des objets virtuels sur la scène réelle, l’écran venant se superposer au pare-brise étant dans ce cas considéré comme faisant partie du cockpit tel que défini ci-avant. Dans l’exemple de la , l’écran correspond à un afficheur central 111 et/ou à un combiné 110 du véhicule 10.
En particulier, le véhicule 10 embarque un système de détection d’un état altéré d’un occupant du véhicule 10, par exemple de détection de somnolence ou d’inattention. Un tel système met par exemple en œuvre des procédés basés sur des données caméra capturant le visage du conducteur ou encore sur des données de conduite, par exemple une évolution de la vitesse ou de la trajectoire du véhicule 10 par rapport à un environnement routier.
Un problème qui se pose est que les données employées par ces systèmes manquent de fiabilité. En particulier lorsque le véhicule 10 circule de manière autonome, les données de conduite ne sont plus représentatives de l’état du conducteur du véhicule 10. Ce même conducteur peut également facilement changer de posture ou s’impliquer dans une autre activité, sans nécessairement être dans un état d’attention altéré. Les données caméra risquent d’être inexploitables, par sortie du conducteur du champ de vision de la caméra, ou de renvoyer des faux positifs ou négatifs.
Lorsque le véhicule 10 circule sous la supervision complète ou partielle du conducteur, d’autres problèmes se posent également, l’emploi de systèmes d’aide à la conduite interférant sur la mesure des données de conduite et les informations sur le visage du conducteur étant facilement susceptibles d’erreurs liées à des variations de luminosité ou des vibrations du véhicule 10. Les mesures classiques peuvent ainsi manquer de continuité ou nécessiter d’être confirmées.
Afin de proposer une solution à ce problème, un procédé de détermination d’un état d’attention d’un occupant du véhicule 10 est avantageusement mis en œuvre par un ou plusieurs processeurs, par exemple un calculateur central, un ensemble de calculateurs, ou encore un calculateur périphérique associé au système de détection d’un état altéré de l’occupant du véhicule 10.
Selon un mode de réalisation particulier et non limitatif, un tel processus s’inscrit dans un processus plus large de contrôle des systèmes ADAS, par exemple de systèmes ADAS permettant la conduite en mode autonome du véhicule 10 à la place du conducteur. Le véhicule 10 met ainsi en œuvre, dans cet exemple, un processus de contrôle du système ADAS en fonction d’une somnolence et/ou d’un état d’inattention du conducteur détectée par le processus selon l’invention.
Selon encore un mode de réalisation, un tel processus s’inscrit dans un processus plus large de détection d’états dégradés de conduite, englobant une variété plus large de conditions pouvant affecter les capacités des occupants du véhicule 10, en particulier du conducteur. L’état d’attention de l’occupant et/ou les données obtenues au cours de l’exécution du procédé selon l’invention sont alors employées par le processus plus large.
Dans une première opération, au moins un processeur du véhicule 10, par exemple un calculateur central ou un ensemble de calculateurs, reçoit des premières données représentatives d'une posture de l’occupant et des deuxièmes données représentatives d’une variable physiologique de l’occupant.
L’au moins un processeur comprend par exemple un boîtier de servitude intelligent ou BSI (en anglais « Built-In Systems Interface ») ou encore un VSM (de l’anglais « Vehicle Supervisor Module » ou en français « Module de Supervision de Véhicule ») apte à former un réseau de communication, par exemple un réseau de communication multiplexé, dans lequel des données sont transmises via une liaison sans fil ou filaire, par exemple des données reçues de capteurs embarqués. L’au moins un processeur ou BSI (ci-après désigné « BSI ») est ainsi relié à une pluralité de calculateurs périphériques et/ou à d’autres calculateurs de systèmes embarqués du véhicule 10, par exemple de systèmes ADAS du véhicule 10 et/ou d’un système IHM (Interface Homme-Machine) embarqué ou encore d’un système IVI (de l’anglais « In-Vehicle Infotainment » ou en français « Infodivertissement embarqué »), le BSI communiquant par exemple avec un superviseur du système IHM contrôlant une ou plusieurs interfaces du véhicule 10 parmi lesquelles le combiné 110 et/ou l’afficheur central 111 du véhicule 10. Selon un autre exemple, l’au moins un processeur correspond à un ou plusieurs calculateurs en charge du système de détection d’un état altéré d’un occupant du véhicule.
Les premières données et les deuxièmes données sont ainsi reçues par communication dans le réseau de communication multiplexé. Les premières données et les deuxièmes données sont par exemple reçues d’un ou plusieurs capteurs embarqués dans le véhicule 10, via un ou plusieurs bus de communication du système embarqué du véhicule 10, par exemple un bus de communication de type bus de données CAN (de l’anglais « Controller Area Network » ou en français « Réseau de contrôleurs »), CAN FD (de l’anglais « Controller Area Network Flexible Data-Rate » ou en français « Réseau de contrôleurs à débit de données flexible »), FlexRay (selon la norme ISO 17458), Ethernet (selon la norme ISO/IEC 802-3) ou LIN (de l’anglais « Local Interconnect Network », ou en français « Réseau interconnecté local »).
Selon une variante de réalisation, les premières données sont au moins partiellement reçues depuis un capteur de mouvements associé à un siège 102, 103 du véhicule, par exemple le siège conducteur avant 102 et/ou le siège passager avant 103 du véhicule. Le capteur de mouvement correspond par exemple à un détecteur de mouvement ou encore à une nappe de pression intégrée au siège 102, 103, par exemple couvrant l’assise et/ou le dossier et/ou l’appuie-tête du siège 102, 103, ou encore à toute autre forme de capteur de mouvement connue de l’homme du métier.
On comprend ici que de tels capteurs permettent d’enregistrer le mouvement et la posture de l’occupant du véhicule 10 à l’intérieur de l’habitacle, de manière non intrusive, continue et efficiente. En particulier, ce type de capteur n’est pas susceptible aux variations de luminosité et assure une mesure tant que l’occupant est dans le siège 102, 103.
Selon une autre variante, les premières données sont au moins partiellement reçues depuis un ou plusieurs capteurs de système(s) de détection d’objet embarqués dans l’habitacle du véhicule 10.
A titre d’exemple, le ou les capteurs associées à ces systèmes de détection d’objet correspondent à un ou plusieurs des capteurs suivants :
- un ou plusieurs radars à ondes millimétriques arrangés sur le véhicule 10, par exemple à l’avant, à l’arrière, sur chaque coin avant/arrière du véhicule ; chaque radar est adapté pour émettre des ondes électromagnétiques et pour recevoir les échos de ces ondes renvoyées par un ou plusieurs objets (par exemple le trottoir 11), dans le but de détecter des obstacles ou autres objets et leurs distances vis-à-vis du véhicule 10 ; et/ou
- un ou plusieurs LIDAR(s) (de l’anglais « Light Detection And Ranging », ou « Détection et estimation de la distance par la lumière » en français), un capteur LIDAR correspondant à un système optoélectronique composé d’un dispositif émetteur laser, d’un dispositif récepteur comprenant un collecteur de lumière (pour collecter la partie du rayonnement lumineux émis par l’émetteur et réfléchi par tout objet situé sur le trajet des rayons lumineux émis par l’émetteur) et d’un photodétecteur qui transforme la lumière collectée en signal électrique ; un capteur LIDAR permet ainsi de détecter la présence d’objets (par exemple le trottoir 11) situés dans le faisceau lumineux émis et de mesurer la distance entre le capteur et chaque objet détecté ; et/ou
- une ou plusieurs caméras (associées ou non à un capteur de profondeur) pour l’acquisition d’une ou plusieurs images de l’environnement autour du véhicule 10 se trouvant dans le champ de vision de la ou les caméras.
Les données obtenues de ce ou ces capteurs varient selon le type de capteur. Lorsqu’il s’agit d’un radar ou d’un LIDAR, la donnée d’environnement routier correspond par exemple à des données de distance entre des points de l’objet détecté et le capteur. Chaque objet détecté est ainsi représenté par un nuage de points (chaque point correspondant à un point de l’objet recevant le rayonnement émis par le capteur et réfléchissant au moins en partie ce rayonnement), le nuage de points représentant l’enveloppe (ou une partie de l’enveloppe) de l’objet détecté tel que vu par le capteur et in fine par le véhicule 10 embarquant le capteur. Lorsqu’il s’agit d’une caméra vidéo, la donnée d’environnement routier correspond à des données associées à chaque pixel de la ou les images acquises, par exemple des valeurs de niveaux de gris codés sur par exemple 8, 10, 12 ou plus de bits pour chaque canal couleur, par exemple RGB (de l’anglais « Red, Green, Blue » ou en français « Rouge, vert, bleu »).
Dans l’exemple de la , on prévoit ainsi une caméra 101 disposée dans l’habitacle, par exemple au niveau du combiné 110, de l’afficheur central 111, ou plus généralement dans une planche de bord du véhicule 10. On comprend ici que la caméra 101 présente un champ de capture s’étendant au-delà d’une position « normale » du visage de l’occupant en situation de conduite, par exemple de manière à englober sensiblement l’assise, le dossier et l’appuie-tête du siège 102, 103 afin de caractériser la position de l’occupant vis-à-vis du siège et d’éviter toute perte de vue de l’occupant, en particulier lorsque celui-ci ne porte pas son attention sur la circulation du véhicule 10.
Les premières données permettent ainsi de caractériser la position de l’occupant dans l’habitacle du véhicule 10, en particulier par rapport au siège 102, 103. Ces premières données sont accompagnées de deuxièmes données, lesquelles caractérisent l’état physique de l’occupant tel que mesuré par les capteurs embarqués.
Selon une variante particulière, les deuxièmes données sont au moins partiellement reçues de capteurs intégrés à l’habitacle du véhicule 10. L’homme du métier comprend ici qu’un radar permet par exemple de mesurer l’activité cardiaque et/ou le rythme respiratoire de l’occupant, qu’une caméra thermique permet par exemple de mesurer l’évolution de la température corporelle de l’occupant. En accord avec la variante précédente, l’intégration de capteurs dans le siège 102, 103 permet par exemple de suivre un rythme respiratoire de l’occupant à l’aide de capteurs de mouvements, ou encore d’intégrer des capteurs de température en parallèle ou en remplacement des capteurs de mouvement de manière à suivre la température corporelle de l’occupant. Le BSI reçoit par exemple les premières données et les deuxièmes données de manière conjointe par communication avec un capteur embarqué de type radar et/ou caméra thermique et/ou capteur intégré au siège 102, 103, renvoyant à la fois des informations de posture et physiologiques de l’occupant.
Selon une variante, les deuxièmes données sont au moins partiellement reçues d’un dispositif connecté associé à l’occupant et en communication avec le BSI. Le dispositif connecté correspond par exemple à un dispositif électronique personnel, une montre connectée, un bracelet connecté ou un dispositif médical connecté, et configuré pour renvoyer des deuxièmes données comprenant par exemple :
- une information représentative d’un rythme respiratoire, par exemple issue d’un dispositif connecté comportant un microphone ; et/ou
- une information représentative d’une activité électrodermale, par exemple issue d’un dispositif connecté en contact direct avec l’occupant, par exemple une montre ou un bracelet connecté ; et/ou
- une information représentative d’un rythme cardiaque, par exemple issue d’un dispositif connecté comprenant un électrocardiogramme.
Selon un exemple particulier, le dispositif connecté est relié en communication, par exemple sans fil (par exemple selon une connexion de type Bluetooth® ou Wifi®), avec le véhicule 10 par l’intermédiaire d’un système de communication du véhicule 10. Dans un tel exemple, le BSI reçoit les deuxièmes données en provenance du dispositif de communication mobile selon un mode de communication sans fil.
Selon encore une variante, le BSI reçoit les premières données et les deuxièmes données depuis une pluralité de capteurs comprenant un ou plusieurs des capteurs décrits ci-avant, de manière à établir une redondance des informations sur l’occupant.
Selon une variante additionnelle, le BSI reçoit également des quatrièmes données représentatives d’un visage de l’occupant depuis au moins une caméra embarquée, par exemple la caméra 101 de la décrite ci-avant, et/ou des cinquièmes données représentatives d’une conduite du véhicule 10 depuis un système embarqué du véhicule 10. Les quatrièmes données et les cinquièmes données correspondent ainsi à des données connues de l’homme du métier dans le domaine de la détection d’un état altéré d’un conducteur ou d’un occupant d’un véhicule 10.
Les quatrièmes données correspondent par exemple à des données oculaires et/ou faciales comprenant par exemple :
- une information représentative d’un taux d’ouverture des yeux de l’occupant ; et/ou
- une information représentative d’une durée de clignement des yeux de l’occupant ; et/ou
- une information représentative d’une fréquence de clignement des yeux de l’occupant ; et/ou
- une information représentative de mouvements de la tête de l’occupant ; et/ou
- une information représentative d’une inclinaison de la tête de l’occupant.
Les cinquièmes données correspondent par exemple à des données issues de systèmes embarqués et reçues via le bus de communication CAN du véhicule 10, les cinquièmes données comprenant par exemple :
- une information représentative d’une durée de conduite du véhicule 10 ; et/ou
- une information représentative d’un franchissement de ligne par le véhicule 10, par exemple d’un franchissement de ligne continue et/ou d’une bande de rive ; et/ou
- une information représentative d’une déviation latérale du véhicule 10, par exemple obtenue par mesure de l’évolution de la position latérale des lignes de marquage au sol par rapport au véhicule 10.
Bien évidemment, on comprend ici que les cinquièmes données sont obtenues selon les fonctions du véhicule 10 prises en charge par le conducteur, une fonction automatisée par une conduite semi-autonome ou autonome du véhicule 10 n’étant pas tenue en compte par le procédé selon l’invention. Les cinquièmes données ne sont également pas prises en compte pour déterminer l’état d’attention d’un occupant du véhicule 10 différent du conducteur, par exemple l’occupant du siège passager avant 103.
Dans une deuxième opération, des troisièmes données représentatives d’un état d’attention de l’occupant sont déterminées en fonction des premières données et des deuxièmes données. Optionnellement, ces troisièmes données sont déterminées en outre en fonction des quatrièmes données et/ou des cinquièmes données.
En d’autres termes, le BSI traite les premières données et les deuxièmes données de manière à obtenir une information permettant de caractériser l’état d’attention de l’occupant, par exemple de manière à déterminer si le conducteur est ou non suffisamment vigilant pour continuer la conduite du véhicule 10 de manière manuelle ou pour reprendre la main du véhicule 10 circulant de manière autonome.
Selon une variante, les troisièmes données comprennent une information représentative d’un niveau de somnolence de l’occupant, c’est-à-dire une information permettant de caractériser le degré d’endormissement de l’occupant, de manière graduée, par exemple d’une somnolence légère à une somnolence sévère.
La détermination des troisièmes données comprend par exemple des opérations d’un processus de classification de données, lequel s’inscrit par exemple dans un processus de prédiction ou de détermination de la catégorie représentant l’état d’attention de l’occupant du véhicule 10.
Le processus de classification et/ou de prédiction de l’état d’attention de l’occupant comprend avantageusement deux phases, chacune de ces phases comprenant une ou plusieurs opérations.
La première phase correspond à une phase dite d’apprentissage ou d’entraînement d’un ou plusieurs modèles de prédiction (et/ou d’un modèle ou plusieurs modèles de classification) et la deuxième phase correspond à une phase dite de production ou de prédiction basée sur le ou les modèles appris dans la phase d’apprentissage et de données alimentant le ou les modèles appris, c’est-à-dire des premières et deuxièmes données et optionnellement des quatrièmes et/ou cinquièmes données.
La première phase et la deuxième phase sont par exemple mises en œuvre par le calculateur du véhicule 10.
Selon une variante de réalisation, la première phase est mise en œuvre par un dispositif distant, par exemple un serveur du « cloud » ou un serveur hébergé dans un centre (par exemple un bureau d’étude) adapté pour faire l’apprentissage, et la deuxième phase par le calculateur du véhicule 10.
Selon une autre variante de réalisation, l’apprentissage est mis en œuvre dans la première phase et les paramètres du ou des modèles de prédiction sont affinés en temps réel à partir des données reçues ou collectées pendant la deuxième phase.
Phase d’apprentissage
L’apprentissage mis en œuvre dans la première phase correspond avantageusement à un apprentissage supervisé à partir d’un ensemble de données associées à un ensemble ou groupe de personnes correspondant par exemple quelques dizaines, quelques centaines, des milliers ou des dizaines/centaines de milliers de personnes. Selon une variante de réalisation, l’apprentissage mis en œuvre dans la première phase correspond à un apprentissage non supervisé à partir de l’ensemble de données associées à l’ensemble de personnes.
Dans une première opération de la phase d’apprentissage, le calculateur collecte un ensemble de données représentatives de chaque personne, ces données étant par exemple émises de capteurs de données de posture et/ou physiologiques et/ou de visage et/ou de conduite au fur et à mesure de la conduite de véhicules par les personnes, c’est-à-dire à des données respectivement équivalentes aux premières données, deuxièmes données, quatrièmes données et cinquièmes données reçues par le BSI du véhicule 10. Les données sont par exemple transmises par chaque véhicule via une infrastructure réseau sans fil à destination du calculateur ou du dispositif distant, ou encore transmises à l’intérieur du véhicule via le bus de communication CAN.
Dans une deuxième opération, le calculateur collecte des données représentatives d’un état d’attention de la personne. Ces données sont par exemple similaires aux troisièmes données selon l’invention et comprennent par exemple un niveau de somnolence de la personne. Les données sont par exemple issues d’un système de détection d’un état altéré tel que connu de l’homme du métier, et se basant par exemple sur les données oculaires et de conduite selon les procédés connus de l’état de la technique.
Dans une troisième opération de la phase d’apprentissage, le calculateur traite les données obtenues lors des première et deuxième opérations.
Le traitement comprend un croisement des données mesurées par les capteurs avec par exemple les données obtenues du système de détection d’un état altéré pour la génération d’un modèle de prédiction de l’état d’attention de l’occupant.
En sortie du modèle de prédiction de l’état d’attention est obtenu un ensemble de données de sortie représentatives de l’état d’attention prédit ou estimé de l’occupant. Les données de cet ensemble de données sont traitées et/ou croisées pour la génération d’un ensemble de classes, chaque classe de l’ensemble état par exemple associé à un niveau de somnolence déterminé. Les classes ou groupes obtenus sont dits labélisés, c’est-à-dire qu’une étiquette (de l’anglais « label ») est associée à chaque classe ou groupe. Par exemple, si 4 classes ou groupes sont générés lors de la classification des données de l’ensemble de données, 4 catégories de niveau de somnolence seront également générées (par exemple de 0 à 3), avec par exemple le niveau 0 correspondant au niveau de somnolence le plus faible (correspondant par exemple à un état d’éveil) et 3 à la catégorie de niveau de somnolence le plus élevé ou maximal (correspondant à un état de somnolence sévère).
Chaque modèle de prédiction ainsi que le modèle de classification des données en différentes catégories d’état d’attention sont générés ou entrainés par classification des différentes données traitées, selon toutes méthodes connues de l’homme du métier.
Le modèle de prédiction et/ou de classification est par exemple appris par un réseau de neurones, les paramètres ou caractéristiques (de l’anglais « features ») du modèle de prédiction/classification de l’état d’attention étant appris dans une couche ou dans un ensemble de couches du réseau.
Phase de prédiction
Dans une première opération de la phase de prédiction, le dispositif en charge de la phase de prédiction (c’est-à-dire un calculateur du véhicule 10, par exemple le BSI) collecte les premières données et deuxièmes données reçues au cours de la première opération du processus de détermination de l’état d’attention, et optionnellement les quatrièmes et cinquièmes données. La première opération de la phase de prédiction correspond par exemple à la première opération du processus de détermination de l’état d’attention.
Dans une deuxième opération de la phase de prédiction, un ensemble formé des premières, deuxièmes, et optionnellement quatrièmes et/ou cinquièmes données est utilisé en entrée du modèle de prédiction/classification appris ou entraîné durant la phase d’apprentissage et permettant de ressortir une catégorie d’état d’attention de l’occupant du véhicule 10. Il ressort de ce modèle une information représentative d’une prédiction de l’état d’attention à associer à l’occupant du véhicule 10. En d’autres termes, le modèle permet de ressortir les troisièmes données.
Les premières, deuxièmes et optionnellement quatrièmes et/ou cinquièmes données sont ainsi traitées pour déterminer la probabilité d’appartenance à chaque classe de la pluralité de classes générées pendant la phase d’apprentissage. Les troisièmes données déterminées pour l’occupant du véhicule 10 correspondent par exemple à la catégorie d’état d’attention associée à la classe pour laquelle la probabilité d’appartenance est la plus élevée.
Selon une variante de réalisation du processus de détermination de l’état d’attention, le calculateur effectue un rendu d’une alerte de somnolence à destination de l’occupant du véhicule 10. Le rendu comprend par exemple l’affichage d’un texte ou d’une icône et/ou la génération d’un son. L’alerte est par exemple représentative des troisièmes données, c’est-à-dire de l’état d’attention déterminé au cours de la deuxième opération du processus de détermination de l’état d’attention.
L’alerte est par exemple représentative d’une ou plusieurs recommandations destinées à l’occupant du véhicule 10, par exemple pour recommander au conducteur du véhicule 10 de s’arrêter dès que possible.
L’alerte est par exemple affichée sur un écran d’affichage du véhicule 10, par exemple un écran du combiné 110 et/ou de l’afficheur central 111. L’affichage de l’alerte est par exemple mis en œuvre au travers d’une IHM (Interface Homme Machine) contrôlée par le calculateur IVI (de l’anglais « In-Vehicle Infotainment » ou en français « Infodivertissement embarqué ») du véhicule 10.
Selon une variante, l’alerte comprend par exemple une contre-mesure associée à l’état d’attention de l’occupant, c’est-à-dire une action visant à rétablir son attention ou encore à éviter un endormissement direct de l’occupant. L’alerte comprend par exemple une contre-mesure visuelle, vibratoire, haptique, sonore, olfactive, etc.
Ainsi, le procédé selon l’invention permet de pallier les écueils des systèmes de détection d’un état altéré des occupants d’un véhicule liés à des conditions d’acquisition délicates, en proposant un procédé de détermination de l’état d’attention se basant sur des données plus fiables et pouvant être acquises en continu lors de l’opération d’un véhicule, sans condition sur le comportement de l’occupant et compatibles avec une conduite en mode autonome du véhicule.
La illustre schématiquement un dispositif 2 configuré pour déterminer un état d’attention d’un occupant d’un véhicule, par exemple le véhicule 10 de la , selon un exemple de réalisation particulier et non limitatif de la présente invention. Le dispositif 2 correspond par exemple à un dispositif embarqué dans le véhicule 10, par exemple un calculateur d’un système de détection d’état altéré.
Un tel dispositif 2 est par exemple configuré pour la mise en œuvre de la phase d’apprentissage et/ou de la phase de production d’une méthode d’apprentissage machine.
Le dispositif 2 est par exemple configuré pour la mise en œuvre des opérations décrites en regard de la et/ou des étapes du procédé décrit en regard de la . Des exemples d’un tel dispositif 2 comprennent, sans y être limités, un ordinateur, un ordinateur portable, un serveur, un téléphone portable, une tablette ou encore un équipement électronique embarqué tel qu’un ordinateur de bord d’un véhicule ou un calculateur électronique tel qu’une UCE (« Unité de Commande Electronique. Les éléments du dispositif 2, individuellement ou en combinaison, peuvent être intégrés dans un unique circuit intégré, dans plusieurs circuits intégrés, et/ou dans des composants discrets. Le dispositif 2 peut être réalisé sous la forme de circuits électroniques ou de modules logiciels (ou informatiques) ou encore d’une combinaison de circuits électroniques et de modules logiciels.
Le dispositif 2 comprend un (ou plusieurs) processeur(s) 20 configurés pour exécuter des instructions pour la réalisation des étapes du procédé et/ou pour l’exécution des instructions du ou des logiciels embarqués dans le dispositif 2. Le processeur 20 peut inclure de la mémoire intégrée, une interface d’entrée/sortie, et différents circuits connus de l’homme du métier. Le dispositif 2 comprend en outre au moins une mémoire 21 correspondant par exemple à une mémoire volatile et/ou non volatile et/ou comprend un dispositif de stockage mémoire qui peut comprendre de la mémoire volatile et/ou non volatile, telle que EEPROM, ROM, PROM, RAM, DRAM, SRAM, flash, disque magnétique ou optique.
Le code informatique du ou des logiciels embarqués comprenant les instructions à charger et exécuter par le processeur est par exemple stocké sur la mémoire 21.
Selon un exemple de réalisation particulier et non limitatif, le dispositif 2 comprend un bloc 22 d’éléments d’interface pour communiquer avec des dispositifs externes, par exemple un serveur distant ou le « cloud », d’autres nœuds du réseau ad hoc. Les éléments d’interface du bloc 22 comprennent une ou plusieurs des interfaces suivantes :
- interface radiofréquence RF, par exemple de type Wi-Fi® (selon IEEE 802.11), par exemple dans les bandes de fréquence à 2,4 ou 5 GHz, ou de type Bluetooth® (selon IEEE 802.15.1), dans la bande de fréquence à 2,4 GHz, ou de type Sigfox utilisant une technologie radio UBN (de l’anglais Ultra Narrow Band, en français bande ultra étroite), ou LoRa dans la bande de fréquence 868 MHz, LTE (de l’anglais « Long-Term Evolution » ou en français « Evolution à long terme »), LTE-Advanced (ou en français LTE-avancé) ;
- interface USB (de l’anglais « Universal Serial Bus » ou « Bus Universel en Série » en français) ;
- interface HDMI (de l’anglais « High Definition Multimedia Interface », ou « Interface Multimedia Haute Definition » en français) ;
- interface LIN (de l’anglais « Local Interconnect Network », ou en français « Réseau interconnecté local »).
Selon un autre exemple de réalisation particulier et non limitatif, le dispositif 2 comprend une interface de communication 23 qui permet d’établir une communication avec d’autres dispositifs (tels que d’autres calculateurs du système embarqué) via un canal de communication 230. L’interface de communication 23 correspond par exemple à un transmetteur configuré pour transmettre et recevoir des informations et/ou des données via le canal de communication 230. L’interface de communication 23 correspond par exemple à un réseau filaire de type CAN (de l’anglais « Controller Area Network » ou en français « Réseau de contrôleurs »), CAN FD (de l’anglais « Controller Area Network Flexible Data-Rate » ou en français « Réseau de contrôleurs à débit de données flexible »), FlexRay (standardisé par la norme ISO 17458) ou Ethernet (standardisé par la norme ISO/IEC 802-3).
Selon un exemple de réalisation particulier et non limitatif, le dispositif 2 peut fournir des signaux de sortie à un ou plusieurs dispositifs externes, tels qu’un écran d’affichage, tactile ou non, un ou des haut-parleurs et/ou d’autres périphériques (système de projection) via des interfaces de sortie respectives.
La illustre un organigramme des différentes étapes d’un procédé de détermination d’un état d’attention d’un occupant d’un véhicule, selon un exemple de réalisation particulier et non limitatif de la présente invention. Le procédé est par exemple mis en œuvre par un dispositif embarqué dans le véhicule, par exemple par le dispositif 2 de la .
Dans une première étape 31, des premières données représentatives d’une posture de l’occupant et des deuxièmes données représentatives d’une variable physiologique de l’occupant sont reçues depuis au moins un capteur embarqué dans le véhicule.
Dans une deuxième étape 32, des troisièmes données représentatives d’un état d’attention de l’occupant sont déterminées en fonction des premières données et des deuxièmes données.
Selon une variante, les variantes et exemples des opérations décrits en relation avec la s’appliquent aux étapes du procédé de la .
Bien entendu, la présente invention ne se limite pas aux exemples de réalisation décrits ci-avant mais s’étend à un procédé de détermination d’un état d’attention d’un occupant d’un véhicule qui inclurait des étapes secondaires, sans pour cela sortir de la portée de la présente invention. Il en serait de même pour un dispositif configuré pour la mise en œuvre d’un tel procédé.
La présente invention concerne également un système de détection d’un état altéré comprenant le dispositif 2 de la .
La présente invention concerne également un véhicule, par exemple automobile ou plus généralement un véhicule autonome à moteur terrestre, comprenant le dispositif 2 de la ou le système de détection d’un état altéré ci-dessus.

Claims (10)

  1. Procédé de détermination d’un état d’attention d’un occupant d’un véhicule (10), ledit procédé comprenant les étapes suivantes :
    - réception (31) de premières données représentatives d’une posture dudit occupant et de deuxièmes données représentatives d’une variable physiologique dudit occupant depuis au moins un capteur embarqué dans ledit véhicule (10) ; et
    - détermination (32) de troisièmes données représentatives d’un état d’attention dudit occupant en fonction desdites premières données et desdites deuxièmes données.
  2. Procédé selon la revendication 1, lequel comprend en outre une étape de rendu d’une alerte de somnolence à destination dudit occupant en fonction desdites troisièmes données.
  3. Procédé selon la revendication 1 ou 2, lequel comprend en outre une étape de contrôle d’un système d’aide à la conduite, dit système ADAS, dudit véhicule (10) en fonction desdites troisièmes données.
  4. Procédé selon l’une des revendications 1 à 3, lequel comprend en outre une étape de réception de quatrièmes données représentatives d’un visage dudit occupant depuis au moins une caméra (101) embarquée dans ledit véhicule (10), lesdites troisièmes données étant déterminées en outre en fonction desdites quatrièmes données.
  5. Procédé selon l’une des revendications 1 à 4, lequel comprend en outre une étape de réception de cinquièmes données représentatives d’une conduite dudit véhicule (10) depuis au moins un système embarqué dans ledit véhicule (10), lesdites troisièmes données étant déterminées en outre en fonction desdites cinquièmes données.
  6. Procédé selon l’une des revendications 1 à 5, dans lequel lesdites premières données sont reçues depuis au moins un capteur de mouvements associé à un siège (102, 103) dudit véhicule (10).
  7. Programme d’ordinateur comportant des instructions pour la mise en œuvre du procédé selon l’une quelconque des revendications précédentes, lorsque ces instructions sont exécutées par un processeur.
  8. Support d’enregistrement lisible par un ordinateur sur lequel est enregistré un programme d’ordinateur comprenant des instructions pour l’exécution des étapes du procédé selon l’une des revendications 1 à 6.
  9. Dispositif (2) de détermination d’un état d’attention d’un occupant d’un véhicule, ledit dispositif (2) comprenant une mémoire (21) associée à au moins un processeur (20) configuré pour la mise en œuvre des étapes du procédé selon l’une quelconque des revendications 1 à 6.
  10. Véhicule (10) comprenant le dispositif (2) selon la revendication 9.
FR2210617A 2022-10-14 2022-10-14 Procédé et dispositif de détermination d’un état d’attention d’un conducteur d’un véhicule Pending FR3140845A1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR2210617A FR3140845A1 (fr) 2022-10-14 2022-10-14 Procédé et dispositif de détermination d’un état d’attention d’un conducteur d’un véhicule

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR2210617A FR3140845A1 (fr) 2022-10-14 2022-10-14 Procédé et dispositif de détermination d’un état d’attention d’un conducteur d’un véhicule
FR2210617 2022-10-14

Publications (1)

Publication Number Publication Date
FR3140845A1 true FR3140845A1 (fr) 2024-04-19

Family

ID=84362787

Family Applications (1)

Application Number Title Priority Date Filing Date
FR2210617A Pending FR3140845A1 (fr) 2022-10-14 2022-10-14 Procédé et dispositif de détermination d’un état d’attention d’un conducteur d’un véhicule

Country Status (1)

Country Link
FR (1) FR3140845A1 (fr)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170329329A1 (en) * 2016-05-13 2017-11-16 GM Global Technology Operations LLC Controlling autonomous-vehicle functions and output based on occupant position and attention
WO2021067380A1 (fr) * 2019-10-01 2021-04-08 TeleLingo D/B/A dreyev Procédés et systèmes d'utilisation de l'intelligence artificielle pour évaluer, corriger et surveiller l'attention d'un utilisateur
US20220036101A1 (en) * 2021-10-18 2022-02-03 Arnav Gupta Methods, systems and computer program products for driver monitoring
US20220204042A1 (en) * 2020-12-27 2022-06-30 Hyundai Mobis Co., Ltd. Driver management system and method of operating same

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170329329A1 (en) * 2016-05-13 2017-11-16 GM Global Technology Operations LLC Controlling autonomous-vehicle functions and output based on occupant position and attention
WO2021067380A1 (fr) * 2019-10-01 2021-04-08 TeleLingo D/B/A dreyev Procédés et systèmes d'utilisation de l'intelligence artificielle pour évaluer, corriger et surveiller l'attention d'un utilisateur
US20220204042A1 (en) * 2020-12-27 2022-06-30 Hyundai Mobis Co., Ltd. Driver management system and method of operating same
US20220036101A1 (en) * 2021-10-18 2022-02-03 Arnav Gupta Methods, systems and computer program products for driver monitoring

Similar Documents

Publication Publication Date Title
US11659038B2 (en) Smart vehicle
US11526166B2 (en) Smart vehicle
US20200017124A1 (en) Adaptive driver monitoring for advanced driver-assistance systems
US9714037B2 (en) Detection of driver behaviors using in-vehicle systems and methods
US20210089048A1 (en) Smart vehicle
CN111319628A (zh) 用于评估错误威胁检测的方法和***
EP0527665A1 (fr) Dispositif embarqué et procédé de repérage et de suivi de la position du véhicule sur la route et dipositif d'aide à la conduite en comportant application
TW201836888A (zh) 確保運載工具中占有者意識
CN115344117A (zh) 适配的眼睛追踪机器学习模型引擎
FR3140845A1 (fr) Procédé et dispositif de détermination d’un état d’attention d’un conducteur d’un véhicule
Apostoloff Vision based lane tracking using multiple cues and particle filtering
FR3119817A1 (fr) Procédé et dispositif de détermination d’une trajectoire pour un véhicule autonome
FR3120838A1 (fr) Procédé et dispositif d’activation d’un mode de conduite avec chaînes à neige
WO2021262166A1 (fr) Évaluation d'opérateur et commande de véhicule sur la base de données de lunettes
EP2489548B1 (fr) Procédé et dispositif de commande de commutation du système d'éclairage avant adaptatif d'un véhicule automobile
FR3106108A1 (fr) Procédé et dispositif de détermination de trajectoire d’une route
FR3092545A1 (fr) Assistance à la conduite d’un véhicule, par détermination de la voie de circulation dans laquelle est situé un objet
US20220051493A1 (en) Systems and methods for an automobile status recorder
FR3127165A1 (fr) Procédé et dispositif d’aide à la conduite en réalité augmentée
EP3867126B1 (fr) Procédé et dispositif d'aide à la conduite d'un véhicule automobile en phase de recul
FR3122391A1 (fr) Procédé et dispositif de détermination d’un état d’attention d’un conducteur d’un véhicule autonome
US20240062349A1 (en) Enhanced high dynamic range pipeline for three-dimensional image signal processing
FR3135241A1 (fr) Procédé et dispositif de contrôle d’un système d’indication d’une limite de vitesse d’un véhicule
FR3144092A1 (fr) Procédé mis en œuvre par ordinateur d’aide à la conduite d’un véhicule automobile
FR3105961A1 (fr) Procédé et dispositif de détermination d’un indicateur de changement de voie pour véhicule

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20240419