FR3076521A1 - Procede d'aide a la conduite d'un vehicule et dispositifs associes - Google Patents

Procede d'aide a la conduite d'un vehicule et dispositifs associes Download PDF

Info

Publication number
FR3076521A1
FR3076521A1 FR1850102A FR1850102A FR3076521A1 FR 3076521 A1 FR3076521 A1 FR 3076521A1 FR 1850102 A FR1850102 A FR 1850102A FR 1850102 A FR1850102 A FR 1850102A FR 3076521 A1 FR3076521 A1 FR 3076521A1
Authority
FR
France
Prior art keywords
obstacle
vision
vehicle
field
level
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1850102A
Other languages
English (en)
Other versions
FR3076521B1 (fr
Inventor
Vincent Delahaye
Sandra Dausend
Sabine LANGLOIS
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renault SAS
Valeo Comfort and Driving Assistance SAS
Institut de Recherche Technologique Systemx
Original Assignee
Renault SAS
Valeo Comfort and Driving Assistance SAS
Institut de Recherche Technologique Systemx
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renault SAS, Valeo Comfort and Driving Assistance SAS, Institut de Recherche Technologique Systemx filed Critical Renault SAS
Priority to FR1850102A priority Critical patent/FR3076521B1/fr
Publication of FR3076521A1 publication Critical patent/FR3076521A1/fr
Application granted granted Critical
Publication of FR3076521B1 publication Critical patent/FR3076521B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)

Abstract

L'invention concerne un procédé d'aide à la conduite d'un véhicule (10), le véhicule (10) se déplaçant dans un environnement (12) comprenant au moins un obstacle (26), un conducteur (14) du véhicule (10) ayant un organe de vision (40) présentant un champ de vision, dit champ de vision complet (44). Le procédé comprend au moins: - une phase d'identification dudit au moins un obstacle (26), la phase d'identification comprenant : - une phase d'adaptation du niveau de dangerosité, comprenant : • une étape d'acquisition d'images d'une partie de l'environnement (12) vue par le conducteur (14), • une étape de détermination de l'orientation du champ de vision complet (44) en fonction des images acquises, et • une étape d'actualisation du niveau de dangerosité dudit au moins un obstacle (26), et - une phase d'avertissement.

Description

Procédé d’aide à la conduite d’un véhicule et dispositifs associés
La présente invention concerne un procédé d’aide à la conduite d’un véhicule. L’invention se rapporte également à un dispositif d’adaptation associé. L’invention concerne également un système d’aide à la conduite, un véhicule, un produit programme d’ordinateur et un support d’informations associés. L’invention concerne le domaine de la sécurité routière, et plus particulièrement le domaine de l’assistance à la conduite par réalité augmentée.
Il est connu des procédés et des systèmes d’aide à la conduite d’un véhicule qui sont aptes à surveiller l’environnement du véhicule, et à détecter des caractéristiques concernant l’environnement. De tels systèmes sont également configurés pour signaler des informations relatives à l’environnement à un conducteur du véhicule. Les informations concernent, par exemple, des obstacles dans l’environnement du véhicule.
Le conducteur du véhicule est en charge de prendre des décisions et de modifier la trajectoire ou la vitesse du véhicule, à partir des informations fournies, pour assurer la sécurité du véhicule à tout moment.
Cependant, les procédés et les systèmes d’aide à la conduite précités ne sont pas entièrement satisfaisants. Le conducteur est susceptible de prendre des décisions fausses ou à un moment inopportun, dû au caractère vague des informations fournies. En conséquence, la sécurité procurée au véhicule n’est pas optimale.
Il existe donc un besoin pour un procédé et un système d’aide à la conduite d’un véhicule apte à fournir des informations plus pertinentes, et à améliorer la sécurité routière d’un véhicule.
Pour cela, la présente description porte sur un procédé d’aide à la conduite d’un véhicule, le véhicule se déplaçant dans un environnement comprenant au moins un obstacle, un conducteur du véhicule ayant un organe de vision présentant un champ de vision, dit champ de vision complet, le procédé comprenant au moins: - une phase d’identification dudit au moins un obstacle, la phase d’identification comprenant : • une étape de détection dudit au moins un obstacle, l’étape de détection étant mise en oeuvre par au moins une unité de détection, et • une étape d’association d’un niveau de dangerosité audit au moins un obstacle, - une phase d’adaptation du niveau de dangerosité, comprenant : • une étape d’acquisition d’images d'une partie de l'environnement vue par le conducteur, • une étape de détermination de l’orientation du champ de vision complet en fonction des images acquises, et • une étape d’actualisation du niveau de dangerosité dudit au moins un obstacle, le niveau de dangerosité étant actualisé au moins en fonction de la satisfaction d’un critère spatial et d’un critère temporel, le critère spatial étant satisfait si l’au moins un obstacle est dans le champ de vision complet, et le critère temporel étant satisfait si le critère spatial est satisfait pendant une période de temps prédéfinie, et - une phase d’avertissement, durant laquelle le niveau de dangerosité est signalé au conducteur.
Les informations fournies par le procédé d’aide à la conduite au conducteur sont très précises. Le conducteur est notamment averti des obstacles de manière très pertinente, car le niveau de dangerosité de l’obstacle correspondant est signalé au conducteur. La sécurité du véhicule est ainsi améliorée.
Suivant des modes de réalisation particuliers, le procédé d’aide à la conduite comprend une ou plusieurs des caractéristiques suivantes, prise(s) isolément ou suivant toutes les combinaisons techniquement possibles : - l’organe de vision présente un champ de vision additionnel, dit champ de vision restreint, le champ de vision restreint étant compris dans le champ de vision complet et présentant une étendue strictement inférieure au champ de vision complet, un critère spatial restreint étant satisfait si l’au moins un obstacle est dans le champ de vision restreint, le niveau de dangerosité étant, en outre, actualisé en fonction du critère spatial restreint lors de l’étape d’actualisation ; - la phase d’identification dudit au moins un obstacle est mise en œuvre n fois, n étant un nombre entier supérieur ou égal à 2 et la phase d’adaptation est mise en œuvre m fois, m étant un nombre entier supérieur ou égal à 2 ; - la phase d’avertissement est mise en œuvre par un système de réalité augmentée.
La présente description se rapporte également à un dispositif d’adaptation d’un niveau de dangerosité d’un niveau de dangerosité d’au moins un obstacle destiné à un système d’aide à la conduite d’un véhicule, un véhicule configuré pour se déplacer dans un environnement comprenant l’au moins un obstacle, un conducteur du véhicule ayant un organe de vision présentant un champ de vision, dit champ de vision complet, le dispositif d’adaptation du niveau de dangerosité comprenant : - un capteur d’images configuré pour acquérir des images prises d'une partie de l'environnement vue par le conducteur, et un contrôleur configuré pour déterminer l’orientation du champ de vision complet en fonction des images acquises et pour actualiser le niveau de dangerosité de l’au moins un obstacle, le niveau de dangerosité étant actualisé au moins en fonction de la satisfaction d’un critère spatial et d’un critère temporel, le critère spatial étant satisfait si l’au moins un obstacle est dans le champ de vision complet, et le critère temporel étant satisfait si le critère spatial est satisfait pendant une période de temps prédéfinie.
La présente description décrit aussi un système d’aide à la conduite d’un véhicule, le véhicule configuré pour se déplacer dans un environnement comprenant au moins un obstacle, un conducteur du véhicule ayant un organe de vision présentant un champ de vision, dit champ de vision complet, le système d’aide à la conduite comportant : - une unité de détection dudit au moins un obstacle configurée pour détecter l’au moins un obstacle, et - le dispositif d’adaptation tel que précité, le dispositif d’adaptation étant, en outre, configuré pour associer un niveau de dangerosité à l’au moins un obstacle, le système d’aide à la conduite étant un système de réalité augmentée, le système d’aide à la conduite comprenant, en outre, un afficheur configuré pour afficher une indication visuelle de l’au moins un obstacle en fonction du niveau de dangerosité adapté.
La présente description se rapporte également à un véhicule comprenant le dispositif tel que précité ou le système d’aide à la conduite tel que précité.
La présente description décrit aussi un produit programme d’ordinateur comprenant des instructions de programme mettant en oeuvre au moins une étape du procédé tel que précité, lorsque les instructions de programme sont exécutées par un ordinateur.
La présente description concerne, en outre, un support d’informations sur lequel est mémorisé le produit programme d’ordinateur tel que précité. D’autres caractéristiques et avantages de l’invention apparaîtront à la lecture de la description qui suit de modes de réalisation de l’invention, donnés à titre d’exemple uniquement et en référence aux dessins qui sont : - figure 1, une vue schématique d’un véhicule et d’un système d’aide à la conduite du véhicule, et - figure 2, un ordinogramme d’un procédé d’aide à la conduite d’un véhicule.
Un véhicule 10, l’environnement 12 du véhicule 10, un conducteur 14 du véhicule 10 et un système d’aide à la conduite 16 sont représentés sur la figure 1.
Le véhicule 10 est un véhicule mobile propre à se déplacer dans l’environnement 12.
Dans l’exemple de la figure 1, le véhicule 10 est une voiture.
Le véhicule 10 comprend un moteur 17, des essieux 18, des roues 19, une caisse 20 et des sièges 21.
Le moteur 17 du véhicule 10 est apte à entraîner les essieux 18 du véhicule 10 qui sont connectés aux roues 19. Les roues 19 effectuent un mouvement de rotation entraînant le déplacement du véhicule 10. Selon la direction de mouvement des roues 19, le véhicule 10 est propre à se déplacer en sens de la marche ou en marche arrière.
La direction de déplacement du véhicule 10 permet de définir une trajectoire de conduite du véhicule 10.
Le moteur 17 et les essieux 18 sont maintenus par la caisse 20 du véhicule 10.
La caisse 20 est une structure délimitant un espace intérieur 22, dans lequel les sièges 21 et le conducteur 14 sont situés. La structure de la caisse 20 délimite, en outre, des ouvertures vitrées 23. Les ouvertures vitrées 23 permettent une observation de l’environnement 12 par le conducteur 14 du véhicule 10.
En variante, non représentée, le véhicule est un poids-lourd, un vélo, une motocyclette, bus ou tout autre véhicule mobile de sol. En complément encore, non représenté, le véhicule est un aéronef ou un bateau. L’environnement 12 est l’ensemble des éléments extérieurs au véhicule 10. Dans l’exemple de la figure 1, l’environnement 12 est, de préférence, un environnement limité aux éléments ayant un impact dans la conduite du véhicule 10. Par exemple, l’environnement 12 est limité aux éléments se situant à 150 mètres du véhicule 10.
Par l’expression «à 150 mètres du véhicule», il est entendu une distance de 150 mètres du centre de gravité du véhicule 10. Le centre de gravité du véhicule 10 est le centre de gravité de la caisse 20 du véhicule 10. L’environnement 12 de la figure 1 comprend une route 24 et un obstacle 26.
La route 24 est un chemin comprenant une chaussée 28. La chaussée 28 présente une direction longitudinale et une direction transversale.
Le véhicule 10 est apte à se déplacer, en marche avant ou en marche arrière, sensiblement selon la direction longitudinale. Selon la direction transversale, la chaussée 28 est, par exemple, délimitée par des pierres de bordure.
Dans l’exemple de la figure 1, la route 24 est une route urbaine.
En variante, non représentée, la route 24 est une autoroute, une route de campagne ou une voie de terre. L’obstacle 26 est un objet dans l’environnement 12 constituant un obstacle pour le véhicule 10. L’obstacle 26 est mobile ou non.
Par l’expression « l’obstacle 26 est mobile >>, il est entendu que l’obstacle 26 est propre à se déplacer dans l’environnement 12.
Dans l’exemple de la figure 1, l’obstacle 26 est mobile. L’obstacle 26 est un piéton comportant deux jambes 30 munies chacune d’un pied 32. En utilisant des muscles de ses jambes 30, le piéton marche avec ses pieds 32 sur la chaussée 28 de la route 24.
Par le terme « marcher >>, il est entendu que le piéton se déplace débout sur ses pieds 32 sur la chaussée 28. A titre d’exemple, le piéton traverse la route 24 en marchant selon la direction transversale de la chaussée 28.
Le piéton est susceptible de modifier sa direction de déplacement, ce qui permet de définir une trajectoire d’obstacle 26. En outre, le piéton est apte à modifier sa vitesse de déplacement.
En variante, non représenté, l’obstacle 26 est, par exemple, un autre véhicule ou un gibier.
En variante encore, l’obstacle 26 est immobile.
Par l’expression « l’obstacle 26 est immobile >>, il est entendu que l’obstacle 26 n’est pas apte à se déplacer dans l’environnement 12. A titre d’exemple, l’obstacle 26 immobile est un arbre ou une glissière de sécurité.
En complément, l’environnement 12 comprend plusieurs obstacles, non représentés.
Le conducteur 14 est propre à conduire le véhicule 10.
Par le terme «conduire», il est entendu que le conducteur 14 est propre à collecter des informations sur l’environnement 12 et à effectuer des actions modifiant la trajectoire et la vitesse du véhicule 10. A titre d’exemple, lorsque le conducteur 14 voit un trou sur la chaussée 28, il va effectuer une manœuvre d’évitement du trou.
Le conducteur 14 est un être humain comportant des mains 34, des pieds 36 et une tête 38 muni d’un organe de vision 40.
Le conducteur 14 utilise ses mains 34 et ses pieds 36 pour interagir avec le véhicule 10. A titre d’exemple, le véhicule 10 est pourvu d’un volant et d’une boîte de vitesse qui sont actionnés mécaniquement par les mains 34 du conducteur 14. Le volant sert notamment au conducteur 14 pour contrôler la direction du véhicule 10.
Similairement, le véhicule 10 est muni de pédales actionnables par les pieds 36, notamment pour contrôler la vitesse du véhicule 10.
Pour collecter des informations sur l’environnement 12, le conducteur 14 utilise l’organe de vision 40 et la possibilité offerte par la tête 38 du conducteur 14 de tourner autour d’un axe sensiblement vertical (typiquement l’axe médian du conducteur 14).
Selon l’exemple illustré, l’organe de vision 40 est formé par les yeux du conducteur 14. En toute rigueur, l’organe de vision 40 fait intervenir également le cerveau pour analyser les informations collectées par les yeux.
Pour l’organe de vision 40, il est défini une direction centrale de vision 42 du conducteur 14 correspondant à la normale au visage du conducteur 14 passant par le milieu des yeux. L’organe de vision 40 est apte à percevoir visuellement les éléments de l’environnement 12 situés à une distance inférieure ou égale à une distance de visibilité.
La distance de visibilité est, par exemple, égale à 150 mètres. L’ensemble des éléments que l’organe de vision 40 est propre à percevoir permet de définir un champ de vision complet 44 pour l’organe de vision 40.
Par définition, le champ de vision complet 44 est, pour la suite, considéré comme étant un cône présentant un angle a défini et ayant comme hauteur 46 la distance de visibilité. Le cône est centré sur la direction centrale de vision 42 du conducteur 14. L’angle a et la hauteur 46 dépendent de plusieurs facteurs : les capacités visuelles du conducteur 14 et les conditions de visibilité. A titre d’exemple, un myope verra moins bien qu’un emmétrope. Selon un autre exemple, un conducteur 14 voit mieux sous le soleil que sous la pluie.
Un exemple typique de valeur pour l’angle a est un angle de 120°.
Tel que défini, le champ de vision complet 44 est très large et ne prend pas en compte le fait que la réactivité du conducteur 14 à la perception d’un obstacle 26 varie selon la distance de l’obstacle 26 par rapport à la direction centrale de vision 42. En particulier, un obstacle 26 situé dans la direction centrale de vision 42 est mieux perçu qu’un obstacle 26 à la limite du champ de vision complet 44.
Pour cela, il est également défini un champ de vision restreint 48 pour le conducteur 14.
Le champ de vision restreint 48 présente une étendue strictement inférieure au champ de vision complet 44.
Par l’expression « étendue », il est entendu la taille d’un cône du champ de vision restreint 48 ou du champ de vision complet 44.
Par définition, le champ de vision restreint 48 est, pour la suite, considéré comme étant le cône présentant un angle défini, dit angle restreint β, et ayant comme hauteur une distance inférieure ou égale à la distance de visibilité, dite hauteur restreinte 50.
Le cône de champ de vision restreint 48 est également centré sur la direction centrale de vision 42.
Le cône du champ de vision restreint 48 est strictement inclus dans le cône du champ de vision complet 44.
Cela signifie que l’angle restreint β est strictement inférieur à l’angle a du cône du champ de vision complet 44.
Typiquement, l’angle restreint β est égal à 60°.
En variante, la hauteur restreinte 50 est strictement inférieure à la distance de visibilité.
Une valeur typique de la hauteur restreinte 50 est, par exemple, égale à 80 mètres.
Par construction, un obstacle 26 perçu par le conducteur 14 dans le champ de vision restreint 48 et dans le champ de vision complet 44 conduit à une réaction plus rapide qu’un obstacle 26 perçu par le conducteur 14 dans une partie périphérique du champ de vision complet 44. La partie périphérique du champ de vision complet 44 est une partie qui n’est pas comprise dans le champ de vision restreint 48.
Par le terme « réaction », il est entendu, par exemple, une modification de la trajectoire ou de la vitesse du véhicule 10 par le conducteur 14.
Il est à noter que la description qui suit est valable pour d’autres formes du champ de vision, par exemple prenant en compte le fait que certaines parties de l’environnement 12 sont masquées.
Dans la suite, uniquement les formes coniques sont utilisées, la transposition à des formes plus élaborées étant simple à mettre en oeuvre.
Le système d’aide à la conduite 16 est propre à aider le conducteur 14 pour la conduite du véhicule 10.
Le système d’aide à la conduite 16 comprend une unité de détection 52, un contrôleur 54 et un capteur d’images 56. Le contrôleur 54 et le capteur d’images 56 forment un dispositif d’adaptation 57. L’unité de détection 52 est apte à détecter l’obstacle 26.
Par le terme « détecter » dans ce contexte, il est entendu qu’une information concernant la présence de l’obstacle 26 dans l’environnement 12 du véhicule 10 est obtenue. L’information obtenue comprend, par exemple, la position de l’obstacle 26 dans l’environnement 12 par rapport au véhicule 10. A titre d’exemple, l’unité de détection 52 détermine que l’obstacle 26 est positionné à 50 mètres en avant du véhicule 10.
Dans l’exemple de la figure 1, l’unité de détection 52 est un système radar (de l’anglais « RAdio Détection And Ranging »). L’unité de détection 52 de l’obstacle 26 de la figure 1 comporte un émetteur d’ondes électromagnétiques, un récepteur d’ondes électromagnétiques et une unité de traitement de signal. L’émetteur est configuré pour émettre des ondes électromagnétiques dans l’environnement 12.
Lors de la présence d’un obstacle 26 dans l’environnement 12, les ondes électromagnétiques émises sont réfléchies sur la surface de l’obstacle 26.
Le récepteur d’ondes électromagnétiques est propre à mesurer une partie des ondes réfléchies, dit écho.
Par l’expression « mesurer une partie des ondes réfléchies», il est entendu la détection d’une partie des ondes réfléchies. A titre d’exemple, le temps de propagation est plus grand si l’onde est réfléchie par l’obstacle 26 à une distance de 100 mètres du véhicule 10 que si l’onde est réfléchie par l’obstacle 26 à une distance de 10 mètres. L’unité de traitement de signal de l’unité de détection 52 est apte à déterminer la position de l’obstacle 26 en calculant le temps de propagation des ondes électromagnétiques (aller-retour) dans l’environnement 12. L’unité de détection 52 de l’obstacle 26 est installée à l’avant du véhicule 10.
En variante, non représentée, l’unité de détection 52 comporte un système lidar, un détecteur infrarouge ou une caméra. L’unité de détection 52 est connectée au contrôleur 54 par une connexion de données 58 configurée pour assurer la transmission de l’information de détection.
Le contrôleur 54 est un ordinateur.
Plus généralement, le contrôleur 54 est un calculateur électronique propre à manipuler et/ou transformer des données représentées comme des quantités électroniques ou physiques dans des registres du contrôleur 54 et/ou des mémoires en d’autres données similaires correspondant à des données physiques dans des mémoires, des registres ou d’autres types de dispositifs d’affichage, de transmission ou de mémorisation.
Le contrôleur 54 comporte un processeur 60 comprenant une unité de traitement de données 62 et des mémoires 64. Le contrôleur 54 comprend en outre un lecteur de support d’informations 66 configuré pour lire un programme d’ordinateur mémorisé sur un support lisible d’informations, non représenté. Le contrôleur 54 comprend, en outre, un produit programme d’ordinateur comprenant des instructions de programme.
Le contrôleur 54 a mémorisé un modèle en 3D de l’intérieur du véhicule 10.
Par l’expression « modèle en 3D >>, il est entendu un modèle numérique comprenant des objets en trois dimensions. A titre d’exemple, le modèle en 3D comprend l’aspect du tableau de bord, du volant et des sièges 21.
Le contrôleur 54 est, en outre, configuré pour déterminer la direction centrale de vision 42 du conducteur 14, par exemple par rapport à un axe fixé au véhicule 10. Le contrôleur 54 est configuré pour déterminer un angle δ (non représenté), l’angle δ étant formé entre un axe longitudinal du véhicule 10 et la direction centrale de vision 42.
Le contrôleur 54 est connecté par une connexion de données 68 au capteur d’images 56. La connexion de données 68 assure une transmission de données entre le capteur d’images 56 et le contrôleur 54.
Le capteur d’images 56 est configuré pour acquérir des images d’une partie de l’environnement 12 vue par le conducteur 14, de préférence l’ensemble de la portion l’environnement 12 qui est vue par le conducteur 14.
Le capteur d’images 56 est configuré pour acquérir des images de l’intérieur du véhicule 10 prises selon un point de référence pour le conducteur 14 et selon la direction centrale de vision 42 du conducteur 14.
Le point de référence pour le conducteur 14 est, par exemple, le milieu d’une droite reliant les milieux des yeux du conducteur 14.Pour le capteur d’images 56, il est défini une direction de prise d’image comme étant la direction reliant le point central du capteur d’images 56 et le point milieu de chaque image prise.
Dans l’exemple de la figure 1, le capteur d’images 56 est une caméra fixée sur la tête 38 du conducteur 14 de telle façon que la direction de prise d’image corresponde à la direction centrale de vision 42. A titre d’illustration, lorsque le conducteur 14 tourne la tête 38, la direction centrale de vision 42 varie de l’angle δ et la direction de prise d’image est modifiée du même angle δ.
Ainsi, la direction d’orientation de la tête 38 du conducteur 14 correspond à la direction de prise d’image du capteur d’images 56.
En complément, le système d’aide à la conduite 16 comprend ici un afficheur 70 en réalité augmentée.
Le système d’aide à la conduite 16 comprenant l’afficheur 70 constitue alors un système de réalité augmentée.
Par l’expression « réalité augmentée », il est entendu qu’il est fourni au conducteur 14 des informations additionnelles sur des objets réels dans un champ de vision du conducteur 14, notamment dans le champ de vision complet 44. L’afficheur 70 est propre à présenter des informations additionnelles sur des obstacles présents dans l’environnement 12 du conducteur 14. A titre d’exemple, l’afficheur 70 est propre à mettre en évidence un virage serré de la route 24 en affichant une flèche pour le conducteur 14.
Selon un autre exemple, la trajectoire instantanée d’un utilisateur de la route 24 dans l’environnement 12 du véhicule 10 est affichée au conducteur 14.
Dans l’exemple de la figure 1, l’afficheur 70 est une paire de lunettes 71 de réalité augmentée. Des lunettes 71 comportent un cadre mécanique, des verres de lunettes, une unité de stockage d’énergie et une unité de communication.
Le cadre mécanique est une structure délimitant des ouvertures, dans lesquelles les verres de lunettes sont insérés. Le cadre mécanique est maintenu par le nez et les oreilles du conducteur 14 lorsque les lunettes 71 sont portées par le conducteur 14. Dans l’exemple de la figure 1, le cadre mécanique comporte un dispositif de fixation du capteur d’images 56.
Les verres de lunettes sont transparents et permettent l’affichage d’informations. Les verres de lunettes sont configurés pour être alimentés par l’unité de stockage d’énergie. L’unité de communication des lunettes 71 est configurée pour recevoir des données à afficher du contrôleur 54 et transférer les données aux verres de lunettes.
En variante, non représentée, l’afficheur 70 est un viseur tête haute. A titre d’exemple, le viseur tête haute est apte à fournir une vision augmentée selon un angle horizontal de 13,4° et selon un angle vertical de 5° par rapport au conducteur 14.
Le fonctionnement du système d’aide à la conduite 16 est maintenant décrit en référence à la figure 2 montrant un ordinogramme d’un exemple de mise en oeuvre d’un procédé d’aide à la conduite du véhicule 10. A titre d’exemple, dans ce qui suit, quatre modes de réalisation du procédé d’aide à la conduite sont décrits.
Selon un premier mode de réalisation, le procédé d’aide à la conduite comporte une phase d’identification 100 de l’obstacle 26, une phase d’adaptation 110 et une phase d’avertissement 115.
La phase d’identification 100 comprend une étape de détection 120 de l’obstacle 26 et une étape d’association 130 d’un niveau de dangerosité.
Lors de l’étape de détection 120 de l’obstacle 26, l’obstacle 26 est détecté.
Cela signifie, comme expliqué précédemment, qu’une information concernant l’obstacle 26 est obtenue. L’information obtenue est, par exemple, une ou plusieurs caractéristiques de l’obstacle 26. L’information obtenue est, par exemple, une information sur la position relative de l’obstacle 26 par rapport au véhicule 10. L’étape de détection 120 est mise en oeuvre par l’unité de détection 52. A titre d’exemple, l’unité de détection 52 émet des ondes électromagnétiques qui sont réfléchies sur la surface de l’obstacle 26. L’unité de détection 52 détecte l’obstacle 26 par mesure des ondes électromagnétiques réfléchies sur la surface de l’obstacle 26. La position de l’obstacle 26 est déterminée en calculant le temps de propagation aller-retour des ondes électromagnétiques dans l’environnement 12.
En complément, lors de l’étape de détection 120, une information sur la taille de l’obstacle 26 est obtenue. L’unité de détection 52 met en oeuvre un algorithme de détermination de taille d’obstacle 26 utilisant les mesures des ondes électromagnétiques réfléchies.
En complément encore, lors de l’étape de détection 120, une information sur la forme de l’obstacle 26 est obtenue. L’unité de détection 52 met en oeuvre un algorithme de détermination de forme d’obstacle 26 utilisant les mesures des ondes électromagnétiques réfléchies.
En complément encore, lors de l’étape de détection 120, une information sur le type de l’obstacle 26 est obtenue lors de l’étape de détection 120. L’unité de détection 52 met en oeuvre un algorithme de détermination de type d’obstacle 26 utilisant les mesures des ondes électromagnétiques réfléchies. A titre d’exemple, l’algorithme de détermination de type de l’obstacle 26 prend en compte la forme et la taille déterminées de l’obstacle 26. A titre d’illustration, le type d’obstacle 26 déterminé est un piéton ou une autre voiture.
En complément encore, une information sur la trajectoire de l’obstacle 26 est obtenue. A titre d’exemple, l’information sur la trajectoire est une trajectoire prédite de l’obstacle 26. L’unité de détection 52 prend en compte une ou plusieurs informations afin de déterminer l’information de la trajectoire. A titre d’exemple, l’unité de détection 52 prend en compte l’information sur la position relative de l’obstacle 26, pendant des instants successifs, et l’information sur la taille de l’obstacle 26. L’unité de détection 52 met en oeuvre un algorithme de détermination de l’information de la trajectoire en utilisant la pluralité d’informations.
En complément encore, une pluralité d’obstacles 26 est détectée. A l’issue de l’étape de détection 120, l’information concernant l’obstacle 26 est obtenue. A titre d’exemple, l’information obtenue est la position de l’obstacle 26.
Lors de l’étape d’association 130 d’un niveau de dangerosité, un niveau de dangerosité est associé à l’obstacle 26.
Par exemple, le véhicule 10 se déplace selon la trajectoire de conduite et l’obstacle 26 se déplace dans l’environnement 12 selon la trajectoire d’obstacle 26.
Or, la trajectoire de conduite et la trajectoire d’obstacle 26 sont susceptibles de se croiser. En effet, si les trajectoires comportent la même position au même instant, une collision se produit. De même, si la trajectoire de conduite comporte, à un instant donnée, une position proche de la position de la trajectoire de l’obstacle, une collision est probable puisqu’il suffit d’une modification mineure d’une des trajectoires pour qu’une collision se produise.
La probabilité d’une collision entre le véhicule 10 et l’obstacle 26 permet de définir un niveau de dangerosité.
Le niveau de dangerosité décrit le risque d’une collision entre le véhicule 10 et l’obstacle 26. A titre d’exemple, si la trajectoire de conduite comprend une position très proche d’une position de la trajectoire d’obstacle 26, le niveau de dangerosité est très élevé.
Le niveau de dangerosité est, par exemple, un nombre entier compris entre 1 et 10, la valeur 1 correspondant à un niveau de dangerosité très faible, et la valeur 10 à un niveau de dangerosité très élevé. L’étape d’association 130 du niveau de dangerosité à l’obstacle 26 est mise en œuvre par le contrôleur 54. Le contrôleur 54 reçoit, par la connexion de données 58, la position déterminée de l’obstacle 26. En outre, le contrôleur 54 reçoit, par des capteurs de conduite du véhicule 10, non représentés, la trajectoire de conduite. A partir de la position de l’obstacle 26 et de la trajectoire de conduite du véhicule 10, le contrôleur 54 associe un niveau de dangerosité à l’obstacle 26.
En complément, l’étape d’association 130 est réitérée à chaque fois qu’une image est prise par l’unité de détection 52. A l’issue de la phase d’identification 100, un niveau de dangerosité est associé à chaque obstacle 26 dans l’environnement 12.
La phase d’adaptation 110 du niveau de dangerosité comprend une étape d’acquisition d’images 140, une étape de détermination 150 et une étape d’actualisation 160.
Lors de l’étape d’acquisition d’images 140, des images relatives à la direction centrale de vision 42 du conducteur 14 sont acquises. Les images acquises de l’intérieur du véhicule 10 sont, par exemple, utilisées pour déterminer la direction centrale de vision 42, comme décrit ci-après. L’étape d’acquisition d’images 140 est mise en oeuvre par le capteur d’images 56.
Le capteur d’images 56 étant fixé sur la tête 38 du conducteur 14, le capteur d’images tourne avec la tête 38 du conducteur 14. Lorsque le conducteur 14 tourne la tête 38, la direction centrale de vision 42 varie du même angle δ que la direction de prise d’image de l’intérieur du véhicule 10. A l’issue de l’étape d’acquisition d’images 140, des images prises à partir du point de vue du conducteur 14 sont obtenues.
En d’autres termes, des images de l’intérieur du véhicule 10 sont obtenues.
Les images de l’intérieur du véhicule 10 sont transmises au contrôleur 54 pour traitement.
Lors de l’étape de détermination 150, le champ de vision complet 44 est déterminé. Notamment, l’orientation du champ de vision complet 44 est déterminée. L’étape de détermination 150 est mise en oeuvre par le contrôleur 54.
Le contrôleur 54 reçoit des images prises par le capteur d’images 56. Le contrôleur 54 met en oeuvre un algorithme de reconnaissance d’images qui est apte à associer l’image prise du capteur d’images 56 au modèle en 3D de l’intérieur du véhicule 10. A titre d’exemple, le contrôleur 54 met en oeuvre un algorithme de type SLAM (de l’anglais « Simultaneous localisation and mapping »). L’algorithme de type SLAM est apte à estimer, à partir des images prises, notamment à partir des points d’intérêt dans les images et le suivi au cours du temps, la position et l’orientation du capteur d’images 56 dans l’espace intérieur 22 du véhicule 10. L’image étant prise par le capteur d’images 56 fixé sur la tête 38 du conducteur 14, la position et l’orientation de la tête 38 du conducteur 14 sont déterminées.
La direction centrale de vision 42 est ainsi déterminée, à partir des images prises de l’intérieur du véhicule et du modèle en 3D de l’intérieur du véhicule 10.
Le contrôleur 54 détermine l’angle δ formé entre l’axe longitudinal du véhicule 10 et la direction centrale de vision 42.
Le contrôleur 54 comporte, enregistré sur le support lisible d’informations des données enregistrées. Les données enregistrées sont, par exemple, une valeur de l’angle a du cône du champ de vision complet 44 et une valeur de la hauteur 46 du cône du champ de vision complet 44.
Le contrôleur 54 détermine, à partir des données enregistrées et à partir de la direction centrale de vision 42, le champ de vision complet 44.Lors de l’étape d’actualisation 160, le niveau de dangerosité de l’obstacle 26, est actualisé.
Selon le premier mode de réalisation, le niveau de dangerosité de l’obstacle 26 est actualisé en fonction de la satisfaction d’un critère spatial CS1 et d’un critère temporel CT.
Le critère spatial CS1 correspond à la présence ou non de l’obstacle 26 dans le champ de vision complet 44.
Le critère spatial CS1 est satisfait si l’obstacle 26 est au moins en partie dans le champ de vision complet 44. Le critère spatial CS1 est non-satisfait si aucune partie de l’obstacle 26 n’est dans le champ de vision complet 44. A titre d’exemple, une main d’un piéton formant l’obstacle 26 est compris dans le champ de vision complet 44. Le piéton est en partie compris dans le cône du champ de vision complet 44.
En variante, le critère spatial CS1 est satisfait seulement si l’obstacle 26 est entièrement dans le champ de vision complet 44.
Par l’expression « entièrement dans le champ de vision complet 44 », il est entendu que chaque partie de l’obstacle 26 est comprise dans le cône du champ de vision complet 44.
Le critère temporel CT est fonction du critère spatial CS1, et du temps. Le critère temporel CT stipule que l’obstacle 26 est présent continûment dans le champ de vision complet 44 pendant une période de temps prédéfinie.
La période de temps prédéfinie est, par exemple, définie au préalable et égale à 10 secondes.
Le critère temporel CT est un critère décrivant la perception de l’obstacle 26 par le conducteur 14.
Par le terme « perception », il est entendu la perception sensorielle de l’obstacle 26 par le conducteur 14. A titre d’exemple, si un chat entre uniquement pendant 2 secondes dans le champ de vision complet 44, le conducteur 14 ne perçoit pas le chat.
Selon un autre exemple, si le chat est assis sur la chaussée 28 et qu’il est dans le champ de vision complet 44 pendant 30 secondes, le conducteur 14 perçoit le chat.
Le critère temporel CT est satisfait si le critère spatial CS1 est satisfait pendant la période de temps définie. Le critère temporel CT est non-satisfait si l’obstacle 26 est hors du champ de vision complet 44 ou si l’obstacle 26 est dans le champ de vision complet 44 pendant une période de temps strictement inférieure à la période de temps définie. L’étape d’actualisation 160 est mise en oeuvre par le système d’aide à la conduite 16.
En particulier, le contrôleur 54 reçoit, à l’issue de l’étape de détection 120, la position de l’obstacle 26. En outre, le contrôleur 54 obtient, à l’issue de l’étape de détermination 150, le champ de vision complet 44.
Le contrôleur 54 détermine si la position de l’obstacle 26 est comprise dans le champ de vision complet 44.
Si la position de l’obstacle 26 est comprise dans le champ de vision complet 44, le critère spatial CS1 est satisfait.
Si la position de l’obstacle 26 n’est pas comprise dans le champ de vision complet 44, le critère spatial CS1 n’est pas satisfait.
Le contrôleur 54 détermine si le critère spatial CS1 est satisfait pendant la période de temps définie, ce qui correspond à la satisfaction du critère temporel CT.
En fonction de la satisfaction du critère spatial CS1 et du critère temporel CT, le niveau de dangerosité est augmenté ou baissé.
Par exemple, le niveau de dangerosité est augmenté, si le critère spatial CS1 est non-satisfait. L’obstacle 26 n’est pas perçu par le conducteur 14.
Le niveau de dangerosité est baissé, si le critère spatial CS1 et le critère temporel CT sont satisfaits. L’obstacle 26 est en continu dans le champ de vision complet 44 pendant la période définie et donc perçu par le conducteur 14.
Lors de la phase d’avertissement 115, le niveau de dangerosité est signalé au conducteur 14.
De préférence, la phase d’avertissement 115 est mise en œuvre conformément au règlement n° 125 de l’UNECE (de l’anglais «United Nations Economie Commission for Europe >>). Cela implique notamment de respecter la conservation de certaines zones de regard du conducteur 14 sans aucun affichage. De ce fait, ces zones doivent être exemptes de masquage.
Dans l’exemple de la figure 1, le niveau de dangerosité est affiché au conducteur 14 sur les verres des lunettes 71. A titre d’illustration, une annotation de l’obstacle 26 est affichée. L’annotation est superposée sur l’obstacle 26 ou non. L’annotation est, par exemple, un rectangle. L’annotation coïncide avec l’obstacle 26 si le conducteur 14 tourne la tête 38 de sorte que l’obstacle 26 apparaît dans le champ de vision complet 44. L’annotation comprend une caractéristique qui correspond au niveau de dangerosité. Par exemple, si le niveau de dangerosité est très élevé, l’annotation est de couleur rouge, et si le niveau de dangerosité est moyen, l’annotation est de couleur blanche.
La phase d’avertissement 115 est mise en œuvre par l’afficheur 70.
Lorsque l’afficheur 70 est une paire de lunettes 71 de réalité augmentée, l’unité de communication des lunettes 71 reçoit des données à afficher du contrôleur 54 et transfère les données aux verres. Les verres affichent, par exemple, le niveau de dangerosité de l’obstacle 26 au conducteur 14.
En variante, non représenté, le niveau de dangerosité est signalé de façon acoustique au conducteur 14.
Selon un deuxième mode de réalisation du procédé d’aide à la conduite, les étapes identiques au premier mode de réalisation ne sont pas détaillées à nouveau dans ce qui suit. Seules les différences par rapport au premier mode de réalisation sont mises en évidence.
Selon le deuxième mode de réalisation, lors de l’étape de détermination 150, le champ de vision restreint 48 est, en outre, déterminé.
Le contrôleur 54 présente, enregistré sur le support lisible d’informations, une valeur de l’angle restreint β du cône du champ de vision restreint 48 et une valeur de la hauteur restreinte 50 du cône du champ de vision restreint 48.
Le contrôleur 54 détermine, avec les données enregistrées et la direction centrale de vision 42, le champ de vision restreint 48. A l’issue de l’étape de détermination 150, le champ de vision complet 44 est, en outre, obtenu.
Selon le deuxième mode de réalisation, lors de l’étape d’actualisation 160, le niveau de dangerosité est, en outre, actualisé en fonction d’un critère spatial restreint CS2.
Le critère spatial restreint CS2 stipule que l’obstacle 26 est présent dans le champ de vision restreint 48.
Le critère spatial restreint CS2 est satisfait si l’obstacle 26 est localisé dans le champ de vision restreint 48. Le critère spatial restreint CS2 est non-satisfait si l’obstacle 26 est hors du champ de vision restreint 48.
En fonction de la satisfaction du critère spatial restreint CS2 et du critère temporel CT, le niveau de dangerosité est actualisé de manière supplémentaire.
Le niveau de dangerosité est baissé de manière supplémentaire, si le critère spatial restreint CS2 et le critère temporel CT sont satisfaits.
En effet, un obstacle 26 perçu par le conducteur 14 dans le champ de vision restreint 48 et dans le champ de vision complet 44 conduit à une réaction du conducteur 14 plus rapide qu’un obstacle 26 perçu par le conducteur 14 uniquement dans la partie périphérique du champ de vision complet 44.
Si la combinaison du critère spatial restreint CS2 et du critère temporel CT n’est pas satisfaite, le niveau de dangerosité n’est pas actualisé de manière supplémentaire. A l’issue de l’étape d’actualisation 160, un nouveau niveau de dangerosité, dit niveau de dangerosité actualisé, est obtenu.
Selon un troisième mode de réalisation du procédé d’aide à la conduite, les étapes identiques au premier mode de réalisation ne sont pas détaillées à nouveau dans ce qui suit. Seules les différences par rapport au premier mode de réalisation sont mises en évidence.
Selon le troisième mode de réalisation du procédé d’aide à la conduite, le procédé est mis en oeuvre plusieurs fois.
La phase d’identification 100 de l’obstacle 26 du premier mode de réalisation est mise en oeuvre n fois, n étant un nombre entier supérieur ou égal à 2. A titre d’exemple, la phase d’identification 100 de l’obstacle 26 est mise en oeuvre chaque fois qu’une donnée est obtenue par l’unité de détection 52.
Selon un autre exemple, la phase d’identification 100 de l’obstacle 26 est mise en oeuvre 1000 fois, pendant 1000 secondes, une fois par seconde.
La phase d’adaptation 110 de l’obstacle 26 est mise en oeuvre m fois, m étant un nombre entier supérieur ou égal à 2. A titre d’exemple, la phase d’adaptation 110 de l’obstacle 26 est mise en oeuvre à chaque acquisition d’une image par le capteur d’images 56.
La phase d’adaptation 110 comprend l’étape d’acquisition d’images 140 selon le premier mode de réalisation, l’étape de détermination 150 selon le premier mode de réalisation et une étape d’actualisation 160 selon le troisième mode de réalisation.
Lors de l’étape d’actualisation 160 selon le troisième mode de réalisation, le niveau de dangerosité est actualisé en fonction de la satisfaction du critère spatial CS1, du critère temporel CT et, en outre, en fonction d’un marqueur M.
Le marqueur M décrit la perception de l’obstacle 26 par le conducteur 14 lors d’un passage de la phase d’adaptation 110.
Le marqueur M correspond à l’information relative au fait que l’obstacle 26 a été perçu par le conducteur 14 lors d’une mise en oeuvre précédente du procédé.
Le marqueur M présente la valeur « perçu >> ou une valeur « non perçu >>. La valeur « perçu >> correspond à une perception de l’obstacle 26 par le conducteur 14. Si le marqueur M présente la valeur « perçu >>, le conducteur 14 a pris connaissance de l’obstacle 26. Si le marqueur M présente la valeur « non perçu >>, le conducteur 14 n’a pas pris connaissance de l’obstacle 26.
Par défaut, le marqueur M présente la valeur « non perçu >>.
Le niveau de dangerosité est augmenté, baissé ou maintenu.
Le niveau de dangerosité est augmenté si le critère spatial CS1 est non-satisfait et si le marqueur M présente la valeur « non perçu >>. L’obstacle 26 n’est pas perçu par le conducteur 14 à la présente mise en œuvre du procédé et n’était pas non plus perçu lors d’une mise en œuvre précédente du procédé.
Le niveau de dangerosité est baissé si le critère spatial CS1 et le critère temporel CT sont satisfaits. L’obstacle 26 est perçu par le conducteur 14 dns le champ de vision complet 44.
Si le niveau de dangerosité est baissé, la valeur « perçu >> est attribuée au marqueur M. La valeur « perçu >> reste attribuée à l’obstacle 26 lors des mises en œuvres successives du procédé, une fois que le conducteur 14 a perçu l’obstacle 26.
Si le niveau de dangerosité n’est pas augmenté ou baissé, il est maintenu. Par exemple, le niveau de dangerosité est maintenu si le critère spatial CS1 est satisfait et le marqueur M présente la valeur « non perçu >> ou si critère spatial CS1 est non-satisfait et le marqueur M présente la valeur « perçu >>.
Selon un quatrième mode de réalisation du procédé d’aide à la conduite, les étapes identiques au deuxième mode de réalisation ne sont pas détaillées à nouveau dans ce qui suit. Seules les différences par rapport au deuxième mode de réalisation sont mises en évidence.
Selon le quatrième mode de réalisation du procédé d’aide à la conduite, le procédé est mis en œuvre plusieurs fois.
La phase d’identification 100 de l’obstacle 26 telle que décrite ci-dessus est mise en œuvre n fois, n étant un nombre entier supérieur ou égal à 2. A titre d’exemple, la phase d’identification 100 de l’obstacle 26 est mise en œuvre chaque fois qu’une donnée est obtenue par le l’unité de détection 52.
Selon un autre exemple, la phase d’identification 100 de l’obstacle 26 est mise en œuvre 1000 fois, pendant 1000 secondes, une fois par seconde.
La phase d’adaptation 110 de l’obstacle 26 est mise en œuvre m fois, m étant un nombre entier supérieur ou égal à 2. A titre d’exemple, la phase d’adaptation 110 de l’obstacle 26 est mise en œuvre à chaque acquisition d’une image par le capteur d’images 56.
La phase d’adaptation 110 comprend l’étape d’acquisition d’images 140 selon le deuxième mode de réalisation, l’étape de détermination 150 selon le deuxième mode de réalisation et l’étape d’actualisation 160.
Lors de l’étape d’actualisation 160 selon le quatrième mode de réalisation, le niveau de dangerosité est actualisé, en outre, en fonction de la satisfaction du critère spatial restreint CS2 et en fonction d’un marqueur restreint MR.
Le marqueur restreint MR décrit une perception forte de l’obstacle 26 par le conducteur 14 lors d’un passage de la phase d’adaptation 110.
Le marqueur restreint MR porte l’information si l’obstacle 26 a été perçu de manière particulièrement pertinente par le conducteur 14 lors d’une mise en œuvre précédente du procédé.
Le marqueur restreint MR présente la valeur « perçu » ou une valeur « non perçu ». La valeur « perçu » correspond à une perception de l’obstacle 26 par le conducteur 14. Si le marqueur restreint MR présente la valeur « perçu », le conducteur 14 a pris connaissance de l’obstacle 26 dans le champ de vision restreint 48. Si le marqueur restreint MR présente la valeur « non perçu », le conducteur 14 n’a pas perçu l’obstacle 26 dans le champ de vision restreint 48.
Par défaut, le marqueur restreint MR présente la valeur « non perçu ».
Selon un quatrième mode de réalisation, le niveau de dangerosité baissé de manière supplémentaire ou non.
Le niveau de dangerosité est baissé de manière supplémentaire, si le critère spatial restreint CS2 et le critère temporel CT sont satisfaits. L’obstacle 26 est perçu par le conducteur 14 dans le champ de vision restreint 48.
Si le niveau de dangerosité est baissé, la valeur « perçu » est attribuée au marqueur restreint MR. La valeur « perçu » reste attribuée à l’obstacle 26 lors des mises en œuvres successives du procédé, une fois que le conducteur 14 a perçu l’obstacle 26.
Le niveau de dangerosité n’est pas baissé de manière supplémentaire, si le critère spatial restreint CS2 est satisfait et le marqueur restreint MR présente la valeur « non perçu » ou si critère spatial restreint CS2 est non-satisfait et le marqueur restreint MR présente la valeur « perçu ».
Chaque mode de réalisation décrit du procédé tel que décrit précédemment permet de mieux prendre en compte la perception d’un obstacle 26 par le conducteur 14. Par exemple, si l’obstacle 26 est perçu par le conducteur 14, le niveau de dangerosité est baissé. Si l’obstacle 26 n’est pas perçu par le conducteur 14, le niveau de dangerosité est augmenté.
Pour les obstacles 26 dont le conducteur 14 n’a pas pris connaissance, un niveau de dangerosité élevé est affiché au conducteur 14. L’attention du conducteur 14 est attirée par l’affichage du niveau de dangerosité élevé. Ceci permet de mieux assister le conducteur 14 lors de la conduite. L’afficheur 70 du conducteur 14 permet de souligner l’obstacle 26. Par exemple, les lunettes 71 permettent une annotation virtuelle de l’obstacle 26. En conséquence, le conducteur 14 est informé de façon très pertinente sur les obstacles 26 présents dans l’environnement 12.
La localisation de la position et la détermination de l’orientation de la tête 38 du conducteur 14 se basent uniquement sur des images capturées par le capteur d’images 56. Aucun équipement de mesure supplémentaire n’est impliqué pour déterminer la position et l’orientation de la tête 38 du conducteur 14.
En outre, les lunettes 71 sont facilement utilisables dans un autre véhicule 10 équipé de l’unité de détection 52 et du contrôleur 54, car les lunettes 71 sont amovibles. L’invention concerne aussi toutes combinaisons techniquement possibles des modes de réalisation précédemment décrits.

Claims (9)

  1. REVENDICATIONS
    1. - Procédé d’aide à la conduite d’un véhicule (10), le véhicule (10) se déplaçant dans un environnement (12) comprenant au moins un obstacle (26), un conducteur (14) du véhicule (10) ayant un organe de vision (40) présentant un champ de vision, dit champ de vision complet (44), le procédé comprenant au moins: - une phase d’identification dudit au moins un obstacle (26), la phase d’identification comprenant : • une étape de détection dudit au moins un obstacle (26), l’étape de détection étant mise en oeuvre par au moins une unité de détection (52), et • une étape d’association d’un niveau de dangerosité audit au moins un obstacle (26), - une phase d’adaptation du niveau de dangerosité, comprenant : • une étape d’acquisition d’images d'une partie de l'environnement (12) vue par le conducteur (14), • une étape de détermination de l’orientation du champ de vision complet (44) en fonction des images acquises, et • une étape d’actualisation du niveau de dangerosité dudit au moins un obstacle (26), le niveau de dangerosité étant actualisé au moins en fonction de la satisfaction d’un critère spatial (CS1) et d’un critère temporel (CT), le critère spatial (CS1) étant satisfait si l’au moins un obstacle (26) est dans le champ de vision complet (44), et le critère temporel (CT) étant satisfait si le critère spatial (CS1) est satisfait pendant une période de temps prédéfinie, et - une phase d’avertissement, durant laquelle le niveau de dangerosité est signalé au conducteur (14).
  2. 2, - Procédé selon la revendication 1, dans lequel l’organe de vision (40) présente un champ de vision additionnel, dit champ de vision restreint (48), le champ de vision restreint (48) étant compris dans le champ de vision complet (44) et présentant une étendue strictement inférieure au champ de vision complet (44), un critère spatial restreint (CS2) étant satisfait si l’au moins un obstacle (26) est dans le champ de vision restreint (48), le niveau de dangerosité étant, en outre, actualisé en fonction du critère spatial restreint (CS2) lors de l’étape d’actualisation.
  3. 3. - Procédé selon la revendication 1 ou 2, dans lequel la phase d’identification dudit au moins un obstacle (26) est mise en œuvre n fois, n étant un nombre entier supérieur ou égal à 2 et la phase d’adaptation est mise en œuvre m fois, m étant un nombre entier supérieur ou égal à 2.
  4. 4. - Procédé selon l’une quelconque des revendications 1 à 3, dans lequel la phase d’avertissement est mise en œuvre par un système de réalité augmentée.
  5. 5. - Dispositif d’adaptation (57) d’un niveau de dangerosité d’au moins un obstacle (26) destiné à un système d’aide à la conduite (16) d’un véhicule (10), un véhicule (10) configuré pour se déplacer dans un environnement (12) comprenant l’au moins un obstacle (26), un conducteur (14) du véhicule (10) ayant un organe de vision (40) présentant un champ de vision, dit champ de vision complet (44), le dispositif d’adaptation (57) du niveau de dangerosité comprenant : - un capteur d’images (56) configuré pour acquérir des images prises d'une partie de l'environnement (12) vue par le conducteur (14), et un contrôleur (54) configuré pour déterminer l’orientation du champ de vision complet (44) en fonction des images acquises et pour actualiser le niveau de dangerosité de l’au moins un obstacle (26), le niveau de dangerosité étant actualisé au moins en fonction de la satisfaction d’un critère spatial (CS1) et d’un critère temporel (CT), le critère spatial (CS1) étant satisfait si l’au moins un obstacle (26) est dans le champ de vision complet (44), et le critère temporel (CT) étant satisfait si le critère spatial (CS1) est satisfait pendant une période de temps prédéfinie.
  6. 6. - Système d’aide à la conduite (16) d’un véhicule (10), le véhicule (10) configuré pour se déplacer dans un environnement (12) comprenant au moins un obstacle (26), un conducteur (14) du véhicule (10) ayant un organe de vision (40) présentant un champ de vision, dit champ de vision complet (44), le système d’aide à la conduite (16) comportant : - une unité de détection (52) dudit au moins un obstacle (26) configurée pour détecter l’au moins un obstacle (26), et - le dispositif d’adaptation (57) selon la revendication 5, le dispositif d’adaptation (57) étant, en outre, configuré pour associer un niveau de dangerosité à l’au moins un obstacle (26), le système d’aide à la conduite (16) étant un système de réalité augmentée, le système d’aide à la conduite (16) comprenant, en outre, un afficheur (70) configuré pour afficher une indication visuelle de l’au moins un obstacle (26) en fonction du niveau de dangerosité adapté.
  7. 7. - Véhicule (10) comprenant le dispositif selon la revendication 5 ou le système d’aide à la conduite (16) selon la revendication 6.
  8. 8. - Produit programme d’ordinateur comprenant des instructions de programme mettant en oeuvre au moins une étape du procédé selon l’une quelconque des revendications 1 à 4, lorsque les instructions de programme sont exécutées par un ordinateur.
  9. 9. - Support d’informations sur lequel est mémorisé le produit programme d’ordinateur selon la revendication 8.
FR1850102A 2018-01-05 2018-01-05 Procede d'aide a la conduite d'un vehicule et dispositifs associes Active FR3076521B1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR1850102A FR3076521B1 (fr) 2018-01-05 2018-01-05 Procede d'aide a la conduite d'un vehicule et dispositifs associes

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1850102 2018-01-05
FR1850102A FR3076521B1 (fr) 2018-01-05 2018-01-05 Procede d'aide a la conduite d'un vehicule et dispositifs associes

Publications (2)

Publication Number Publication Date
FR3076521A1 true FR3076521A1 (fr) 2019-07-12
FR3076521B1 FR3076521B1 (fr) 2020-02-07

Family

ID=62143319

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1850102A Active FR3076521B1 (fr) 2018-01-05 2018-01-05 Procede d'aide a la conduite d'un vehicule et dispositifs associes

Country Status (1)

Country Link
FR (1) FR3076521B1 (fr)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113470314A (zh) * 2020-03-31 2021-10-01 北京新能源汽车股份有限公司 一种疲劳预警控制方法、装置、设备及汽车
CN113911034A (zh) * 2021-11-04 2022-01-11 无锡睿勤科技有限公司 驾驶视野保障设备、方法及计算机可读存储介质
CN115662186A (zh) * 2022-10-13 2023-01-31 安徽信息工程学院 基于人工智能的车辆避障方法以及***

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011075392A1 (fr) * 2009-12-18 2011-06-23 Honda Motor Co., Ltd. Interface homme-machine prédictive utilisant une technologie de suivi oculaire, des indicateurs d'angle mort et l'expérience d'un conducteur
DE102013206739A1 (de) * 2013-04-16 2014-10-16 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Bestimmung, ob ein Insasse eines Fahrzeugs relevante Objekte im Umfeld des Fahrzeugs bemerkt
EP3070700A1 (fr) * 2015-03-20 2016-09-21 Harman International Industries, Incorporated Systèmes et procédés pour alertes de pilotes prioritaires

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011075392A1 (fr) * 2009-12-18 2011-06-23 Honda Motor Co., Ltd. Interface homme-machine prédictive utilisant une technologie de suivi oculaire, des indicateurs d'angle mort et l'expérience d'un conducteur
DE102013206739A1 (de) * 2013-04-16 2014-10-16 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Bestimmung, ob ein Insasse eines Fahrzeugs relevante Objekte im Umfeld des Fahrzeugs bemerkt
EP3070700A1 (fr) * 2015-03-20 2016-09-21 Harman International Industries, Incorporated Systèmes et procédés pour alertes de pilotes prioritaires

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113470314A (zh) * 2020-03-31 2021-10-01 北京新能源汽车股份有限公司 一种疲劳预警控制方法、装置、设备及汽车
CN113911034A (zh) * 2021-11-04 2022-01-11 无锡睿勤科技有限公司 驾驶视野保障设备、方法及计算机可读存储介质
CN115662186A (zh) * 2022-10-13 2023-01-31 安徽信息工程学院 基于人工智能的车辆避障方法以及***
CN115662186B (zh) * 2022-10-13 2023-09-15 安徽信息工程学院 基于人工智能的车辆避障方法以及***

Also Published As

Publication number Publication date
FR3076521B1 (fr) 2020-02-07

Similar Documents

Publication Publication Date Title
US20210043016A1 (en) Systems and methods for capturing and offloading different information based on event trigger type
US20160063761A1 (en) Communication of spatial information based on driver attention assessment
FR2863091A1 (fr) Appareil d'assistance a la conduite d'un vehicule
FR3076521A1 (fr) Procede d'aide a la conduite d'un vehicule et dispositifs associes
FR2899332A1 (fr) Dispositif de mesure de champ de visibilite pour vehicule et systeme d'assistance a la conduite pour vehicule
FR2861488A1 (fr) Dispositif de determination de possibilite de collision
FR2932595A1 (fr) Procede d'affichage d'aide au parking.
FR2965765A1 (fr) Procede et dispositif pour former une image d'un objet dans l'environnement d'un vehicule
EP2043044B1 (fr) Procédé et dispositif d'assistance au parcage d'un véhicule automobile
FR2922029A1 (fr) Dispositif et methode de detection d'objet
CA3072948A1 (fr) Dispositif de surveillance a distance d'une flotte de vehicules automobiles autonomes systeme de transport et procede de bridage associes
EP1936330B1 (fr) Procédé et système de traitement et de visualisation d'images de l'environnement d'un aéronef
WO2017140988A1 (fr) Detection optique de la position du volant de conduite
FR3067999B1 (fr) Procede d'aide a la conduite d'un vehicule automobile
FR3054673B1 (fr) Fusion de donnees de detection et de suivi d'objets pour vehicule automobile
EP3512758B1 (fr) Methode d'aide a la conduite, procede d'implementation d'une telle methode et dispositif d'aide a la conduite
FR3047105A1 (fr) Procede et dispositif d'assistance de conduite
WO2019162238A1 (fr) Dispositif et procédé d'aide à la conduite d'un véhicule automobile
FR3085082A1 (fr) Estimation de la position geographique d'un vehicule routier pour la production participative de base de donnees routieres
EP3867126B1 (fr) Procédé et dispositif d'aide à la conduite d'un véhicule automobile en phase de recul
WO2018069060A1 (fr) Dispositif de localisation et dispositif de production de données d'intégrité
FR3056808A1 (fr) Dispositif d'aide a la conduite d'un vehicule par determination et affichage de la distance d'adaptation de la vitesse dudit vehicule et d'un objet de la scene de route
CA3066364A1 (fr) Dispositif electronique et procede de surveillance d'une scene autour d'un vehicule automobile, vehicule automobile, systeme de transport et programme d'ordinateur associes
FR3056803A1 (fr) Dispositif d'aide a la conduite d'un vehicule par determination et affichage d'une distance d'adaptation de la vitesse dudit vehicule
WO2016146823A1 (fr) Procédé d'estimation de paramètres géométriques représentatifs de la forme d'une route, système d'estimation de tels paramètres et véhicule automobile équipé d'un tel système

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

EXTE Extension to a french territory

Extension state: PF

PLSC Publication of the preliminary search report

Effective date: 20190712

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5

CA Change of address

Effective date: 20221005

PLFP Fee payment

Year of fee payment: 6

PLFP Fee payment

Year of fee payment: 7