FR3140699A1 - Procédé et dispositif de suivi de l’environnement d’un véhicule - Google Patents

Procédé et dispositif de suivi de l’environnement d’un véhicule Download PDF

Info

Publication number
FR3140699A1
FR3140699A1 FR2210169A FR2210169A FR3140699A1 FR 3140699 A1 FR3140699 A1 FR 3140699A1 FR 2210169 A FR2210169 A FR 2210169A FR 2210169 A FR2210169 A FR 2210169A FR 3140699 A1 FR3140699 A1 FR 3140699A1
Authority
FR
France
Prior art keywords
vehicle
environment
uncertainty
movement
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
FR2210169A
Other languages
English (en)
Inventor
Thomas Grau
Clement Perrais
Imane MAHTOUT
Jean-Baptiste Braconnier
Elodie Vanpoperinghe
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
PSA Automobiles SA
Original Assignee
PSA Automobiles SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by PSA Automobiles SA filed Critical PSA Automobiles SA
Priority to FR2210169A priority Critical patent/FR3140699A1/fr
Publication of FR3140699A1 publication Critical patent/FR3140699A1/fr
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Traffic Control Systems (AREA)

Abstract

L’invention concerne un procédé et un dispositif de suivi (10) de l’environnement (2) d’un véhicule (4). Le procédé comprend : estimation à partir de données de perception d’une position relative au cours du temps d’un objet (OB1) en association avec une incertitude de position ; estimation au moyen d’au moins un capteur odométrique (16) d’un déplacement (MV1) au cours du temps du véhicule (4) en association avec une incertitude de déplacement ; estimation d’un déplacement de l’objet dans l’environnement par un changement de repère de la position relative estimée de l’objet (OB1), et de l’incertitude de position associée, depuis un repère relatif (REF2) dudit au moins un capteur de perception dans un repère global (REF1) dudit environnement ; identification d’une classe de l’objet (OB1) ; et détermination que l’objet (OB1) est statique ou dynamique par comparaison du déplacement estimé de l’objet avec ladite classe. Figure pour l’abrégé : Figure 1

Description

Procédé et dispositif de suivi de l’environnement d’un véhicule
La présente invention concerne les procédés et dispositifs de suivi de l’environnement d’un véhicule, et notamment mais pas exclusivement d’un véhicule automobile. L’invention vise en la détermination qu’un objet, se trouvant dans l’environnement d’un véhicule, est statique ou dynamique.
Arrière-plan technologique
La sécurité routière fait partie des enjeux importants de nos sociétés. Avec l’augmentation du nombre d’usagers, que ce soient les véhicules, les piétons ou encore les cyclistes, sur les réseaux routiers du monde entier, les risques d’accidents et d’incidents provoqués par ces mêmes usagers n’ont jamais été aussi importants.
Pour améliorer la sécurité routière, certains véhicules contemporains sont équipés de fonctions ou systèmes d’aide à la conduite, dits ADAS (de l’anglais « Advanced Driver-Assistance System » ou en français « Système d’aide à la conduite avancé »). Des systèmes ADAS mettent par exemple en œuvre des procédés basés sur la détection d’obstacles environnants à l’aide de capteurs périphériques embarqués sur un véhicule tels que des caméras, radars, ou encore lidars (de l’anglais « Light Detection And Ranging », ou « Détection et estimation de la distance par la lumière » en français).
La détection d’un objet sur la voie de circulation par de tels capteurs embarqués entraine par exemple la génération d’une alerte dans l’habitacle du véhicule ou une action automatique du véhicule pour éviter la collision avec l’objet détecté.
Cependant, les systèmes actuels ne permettent pas toujours de déterminer avec une bonne fiabilité si un objet se trouvant dans le voisinage d’un véhicule est un objet statique (immobile) ou dynamique (en mouvement) dans l’environnement considéré. Des erreurs peuvent survenir lors de cette prédiction, ce qui peut entraîner des risques importants de sécurité, ou des désagréments, pour le véhicule et/ou ses passagers.
Résumé de la présente invention
L’un des objets de la présente invention est de résoudre au moins l’un des problèmes ou déficiences de l’arrière-plan technologique décrit précédemment.
Un autre objet de la présente invention est d’améliorer le suivi de l’environnement d’un véhicule, et en particulier le suivi d’objets se trouvant dans cet environnement afin d’améliorer notamment le contrôle et/ou la sécurité du véhicule.
Un autre objet de la présente invention est d’améliorer la fiabilité avec laquelle le système embarqué d’un véhicule détermine si un objet se trouvant dans l’environnement du véhicule est un objet statique ou un objet dynamique.
Selon un premier aspect, la présente invention concerne un procédé de suivi de l’environnement d’un véhicule, ledit procédé comprenant :
- obtention, au moyen d’au moins un capteur de perception du véhicule, de données de perception représentatives de l’environnement du véhicule opérant un déplacement ;
- estimation, à partir des données de perception, d’une position relative au cours du temps par rapport au véhicule d’un objet détecté dans ledit environnement en association avec une incertitude de position représentative d’une incertitude fonction dudit au moins un capteur de perception sur la position relative estimée de l’objet ;
- estimation, au moyen d’au moins un capteur odométrique du véhicule, du déplacement au cours du temps du véhicule dans ledit environnement en association avec une incertitude de déplacement représentative d’une incertitude fonction dudit au moins un capteur odométrique sur le déplacement estimé du véhicule ;
- estimation d’un déplacement de l’objet dans ledit environnement par un changement de repère de la position relative estimée de l’objet, et de l’incertitude de position associée, depuis un repère relatif dudit au moins un capteur de perception dans un repère global dudit environnement, ledit changement de repère étant réalisé à partir du déplacement estimé du véhicule et de l’incertitude de déplacement associée ;
- identification d’une classe de l’objet à partir des données de perception ; et
- détermination de si l’objet est statique ou dynamique dans l’environnement par comparaison du déplacement estimé de l’objet dans ledit environnement avec ladite classe.
La présente invention permet avantageusement de déterminer de façon fiable si un objet dans l’environnement du véhicule est statique ou dynamique. En particulier, l’invention repose sur un double contrôle, à savoir un contrôle du déplacement estimé de l’objet dans l’environnement et un contrôle de la classe de l’objet. Ce double contrôle permet de rendre plus robuste la perception du ou des capteurs de perception du véhicule et ainsi d’améliorer la prédiction visant à déterminer si l’objet détecté est statique ou dynamique. L’analyse du mouvement de l’objet dans l’environnement du véhicule peut en particulier permettre de valider ou infirmer la classe (statique ou dynamique) déterminée pour ledit objet.
Grâce à l’invention, on peut donc mieux discriminer des objets en fonction de leur dynamisme ou statisme, et ainsi améliorer le contrôle et/ou la sécurité d’un véhicule. Le dispositif peut par exemple adapter au moins un paramètre du véhicule (vitesse, direction, feux de signalisation, etc.) en fonction du résultat du double contrôle, par exemple en cas de détection d’une situation dangereuse (par exemple détection d’un objet dynamique qui risque d’entrer en collision avec le véhicule).
Ainsi, selon un exemple particulier, le dispositif adapte le contrôle du véhicule en fonction du résultat du procédé de suivi. A titre d’exemple, le dispositif peut adapter la mise en œuvre d’une fonction d’aide à la conduite, dite ADAS (de l’anglais « Advanced Driver-Assistance System » ou en français « Système d’aide à la conduite avancé ») en fonction de si l’objet est déterminé comme étant statique ou dynamique.
Le procédé selon l’invention peut comporter d’autres caractéristiques qui peuvent être prises séparément ou en combinaison, notamment parmi les modes de réalisation qui suivent.
Selon un mode de réalisation particulier, ledit au moins un capteur de perception comprend au moins l’un parmi :
- une caméra ;
- un capteur lidar ; et
- un capteur radar.
Selon un mode de réalisation particulier, ladite estimation de la position relative au cours du temps de l’objet comprend :
- estimation de la position relative de l’objet par rapport au véhicule à une pluralité d’instants dans une fenêtre temporelle tandis que le véhicule opère ledit déplacement ; et
- estimation de l’incertitude de position pour chacun desdits instants en fonction dudit au moins un capteur de perception.
Selon un mode de réalisation particulier, la position relative de l’objet et l’incertitude de position associée définissent collectivement une première ellipse d’incertitude dans laquelle est censé être positionné l’objet avec un niveau minimum de confiance.
Selon un mode de réalisation particulier, le déplacement estimé du véhicule et l’incertitude de déplacement associée définissent collectivement une deuxième ellipse d’incertitude dans laquelle est censé se déplacer le véhicule avec un niveau minimum de confiance.
Selon un mode de réalisation particulier, l’estimation du déplacement de l’objet dans le repère global comprend :
- conversion, par ledit changement de repère, de la première ellipse d’incertitude en une ellipse d’incertitude modifiée prenant en compte la deuxième ellipse d’incertitude ; et
- détection que l’objet est dynamique dans l’environnement si l’ellipse d’incertitude modifiée se déplace dans le repère global et que l’objet est statique dans l’environnement si l’ellipse d’incertitude modifiée ne se déplace pas dans le repère global.
Selon un mode de réalisation particulier, le déplacement du véhicule au cours du temps est également fonction d’au moins l’un parmi :
- des données de déplacement représentatives de mouvements oscillatoires du véhicule au cours du déplacement ; et
- des données exogènes représentatives de l’environnement dans lequel le véhicule opère ledit déplacement.
Selon un deuxième aspect, la présente invention concerne un dispositif de suivi de l’environnement d’un véhicule, le dispositif comprenant une mémoire associée à un processeur configuré pour la mise en œuvre des étapes du procédé de suivi selon le premier aspect de la présente invention.
A noter que les différents modes de réalisation mentionnés ci-avant en relation avec le procédé de suivi selon le premier aspect de l’invention ainsi que les avantages associés s’appliquent de façon analogue au dispositif de suivi selon le deuxième aspect de l’invention.
Selon un troisième aspect, la présente invention concerne un véhicule, par exemple de type automobile ou de type véhicule à moteur terrestre, comprenant un dispositif de suivi selon le deuxième aspect de la présente invention. Ce véhicule peut par exemple être un véhicule autonome ou semi-autonome.
Selon un quatrième aspect, la présente invention concerne un programme d’ordinateur qui comporte des instructions adaptées pour l’exécution des étapes du procédé de suivi selon le premier aspect de la présente invention, ceci notamment lorsque le programme d’ordinateur est exécuté par au moins un processeur. Autrement dit, les différentes étapes du procédé de suivi sont déterminées par des instructions de programmes d’ordinateurs. Ce programme d’ordinateur est configuré pour être mis en œuvre dans un dispositif de suivi du deuxième aspect de l’invention, ou plus généralement dans un ordinateur.
Un tel programme d’ordinateur peut utiliser n’importe quel langage de programmation, et être sous la forme d’un code source, d’un code objet, ou d’un code intermédiaire entre un code source et un code objet, tel que dans une forme partiellement compilée, ou dans n’importe quelle autre forme souhaitable.
Selon un cinquième aspect, la présente invention concerne un support d’enregistrement (ou support d’informations), lisible par le dispositif de suivi selon le deuxième aspect ou plus généralement par un ordinateur (ou un processeur), sur lequel est enregistré un programme d’ordinateur comprenant des instructions pour l’exécution des étapes du procédé de suivi selon le premier aspect de la présente invention.
D’une part, le support d’enregistrement peut être n'importe quel entité ou dispositif capable de stocker le programme. Par exemple, le support peut comporter un moyen de stockage, tel qu'une mémoire ROM, un CD-ROM ou une mémoire ROM de type circuit microélectronique, ou encore un moyen d'enregistrement magnétique ou un disque dur.
D'autre part, ce support d’enregistrement peut également être un support transmissible tel qu'un signal électrique ou optique, un tel signal pouvant être acheminé via un câble électrique ou optique, par radio classique ou hertzienne ou par faisceau laser autodirigé ou par d'autres moyens. Le programme d’ordinateur selon la présente invention peut être en particulier téléchargé sur un réseau de type Internet.
Alternativement, le support d'enregistrement peut être un circuit intégré dans lequel le programme d’ordinateur est incorporé, le circuit intégré étant adapté pour exécuter ou pour être utilisé dans l'exécution du procédé en question.
Brève description des figures
D’autres caractéristiques et avantages de la présente invention ressortiront de la description des exemples de réalisation particuliers et non limitatifs de la présente invention ci-après, en référence aux figures 1 à 4 annexées, sur lesquelles :
illustre schématiquement un environnement comprenant un véhicule embarquant un dispositif de suivi, selon au moins un exemple de réalisation particulier et non limitatif de la présente invention ;
illustre schématiquement le fonctionnement d’un dispositif de suivi de la , selon au moins un exemple de réalisation particulier et non limitatif de la présente invention ;
illustre schématiquement un dispositif de suivi configuré pour suivre l’environnement du véhicule représenté en , selon au moins un exemple de réalisation particulier et non limitatif de la présente invention ; et
illustre un diagramme de différentes étapes d’un procédé de suivi de l’environnement du véhicule représenté en , selon au moins un exemple de réalisation particulier et non limitatif de la présente invention.
Description des exemples de réalisation
Un procédé et un dispositif de suivi d’un véhicule vont maintenant être décrits dans ce qui va suivre en référence conjointement aux figures 1-4. Sauf indications contraires, les éléments communs ou analogues à plusieurs figures portent les mêmes signes de référence et présentent des caractéristiques identiques ou analogues, de sorte que ces éléments communs ne sont généralement pas à nouveau décrits par souci de simplicité.
Les termes « premier(s) » (ou première(s)), « deuxième(s) », etc.) sont utilisés dans ce document par convention arbitraire pour permettre d’identifier et de distinguer différents éléments (tels que des opérations, des données, etc.) mis en œuvre dans les modes de réalisation décrits ci-après.
Comme précédemment indiqué, l’invention vise notamment un procédé de suivi de l’environnement d’un véhicule, tel qu’un véhicule de type automobile ou autre, ou plus généralement d’un véhicule de type véhicule terrestre motorisé. L’invention vise notamment, mais pas exclusivement, le suivi de l’environnement d’un véhicule autonome ou semi-autonome.
Selon un exemple particulier et non limitatif de réalisation de la présente invention, ce procédé comprend :
- obtention, au moyen d’au moins un capteur de perception du véhicule, de données de perception représentatives de l’environnement du véhicule opérant un déplacement ;
- estimation, à partir des données de perception, de la position relative au cours du temps par rapport au véhicule d’un objet détecté dans l’environnement dudit véhicule en association avec une incertitude de position ;
- estimation, au moyen d’au moins un capteur odométrique du véhicule, du déplacement au cours du temps du véhicule dans ledit environnement en association avec une incertitude de déplacement ;
- estimation d’un déplacement de l’objet dans ledit environnement par un changement de repère de la position relative estimée de l’objet, et de l’incertitude de position associée, depuis un repère relatif dudit au moins un capteur de perception dans un repère global dudit environnement ;
- identification d’une classe de l’objet à partir des données de perception ; et
- détermination de si l’objet est statique ou dynamique dans l’environnement par comparaison du déplacement estimé de l’objet dans ledit environnement avec ladite classification.
Par un double contrôle reposant sur la comparaison d’une déplacement estimé de l’objet dans l’environnement du véhicule avec la classe déterminée pour ledit objet, il est possible de déterminer avec un bon niveau de fiabilité si l’objet est statique ou dynamique dans l’environnement considéré.
D’autres aspects et avantages de la présente invention ressortiront des exemples de réalisation décrits ci-dessous en référence aux dessins mentionnés ci-avant.
La illustre schématiquement un environnement 2 dans lequel se déplace un véhicule 4 embarquant un dispositif de suivi 10 (appelé aussi dispositif ou dispositif de contrôle) selon un exemple de réalisation particulier et non limitatif de la présente invention.
Plus spécifiquement, on suppose dans l’exemple représenté en que le véhicule 4 opère un déplacement MV1 dans l’environnement 2.
L’environnement 2 dans lequel évolue le véhicule 4 peut être de diverses natures selon le cas. A titre d’exemple, on considère par la suite que l’environnement 2 comprend une voie de circulation (une portion de route ou de chaussée par exemple) sur laquelle se déplace le véhicule 4.
Le type et les caractéristiques du véhicule 4 peuvent être adaptés selon le cas. Le véhicule 4 est par exemple de type automobile ou équivalent. En variante, ce véhicule peut être un car, un bus, un camion, un véhicule utilitaire ou une motocyclette, ou plus généralement un véhicule de type véhicule terrestre motorisé.
On considère par la suite que le véhicule 4 est en mouvement. Le mouvement (ou déplacement) MV1 réalisé par le véhicule 4 peut varier selon le cas. A titre d’exemple, le véhicule 4 roule ou se déplace sur une portion de voie de circulation 2.
Selon un exemple particulier, le véhicule 4 circule sous la supervision totale d’un conducteur. Selon un exemple particulier, le véhicule 4 circule dans un mode autonome ou semi-autonome. Autrement dit, le véhicule 4 peut être un véhicule autonome ou semi-autonome.
Plus particulièrement, le véhicule 4 peut circuler selon un niveau d’autonomie égale à 0 ou selon un niveau d’autonomie allant de 1 à 5 par exemple, selon l’échelle définie par l’agence fédérale américaine qui a établi 5 niveaux d’autonomie allant de 1 à 5. Le niveau 0 correspond à un véhicule n’ayant aucune autonomie, dont la conduite est sous la supervision totale du conducteur ; le niveau 1 correspondant à un véhicule avec un niveau d’autonomie minimal, dont la conduite est sous la supervision du conducteur avec une assistance minimale d’un système ADAS (de l’anglais « Advanced Driver-Assistance System » ou en français « Système avancé d’aide à la conduite ») ; et le niveau 5 correspondant à un véhicule complètement autonome.
Les 5 niveaux d’autonomie de la classification de l’agence fédérale chargée de la sécurité routière sont :
- niveau 0 : aucune automatisation, le conducteur du véhicule contrôle totalement les fonctions principales du véhicule (moteur, accélérateur, direction, freins) ;
- niveau 1 : assistance au conducteur, l’automatisation est active pour certaines fonctions du véhicule, le conducteur gardant un contrôle global sur la conduite du véhicule ; le régulateur de vitesse fait partie de ce niveau, comme d’autres aides telles que l’ABS (système antiblocage des roues) ou l’ESP (électro-stabilisateur programmé) ;
- niveau 2 : automatisation de fonctions combinées, le contrôle d’au moins deux fonctions principales est combiné dans l’automatisation pour remplacer le conducteur dans certaines situations ; par exemple, le régulateur de vitesse adaptatif combiné avec le centrage sur la voie permet à un véhicule d’être classé niveau 2, tout comme l’aide au stationnement (de l’anglais « Park assist ») automatique ;
- niveau 3 : conduite autonome limitée, le conducteur peut céder le contrôle complet du véhicule au système automatisé qui sera alors en charge des fonctions critiques de sécurité ; la conduite autonome ne peut cependant avoir lieu que dans certaines conditions environnementales et de trafic déterminées (uniquement sur autoroute par exemple) ;
- niveau 4 : conduite autonome complète sous conditions, le véhicule est conçu pour assurer seul l’ensemble des fonctions critiques de sécurité sur un trajet complet ; le conducteur fournit une destination ou des consignes de navigation mais n’est pas tenu de se rendre disponible pour reprendre le contrôle du véhicule ;
- niveau 5 : conduite complètement autonome sans l’aide de conducteur dans toutes les circonstances.
Le véhicule 4 peut être configuré selon l’un quelconque des niveaux d’autonomie mentionnés ci-dessus. Selon un exemple particulier de réalisation, le véhicule 4 est configurée selon un mode semi-autonome ou autonome, c’est-à-dire avec un niveau d’autonomie supérieur ou égal à 2 selon la classification ci-dessus.
Comme illustré en figures 1 et 2 selon au moins un exemple particulier, le dispositif de suivi 10 peut comprendre au moins un processeur 30 et une mémoire non volatile 32. Le dispositif 10 est configuré pour mettre en œuvre un processus (ou procédé) de suivi comme décrit ci-après. A cet effet, le dispositif 10 peut comprendre un programme d’ordinateur PG1 stockée dans la mémoire non volatile 32 (mémoire de type Flash ou ROM par exemple), ce programme d’ordinateur PG1 comprenant des instructions pour la mise en œuvre du procédé (ou processus) de suivi comme décrit ci-après. Le processeur 30 est ainsi configuré pour exécuter notamment les instructions définies par le programme d’ordinateur PG1.
Le dispositif de suivi 10 peut par exemple prendre la forme d’un (ou comprendre un) calculateur, ou une combinaison de calculateurs. Un exemple de mise en œuvre du dispositif de suivi 10 est décrit ultérieurement.
Toujours en référence aux figures 1-2, le véhicule 4 comprend au moins un capteur de perception 12 configuré pour détecter au moins un objet OB1 dans l’environnement 2 du véhicule 4. Les capteurs de perceptions 12 permettent au véhicule 4, et plus précisément au dispositif 10, de percevoir son environnement extérieur 2, autrement dit son voisinage dans lequel un ou des objets OB1 sont susceptibles de se trouver. La configuration notamment en termes de nombre, position, type, etc. des capteurs de perception 12 peut être adaptée selon le cas.
Selon un exemple particulier, le véhicule 2 embarque au moins un capteur de perception 12 parmi :
- une caméra ;
- un capteur lidar ; et
- un capteur radar.
On suppose par la suite à titre d’exemple qu’un seul capteur de perception 12 est utilisé bien que des variantes soient possibles dans lesquelles plusieurs capteurs de perception 12 sont utilisés.
Par ailleurs, le dispositif 10 est configuré pour analyser l’environnement 2 et déterminer si un objet OB1 détecté dans cet environnement est statique (immobile) ou dynamique (en mouvement). Pour ce faire, le dispositif 10 est couplé avec le capteur de perception 12. Le dispositif 10 est en particulier configuré pour collecter des données de perception DT1 générées par le capteur de perception 12, ces données DT1 étant représentatives de l’environnement 2 du véhicule 4 et en particulier d’un objet OB1 détecté dans cet environnement.
Plus particulièrement, les données de perception DT1 générées par le capteur de perception 12 peuvent être représentatives de la position relative P1 (figures 1-2) d’un objet OB1 détecté dans l’environnement 2 en association avec une incertitude de position I1 représentative d’une incertitude sur la position relative P1 de l’objet OB1. Comme décrit par la suite, cette première incertitude I1 est fonction du capteur de perception 12 utilisé.
A noter que l’on suppose à titre d’exemple par la suite qu’un seul objet OB1 est détecté dans l’environnement 2 du véhicule 4 bien que l’invention puisse s’appliquer de façon analogue à une pluralité d’objets OB1 détectés dans l’environnement 2 du véhicule 4. En outre, comme indiqué plus en détail par la suite, la nature de cet objet OB1 peut varier selon le cas (feu de circulation, panneau de signalisation, piéton, animal, etc.). Selon la situation considérée, cet objet OB1 peut être soit statique soit dynamique dans l’environnement 2.
Comme illustré en , on considère ici que le capteur de perception 12 détecte la présence de l’objet OB1 dans l’environnement 2 du véhicule 4 si cet objet se trouve à portée de détection du capteur de perception 12, c’est-à-dire positionné dans une zone de détection 14 du capteur de perception 12. Cet objet OB1 se trouve par exemple à proximité du véhicule 4, c’est-à-dire à une distance inférieure ou égale à une valeur seuil.
Comme illustré en figures 1-2, l’environnement 2 dans lequel se déplace le véhicule 4 est rattaché (ou associé) à un premier référentiel (ou premier repère) dans l’espace noté RF1 tandis que le capteur de perception 12, et plus généralement le véhicule 4, sont rattachés (ou associés) à un deuxième référentiel (ou deuxième repère) dans l’espace noté RF2. Les référentiels RF1 et RF2 sont par exemple des référentiels bidimensionnels ou tridimensionnels. Du fait du mouvement (non nul) MV1 opéré par le véhicule 4, le référentiel RF2 – dit référentiel relatif (ou repère relatif) – du capteur de perception 12 est donc en mouvement par rapport au référentiel RF1 – dit référentiel global (ou repère global) – de l’environnement 2.
Ainsi, les données de perception DT1 générées par le capteur de perception 12 représentent l’environnement 2, et en particulier l’objet OB1 détecté, dans le référentiel relatif RF2 puisque le capteur de perception 12 générant les données de perception DT1 se déplace avec le véhicule 4 par rapport à l’environnement extérieur 2 dans lequel se trouve l’objet OB1.
Comme représenté en figures 1-2, le véhicule 4 comprend également au moins un capteur odométrique (ou capteur de déplacement) 16 configuré pour mesurer (ou suivre) le déplacement MV1 du véhicule 4. Pour ce faire, le ou les capteurs odométriques 16 génèrent des données odométriques DT2 représentatives du déplacement MV1 du véhicule 4. A partir de ces données odométriques DT2, le dispositif de suivi 10 est apte à estimer le déplacement MV1 du véhicule 4 au cours du temps dans l’environnement 2, et à déterminer en outre une incertitude de déplacement I2 (figures 1-2) représentative d’une incertitude sur le déplacement MV1 estimé du véhicule 4. Ce mouvement MV1 estimé correspond par exemple à une vitesse estimée du véhicule 4.
Comme décrit par la suite, la deuxième incertitude I2 est fonction du capteur odométrique 16 utilisé.
Par odométrie, le dispositif 10 peut ainsi estimer le déplacement MV1 du véhicule 2 en mouvement à partir des données odométriques DT2 du capteur odométrique embarqué 16. On suppose par exemple que le véhicule 4 comprend au moins un capteur odométrique 16 couplé à une roue du véhicule 4 pour générer des données odométriques DT2 représentatives du déplacement MV1 du véhicule 4. Un tel capteur odométrique 16 peut ainsi équiper une pluralité de roues, voire toutes les roues, du véhicule 4. A partir d’un modèle donné, le dispositif 10 peut ainsi estimer le déplacement MV1 en fonction des données odométriques DT2 reçues.
On suppose par la suite qu’un seul capteur odométrique 16 est utilisé par le dispositif 10 pour suivre le déplacement MV1 du véhicule 4, bien que des variantes soient possibles avec plusieurs capteurs odométriques 16.
Selon un exemple particulier, le dispositif 10 est en outre être configuré pour collecter des données complémentaires, à savoir des données de déplacement DT3 et/ou des données exogènes (ou données d’environnement) DT4.
Les données de déplacement DT3 sont représentatives de mouvements oscillatoires (ou oscillations) réalisés par le véhicule 4 au cours de son déplacement MV1. Ces données DT3 peuvent être générées par un ou des quelconques capteurs embarqués dans le véhicule 4.
Les données exogènes DT4 sont représentatives de l’environnement 2 dans lequel le véhicule 4 opère son déplacement MV1. Ces données DT4 sont (ou comprennent) par exemple des données cartographiques et peuvent être obtenues d’une quelconque manière par le dispositif 10 (par exemple par consultation d’une mémoire locale dans laquelle sont stockées ces données ou par réception depuis un serveur externe via un réseau de communication). Les données exogènes DT4 définissent par exemple l’état de la voie de circulation sur laquelle circule le véhicule 4 (état de la chaussée, pente, forme, virage, etc.).
Comme indiqué ci-avant, le dispositif de suivi 10 est configuré pour mettre en œuvre un processus de suivi. Ce processus est à présent décrit conjointement aux figures 1 et 2 selon des modes de réalisation particuliers.
Comme décrit ci-avant en référence notamment à la , on suppose que le véhicule 4 est en mouvement dans l’environnement 2 et que le dispositif 10 met en œuvre le processus de suivi de cet environnement.
Dans une première opération, le dispositif 10 obtient, au moyen du capteur de perception 12 du véhicule 4, des données de perception DT1 représentatives de l’environnement 2 du véhicule 4 opérant le déplacement MV1. Comme déjà indiqué, le dispositif 10 collecte les données DT1 générées par le capteur de perception 12 (par exemple une caméra, un capteur lidar ou un capteur radar). Les données de perception DT1 comprennent par exemple au moins l’une parmi : des données de caméra, des données lidar et des données radar.
On suppose à titre d’exemple que l’environnement 2 comprend un objet OB1 (statique ou dynamique) positionné dans la zone de détection 14 du capteur de perception 12. Aussi, les données de perception DT1 peuvent représenter notamment l’objet OB1 se trouvant dans le voisinage du véhicule 4.
Dans une deuxième opération, le dispositif 10 réalise une première estimation, à partir des données de perception DT1, pour estimer la position relative – notée P1 – au cours du temps de l’objet détecté OB1 dans l’environnement 2 du véhicule 4 en association avec une incertitude de position I1 représentative d’une incertitude sur la position relative P1 estimée de l’objet OB1. Autrement dit, le dispositif 10 détermine, à partir des données de perception DT1 générées par le capteur de perception 12, la position relative P1 au cours du temps ainsi que l’incertitude de position I1 associée.
P1 est une position relative dans la mesure où elle définit la position de l’objet OB1 par rapport au capteur de perception embarqué 12 (et non de façon plus globale par rapport à l’environnement 2). Autrement dit, la position relative P1 de l’objet OB1 est définie par les données de perception DT1 dans le référentiel relatif RF2 associé au capteur de perception 12 (ou au véhicule 4).
L’incertitude I1, selon laquelle la position relative P1 de l’objet OB1 est estimée, est fonction (ou dépendante) du capteur de perception 12 utilisé, c’est-à-dire par exemple de sa configuration, de son type, etc.
Le nombre de dimensions selon lesquelles sont définies la position relative P1 et son incertitude associée I1 peut varier selon le cas. A titre d’exemple, le dispositif 10 détermine ainsi la position relative P1 comprenant des composantes P1x et P1y définissant la position relative de l’objet OB1 suivant respectivement deux axes x et y du référentiel relatif RF2. De même, la première incertitude I1 peut comprendre des composantes I1x et I1y définissant respectivement une incertitude de position sur les composantes P1x et P1y (donc suivant x et y) de la position relative P1.
Selon un exemple particulier, la position relative P1 de l’objet OB1 et l’incertitude de position I1 associée définissent collectivement une première ellipse d’incertitude EL1 dans laquelle est censé être positionné l’objet OB1 avec un niveau minimum de confiance (par exemple avec un niveau de confiance égal à au moins à 95%).
Au cours d’une troisième opération, le dispositif 10 réalise une deuxième estimation, au moyen du capteur odométrique 16 du véhicule 4, pour estimer le déplacement MV1 au cours du temps du véhicule 4 dans l’environnement 2 en association avec une incertitude de déplacement I2 représentative d’une incertitude sur le déplacement MV1 estimé du véhicule 2. Autrement dit, le dispositif 10 détermine, à partir des données odométriques DT2 générées par le capteur odométrique 16, un déplacement MV1 estimé ainsi que l’incertitude de déplacement I2 associée.
Le déplacement MV1 ainsi estimé définit le déplacement du véhicule 4 par rapport à l’environnement 2. Autrement dit, le déplacement MV1 estimé de l’objet OB1 est défini par les données odométriques DT2 dans le référentiel global RF1 associé à l’environnement 2.
L’incertitude de déplacement I2, selon laquelle le déplacement MV1 du véhicule 4 est estimé, est fonction (ou dépendante) du capteur odométrique 16 utilisé, c’est-à-dire par exemple de sa configuration, de son type, etc.
Le nombre de dimensions selon lesquelles sont définis le déplacement MV1 et son incertitude associée I2 peut varier selon le cas. A titre d’exemple, le dispositif 10 détermine ainsi le déplacement MV1 comprenant des composantes V1x et V1y définissant le déplacement MV1 du véhicule 4 suivant respectivement deux axes x et y du référentiel global RF1. De même, l’incertitude I2 peut comprendre des composantes I2x et I2y définissant respectivement une incertitude de déplacement sur les composantes V1x et V1y (donc suivant x et y) du déplacement MV1.
Selon un exemple particulier, le déplacement MV1 estimé du véhicule 4 et l’incertitude de déplacement I2 associée définissent collectivement une deuxième ellipse d’incertitude EL2 dans laquelle est censé se déplacer le véhicule 4 (ou plus précisément le capteur de perception 12) avec un niveau minimum de confiance (par exemple avec un niveau de confiance égal à au moins à 95%).
Selon un exemple particulier, au cours de la deuxième opération, le dispositif 10 :
- réalise une estimation de la position relative P1 de l’objet OB1 par rapport au véhicule 4 à une pluralité d’instants dans une fenêtre temporelle tandis que le véhicule 4 opère ledit déplacement MV1 ; et
- réalise une estimation de l’incertitude de position I1 pour chacun desdits instants en fonction du capteur de perception 12 utilisé.
De même, au cours de la troisième opération, l’estimation du déplacement MV1 et de son incertitude associée I2 peut être réalisée dans la même fenêtre temporelle que celle mentionnée ci-dessus. Ainsi, le dispositif 10 peut par exemple estimer le déplacement MV1 et l’incertitude de déplacement associée I2 à la pluralité d’instants dans ladite fenêtre temporelle.
Au cours d’une quatrième opération, le dispositif 10 réalise une troisième estimation pour estimer un déplacement MV2 de l’objet OB1 dans l’environnement 2, c’est-à-dire dans le référentiel global REF1 de l’environnement 2. Ce déplacement MV2 peut éventuellement être nulle si l’objet OB1 est statique dans l’environnement 2 ou non nul dans le cas contraire (dynamique). Pour ce faire, le dispositif 10 réalise un changement (ou une conversion) de repère de la position relative P1 estimée pour l’objet OB1, et de l’incertitude de position I1 associée, depuis le repère relatif REF2 du capteur de perception 12 dans le repère global REF1 de l’environnement 2.
Ce changement de repère (ou changement de référentiel) est réalisé à partir du résultat de la deuxième estimation (réalisée au cours de la troisième opération), à savoir à partir du mouvement MV1 estimé du véhicule 4 et de l’incertitude de déplacement I2 associée. En effet, le mouvement MV1 estimé et l’incertitude de déplacement I2 associée définissent ensemble le déplacement du référentiel relatif REF2 (attaché au capteur de perception 12) par rapport au référentiel global REF1 (attaché à l’environnement 2) avec un niveau d’incertitude donné. En utilisant le déplacement MV1 estimé ainsi que l’incertitude de déplacement I2 associée, le dispositif 10 peut ainsi convertir (ou transposer) la position relative P1 et l’incertitude de position I1 associée, depuis le repère relatif REF2 du capteur de perception 12 dans le repère global REF1 de l’environnement 2. Ce changement de repère permet avantageusement de déterminer si l’objet OB1 est statique ou dynamique dans l’environnement 2 considéré.
Selon un exemple particulier, l’estimation du déplacement MV2 de l’objet OB2 dans le repère global RF1 comprend :
- conversion, par ledit changement de repère, de la première ellipse d’incertitude EL1 en une ellipse d’incertitude modifiée EL1a ( ) prenant en compte la deuxième ellipse d’incertitude EL2 ; et
- détection que l’objet OB1 est dynamique dans l’environnement 2 si l’ellipse d’incertitude modifiée EL1a se déplace dans le repère global REF1 et que l’objet OB1 est statique dans l’environnement 2 si l’ellipse d’incertitude modifiée EL1a ne se déplace pas dans le repère global REF1.
Ainsi, par une analyse de l’ellipse d’incertitude modifiée EL1a dans le repère global REF1, on peut déterminer si l’objet OB1 est statique ou dynamique dans l’environnement 2.
Selon un exemple particulier, au cours de la quatrième opération, le dispositif 10 réalise la troisième estimation en prenant également en compte des données complémentaires, à savoir des données de déplacement DT3 et/ou des données exogènes (ou données d’environnement) DT4 comme déjà décrites précédemment. Comme décrit ci-avant, les données de déplacement peut définir des mouvements oscillatoires du véhicule 4. En outre, les données exogènes peuvent comprendre en particulier des données cartographiques de l’environnement 2. Le déplacement MV2 de l’objet OB1 dans l’environnement 2 peut donc être aussi estimé en fonction de ces données DT3 et/ou DT4 (éventuellement les deux).
Au cours d’une cinquième opération, le dispositif 10 identifie une classe CL1 ( ) de l’objet OB1 détecté au moyen du capteur de perception 12. Cette identification est réalisée à partir des données de perception DT1 générées par le capteur de perception 12. Cette classification repose par exemple sur une analyse d’image permettant au dispositif 10 de déterminer au moins un attribut visuel (attribut de forme, de taille, de couleur, etc.), et de classifier l’objet OB1 dans une classe CL1 à partir du ou des attributs visuels ainsi déterminés.
Selon un exemple particulier, le dispositif 10 compare par exemple l’objet OB1 détecté (ses attributs visuels) avec au moins une classe prédéfinie et sélectionne la classe CL1 la plus représentative (ou la plus proche) de l’objet OB1. La nature de la classe CL1 attribuée par le dispositif 10 à l’objet OB1 détecté dans l’environnement 2 peut varier selon le cas. Cette classe CL1 peut par exemple correspondre à un élément que l’on est susceptible de trouver dans l’environnement d’un véhicule automobile, tel qu’un panneau de signalisation, un marquage au sol, un piéton, etc.
Selon un exemple particulier, le dispositif 10 attribue à l’objet OB1 soit une classification notée CL1a d’un objet considéré comme statique (un feu de circulation, un panneau de signalisation, une marquage au sol, etc.) soit une classification notée CL1b d’un objet considéré comme dynamique (un piéton qui marche, un animal en mouvement, un véhicule en mouvement, etc.). La classe CL1 qualifie alors l’objet OB1 soit de statique (classe CL1a) soit de dynamique (classe CL1b).
Au cours d’une sixième opération, le dispositif 10 détermine si l’objet OB1 est statique ou dynamique dans l’environnement 2 par comparaison du déplacement MV2 estimé de l’objet OB1 dans l’environnement 2 avec la classe CL1 préalablement déterminée. Comme illustré en , cette comparaison produit par exemple un résultat RS qui qualifie l’objet OB1 soit d’objet statique soit d’objet dynamique dans l’environnement 2.
Un tel processus de contrôle permet donc de déterminer de façon fiable si un objet OB1 dans l’environnement 2 du véhicule est statique ou dynamique. En particulier, l’invention repose sur un double contrôle, à savoir un contrôle du déplacement estimé MV2 de l’objet OB1 dans l’environnement 2 et un contrôle de la classe CL1 de l’objet OB1. Ce double contrôle permet de rendre plus robuste la perception du ou des capteurs de perception du véhicule et ainsi d’améliorer la prédiction visant à déterminer si l’objet OB1 est statique ou dynamique. L’analyse du mouvement de l’objet OB1 dans l’environnement 2 peut en particulier permettre de valider ou infirmer la classe CL1 (statique ou dynamique) déterminée pour ledit objet OB1.
Grâce à l’invention, on peut donc mieux discriminer des objets en fonction de leur dynamisme ou statisme, et ainsi améliorer le contrôle et/ou la sécurité d’un véhicule. Le dispositif 10 peut par exemple adapter au moins un paramètre du véhicule 4 (vitesse, direction, feux de signalisation, etc.) en fonction du résultat RS, par exemple en cas de détection d’une situation dangereuse (par exemple détection d’un objet dynamique qui risque d’entrer en collision avec le véhicule).
Ainsi, selon un exemple particulier, le dispositif 10 adapte le contrôle du véhicule 2 en fonction du résultat RS ( ) de la sixième opération. A titre d’exemple, le dispositif 10 peut adapter la mise en œuvre d’une fonction d’aide à la conduite, dite ADAS (de l’anglais « Advanced Driver-Assistance System » ou en français « Système d’aide à la conduite avancé ») en fonction de si l’objet OB1 est déterminé comme étant statique ou dynamique.
Selon un exemple particulier, la détection d’un objet OB1 dynamique dans l’environnement 2 (par exemple sur la voie de circulation) entraine par exemple la génération d’une alerte dans l’habitacle du véhicule 4 ou une action automatique du véhicule 4 pour éviter la collision avec l’objet détecté.
La illustre schématiquement un dispositif de suivi 10 configuré pour contrôler un véhicule, tel que le véhicule 4 comme précédemment décrit en référence aux figures 1-2, selon un exemple de réalisation particulier et non limitatif de la présente invention. Le dispositif de suivi 10 correspond par exemple à un dispositif embarqué dans le véhicule 4, par exemple un calculateur.
Le dispositif de suivi 10 est par exemple configuré pour la mise en œuvre des opérations du processus de suivi tel que précédemment décrit en regard des figures 1-2 et/ou des étapes du procédé décrit ci-après en regard de la . Des exemples d’un tel dispositif de suivi 10 comprennent, sans y être limités, un équipement électronique embarqué tel qu’un ordinateur de bord d’un véhicule, un calculateur électronique tel qu’une UCE (« Unité de Commande Electronique »), un téléphone intelligent (de l’anglais « smartphone »), une tablette, un ordinateur portable. Les éléments du dispositif de suivi 10, individuellement ou en combinaison, peuvent être intégrés dans un unique circuit intégré, dans plusieurs circuits intégrés, et/ou dans des composants discrets. Le dispositif de suivi 10 peut être réalisé sous la forme de circuits électroniques ou de modules logiciels (ou informatiques) ou encore d’une combinaison de circuits électroniques et de modules logiciels.
Le dispositif de suivi 10 comprend un (ou plusieurs) processeur(s) 40 (par exemple le processeur 30 illustré en ) configurés pour exécuter des instructions pour la réalisation des étapes du procédé (ou du processus) de suivi et/ou pour l’exécution des instructions du ou des logiciels embarqués dans le dispositif de suivi 10. Le processeur 40 peut inclure de la mémoire intégrée, une interface d’entrée/sortie, et différents circuits connus de l’homme du métier. Le dispositif de suivi 10 comprend en outre au moins une mémoire 41 correspondant par exemple à une mémoire volatile et/ou non volatile et/ou comprend un dispositif de stockage mémoire qui peut comprendre de la mémoire volatile et/ou non volatile, telle que EEPROM, ROM, PROM, RAM, DRAM, SRAM, flash, disque magnétique ou optique.
Le code informatique du ou des logiciels embarqués comprenant les instructions à charger et exécuter par le processeur 40 est par exemple stocké sur la mémoire 41 (par exemple la mémoire 32 illustré en ). La mémoire 41 peut constituer un support d’informations selon un mode de réalisation particulier en ce qu’elle comprend un programme d’ordinateur (par exemple PG1 en ) comportant des instructions pour la réalisation des étapes du procédé (ou du processus) de suivi de l’invention.
Selon différents exemples de réalisation particuliers et non limitatifs, le dispositif de suivi 10 est couplé en communication avec d’autres dispositifs ou systèmes similaires et/ou avec des dispositifs de communication, par exemple une TCU (de l’anglais « Telematic Control Unit » ou en français « Unité de Contrôle Télématique »), par exemple par l’intermédiaire d’un bus de communication ou au travers de ports d’entrée / sortie dédiés.
Selon un exemple de réalisation particulier et non limitatif, le dispositif de suivi 10 comprend un bloc 42 d’éléments d’interface pour communiquer avec des dispositifs externes, par exemple un serveur distant ou le « cloud », ou le véhicule 4 lorsque le dispositif de suivi 10 correspond à un téléphone intelligent ou une tablette par exemple. Les éléments d’interface du bloc 42 comprennent une ou plusieurs des interfaces suivantes :
  • interface radiofréquence RF, par exemple de type Wi-Fi® (selon IEEE 802.11), par exemple dans les bandes de fréquence à 2,4 ou 5 GHz, ou de type Bluetooth® (selon IEEE 802.15.1), dans la bande de fréquence à 2,4 GHz, ou de type Sigfox utilisant une technologie radio UBN (de l’anglais Ultra Narrow Band, en français bande ultra étroite), ou LoRa dans la bande de fréquence 868 MHz, LTE (de l’anglais « Long-Term Evolution » ou en français « Evolution à long terme »), LTE-Advanced (ou en français LTE-avancé) ;
  • interface USB (de l’anglais « Universal Serial Bus » ou « Bus Universel en Série » en français) ;
  • interface HDMI (de l’anglais « High Definition Multimedia Interface », ou « Interface Multimedia Haute Definition » en français).
Selon un autre exemple de réalisation particulier et non limitatif, le dispositif de suivi 10 comprend une interface de communication 43 qui permet d’établir une communication avec d’autres dispositifs (tels que d’autres calculateurs du système embarqué ou des capteurs embarqués tel que les capteurs 12 et 16) via un canal de communication 45. L’interface de communication 43 correspond par exemple à un transmetteur configuré pour transmettre et recevoir des informations et/ou des données via le canal de communication 45. L’interface de communication 43 correspond par exemple à un réseau filaire de type CAN (de l’anglais « Controller Area Network » ou en français « Réseau de contrôleurs »), CAN FD (de l’anglais « Controller Area Network Flexible Data-Rate » ou en français « Réseau de contrôleurs à débit de données flexible »), FlexRay (standardisé par la norme ISO 17458), Ethernet (standardisé par la norme ISO/IEC 802-3) ou LIN (de l’anglais « Local Interconnect Network », ou en français « Réseau interconnecté local »).
Le dispositif de suivi 10 est par exemple couplé aux capteurs 12 et 16 au moyen du bloc 42 d’éléments d’interface et/ou de l’interface de communication 43 de sorte à réaliser le processus de suivi comme décrit précédemment.
Selon un exemple de réalisation particulier et non limitatif, le dispositif de suivi 10 peut fournir des signaux de sortie à un ou plusieurs dispositifs externes, tels qu’un écran d’affichage, tactile ou non, un ou des haut-parleurs et/ou d’autres périphériques (système de projection) via des interfaces de sortie respectives. Selon une variante, l’un ou l’autre des dispositifs externes est intégré au dispositif de suivi 10.
La illustre un diagramme des différentes étapes d’un procédé de suivi d’un véhicule, par exemple du véhicule 4 comme précédemment décrit. Le procédé est par exemple mis en œuvre par le dispositif de suivi 10 précédemment décrit, ce dispositif pouvant être embarqué dans le véhicule 4.
Dans une première étape 51, des données de perception DT1 sont obtenues au moyen d’au moins un capteur de perception 12, ces données étant représentatives de l’environnement 2 du véhicule 4 opérant un déplacement MV1.
Dans une deuxième étape 52, la position relative P1 au cours du temps par rapport au véhicule 2 d’un objet OB1 détecté dans l’environnement 2 du véhicule 4 est estimée, à partir des données de perception DT1, en association avec une incertitude de position I1 représentative d’une incertitude fonction dudit au moins un capteur de perception 12 sur la position relative P1 estimée de l’objet OB1.
Dans une troisième étape 53, le déplacement MV1 au cours du temps du véhicule 4 dans l’environnement 2 est estimée, au moyen d’au moins un capteur odométrique 16 du véhicule 2, en association avec une incertitude de déplacement I2 représentative d’une incertitude fonction dudit au moins un capteur odométrique 16 sur le déplacement estimé du véhicule 4.
Dans une quatrième étape 54, un déplacement MV2 de l’objet OB1 dans l’environnement 2 est estimé par un changement de repère de la position relative P1 estimée de l’objet OB1, et de l’incertitude de position I1 associée, depuis un repère relatif REF2 dudit au moins un capteur de perception 12 dans un repère global REF1 de l’environnement 2. Ce changement de repère est réalisé à partir du déplacement MV1 estimé du véhicule 4 et de l’incertitude de déplacement I2 associée.
Dans une cinquième étape 55, une classe CL1 de l’objet OB1 est identifiée à partir des données de perception DT1.
Dans une sixième étape 56, il est déterminé si l’objet OB1 est statique ou dynamique dans l’environnement 2 par comparaison du déplacement MV2 estimé de l’objet OB1 dans l’environnement 2 avec la classe CL1.
Selon des variantes de réalisation, les variantes et exemples des opérations décrits ci-avant en relation avec les figures 1-3 s’appliquent aux étapes du procédé de suivi de la .
Un homme du métier comprendra que les modes de réalisation et variantes décrits ci-avant ne constituent que des exemples non limitatifs de mise en œuvre de l’invention. En particulier, l’homme du métier pourra envisager une quelconque adaptation ou combinaison des modes de réalisation et variantes décrits ci-avant, afin de répondre à un besoin bien particulier.
La présente invention ne se limite donc pas aux exemples de réalisation décrits ci-avant mais s’étend notamment à un procédé de suivi qui inclurait des étapes secondaires sans pour cela sortir de la portée de la présente invention. Il en serait de même d’un dispositif configuré pour la mise en œuvre d’un tel procédé.
La présente invention concerne également un véhicule, par exemple automobile ou plus généralement un véhicule à moteur terrestre (par exemple autonome ou semi-autonome), comprenant le dispositif de suivi 10 de la .

Claims (10)

  1. Procédé de suivi de l’environnement (2) d’un véhicule (4), ledit procédé comprenant :
    - obtention (51), au moyen d’au moins un capteur de perception (12) du véhicule, de données de perception (DT1) représentatives de l’environnement du véhicule opérant un déplacement (MV1) ;
    - estimation (52), à partir des données de perception, d’une position relative (P1) au cours du temps par rapport au véhicule d’un objet (OB1) détecté dans ledit environnement en association avec une incertitude de position (I1) représentative d’une incertitude fonction dudit au moins un capteur de perception (12) sur la position relative (P1) estimée de l’objet ;
    - estimation (53), au moyen d’au moins un capteur odométrique (16) du véhicule, du déplacement (MV1) au cours du temps du véhicule dans ledit environnement en association avec une incertitude de déplacement (I2) représentative d’une incertitude fonction dudit au moins un capteur odométrique sur le déplacement estimé du véhicule ;
    - estimation (54) d’un déplacement (MV2) de l’objet dans ledit environnement par un changement de repère de la position relative (P1) estimée de l’objet, et de l’incertitude de position (I1) associée, depuis un repère relatif (REF2) dudit au moins un capteur de perception dans un repère global (REF1) dudit environnement, ledit changement de repère étant réalisé à partir du déplacement estimé (MV1) du véhicule et de l’incertitude de déplacement (I2) associée ;
    - identification (55) d’une classe (CL1) de l’objet à partir des données de perception ; et
    - détermination (56) de si l’objet est statique ou dynamique dans l’environnement (2) par comparaison du déplacement (MV1) estimé de l’objet dans ledit environnement avec ladite classe (CL1).
  2. Procédé selon la revendication 1, dans lequel ledit au moins un capteur de perception (12) comprend au moins l’un parmi :
    - une caméra ;
    - un capteur lidar ; et
    - un capteur radar.
  3. Procédé selon la revendication 1 ou 2, dans lequel ladite estimation de la position relative (P1) au cours du temps de l’objet comprend :
    - estimation de la position relative (P1) de l’objet par rapport au véhicule (2) à une pluralité d’instants dans une fenêtre temporelle tandis que le véhicule (2) opère ledit déplacement (MV1) ; et
    - estimation de l’incertitude de position (I1) pour chacun desdits instants en fonction dudit au moins un capteur de perception (12).
  4. Procédé selon l’une quelconque des revendications précédentes, dans lequel la position relative (P1) de l’objet et l’incertitude de position (I1) associée définissent collectivement une première ellipse d’incertitude (EL1) dans laquelle est censé être positionné l’objet (OB1) avec un niveau minimum de confiance.
  5. Procédé selon la revendication 4, dans lequel le déplacement (MV1) estimé du véhicule (2) et l’incertitude de déplacement (I2) associée définissent collectivement une deuxième ellipse d’incertitude (EL2) dans laquelle est censé se déplacer le véhicule (2) avec un niveau minimum de confiance.
  6. Procédé selon la revendication 5, dans lequel l’estimation du déplacement (MV2) de l’objet dans le repère global (REF1) comprend :
    - conversion, par ledit changement de repère, de la première ellipse d’incertitude (EL1) en une ellipse d’incertitude modifiée (EL1a) prenant en compte la deuxième ellipse d’incertitude (EL2) ; et
    - détection que l’objet (OB1) est dynamique dans l’environnement si l’ellipse d’incertitude modifiée (EL1a) se déplace dans le repère global (REF1) et que l’objet est statique dans l’environnement si l’ellipse d’incertitude modifiée (EL1a) ne se déplace pas dans le repère global (REF1).
  7. Procédé selon l’une quelconque des revendications précédentes, dans lequel le déplacement (MV1) du véhicule au cours du temps est également fonction d’au moins l’un parmi :
    - des données de déplacement (DT3) représentatives de mouvements oscillatoires du véhicule au cours du déplacement ; et
    - des données exogènes (DT4) représentatives de l’environnement dans lequel le véhicule opère ledit déplacement.
  8. Programme d’ordinateur (PG1) comportant des instructions pour la mise en œuvre du procédé selon l’une quelconque des revendications précédentes, lorsque ces instructions sont exécutées par un processeur (40).
  9. Dispositif (10) de suivi de l’environnement (2) d’un véhicule (4), ledit dispositif comprenant une mémoire (41) associée à au moins un processeur (40) configuré pour la mise en œuvre des étapes du procédé selon l’une quelconque des revendications 1 à 7.
  10. Véhicule (4) comprenant le dispositif de suivi (10) selon la revendication 9.
FR2210169A 2022-10-05 2022-10-05 Procédé et dispositif de suivi de l’environnement d’un véhicule Pending FR3140699A1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR2210169A FR3140699A1 (fr) 2022-10-05 2022-10-05 Procédé et dispositif de suivi de l’environnement d’un véhicule

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR2210169A FR3140699A1 (fr) 2022-10-05 2022-10-05 Procédé et dispositif de suivi de l’environnement d’un véhicule
FR2210169 2022-10-05

Publications (1)

Publication Number Publication Date
FR3140699A1 true FR3140699A1 (fr) 2024-04-12

Family

ID=84362209

Family Applications (1)

Application Number Title Priority Date Filing Date
FR2210169A Pending FR3140699A1 (fr) 2022-10-05 2022-10-05 Procédé et dispositif de suivi de l’environnement d’un véhicule

Country Status (1)

Country Link
FR (1) FR3140699A1 (fr)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019068699A1 (fr) * 2017-10-06 2019-04-11 Connaught Electronics Ltd. Procédé de classification d'un point d'objet comme statique ou dynamique, système d'aide à la conduite, et véhicule automobile
US20220187469A1 (en) * 2020-12-14 2022-06-16 Aptiv Technologies Limited System and Method for Mapping a Vehicle Environment

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019068699A1 (fr) * 2017-10-06 2019-04-11 Connaught Electronics Ltd. Procédé de classification d'un point d'objet comme statique ou dynamique, système d'aide à la conduite, et véhicule automobile
US20220187469A1 (en) * 2020-12-14 2022-06-16 Aptiv Technologies Limited System and Method for Mapping a Vehicle Environment

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
DURAND SONIA ET AL: "360 Multisensor Object Fusion and Sensor-based Erroneous Data Management for Autonomous Vehicles", 2019 IEEE SENSORS APPLICATIONS SYMPOSIUM (SAS), IEEE, 11 March 2019 (2019-03-11), pages 1 - 6, XP033545451, DOI: 10.1109/SAS.2019.8705970 *

Similar Documents

Publication Publication Date Title
FR3140699A1 (fr) Procédé et dispositif de suivi de l’environnement d’un véhicule
EP2489548B1 (fr) Procédé et dispositif de commande de commutation du système d'éclairage avant adaptatif d'un véhicule automobile
WO2022152986A1 (fr) Procédé et dispositif de suivi de trajectoire d'un véhicule circulant sur une voie de circulation
FR3119817A1 (fr) Procédé et dispositif de détermination d’une trajectoire pour un véhicule autonome
FR3120223A1 (fr) Procédé et dispositif d’aide à la conduite d’un véhicule basé sur la détection d’au moins une ligne marquée sur le sol d’une voie de circulation.
FR3136288A1 (fr) Procédé et dispositif de contrôle d’un véhicule en fonction de son environnement
EP4090565B1 (fr) Procédé et dispositif de contrôle d'un vehicule
WO2024003473A1 (fr) Procédé et dispositif de contrôle d'un système d'aide à la conduite d'un véhicule circulant dans un environnement routier comprenant une intersection
FR3141913A1 (fr) Procédé et dispositif de surveillance d’un véhicule
FR3136430A1 (fr) Procédé et dispositif de contrôle d’un système de régulation adaptative de vitesse d’un véhicule
FR3138099A1 (fr) Procédé et dispositif de contrôle d’un système de régulation adaptative de vitesse d’un véhicule
FR3123745A1 (fr) Procédé d’aide à la conduite d’un véhicule circulant sur une voie de circulation délimitée par une première et une deuxième lignes marquées au sol.
WO2023214138A1 (fr) Procédé et dispositif de contrôle d'un système d'aide à la conduite de véhicule en fonction de la détection d'un panneau de signalisation et d'un changement de voie
WO2024115827A1 (fr) Procédé et dispositif de contrôle d'un système d'aide à la conduite dans un environnement comportant un croisement
FR3139528A1 (fr) Procédé et dispositif de contrôle d’un volet arrière d’un véhicule
FR3131890A1 (fr) Procédé et dispositif de contrôle d’un système de changement semi-automatique de voie de circulation d’un véhicule
WO2024094941A1 (fr) Procédé et dispositif de contrôle de gestion des messages d'alertes pour un système de régulation adaptative de vitesse d'un véhicule
FR3103613A1 (fr) Procédé et dispositif de transmission de consignes pour véhicule
FR3107024A1 (fr) Procédé et dispositif de contrôle d’un véhicule
FR3128177A1 (fr) Procédé et dispositif de prédiction d’un changement de voie de circulation pour véhicule
WO2024023411A1 (fr) Procédé et dispositif de contrôle d'un système salc d'un véhicule en fonction de la présence d'une structure de séparation de voies
WO2024018130A1 (fr) Procédé et dispositif de contrôle d'un système salc d'un véhicule en fonction de la qualité des lignes de marquage au sol
FR3133814A1 (fr) Procédé et dispositif de contrôle d’un véhicule autonome sur la base de la localisation d’un dispositif de communication mobile sur le chemin du véhicule autonome
WO2024094942A1 (fr) Procédé et dispositif de contrôle d'un système de régulation adaptative de vitesse d'un véhicule changeant de voie de circulation
FR3140453A1 (fr) Procédé et dispositif de contrôle d’un système embarqué d’un véhicule en approche d’un feu de signalisation à décompte de temps

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20240412