FR3100651A1 - Procédé et dispositif de détection d’un objet pour véhicule - Google Patents

Procédé et dispositif de détection d’un objet pour véhicule Download PDF

Info

Publication number
FR3100651A1
FR3100651A1 FR1909749A FR1909749A FR3100651A1 FR 3100651 A1 FR3100651 A1 FR 3100651A1 FR 1909749 A FR1909749 A FR 1909749A FR 1909749 A FR1909749 A FR 1909749A FR 3100651 A1 FR3100651 A1 FR 3100651A1
Authority
FR
France
Prior art keywords
vehicle
camera
view
field
absence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
FR1909749A
Other languages
English (en)
Inventor
Jean Philippe Monteuuis
Stefano Mafrica
Alain Servel
Houda Labiod
Jun Zhang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institut Mines Telecom IMT
PSA Automobiles SA
Original Assignee
Institut Mines Telecom IMT
PSA Automobiles SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institut Mines Telecom IMT, PSA Automobiles SA filed Critical Institut Mines Telecom IMT
Priority to FR1909749A priority Critical patent/FR3100651A1/fr
Publication of FR3100651A1 publication Critical patent/FR3100651A1/fr
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/251Fusion techniques of input or preprocessed data

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Traffic Control Systems (AREA)

Abstract

L’invention concerne un procédé et un dispositif de détection d’objet pour véhicule. A cet effet, des premières informations représentatives d’une position d’un premier objet (12) sont reçues, le premier objet étant localisé dans le champ de vision (101) d’une caméra du véhicule (10), ce premier objet (12) n’étant pas visible par cette caméra. Des deuxièmes informations représentatives d’un deuxième objet (11) localisé dans le champ de vision (101) de la caméra sont obtenues par le véhicule (10). La présence ou l’absence d’intersection entre un segment de droite (ayant pour origine le véhicule (10) et pour extrémité le premier objet (12)) et le deuxième objet (11) est déterminée. Enfin, la présence potentielle ou l’absence du premier objet (12) dans le champ de vision de la première caméra est déterminée en fonction du résultat de la détermination de présence ou d’absence d’intersection. Figure pour l’abrégé : Figure 1

Description

Procédé et dispositif de détection d’un objet pour véhicule
L’invention concerne un procédé et un dispositif de détection d’objet pour véhicule, notamment de type automobile. L’invention concerne plus particulièrement un procédé et un dispositif de détermination de la possible présence ou de l’absence d’un objet dans le champ de vision d’une caméra d’un véhicule.
Arrière-plan technologique
Les véhicules contemporains embarquent de nouvelles technologies leur permettant d’appréhender leur environnement, par exemple pour améliorer la sécurité des passagers de ces véhicules ou pour évoluer vers une conduite autonome de ces véhicules.
Un véhicule contemporain embarque par exemple plusieurs capteurs, tels que des radars et une ou plusieurs caméras, lui permettant d’analyser son environnement, par exemple pour la détection d’objets tels que des véhicules évoluant dans le même environnement routier.
Certains véhicules contemporains sont également équipés de nouvelles technologies qui permettent l’échange d’informations entre ces véhicules et/ou entre ces véhicules et l’infrastructure qui les entoure. Ainsi, de nouvelles technologies de l’information et de la communication appliquées au domaine des transports sont apparues, telles que l’ITS G5 (de l’anglais « Intelligent Transportation System G5 » ou en français « Système de transport intelligent G5 ») en Europe ou DSRC (de l’anglais « Dedicated Short Range Communications » ou en français « Communications dédiées à courte portée ») aux Etats-Unis d’Amérique qui reposent tous les deux sur le standard IEEE 802.11p ou encore la technologie basée sur les réseaux cellulaires nommée C-V2X (de l’anglais « Cellular - Vehicle to Everything » ou en français « Cellulaire – Véhicule vers tout ») qui s’appuie sur la 4G basé sur LTE (de l’anglais « Long Term Evolution » ou en français « Evolution à long terme ») et bientôt la 5G.
Cette pluralité de sources d’informations sur l’environnement des véhicules peut entrainer des erreurs d’analyse de l’environnement, par exemple une détection erronée ou incertaine d’un ou plusieurs objets ou véhicules dans l’environnement proche de ces véhicules, ce qui est générateur de risque pour les occupants du véhicule.
Un objet de la présente invention est d’améliorer la détection d’un objet situé dans l’environnement d’un véhicule.
Un autre objet de la présente invention est de valider une information relative à la présence d’un objet dans l’environnement d’un véhicule et reçue d’une source extérieure au véhicule.
Selon un premier aspect, l’invention concerne un procédé de détection d’un objet pour véhicule, le véhicule embarquant une première caméra pour l’acquisition d’au moins une partie d’un environnement entourant le véhicule, le procédé comprenant les étapes suivantes :
- réception de premières informations représentatives d’une position d’un premier objet, la position indiquant une localisation du premier objet dans le champ de vision de la première caméra, le premier objet n’étant pas visible par la première caméra ;
- obtention de deuxième informations représentatives d’un deuxième objet localisé dans le champ de vision de la première caméra, le deuxième objet étant localisé entre le véhicule et le premier objet, le deuxième objet étant visible par la première caméra ;
- détermination d’une présence ou d’une absence d’intersection entre un segment de droite ayant pour origine un point du véhicule et pour extrémité un point du premier objet d’une part et le deuxième objet d’autre part ;
- détermination d’une présence potentielle ou d’une absence du premier objet dans le champ de vision de la première caméra en fonction du résultat de la détermination de présence ou d’absence d’intersection.
Selon une variante, l’absence du premier objet dans le champ de vision de la première caméra est déterminée lorsqu’aucune intersection entre le segment de droite et le deuxième objet n’a été déterminée.
Selon une autre variante, la présence potentielle du premier objet dans le champ de vision de ladite première caméra est déterminée lorsqu’au moins une intersection entre ledit segment de droite et le deuxième a été déterminée.
Selon une variante supplémentaire, la au moins une intersection correspond au milieu d’un côté d’une boîte englobante du deuxième objet.
Selon encore une variante, le procédé comprend en outre les étapes de :
- réception de données d’au moins une deuxième caméra positionnée sur un bord d’une route sur laquelle circule le véhicule, le champ de vision associée à la au moins une deuxième caméra comprenant le premier objet ;
- détermination de la présence ou de l’absence du premier objet dans le champ de vision de la première caméra en fonction des données reçues.
Selon une variante supplémentaire, le premier objet correspond à un véhicule et le deuxième objet correspond à un véhicule.
Selon une autre variante, les premières informations et les deuxièmes informations sont reçues selon un mode de communication V2X.
Selon un deuxième aspect, l’invention concerne un dispositif de détection d’objet pour véhicule, le véhicule embarquant une première caméra pour l’acquisition d’au moins une partie d’un environnement entourant le véhicule, le dispositif comprenant une mémoire associée à un processeur configuré pour la mise en œuvre des étapes du procédé selon le premier aspect de l’invention.
Selon un troisième aspect, l’invention concerne un véhicule, par exemple de type automobile, comprenant un dispositif tel que décrit ci-dessus selon le deuxième aspect de l’invention.
Selon un quatrième aspect, l’invention concerne un programme d’ordinateur qui comporte des instructions adaptées pour l’exécution des étapes du procédé selon le premier aspect de l’invention, ceci notamment lorsque le programme d’ordinateur est exécuté par au moins un processeur.
Un tel programme d’ordinateur peut utiliser n’importe quel langage de programmation, et être sous la forme d’un code source, d’un code objet, ou d’un code intermédiaire entre un code source et un code objet, tel que dans une forme partiellement compilée, ou dans n’importe quelle autre forme souhaitable.
Selon un cinquième aspect, l’invention concerne un support d’enregistrement lisible par un ordinateur sur lequel est enregistré un programme d’ordinateur comprenant des instructions pour l’exécution des étapes du procédé selon le premier aspect de l’invention.
D’une part, le support d’enregistrement peut être n'importe quel entité ou dispositif capable de stocker le programme. Par exemple, le support peut comporter un moyen de stockage, tel qu'une mémoire ROM, un CD-ROM ou une mémoire ROM de type circuit microélectronique, ou encore un moyen d'enregistrement magnétique ou un disque dur.
D'autre part, ce support d’enregistrement peut également être un support transmissible tel qu'un signal électrique ou optique, un tel signal pouvant être acheminé via un câble électrique ou optique, par radio classique ou hertzienne ou par faisceau laser autodirigé ou par d'autres moyens. Le programme d’ordinateur selon l'invention peut être en particulier téléchargé sur un réseau de type Internet.
Alternativement, le support d'enregistrement peut être un circuit intégré dans lequel le programme d’ordinateur est incorporé, le circuit intégré étant adapté pour exécuter ou pour être utilisé dans l'exécution du procédé en question.
Brève description des figures
D’autres caractéristiques et avantages de l’invention ressortiront de la description des modes de réalisation non limitatifs de l’invention ci-après, en référence aux figures 1 à 4 annexées, sur lesquelles :
illustre de façon schématique un environnement routier dans lequel circule des véhicules, selon un exemple de réalisation particulier de la présente invention ;
illustre de façon schématique la détermination de la présence ou de l’absence d’un objet dans le champ de vision d’une caméra d’un véhicule de la figure 1, selon un exemple de réalisation particulier de la présente invention ;
illustre schématiquement un dispositif de détection d’objet pour le véhicule de la figure 2, selon un exemple de réalisation particulier de la présente invention ;
illustre un organigramme des différentes étapes d’un procédé de détection d’objet pour un véhicule de la figure 1, selon un exemple de réalisation particulier de la présente invention.
Un procédé et un dispositif de détection d’objet pour véhicule vont maintenant être décrits dans ce qui va suivre en référence conjointement aux figures 1 à 4. Des mêmes éléments sont identifiés avec des mêmes signes de référence tout au long de la description qui va suivre.
Selon un exemple particulier et non limitatif de réalisation de l’invention, un procédé de détection d’un objet pour véhicule comprend la réception de premières informations représentatives d’une position d’un premier objet, par exemple un véhicule automobile. La position du premier objet indique au véhicule qui a reçu les premières informations que ce premier objet est situé dans le champ de vision d’une caméra embarquée dans le véhicule, alors que ce premier objet n’est pas visible par cette caméra, c’est-à-dire par exemple que le premier objet n’est pas détecté dans la ou les images acquises par cette caméra. Des deuxièmes informations représentatives d’un deuxième objet localisé dans le champ de vision de la caméra sont obtenues par le véhicule, par exemple en analysant la ou les images acquises par la caméra ou reçues du deuxième objet lui-même. Le deuxième objet est avantageusement localisé entre le véhicule et le premier objet, le deuxième objet étant visible par la première caméra, c’est-à-dire qu’il est détecté à partir de la ou les images acquises par la caméra. La présence ou l’absence d’intersection entre un segment de droite (ayant pour origine un point du véhicule et pour extrémité un point du premier objet) et le deuxième objet est déterminée. Enfin, la présence potentielle ou l’absence du premier objet dans le champ de vision de la première caméra est déterminée en fonction du résultat de la détermination de présence ou d’absence d’intersection.
La détermination de la présence ou de l’absence d’intersection entre le deuxième objet et un segment de droite reliant le véhicule et le premier objet permet de déterminer si le deuxième objet occulte le premier objet du point de vue du véhicule. Cela permet de vérifier la possible existence de ce premier objet (en cas d’intersection) ou au contraire de valider que ce premier objet n’existe pas car il n’est pas visible depuis la caméra et aucun objet ne l’occulte. Ainsi, la détection d’un objet dont les coordonnées géographiques sont reçues est améliorée en écartant les erreurs de détection liées à la réception d’informations erronées.
illustre schématiquement un environnement routier 1 comprenant plusieurs véhicules 10 à 13, selon un exemple de réalisation particulier et non limitatif de la présente invention.
La figure 1 illustre un environnement routier 1, ou une portion d’un environnement routier, comprenant un véhicule 10 circulant sur une première voie de circulation dans un sens donné, précédé d’un autre véhicule 11 et suivi par encore un autre véhicule 13 situé derrière le véhicule 10 et situé sur une deuxième voie de circulation et circulant dans le même sens que le véhicule 10.
Les véhicules 10, 11 et 13 communiquent avantageusement en utilisant un système de communication dit V2X, par exemple basé sur les standards 3GPP LTE-V ou IEEE 802.11p de ITS G5. Dans un tel système de communication V2X, chaque véhicule embarque un nœud pour permettre une communication de véhicule à véhicule V2V (de l’anglais « vehicle-to-vehicle »), de véhicule à infrastructure V2I (de l’anglais « vehicle-to-infrastructure ») et/ou de véhicule à piéton V2P (de l’anglais « vehicle-to-pedestrian »), les piétons étant équipés de dispositifs mobiles (par exemple un téléphone intelligent (de l’anglais « Smartphone »)) configurés pour communiquer avec les véhicules.
Selon l’exemple de la figure 1, le véhicule 13 transmet au véhicule 10 des premières informations sur la présence d’un véhicule 12 situé devant le véhicule 10 dans le champ de vision 101 d’une première caméra embarquée sur le véhicule 10, par exemple à l’avant du véhicule 10, par exemple sur la calandre avant ou sur le parechoc avant. Les premières informations sont communiquées par le véhicule 13 au véhicule 10 selon un mode de communication V2X, par exemple selon un mode de communication directe et/ou au travers d’une infrastructure réseau. Un mode de communication directe est par exemple conforme à :
- ITS G5 en Europe ou DSRC (de l’anglais « Dedicated Short Range Communications » ou en français « Communications dédiées à courte portée ») aux Etats-Unis d’Amérique, qui reposent tous les deux sur le standard IEEE 802.11p ; ou
- LTE-V Mode 4 (de l’anglais « Long-Term Evolution – Vehicle Mode 4 » ou en français « Evolution à long terme – véhicule Mode 4 ») qui permet des communications V2V, aussi appelées communications « sidelink » (ou en français « liaison latérale »)) basé sur une interface de communication directe de LTE appelée PC5 ; une telle technologie est décrite par exemple dans l’article intitulé « Analytical Models of the Performance of C-V2X Mode 4 Vehicular Communications », écrit par Manuel Gonzalez-Martin, Miguel Sepulcre, Rafael Molina-Masegosa et Javier Gozalvez, et publié en 2018.
L’infrastructure réseau comprend des équipements de communication de type antenne relais (pour un réseau cellulaire) ou unité bord de route (UBR) pour un réseau de type ITS G5. La figure 1 illustre un tel équipement de communication 110 qui fait le relais entre par exemple le véhicule 10 d’une part et un ou plusieurs serveurs distants ou le « cloud » 100 (ou en français « nuage ») d’autre part.
Selon un exemple de réalisation particulier, le véhicule 10 a établi un mode de communication directe V2V avec le véhicule 11 qui le précède.
Les premières informations transmises par le véhicule 13 au véhicule 10 comprennent par exemple la position géographique du véhicule 12, par exemple les coordonnées GPS (de l’anglais « Global Positioning System » ou en français « Système mondial de positionnement ») du véhicule 12. Selon une variante, ces premières informations comprennent également les dimensions du véhicule 12, à savoir la longueur et la largeur du véhicule 12 par exemple.
Le véhicule 10 est équipé de détecteurs pour détecter la présence d’objets dans son environnement proche, tels que des radars et/ou caméras. Selon l’exemple de la figure 1, la voiture 10 embarque au moins une première caméra située à l’avant du véhicule pour l’acquisition de l’espace situé devant le véhicule, dans le champ de vision 101 de la première caméra, par exemple sur une distance de 100 m, 200 m ou 300 m devant le véhicule 10. Par l’analyse des images, les objets situés devant le véhicule 10 peuvent être déterminés, par exemple par mise en œuvre d’intelligence artificielle, par exemple une méthode d’apprentissage par machine (de l’anglais « machine learning ») ou par mise en œuvre d’une méthode s’appuyant sur les cartes de saillance. Une telle analyse permet de déterminer la présence d’un ou plusieurs objets (par exemple un véhicule), la forme de l’objet et la distance vis-à-vis du véhicule (par exemple en utilisant 2 caméras avec 2 points de vue différents, par exemple espacées de quelques centimètres, ou en utilisant une caméra de profondeur associée à la première caméra image).
Le véhicule 10 détecte ainsi le véhicule 11 situé devant le véhicule 10 dans le champ de vision de la première caméra embarqué sur le véhicule 10. Selon une variante de réalisation, la présence du véhicule 11 est obtenue par la réception de deuxièmes informations représentatives du véhicule 11 (par exemple la localisation, les dimensions) transmises par le véhicule 11 au véhicule 10 selon un mode de communication V2X, que ce soit selon un mode de communication directe ou au travers d’une infrastructure réseau.
Après avoir reçu les premières informations indiquant la présence du véhicule 12 dans le champ de vision de la première caméra, le véhicule 10 cherche à vérifier l’exactitude de ces premières informations, le véhicule 12 n’étant pas visible depuis la première caméra, c’est à dire que l’analyse de la ou les images acquises par la première caméra ne montre pas la présence du véhicule 12. En effet, les premières informations transmises par le véhicule 13 peuvent être erronées (erreur sur la position du véhicule 12) ou malveillantes.
Afin de vérifier l’exactitude de ces premières informations, le véhicule 10 cherche à déterminer si le véhicule 12 est occulté ou non par un objet, ce qui expliquerait qu’il ne soit pas visible depuis la ou les premières caméras du véhicule 10. Si le véhicule 12 apparait comme occulté par un objet, alors le véhicule 10 peut déterminer que le véhicule 12 est potentiellement situé à l’endroit indiqué par les premières informations, sans toutefois conclure sur la réelle présence du véhicule 12 qui n’est pas visible depuis la première caméra. Si le véhicule 12 apparait comme non occulté, alors le véhicule 10 peut conclure que les premières informations sont erronées ou que la source de ces premières informations est une source malveillante ou malicieuse.
La détermination de la présence d’un obstacle masquant le véhicule 12 comprend la détermination de la présence ou de l’absence d’intersection entre un segment de droite reliant le véhicule 10 au véhicule 12 (appelé aussi premier objet) et un deuxième objet (par exemple le véhicule 11). Le deuxième objet 11 correspond par exemple à l’objet le plus proche du véhicule 10 détecté dans le champ de vision de la première caméra embarquée sur le véhicule 10.
La présence d’une ou plusieurs intersections indique la présence d’un objet, le deuxième objet, entre le véhicule 10 et le premier objet (le véhicule 12 selon l’exemple de la figure 1), ce deuxième objet (le véhicule 11 selon l’exemple de la figure 1) occultant ainsi le premier objet (le véhicule 12) selon le point de vue du véhicule 10 (ou de la première caméra embarquée sur le véhicule 10).
L’absence d’intersection indique qu’il n’y a pas de deuxième objet pouvant occulter le véhicule 12 et que le véhicule 12 devrait donc être détecté sur la ou les images par la première caméra embarquée sur le véhicule 10. Comme ce n’est pas le cas, il est possible de déterminer que les premières informations sont erronées ou malveillantes.
La détermination de la présence ou de l’absence d’intersection est décrite avec plus de détails en regard de la figure 2 ci-dessous.
Selon une variante optionnelle de réalisation, la présence du premier objet, c’est-à-dire le véhicule 12, est validée à partir d’une ou plusieurs images acquises par une ou plusieurs deuxièmes caméras 111 localisées le long de la voie de circulation. Le champ de vision associée à chacune de ces deuxièmes caméras 111 permet de visualiser les objets (véhicules) selon un point de vue différent de celui de la ou les premières caméras embarquées sur le véhicule 10, par exemple latéralement. Lorsque la présence du premier objet (le véhicule 12) est déterminée comme possible par le véhicule 10, c’est-à-dire qu’un deuxième objet (le véhicule 11) a été identifié comme occultant le premier objet (le véhicule 12), le véhicule 10 émet par exemple une requête à destination du cloud 100 via le réseau V2X pour requérir la validation de la détection du premier objet 12 par l’analyse des images acquises par les deuxièmes caméras bord de route 111. Si les images indiquent la présence du premier objet 12, alors le véhicule conclut que la présence du premier objet 12 est avérée. Si les images n’indiquent aucune présence du premier objet 12, alors le véhicule conclut que le premier objet 12 n’existe pas ou, pour le moins, que sa position ne correspond pas à celle indiquée par les premières informations et que les premières informations sont erronées ou que la source des premières informations est malveillante ou malicieuse.
Selon encore une variante de réalisation, la ou les images acquises par la deuxième caméra 111 sont transmises au véhicule 10 qui détermine la présence du premier objet 12 à partir de ces images pour validation ou invalidation des premières informations.
illustre schématiquement la détermination de la présence ou de l’absence d’un objet occultant un autre objet dans le champ de vision d’une première caméra embarquée sur le véhicule 10 de la figure 1, selon un exemple de réalisation particulier et non limitatif de la présente invention.
La détermination de la présence ou de l’absence d’un deuxième objet 21 occultant le premier objet 12 du point de vue du véhicule 10 comprend le tracé d’un ou plusieurs rayons ou segments de droite 210. Le segment 210 a pour origine le véhicule 10 (par exemple le calculateur du système embarqué en charge de la détection des objets dans l’environnement proche du véhicule 10, le récepteur GPS indiquant la position du véhicule 10, ou la première caméra embarquée sur le véhicule 10) et pour extrémité le premier objet, c’est-à-dire le véhicule 12 selon l’exemple de réalisation des figures 1 et 2. L’extrémité correspond par exemple aux coordonnées géographiques du premier objet 12 reçues dans les premières informations. Les coordonnées du premier objet 12 sont par exemple transformées dans le repère du véhicule 10, les calculs d’intersection entre le segment 210 et un deuxième objet 21 étant avantageusement réalisés dans le repère associé au véhicule 10. Le deuxième objet 21 correspond avantageusement à une boîte englobante modélisant le véhicule 11 de la figure 1. Les intersections entre le segment 210 et chacun des côtés de la boite englobante 21 sont testées ou déterminées. Selon l’exemple de la figure 2, deux intersections 211 et 212 sont déterminées, la première intersection 211 correspondant à l’intersection entre le segment 210 et le côté de la boîte englobante 21 le plus proche du véhicule 10 et la deuxième intersection 212 correspondant à l’intersection entre le segment 210 et le côté de la boîte englobante 21 le plus éloigné du véhicule 10.
La présence de ces points d’intersections 211 et 212 entre le segment 210 et le deuxième objet 21 permet de valider la présence potentielle d’un objet, c’est-à-dire le premier objet correspondant au véhicule 12, dans le champ de vision 101 de la première caméra du véhicule 10 mais occulté par le deuxième objet 21.
A contrario, l’absence d’intersection entre le segment 210 et le deuxième objet 21 permet de conclure en l’absence d’un objet, c’est-à-dire le premier objet correspondant au véhicule 12, dans le champ de vision de la première caméra du véhicule 10 qui serait occulté par le deuxième objet 21.
Selon une variante de réalisation, l’occultation du premier objet 12 par le deuxième objet 21 est déterminée si au moins une des intersections 211, 212 correspond au milieu d’un des côtés de la boîte englobante 21, ou si au moins une des intersections 211, 212 est proche du milieu d’un des côtés de la boîte englobante 21, par exemple située dans un intervalle centré autour du milieu du côté concerné, les extrémités de l’intervalle étant à une distance du milieu correspondant à 10, 15, 20 % de la longueur du côté concerné.
illustre schématiquement un dispositif 3 configuré pour la détection d’objet(s) dans le champ de vision d’au moins une caméra embarquée sur un véhicule, selon un exemple de réalisation particulier et non limitatif de la présente invention. Le dispositif 3 correspond par exemple à un dispositif embarqué par le véhicule 10 pour confirmer la présence d’un premier objet dans le champ de vision de la première caméra embarquée, le premier objet étant détecté au moyen de premières informations reçues d’un dispositif externe au véhicule 10 selon un mode de communication V2V et/ou V2I, le premier objet étant non visible sur la ou les images acquises par la première caméra embarquée.
Le dispositif 3 est par exemple configuré pour la mise en œuvre des opérations décrites en regard des figures 1 et 2 et/ou des étapes du procédé décrit en regard de la figure 4. Des exemples d’un tel dispositif 3 comprennent, sans y être limités, un équipement électronique embarqué tel qu’un ordinateur de bord d’un véhicule, un calculateur électronique tel qu’une UCE, une unité de contrôle télématique TCU (de l’anglais « Telematic Control Unit »), un téléphone intelligent (de l’anglais « smartphone »), une tablette, un ordinateur portable. Les éléments du dispositif 3, individuellement ou en combinaison, peuvent être intégrés dans un unique circuit intégré, dans plusieurs circuits intégrés, et/ou dans des composants discrets. Le dispositif 3 peut être réalisé sous la forme de circuits électroniques ou de modules logiciels (ou informatiques) ou encore d’une combinaison de circuits électroniques et de modules logiciels. Selon différents modes de réalisation particuliers, le dispositif 3 est couplé en communication avec d’autres dispositifs ou systèmes similaires, par exemple par l’intermédiaire d’un bus de communication ou au travers de ports d’entrée / sortie dédiés.
Le dispositif 3 comprend un (ou plusieurs) processeur(s) 30 configurés pour exécuter des instructions pour la réalisation des étapes du procédé et/ou pour l’exécution des instructions du ou des logiciels embarqués dans le dispositif 3. Le processeur 30 peut inclure de la mémoire intégrée, une interface d’entrée/sortie, et différents circuits connus de l’homme du métier. Le dispositif 3 comprend en outre au moins une mémoire 31 correspondant par exemple une mémoire volatile et/ou non volatile et/ou comprend un dispositif de stockage mémoire qui peut comprendre de la mémoire volatile et/ou non volatile, telle que EEPROM, ROM, PROM, RAM, DRAM, SRAM, flash, disque magnétique ou optique.
Le code informatique du ou des logiciels embarqués comprenant les instructions à charger et exécuter par le processeur est par exemple stocké sur la première mémoire 31.
Selon un mode de réalisation particulier et non limitatif, le dispositif 3 comprend un bloc 32 d’éléments d’interface pour communiquer avec des dispositifs externes, par exemple un serveur distant ou le « cloud », d’autres dispositifs similaires au dispositif 3 et embarqués dans d’autres véhicules que celui embarquant le dispositif 3. Les éléments d’interface du bloc 32 comprennent une ou plusieurs des interfaces suivantes :
- interface radiofréquence RF, par exemple de type Bluetooth® ou Wi-Fi®, LTE (de l’anglais « Long-Term Evolution » ou en français « Evolution à long terme »), LTE-Advanced (ou en français LTE-avancé) ;
- interface USB (de l’anglais « Universal Serial Bus » ou « Bus Universel en Série » en français) ;
- interface HDMI (de l’anglais « High Definition Multimedia Interface », ou « Interface Multimedia Haute Definition » en français) ;
- interface LIN (de l’anglais « Local Interconnect Network », ou en français « Réseau interconnecté local »).
Des données sont par exemples chargées vers le dispositif 3 via l’interface du bloc 32 en utilisant un réseau Wi-Fi® tel que selon IEEE 802.11, un réseau ITS G5 basé sur IEEE 802.11p ou un réseau mobile tel qu’un réseau 4G (ou LTE Advanced selon 3GPP release 10 – version 10) ou 5G, notamment un réseau LTE-V2X.
Selon un autre mode de réalisation particulier, le dispositif 3 comprend une interface de communication 33 qui permet d’établir une communication avec d’autres dispositifs, tels que par exemple le système de localisation de type GPS, le système de communication mobile (GSM, GPRS, Wi-Fi, Bluetooth, LTE, LTE-V, ITS G5)) ou les radars du système de radars via un canal de communication 330. L’interface de communication 33 correspond par exemple à un transmetteur configuré pour transmettre et recevoir des informations et/ou des données via le canal de communication 330. L’interface de communication 33 correspond par exemple à un réseau filaire de type CAN (de l’anglais « Controller Area Network » ou en français « Réseau de contrôleurs ») ou CAN FD (de l’anglais « Controller Area Network Flexible Data-Rate » ou en français « Réseau de contrôleurs à débit de données flexible »).
Selon un mode de réalisation particulier supplémentaire, le dispositif 3 peut fournir des signaux de sortie à un ou plusieurs dispositifs externes, tels qu’un écran d’affichage, un ou des haut-parleurs et/ou d’autres périphériques via respectivement des interfaces de sortie non représentées.
illustre un organigramme des différentes étapes d’un procédé de détection d’objet(s) pour véhicule, selon un exemple de réalisation particulier et non limitatif de la présente invention. Le procédé est avantageusement mis en œuvre dans le véhicule (par exemple le véhicule 10), par exemple mis en œuvre par le dispositif 3 de la figure 3 embarqué dans le véhicule.
Dans une première étape 41, des premières informations représentatives d’une position d’un premier objet sont reçues. La position indique une localisation du premier objet dans le champ de vision d’une première caméra embarqué sur le véhicule. Cependant, le premier objet n’est pas visible depuis la première caméra, c’est-à-dire qu’il n’apparait pas sur la ou les images acquises avec la première caméra. Les premières informations sont avantageusement reçues d’un dispositif externe au véhicule, par exemple reçues d’un autre véhicule ou d’un dispositif localisé sur le bord de la route. Les premières informations sont par exemple reçues selon un mode de communication V2X.
Dans une deuxième étape 42, des deuxième informations représentatives d’un deuxième objet localisé dans le champ de vision de la première caméra sont obtenues. Le deuxième objet est avantageusement localisé entre le véhicule et le premier objet, le deuxième objet étant visible par la première caméra. Ces deuxièmes informations sont par exemple obtenues par analyse de la ou les images acquises par la première caméra et/ou de capteurs (par exemple radars) embarqués sur le véhicule. Selon une variante de réalisation, les deuxièmes informations sont reçues du deuxième objet, par exemple lorsque ce dernier correspond à un véhicule. Selon cette variante, les deuxièmes informations sont par exemple reçues selon le mode de communication V2X.
Dans une troisième étape 43, la présence ou l’absence d’intersection entre un segment de droite ayant pour origine un point du véhicule et pour extrémité un point du premier objet d’une part et le deuxième objet d’autre part est déterminée.
Dans une quatrième étape 44, la présence potentielle ou l’absence du premier objet dans le champ de vision de la première caméra est déterminée en fonction du résultat de la détermination de présence ou d’absence d’intersection. En présence d’au moins une intersection, la présence potentielle du premier objet dans le champ de vision de la première caméra est confirmée. En l’absence de toute intersection, l’absence du premier objet dans le champ de vision de la première caméra est validée, les premières informations étant alors jugées erronées et/ou d’origine malveillante ou malicieuse. La présence potentielle du premier objet dans le champ de vision peut optionnellement être confirmée par l’analyse d’images acquises par au moins une deuxième caméra arrangée sur le bord de la route sur laquelle circule le véhicule, le champ de vision de la deuxième caméra étant différent de celui de la première caméra, par exemple offrant un point de vue latéral des véhicules circulant sur la route.
Bien entendu, l’invention ne se limite pas aux modes de réalisation décrits ci-avant mais s’étend à un procédé de validation de la présence d’un véhicule dans l’environnement d’un autre véhicule, et au dispositif configuré pour la mise en œuvre d’un tel procédé.
L’invention concerne aussi un système comprenant le dispositif 3 et la première caméra.
L’invention concerne également un véhicule, par exemple automobile ou plus généralement un véhicule à moteur terrestre, comprenant le dispositif 3 de la figure 3 ou le système comprenant le dispositif 3 et la première caméra.

Claims (10)

  1. Procédé de détection d’un objet pour véhicule (10), ledit véhicule (10) embarquant une première caméra pour l’acquisition d’au moins une partie d’un environnement entourant ledit véhicule (10), ledit procédé comprenant les étapes suivantes :
    - réception (41) de premières informations représentatives d’une position d’un premier objet (12), ladite position indiquant une localisation du premier objet dans le champ de vision (101) de ladite première caméra, ledit premier objet (12) n’étant pas visible par ladite première caméra ;
    - obtention (42) de deuxième informations représentatives d’un deuxième objet (11) localisé dans le champ de vision de ladite première caméra, ledit deuxième objet (11) étant localisé entre ledit véhicule (10) et ledit premier objet (12), ledit deuxième objet (11) étant visible par ladite première caméra ;
    - détermination (43) d’une présence ou d’une absence d’intersection entre un segment (210) de droite ayant pour origine un point dudit véhicule (10) et pour extrémité un point dudit premier objet (12) d’une part et ledit deuxième objet (11) d’autre part ;
    - détermination (44) d’une présence potentielle ou d’une absence dudit premier objet (12) dans ledit champ de vision de la première caméra en fonction du résultat de ladite détermination (43).
  2. Procédé selon la revendication 1, pour lequel l’absence dudit premier objet (12) dans le champ de vision de ladite première caméra est déterminée lorsqu’aucune intersection entre ledit segment (210) de droite et ledit deuxième objet (11) n’a été déterminée.
  3. Procédé selon l’une des revendications 1 à 2, pour lequel la présence potentielle dudit premier objet (12) dans le champ de vision de ladite première caméra est déterminée lorsqu’au moins une intersection entre ledit segment (210) de droite et un côté dudit deuxième objet (11) a été déterminée.
  4. Procédé selon la revendication 3, pour lequel ladite au moins une intersection correspond au milieu d’un côté d’une boîte englobante (21) dudit deuxième objet (11).
  5. Procédé selon l’une des revendications 3 et 4, comprenant en outre les étapes de :
    - réception de données d’au moins une deuxième caméra (111) positionnée sur un bord d’une route sur laquelle circule ledit véhicule (10), le champ de vision associée à ladite au moins une deuxième caméra (111) comprenant ledit premier objet (12) ;
    - détermination de la présence ou de l’absence dudit premier objet (12) dans le champ de vision de ladite première caméra en fonction desdites données reçues.
  6. Procédé selon l’une des revendications 1 à 5, pour lequel ledit premier objet (12) correspond à un véhicule et ledit deuxième objet (11) correspond à un véhicule.
  7. Procédé selon l’une quelconque des revendications 1 à 6, pour lequel lesdites premières informations et lesdites deuxièmes informations sont reçues selon un mode de communication V2X.
  8. Dispositif (3) de détection d’objet pour véhicule, ledit véhicule (10) embarquant une première caméra pour l’acquisition d’au moins une partie d’un environnement entourant ledit véhicule, ledit dispositif (3) comprenant une mémoire (31) associée à au moins un processeur (30) configuré pour la mise en œuvre des étapes du procédé selon l’une quelconque des revendications 1 à 7.
  9. Véhicule automobile comprenant le dispositif (3) selon la revendication 8.
  10. Produit programme d’ordinateur comportant des instructions adaptées pour l’exécution des étapes du procédé selon l’une des revendications 1 à 7, lorsque le programme d’ordinateur est exécuté par au moins un processeur.
FR1909749A 2019-09-05 2019-09-05 Procédé et dispositif de détection d’un objet pour véhicule Withdrawn FR3100651A1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR1909749A FR3100651A1 (fr) 2019-09-05 2019-09-05 Procédé et dispositif de détection d’un objet pour véhicule

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1909749A FR3100651A1 (fr) 2019-09-05 2019-09-05 Procédé et dispositif de détection d’un objet pour véhicule
FR1909749 2019-09-05

Publications (1)

Publication Number Publication Date
FR3100651A1 true FR3100651A1 (fr) 2021-03-12

Family

ID=68582007

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1909749A Withdrawn FR3100651A1 (fr) 2019-09-05 2019-09-05 Procédé et dispositif de détection d’un objet pour véhicule

Country Status (1)

Country Link
FR (1) FR3100651A1 (fr)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117719500A (zh) * 2024-02-07 2024-03-19 北京易控智驾科技有限公司 车辆碰撞检测方法、装置、电子设备及存储介质

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
KIM SEONG-WOO ET AL: "Multivehicle Cooperative Driving Using Cooperative Perception: Design and Experimental Validation", IEEE TRANSACTIONS ON INTELLIGENT TRANSPORTATION SYSTEMS, IEEE, PISCATAWAY, NJ, USA, vol. 16, no. 2, 1 April 2015 (2015-04-01), pages 663 - 680, XP011576979, ISSN: 1524-9050, [retrieved on 20150327], DOI: 10.1109/TITS.2014.2337316 *
PEDRO GOMES ET AL: "The See-Through System: From implementation to test-drive", VEHICULAR NETWORKING CONFERENCE (VNC), 2012 IEEE, IEEE, 14 November 2012 (2012-11-14), pages 40 - 47, XP032309135, ISBN: 978-1-4673-4995-6, DOI: 10.1109/VNC.2012.6407443 *
SAE FUJII ET AL: "Cooperative Vehicle Positioning via V2V Communications and Onboard Sensors", VEHICULAR TECHNOLOGY CONFERENCE (VTC FALL), 2011 IEEE, IEEE, 5 September 2011 (2011-09-05), pages 1 - 5, XP032029702, ISBN: 978-1-4244-8328-0, DOI: 10.1109/VETECF.2011.6093218 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117719500A (zh) * 2024-02-07 2024-03-19 北京易控智驾科技有限公司 车辆碰撞检测方法、装置、电子设备及存储介质
CN117719500B (zh) * 2024-02-07 2024-05-28 北京易控智驾科技有限公司 车辆碰撞检测方法、装置、电子设备及存储介质

Similar Documents

Publication Publication Date Title
FR3100651A1 (fr) Procédé et dispositif de détection d’un objet pour véhicule
FR3103437A1 (fr) Procédé et dispositif de détermination de consigne pour véhicule
FR3110998A1 (fr) Procédé de régulation d’un trafic routier aux abords d’une zone de croisement de voies de circulation.
FR3100203A1 (fr) Procédé et dispositif d’alerte d’évènement pour véhicule
WO2022258896A1 (fr) Procédé et dispositif de désactivation de système d'aide à la conduite
FR3107873A1 (fr) Procédé et dispositif de contrôle d’un véhicule dans une zone météorologique à risque
FR3106553A1 (fr) Procédé et dispositif de traitement de données d’environnement de véhicule
FR3118616A1 (fr) Procédé et dispositif d’alerte anticollision et/ou de freinage d’urgence
FR3118824A1 (fr) Procédé et dispositif de reprise en main par un conducteur d’un véhicule autonome circulant dans un tunnel
FR3118929A1 (fr) Procédé et dispositif de suivi de trajectoire d’un véhicule circulant sur une voie de circulation
FR3107114A1 (fr) Procédé et dispositif de validation de données de cartographie d’un environnement routier de véhicule
FR3101307A1 (fr) Procédé et dispositif de prévention de risque de collision pour véhicule
WO2024115827A1 (fr) Procédé et dispositif de contrôle d'un système d'aide à la conduite dans un environnement comportant un croisement
FR3135559A1 (fr) Procédé et dispositif de détermination de présence d’embouteillage à partir de données obtenues de caméra embarquée dans un véhicule
FR3106433A1 (fr) Procédé et dispositif de communication pour véhicule
FR3106248A1 (fr) Procédé et dispositif de transmission et de réception pour véhicule
FR3123616A1 (fr) Procédé et dispositif de détermination d’un risque de collision entre véhicules configurés pour communiquer en V2X
FR3117252A1 (fr) Procédé et dispositif d’aide à la manœuvre d’urgence
WO2021255355A1 (fr) Procédé et dispositif de communication entre deux véhicules
FR3106215A1 (fr) Procédé et dispositif de communication de données d’environnement de véhicule
FR3103613A1 (fr) Procédé et dispositif de transmission de consignes pour véhicule
FR3106013A1 (fr) Procédé et dispositif de cartographie de route pour véhicule
FR3133814A1 (fr) Procédé et dispositif de contrôle d’un véhicule autonome sur la base de la localisation d’un dispositif de communication mobile sur le chemin du véhicule autonome
FR3133357A1 (fr) Procédé et dispositif de contrôle d’un véhicule autonome utilisant des informations de localisation d’au moins un dispositif de communication mobile
FR3133002A1 (fr) Procédé et dispositif de communication de données de perception d’environnement pour véhicule

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20210312

ST Notification of lapse

Effective date: 20220505