FR3119009A1 - Procédé de commande d’un projecteur de véhicule automobile - Google Patents

Procédé de commande d’un projecteur de véhicule automobile Download PDF

Info

Publication number
FR3119009A1
FR3119009A1 FR2100594A FR2100594A FR3119009A1 FR 3119009 A1 FR3119009 A1 FR 3119009A1 FR 2100594 A FR2100594 A FR 2100594A FR 2100594 A FR2100594 A FR 2100594A FR 3119009 A1 FR3119009 A1 FR 3119009A1
Authority
FR
France
Prior art keywords
control
motor vehicle
road scene
perception
control method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
FR2100594A
Other languages
English (en)
Inventor
David Bertrand
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
PSA Automobiles SA
Original Assignee
PSA Automobiles SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by PSA Automobiles SA filed Critical PSA Automobiles SA
Priority to FR2100594A priority Critical patent/FR3119009A1/fr
Publication of FR3119009A1 publication Critical patent/FR3119009A1/fr
Withdrawn legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/02Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments
    • B60Q1/04Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights
    • B60Q1/14Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights having dimming means
    • B60Q1/1415Dimming circuits
    • B60Q1/1423Automatic dimming circuits, i.e. switching between high beam and low beam due to change of ambient light or light level in road traffic
    • B60Q1/143Automatic dimming circuits, i.e. switching between high beam and low beam due to change of ambient light or light level in road traffic combined with another condition, e.g. using vehicle recognition from camera images or activation of wipers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/141Control of illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2300/00Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
    • B60Q2300/40Indexing codes relating to other road users or special conditions
    • B60Q2300/42Indexing codes relating to other road users or special conditions oncoming vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2300/00Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
    • B60Q2300/40Indexing codes relating to other road users or special conditions
    • B60Q2300/45Special conditions, e.g. pedestrians, road signs or potential dangers

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Mechanical Engineering (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Lighting Device Outwards From Vehicle And Optical Signal (AREA)

Abstract

L’invention concerne un procédé de commande d’un projecteur (201) de véhicule automobile (3), le procédé de commande comportant une étape d’analyse d’une scène de route (SR) au cours de laquelle des objets (OBJ1-OBJ3) présents en avant du véhicule automobile (3) sont identifiés et pris en compte pour le calcul d’une loi de commande d’un projecteur (201) comportant une pluralité de sources lumineuses (2011-201n) via un réseau de neurones (RN). L’invention concerne aussi un ensemble de projection (2) et un véhicule automobile (3). Figure à publier avec l’abrégé : Fig. 2

Description

Procédé de commande d’un projecteur de véhicule automobile
Le contexte technique de la présente invention est celui de l’éclairage extérieur des véhicules automobiles, et plus précisément celui des projecteurs placés à l’avant des véhicules automobiles. En particulier, le domaine technique de la présente invention est celui des projecteurs pouvant moduler la forme, l’intensité ou l’orientation du faisceau lumineux. Plus particulièrement, l’invention a trait à un procédé de commande d’un projecteur de véhicule automobile.
Dans l’état de la technique, on connait des systèmes de commande des faisceaux lumineux qui s’appuient sur la perception d’une scène de route située à proximité et devant le véhicule automobile. Cette perception a pour finalité de détecter un certain nombre d’objets susceptibles d’être pris en compte pour contrôler le véhicule automobile ou pour la sécurité de ses occupants, tels que par exemple la route, des panneaux de signalisation et d’autres véhicules automobiles situés devant. Cette perception est généralement réalisée grâce à une caméra placée en haut d’un pare-brise du véhicule automobile. Un boitier électronique exécute une loi de commande permettant de déterminer les signaux de commande des projecteurs afin de mieux éclairer la scène de route sans risquer de créer un éblouissement des autres véhicules automobiles situés en face sur la chaussée.
Dans les systèmes de commande connus, la loi de commande permettant de générer les signaux commande des projecteurs, s’appuie notamment sur l’identification et la formation de différentes zones dans lesquelles une intensité lumineuse du faisceau lumineux projeté par les projecteurs est modulée :
– si la zone identifiée est occupée par un ou plusieurs véhicules automobiles, alors le faisceau lumineux doit être éteint dans cette zone ;
– si la zone identifiée est occupée par un ou plusieurs panneaux de signalisation, alors l’intensité lumineuse doit être diminuée afin de limiter un auto-éblouissement du conducteur du véhicule automobile ;
– si la zone identifiée est vide, alors l’intensité lumineuse peut être maximale afin de produire un éclairement suffisant de la scène de route.
Les systèmes de commande connu présentent un certain nombre de défauts qui en limitent l’efficacité. En effet, la loi de commande visant à structurer des regroupements d’objets détectés sur la scène de route conduit à des effets de bords néfastes à la qualité du faisceau lumineux projeté. En particulier, les systèmes de commande connus gèrent mal certaines situations complexes de circulation dense par exemple, conduisant parfois à des extinctions de faisceaux dans des zones qui auraient dû être éclairées, et inversement.
Afin de palier à ces erreurs d’interprétation de la scène de route, il est connu d’ajouter des fonctions de filtrage aux systèmes de commande connus. Les fonctions de filtrage sont assez basiques et peu performantes. En particulier, le comportement dynamique des systèmes de commande en ressort dégradé, conduisant à des retards dans l’interprétation de la scène de route et la prise en compte des objets identifiés. En effet, si les projecteurs de véhicules automobiles peuvent désormais être pilotés à hautes fréquences, grâce à l’utilisation massive de Diode Electroluminescentes (LED), en revanche, les caméras mises en œuvre pour détecter la scène de route ne présentent des fréquences d’activation que de quelques dizaines de Hertz.
Il existe ainsi un besoin pour améliorer les performances, notamment dynamiques des systèmes de commande connus.
La présente invention a pour objet de proposer un nouveau procédé de commande de projecteur de véhicule automobile afin de répondre au moins en grande partie aux problèmes précédents et de conduire en outre à d’autres avantages.
Un autre but de l’invention est de proposer un procédé de commande qui permet d’être plus robuste et plus fiable au regard de la diversité des situations à gérer dans le domaine automobile.
Un autre but de l’invention est de proposer un procédé de commande qui permet de palier à la faible bande passante des dispositifs de détection de la scène de route.
Un autre but de l’invention est de proposer un procédé de commande qui améliore l’éclairage perçu depuis le véhicule automobile, notamment une réduction des zones non éclairées et une réduction des situations d’éblouissement courtes et fugitives.
Un autre but de l’invention est de proposer un procédé de commande qui permet d’utiliser de sources de lumières décomposées en un très grand nombre de segments.
Selon un premier aspect de l’invention, on atteint au moins l’un des objectifs précités avec un procédé de commande d’un projecteur de véhicule automobile, le procédé étant mis en œuvre par un ensemble de projection du véhicule automobile et comportant les étapes suivantes :
- une étape de détection d’une scène de route située devant le véhicule automobile, l’étape de détection de la scène de route étant mise en œuvre par un système de détection de l’ensemble de projection ;
- une étape d’analyse de la scène de route détectée comportant une étape de découpage de la scène de route détectée en une pluralité de segments angulaires et une étape de détermination d’une présence et d’une distance d’un objet situé dans l’un des segments angulaires, l’étape d’analyse étant mise en œuvre par une unité de commande de l’ensemble de projection ;
- une étape de génération d’une loi de commande du projecteur, l’étape de génération de la loi de commande comportant la génération d’une pluralité de signaux électrique de commande, chaque signal électrique ainsi généré étant destinés à polariser une des sources lumineuses du projecteur afin d’en contrôler le faisceau lumineux généré, l’étape de génération de la loi de commande étant mise en œuvre par l’unité de commande de l’ensemble de projection.
L’étape de détection de la scène de route permet de détecter une perception de l’environnement située à proximité du véhicule automobile. En particulier, l’étape de détection permet de détecter la présence et/ou la position et/ou la distance d’une ou plusieurs sources lumineuses situées à proximité du véhicule automobile. De manière non limitative, les sources lumineuses détectées peuvent être formées par des projecteur d’autres véhicules automobiles située en avant du véhicule automobile, c’est-à-dire des véhicules automobiles destinés à croiser le véhicule automobile ou situés en avant dudit véhicule automobile et allant dans la même direction.
La scène de route est découpée en une pluralité de segments angulaires s’étendant tous en avant du véhicule automobile et depuis un premier côté latéral du véhicule automobile vers un deuxième côté latéral opposé au premier côté latéral.
L’étape d’analyse est une étape d’interprétation de la scène de route au cours de laquelle le procédé de commande conforme au premier aspect de l’invention identifie des objets présents sur la scène de route et en regard desquels le faisceau lumineux généré par le projecteur est destiné à être modulé. Cette modulation est réalisée de manière à simultanément maximiser l’éclairement de la scène de route et minimiser l’éblouissement perçu par un conducteur du véhicule automobile sur lequel le procédé de commande est mis en œuvre et/ou l’éblouissement perçu par un conducteur d’un autre véhicule automobile situé en avant dudit véhicule automobile.
L’étape de génération de la loi de commande permet de configurer le projecteur – et plus particulièrement chacun de ses sources lumineuses, de manière indépendante les unes des autres – dans l’une quelconque des configurations prises entre :
– une configuration dite éteinte dans laquelle le projecteur – et plus particulièrement l’une quelconque de ses sources lumineuses – est configuré dans un état non polarisé, de sorte que l’intensité lumineuse du faisceau lumineux éteint est minimale voire nulle ;
– une configuration dite allumée dans laquelle le projecteur – et plus particulièrement l’une quelconque de ses sources lumineuses – est configuré dans un état de polarisation maximale, de sorte que l’intensité lumineuse du faisceau lumineux éteint est maximale.
Dans le véhicule automobile équipé du procédé de commande conforme au premier aspect de l’invention, une direction longitudinale est perpendiculaire à une direction transversale du véhicule automobile. La direction longitudinale s’étend d’avant en arrière du véhicule automobile et selon une direction sensiblement parallèle à un axe X dudit véhicule automobile. La direction transversale s’étend de gauche à droite du véhicule automobile, et selon une direction sensiblement parallèle à un axe Y dudit véhicule automobile. On comprend que l’axe X du véhicule automobile est perpendiculaire à l’axe Y dudit véhicule automobile. Les axes X et Y du véhicule automobile sont préférentiellement horizontaux pour un usage normal du véhicule automobile. De manière complémentaire, une direction verticale est simultanément perpendiculaire à la direction longitudinale et à la direction transversale du véhicule automobile. La direction verticale s’étend du bas vers le haut du véhicule automobile et selon une direction sensiblement parallèle à un axe Z dudit véhicule automobile.
Le projecteur piloté par le système de commande conforme au premier aspect de l’invention est préférentiellement un projecteur de type à LED. En particulier, de manière avantageuse, le projecteur est du type d’un projecteur matriciel à LED, comportant une pluralité de LED organisées en un réseau bidimensionnel.
Le procédé de commande conforme au premier aspect de l’invention comprend avantageusement au moins un des perfectionnements ci-dessous, les caractéristiques techniques formant ces perfectionnements pouvant être prises seules ou en combinaison :
- tous les segments angulaires formés durant l’étape de découpage ont une même dimension angulaire. Cette configuration avantageuse permet de proposer un traitement homogène de la scène de route entre les deux côtés latéraux. De manière préférentielle, une dimension angulaire des segments angulaires est comprise entre 0,5° et 5°. Avantageusement, tous les segments angulaires présentent une dimension angulaire égale à 1° ; cette configuration angulaire permet d’obtenir une résolution angulaire optimale pour l’interprétation de la scène de route entre les deux côtés latéraux. A titre d’exemple non limitatif, l’étape de découpage de la scène de route produit un nombre de segments angulaire compris entre 10 et 90, préférentiellement égal à 45 ;
- relativement à une direction longitudinale médiane du véhicule automobile, les segments angulaires sont distribués de manière symétrique de part et d’autre de cette direction longitudinale. Cette configuration avantageuse permet de proposer un traitement homogène de la scène de route entre les deux côtés latéraux. La direction longitudinale médiane est située latéralement au centre du véhicule automobile. Alternativement, les segments angulaires peuvent être distribués de manière asymétrique relativement à la direction longitudinale médiane. Cette configuration permet de proposer un traitement renforcé de l’analyse de la scène de route, notamment par exemple du côté d’un bord de la route, opposé à une voie de circulation située latéralement en face de celle sur laquelle se trouve le véhicule automobile ;
- la distance d’un objet détecté est déterminée directement par le système de détection. A titre d’exemple non limitatif, dans le cas où le système de détection comporte une caméra ou un photodétecteur bidimensionnel, une analyse d’un diamètre apparent d’un signal lumineux associé à un objet détecté et/ou d’une variation temporelle de son diamètre apparent permet de déterminer la distance séparant le véhicule automobile dudit objet détecté. Alternativement, il est aussi possible de déterminer la distance d’un objet à l’aide d’un dispositif permettant de mesurer un temps de vol ou une analyse fréquentielle du signal lumineux associé à l’objet détecté ;
- la position angulaire de l’objet est déterminée en identifiant des secteurs géométriques du système de détection dans lesquels sont détectés les signaux lumineux associés à l’objet correspondant détecté sur la scène de route. En d’autres termes, chaque segment angulaire est associé à une zone géométrique du système de détection : le système de détection est découpé en une pluralité de secteurs géométriques adjacents les uns aux autres, chaque secteur géométrique étant associé à un segment angulaire ;
- l’étape d’analyse de la scène de route comporte l’établissement d’une matrice de perception formée par une pluralité de vecteurs de perception représentatif de la présence et de la distance d’un objet détecté dans l’un des segments angulaires, la matrice de perception comportant un nombre de vecteurs de perception égal au nombre de segments angulaires. Pour chaque segment angulaire, le vecteur de perception correspondant comporte un nombre réel positif égal à 1 si la distance de l’objet détecté est supérieure à une distance maximale de détection, ou si aucun objet n’est détecté dans ce segment angulaire, ou égal à la distance de l’objet détecté dans ce segment angulaire. La distance maximale de détection dépend du système de détection utilisé. Elle est typiquement supérieure à plusieurs dizaines de mètres, et inférieure à 800 m ;
– de manière préférentielle, le nombre réel formant chaque segment angulaire est normalisé par un nombre représentatif de la distance maximale de détection du système de détection ;
- l’étape d’analyse comporte une étape de détermination d’une nature de l’objet détecté, le vecteur de perception associé à chaque segment angulaire étant complété par concaténation à l’aide d’un nombre entier représentatif de la nature de l’objet détecté dans le segment angulaire correspondant. Le nombre entier représentatif de la nature de l’objet détecté est égal à 0 s’il n’y a pas d’objet détecté, 1 s’il s’agit d’un véhicule automobile, 2 s’il s’agit d’un panneau de signalisation. La nature de l’objet est déterminée par une analyse morphologique des signaux lumineux détectés par le système de détection, et notamment leur forme et/ou leur intensité lumineuse ;
– selon une première variante de réalisation, le système de détection est configuré pour détecter un objet selon une seule dimension latérale au véhicule automobile, les vecteurs de perception associés à chaque segment étant du type d’un vecteur à une dimension, la matrice de perception par concaténation de tous les vecteurs de perception étant du type d’une matrice à 2 dimensions ;
– selon une deuxième variante de réalisation, le système de détection est configuré pour détecter un objet selon une première dimension latérale au véhicule automobile et selon une deuxième direction verticale au véhicule automobile, les vecteurs de perception associés à chaque segment étant du type d’un vecteur à deux dimensions, la matrice de perception par concaténation de tous les vecteurs de perception étant du type d’une matrice à 3 dimensions. Cette configuration permet un traitement plus complet de la scène de route :
- l’étape de détection et l’étape d’analyse sont effectuées ensembles, l’une à la suite de l’autre, de manière itérative et de manière récursive durant un nombre de répétition donné et selon une fréquence de détection donnée, l’étape de génération de la loi de commande étant réalisée à l’issue des répétitions, selon une fréquence de commande inférieure à la fréquence de détection. Les vecteurs de perception calculés à chaque itération sont concaténés à la matrice de perception précédemment calculée. La fréquence de détection est comprise entre 10 Hz et 60 Hz. Préférentiellement entre 15 Hz et 30 Hz ;
- l’étape de génération de la loi de commande comporte l’établissement d’une matrice de commande formée par une pluralité de vecteurs de commande, chaque vecteur de commande permettant de piloter sélectivement l’une des sources lumineuses du projecteur. Chaque vecteur de commande comporte notamment un nombre réel positif compris entre 0 et 1 et dont une valeur correspond à une valeur modulée de l’intensité lumineuse de la source lumineuse associée au vecteur de commande, le nombre réel étant compris entre 0 si l’intensité lumineuse de la source lumineuse associée est nulle et 1 si l’intensité lumineuse de la source lumineuse associée est maximale. De manière complémentaire, le vecteur de commande peut aussi comporter aussi un nombre représentatif d’une orientation angulaire de la source lumineuse associée au vecteur de commande ;
- préférentiellement, la matrice de commande comporte un nombre de vecteur de commande égal au nombre de vecteurs de perception de la matrice de perception. Eventuellement, la matrice de commande comporte un nombre de vecteur de commande différent – supérieur ou inférieur – au nombre de vecteurs de perception de la matrice de perception ;
- l’étape d’analyse de la scène de route et l’étape de génération de la loi de commande sont mises en œuvre par un réseau de neurones, le réseau de neurones formant l’unité de commande ;
- l’étape d’analyse de la scène de route mise en œuvre par le réseau de neurones comporte une étape de convolution des vecteurs de perception par un ensemble de noyaux de convolution. En particulier, l’étape de convolution réalise la convolution de plusieurs vecteurs de perceptions adjacents par des noyaux de convolution prédéfinis dans le réseau de neurones, un même noyau de convolution étant utilisé pour réaliser l’étape de convolution des vecteurs de perception appartenant à une même dimension de la matrice de perception ;
- l’étape d’analyse de la scène de route mise en œuvre par le réseau de neurones comporte une étape d’activation au cours de laquelle une fonction sigmoïde ou une tangente hyperbolique est appliquée à une matrice convoluée issue de l’étape de convolution ;
- l’étape d’analyse de la scène de route mise en œuvre par le réseau de neurones comporte une étape d’adaptation de la dimension de la matrice de perception afin de la rendre de même dimension que la matrice de commande. L’étape d’adaptation de dimension précède l’étape de convolution ou la succède ; et l’étape d’adaptation de dimension précède ou succède l’étape d’activation.
Selon un deuxième aspect de l’invention, il est proposé un ensemble de projection pour véhicule automobile, l’ensemble de projection comportant (i) un projecteur comportant une pluralité de sources lumineuses, (ii) un système de détection d’une scène de route, (iii) une unité de commande configurée pour mettre en œuvre le procédé de commande conforme au premier aspect de l’invention ou selon l’un quelconque de ses perfectionnements afin d’analyser la scène de route détectée et de piloter sélectivement chaque source lumineuse du projecteur.
L’unité de commande comporte des moyens de calcul et des moyens de mémorisation. En particulier, l’unité de commande comporte avantageusement au moins un réseau de neurones configuré pour mettre en œuvre le procédé de commande conforme au premier aspect de l’invention ou selon l’un quelconque de ses perfectionnements. A titre d’exemple, l’unité de commande est du type d’un ordinateur ou d’un microcontrôleur.
De manière préférentielle, le réseau de neurones est du type d’un réseau à au moins trois couches et comportant des noyaux de longueur égale à 5. A titre d’exemples non limitatifs, le réseau de neurones comporte 1x5 noyaux sur la première couche, 5x3 noyaux sur la seconde couche et 3x1 noyaux sur la troisième couche.
De manière alternative, le réseau de neurones est du type d’un réseau à au moins quatre couches et comportant des noyaux de longueur égale à 5. A titre d’exemples non limitatifs, le réseau de neurones comporte 3x5 noyaux sur la première couche, 5x5 noyaux sur la seconde couche et 5x3 noyaux sur la troisième couche et 3x1 noyaux sur la quatrième couche. Cette configuration de réseau de neurone permet un fonctionnement optimal du procédé de commande conforme au premier aspect de l’invention, en améliorant ses capacités de prédiction et d’analyse de la scène de route.
De manière avantageuse, le réseau de neurones est du type d’une structure utilisant une ou plusieurs couches récurrentes du type d’un réseau de neurones récurrents à portes (GRU, acronyme anglais pour Gate Reccurent Unit) ou d’un réseau de neurones récurrents à mémoire court-terme et long terme (LSTM – acronyme anglais pour Long Short Term Memory). Un tel réseau de neurones de type récurent comporte avantageusement plusieurs couches de convolution telles que décrites précédemment.
Le système de détection de la scène de route est du type d’au moins un photodétecteur configuré pour détecter un signal lumineux incident. Selon un premier mode de réalisation, le système de détection est du type d’un photodétecteur bidimensionnel. Selon un deuxième mode de réalisation, le système de détection est du type d’une caméra bidimensionnelle
Comme évoqué précédemment, le projecteur est préférentiellement du type à LED, et plus particulièrement du type d’un projecteur matriciel à LED, formé d’une pluralité de LED organisées en un réseau bidimensionnel.
De manière préférentielle, le projecteur est un projecteur avant du véhicule automobile.
Selon un troisième aspect de l’invention, il est proposé un véhicule automobile comportant un ensemble de projection conforme au deuxième aspect de l’invention.
Des modes de réalisation variés de l’invention sont prévus, intégrant selon l’ensemble de leurs combinaisons possibles les différentes caractéristiques optionnelles exposées ici.
D’autres caractéristiques et avantages de l’invention apparaîtront encore au travers de la description qui suit d’une part, et de plusieurs exemples de réalisation donnés à titre indicatif et non limitatif en référence aux dessins schématiques annexés d’autre part, sur lesquels :
illustre une vue schématique du procédé de commande conforme au premier aspect de l’invention ;
illustre une vue schématique d’un ensemble de projection pour véhicule automobile conforme au deuxième aspect de l’invention ;
illustre une vue schématique d’un véhicule automobile conforme au troisième aspect de l’invention.
Bien entendu, les caractéristiques, les variantes et les différentes formes de réalisation de l'invention peuvent être associées les unes avec les autres, selon diverses combinaisons, dans la mesure où elles ne sont pas incompatibles ou exclusives les unes des autres. On pourra notamment imaginer des variantes de l’invention ne comprenant qu’une sélection de caractéristiques décrites par la suite de manière isolées des autres caractéristiques décrites, si cette sélection de caractéristiques est suffisante pour conférer un avantage technique ou pour différencier l’invention par rapport à l’état de la technique antérieur.
En particulier toutes les variantes et tous les modes de réalisation décrits sont combinables entre eux si rien ne s’oppose à cette combinaison sur le plan technique.
Sur les figures, les éléments communs à plusieurs figures conservent la même référence.
En référence à la , un exemple de réalisation d’un procédé de commande 1 conforme au premier aspect de l’invention est décrit. Le procédé de commande 1 permet de piloter un projecteur 201 d’un ensemble de projection 2 mettant en œuvre le procédé de commande 1.
Sur la , les étapes optionnelles du procédé de commande 1 conforme au premier aspect de l’invention y sont représentées en traits pointillés. L’ensemble de projection 2 est décrit en référence aux FIGURES 2 et 3.
Selon l’invention, le procédé de commande 1 comporte :
- une étape de détection 11 d’une scène de route SR située devant le véhicule automobile 1 ;
- une étape d’analyse 12 de la scène de route SR comportant une étape de découpage 121 de la scène de route SR en une pluralité de segments angulaires SP1, SP2, SP(n-1), SP(n-2), SPn – dits segments de perception, et une étape de détermination 122 d’une présence et d’une distance d’un objet OBJ1, OBJ2, OBJ3 situé dans l’un des segments angulaires SP1-SPn ;
- une étape de génération 13 d’une loi de commande du projecteur 201, l’étape de génération 13 de la loi de commande comportant la génération d’une pluralité de signaux électrique de commande IC, chaque signal électrique IC ainsi généré étant destinés à polariser une des sources lumineuses 2011, 2012, 201n du projecteur 201 afin d’en contrôler le faisceau lumineux FP généré.
L’étape de détection 11 du procédé de commande 1 est mise en œuvre par un système de détection 202 de l’ensemble de projection 2 visible sur les FIGURES 2 et 3. L’étape d’analyse 12 et l’étape de génération 13 de la loi de commande du procédé de commande 1 sont mises en œuvre par une unité de commande 203 de l’ensemble de projection 2.
L’étape de détection 11 de la scène de route SR permet d’identifier l’environnement située à proximité du véhicule automobile 3, et notamment la présence et/ou la position et/ou la distance d’objets OBJ1-OBJ3 de nature variée et situés en avant dudit véhicule automobile 3, telle que par exemple un véhicule automobile ou un panneau de signalisation.
A cet effet, et tel que visible sur les FIGURES 2 et 3, la scène de route SR est découpée en une pluralité de segments angulaires SP1-SPn s’étendant tous en avant du véhicule automobile 3 et entre deux bords latéraux du véhicule automobile 3. L’ensemble des segments angulaires SP1-SPn détectés par le système de détection 201 forme un faisceau de détection FD. Dans l’exemple illustré sur la , la scène de route SR comporte 3 objets OBJ1-OBJ3 différents. Le premier objet OBJ1 est situé dans le deuxième segment angulaire SP2, le deuxième objet OBJ2 est situé dans l’antépénultième segment angulaire SP(n-2), et le troisième objet OBJ3 est situé simultanément dans l’avant dernier SP(n-1) et le dernier segment angulaire SPn. Chacun de ces objets OBJ1-OBJ3 sont respectivement détectés par des secteurs géométriques 2021, 2022, 202n du système de détection 202.
L’étape d’analyse 12 succède à l’étape de détection 11. L’étape d’analyse 12 permet d’interpréter la scène de route SR en identifiant les objets OBJ1-OBJ3 présents afin de pouvoir ensuite moduler le faisceau lumineux FP projeté par le projecteur 201 du véhicule automobile 3.
Au cours de l’étape d’analyse 12, le procédé de commande 1 vise à simultanément maximiser l’éclairement de la scène de route SR et minimiser un éblouissement perçu par un conducteur du véhicule automobile 3 mettant en œuvre le procédé de commande 1 et/ou l’éblouissement perçu par un conducteur situé en avant dudit véhicule automobile 3.
L’étape d’analyse 12 comporte une étape d’établissement 124 d’une matrice de perception MP formée par une pluralité de vecteurs de perception VP. Chaque vecteur de perception VP est représentatif de la présence et de la distance – et éventuellement de la nature d’un objet OBJ1-OBJ3 détecté dans l’un des segments angulaire SP1-SPn. Plus particulièrement, chaque vecteur de perception VP est représentatif du signal détecté par le secteur géométrique 2021-202n correspondant du système de détection 202. Ainsi, dans l’exemple illustré sur la , les second, antépénultième, avant-dernier et dernier vecteurs de perception VP comporte des valeurs représentatives des signaux détectés dans les secteurs géométriques 2021-202n correspondants et tels que interprétés par le procédé de commande 1.
L’interprétation des objets OBJ1-OBJ3 détectés sur la scène de route SR est réalisée au cours d’une étape d’interprétation 123 précédent l’étape d’établissement 124 de la matrice de perception MP.
L’étape d’interprétation 123 prend la forme d’une analyse des données détectées par le système de détection 202, telle que par exemple une analyse d’image dans le cas où le système de détection 202 est du type d’une caméra, et/ou d’une analyse fréquentielle. Au cours de cette étape d’interprétation 123, le vecteur de perception VP associé à chaque segment angulaire SP1-SPn comporte :
- un nombre réel positif égal à 1 si aucun objet n’est détecté ou si la distance de l’objet OBJ1-OBJ3 détecté dans le segment angulaire SP1-SPn correspondant est supérieure à une distance maximale de détection, ou égal à la distance de l’objet OBJ1-OBJ3 détecté dans ce segment angulaire SP1-SPn ; et éventuellement
- un nombre entier représentatif de la nature de l’objet OBJ1-OBJ3 détecté dans le segment angulaire SP1-SPn correspondant. Ce nombre entier est égal à 0 si aucun objet OBJ1-OBJ3 n’est détecté, égal à 1 s’il s’agit d’un véhicule automobile, et égal à 2 s’il s’agit d’un panneau de signalisation.
Comme évoqué précédemment, l’étape de détection 11 et l’étape d’analyse 12 du procédé de commande 1 sont réalisées l’une à la suite de l’autre. De manière préférentielle, elles sont aussi réalisées de manière itérative et récursive durant un nombre de répétition donné, l’étape de génération 13 de la loi de commande étant réalisée à l’issue des répétitions des étapes de détection 11 et d’analyse 12. A chaque itération, les vecteurs de perception VP déterminés sont concaténés à la matrice de perception calculée lors de l’itération précédente.
Durant ces itérations récursives, les étapes de détection 11 et d’analyse 12 sont réalisées selon une fréquence de détection donnée ; et l’étape de génération 13 de la loi de commande réalisée à l’issue de ces itérations récursives est assurée selon une fréquence de commande inférieure à la fréquence de détection.
Dans le contexte de l’invention, l’étape d’analyse 12 du procédé de commande 1 est avantageusement mise en œuvre par un réseau de neurones RN, le réseau de neurones RN formant l’unité de commande 203.
Afin de déterminer la loi de commande qui permettra de piloter les sources lumineuses 2011-201n du projecteur 201, l’étape d’analyse met en œuvre un algorithme non linéaire via le réseau de neurones RN. Ce dernier a pour objet de trouver un optimum permettant de réduire un éblouissement et de maximiser l’éclairement de la scène de route SR en fonction des objets détectés OBJ1-OBJ3. La mise en œuvre de cet algorithme – et l’obtention de cette optimisation – prend la forme d’une étape de calcul matriciel 125 à partir des vecteurs de perception VP formant la matrice de perception MP.
L’étape de calcul matriciel 125 peut être récursive. Elle est particulièrement adaptée à une mise en œuvre par le réseau de neurones RN.
L’étape de calcul matriciel 125 comporte avantageusement :
- une étape de convolution 1251 des vecteurs de perception VP par un ensemble de noyaux de convolution. En particulier, l’étape de convolution 1251 réalise la convolution de plusieurs vecteurs de perceptions VP adjacents par des noyaux de convolution prédéfinis dans le réseau de neurones RN, un même noyau de convolution étant utilisé pour réaliser l’étape de convolution 1251 des vecteurs de perception VP appartenant à une même dimension de la matrice de perception MP ;
- une étape d’activation 1252 au cours de laquelle une fonction sigmoïde ou une tangente hyperbolique est appliquée à une matrice convoluée issue de l’étape de convolution 1251 précédente ;
- une étape d’adaptation 1253 de la dimension de la matrice de perception MP obtenue à l’issue de l’étape d’activation 1252 afin de la rendre de même dimension qu’une matrice de commande MC qui servira à piloter le projecteur 201.
A l’issue de l’étape d’analyse, 12, il est alors possible de générer une pluralité de signaux électriques de commande IC pour piloter les sources lumineuses 2011-201n du projecteur 201, en fonction des objets OBJ1-OBJ3 détectés sur la scène de route SR et selon l’optimisation évoquée précédemment.
A cet effet, il est judicieux que l’étape de génération 13 de la loi de commande comporte une étape d’établissement 131 d’une matrice de commande MC formée par une pluralité de vecteurs de commande VC associés à l’une des sources lumineuses 2011-201n du projecteur 201. Ainsi, chaque vecteur de commande VC permet de piloter sélectivement l’une des sources lumineuse 2011-201n du projecteur 201. Le vecteur de commande VC associé à chaque source lumineuse 2011-201n comporte :
- un nombre réel positif représentatif de l’intensité lumineuse de la source lumineuse 2011-201n associée ; et éventuellement
- un nombre représentatif d’une orientation angulaire de la source lumineuse associée 2011-201n.
Chaque vecteur de commande permet ainsi de piloter précisément la source lumineuse 2011-201n associée en fonction de la scène de route SR détectée. La matrice de commande MC est ainsi mise à jour régulièrement en fonction des données perçues par le système de détection 201 et en fonction de l’analyse réalisée par le procédé de commande 1 dans une direction de recherche de l’optimum évoqué précédemment. Ainsi, dans l’exemple illustré sur la , les second, antépénultième, avant-dernier et dernier vecteurs de perception VP comporte des valeurs permettant d’atténuer ou d’éteindre les sources lumineuses 2011-201n correspondantes afin d’adapter une intensité du faisceau lumineux FP projeté dans des secteurs angulaires SE1, SE2, SE(n-2), SE(n-1), SEn éclairés par les sources lumineuses 2011-201n correspondantes, en fonction des objets OBJ1-OBJ3 présents sur la scène de route SR.
Dans le contexte de l’invention, l’étape de génération 13 de la loi de commande du procédé de commande 1 est mise en œuvre par le réseau de neurones RN.
De manière avantageuse, le réseau de neurones RN mettant en œuvre tout ou partie du procédé de commande 1 conforme au premier aspect de l’invention est du type d’un réseau de neurones récurrents à portes ou d’un réseau de neurones récurrents à mémoire court-terme et long terme.
La recherche de l’optimum évoqué précédemment et permettant d’orienter le procédé de commande 1 vers une direction d’analyse satisfaisante est permise en configurant le réseau de neurones RN afin d’en définir des coefficients. L’invention propose de définir ces coefficients par le biais de méthodes d’apprentissage appliquées audit réseau de neurones RN. De manière avantageuse, ces méthodes d’apprentissage sont réalisées par des simulations permettant d’obtenir rapidement un vaste panel de situations réalistes. De manière alternative ou complémentaire, il est aussi possible de paramétrer le réseau de neurones RN par des mesures en situations réelles.
à cet effet, l’optimisation des paramètres du réseau de neurones RN est accessible en utilisant n’importe quelle technique d’optimisation ou d’apprentissage. Il demeure cependant de définir au moins une grandeur que le réseau de neurones cherche à optimiser ou maximiser ou minimiser afin de donner une direction de convergence audit réseau de neurones RN.
Dans le cadre de la présente invention, les grandeurs suivantes sont considérées pour définir la performance du réseau de neurones RN :
- un premier terme P1 décrivant une quantité de lumière émise par le projecteur 201. En première approximation, une telle quantité de lumière émise peut être obtenue en considérant la somme des signaux électriques de commandes pour toutes les sources lumineuses 2011-201n du projecteur 201. Alternativement, il est bien entendu possible de réaliser des mesures de flux lumineux du faisceau lumineux FP projeté par le projecteur 201. Dans le cadre de l’optimisation dont il est ici question, cette quantité doit être maximisée par le réseau de neurones RN ;
- un deuxième terme P2 décrivant une quantité d’éblouissement résultant du faisceau lumineux FP généré par le projecteur 201. L’éblouissement est ici entendu comme la quantité de lumière perçue dans des secteurs angulaires SE1-SEn dans lesquels la présence d’un objet nécessiterait au contraire que la source lumineuse 2011-201n correspondante à l’origine de son éclairement soit atténuée voire éteinte. Alternativement, il est bien entendu possible de réaliser des mesures de flux lumineux du faisceau lumineux FP projeté par le projecteur 201. Dans le cadre de l’optimisation dont il est ici question, cette quantité doit être minimisée par le réseau de neurones RN ;
- un troisième terme P3 visant à contraindre les magnitudes des coefficients du réseau de neurones RN, à l’aide par exemple d’une démarche de type Weight Decay qui utilise par exemple la somme des valeurs absolues des coefficients de tout le réseau de neurones RN. Ce terme est optionnel et permet d’obtenir un modèle plus robuste, plus stable et plus facilement généralisable du réseau de neurones RN.
Finalement, l’optimisation vise ici à maximiser la grandeur d’optimisation OPT suivante :
OPT = P1 – A x P2 – B x P3
Où A et B sont des coefficients réels et positifs.
Durant la période d’apprentissage du réseau de neurones RN, il est possible d’appliquer la grandeur d’optimisation à un unique objet OBJ1-OBJ3 ou à tous les objets OBJ1-OBJ3 présents devant le véhicule automobile 3 du trafic. Cette approche présente l’intérêt d’utiliser toutes les situations perçues par tous les objets et permet un apprentissage plus rapide.
En synthèse, l’invention concerne un procédé de commande 1 d’un projecteur 201 de véhicule automobile 3, le procédé de commande 1 comportant une étape d’analyse d’une scène de route SR au cours de laquelle des objets OBJ1-OBJ3 présent en avant du véhicule automobile 3 sont identifiés et pris en compte pour le calcul d’une loi de commande d’un projecteur 201 comportant une pluralité de sources lumineuses 2011-201n via un réseau de neurones RN.
Bien sûr, l’invention n’est pas limitée aux exemples qui viennent d’être décrits et de nombreux aménagements peuvent être apportés à ces exemples sans sortir du cadre de l’invention. Notamment, les différentes caractéristiques, formes, variantes et modes de réalisation de l’invention peuvent être associées les unes avec les autres selon diverses combinaisons dans la mesure où elles ne sont pas incompatibles ou exclusives les unes des autres. En particulier toutes les variantes et modes de réalisation décrits précédemment sont combinables entre eux.

Claims (10)

  1. Procédé de commande (1) d’un projecteur (201) de véhicule automobile, le procédé étant mis en œuvre par un ensemble de projection (2) du véhicule automobile (3) et comportant les étapes suivantes :
    - une étape de détection (11) d’une scène de route (SR) située devant le véhicule automobile (3), l’étape de détection (11) de la scène de route (SR) étant mise en œuvre par un système de détection (202) de l’ensemble de projection (2) ;
    - une étape d’analyse (12) de la scène de route (SR) détectée comportant une étape de découpage (121) de la scène de route (SR) détectée en une pluralité de segments angulaires (SP1, SP2, SP(n-2), SP(n-1), SPn) et une étape de détermination (122) d’une présence et d’une distance d’un objet (OBJ1, OBJ2, OBJ3) situé dans l’un des segments angulaires (SP1, SP2, SP(n-2), SP(n-1), SPn), l’étape d’analyse (12) étant mise en œuvre par une unité de commande (203) de l’ensemble de projection (2) ;
    - une étape de génération (13) d’une loi de commande du projecteur (201), l’étape de génération (13) de la loi de commande comportant la génération d’une pluralité de signaux électriques de commande (IC), chaque signal électriques de commande (IC) ainsi généré étant destinés à polariser une des sources lumineuses (2011, 2012, 201n) du projecteur (201) afin d’en contrôler son intensité lumineuse, l’étape de génération (13) de la loi de commande étant mise en œuvre par l’unité de commande (203) de l’ensemble de projection (2).
  2. Procédé de commande (1) selon la revendication précédente, dans lequel l’étape d’analyse (12) de la scène de route (SR) comporte l’établissement d’une matrice de perception (MP) formée par une pluralité de vecteurs de perception (VP) représentatif de la présence et de la distance d’un objet (OBJ1, OBJ2, OBJ3) détecté dans l’un des segments angulaires (SP1, SP2, SP(n-2), SP(n-1), SPn), la matrice de perception (MP) comportant un nombre de vecteurs de perception (VP) égal au nombre de segments angulaires (SP1, SP2, SP(n-2), SP(n-1), SPn).
  3. Procédé de commande (1) selon la revendication précédente, dans lequel l’étape d’analyse (12) comporte une étape de détermination d’une nature de l’objet (OBJ1, OBJ2, OBJ3) détecté, le vecteur de perception (VP) associé à chaque segment angulaire (SP1-SPn) étant complété par concaténation à l’aide d’un nombre entier représentatif de la nature de l’objet (OBJ1, OBJ2, OBJ3) détecté dans le segment angulaire (SP1-SPn) correspondant.
  4. Procédé de commande (1) selon l’une quelconque des revendications 2 ou 3, dans lequel l’étape de détection (11) et l’étape d’analyse (12) sont effectuées ensembles, l’une à la suite de l’autre, de manière itérative et de manière récursive durant un nombre de répétition donné et selon une fréquence de détection donnée, l’étape de génération (13) de la loi de commande étant réalisée à l’issue des répétitions, selon une fréquence de commande inférieure à la fréquence de détection.
  5. Procédé de commande (1) selon la revendication précédente, dans lequel l’étape de génération (13) de la loi de commande comporte l’établissement d’une matrice de commande (MC) formée par une pluralité de vecteurs de commande (VC), chaque vecteur de commande (VC) permettant de piloter sélectivement l’une des sources lumineuse (2011-201n) du projecteur (201).
  6. Procédé de commande (1) selon l’une quelconque des revendications précédentes, dans lequel l’étape d’analyse (12) de la scène de route (SR) et l’étape de génération (13) de la loi de commande sont mises en œuvre par un réseau de neurones (RN), le réseau de neurones (RN) formant l’unité de commande (203).
  7. Procédé de commande (1) selon la revendication précédente, dans lequel l’étape d’analyse (12) de la scène de route (SR) mise en œuvre par le réseau de neurones (RN) comporte une étape de convolution des vecteurs de perception (VP) par un ensemble de noyaux de convolution (1251).
  8. Procédé de commande (1) selon la revendication précédente, dans lequel l’étape d’analyse (12) de la scène de route (SR) mise en œuvre par le réseau de neurones (RN) comporte une étape d’activation (125) au cours de laquelle une fonction sigmoïde ou une tangente hyperbolique est appliquée à une matrice convoluée issue de l’étape de convolution (1251).
  9. Ensemble de projection (2) pour véhicule automobile (3), l’ensemble de projection (2) comportant :
    - un projecteur (201) comportant une pluralité de sources lumineuses (2011, 2012, 201n) ;
    - un système de détection (202) d’une scène de route (SR) ;
    - une unité de commande (203) configurée pour mettre en œuvre le procédé de commande (1) selon l’une quelconque des revendications précédentes afin d’analyser la scène de route (SR) détectée et de piloter sélectivement chaque source lumineuse (2011-201n) du projecteur (201).
  10. Véhicule automobile (3) comportant un ensemble de projection (2) selon la revendication précédente.
FR2100594A 2021-01-21 2021-01-21 Procédé de commande d’un projecteur de véhicule automobile Withdrawn FR3119009A1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR2100594A FR3119009A1 (fr) 2021-01-21 2021-01-21 Procédé de commande d’un projecteur de véhicule automobile

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR2100594A FR3119009A1 (fr) 2021-01-21 2021-01-21 Procédé de commande d’un projecteur de véhicule automobile
FR2100594 2021-01-21

Publications (1)

Publication Number Publication Date
FR3119009A1 true FR3119009A1 (fr) 2022-07-22

Family

ID=74759140

Family Applications (1)

Application Number Title Priority Date Filing Date
FR2100594A Withdrawn FR3119009A1 (fr) 2021-01-21 2021-01-21 Procédé de commande d’un projecteur de véhicule automobile

Country Status (1)

Country Link
FR (1) FR3119009A1 (fr)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1780462A1 (fr) * 2005-10-25 2007-05-02 Valeo Vision Procédé d'éclairage modulé d'une route et projecteur de véhicule mettant en oeuvre ce procédé
EP2700536A2 (fr) * 2012-08-23 2014-02-26 Volkswagen Aktiengesellschaft Procédé de contrôle d'un système de phare et système de phare pour un véhicule
EP3100908A1 (fr) * 2014-01-31 2016-12-07 Denso Corporation Dispositif de commande de phare et phare
CN109823258A (zh) * 2019-03-04 2019-05-31 同济大学 一种矩阵式led远光灯智能辅助控制***及其控制方法
EP3708427A1 (fr) * 2019-03-12 2020-09-16 Veoneer Sweden AB Système de commande de phare pour véhicule à moteur et procédé d'entraînement d'un modèle d'apprentissage machine pour un système de commande de phare
US20200353858A1 (en) * 2019-05-09 2020-11-12 Toyota Jidosha Kabushiki Kaisha Vehicle head light control apparatus

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1780462A1 (fr) * 2005-10-25 2007-05-02 Valeo Vision Procédé d'éclairage modulé d'une route et projecteur de véhicule mettant en oeuvre ce procédé
EP2700536A2 (fr) * 2012-08-23 2014-02-26 Volkswagen Aktiengesellschaft Procédé de contrôle d'un système de phare et système de phare pour un véhicule
EP3100908A1 (fr) * 2014-01-31 2016-12-07 Denso Corporation Dispositif de commande de phare et phare
CN109823258A (zh) * 2019-03-04 2019-05-31 同济大学 一种矩阵式led远光灯智能辅助控制***及其控制方法
EP3708427A1 (fr) * 2019-03-12 2020-09-16 Veoneer Sweden AB Système de commande de phare pour véhicule à moteur et procédé d'entraînement d'un modèle d'apprentissage machine pour un système de commande de phare
US20200353858A1 (en) * 2019-05-09 2020-11-12 Toyota Jidosha Kabushiki Kaisha Vehicle head light control apparatus

Similar Documents

Publication Publication Date Title
EP0469948B1 (fr) Dispositif pour évaluer le degré d'usure des pneumatiques de véhicules
EP2056093B1 (fr) Procédé de détection d'un phénomène perturbateur de visibilité pour un véhicule
EP2690352A1 (fr) Système d'éclairage adaptatif pour véhicule automobile
FR3083942A1 (fr) Systeme de communication optique sans fil pour vehicule
FR2923933A1 (fr) Procede de detection d'un phenomene perturbateur de visibilite pour un vehicule
EP1868161A1 (fr) Procédé de détermination d'une distance de visibilité pour un conducteur de véhicule
FR2718871A1 (fr) Procédé pour la reconnaissance automatique d'un panneau de signalisation routière, et dispositif pour la mise en Óoeuvre de ce procédé.
WO2010076407A1 (fr) Systeme de securite perimetrique par l'analyse active des images reflechies par un jeu de miroirs sur une camera video
FR2609566A1 (fr) Procede de determination de la trajectoire d'un corps apte a se deplacer sur une voie et dispositif de mise en oeuvre du procede
FR2965354A1 (fr) Procede et dispositif de detection de brouillard, la nuit
FR3119009A1 (fr) Procédé de commande d’un projecteur de véhicule automobile
EP3059121B1 (fr) Génération et traitement déporté de photométrie
EP3860877B1 (fr) Procede de commande d'un dispositif d'eclairage pour l'emission d'un faisceau d'eclairage de la route non eblouissant
WO2021123459A1 (fr) Système de projection de faisceaux lumineux
EP3432031B1 (fr) Détection d'objets pour un véhicule automobile
EP3343531B1 (fr) Système de communication d'informations à un usager à proximité d'un véhicule automobile
FR3127454A1 (fr) Procédé de commande d’un projecteur de véhicule automobile
EP2038638B1 (fr) Dispositif d'évaluation de l'état de mouillage d'une surface, procédé d'évaluation et dispositif d'indication associé
FR3076618A1 (fr) Procede et systeme d'inspection optique d'un substrat
FR2998036A1 (fr) Module d'eclairage pour projecteur de vehicule automobile comprenant plusieurs sources lumineuses
WO2021074257A1 (fr) Système optique
FR2523341A1 (fr) Dispositif d'analyse de trafic de vehicules sur une chaussee
EP3342640A1 (fr) Système d avertissement lumineux pour véhicule automobile et procédé d avertissement lumineux
WO2021250258A1 (fr) Procédé de mise en œuvre d'un dispositif lidar avec descripteurs
FR2842637A1 (fr) Procede pour detecter un incident ou analogue sur une portion de voie

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20220722

ST Notification of lapse

Effective date: 20230905