FR3122756A1 - Procédé et dispositif de détection d’un comportement d’un usager d’un véhicule. - Google Patents

Procédé et dispositif de détection d’un comportement d’un usager d’un véhicule. Download PDF

Info

Publication number
FR3122756A1
FR3122756A1 FR2104672A FR2104672A FR3122756A1 FR 3122756 A1 FR3122756 A1 FR 3122756A1 FR 2104672 A FR2104672 A FR 2104672A FR 2104672 A FR2104672 A FR 2104672A FR 3122756 A1 FR3122756 A1 FR 3122756A1
Authority
FR
France
Prior art keywords
vehicle
air quality
user
neural network
behavior
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
FR2104672A
Other languages
English (en)
Inventor
Lucie Chabert
Theo Pierre
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
PSA Automobiles SA
Original Assignee
PSA Automobiles SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by PSA Automobiles SA filed Critical PSA Automobiles SA
Priority to FR2104672A priority Critical patent/FR3122756A1/fr
Publication of FR3122756A1 publication Critical patent/FR3122756A1/fr
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24137Distances to cluster centroïds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • G06F18/256Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Human Computer Interaction (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Image Analysis (AREA)

Abstract

La présente invention concerne un procédé et dispositif de détection d’un comportement d’un usager d’un véhicule. Une première information, représentative de probabilités d’appartenance de données d’image représentatives d’un visage d’un usager du véhicule, est déterminée (33) par analyse desdites données d’image par un premier réseau neuronal. Une deuxième information, représentative de probabilités d’appartenance de données de qualité d’air de l’habitacle du véhicule à des classes de qualité d’air, est déterminée (35) par analyse de données de qualité d’air de l’habitacle du véhicule, obtenues à partir de capteurs embarqués du véhicule, par un deuxième réseau neuronal. Une information, représentative d’un comportement de l’usager du véhicule, est déterminée (36) à partir de la première et de la deuxième informations. Figure pour l’abrégé : Figure 6

Description

Procédé et dispositif de détection d’un comportement d’un usager d’un véhicule.
La présente invention concerne un procédé et un dispositif de détection d’un comportement d’un usager d’un véhicule.
Arrière-plan technologique
La plupart des véhicules, notamment autonomes, embarquent des systèmes de traitement de l’air qui sont destinés à améliorer la qualité de l’air à l’intérieur des habitables de ces véhicules. Ces systèmes peuvent être, par exemple, des systèmes de recyclage d’air, des systèmes de chauffage, de ventilation et d’air conditionné (HVAC de l’anglais Heating, Ventilation and Air Conditionning), des ioniseurs ou encore des filtres d’air d’habitacle comprenant des filtres à charbon. Des véhicules embarquent également des capteurs qui permettent d’évaluer la qualité de l’air de l’habitacle d’un véhicule tels que par exemple des capteurs de Composés Organiques Volatiles (COV). Ces capteurs peuvent contrôler des systèmes de renouvellement et/ou de traitement d’air pour assurer aux usagers d’un véhicule un air de bonne qualité durant l’ensemble de leur trajet.
La qualité de l’air de l’habitacle d’un véhicule est importante pour la santé des usagers de véhicule. Mais il est aussi intéressant de savoir quels ont été les comportements de ces usagers tout au long du cycle de vie du véhicule. En effet, comme il est difficile de désodoriser un véhicule dans lequel un usage a fumé, par exemple, il est important de savoir pour un acheteur potentiel si un véhicule d’occasion en vente a (ou non) été utilisé par un usager fumeur (ou non). Cette information permet de valoriser les véhicules non-fumeurs et une surcote pourrait être appliquée. Cette information peut aussi être utilisée pour orienter un propriétaire fumeur d’un véhicule vers des solutions de désodorisation, de décontamination de l’habitacle de son véhicule.
Il est donc intéressant de prévoir un système qui permette de savoir si un usager (conducteur ou passager) d’un véhicule fume ou non lorsqu’il se trouve à bord d’un véhicule.
Résumé de la présente invention
Un objet de la présente invention est de détecter le comportement d’un usager d’un véhicule.
Un objet de la présente invention est de détecter si un usager d’un véhicule fume pendant son séjour à bord d’un véhicule.
Selon un premier aspect, la présente invention concerne un procédé de détection d’un comportement d’un usager d’un véhicule, mis en œuvre par un dispositif distant du véhicule, ledit procédé comprenant les étapes suivantes : obtention de données d’image représentatives d’une image acquise par une caméra embarquée dans le véhicule ; obtention d’une région d’intérêt qui délimite un visage d’un usager dans ladite image acquise; détermination d’une première information représentative de probabilités d’appartenance desdites données d’image délimitées par la région d’intérêt à des classes d’attitude de visage, par analyse desdites données d’image, délimitées par la région d’intérêt, par un premier réseau neuronal entrainé pour associer des probabilités d’appartenance de données d’image à des classes d’attitude de visage en fonction de données d’image ; obtention de données de qualité d’air représentatives de la qualité de l’air de l’habitacle du véhicule à partir d’au moins un capteur embarqué du véhicule ; détermination d’une deuxième information représentative de probabilités d’appartenance desdites données de qualité d’air à des classes de qualité d’air, par analyse desdites données de qualité d’air par un deuxième réseau neuronal entrainé pour associer des probabilités d’appartenance de données de qualité d’air à des classes de qualité d’air en fonction de données de qualité d’air ; et détermination d’une information représentative d’un comportement de l’usager à partir de la première et de la deuxième informations.
Selon un exemple de réalisation particulier et non limitatif, l’information représentative d’un comportement de l’usager est déterminée par une maximisation d’une probabilité a posteriori définie à partir de la première et de la deuxième information.
Selon un exemple de réalisation particulier et non limitatif, une donnée de qualité d’air représente une concentration d’un composé organique volatile.
Selon un exemple de réalisation particulier et non limitatif, une donnée de qualité d’air est représentative d’une détection de fumée dans l’habitacle du véhicule.
Selon un exemple de réalisation particulier et non limitatif, une donnée de qualité d’air indique un état de fonctionnement d’un système de chauffage, de ventilation et d’air conditionné.
Selon un exemple de réalisation particulier et non limitatif, le procédé comporte en outre une étape de mémorisation de l’information représentative d’un comportement de l’usager.
Selon un exemple de réalisation particulier et non limitatif, le premier réseau neuronal est un réseau neuronal convolutif et le deuxième réseau neuronal est un réseau neuronal récurrent.
Selon un deuxième aspect, la présente invention concerne un dispositif de détection d’un comportement d’un usager d’un véhicule, le dispositif comprenant une mémoire associée à un processeur configuré pour la mise en œuvre des étapes du procédé selon le premier aspect de la présente invention.
Selon un troisième aspect, la présente invention concerne un programme d’ordinateur qui comporte des instructions adaptées pour l’exécution des étapes du procédé selon le premier aspect de la présente invention, ceci notamment lorsque le programme d’ordinateur est exécuté par au moins un processeur.
Un tel programme d’ordinateur peut utiliser n’importe quel langage de programmation, et être sous la forme d’un code source, d’un code objet, ou d’un code intermédiaire entre un code source et un code objet, tel que dans une forme partiellement compilée, ou dans n’importe quelle autre forme souhaitable.
Selon un quatrième aspect, la présente invention concerne un support d’enregistrement lisible par un ordinateur sur lequel est enregistré un programme d’ordinateur comprenant des instructions pour l’exécution des étapes du procédé selon le premier aspect de la présente invention.
D’une part, le support d’enregistrement peut être n'importe quel entité ou dispositif capable de stocker le programme. Par exemple, le support peut comporter un moyen de stockage, tel qu'une mémoire ROM, un CD-ROM ou une mémoire ROM de type circuit microélectronique, ou encore un moyen d'enregistrement magnétique ou un disque dur.
D'autre part, ce support d’enregistrement peut également être un support transmissible tel qu'un signal électrique ou optique, un tel signal pouvant être acheminé via un câble électrique ou optique, par radio classique ou hertzienne ou par faisceau laser autodirigé ou par d'autres moyens. Le programme d’ordinateur selon la présente invention peut être en particulier téléchargé sur un réseau de type Internet.
Alternativement, le support d'enregistrement peut être un circuit intégré dans lequel le programme d’ordinateur est incorporé, le circuit intégré étant adapté pour exécuter ou pour être utilisé dans l'exécution du procédé en question.
Brève description des figures
D’autres caractéristiques et avantages de la présente invention ressortiront de la description des exemples de réalisation particuliers et non limitatifs de la présente invention ci-après, en référence aux figures 1 à 6 annexées, sur lesquelles :
illustre schématiquement un système de détection du comportement d’un usager d’un véhicule 10, selon un exemple de réalisation particulier et non limitatif de la présente invention ;
illustre schématiquement une architecture d’un réseau neuronal convolutif 111 de type F-R-CNN, selon un exemple de réalisation particulier et non limitatif de la présente invention ;
illustre schématiquement une architecture d’un réseau neuronal récurrent 112, selon un exemple de réalisation particulier et non limitatif de la présente invention ;
illustre schématiquement une cellule à mémoire court terme et long terme, selon un exemple de réalisation particulier et non limitatif de la présente invention ;
illustre schématiquement un dispositif 2 configuré pour détecter un comportement d’un usager du véhicule 10, selon un exemple de réalisation particulier et non limitatif de la présente invention ; et
illustre un organigramme des différentes étapes d’un procédé de détection d’un comportement d’un usager d’un véhicule, selon un exemple de réalisation particulier et non limitatif de la présente invention.
Description des exemples de réalisation
Un procédé et un dispositif de détection d’un comportement d’un usager d’un véhicule vont maintenant être décrits dans ce qui va suivre en référence conjointement aux figures 1 à 6. Des mêmes éléments sont identifiés avec des mêmes signes de référence tout au long de la description qui va suivre.
Selon un exemple particulier et non limitatif de réalisation de la présente invention, une première information, représentative de probabilités d’appartenance de données d’image représentatives d’un visage d’un usager du véhicule, est déterminée par analyse desdites données d’image par un premier réseau neuronal. Une deuxième information, représentative de probabilités d’appartenance de données de qualité d’air de l’habitacle du véhicule à des classes de qualité d’air, est déterminée par analyse de données de qualité d’air de l’habitacle du véhicule, obtenues à partir de capteurs embarqués du véhicule, par un deuxième réseau neuronal. Une information, représentative d’un comportement de l’usager du véhicule, est déterminée à partir de la première et de la deuxième informations.
La présente invention permet détecter un comportement d’un usager d’un véhicule, tel que par exemple le fait de fumer. L’information représentative de ce comportement peut être mémorisée par le véhicule ou par une mémoire centrale pour être utilisée par des services proposés au propriétaire du véhicule, tels qu’un service de décontamination de l’habitacle ou un service d’évaluation d’une plus-value (moins-value) du prix de vente de son véhicule en fonction de comportements des usagers de son véhicule.
illustre schématiquement un système de détection du comportement d’un usager d’un véhicule 10, selon un exemple de réalisation particulier et non limitatif de la présente invention.
Selon l’exemple de la , le véhicule 10 correspond à un véhicule automobile. Cependant, l’objet de la présente invention ne se limite pas aux véhicules automobiles, mais s’étend à tout type de véhicule terrestre, par exemple un camion, un bus, une motocyclette, etc.
Le véhicule 10 embarque avantageusement une caméra 101 positionnée à l’intérieur de l’habitacle du véhicule 10 de manière à acquérir des données d’image I représentant une ou plusieurs images du visage d’un usager à bord du véhicule, c’est-à-dire que le champ de vision de la caméra 101 couvre la partie haute d’un siège de l’habitacle, typiquement celui du conducteur. Une telle caméra 101 comprend avantageusement un système optique associé à une grille de capteurs photosensibles (formant par exemple un capteur photosensible de type CCD (de l’anglais « Charge-Coupled Device » ou en français « Dispositif à transfert de charges » ou CMOS (de l’anglais « Complementary Metal-Oxide-Semiconductor » ou en français « semiconducteur d’oxyde de métal complémentaire »)) permettant l’acquisition d’image(s) du visage d’un usager. Des données d’image I acquises par la caméra 101 correspondent à une grille de pixels, à chaque pixel étant associée un niveau de gris (par exemple un niveau de gris dont la valeur est comprise entre 0 et 255 si les données d’image I sont codées sur 8 bits), ou un niveau de gris par canal de couleur, par exemple un niveau de gris par canal RGB (de l’anglais « Red, Green, Blue » ou en français « Rouge, vert, bleu »). La résolution de la caméra 101 est par exemple égale à 1920 x 1080 pixels (résolution dite Full HD (ou « pleine haute définition » en français) ou supérieure, par exemple égale à 2304 x 1296 pixels ou encore 2560 x 1440 pixels. Selon un autre exemple, la résolution est inférieure à 1920 x 1080 pixels, par exemple égale à 640 x 480 pixels. Les données d’image I acquises par la caméra 101 sont acquises à une fréquence déterminée, par exemple à une fréquence de 1, 10, 24, 30, 50, 60, 100 ou plus images par seconde.
Selon une variante, l’acquisition de données d’image par la caméra 101 est faite à la réception d’une requête par la caméra 101, par exemple à la réception d’une requête émise, par exemple, par un dispositif 110 de traitement de données localisées à distance du véhicule 10.
Le véhicule 10 embarque également au moins un capteur 102 configuré pour obtenir des données de qualité d’air C représentatives de la qualité de l’air de l’habitacle du véhicule 10 tel qu’un capteur COV ou un détecteur de fumée. De telles données peuvent aussi être issues d’un système de chauffage, de ventilation et d’air conditionné.
Selon un exemple de réalisation particulier et non limitatif, une donnée de qualité d’air C est représentative d’une concentration d’un composé organique.
Selon un exemple de réalisation particulier et non limitatif, une donnée de qualité d’air C est représentative d’une détection de fumée dans l’habitacle du véhicule 10.
Selon un exemple de réalisation particulier et non limitatif, une donnée de qualité de l’air C indique un état de fonctionnement d’un système de chauffage, de ventilation et d’air conditionné. Par exemple, les données de qualité d’air C peuvent comprendre une valeur binaire qui vaut une première valeur (1 par exemple) pour indiquer qu’un tel système est en train de renouveler l’air de l’habitacle du véhicule 10 et qui vaut une seconde valeur (0 par exemple) pour indiquer qu’un tel système ne renouvelle pas cet air.
Les données d’image I et les données de qualité d’air C sont avantageusement transmises à des moyens de transmission 103 du véhicule 10 configurés pour émettre les données d’image I et les données C au dispositif 110 via un réseau de communication.
Les données d’image I et les données de qualité d’air C sont avantageusement échangées entre capteurs et/ou système HVAC et les moyens de transmission 103 via un bus de communication, par exemple un bus de données multiplexées, par exemple un réseau filaire de type CAN (de l’anglais « Controller Area Network » ou en français « Réseau de contrôleurs »), CAN FD (de l’anglais « Controller Area Network Flexible Data-Rate » ou en français « Réseau de contrôleurs à débit de données flexible »), FlexRay (standardisé par la norme ISO 17458) ou Ethernet (standardisé par la norme ISO/IEC 802-3).
Dans une première opération, le dispositif 110 reçoit des données d’image I émise par les moyens de transmission 103.
Dans une deuxième opération, le dispositif 110 obtient des données définissant une région d’intérêt R délimitant le visage de l’usager dans l’image définie par les données d’image I reçues. Il existe de très nombreuses méthodes de détection de visage dans une image pour obtenir une délimitation d’un visage dans une image telle que par exemple la méthode de Viola et Jones (Paul Viola et Michael Jones, « Robust Real-Time Object Detection », IJCV, 2001). Par exemple, les données de région d’intérêt R sont définies par un rectangle dans l’image I. Les données de région d’intérêt R peuvent par exemple comprendre des coordonnées d’un point dans l’image I, qui définit un coin haut/gauche du rectangle, un nombre de pixels qui définit une largeur de ce rectangle à partir du coin haut/gauche et un nombre de pixels qui définit une longueur de ce rectangle à partir du coin haut/gauche.
Dans une troisième opération, une première information Inf1 représentative de probabilités PATid’appartenance des données d’image I délimitées par la région d’intérêt R à des classes CATid’attitude/expression de visage, est obtenue par analyse des données d’image I, délimitées par la région d’intérêt R, par un premier réseau neuronal 111 entrainé pour associer des probabilités d’appartenance de données d’image à des classes d’attitude/expression de visage en fonction de données d’image.
Selon un exemple de réalisation particulier et non limitatif, le premier réseau neuronal 111 est un réseau de type Fast R-CNN (« Fast Region-based Convolutional Neural Network » en anglais, en français « réseau neuronal convolutif rapide basé région ») dont l’architecture est basée sur celle donnée par Ross Girshick dans son article intitulé « Fast R-CNN » (open Access version of the ICCV paper, 2015).
illustre schématiquement une architecture d’un réseau neuronal convolutif 111 de type F-R-CNN selon un exemple de réalisation particulier et non limitatif de la présente invention.
Le réseau neuronal convolutif 111 de type F-R-CNN est un réseau qui prend en entrée des données d’image I et des données d’une région d’intérêt R délimitant un visage dans l’image I.
Le réseau neuronal convolutif 111 est également appelé réseau de neurones convolutifs ou réseau de neurones à convolution et noté CNN ou ConvNet (de l’anglais « Convolutional Neural Networks ») qui correspond à un réseau de neurones artificiels acycliques (de l’anglais « feed-forward »). Un réseau neuronal convolutif comprend une partie dite convolutive 1110 mettant en œuvre une ou plusieurs couches de convolution et une partie 1111 dite densément connectée mettant en œuvre une ou plusieurs couches de neurones densément connectées (ou entièrement connectés) assurant la classification des informations selon un modèle de type MLP (de l’anglais « Multi Layers Perceptron » ou en français « Perceptrons multicouches ») par exemple. Le réseau neuronal convolutif 111 est dit rapide (« Fast » en anglais) car une image de caractéristiques (« feature map » en anglais) est obtenue pour l’ensemble de l’image I d’entrée et un vecteur de caractéristiques est ensuite obtenu à partir de caractéristiques, de l’image des caractéristiques, qui sont délimitées par la région d’intérêt R alors superposée à cette image des caractéristiques.
Les données d’image I et les données définissant la région d’intérêt R sont fournies en entrée de la partie convolutive 1110 qui détermine un ensemble d’informations représentatives de caractéristiques associées à des attitudes/expressions de visage présent dans l’image I. La partie convolutive 1110 met avantageusement en œuvre une ou plusieurs couches de convolution pour traiter l’image I et en extraire l’image de caractéristiques (ou de motifs présents dans l’image I et associés à des caractéristiques recherchées) associées à des attitudes/expressions de visage. Un ensemble de filtres de convolution sont appliquées à l’image I, l’image I étant par exemple fournie sous la forme d’une matrice à deux dimensions (correspondant à la grille de pixels d’une image par exemple). Par exemple, 50, 100, 200 ou plus de filtres de convolution sont appliqués, chaque filtre ayant une taille et un pas (de l’anglais « stride ») déterminés. Par exemple, chaque filtre a une taille égale à 1x7 et un pas de 1. Autrement dit, la matrice d’entrée contenant l’image I passe dans une première couche de convolution et des opérations de convolutions sont appliquées à cette matrice d’entrée sur la base des filtres de taille et pas déterminés. Le pas (ou « stride » en anglais) correspond au nombre de pixels par lesquels la fenêtre correspondant au filtre se déplace dans le tenseur d’entrée (matrice d’entrée par exemple). Chaque filtre de convolution représente par exemple une caractéristique déterminée recherchée dans l’image I en faisant glisser la fenêtre correspondant au filtre sur l’image, et en calculant le produit de convolution entre cette caractéristique déterminée et chaque portion de l’image balayée par le filtre associé à cette caractéristique déterminée. Le résultat du produit de convolution permet de déterminer la présence ou l’absence de la caractéristique déterminée dans l’image I.
Selon une variante, une ou plusieurs opérations de convolution successives sont appliquées aux données d’image I, avec pour chaque opération de convolution l’application d’un ensemble de filtres de convolutions aux données obtenues en sortie de l’opération de convolution précédente.
Selon une variante, une ou plusieurs opérations dites de « mise en commun » (par exemple une ou plusieurs opérations de « mise en commun par maximum » (de l’anglais « max pooling ») et/ou une ou plusieurs opérations de « mise en commun par moyenne » (de l’anglais « average pooling »)) sont mises en œuvre et appliquées aux données obtenues de la ou les opérations de convolution. Selon cette variante, la ou les opérations de « mise en commun » sont par exemple, et optionnellement, assorties ou associées à une opération de désactivation aléatoire d’une partie des neurones du réseau, avec une probabilité déterminée, par exemple une probabilité de 0.2 (20 %), 0.3 (30 %) ou 0.4 (40 %), cette technique étant connue sous le nom de « dropout » en anglais.
Les caractéristiques associées à une attitude/expression d’un visage d’un usager caractérisent par exemple la forme de la bouche (entrouverte ou fermée), la détection de fumée aux abords du visage, etc…toute caractéristique qui permet de caractériser une attitude/expression d’un visage d’un usager en train de fumer.
Un vecteur de caractéristiques est associé à la région d’intérêt R. Les caractéristiques du vecteur correspondent aux caractéristiques de l’image de caractéristiques délimitées par la région d’intérêt R. Le vecteur de caractéristiques est fourni en entrée de la partie 1111 densément connectée du réseau neuronal 111.
La partie densément connectée 1111 du réseau neuronal 111 comprend une ou plusieurs couches de neurones densément connectés ou totalement connectés (de l’anglais « fully-connected »). Une couche de neurones densément connectés reçoit par exemple en entrée un vecteur de caractéristiques et produit un vecteur de sortie. Pour cela, la couche applique une combinaison linéaire puis optionnellement une fonction d’activation aux valeurs reçues en entrée et contenues dans le vecteur de caractéristiques. La couche densément connectée met en œuvre une opération de classification des données contenues dans le vecteur de caractéristiques détectées dans l’image. La couche densément connectée renvoie en sortie un vecteur de probabilités PATid’appartenance de la région d’intérêt R à des classes CATid’attitude/expression de visage (i=1 à N avec N le nombre de classes). Une classe CATipeut correspondre, par exemple, à l’attitude d’un visage d’un usager en train de fumer, une autre à un usager en train de porter une main à sa bouche, une autre à un usager en train de recracher de la fumée ou encore une autre à un usager qui ne fume pas.
Le vecteur de caractéristiques (vecteur d’entrée) passe par exemple par une couche de neurones densément connectés, avec par exemple 128, 256 ou plus de neurones chacun connecté à chacun des neurones d’une couche comprenant autant de neurones qu’il y a de classes, une classe d’une attitude/expression de visage étant associée à chaque neurone de la couche de sortie.
Les valeurs des filtres de convolution sont avantageusement déterminées dans une phase dite d’apprentissage, par exemple d’apprentissage supervisé, selon une méthode connue de l’homme du métier. Dans une phase d’apprentissage, un nombre important (par exemple des centaines, des milliers, des dizaines de millier ou plus) d’images de visage appartenant aux différentes classes d’attitude/expression de visage dont on connait les caractéristiques associées sont utilisés pour apprendre les différents valeurs ou coefficients des filtres de convolution. Dans une telle phase d’apprentissage, une méthode connue sous le nom de rétropropagation du gradient de l’erreur est par exemple mise en œuvre. De la même manière, dans cette phase d’apprentissage, un nombre important (par exemple des centaines, des milliers, des dizaines de millier ou plus) d’associations de données représentatives de caractéristiques de visage pour lesquelles on connait la classe associée (c’est-à-dire des visages de fumeur, des visages avec une main à proximité de la bouche, une visage avec une bouche entrouverte, etc..) associées sont utilisés pour apprendre les paramètres de la partie densément connectée permettant la classification.
Dans une quatrième opération, le dispositif 110 reçoit (obtient) les données de qualité d’air C émises par les moyens de transmission 103.
Dans une cinquième opération, le dispositif 20 détermine une deuxième information Inf2 représentative de probabilités PQApd’appartenance des données de qualité d’air C à des classes CQAp(p=1 à P) de qualité d’air par analyse des données de qualité d’air C par un deuxième réseau neuronal 112 entrainé pour associer des probabilités d’appartenance de données de qualité d’air à des classes de qualité d’air en fonction de données de qualité d’air.
Selon un exemple de réalisation particulier et non limitatif, le deuxième réseau de neurones 112 est un réseau neuronal récurrent.
illustre schématiquement une architecture d’un réseau neuronal récurrent 112 selon un exemple de réalisation particulier et non limitatif de la présente invention.
Le réseau neuronal récurrent 112 est un réseau de neurones artificiels présentant des connexions récurrentes. Il est constitué de cellules (neurones) interconnectées interagissant non-linéairement et pour lequel il existe au moins un cycle dans la structure. Les cellules sont reliées par des arcs (synapses) qui possèdent un poids W (non représentés). La sortie V d'une cellule est une combinaison non linéaire de ses entrées. «Déplié», un réseau neuronal récurrent est comparable à un réseau de neurones classiques avec des contraintes d'égalité entre les poids W du réseau.
Les techniques d'apprentissage d’un réseau neuronal récurrent sont les mêmes que pour les réseaux classiques (rétropropagation du gradient).
Néanmoins, les réseaux neuronaux récurrents se heurtent au problème de disparition du gradient pour apprendre à mémoriser des évènements passés. L’utilisation de cellule à mémoire court terme et long terme (en anglais LSTM pour Long short-term memory) est une solution à ce problème (Sepp Hochreiter et Jürgen Schmidhuber, Long short-term memory". Neural Computation. 9 (8): 1735–1780.doi:10.1162/neco.1997.9.8.1735. PMID 9377276.).
illustre schématiquement une cellule à mémoire court terme et long terme selon un exemple de réalisation particulier et non limitatif de la présente invention.
L'idée associée à un réseau de neurones à mémoire court terme et long terme est que chaque cellule est liée deux états internes ; l’un dit état caché ( ) et l’autre dit état de la cellule ( ) qui joue le rôle de mémoire. Le passage d’un état d’entrée d’une cellule à un instant temporel (t-1) à un état de sortie à un instant temporel suivanttse fait par transfert à gain constant et égal à 1. De cette façon les erreurs se propagent aux pas antérieurs (jusqu'à 1 000 étapes dans le passé) sans phénomène de disparition de gradient. L'état de la cellule peut être modifié à travers une porte qui autorise ou bloque la mise à jour (input gate ). De même une porte contrôle si l'état de cellule est communiqué en sortie de la cellule (output gate ). Les cellules peuvent aussi utiliser une porte permettant la remise à zéro de l'état de la cellule (forget gate ).
Selon un exemple, en considérant les valeurs initiales suivantes : et , et en considérant une fonction d’activation de ces cellules de type sigmoïde et tangente hyperbolique , les états des portes de remise à zéro, de sortie et de mise à jour ainsi que les états cachés, de la cellule et de sortie sont donnés par :
Dans lesquelles o est un opérateur symbolisant le produit matriciel de Hadamard (produit terme à terme).
En variante, d’autres fonctions peuvent être utilisées.
Selon la présente invention, le réseau neuronal récurrent 112 est un réseau de type « séquence à séquence » (en anglais « sequence-to-sequence ») : l’entrée de ce réseau neuronal récurrent est alimentée par une séquence STE de valeurs discrètes représentatives de données de qualité d’air C. Par ailleurs, la sortie de ce réseau de neurones récurrents 112 est une séquence STS de valeurs discrètes représentatives de probabilités d’appartenance des données de qualité d’air C à des classe de qualité d’air CQAp.
Un algorithme d’apprentissage classique de réseaux neuronaux est utilisé. Le principe de cet algorithme d’apprentissage est que le réseau neuronal récurrent 112 apprend les valeurs des poids W des cellules par rétropropagation du gradient de l’erreur c’est-à-dire que l’algorithme calcule progressivement les valeurs des poids de manière à minimiser une fonction de coût pour chacune des cellules à mémoire court terme et long terme en partant des sorties du réseau neuronal récurrent 112.
Selon un exemple de réalisation particulier et non limitatif, la fonction de coût est une fonction de type erreur quadratique moyenne MSE donnée par :
où F est une fonction (non-linéaire) représentant le réseau neuronal 112, F(Xp) correspond aux données d’une séquence STS pour des entrées Xpcorrespondant à des données de qualité d’air C, correspond à des valeurs discrètes identifiant une classe CQApde qualité d’air particulière et P est le nombre de classes.
Cette fonction de coût peut être minimisée en utilisant un algorithme classique de descente de gradient tel que l’algorithme supervisé ADAM de descente de gradient (Kingma & Ba (2015) Adam: A Method for Stochastic Optimization. Proceedings of the International Conference for Learning Representations, San Diego (ICLR). Cet algorithme utilise un ensemble de paramètres qui pourront avoir, par exemple, les valeurs suivantes : taux d’apprentissage égal à 0.001, beta_1 égal à 0.9, beta_2 égal à 0.999 et epsilon égal à . Ces paramètres peuvent être ajustés ou améliorés par recherche par quadrillage ("grid search").
Dans une sixième opération, une information Inf représentative d’un comportement de l’usager est déterminée à partir de la première Inf1 et de la deuxième information Inf2.
Selon un exemple de réalisation particulier et non limitatif, des classes CATid’attitude/expression de visage sont définies parmi au moins une classe de la liste suivante :
- visage d’usager en train de fumer ;
- visage avec une main à proximité de la bouche ;
- visage avec une bouche entrouverte ;
- visage d’un usager qui ne fume pas.
Selon un exemple de réalisation particulier et non limitatif, des classes CQAide qualité d’air sont définies parmi au moins une classe de la liste suivante :
- bonne qualité de l’air ;
- qualité moyenne de l’air ;
- mauvaise qualité de l’air.
Selon un exemple de réalisation particulier et non limitatif, l’information Inf est une information binaire qui indique qu’un usager est un fumeur lorsque cette information Inf vaut une première valeur (1 par exemple) et qui indique qu’un usager n’est pas un fumeur lorsque cette information Inf vaut une autre valeur (0 par exemple).
Selon un exemple de réalisation particulier et non limitatif, l’information Inf est représentative d’un comportement de fumeur (F) d’un usager. Cette information Inf est alors déterminée par maximisation d’une probabilité a postériori fonctions des probabilités d’appartenance des données d’image I délimitée par la région d’intérêt R à des classes d’attitude de visage (première information Inf1) et des probabilités d’appartenance des données de qualité d’air C à des classes de qualité d’air (deuxième information Inf2).
Selon un exemple de réalisation particulier et non limitatif, dans une septième opération, optionnelle, le dispositif 110 mémorise l’information Inf dans une mémoire 21.
Cet exemple de réalisation est avantageux car il permet de conserver en mémoire qu’un véhicule a été utilisé par un usager ayant un comportement particulier. Cette information de comportement particulier peut orienter un service client à inciter un propriétaire d’un véhicule à utiliser, par exemple, un service de décontamination de l’habitacle de son véhicule. Cette information peut aussi être utilisée pour évaluer le prix d’un véhicule car elle peut donner une indication à un éventuel acheteur que le véhicule a été utilisé par un usager fumeur par exemple.
illustre schématiquement un dispositif 2 configuré pour détecter un comportement d’un usager du véhicule 10, selon un exemple de réalisation particulier et non limitatif de la présente invention.
Le dispositif 2 est par exemple configuré pour la mise en œuvre des opérations décrites en regard de la et/ou des étapes du procédé décrit en regard de la . Des exemples d’un tel dispositif 2 comprennent, sans y être limités, un équipement électronique tel qu’un voire plusieurs ordinateurs connectés entre eux. Les éléments du dispositif 2, individuellement ou en combinaison, peuvent être intégrés dans un unique circuit intégré, dans plusieurs circuits intégrés, et/ou dans des composants discrets. Le dispositif 2 peut être réalisé sous la forme de circuits électroniques ou de modules logiciels (ou informatiques) ou encore d’une combinaison de circuits électroniques et de modules logiciels. Selon différents exemples de réalisation particuliers et non limitatifs, le dispositif 2 est couplé en communication avec d’autres dispositifs ou systèmes similaires et/ou avec des dispositifs de communication, par exemple une TCU (de l’anglais « Telematic Control Unit » ou en français « Unité de Contrôle Télématique ») du véhicule 10, par exemple par l’intermédiaire d’un bus de communication ou au travers de ports d’entrée / sortie dédiés.
Le dispositif 2 comprend un (ou plusieurs) processeur(s) 20 configurés pour exécuter des instructions pour la réalisation des étapes du procédé et/ou pour l’exécution des instructions du ou des logiciels embarqués dans le dispositif 2. Le processeur 20 peut inclure de la mémoire intégrée, une interface d’entrée/sortie, et différents circuits connus de l’homme du métier. Le dispositif 2 comprend en outre au moins une mémoire 21 correspondant par exemple à une mémoire volatile et/ou non volatile et/ou comprend un dispositif de stockage mémoire qui peut comprendre de la mémoire volatile et/ou non volatile, telle que EEPROM, ROM, PROM, RAM, DRAM, SRAM, flash, disque magnétique ou optique. L’information Inf est par exemple mémorisée dans la mémoire 21.
Le code informatique du ou des logiciels embarqués comprenant les instructions à charger et exécuter par le processeur est par exemple stocké sur la mémoire 21.
Selon un exemple de réalisation particulier et non limitatif, le dispositif 2 comprend un bloc 22 d’éléments d’interface pour communiquer avec des dispositifs externes, par exemple les moyens de transmission 103 du véhicule 10. Les éléments d’interface du bloc 22 comprennent une ou plusieurs des interfaces suivantes :
- interface radiofréquence RF, par exemple de type Bluetooth® ou Wi-Fi®, LTE (de l’anglais « Long-Term Evolution » ou en français « Evolution à long terme »), LTE-Advanced (ou en français LTE-avancé) ;
- interface USB (de l’anglais « Universal Serial Bus » ou « Bus Universel en Série » en français) ;
- interface HDMI (de l’anglais « High Definition Multimedia Interface », ou « Interface Multimedia Haute Definition » en français) ;
- interface LIN (de l’anglais « Local Interconnect Network », ou en français « Réseau interconnecté local »).
Les données d’image I et/ou les données de qualité d’air C peuvent être transmises via un élément d’interface du bloc 22.
Selon un autre exemple de réalisation particulier et non limitatif, le dispositif 2 comprend une interface de communication 23 qui permet d’établir une communication avec d’autres dispositifs tels que les moyens de transmission 103 du véhicule 10 via un canal de communication 24. L’interface de communication 23 correspond par exemple à un transmetteur configuré pour transmettre et recevoir des informations et/ou des données via le canal de communication 24 telles que les données d’image I et/ou les données de qualité d’air C. L’interface de communication 23 correspond par exemple à un réseau filaire de type CAN (de l’anglais « Controller Area Network » ou en français « Réseau de contrôleurs »), CAN FD (de l’anglais « Controller Area Network Flexible Data-Rate » ou en français « Réseau de contrôleurs à débit de données flexible »), FlexRay (standardisé par la norme ISO 17458) ou Ethernet (standardisé par la norme ISO/IEC 802-3).
Selon un exemple de réalisation particulier et non limitatif, le dispositif 2 peut fournir des signaux de sortie à un ou plusieurs dispositifs externes, tels qu’un écran d’affichage, un ou des haut-parleurs et/ou d’autres périphériques via respectivement des interfaces de sortie non représentées.
illustre un organigramme des différentes étapes d’un procédé 3 de détection d’un comportement d’un usager d’un véhicule, selon un exemple de réalisation particulier et non limitatif de la présente invention. Le procédé est par exemple mis en œuvre par le dispositif 2 de la .
Dans une première étape 31, des données d’image représentatives d’une image acquise par une caméra embarquée dans le véhicule sont obtenues.
Dans une deuxième étape 32, une région d’intérêt qui délimite un visage d’un usager dans ladite image acquise est obtenue.
Dans une troisième étape 33, une première information, représentative de probabilités d’appartenance desdites données d’image délimitées par la région d’intérêt à des classes d’attitude de visage, est déterminée par analyse desdites données d’image, délimitées par la région d’intérêt, par un premier réseau neuronal entrainé pour associer des probabilités d’appartenance de données d’image à des classes d’attitude de visage en fonction de données d’image.
Dans une quatrième étape 34, des données de qualité d’air, représentatives de la qualité de l’air de l’habitacle du véhicule, sont obtenues à partir d’au moins un capteur embarqué du véhicule.
Dans une cinquième étape 35, une deuxième information, représentative de probabilités d’appartenance desdites données de qualité d’air à des classes de qualité d’air, est déterminée par analyse desdites données de qualité d’air par un deuxième réseau neuronal entrainé pour associer des probabilités d’appartenance de données de qualité d’air à des classes de qualité d’air en fonction de données de qualité d’air.
Dans une sixième étape 36, une information représentative d’un comportement de l’usager est déterminée à partir de la première et de la deuxième informations.
Selon un exemple de réalisation particulier et non limitatif, dans une septième étape 37, optionnelle, l’information représentative d’un comportement de l’usager est mémorisée.
Bien entendu, la présente invention ne se limite pas aux exemples de réalisation décrits ci-avant mais s’étend à un procédé de détection d’un comportement d’un usager d’un véhicule quel que soit le nombre de classes et de données de qualité d’air, ainsi qu’au dispositif configuré pour la mise en œuvre d’un tel procédé.

Claims (10)

  1. Procédé de détection d’un comportement d’un usager d’un véhicule, mis en œuvre par un dispositif distant du véhicule, ledit procédé comprenant les étapes suivantes :
    - obtention (31) de données d’image représentatives d’une image acquise par une caméra embarquée dans le véhicule ;
    - obtention (32) d’une région d’intérêt qui délimite un visage d’un usager dans ladite image acquise;
    - détermination (33) d’une première information représentative de probabilités d’appartenance desdites données d’image délimitées par la région d’intérêt à des classes d’attitude de visage, par analyse desdites données d’image, délimitées par la région d’intérêt, par un premier réseau neuronal entrainé pour associer des probabilités d’appartenance de données d’image à des classes d’attitude de visage en fonction de données d’image ;
    - obtention (34) de données de qualité d’air représentatives de la qualité de l’air de l’habitacle du véhicule à partir d’au moins un capteur embarqué du véhicule ;
    - détermination (35) d’une deuxième information représentative de probabilités d’appartenance desdites données de qualité d’air à des classes de qualité d’air, par analyse desdites données de qualité d’air par un deuxième réseau neuronal entrainé pour associer des probabilités d’appartenance de données de qualité d’air à des classes de qualité d’air en fonction de données de qualité d’air ; et
    - détermination (36) d’une information représentative d’un comportement de l’usager à partir de la première et de la deuxième informations.
  2. Procédé selon la revendication 1, dans lequel l’information représentative d’un comportement de l’usager est déterminée par une maximisation d’une probabilité a posteriori définie à partir de la première et de la deuxième information.
  3. Procédé selon la revendication 1 ou 2, dans lequel une donnée de qualité d’air représente une concentration d’un composé organique volatile.
  4. Procédé selon une des revendications 1 à 3, dans lequel une donnée de qualité d’air est représentative d’une détection de fumée dans l’habitacle du véhicule.
  5. Procédé selon l’une des revendications 1 à 4, dans lequel une donnée de qualité d’air indique un état de fonctionnement d’un système de chauffage, de ventilation et d’air conditionné.
  6. Procédé selon l’une des revendications 1 à 5, qui comporte en outre une étape (37) de mémorisation de l’information représentative d’un comportement de l’usager.
  7. Procédé selon l’une des revendications précédentes, dans lequel le premier réseau neuronal est un réseau neuronal convolutif et le deuxième réseau neuronal est un réseau neuronal récurrent.
  8. Programme d’ordinateur comportant des instructions pour la mise en œuvre du procédé selon l’une quelconque des revendications précédentes, lorsque ces instructions sont exécutées par un processeur.
  9. Support d’enregistrement lisible par un ordinateur sur lequel est enregistré un programme d’ordinateur comprenant des instructions pour l’exécution des étapes du procédé selon l’une des revendications 1 à 7.
  10. Dispositif (2) de détection d’un comportement d’un usager d’un véhicule, ledit dispositif (2) comprenant une mémoire (21) associée à au moins un processeur (20) configuré pour la mise en œuvre des étapes du procédé selon l’une des revendications 1 à 7.
FR2104672A 2021-05-04 2021-05-04 Procédé et dispositif de détection d’un comportement d’un usager d’un véhicule. Withdrawn FR3122756A1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR2104672A FR3122756A1 (fr) 2021-05-04 2021-05-04 Procédé et dispositif de détection d’un comportement d’un usager d’un véhicule.

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR2104672A FR3122756A1 (fr) 2021-05-04 2021-05-04 Procédé et dispositif de détection d’un comportement d’un usager d’un véhicule.
FR2104672 2021-05-04

Publications (1)

Publication Number Publication Date
FR3122756A1 true FR3122756A1 (fr) 2022-11-11

Family

ID=76523126

Family Applications (1)

Application Number Title Priority Date Filing Date
FR2104672A Withdrawn FR3122756A1 (fr) 2021-05-04 2021-05-04 Procédé et dispositif de détection d’un comportement d’un usager d’un véhicule.

Country Status (1)

Country Link
FR (1) FR3122756A1 (fr)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108629282A (zh) * 2018-03-29 2018-10-09 福州海景科技开发有限公司 一种吸烟检测方法、存储介质及计算机
CN109658662A (zh) * 2018-12-19 2019-04-19 重庆奇甫机械有限责任公司 基于车联网的汽车监测报警装置
CN110264670A (zh) * 2019-06-24 2019-09-20 广州鹰瞰信息科技有限公司 基于客运车辆司机疲劳驾驶状态分析装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108629282A (zh) * 2018-03-29 2018-10-09 福州海景科技开发有限公司 一种吸烟检测方法、存储介质及计算机
CN109658662A (zh) * 2018-12-19 2019-04-19 重庆奇甫机械有限责任公司 基于车联网的汽车监测报警装置
CN110264670A (zh) * 2019-06-24 2019-09-20 广州鹰瞰信息科技有限公司 基于客运车辆司机疲劳驾驶状态分析装置

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
JAE-JOON CHUNG ET AL: "An Automobile Environment Detection System Based on Deep Neural Network and its Implementation Using IoT-Enabled In-Vehicle Air Quality Sensors", SUSTAINABILITY, vol. 12, no. 6, 21 March 2020 (2020-03-21), Switzerland, pages 2475, XP055714534, DOI: 10.3390/su12062475 *
KINGMABA: "Adam: A Method for Stochastic Optimization", PROCEEDINGS OF THE INTERNATIONAL CONFÉRENCE FOR LEARNING REPRESENTATIONS, SAN DIEGO (ICLR, 2015
ROSS GIRSHICK: "Fast R-CNN", ICCV PAPER, 2015
SEPP HOCHREITERÜRGEN SCHMIDHUBER: "Long short-term memory", NEURAL COMPUTATION, vol. 9, no. 8, pages 1735 - 1780
ZHAO XIAOSONG ET AL: "A Deep Recurrent Neural Network for Air Quality Classification", 1 March 2018 (2018-03-01), XP055866109, Retrieved from the Internet <URL:http://bit.kuas.edu.tw/~jihmsp/2018/vol9/JIH-MSP-2018-02-009.pdf> [retrieved on 20211125] *

Similar Documents

Publication Publication Date Title
EP0521548B1 (fr) Procédé et dispositif avec un réseau neuronal pour classer des données
EP3707676B1 (fr) Procédé d&#39;estimation de pose d&#39;une caméra dans le référentiel d&#39;une scène tridimensionnelle, dispositif, système de réalite augmentée et programme d&#39;ordinateur associé
US20050030393A1 (en) Method and device for sensor level image distortion abatement
FR2994495A1 (fr) Procede et systeme pour detecter des evenements sonores dans un environnement donne
WO2020208153A1 (fr) Procede de definition d&#39;un chemin
EP3620970B1 (fr) Procédé d&#39;extraction de caractéristiques d&#39;une empreinte digitale représentée par une image d&#39;entrée
WO2004102474A2 (fr) Procede et dispositif permettant de reduire les distorsions d&#39;image au niveau du capteur
EP0514986B1 (fr) Procédé d&#39;apprentissage d&#39;un réseau de neurones et dispositif de classification pour la mise en oeuvre de ce procédé
EP1792278B1 (fr) Procede de detection et de pistage de cibles ponctuelles, dans un systeme de surveillance optronique
FR2719384A1 (fr) Procédé de trajectographie d&#39;objets et dispositif de mise en Óoeuvre de ce procédé.
EP1007962B1 (fr) Appareil et methode de classification utilisant une combinaison de methodes statistiques et de reseaux neuronaux
FR3122756A1 (fr) Procédé et dispositif de détection d’un comportement d’un usager d’un véhicule.
Landgraf et al. Dudes: Deep uncertainty distillation using ensembles for semantic segmentation
EP1007961B1 (fr) Appareil de classification destine notamment a la reconnaissance d&#39;odeurs
WO2019129985A1 (fr) Procede de formation d&#39;un reseau de neurones pour la reconnaissance d&#39;une sequence de caracteres et procede de reconnaissance associe
FR2925196A1 (fr) Cartes auto-organisatrices a liens topologiques values, procede de commande d&#39;un systeme d&#39;apprentissage automatique utilisant une telle carte auto-organisatrice et analyseur de comportements dynamiques.
EP3836014A1 (fr) Procédé de suivi d&#39;un élément, dispositif électronique et produit programme d&#39;ordinateur associés
WO1998014892A1 (fr) Procede d&#39;apprentissage pour la classification de donnees selon deux classes separees par une surface separatrice d&#39;ordre 1 ou 2
EP0568616A1 (fr) Procede de reconnaissance d&#39;objets codes par des vecteurs
EP0396171A1 (fr) Procédé pour l&#39;analyse de textures et analyseur
FR3104291A1 (fr) Procédé et système de configuration d’un dispositif d’imagerie d’un véhicule automobile comportant N capteurs et N réseaux de neurones encodeurs dédiés
EP3428851A1 (fr) Procédé de traitement d&#39;une image
EP3920101A1 (fr) Methode de reduction de la taille d&#39;un reseau de neurones artificiel
FR3118747A1 (fr) Procédé et dispositif de détermination d’information représentative d’adhérence entre un véhicule et un revêtement d’une route
FR3121110A1 (fr) Procédé et système de contrôle d’une pluralité de systèmes d’aide à la conduite embarqués dans un véhicule

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20221111

ST Notification of lapse

Effective date: 20240105