EP3704625A1 - Method of processing data for system for aiding the driving of a vehicle and associated system for aiding driving - Google Patents

Method of processing data for system for aiding the driving of a vehicle and associated system for aiding driving

Info

Publication number
EP3704625A1
EP3704625A1 EP18789168.4A EP18789168A EP3704625A1 EP 3704625 A1 EP3704625 A1 EP 3704625A1 EP 18789168 A EP18789168 A EP 18789168A EP 3704625 A1 EP3704625 A1 EP 3704625A1
Authority
EP
European Patent Office
Prior art keywords
data
vehicle
environment
processing method
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
EP18789168.4A
Other languages
German (de)
French (fr)
Inventor
Nicolas Olivier
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Valeo Comfort and Driving Assistance SAS
Original Assignee
Valeo Comfort and Driving Assistance SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Valeo Comfort and Driving Assistance SAS filed Critical Valeo Comfort and Driving Assistance SAS
Publication of EP3704625A1 publication Critical patent/EP3704625A1/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/96Management of image or video recognition tasks

Definitions

  • the present invention generally relates to the field of processing data acquired by a sensor.
  • It relates more particularly to a method of processing data acquired by the sensor of a vehicle driving assistance system and such a driving assistance system.
  • Such driving assistance systems generally comprise a data sensor, of the video camera type, capable of acquiring images of the vehicle environment, a processing unit able to apply processing algorithms to the data acquired in order to extract the relevant information, and a display unit allowing the driver to view the extracted information.
  • the present invention proposes a data processing method for a vehicle driving assistance system comprising a step of acquiring a set of data relating to the environment of the vehicle, said set of data comprising a first set of data relating to a first part of the vehicle environment and a second set of data relating to a second part of the vehicle environment,
  • the method further comprises steps of: processing the first set of data according to a first process and at a first instant,
  • processing the second set of data according to a second process distinct from the first process or at a second instant distinct from the first instant.
  • the driver assistance system makes it possible to reduce the volume of processed data and to increase the speed of display of the information obtained. Indeed, the system makes it possible to allocate more material resources to the data set processing to obtain the most relevant information than to those containing little interest.
  • the second set of data is processed at the second instant and the second instant is after the first instant
  • the first process comprises sampling the first set of data according to a first sampling rate
  • the second process comprises sampling the second set of data according to a second sampling rate, the first sampling rate being greater than the second sampling rate,
  • the sampling of the first set of data and the sampling of the second set of data are spatial sampling
  • sampling of the first set of data and the sampling of the second set of data are time sampling
  • the method further comprises a step of detecting an object in the vehicle environment and / or a step of determining a subset of data corresponding to said object in the data set,
  • a number of algorithms is applied to the subset of data, and in which said number of algorithms is a function of a location of the object,
  • the location of the object comprises a membership of the subset of data to the first set of data (the subset of data then forming a first subset of data), or the second set of data (the subset of data then forming a second subset of data),
  • a second number of algorithm (s) is applied to said second subset of data, the first number of algorithms being greater than the second number of algorithms,
  • the location of the object comprises a distance between the object and the vehicle
  • the method further comprises a step of superposition of information obtained by the processing of the first set of data to the object by means of a head-up display (for example a head-up display with augmented reality),
  • a head-up display for example a head-up display with augmented reality
  • the first set of data represents a first image part
  • the first image part corresponds to a display area of the driver assistance system.
  • the invention also proposes a vehicle assistance system comprising:
  • a sensor adapted to acquiring a set of data relating to the environment of the vehicle, said set of data comprising a first set of data relating to a first part of the environment of the vehicle and a second set of data relating to a second part the environment of the vehicle,
  • an electronic processing unit able to process the first set of data according to a first process and at a first instant, and able to process the second set of data according to a second process distinct from the first process or at a second instant distinct from the first instant; .
  • the system comprises a head-up display (for example a head-up display with augmented reality),
  • the electronic processing unit is able to produce information by means of the first process
  • said head-up display (augmented reality) is capable of superimposing said information on an object in the environment of the vehicle.
  • FIG. 1 schematically represents a vehicle seen from above equipped with a driving assistance system
  • FIG. 2 schematically represents an image acquired by the driver assistance system and processed by means of the data processing method according to the invention
  • FIG. 3 schematically represents an image acquired by the driver assistance system and processed according to a variant of the data processing method
  • FIG. 4 shows schematically an image acquired by the driver assistance system and processed according to another variant of the data processing method.
  • FIG. 1 diagrammatically shows the main elements of a driving assistance system 1 intended to equip a vehicle 3, for example a motor vehicle, a train, a boat such as a barge, a tramway or a bus, to facilitate driving.
  • a driving assistance system 1 intended to equip a vehicle 3, for example a motor vehicle, a train, a boat such as a barge, a tramway or a bus, to facilitate driving.
  • This driving assistance system 1 here comprises a head-up display.
  • the head-up display includes a light source, a projection unit and a partially transparent blade.
  • the partially transparent plate serves as a display area 5 (see FIG. 2) and makes it possible to display information 2 relating to the vehicle 3 and / or its environment in the form of a virtual image.
  • the driver assistance system 1 described here is particularly advantageous when the aforementioned head-up display is a head-up display augmented reality.
  • Such an augmented-reality head-up display makes it possible to superpose (for the driver of the vehicle) the information (s) displayed (s) 2 to an object (pedestrian, animal, other vehicle, etc.) located in front of the vehicle. 3.
  • the partially transparent blade comprises for example the windshield 9 of the vehicle 3, and the display zone 5 can then extend over at least part of said windshield 9.
  • the driver assistance system 1 further comprises a detection device.
  • Said detection device typically comprises a sensor adapted to acquire a set of data relating to the environment of the vehicle 3.
  • the sensor comprises for example an image acquisition unit 11, for example a video camera.
  • the set of data relating to the environment represents an acquired image 13 (see FIG. 2) and / or a sequence of images 13.
  • the acquired image 13 comprises a plurality of pixels, generally arranged in the form of a matrix of pixels.
  • the image acquisition unit 11 is arranged at the front of the vehicle 3, for example at the interior (central) rearview mirror of the vehicle 3.
  • the image acquisition unit 11 has an angle of field 1 1 1 which extends facing the vehicle 3.
  • the angle of view 1 1 1 covers the solid angle corresponding to the windshield 9 of the vehicle (as seen from the driver) and extends beyond the solid angle corresponding to said windscreen 9.
  • the driver assistance system 1 further comprises an electronic processing unit 15.
  • the electronic processing unit 15 is programmed to process data of the acquired image 13.
  • This processing comprises at least one algorithm selected from a plurality of algorithms.
  • Said plurality of algorithms is stored by the driver assistance system 1, for example in a memory unit 17.
  • the plurality of algorithms comprises, for example, algorithms capable of obtaining information 2 on the acquired image 13, for example detecting the presence or the absence of an object 7, identifying the object 7, following the object 7 on a sequence of acquired images 13, to predict the evolution of the position of the object 7 in time, to extract the characteristics of the object 7 (distance, orientation, size, speed, etc.), to be calculated the time remaining before a potential collision between the object 7 and the vehicle 3.
  • the plurality of algorithms also includes sampling algorithms for sampling the acquired image 13 and thus reduce the volume of data to be processed thereafter.
  • the image acquisition unit 11 acquires the image 13 of the environment located at the front of the vehicle 3.
  • the dataset includes a first set of data and a second set of data.
  • the first set of data here represents a first image portion 19 relating to a first part of the environment.
  • the second data set represents a second image part 21 relating to a second part of the environment.
  • said first and second picture portions 19, 21 have pixel coordinates stored in the picture unit. memory 17.
  • the first picture portion 19 corresponds to the display area 5 of the head-up display, which corresponds as already indicated to at least one party.
  • the display area 5 is the area on which the information 2 is superimposed on the environment and therefore the area for which the image analysis acquired 13 benefits the driver the most.
  • the second image portion 21 includes a peripheral zone surrounding the first image portion 19.
  • the acquired image 13 is transmitted to the electronic processing unit 15.
  • the electronic processing unit 15 applies a first processing process on the first part of image 19 at a first moment h. More specifically, the first process is applied to the pixels of the first image portion 19.
  • the first process may comprise in practice a single first algorithm or a plurality of first algorithms.
  • the first process uses, for example, an algorithm for detecting whether an object 7 located in the environment of the vehicle 3 is located more precisely in the solid angle corresponding to the zone d. display 5.
  • the first process implements a second algorithm making it possible to extract a first subset of data 719 corresponding to the object 7 in the first part of picture 19.
  • the electronic processing unit 15 applies the second process to the pixels of the second image portion 21.
  • the electronic processing unit 15 applies the first process to the pixels of the second image portion 21 at a second instant I2 distinct from the first moment h, the first moment h being anterior to second moment I2.
  • the first image portion 19 is processed in priority, which allows a rapid display of information 2 obtained through the first process.
  • the first process implements the algorithm for detecting whether an object 7 located in the environment of the vehicle 3 is more precisely out of the solid angle corresponding to the display area 5.
  • the first process makes it possible to extract a second subset of data 721 corresponding to the object 7 in the second image portion 21 .
  • the driver assistance system 1 projects the information 2 on the display area 5 which allows the driver to view them as virtual images.
  • the information 2 is projected so that it appears superimposed on the objects 7 in the environment of the vehicle 3.
  • the information 2 contains for example a symbol or a contour which, superimposed on the object 7 or placed nearby, to emphasize its presence. This information 2 is particularly relevant in the case of objects 7 difficult to see by the driver.
  • the electronic processing unit 15 applies at the first instant h a second distinct process of the first process to the pixels of the second image portion 21.
  • the second process may comprise a single second algorithm or a plurality of second algorithms.
  • the plurality of second algorithms may comprise one or more of the plurality of first algorithms.
  • This embodiment is particularly advantageous when an object 7 is detected in the environment of the vehicle 3.
  • the electronic processing unit 15 can then apply a plurality of algorithms to the first subassembly 719 or the second subassembly 721 in order to measuring a plurality of features of the object 7.
  • the electronic processing unit 15 can apply a first number of first algorithms to the pixels of the first subset 719, and a second number of second pixel algorithms of the second subset 721.
  • the first number of first algorithms is greater than the second number of second algorithms, so more information 2 is obtained on a first subset 719 (for example the size, distance, nature, etc. of the object 7 qu 'it represents) only on a second subset 721 (for example only the distance)
  • the data processing method makes it possible to reduce the number of operations performed by the electronic processing unit 15.
  • the first process and the second process comprise a sampling of the pixels of the acquired image 13. During this sampling, the second image portion 21 is subsampled with respect to the first part of the image. image 19. Only the sampled pixels will subsequently be processed according to other algorithms. This makes it possible to reduce the volume of data to be processed and thus accelerate the image processing while reducing the necessary electronic resources.
  • the sampling is for example implemented by the electronic processing unit 15.
  • the sampling comprises a spatial sampling of the pixels.
  • the pixels of the first image portion 19 are sampled according to a first spatial sampling rate tsi.
  • the pixels of the second image portion 21 are sampled according to a second spatial sampling rate t S 2.
  • the first spatial sampling rate tsi is greater than the second spatial sampling rate t S 2, so the resolution of the first sampled image portion is greater than the resolution of the second sampled image portion.
  • the first spatial sampling rate tsi is equal to 1
  • the second spatial sampling rate t S 2 is equal to 1/2, 1/3, 1/4, and so on.
  • the size of an object 7 corresponding to the first subset 719 is calculated more accurately than the size of an object 7 corresponding to the second subset 721 (this size can then be underestimated or overestimated).
  • the volume of data to be processed is reduced and thus the number of operations to be performed to obtain the data.
  • information 2 relating to the environment of the vehicle 3, while maintaining good accuracy in the relevant information 2.
  • the sampling comprises a temporal sampling of the pixels.
  • the pixels of the first image portion 19 are sampled according to a first temporal sampling rate tu.
  • the pixels of the second image portion 21 are sampled according to a second temporal sampling rate te.
  • the first temporal sampling rate ⁇ is greater than the second temporal sampling rate te, thus the information 2 obtained is updated more frequently for the first image portion 19 than for the second image portion 21.
  • the first temporal sampling rate is equal to 1
  • the second temporal sampling rate is equal to 1/2, 1/3, 1/4, and so on.
  • the position of an object 7 corresponding to the first subset 719 is calculated on all the first parts of images 19 when the first rate of temporal sampling you are equal to 1.
  • the position of an object 7 corresponding to the second subset 721 is calculated on one of a second image portion over two when the second temporal sampling rate is equal to 1/2.
  • the position of the object 7 corresponding to the first subset 719 is known with precision in time, which allows for example a precise tracking of said first object 719.
  • the tracking of the object 7 corresponding to the second subassembly 721 is less accurate.
  • the volume of data to be processed is reduced and thus the number of operations to be performed to obtain the information 2 relating to the environment of the vehicle 3.
  • the second image portion 21 may comprise a plurality of zones, for example a first zone and a second zone.
  • the zones of the second image portion 21 form peripheral zones 21 1, 213 arranged concentrically around the first image portion 19, as shown in FIG. 3.
  • a first peripheral zone 21 1 surrounds the first image portion 19 and a second peripheral zone 213 surrounds the first peripheral zone 21 1.
  • the first image portion 19 is processed at the first moment h
  • the first peripheral zone 21 1 is processed at the second instant I2 distinct from the first instant
  • the second peripheral zone 213 is processed at a first time.
  • the third instant I3 is later than the second instant I2, the second instant I2 being itself later than the first instant h.
  • the third number of third algorithms applied to the second peripheral zone 213 is smaller than the second number of second algorithms applied to the first peripheral zone 21 1.
  • the second number of algorithms applied to the first peripheral zone 21 1 is lower than the first number of first algorithms applied to the first image portion 19.
  • the spatial sampling rates ts and the temporal sampling rates tt decrease as a function of the distance of the first image portion 19.
  • all images are selected for the first image portion 19, only every other image is selected for the first peripheral area 21 1, and one of every four images is selected for the second peripheral area 213.
  • the extracted information 2 peripheral zones 21 1, 213 are therefore less precise than those of the first part picture 19.
  • FIG. 4 illustrates the positions 7N, 7N + I, 7N + 2, 7N + 3 of an object 7 on a superposition of an acquired image sequence N, N + 1, N + 2, N + 3.
  • the initial position represents the object 7 on an initial image N etc.
  • the object 7, for example a pedestrian, is first detected at a first position 7N in the second peripheral zone 213 of the first acquired image N.
  • the second peripheral zone 213 has a temporal sampling rate t S 2i3 is equal to 1/4, then the second position 7N + I of the object 7 will not be known on the second captured image N + 1 . Indeed, the object 7 is always in the second peripheral zone 213.
  • the temporal sampling rate ts2n of the first peripheral zone is equal to 1/2.
  • the object 7 has entered the first peripheral zone 21 1.
  • the object 7 is thus detected at a third position 7 N + 2 in the first peripheral zone 21 1 on the third acquired image N + 2.
  • the object 7 enters the first image part 19, and its fourth position 7N + 3 can be detected on the fourth acquired image N + 3.
  • the driver assistance system 1 comprises a hybrid detection device.
  • the hybrid detection device comprises multiple sensors.
  • the hybrid detection device comprises a device telemetry device 23 for measuring a distance between the object 7 and the vehicle 3.
  • the telemetry device 23 comprises for example a lidar (according to the Anglo-Saxon acronym "Llght Detection And Ranging”), or a radar. Said telemetry device 23 is able to emit an electromagnetic wave and to acquire the electromagnetic wave reflected by the object 7 present in a detection field of the telemetry device 23. The distance between the object 7 and the vehicle 3 is then calculated by measuring a flight time of the light wave or of the radio wave reflected by this object 7, this flight time being obtained from the echo signal captured by this lidar or radar.
  • a lidar accordinging to the Anglo-Saxon acronym "Llght Detection And Ranging”
  • radar a radar
  • each image portion is determined as a set of pixels corresponding to objects located over a certain range of distances as measured by the telemetry device 23. (Each image portion can then be be formed of disjoint subparts.)
  • the first image portion 19 may comprise all the pixels corresponding to objects situated at a measured distance less than a threshold value (for example of 20 m).
  • the telemetry device 23 makes it possible to determine a first image portion 19 of reduced size and thus to increase the speed of the process and to reduce the number of operations.
  • a plurality of objects 7 is detected by telemetry, each object 7 being at a different distance from the vehicle 3.
  • the first image portion 19 then corresponds to the first set of pixels representing an object, or to a plurality of pixels. sets of pixels representing a plurality of objects, being at a distance less than the threshold value.
  • the second image portion 21 then corresponds to the second set of pixels representing an object, or to a plurality of sets of pixels representing a plurality of objects, being at a distance greater than the threshold value. .
  • a plurality of threshold values can be stored in the memory unit 17 of the vehicle.
  • the second image portion 21 may comprise a plurality of defined areas according to the threshold values.
  • the first zone of the second image portion 21 includes the pixel set (s) representing one or more objects located between 20 m and 30 m of the vehicle 3.
  • the second zone corresponds to the third set of pixels representing one or more objects located more than 30 m from the vehicle 3 etc.
  • This fourth embodiment can be combined with the other embodiments and their variants.
  • the processes applied to the first image portion 19, the first zone and the second zone may be such as those previously described.
  • the information 2 corresponding to the object closest to the vehicle 3 can be displayed in priority.
  • the telemetry device 23 can furthermore make it possible to confirm certain information 2 obtained by means of the image acquisition unit 11, for example the distance between the object 7 and the vehicle 3.
  • the display step d) is performed as previously described.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Vehicle Engines Or Engines For Specific Uses (AREA)

Abstract

The invention relates to a method of processing data for system for aiding the driving (1) of a vehicle (3) comprising steps as follows: a) acquisition of a set of data which relate to the environment of the vehicle, said set of data comprising a first set of data which relate to a first part of the environment of the vehicle and a second set of data which relate to a second part of the environment of the vehicle, b) processing of the first set of data according to a first process and at a first instant, c) processing of the second set of data according to a second process distinct from the first process or at a second instant distinct from the first instant. Such a system for aiding driving is also described.

Description

PROCEDE DE TRAITEMENT DE DONNEES POUR SYSTEME D'AIDE A LA CONDUITE D'UN VEHICULE ET SYSTEME D'AIDE A LA CONDUITE ASSOCIE  DATA PROCESSING METHOD FOR VEHICLE DRIVER ASSISTANCE SYSTEM AND DRIVING ASSISTANCE SYSTEM
DOMAINE TECHNIQUE AUQUEL SE RAPPORTE L'INVENTION La présente invention concerne de manière générale le domaine du traitement des données acquises par un capteur. TECHNICAL FIELD TO WHICH THE INVENTION RELATES The present invention generally relates to the field of processing data acquired by a sensor.
Elle concerne plus particulièrement un procédé de traitement de données acquises par le capteur d'un système d'aide à la conduite d'un véhicule et un tel système d'aide à la conduite.  It relates more particularly to a method of processing data acquired by the sensor of a vehicle driving assistance system and such a driving assistance system.
ARRIERE-PLAN TECHNOLOGIQUE  BACKGROUND
Il est connu d'équiper les véhicules d'un système d'aide à la conduite permettant d'analyser l'environnement du véhicule et de fournir au conducteur des informations lui facilitant la conduite.  It is known to equip vehicles with a driving assistance system for analyzing the environment of the vehicle and provide the driver with information to facilitate driving.
De tels systèmes d'aide à la conduite comprennent généralement un capteur de données, de type caméra vidéo, apte à acquérir des images de l'environnement du véhicule, une unité de traitement apte à appliquer des algorithmes de traitement aux données acquises afin d'en extraire les informations pertinentes, ainsi qu'une unité d'affichage permettant au conducteur de visualiser les informations extraites.  Such driving assistance systems generally comprise a data sensor, of the video camera type, capable of acquiring images of the vehicle environment, a processing unit able to apply processing algorithms to the data acquired in order to extract the relevant information, and a display unit allowing the driver to view the extracted information.
Cependant, la quantité de données à traiter ainsi que la complexité croissante des algorithmes de traitement utilisés nécessitent des ressources matérielles puissantes (microprocesseur, mémoire, etc.).  However, the amount of data to be processed as well as the increasing complexity of the processing algorithms used require powerful hardware resources (microprocessor, memory, etc.).
Il est par ailleurs souhaitable dans certains cas de procéder à l'affichage des informations pertinentes rapidement après l'acquisition des données (si possible quasiment en temps réel).  It is also desirable in some cases to display the relevant information quickly after data acquisition (if practically in real time).
OBJET DE L'INVENTION  OBJECT OF THE INVENTION
Dans ce contexte, la présente invention propose un procédé de traitement de données pour système d'aide à la conduite d'un véhicule comprenant une étape d'acquisition d'un ensemble de données relatives à l'environnement du véhicule, ledit ensemble de données comprenant un premier ensemble de données relatives à une première partie de l'environnement du véhicule et un deuxième ensemble de données relatives à une deuxième partie de l'environnement du véhicule,  In this context, the present invention proposes a data processing method for a vehicle driving assistance system comprising a step of acquiring a set of data relating to the environment of the vehicle, said set of data comprising a first set of data relating to a first part of the vehicle environment and a second set of data relating to a second part of the vehicle environment,
Selon l'invention, le procédé comprend en outre des étapes de : - traitement du premier ensemble de données selon un premier processus et à un premier instant, According to the invention, the method further comprises steps of: processing the first set of data according to a first process and at a first instant,
- traitement du deuxième ensemble de données selon un deuxième processus distinct du premier processus ou à un deuxième instant distinct du premier instant.  processing the second set of data according to a second process distinct from the first process or at a second instant distinct from the first instant.
En distinguant plusieurs ensemble de données et en leur appliquant des traitements différents et/ou à des instants différents, le système d'aide à la conduite permet de réduire le volume de données traitées et d'augmenter la rapidité d'affichage des informations obtenues. En effet, le système permet d'allouer plus de ressources matérielles au traitement d'ensemble de données permettant d'obtenir les informations les plus pertinentes qu'à celles contenant peu d'intérêt.  By distinguishing several data sets and applying different treatments and / or at different times, the driver assistance system makes it possible to reduce the volume of processed data and to increase the speed of display of the information obtained. Indeed, the system makes it possible to allocate more material resources to the data set processing to obtain the most relevant information than to those containing little interest.
D'autres caractéristiques non limitatives et avantageuses du procédé conforme à l'invention, prises individuellement ou selon toutes les combinaisons techniquement possibles, sont les suivantes :  Other nonlimiting and advantageous features of the process according to the invention, taken individually or in any technically possible combination, are as follows:
- le deuxième ensemble de données est traité au deuxième instant et le deuxième instant est postérieur au premier instant,  the second set of data is processed at the second instant and the second instant is after the first instant,
- le premier processus comprend un échantillonnage du premier ensemble de données selon un premier taux d'échantillonnage,  the first process comprises sampling the first set of data according to a first sampling rate,
- le deuxième processus comprend un échantillonnage du deuxième ensemble de données selon un deuxième taux d'échantillonnage, le premier taux d'échantillonnage étant supérieur au deuxième taux d'échantillonnage,  the second process comprises sampling the second set of data according to a second sampling rate, the first sampling rate being greater than the second sampling rate,
- l'échantillonnage du premier ensemble de données et l'échantillonnage du deuxième ensemble de données sont des échantillonnages spatiaux,  - the sampling of the first set of data and the sampling of the second set of data are spatial sampling,
- l'échantillonnage du premier ensemble de données et l'échantillonnage du deuxième ensemble de données sont des échantillonnages temporels,  the sampling of the first set of data and the sampling of the second set of data are time sampling,
- le procédé comprend en outre une étape de détection d'un objet se trouvant dans l'environnement du véhicule et/ou une étape de détermination d'un sous-ensemble de données correspondant audit objet dans l'ensemble de données,  the method further comprises a step of detecting an object in the vehicle environment and / or a step of determining a subset of data corresponding to said object in the data set,
- un nombre d'algorithmes est appliqué au sous-ensemble de données, et dans lequel ledit nombre d'algorithmes est fonction d'une localisation de l'objet,  a number of algorithms is applied to the subset of data, and in which said number of algorithms is a function of a location of the object,
- la localisation de l'objet comprend une appartenance du sous-ensemble de données au premier ensemble de données (le sous-ensemble de données formant alors un premier sous-ensemble de données), ou au second ensemble de données (le sous-ensemble de données formant alors un deuxième sous- ensemble de données), the location of the object comprises a membership of the subset of data to the first set of data (the subset of data then forming a first subset of data), or the second set of data (the subset of data then forming a second subset of data),
- un premier nombre d'algorithme(s) est appliqué audit premier sous- ensemble de données,  a first number of algorithm (s) is applied to said first subset of data,
- un deuxième nombre d'algorithme(s) est appliqué audit deuxième sous- ensemble de données, le premier nombre d'algorithmes étant supérieur au deuxième nombre d'algorithmes,  a second number of algorithm (s) is applied to said second subset of data, the first number of algorithms being greater than the second number of algorithms,
- la localisation de l'objet comprend une distance entre l'objet et le véhicule,  the location of the object comprises a distance between the object and the vehicle,
- la distance est mesurée grâce à un dispositif de télémétrie,  - the distance is measured thanks to a telemetry device,
- le procédé comprend en outre une étape de superposition d'une information obtenue par le traitement du premier ensemble de données à l'objet au moyen d'un afficheur tête-haute (par exemple un afficheur tête haute à réalité augmentée),  the method further comprises a step of superposition of information obtained by the processing of the first set of data to the object by means of a head-up display (for example a head-up display with augmented reality),
- l'ensemble de données acquises représente une image acquise, the acquired data set represents an acquired image,
- le premier ensemble de données représente une première partie d'image, the first set of data represents a first image part,
- la première partie d'image correspond à une zone d'affichage du système d'aide à la conduite.  the first image part corresponds to a display area of the driver assistance system.
L'invention propose également un système d'aide à la conduite pour véhicule comprenant :  The invention also proposes a vehicle assistance system comprising:
- un capteur adapté à acquérir un ensemble de données relatives à l'environnement du véhicule, ledit ensemble de données comprenant un premier ensemble de données relatives à une première partie de l'environnement du véhicule et un deuxième ensemble de données relatives à une deuxième partie de l'environnement du véhicule,  a sensor adapted to acquiring a set of data relating to the environment of the vehicle, said set of data comprising a first set of data relating to a first part of the environment of the vehicle and a second set of data relating to a second part the environment of the vehicle,
- une unité de traitement électronique apte à traiter le premier ensemble de données selon un premier processus et à un premier instant, et apte à traiter le deuxième ensemble de données selon un deuxième processus distinct du premier processus ou à un deuxième instant distinct du premier instant.  an electronic processing unit able to process the first set of data according to a first process and at a first instant, and able to process the second set of data according to a second process distinct from the first process or at a second instant distinct from the first instant; .
D'autres caractéristiques non limitatives et avantageuses du système conforme à l'invention, prises individuellement ou selon toutes les combinaisons techniquement possibles, sont les suivantes : - le système comprend un afficheur tête haute (par exemple un afficheur tête haute à réalité augmentée), Other nonlimiting and advantageous features of the system according to the invention, taken individually or in any technically possible combination, are as follows: the system comprises a head-up display (for example a head-up display with augmented reality),
- l'unité de traitement électronique est apte à produire une information au moyen du premier processus,  the electronic processing unit is able to produce information by means of the first process,
- ledit afficheur tête haute (à réalité augmentée) est apte à superposer ladite information à un objet se trouvant dans l'environnement du véhicule.  said head-up display (augmented reality) is capable of superimposing said information on an object in the environment of the vehicle.
DESCRIPTION DÉTAILLÉE D'UN EXEMPLE DE RÉALISATION La description qui va suivre en regard des dessins annexés, donnés à titre d'exemples non limitatifs, fera bien comprendre en quoi consiste l'invention et comment elle peut être réalisée.  DETAILED DESCRIPTION OF AN EXEMPLARY EMBODIMENT The following description with reference to the accompanying drawings, given by way of non-limiting examples, will make it clear what the invention consists of and how it can be implemented.
Sur les dessins annexés :  In the accompanying drawings:
- la figure 1 représente schématiquement, un véhicule vu de dessus équipé d'un système d'aide à la conduite,  FIG. 1 schematically represents a vehicle seen from above equipped with a driving assistance system,
- la figure 2 représente schématiquement une image acquise par le système d'aide à la conduite et traitée au moyen du procédé de traitement de données conforme à l'invention,  FIG. 2 schematically represents an image acquired by the driver assistance system and processed by means of the data processing method according to the invention,
- la figure 3 représente schématiquement une image acquise par le système d'aide à la conduite et traitée selon une variante du procédé de traitement de données, et  FIG. 3 schematically represents an image acquired by the driver assistance system and processed according to a variant of the data processing method, and
- la figure 4 représente schématiquement une image acquise par le système d'aide à la conduite et traitée selon une autre variante du procédé de traitement de données.  - Figure 4 shows schematically an image acquired by the driver assistance system and processed according to another variant of the data processing method.
Sur la figure 1 , on a représenté schématiquement les principaux éléments d'un système d'aide à la conduite 1 destiné à équiper un véhicule 3, par exemple un véhicule automobile, un train, un bateau tel qu'une péniche, un tramway ou un bus, pour en faciliter la conduite.  FIG. 1 diagrammatically shows the main elements of a driving assistance system 1 intended to equip a vehicle 3, for example a motor vehicle, a train, a boat such as a barge, a tramway or a bus, to facilitate driving.
Ce système d'aide à la conduite 1 comprend ici un afficheur tête-haute. L'afficheur tête-haute comprend une source de lumière, une unité de projection et une lame partiellement transparente. La lame partiellement transparente sert de zone d'affichage 5 (voir figure 2) et permet l'affichage d'une information 2 relative au véhicule 3 et/ou à son environnement sous forme d'image virtuelle. Ces éléments de l'afficheur tête-haute sont connus de l'homme du métier et ne seront pas décrits plus en détails.  This driving assistance system 1 here comprises a head-up display. The head-up display includes a light source, a projection unit and a partially transparent blade. The partially transparent plate serves as a display area 5 (see FIG. 2) and makes it possible to display information 2 relating to the vehicle 3 and / or its environment in the form of a virtual image. These elements of the head-up display are known to those skilled in the art and will not be described in more detail.
Le système d'aide à la conduite 1 décrit ici est particulièrement avantageux quand l'afficheur tête-haute susmentionné est un afficheur tête-haute à réalité augmentée. Un tel afficheur tête-haute à réalité augmentée permet de superposer (pour le conducteur du véhicule) la ou les information(s) affichée(s) 2 à un objet 7 (piéton, animal, autre véhicule, etc.) situé face au véhicule 3. The driver assistance system 1 described here is particularly advantageous when the aforementioned head-up display is a head-up display augmented reality. Such an augmented-reality head-up display makes it possible to superpose (for the driver of the vehicle) the information (s) displayed (s) 2 to an object (pedestrian, animal, other vehicle, etc.) located in front of the vehicle. 3.
Pour cela, la lame partiellement transparente comprend par exemple le pare-brise 9 du véhicule 3, et la zone d'affichage 5 peut alors s'étendre sur une partie au moins dudit pare-brise 9.  For this, the partially transparent blade comprises for example the windshield 9 of the vehicle 3, and the display zone 5 can then extend over at least part of said windshield 9.
Le système d'aide à la conduite 1 comprend en outre un dispositif de détection. Ledit dispositif de détection comprend typiquement un capteur adapté à acquérir un ensemble de données relatives à l'environnement du véhicule 3. Le capteur comprend par exemple une unité d'acquisition d'images 1 1 , par exemple une caméra vidéo. Dans ce cas, l'ensemble de données relatives à l'environnement représente une image acquise 13 (voir figure 2) et/ou une séquence d'images 13. L'image acquise 13 comprend une pluralité de pixels, agencés généralement sous forme d'une matrice de pixels.  The driver assistance system 1 further comprises a detection device. Said detection device typically comprises a sensor adapted to acquire a set of data relating to the environment of the vehicle 3. The sensor comprises for example an image acquisition unit 11, for example a video camera. In this case, the set of data relating to the environment represents an acquired image 13 (see FIG. 2) and / or a sequence of images 13. The acquired image 13 comprises a plurality of pixels, generally arranged in the form of a matrix of pixels.
L'unité d'acquisition d'image 1 1 est disposée à l'avant du véhicule 3, par exemple au niveau du rétroviseur intérieur (central) du véhicule 3. L'unité d'acquisition d'image 1 1 présente un angle de champ 1 1 1 qui s'étend face au véhicule 3. De manière avantageuse, l'angle de champ 1 1 1 couvre l'angle solide correspondant au pare-brise 9 du véhicule (tel que vu depuis le conducteur) et s'étend au-delà de l'angle solide correspondant audit pare-brise 9.  The image acquisition unit 11 is arranged at the front of the vehicle 3, for example at the interior (central) rearview mirror of the vehicle 3. The image acquisition unit 11 has an angle of field 1 1 1 which extends facing the vehicle 3. Advantageously, the angle of view 1 1 1 covers the solid angle corresponding to the windshield 9 of the vehicle (as seen from the driver) and extends beyond the solid angle corresponding to said windscreen 9.
Le système d'aide à la conduite 1 comprend en outre une unité de traitement électronique 15. L'unité de traitement électronique 15 est programmée pour traiter des données de l'image acquise 13.  The driver assistance system 1 further comprises an electronic processing unit 15. The electronic processing unit 15 is programmed to process data of the acquired image 13.
Ce traitement comprend au moins un algorithme sélectionné parmi une pluralité d'algorithmes. Ladite pluralité d'algorithmes est mémorisée par le système d'aide à la conduite 1 , par exemple dans une unité de mémoire 17.  This processing comprises at least one algorithm selected from a plurality of algorithms. Said plurality of algorithms is stored by the driver assistance system 1, for example in a memory unit 17.
La pluralité d'algorithmes comprend par exemple des algorithmes aptes à obtenir des informations 2 sur l'image acquise 13, par exemple détecter la présence ou l'absence d'un objet 7, à identifier l'objet 7, à suivre l'objet 7 sur une séquence d'images acquises 13, à prédire l'évolution de la position de l'objet 7 dans le temps, à extraire des caractéristiques de l'objet 7 (distance, orientation, taille, vitesse etc.), à calculer le temps restant avant une potentielle collision entre l'objet 7 et le véhicule 3. La pluralité d'algorithmes comprend aussi des algorithmes d'échantillonnage permettant d'échantillonner l'image acquise 13 et ainsi de réduire le volume de données à traiter par la suite. The plurality of algorithms comprises, for example, algorithms capable of obtaining information 2 on the acquired image 13, for example detecting the presence or the absence of an object 7, identifying the object 7, following the object 7 on a sequence of acquired images 13, to predict the evolution of the position of the object 7 in time, to extract the characteristics of the object 7 (distance, orientation, size, speed, etc.), to be calculated the time remaining before a potential collision between the object 7 and the vehicle 3. The plurality of algorithms also includes sampling algorithms for sampling the acquired image 13 and thus reduce the volume of data to be processed thereafter.
On décrit à présent en référence aux figures 2 à 4 différents exemples possibles pour le procédé de traitement d'image mise en œuvre par le système d'aide à la conduite 1 du véhicule 3.  2 to 4 different examples are described below for the image processing method implemented by the driving assistance system 1 of the vehicle 3.
De manière générale, lors d'une étape a) d'acquisition de l'ensemble de données, l'unité d'acquisition d'image 1 1 acquiert l'image 13 de l'environnement situé à l'avant du véhicule 3.  In a general step, during a step a) of acquiring the set of data, the image acquisition unit 11 acquires the image 13 of the environment located at the front of the vehicle 3.
L'ensemble de données comprend un premier ensemble de données et un deuxième ensemble de données. Le premier ensemble de données représente ici une première partie d'image 19 relative à une première partie de l'environnement. Le deuxième ensemble de données représente quant à lui une deuxième partie d'image 21 relative à une deuxième partie de l'environnement.  The dataset includes a first set of data and a second set of data. The first set of data here represents a first image portion 19 relating to a first part of the environment. The second data set represents a second image part 21 relating to a second part of the environment.
Dans certains des exemples décrits ci-dessous, afin de distinguer la première partie d'image 19 de la deuxième partie d'image 21 , lesdites première et deuxième parties d'image 19, 21 présentent des coordonnées en pixels mémorisées dans l'unité de mémoire 17.  In some of the examples described below, in order to distinguish the first picture portion 19 from the second picture portion 21, said first and second picture portions 19, 21 have pixel coordinates stored in the picture unit. memory 17.
Dans le cas d'un afficheur tête-haute (éventuellement à réalité augmentée), la première partie d'image 19 correspond à la zone d'affichage 5 de l'afficheur tête-haute, laquelle correspond comme déjà indiqué à une partie au moins du pare-brise 9 du véhicule 3.  In the case of a head-up display (possibly with augmented reality), the first picture portion 19 corresponds to the display area 5 of the head-up display, which corresponds as already indicated to at least one party. windshield 9 of the vehicle 3.
C'est ici sur cette première partie d'image 19 que l'obtention rapide d'informations 2 relatives à l'environnement est souhaitée. En effet, dans le cas d'un afficheur tête-haute à réalité augmentée, la zone d'affichage 5 est la zone sur laquelle les informations 2 se superposent à l'environnement et donc la zone pour laquelle l'analyse de l'image acquise 13 bénéficie le plus au conducteur.  It is here on this first part of image 19 that the rapid obtaining of information 2 relating to the environment is desired. Indeed, in the case of a head-up display augmented reality, the display area 5 is the area on which the information 2 is superimposed on the environment and therefore the area for which the image analysis acquired 13 benefits the driver the most.
La deuxième partie d'image 21 comprend une zone périphérique entourant la première partie d'image 19.  The second image portion 21 includes a peripheral zone surrounding the first image portion 19.
L'image acquise 13 est transmise à l'unité de traitement électronique 15. Lors d'une étape b) de traitement de la première partie d'image 19, l'unité de traitement électronique 15 applique un premier processus de traitement sur la première partie d'image 19 à un premier instant h. Plus précisément, le premier processus est appliqué aux pixels de la première partie d'image 19. Le premier processus peut comprendre en pratique un seul premier algorithme ou une pluralité de premiers algorithmes. The acquired image 13 is transmitted to the electronic processing unit 15. In a step b) of processing the first image portion 19, the electronic processing unit 15 applies a first processing process on the first part of image 19 at a first moment h. More specifically, the first process is applied to the pixels of the first image portion 19. The first process may comprise in practice a single first algorithm or a plurality of first algorithms.
Lors d'une sous-étape de détection, le premier processus met par exemple en œuvre un algorithme permettant de détecter si un objet 7 se trouvant dans l'environnement du véhicule 3 se trouve plus précisément dans l'angle solide correspondant à la zone d'affichage 5.  During a detection sub-step, the first process uses, for example, an algorithm for detecting whether an object 7 located in the environment of the vehicle 3 is located more precisely in the solid angle corresponding to the zone d. display 5.
Puis, lors d'une sous-étape de détermination, si un objet 7 a été détecté, le premier processus met en œuvre un deuxième algorithme permettant d'extraire un premier sous-ensemble de données 719 correspondant à l'objet 7 dans la première partie d'image 19.  Then, during a sub-step of determining, if an object 7 has been detected, the first process implements a second algorithm making it possible to extract a first subset of data 719 corresponding to the object 7 in the first part of picture 19.
Lors d'une étape c) de traitement de la deuxième partie d'image 21 , l'unité de traitement électronique 15 applique le deuxième processus aux pixels de la deuxième partie d'image 21 .  In a step c) of processing the second image portion 21, the electronic processing unit 15 applies the second process to the pixels of the second image portion 21.
Selon un premier mode de réalisation de l'invention, l'unité de traitement électronique 15 applique le premier processus aux pixels de la deuxième partie d'image 21 à un deuxième instant I2 distinct du premier instant h, le premier instant h étant antérieur au deuxième instant I2. Ainsi la première partie d'image 19 est traitée en priorité, ce qui permet un affichage rapide des informations 2 obtenues grâce au premier processus.  According to a first embodiment of the invention, the electronic processing unit 15 applies the first process to the pixels of the second image portion 21 at a second instant I2 distinct from the first moment h, the first moment h being anterior to second moment I2. Thus the first image portion 19 is processed in priority, which allows a rapid display of information 2 obtained through the first process.
On comprend que l'on propose dans ce premier mode de réalisation d'appliquer le même premier processus aux pixels de la première partie d'image 19 et de la deuxième partie d'image 21 (mais à des instants distincts).  It is understood that it is proposed in this first embodiment to apply the same first process to the pixels of the first image portion 19 and the second image portion 21 (but at different times).
Pour reprendre les algorithmes précédemment donnés en exemple, lors d'une sous-étape de détection, le premier processus met en œuvre l'algorithme permettant de détecter si un objet 7 se trouvant dans l'environnement du véhicule 3 se trouve plus précisément hors de l'angle solide correspondant à la zone d'affichage 5.  To resume the previously exemplary algorithms, during a detection sub-step, the first process implements the algorithm for detecting whether an object 7 located in the environment of the vehicle 3 is more precisely out of the solid angle corresponding to the display area 5.
Puis, lors d'une sous-étape de détermination, si un objet 7 a été détecté, le premier processus permet de d'extraire un deuxième sous-ensemble de données 721 correspondant à l'objet 7 dans la deuxième partie d'image 21 .  Then, during a sub-step of determining, if an object 7 has been detected, the first process makes it possible to extract a second subset of data 721 corresponding to the object 7 in the second image portion 21 .
Enfin, lors d'une étape d) d'affichage, le système d'aide à la conduite 1 projette les informations 2 sur la zone d'affichage 5 ce qui permet au conducteur de les visualiser sous forme d'images virtuelles.  Finally, during a step d) of display, the driver assistance system 1 projects the information 2 on the display area 5 which allows the driver to view them as virtual images.
Dans le cas d'un afficheur tête-haute à réalité augmentée, les informations 2 sont projetées de telle sorte qu'elles apparaissent superposées aux objets 7 se trouvant dans l'environnement du véhicule 3. Selon l'exemple décrit, l'information 2 contient par exemple un symbole ou un contour qui, superposé à l'objet 7 ou placé à proximité, permet de souligner sa présence. Cette information 2 est particulièrement pertinente dans le cas d'objets 7 difficilement visibles par le conducteur. In the case of a head-up display with augmented reality, the information 2 is projected so that it appears superimposed on the objects 7 in the environment of the vehicle 3. According to the example described, the information 2 contains for example a symbol or a contour which, superimposed on the object 7 or placed nearby, to emphasize its presence. This information 2 is particularly relevant in the case of objects 7 difficult to see by the driver.
Quand ce premier mode de réalisation est mis en œuvre (seul ou en combinaison avec d'autres qui seront décrit par la suite), il est avantageux d'accomplir l'étape d'affichage à la fin du traitement selon le premier processus et avant d'initier le traitement selon le deuxième processus. Ainsi l'information 2 obtenue au moyen du premier processus peut être rapidement affichée au conducteur.  When this first embodiment is implemented (alone or in combination with others which will be described later), it is advantageous to perform the display step at the end of the processing according to the first process and before to initiate the treatment according to the second process. Thus the information 2 obtained by means of the first process can be quickly displayed to the driver.
On décrit à présent d'autres modes de réalisation des étapes b) et c) de traitement.  Other embodiments of the processing steps b) and c) are now described.
Selon un deuxième mode de réalisation, l'unité de traitement électronique 15 applique au premier instant h un deuxième processus distinct du premier processus aux pixels de la deuxième partie d'image 21 . Le deuxième processus peut comprendre un seul deuxième algorithme ou une pluralité de deuxièmes algorithmes. Dans le cas où l'unité de traitement électronique 15 applique une pluralité de deuxièmes algorithmes, la pluralité de deuxièmes algorithmes peut comprendre un ou plusieurs algorithmes de la pluralité de premiers algorithmes.  According to a second embodiment, the electronic processing unit 15 applies at the first instant h a second distinct process of the first process to the pixels of the second image portion 21. The second process may comprise a single second algorithm or a plurality of second algorithms. In the case where the electronic processing unit 15 applies a plurality of second algorithms, the plurality of second algorithms may comprise one or more of the plurality of first algorithms.
Ce mode de réalisation est particulièrement avantageux quand un objet 7 est détecté dans l'environnement du véhicule 3. L'unité de traitement électronique 15 peut alors appliquer une pluralité d'algorithmes au premier sous-ensemble 719 ou au deuxième sous ensemble 721 afin de mesurer une pluralité de caractéristiques de l'objet 7.  This embodiment is particularly advantageous when an object 7 is detected in the environment of the vehicle 3. The electronic processing unit 15 can then apply a plurality of algorithms to the first subassembly 719 or the second subassembly 721 in order to measuring a plurality of features of the object 7.
En effet, il est plus intéressant d'obtenir des informations 2 pour un premier sous-ensemble 719 que pour un deuxième sous-ensemble 721 . En effet, pour un tel deuxième sous-ensemble, aucune information 2 ne peut être superposée par l'afficheur tête-haute à réalité augmentée à l'objet 7 qu'il représente (ces objets 7 étant en dehors de l'angle solide correspondant à la zone d'affichage 5).  Indeed, it is more interesting to obtain information 2 for a first subset 719 than for a second subset 721. Indeed, for such a second subset, no information 2 can be superimposed by the head-up augmented reality display object 7 it represents (these objects 7 being outside the corresponding solid angle to the display area 5).
Par exemple, l'unité de traitement électronique 15 peut appliquer un premier nombre de premiers algorithmes aux pixels du premier sous-ensemble 719, et un deuxième nombre de deuxièmes algorithmes aux pixels du deuxième sous-ensemble 721 . Le premier nombre de premiers algorithmes est supérieur au deuxième nombre de deuxièmes algorithmes, ainsi on obtient plus d'informations 2 sur un premier sous-ensemble 719 (par exemple la taille, la distance, la nature, etc. de l'objet 7 qu'il représente) que sur un deuxième sous-ensemble 721 (par exemple seulement la distance) For example, the electronic processing unit 15 can apply a first number of first algorithms to the pixels of the first subset 719, and a second number of second pixel algorithms of the second subset 721. The first number of first algorithms is greater than the second number of second algorithms, so more information 2 is obtained on a first subset 719 (for example the size, distance, nature, etc. of the object 7 qu 'it represents) only on a second subset 721 (for example only the distance)
Ainsi le procédé de traitement de données permet de réduire le nombre d'opérations réalisées par l'unité de traitement électronique 15.  Thus, the data processing method makes it possible to reduce the number of operations performed by the electronic processing unit 15.
Selon un troisième mode de réalisation, le premier processus et le deuxième processus comprennent un échantillonnage des pixels de l'image acquise 13. Lors de cet échantillonnage, la deuxième partie d'image 21 est sous- échantillonnée par rapport à la première partie d'image 19. Seuls les pixels échantillonnés seront par la suite traités selon d'autres algorithmes. Ceci permet de réduire le volume de données à traiter et d'ainsi accélérer le traitement d'image tout en diminuant les ressources électroniques nécessaires.  According to a third embodiment, the first process and the second process comprise a sampling of the pixels of the acquired image 13. During this sampling, the second image portion 21 is subsampled with respect to the first part of the image. image 19. Only the sampled pixels will subsequently be processed according to other algorithms. This makes it possible to reduce the volume of data to be processed and thus accelerate the image processing while reducing the necessary electronic resources.
L'échantillonnage est par exemple mis en œuvre par l'unité de traitement électronique 15.  The sampling is for example implemented by the electronic processing unit 15.
Selon une première variante du troisième mode de réalisation, l'échantillonnage comprend un échantillonnage spatial des pixels. Les pixels de la première partie d'image 19 sont échantillonnés selon un premier taux d'échantillonnage spatial tsi . Les pixels de la deuxième partie d'image 21 sont échantillonnés selon un deuxième taux d'échantillonnage spatial tS2. According to a first variant of the third embodiment, the sampling comprises a spatial sampling of the pixels. The pixels of the first image portion 19 are sampled according to a first spatial sampling rate tsi. The pixels of the second image portion 21 are sampled according to a second spatial sampling rate t S 2.
Le premier taux d'échantillonnage spatial tsi est supérieur au deuxième taux d'échantillonnage spatial tS2, ainsi la résolution de la première partie d'image échantillonnée est supérieure à la résolution de la deuxième partie d'image échantillonnée. Par exemple le premier taux d'échantillonnage spatial tsi est égal à 1 , et le deuxième taux d'échantillonnage spatial tS2 est égal à 1 /2, 1 /3, 1 /4, etc. The first spatial sampling rate tsi is greater than the second spatial sampling rate t S 2, so the resolution of the first sampled image portion is greater than the resolution of the second sampled image portion. For example, the first spatial sampling rate tsi is equal to 1, and the second spatial sampling rate t S 2 is equal to 1/2, 1/3, 1/4, and so on.
Par exemple, quand l'algorithme appliqué permet de mesurer la taille d'un objet 7, la taille d'un objet 7 correspondant au premier sous-ensemble 719 est calculée avec plus de précision que la taille d'un objet 7 correspondant au deuxième sous-ensemble 721 (cette taille peut alors être sous-estimée ou surestimée).  For example, when the applied algorithm makes it possible to measure the size of an object 7, the size of an object 7 corresponding to the first subset 719 is calculated more accurately than the size of an object 7 corresponding to the second subset 721 (this size can then be underestimated or overestimated).
Grâce à ces différents taux d'échantillonnage, on réduit le volume de données à traiter et ainsi le nombre d'opérations à effectuer pour obtenir les informations 2 relatives à l'environnement du véhicule 3, tout en conservant une bonne précision dans les informations 2 pertinentes. Thanks to these different sampling rates, the volume of data to be processed is reduced and thus the number of operations to be performed to obtain the data. information 2 relating to the environment of the vehicle 3, while maintaining good accuracy in the relevant information 2.
Selon une deuxième variante du troisième mode de réalisation, l'échantillonnage comprend un échantillonnage temporel des pixels.  According to a second variant of the third embodiment, the sampling comprises a temporal sampling of the pixels.
Les pixels de la première partie d'image 19 sont échantillonnés selon un premier taux d'échantillonnage temporel tu . Les pixels de la deuxième partie d'image 21 sont échantillonnés selon un deuxième taux d'échantillonnage temporel te.  The pixels of the first image portion 19 are sampled according to a first temporal sampling rate tu. The pixels of the second image portion 21 are sampled according to a second temporal sampling rate te.
Le premier taux d'échantillonnage temporel tu est supérieur au deuxième taux d'échantillonnage temporel te, ainsi les informations 2 obtenues sont mises à jour plus fréquemment pour la première partie d'image 19 que pour la deuxième partie d'image 21 . Par exemple, le premier taux d'échantillonnage temporel tu est égal à 1 , et le deuxième taux d'échantillonnage temporel te est égal à 1 /2, 1 /3, 1 /4, etc.  The first temporal sampling rate τ is greater than the second temporal sampling rate te, thus the information 2 obtained is updated more frequently for the first image portion 19 than for the second image portion 21. For example, the first temporal sampling rate is equal to 1, and the second temporal sampling rate is equal to 1/2, 1/3, 1/4, and so on.
Par exemple, quand l'algorithme appliqué permet de mesurer la position d'un objet 7, la position d'un objet 7 correspondant au premier sous-ensemble 719 est calculée sur toutes les premières parties d'images 19 quand le premier taux d'échantillonnage temporel tu est égal à 1 . La position d'un objet 7 correspondant au deuxième sous-ensemble 721 est calculée une sur une deuxième partie d'image sur 21 deux quand le deuxième taux d'échantillonnage temporel te est égal à 1 /2.  For example, when the applied algorithm makes it possible to measure the position of an object 7, the position of an object 7 corresponding to the first subset 719 is calculated on all the first parts of images 19 when the first rate of temporal sampling you are equal to 1. The position of an object 7 corresponding to the second subset 721 is calculated on one of a second image portion over two when the second temporal sampling rate is equal to 1/2.
Ainsi, la position de l'objet 7 correspondant au premier sous-ensemble 719 est connue avec précision dans le temps, ce qui permet par exemple un suivi précis dudit premier objet 719. En revanche, le suivi de l'objet 7 correspondant au deuxième sous-ensemble 721 est moins précis.  Thus, the position of the object 7 corresponding to the first subset 719 is known with precision in time, which allows for example a precise tracking of said first object 719. In contrast, the tracking of the object 7 corresponding to the second subassembly 721 is less accurate.
En ne traitant pas la totalité des pixels de l'image acquise 13, on réduit le volume de données à traiter et ainsi le nombre d'opérations à effectuer pour obtenir les informations 2 relatives à l'environnement du véhicule 3.  By not treating all the pixels of the acquired image 13, the volume of data to be processed is reduced and thus the number of operations to be performed to obtain the information 2 relating to the environment of the vehicle 3.
Les différents modes de réalisation ainsi que les variantes peuvent être combinés entre eux afin de réduire encore plus le nombre d'opérations effectuées. Ainsi le procédé gagne en rapidité et le besoin en ressources matérielles nécessaires à sa mise en œuvre diminue.  The various embodiments as well as the variants can be combined with one another in order to further reduce the number of operations performed. Thus, the process becomes faster and the need for material resources necessary for its implementation decreases.
Selon un exemple avantageux illustré sur la figure 4, la deuxième partie d'image 21 peut comprendre une pluralité de zones, par exemple une première zone et une deuxième zone. Ici, les zones de la deuxième partie d'image 21 forment des zones périphériques 21 1 , 213 disposées de façon concentrique autour de la première partie d'image 19, comme représentées sur la figure 3. Selon cet exemple, une première zone périphérique 21 1 entoure la première partie d'image 19 et une deuxième zone périphérique 213 entoure la première zone périphérique 21 1 . According to an advantageous example illustrated in FIG. 4, the second image portion 21 may comprise a plurality of zones, for example a first zone and a second zone. Here, the zones of the second image portion 21 form peripheral zones 21 1, 213 arranged concentrically around the first image portion 19, as shown in FIG. 3. According to this example, a first peripheral zone 21 1 surrounds the first image portion 19 and a second peripheral zone 213 surrounds the first peripheral zone 21 1.
Selon cet exemple, plus la zone périphérique 21 1 , 213 est éloignée de la première partie d'image 19 et moins l'information 2 qu'elle contient est considérée importante.  According to this example, the more the peripheral zone 21 1, 213 is remote from the first image portion 19 and the less information 2 it contains is considered important.
Les modes de réalisation précédemment décrits ainsi que leurs variantes peuvent être appliqués aux zones périphériques 21 1 , 213 afin de réduire encore le nombre d'opérations effectuées et d'augmenter la rapidité de calcul et d'affichage d'informations 2 sur la zone d'affichage 5.  The previously described embodiments and their variants can be applied to the peripheral zones 21 1, 213 in order to further reduce the number of operations carried out and to increase the speed of calculation and display of information 2 on the zone d display 5.
Dans le cas du premier mode de réalisation, la première partie d'image 19 est traitée au premier instant h , la première zone périphérique 21 1 est traitée au deuxième instant I2 distinct du premier instant, et la deuxième zone périphérique 213 est traité à un troisième instant I3, ledit troisième instant étant distinct du premier instant h et du deuxième instant I2. De plus, le troisième instant I3 est postérieur au deuxième instant I2, le deuxième instant I2 étant lui-même postérieur au premier instant h.  In the case of the first embodiment, the first image portion 19 is processed at the first moment h, the first peripheral zone 21 1 is processed at the second instant I2 distinct from the first instant, and the second peripheral zone 213 is processed at a first time. third instant I3, said third instant being distinct from the first instant h and the second instant I2. Moreover, the third instant I3 is later than the second instant I2, the second instant I2 being itself later than the first instant h.
Dans le cas du deuxième mode de réalisation, le troisième nombre de troisièmes algorithmes appliqués à la deuxième zone périphérique 213 est inférieur au deuxième nombre de deuxièmes algorithmes appliqués sur la première zone périphérique 21 1 . Le deuxième nombre d'algorithmes appliqués sur la première zone périphérique 21 1 est quant à lui inférieur au premier nombre de premiers algorithmes appliqués sur la première partie d'image 19.  In the case of the second embodiment, the third number of third algorithms applied to the second peripheral zone 213 is smaller than the second number of second algorithms applied to the first peripheral zone 21 1. The second number of algorithms applied to the first peripheral zone 21 1 is lower than the first number of first algorithms applied to the first image portion 19.
Dans le cas du troisième mode de réalisation, les taux d'échantillonnage spatial ts et les taux d'échantillonnage temporel tt décroissent en fonction de l'éloignement de la première partie d'image 19.  In the case of the third embodiment, the spatial sampling rates ts and the temporal sampling rates tt decrease as a function of the distance of the first image portion 19.
Par exemple, toutes les images sont sélectionnées pour la première partie d'image 19, seulement une image sur deux est sélectionnée pour la première zone périphérique 21 1 , et une image sur quatre est sélectionnée pour la deuxième zone périphérique 213. Les informations 2 extraites des zones périphériques 21 1 , 213 sont donc moins précises que celles de la première partie d'image 19. For example, all images are selected for the first image portion 19, only every other image is selected for the first peripheral area 21 1, and one of every four images is selected for the second peripheral area 213. The extracted information 2 peripheral zones 21 1, 213 are therefore less precise than those of the first part picture 19.
La figure 4 illustre les positions 7N, 7N+I , 7 N+2, 7N+3 d'un objet 7 sur une superposition d'une séquence d'images acquises N, N+1 , N+2, N+3. Ainsi la position initiale représente l'objet 7 sur une image initiale N etc.  FIG. 4 illustrates the positions 7N, 7N + I, 7N + 2, 7N + 3 of an object 7 on a superposition of an acquired image sequence N, N + 1, N + 2, N + 3. Thus the initial position represents the object 7 on an initial image N etc.
L'objet 7, par exemple un piéton, est tout d'abord détecté à une première position 7N dans la deuxième zone périphérique 213 de la première image acquise N.  The object 7, for example a pedestrian, is first detected at a first position 7N in the second peripheral zone 213 of the first acquired image N.
Dans cet exemple, la deuxième zone périphérique 213 présente un taux d'échantillonnage temporel tS2i3 est égal à 1/4, alors la deuxième position 7N+I de l'objet 7 ne sera pas connue sur la deuxième image capturée N+1 . En effet, l'objet 7 est toujours dans la deuxième zone périphérique 213. In this example, the second peripheral zone 213 has a temporal sampling rate t S 2i3 is equal to 1/4, then the second position 7N + I of the object 7 will not be known on the second captured image N + 1 . Indeed, the object 7 is always in the second peripheral zone 213.
Le taux d'échantillonnage temporel ts2n de la première zone périphérique est égal à 1 /2.  The temporal sampling rate ts2n of the first peripheral zone is equal to 1/2.
Entre l'acquisition de la deuxième image acquise N+1 et celle de la troisième image acquise N+2, l'objet 7 est entré dans la première zone périphérique 21 1 . L'objet 7 est donc détecté à une troisième position 7 N+2 dans la première zone périphérique 21 1 sur la troisième image acquise N+2.  Between the acquisition of the second acquired image N + 1 and that of the third acquired image N + 2, the object 7 has entered the first peripheral zone 21 1. The object 7 is thus detected at a third position 7 N + 2 in the first peripheral zone 21 1 on the third acquired image N + 2.
Puis l'objet 7 entre dans la première partie d'image 19, et sa quatrième position 7N+3 peut être détectée sur la quatrième image acquise N+3.  Then the object 7 enters the first image part 19, and its fourth position 7N + 3 can be detected on the fourth acquired image N + 3.
Si l'objet était resté dans la première zone périphérique 21 1 ou qu'il était retourné dans la deuxième zone périphérique, sa présence n'aurait pas été détectée sur la quatrième image N+3.  If the object remained in the first peripheral zone 21 1 or was returned to the second peripheral zone, its presence would not have been detected on the fourth N + 3 image.
En réduisant encore la fréquence de traitement des zones périphériques 21 1 , 213 on réduit la charge de calcul nécessaire pour le traitement de l'image acquise 13.  By further reducing the processing frequency of the peripheral areas 21 1, 213 the computational load required for the processing of the acquired image 13 is reduced.
Il est en outre possible d'augmenter le nombre de zones périphériques 21 1 , 213 comprises dans la deuxième partie d'image 21 afin de contrôler avec précision le nombre d'opération réalisées.  It is also possible to increase the number of peripheral zones 21 1, 213 included in the second image portion 21 to accurately control the number of operations performed.
Les modes de réalisation décrits ainsi que leurs variantes peuvent être combinés.  The described embodiments as well as their variants can be combined.
Selon un quatrième mode de réalisation, le système d'aide à la conduite 1 comprend un dispositif de détection hybride. Dans ce cas, le dispositif de détection hybride comprend de multiples capteurs. Par exemple, en plus de l'unité d'acquisition d'image 1 1 , le dispositif de détection hybride comprend un dispositif de télémétrie 23 permettant de mesurer une distance entre l'objet 7 et le véhicule 3. According to a fourth embodiment, the driver assistance system 1 comprises a hybrid detection device. In this case, the hybrid detection device comprises multiple sensors. For example, in addition to the image acquisition unit 11, the hybrid detection device comprises a device telemetry device 23 for measuring a distance between the object 7 and the vehicle 3.
Le dispositif de télémétrie 23 comprend par exemple un lidar (selon l'acronyme anglo-saxon de « Llght Détection And Ranging »), ou encore un radar. Ledit dispositif de télémétrie 23 est apte à émettre une onde électromagnétique et à acquérir l'onde électromagnétique réfléchie par l'objet 7 présent dans un champ de détection du dispositif de télémétrie 23. La distance entre l'objet 7 et le véhicule 3 est alors calculée en mesurant un temps de vol de l'onde lumineuse ou de l'onde radio réfléchie par cet objet 7, ce temps de vol étant obtenu à partir du signal d'écho capturé par ce lidar ou ce radar.  The telemetry device 23 comprises for example a lidar (according to the Anglo-Saxon acronym "Llght Detection And Ranging"), or a radar. Said telemetry device 23 is able to emit an electromagnetic wave and to acquire the electromagnetic wave reflected by the object 7 present in a detection field of the telemetry device 23. The distance between the object 7 and the vehicle 3 is then calculated by measuring a flight time of the light wave or of the radio wave reflected by this object 7, this flight time being obtained from the echo signal captured by this lidar or radar.
On propose dans le présent mode de réalisation que chaque partie d'image soit déterminée comme un ensemble de pixels correspondant à des objets situés sur une certaine plage de distances telles que mesurées par le dispositif de télémétrie 23. (Chaque partie d'image peut alors être formée de sous- parties disjointes.)  It is proposed in the present embodiment that each image portion is determined as a set of pixels corresponding to objects located over a certain range of distances as measured by the telemetry device 23. (Each image portion can then be be formed of disjoint subparts.)
Ainsi la première partie d'image 19 peut comprendre l'ensemble des pixels correspondant à des objets situés à une distance mesurée inférieure à une valeur seuil (par exemple de 20 m).  Thus, the first image portion 19 may comprise all the pixels corresponding to objects situated at a measured distance less than a threshold value (for example of 20 m).
Le dispositif de télémétrie 23 permet de déterminer une première partie d'image 19 de taille réduite et ainsi d'augmenter la rapidité du procédé et de réduire le nombre d'opérations.  The telemetry device 23 makes it possible to determine a first image portion 19 of reduced size and thus to increase the speed of the process and to reduce the number of operations.
Par exemple, une pluralité d'objets 7 est détectée par télémétrie, chaque objet 7 se trouvant à une distance différente du véhicule 3. La première partie d'image 19 correspond alors au premier ensemble de pixels représentant un objet, ou à une pluralité d'ensembles de pixels représentant une pluralité d'objets, se trouvant à une distance inférieure à la valeur seuil. La deuxième partie d'image 21 correspond alors au deuxième ensemble de pixels représentant un objet, ou à une pluralité d'ensembles de pixels représentant une pluralité d'objets, se trouvant à une distance supérieure à la valeur seuil. .  For example, a plurality of objects 7 is detected by telemetry, each object 7 being at a different distance from the vehicle 3. The first image portion 19 then corresponds to the first set of pixels representing an object, or to a plurality of pixels. sets of pixels representing a plurality of objects, being at a distance less than the threshold value. The second image portion 21 then corresponds to the second set of pixels representing an object, or to a plurality of sets of pixels representing a plurality of objects, being at a distance greater than the threshold value. .
Avantageusement, une pluralité de valeurs seuil peut être mémorisée dans l'unité de mémoire 17 du véhicule. Ainsi, la deuxième partie d'image 21 peut comprendre une pluralité de zones définies en fonction des valeurs seuil.  Advantageously, a plurality of threshold values can be stored in the memory unit 17 of the vehicle. Thus, the second image portion 21 may comprise a plurality of defined areas according to the threshold values.
Par exemple, la première zone de la deuxième partie d'image 21 comprend le ou les ensembles de pixels représentant un ou des objets situés entre 20 m et 30 m du véhicule 3. La deuxième zone correspond au troisième ensemble de pixels représentant un ou des objets situés à plus de 30 m du véhicule 3 etc. For example, the first zone of the second image portion 21 includes the pixel set (s) representing one or more objects located between 20 m and 30 m of the vehicle 3. The second zone corresponds to the third set of pixels representing one or more objects located more than 30 m from the vehicle 3 etc.
Ce quatrième mode de réalisation est combinable avec les autres modes de réalisations ainsi que leurs variantes. Ainsi, les processus appliqués à la première partie d'image 19, à la première zone et à la deuxième zone peuvent être tels que ceux précédemment décrits. De plus, les informations 2 correspondants à l'objet le plus proche du véhicule 3 peuvent être affichées en priorité.  This fourth embodiment can be combined with the other embodiments and their variants. Thus, the processes applied to the first image portion 19, the first zone and the second zone may be such as those previously described. In addition, the information 2 corresponding to the object closest to the vehicle 3 can be displayed in priority.
Le dispositif de télémétrie 23 peut en outre permettre de confirmer certaines informations 2 obtenues grâce à l'unité d'acquisition d'image 1 1 , par exemple la distance entre l'objet 7 et le véhicule 3.  The telemetry device 23 can furthermore make it possible to confirm certain information 2 obtained by means of the image acquisition unit 11, for example the distance between the object 7 and the vehicle 3.
Pour tous ces différents modes de réalisation, l'étape d) d'affichage est réalisée comme décrite précédemment.  For all these different embodiments, the display step d) is performed as previously described.

Claims

REVENDICATIONS
1 . Procédé de traitement de données pour système d'aide à la conduite (1 ) d'un véhicule (3) comprenant des étapes suivantes: 1. A data processing method for a driving assistance system (1) of a vehicle (3) comprising the following steps:
a) acquisition d'un ensemble de données relatives à l'environnement du véhicule (3), ledit ensemble de données comprenant un premier ensemble de données relatives à une première partie de l'environnement du véhicule (3) et un deuxième ensemble de données relatives à une deuxième partie de l'environnement du véhicule (3),  a) acquisition of a set of data relating to the environment of the vehicle (3), said data set comprising a first set of data relating to a first part of the environment of the vehicle (3) and a second set of data relating to a second part of the vehicle environment (3),
b) traitement du premier ensemble de données selon un premier processus et à un premier instant (h),  b) processing the first data set according to a first process and at a first instant (h),
c) traitement du deuxième ensemble de données selon un deuxième processus distinct du premier processus ou à un deuxième instant (I2) distinct du premier instant (h).  c) processing the second data set according to a second process distinct from the first process or at a second time (I2) distinct from the first time (h).
2. Procédé de traitement de données selon la revendication 1 , dans lequel le deuxième ensemble de données est traité au deuxième instant (I2) et dans lequel le deuxième instant (I2) est postérieur au premier instant (h). The data processing method according to claim 1, wherein the second data set is processed at the second instant (I2) and wherein the second instant (I2) is after the first instant (h).
3. Procédé de traitement d'image selon la revendication 1 ou 2, dans lequel le premier processus comprend un échantillonnage du premier ensemble de données selon un premier taux d'échantillonnage (tsi , tu), et dans lequel le deuxième processus comprend un échantillonnage du deuxième ensemble de données selon un deuxième taux d'échantillonnage (tS2, te), le premier taux d'échantillonnage (tsi , tu) étant supérieur au deuxième taux d'échantillonnage (tS2, An image processing method according to claim 1 or 2, wherein the first process comprises sampling the first set of data according to a first sampling rate (tsi, tu), and wherein the second process comprises sampling. the second data set according to a second sampling rate (t S 2, te), the first sampling rate (tsi, tu) being greater than the second sampling rate (t S 2,
4. Procédé de traitement d'image selon la revendication 3, dans lequel l'échantillonnage du premier ensemble de données et l'échantillonnage du deuxième ensemble de données sont des échantillonnages spatiaux. An image processing method according to claim 3, wherein the sampling of the first data set and the sampling of the second set of data are spatial samplings.
5. Procédé de traitement d'image selon la revendication 3, dans lequel l'échantillonnage du premier ensemble de données et l'échantillonnage du deuxième ensemble de données sont des échantillonnages temporels. An image processing method according to claim 3, wherein sampling of the first data set and sampling of the second data set is time sampling.
6. Procédé de traitement d'image selon l'une des revendications précédentes, comprenant en outre les étapes suivantes : The image processing method according to one of the preceding claims, further comprising the steps of:
- détection d'un objet (7) se trouvant dans l'environnement du véhicule (3),  detecting an object (7) in the environment of the vehicle (3),
- détermination d'un sous-ensemble de données (719, 721 ) correspondant audit objet (7) dans l'ensemble de données.  determining a subset of data (719, 721) corresponding to said object (7) in the data set.
7. Procédé de traitement d'image selon la revendication 6, dans lequel un nombre d'algorithmes est appliqué au sous-ensemble de données (719, 721 ), et dans lequel ledit nombre d'algorithmes est fonction d'une localisation de l'objet (7). An image processing method according to claim 6, wherein a number of algorithms are applied to the subset of data (719, 721), and wherein said number of algorithms is a function of a location of the data subset. object (7).
8. Procédé de traitement d'image selon la revendication 7, dans lequel la localisation de l'objet (7) comprend une appartenance du sous-ensemble de données (719, 721 ) au premier ensemble de données ou au second ensemble de données. An image processing method according to claim 7, wherein the location of the object (7) comprises a subset of the data subset (719, 721) to the first data set or the second set of data.
9. Procédé de traitement d'image selon la revendication 7, dans lequel la localisation de l'objet (7) comprend une distance entre l'objet (7) et le véhicule (3). The image processing method according to claim 7, wherein the location of the object (7) comprises a distance between the object (7) and the vehicle (3).
10. Procédé de traitement d'image selon la revendication 9, dans lequel ladite distance est mesurée grâce à un dispositif de télémétrie (23). An image processing method according to claim 9, wherein said distance is measured by a telemetry device (23).
1 1 . Procédé de traitement d'image selon l'une des revendications 6 à 10, comprenant en outre une étape de superposition d'une information (2) obtenue par le traitement du premier ensemble de données à l'objet (7) au moyen d'un afficheur tête-haute. 1 1. An image processing method according to one of claims 6 to 10, further comprising a step of superimposing information (2) obtained by processing the first set of data to the object (7) by means of a head-up display.
12. Procédé de traitement d'image selon l'une des revendications précédentes, dans lequel l'ensemble de données acquises représente une image acquise (13), dans lequel le premier ensemble de données représente une première partie d'image (19), et dans lequel ladite première partie d'image (19) correspond à une zone d'affichage (5) du système d'aide à la conduite (1 ). An image processing method according to one of the preceding claims, wherein the set of acquired data represents an acquired image (13), wherein the first data set represents a first image portion (19), and wherein said first image portion (19) corresponds to a display area (5) of the driver assistance system (1).
13. Système d'aide à la conduite (1 ) pour véhicule (3) comprenant : 13. A driving assistance system (1) for a vehicle (3) comprising:
- un capteur adapté à acquérir un ensemble de données relatives à l'environnement du véhicule (3), ledit ensemble de données comprenant un premier ensemble de données relatives à une première partie de l'environnement du véhicule (3) et un deuxième ensemble de données relatives à une deuxième partie de l'environnement du véhicule (3),  a sensor adapted to acquiring a set of data relating to the environment of the vehicle (3), said data set comprising a first set of data relating to a first part of the environment of the vehicle (3) and a second set of data relating to a second part of the environment of the vehicle (3),
- une unité de traitement électronique (15) apte à traiter le premier ensemble de données selon un premier processus et à un premier instant (h), et apte à traiter le deuxième ensemble de données selon un deuxième processus distinct du premier processus ou à un deuxième instant (I2) distinct du premier instant (h).  an electronic processing unit (15) able to process the first set of data according to a first process and at a first instant (h), and able to process the second set of data according to a second process distinct from the first process or to a second second moment (I2) distinct from the first instant (h).
14. Système d'aide à la conduite (1 ) selon la revendication 13, comprenant un afficheur tête haute, l'unité de traitement électronique (15) étant apte à produire une information au moyen du premier processus, ledit afficheur tête haute étant apte à superposer ladite information (2) à un objet (7) se trouvant dans l'environnement du véhicule (3). 14. driving assistance system (1) according to claim 13, comprising a head-up display, the electronic processing unit (15) being able to produce information by means of the first process, said head-up display being suitable superimposing said information (2) on an object (7) in the environment of the vehicle (3).
EP18789168.4A 2017-10-30 2018-10-24 Method of processing data for system for aiding the driving of a vehicle and associated system for aiding driving Pending EP3704625A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1760252A FR3072931B1 (en) 2017-10-30 2017-10-30 DATA PROCESSING METHOD FOR A DRIVING ASSISTANCE SYSTEM OF A VEHICLE AND ASSOCIATED DRIVING ASSISTANCE SYSTEM
PCT/EP2018/079208 WO2019086314A1 (en) 2017-10-30 2018-10-24 Method of processing data for system for aiding the driving of a vehicle and associated system for aiding driving

Publications (1)

Publication Number Publication Date
EP3704625A1 true EP3704625A1 (en) 2020-09-09

Family

ID=61027895

Family Applications (1)

Application Number Title Priority Date Filing Date
EP18789168.4A Pending EP3704625A1 (en) 2017-10-30 2018-10-24 Method of processing data for system for aiding the driving of a vehicle and associated system for aiding driving

Country Status (3)

Country Link
EP (1) EP3704625A1 (en)
FR (1) FR3072931B1 (en)
WO (1) WO2019086314A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7151234B2 (en) * 2018-07-19 2022-10-12 株式会社デンソー Camera system and event recording system

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5147874B2 (en) * 2010-02-10 2013-02-20 日立オートモティブシステムズ株式会社 In-vehicle image processing device
JP5626578B2 (en) * 2010-12-02 2014-11-19 アイシン・エィ・ダブリュ株式会社 Driving support system, driving support program, and driving support method
DE102012213291A1 (en) * 2012-07-27 2014-01-30 Robert Bosch Gmbh Method and device for determining situation data based on image data
US20150153184A1 (en) * 2013-12-04 2015-06-04 GM Global Technology Operations LLC System and method for dynamically focusing vehicle sensors

Also Published As

Publication number Publication date
FR3072931B1 (en) 2021-07-23
FR3072931A1 (en) 2019-05-03
WO2019086314A1 (en) 2019-05-09

Similar Documents

Publication Publication Date Title
EP3195077A1 (en) Localisation and mapping method and system
FR2932595A1 (en) METHOD FOR DISPLAYING PARKING ASSIST.
WO2022002531A1 (en) System and method for detecting an obstacle in an area surrounding a motor vehicle
EP3704625A1 (en) Method of processing data for system for aiding the driving of a vehicle and associated system for aiding driving
EP2043044A1 (en) Method and device for automobile parking assistance
FR3056531B1 (en) OBSTACLE DETECTION FOR MOTOR VEHICLE
WO2018060380A1 (en) Detection of obstacles by merging objects for a motor vehicle
FR3106108A1 (en) Method and device for determining the trajectory of a road
EP3698321A1 (en) Data processing method and associated onboard system
FR3107114A1 (en) Method and device for validating mapping data of a vehicle road environment
EP3155446B1 (en) Method and system for estimating a parameter in a motor vehicle, and motor vehicle provided with such a system
FR3092545A1 (en) ASSISTANCE IN DRIVING A VEHICLE, BY DETERMINING THE TRAFFIC LANE IN WHICH AN OBJECT IS LOCATED
FR3084628A1 (en) METHOD FOR DETERMINING A TYPE OF PARKING LOCATION
WO2018069060A1 (en) Locating device and device for producing integrity data
EP3830741B1 (en) Driving assistance for control of a motor vehicle including parallel processing steps of transformed images
WO2023161568A1 (en) Method for computing three-dimensional surfaces for a vehicle equipped with a driver-assistance system
EP4165601A1 (en) Method for calibrating a camera and associated device
FR2937775A1 (en) METHOD FOR DETECTING A TARGET OBJECT FOR A MOTOR VEHICLE
WO2020174142A1 (en) Vehicle driving assistance by reliable determination of objects in deformed images
EP3300525A1 (en) Method for estimating geometric parameters representing the shape of a road, system for estimating such parameters and motor vehicle equipped with such a system
WO2022033902A1 (en) Method for aligning at least two images formed by three-dimensional points
FR3100641A1 (en) DETERMINATION OF REAL-TIME ENVIRONMENTAL INFORMATION AND SELECTIVE REGRESSION, FOR A SYSTEM
WO2021099395A1 (en) Method for detecting intensity peaks of a specularly reflected light beam
FR3105961A1 (en) Method and device for determining a lane change indicator for a vehicle
FR3135682A1 (en) Method for managing the trajectory of a motor vehicle in its lane

Legal Events

Date Code Title Description
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: UNKNOWN

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE INTERNATIONAL PUBLICATION HAS BEEN MADE

PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: REQUEST FOR EXAMINATION WAS MADE

17P Request for examination filed

Effective date: 20200428

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

AX Request for extension of the european patent

Extension state: BA ME

DAV Request for validation of the european patent (deleted)
DAX Request for extension of the european patent (deleted)
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: EXAMINATION IS IN PROGRESS

17Q First examination report despatched

Effective date: 20221006

RAP3 Party data changed (applicant data changed or rights of an application transferred)

Owner name: VALEO COMFORT AND DRIVING ASSISTANCE

P01 Opt-out of the competence of the unified patent court (upc) registered

Effective date: 20230528

RAP3 Party data changed (applicant data changed or rights of an application transferred)

Owner name: VALEO COMFORT AND DRIVING ASSISTANCE