WO2020008062A1 - Adaptation d'une fonction de feu de route d'un véhicule automobile - Google Patents

Adaptation d'une fonction de feu de route d'un véhicule automobile Download PDF

Info

Publication number
WO2020008062A1
WO2020008062A1 PCT/EP2019/068165 EP2019068165W WO2020008062A1 WO 2020008062 A1 WO2020008062 A1 WO 2020008062A1 EP 2019068165 W EP2019068165 W EP 2019068165W WO 2020008062 A1 WO2020008062 A1 WO 2020008062A1
Authority
WO
WIPO (PCT)
Prior art keywords
target vehicle
vehicle
information
light
sensor
Prior art date
Application number
PCT/EP2019/068165
Other languages
English (en)
Inventor
Rezak Mezari
Fatima BENAMAR
Original Assignee
Valeo Vision
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Valeo Vision filed Critical Valeo Vision
Publication of WO2020008062A1 publication Critical patent/WO2020008062A1/fr

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/02Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments
    • B60Q1/04Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights
    • B60Q1/14Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights having dimming means
    • B60Q1/1415Dimming circuits
    • B60Q1/1423Automatic dimming circuits, i.e. switching between high beam and low beam due to change of ambient light or light level in road traffic
    • B60Q1/143Automatic dimming circuits, i.e. switching between high beam and low beam due to change of ambient light or light level in road traffic combined with another condition, e.g. using vehicle recognition from camera images or activation of wipers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2300/00Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
    • B60Q2300/05Special features for controlling or switching of the light beam
    • B60Q2300/056Special anti-blinding beams, e.g. a standard beam is chopped or moved in order not to blind
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2300/00Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
    • B60Q2300/30Indexing codes relating to the vehicle environment
    • B60Q2300/32Road surface or travel path
    • B60Q2300/322Road curvature

Definitions

  • the present invention relates to the field of lighting systems for motor vehicles. More particularly, the invention relates to the adaptation of the lighting of a motor vehicle light system.
  • a motor vehicle generally comprises several lights constituting lighting or signaling means fulfilling various functions. These functions are notably fulfilled thanks to the emission of a light beam whose properties vary from one function to another.
  • the high beam function allows you to illuminate the road with high intensity. However, it has the disadvantage of dazzling other road users, pedestrians, cyclists or other motorists.
  • the user must therefore be careful to switch to the low beam function when he detects another user on the road.
  • a system called ADB for “adaptive driving bearn” in English
  • ADB for “adaptive driving bearn” in English
  • Such an ADB system thus improves visibility on the road, improves safety and improves driver comfort.
  • the ADB system is based on a set of sensors and an electronic control system for the light system of a motor vehicle.
  • EP2743129 A known system is described in European patent application EP2743129 of the applicant. This system defines a targeted area in which the intensity of the beam of the high beam function is dimmed to prevent glare when another vehicle is detected by a camera of the motor vehicle.
  • the target area is determined so as to correspond to a two-dimensional area partially opening the target vehicle.
  • a width of the target area which is representative of the width of the target vehicle is determined via acquired images.
  • such a system can only be used in a straight line, and the risk of glare on a curved road is very high.
  • EP2657079 Another solution is proposed in European patent application EP2657079. She suggests modifying the light distribution paternas according the position of a target vehicle located in front of the vehicle integrating the solution. When it is detected that the road is curved, a control section switches the lighting to low beam automatically, in order to avoid dazzling any vehicles on the road. However, the visibility for the driver of the vehicle integrating the solution is reduced.
  • a fourth solution is described in American patent application US2017 / 0205039 which presents a system comprising a first lamp for generating a low beam function in a region facing the motor vehicle and a second lamp projecting complementary light in the bends, in complementary areas of the region facing the motor vehicle.
  • the present invention improves the situation.
  • a first aspect of the invention relates to a method for adapting a high beam function of a light system of a host motor vehicle in order to avoid dazzling a target vehicle, the light system being in high definition. , the method comprising the following steps:
  • the orientation of the target vehicle improves the precision of the target area which is darkened. Indeed, in a turn if the target vehicle does not have the same direction as the host vehicle, it is preferable to take into account counts the inclination of the target vehicle to enlarge the targeted area compared to the solutions of the prior art.
  • the main beam function can thus be retained, thereby improving the visibility of the driver of the host vehicle, while avoiding dazzling the drivers of other vehicles on the road. Visibility is maximized by creating tunnels corresponding to the target area, which adapt to the target vehicle.
  • the method can further comprise obtaining at least second information relating to a curvature of the road on which the target vehicle is traveling and the targeted area can be determined from the first information and from the second information.
  • the curvature of the road can be used to determine whether the target area should be adapted or not based on the first information, and the implementation of the method is thus accelerated.
  • the second piece of information can be a curvature value of the road
  • the method can include comparing the curvature value with a threshold value and can further include, if the curvature value is greater than the threshold value, the determination of a quantity based on the first information, the quantity being added to enlarge the size of the targeted area.
  • the quantity can be the D YAW value detailed later.
  • the target area is therefore enlarged as a function of the inclination of the target vehicle, which improves the precision of the adaptation of the high beam function.
  • the target area and the quantity can be identified by four angles, two angles corresponding to an angular interval for a left front light and two angles corresponding to an angular interval for a right front light and the adaptation of the function of lighting may include sending a command comprising the four angles to a light system control device.
  • the data transmitted to the light system can thus be interpreted directly by the latter, which accelerates the adaptation phase of the high beam function.
  • the targeted area can be centered substantially in the direction of travel of the host vehicle.
  • a position of the target vehicle along an axis perpendicular to the direction of the road can be compared with a second threshold value in order to differentiate at least two driving situations, and the Target area can be determined based on the driving situation.
  • the position can be compared to the second threshold value and to a third threshold in order to differentiate three driving situations, and the target area can be determined according to the driving situation.
  • the route is considered to be straight, which reduces the calculation times associated with the process.
  • the second information can be received directly from a navigation system of the host vehicle or from the sensor.
  • the second information is reliably accessible from the sensors or from a navigation system, which improves the reactivity of the process.
  • obtaining the second information comprises obtaining from the position data sensor of the target vehicle and estimating the second information on the basis of the position data by considering a continuity of the evolution of the road between a position of the host vehicle and the position of the target vehicle.
  • the first information is received directly from the sensor and the sensor can comprise at least one lidar.
  • the implementation of the method is accelerated when the sensor system is of high precision, as is the case for a lidar.
  • the first information can be obtained from a speed of the target vehicle and a speed of the host vehicle.
  • the sensor system does not allow access to the first information, it can be estimated, which reduces the costs associated with the sensors.
  • the light system can comprise:
  • a matrix light source comprising at least one segment of light elements, such as light-emitting diodes or part of the surface of a monolithic light source for example.
  • the method may further comprise a preliminary step implemented by at least one sensor for detecting the target vehicle, the acquisition of the data captured by the sensor being conditioned by the prior detection of the target vehicle.
  • the method is optimized in that it is only implemented when a target vehicle is detected.
  • the targeted area is further determined from an angular position of the target vehicle and / or from a distance from the target vehicle. What is understood by “angular position of the target vehicle” is defined later. Such an achievement improves the accuracy of determining the target area.
  • a second aspect of the invention relates to a computer program comprising instructions for implementing the steps of the method according to the first aspect of the invention, when these instructions are executed by a processor.
  • a third aspect of the invention for the storage of a computer program comprising instructions for the implementation of the steps of the method the first aspect of the invention, when these instructions are executed by a processor.
  • a fourth aspect of the invention relates to a device for controlling a high beam function of a light system of a motor vehicle, the device comprising:
  • a fifth aspect of the invention relates to a motor vehicle comprising a light system and a device for controlling the light system according to the fourth aspect of the invention.
  • FIG. 1 illustrates a system according to an embodiment of the invention
  • Figure 2 is a diagram illustrating the steps of a method according to an embodiment of the invention.
  • Figure 3 illustrates the implementation of the method according to the invention in a first driving situation
  • Figure 4 illustrates the angular position of a target vehicle and the distances between a sensor and a light system of a host vehicle
  • FIG. 5 illustrates dark tunnels in the lighting of the host vehicle according to an embodiment of the invention
  • Figure 6 illustrates the implementation of the method according to the invention in a second driving situation
  • FIG. 7 illustrates the implementation of the method according to the invention in a third driving situation
  • FIG. 8 illustrates the implementation of the method according to the invention in a fourth driving situation.
  • FIG. 1 shows a system comprising a set of at least one sensor 100, a control device 101 of a light system 106 of a motor vehicle, and the light system 106.
  • the light system 106 is a high resolution light system, for example having a resolution greater than 1000 pixels.
  • the light system can for example comprise a monolithic source.
  • a matrix of elements is called a monolithic source monolithic electroluminescent (in English "monolithic array") arranged in at least two columns by at least two lines.
  • the electroluminescent elements can be grown from a common substrate and can be electrically connected so as to be selectively activatable, individually or by subset of electroluminescent elements.
  • the substrate can be predominantly made of semiconductor material.
  • the substrate may include one or more other materials, for example non-semiconductors (metals and insulators).
  • each electroluminescent element or group of electroluminescent elements can form a light pixel and can emit light when its or their material is supplied with electricity.
  • the configuration of such a monolithic matrix allows the arrangement of selectively activatable pixels very close to each other, with respect to conventional light-emitting diodes intended to be soldered on printed circuit boards.
  • the monolithic matrix may include electroluminescent elements of which a main dimension of elongation, namely the height, is substantially perpendicular to a common substrate, this height being at most equal to a micrometer.
  • the monolithic matrix or matrices capable of emitting light rays can be coupled to a unit for controlling the light emission of the pixelated source, such as the control device 101.
  • the control device 101 can thus control, or control, the generation and / or projection of a pixelated light beam by the light system 106.
  • the control device 101 can be integrated into the light system, and for this purpose can be mounted on one or more of the dies. Note that the control device 101 can be integrated into the light system even when the light system is not of the monolithic matrix type.
  • the control device 101 may include a central processing unit, such as a processor 103, coupled to a memory on which is stored a computer program which includes instructions allowing the processor to perform steps generating signals allowing the control of the light system 106.
  • the control device 101 can thus for example individually control the light emission of each pixel of a matrix.
  • the luminance obtained by the plurality of elements can be at least 60Cd / mm 2 , preferably at least 80Cd / mm 2 .
  • the control device 101 can form an electronic device capable of controlling the electroluminescent elements of the light system 106.
  • the control device 101 can be an integrated circuit, also called an electronic chip, is an electronic component reproducing one or more electronic functions and able to integrate one or more types of basic electronic components, for example in a reduced volume. This makes the circuit easy to use.
  • the integrated circuit can for example be an ASIC or ASSP.
  • An ASIC for "Application-Specific Integrated Circuit” in English, is an integrated circuit developed for at least one specific application, that is to say for a client.
  • An ASSP for "Application-Specific Standard Product” is an integrated electronic circuit, micro-electronic, gathering a large number of functionalities to satisfy a generally standardized application.
  • An ASIC is designed for a more specific or specific need than an ASSP.
  • the supply of electricity to the monolithic matrices can be carried out via the electronic device, itself supplied with electricity using for example using at least one connector connecting it to a source of electricity.
  • the source of electricity can be internal or external to the entities shown in Figure 1.
  • the control device 101 can thus be able to control the supply of the light system 106.
  • the light system may include a light source coupled to a matrix of mirrors.
  • the pixelated light source can be formed by the assembly of at least one light source formed by at least one light-emitting diode emitting light and a matrix of optoelectronic elements, for example a matrix of micro-mirrors, also known by the acronym DMD, for “Digital Micro-mirror Device” in English, which directs the light rays coming from the light source by reflection towards an optical projection element.
  • DMD Digital Micro-mirror Device
  • an optical collection element can make it possible to collect the rays of the at least one light source in order to concentrate them and direct them towards the surface of the matrix of micro-mirrors.
  • Each micro-mirror can pivot between two fixed positions, a first position in which the light rays are reflected towards the optical projection element, and a second position in which the light rays are reflected in a different direction from the optical element of projection.
  • the two fixed positions are oriented in the same way for all the micro-mirrors and form with respect to a support reference plane of the matrix of micro-mirrors a characteristic angle of the matrix of micro-mirrors, defined in its specifications. Such an angle is generally less than 20 °, and can usually be about 12 °.
  • each micro-mirror reflecting a small part of the light rays incident on the matrix of micro-mirrors forms an elementary emitter of the pixelated light source, the actuation and the control of the change of positions of the mirrors making it possible to selectively activate this emitter elementary for emitting or not an elementary light beam.
  • the light system can be formed by a laser scanning system in which a laser source emits a laser beam towards laser scanning means, in which a laser source emits a laser beam towards scanning means configured to scan with the laser beam the surface of a wavelength converter element, a surface which is imaged by the optical projection element.
  • the scanning of the beam can be accomplished by the scanning means at a sufficiently high speed so that the human eye does not perceive its movement in the projected image.
  • the scanning means can be a mobile micro-mirror making it possible to scan the surface of the wavelength converter element by reflection of the laser beam.
  • the micro-mirrors mentioned as a scanning means are for example of the MEMS type, for “Micro-Electro-Mechanical Systems” in English or electromechanical microsystem.
  • the invention is not limited to such a scanning means and can use other kinds of scanning means, such as a series of mirrors arranged on a rotating element, the rotation of the element causing a scanning of the transmission surface by the laser beam.
  • the light source can be a matrix and include at least one segment of light elements, such as light-emitting diodes or a surface part of a monolithic light source.
  • control device can comprise a processing unit 103, a control unit 104 capable of generating commands intended for the light system 106, an input interface 102 for receiving data from the sensor (s) 100 , and an output interface 105 capable of transmitting the commands intended for the light system 106.
  • FIG. 2 illustrates the steps of a method implemented by the sensor (s) 100 and by the control device 101 illustrated in FIG. 1, according to first, second and third embodiments of the invention.
  • the method begins, for example when the vehicle is started or when the high beam function is activated.
  • the start-up of the method according to the invention can also be conditioned by the detection, in a step 201, of a target vehicle sharing the route with the host motor vehicle in which the method is implemented.
  • the sensor or sensors of the motor vehicle collect data.
  • at least one sensor is configured to capture data in a traffic direction of the host vehicle.
  • the data collected depends in particular on the nature of the sensor or sensors, depending on whether it is a camera, a radar or a lidar.
  • the implementation of the first, second and third embodiments depends in particular on the sensors with which the motor vehicle is fitted and / or on the accuracy of the data captured, as explained below.
  • the data captured make it possible to obtain both the distance from the target vehicle, the angular position of the target vehicle, the curvature of the road and the orientation of the target vehicle relative to a direction of the host vehicle.
  • Such data is either obtained directly by the sensor or sensors, or are obtained by the control device 101 from data coming from the sensor.
  • the angular position of the target vehicle can be defined by two angles.
  • a first angle corresponds to the angle between the direction of movement of the host motor vehicle and a direction between a given point (for example the location of a sensor such as an image sensor) of the host motor vehicle and a left headlight of a target vehicle.
  • a second angle corresponds to the angle between the direction of movement of the host motor vehicle and a direction between a given point (for example the location of a sensor such as an image sensor) of the host motor vehicle and a right headlight of a target vehicle.
  • steps 204 and 208 are not implemented.
  • control device 101 receives the data captured by the sensor (s) 100.
  • the curvature of the road is known in a reliable manner by the steering device 101.
  • Such data can come from a lidar type sensor for example.
  • the curvature of the road can then be compared in a step 204 to a threshold.
  • the curvature of the road can be defined from the inverse of a radius of curvature. In this case, preferably, the inverse of the absolute value of the radius of curvature of the road is compared to the threshold.
  • the method proceeds to step 211 described below.
  • the threshold value to which the radius of curvature of the road is compared can correspond to an absolute value of the radius of curvature of 1000 meters.
  • step 211 it is differentiated between three driving situations, namely: the host vehicle follows the target vehicle on the same line (situation A); the host vehicle crosses or follows the target vehicle located on a left lane of the road while the host vehicle is on the right lane (situation B); the host vehicle crosses or follows the target vehicle located on the right lane of the road while the host vehicle is on the left lane (situation C). If the curvature of the road is greater than the given threshold, then it is detected in a step 209 that the road is curved to the right or to the left as a function of G inclination of the target vehicle relative to the direction of the host vehicle and in function of the curvature of the road.
  • a step 210 the processing unit 103 calculates a value called D YAW from the inclination of the target vehicle.
  • D YAW will be better understood on reading the following.
  • step 210 the method proceeds to step 206.
  • a targeted area is determined corresponding to a position of the target vehicle.
  • the target area may depend on a width of the target vehicle, which can be default or calculated from sensor data.
  • the width of the targeted area also depends on the value D YAW.
  • the value D YAW is added so as to enlarge the size, such as the dimension in the direction of the width of the road, of the targeted area, as detailed later.
  • the high beam lighting function is then adapted by reducing the light intensity in the target area.
  • data representing the targeted area can be sent to the light system 106 in a step 207.
  • data can be four angles, two angles corresponding to a first area to be darkened via the front light. left of the host vehicle, and two angles corresponding to a second area to be darkened via the right front light of the host vehicle.
  • the light system can thus create a dark tunnel corresponding to the targeted area in the light beam.
  • the second embodiment corresponds to the case where the inclination of the target vehicle is not obtained directly from the sensor (s) 100.
  • the method according to the invention also proposes to implement a step 208 of estimation the tilt of the target vehicle, from data captured by the sensor (s) of the host vehicle.
  • the estimate of the inclination of the target vehicle may depend on the speed of the target vehicle and the speed of the host vehicle.
  • Vhost is the speed of the host vehicle
  • Vx is the speed of the target vehicle in the direction of the host vehicle
  • Vy is the speed of the target vehicle in the direction normal to the direction of the host vehicle in the road map.
  • the target vehicle speed data can be taken from the data captured and received in step 203.
  • the third embodiment corresponds to the case where the inclination of the target vehicle and the curvature of the road are not obtained directly from the sensor (s) 100.
  • the method according to the invention implements steps 204 and 208 .
  • Step 204 is a step of estimating the curvature of the road by the steering device 101.
  • the estimation of the curvature of the road can be assumed to be a continuation of the evolution of the road between the target vehicle and the host vehicle.
  • the input data can be the orientation of the target vehicle and the curvature of a first portion of the road located closest to the host vehicle. Indeed, the layout of the first portion of the road can be obtained from camera data of the host vehicle for example.
  • a second portion of the road located between the first portion and the target vehicle can then be estimated on the basis of the above hypothesis, by extrapolating the first portion to the target vehicle.
  • the curvature of the road can be obtained from a navigation system, such as a GPS navigation system, for "Global Positioning System” in English.
  • a navigation system such as a GPS navigation system, for "Global Positioning System” in English.
  • FIG. 3 illustrates a situation of driving a road 301 bent to the right with a target vehicle 303 traveling in the same direction as the host vehicle 302.
  • the inclination of the target vehicle is represented by the angle Q referenced 307.
  • the radius of curvature Rcurv is referenced 304.
  • a width of the target vehicle because width is noted 305 and a length because length of the target vehicle is noted 306.
  • the longitudinal distance D1 referenced 309 corresponds to the distance along the axis X, or according to the direction of the host vehicle, between a sensor of the host vehicle and the left rear headlight of the target vehicle 303.
  • the longitudinal distance Dr referenced 308 corresponds to the distance along the X axis between the host vehicle sensor and the right rear headlight of the target vehicle 303.
  • Data 305, 306, 307, 308, 309 can be obtained from sensor data 100 directly or estimated from this data or external data (such as data from a GPS navigation system).
  • angles a and b illustrated in FIG. 4, defining the angular position of the target vehicle 303, and respectively referenced 313 and 312, are obtained by the sensor 100, of the camera type for example.
  • the angle a corresponds to the angle between the direction of the host vehicle (or optical axis) and the right joining the sensor 100 and the right front light of the target vehicle.
  • the angle b corresponds to the angle between the direction of the host vehicle (or optical axis) and the right joining the sensor 100 and the left front light of the target vehicle.
  • the target vehicle can travel in the same direction of traffic as the host vehicle, in which case the angles are identified with respect to the rear lights of the target vehicle 303.
  • FIG. 4 also presents the longitudinal distance Hlr, referenced 314, between the left front light of the host vehicle and the sensor 100, and the longitudinal distance H11, referenced 315, between the left front light of the host vehicle and the sensor 100.
  • Hlr and Hll are equal and they are therefore denoted Hl.
  • the invention also applies in case these distances are different.
  • the lateral distance Lf between the left front light of the host vehicle and the sensor 100 is referenced 316 and the lateral distance Rf between the right front light of the host vehicle and the sensor 100 is referenced 317.
  • the D YAW value can be calculated as follows:
  • the angle asl corresponds to the angle between the direction of the host vehicle 302 and the right joining the left front light of the host vehicle 302 to the right front light of the target vehicle 303 (or to the left rear light when the target vehicle is traveling in the same meaning the host vehicle).
  • the angle asr corresponds to the angle between the direction of the host vehicle 302 and the right joining the left front light of the host vehicle 302 to the left front light of the target vehicle 303 (or to the right rear light when the target vehicle is traveling in the same meaning the host vehicle).
  • the angle bsl corresponds to the angle between the direction of the host vehicle 302 and the right joining the right front light of the host vehicle 302 to the right front light of the target vehicle 303 (or to the left rear light when the target vehicle is traveling in the same meaning the host vehicle).
  • the angle bsr corresponds to the angle between the direction of the host vehicle 302 and the right joining the right front light of the host vehicle 302 to the left front light of the target vehicle 303 (or to the right rear light when the target vehicle is traveling in the same meaning the host vehicle).
  • angles asl, asr, bsl and bsr are the four angles mentioned above to represent the target area.
  • the four angles can therefore be used to control the lighting system in order to adapt the lighting by reducing the light intensity in the targeted area.
  • C1 can be equal to a fraction, such as 15% for example, of the width of the target vehicle 303, in order to take into account the distance between the headlight and the mirror.
  • C2 corresponds to a margin depending on the precision of the sensor data. If the sensor data has sufficient accuracy, C2 can be taken as 0.
  • the angles above take into account the value D YAW, corresponding to the length referenced 310 in FIG. 3 and which can be calculated as described above, which makes it possible to obtain the targeted area 311 illustrated in FIG. 3 instead of the targeted area 320 of the prior art not taking into account the inclination of the target vehicles and / or the curvature of the road.
  • the targeted area 311 makes it possible to ensure that the driver of the target vehicle 303 is not dazzled while improving the visibility of the driver of the host vehicle 302 since the high beam function does not have to be interrupted.
  • Figure 6 illustrates a driving situation in which a left turn is detected in step 209.
  • the value D YAW is also referenced 310 but is not added to the right of the targeted area of the prior art, referenced 320 in FIG. 6, but well to the left, before adapting the lighting to the driving situation.
  • angles asl, asr, bsl and bsr can be calculated as follows:
  • the target area 321 is thus obtained, which makes it possible, like the targeted area 311 described above, to ensure that the driver of the target vehicle 303 is not dazzled while improving the visibility of the driver of the host vehicle 302 since the traffic light function road does not have to be interrupted.
  • FIGS. 3 and 6 present turns and the method according to the invention thus comprises at least the steps 209 and 210 shown in FIG. 2.
  • Figures 7 and 8 show driving situations in which the curvature of the road is small (the radius of curvature is high) or even zero.
  • FIG. 7 illustrates a case in which the curvature is zero and in which the target vehicle 303 is traveling in the same direction of traffic as the host vehicle 302, and thus corresponds to situation A described above.
  • R1, R2, L1 and L2 are noted, respectively the rear right, front right, rear left and front left points of the target vehicle 303.
  • the target vehicle 303 is represented by these four points.
  • the coordinates of the points Rl, R2, Ll and L2 can therefore be obtained by:
  • Y_R2 Y + (l / 2) * car_width
  • threshold Y a threshold value which can be determined experimentally, and which can for example be equal to three meters.
  • a arctan (Y_R, X_R);
  • the targeted area 331 does not require any adaptation as a function of D YAW, which is considered to be zero.
  • FIG. 8 illustrates a case in which the curvature is zero and in which the target vehicle 303 is traveling on a left lane (in the opposite direction) while the host vehicle 302 is traveling on the right lane.
  • the situation illustrated in FIG. 8 therefore corresponds to situation B identified in step 211.
  • Such a situation is detected when the Y coordinate of the target vehicle 303 is less than -threshold Y.
  • a arctan (Y_R, X_R);
  • the targeted area 331 does not require any adaptation as a function of D YAW, which is considered to be zero.
  • angles asl, asr, bsl and bsr are calculated according to the same formulas as the formulas above described for figure 7.
  • the longitudinal distance D1 is calculated as the distance between the sensor 100 of the host vehicle 302 and the right front headlight of the target vehicle 303
  • the longitudinal distance Dr is calculated as the distance between the sensor 100 of the host vehicle 302 and the headlight rear left of target vehicle 303.
  • Another driving situation is obtained by considering the situation symmetrical with respect to the central axis of the road in FIG. 8.
  • the host vehicle 302 is driving on the left and the target vehicle 303 is driving on the right and such a situation corresponds to situation C identified in step 211.
  • a arctan (Y_R, X_R);
  • the targeted area 331 does not require any adaptation as a function of D YAW, which is considered to be zero.
  • angles asl, asr, bsl and bsr are calculated according to the same formulas as the formulas above described for figure 7.

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Lighting Device Outwards From Vehicle And Optical Signal (AREA)

Abstract

L'invention concerne un procédé d'adaptation d'une fonction feu de route d'un système lumineux d'un véhicule automobile hôte en vue d'éviter d'éblouir un véhicule cible, le système lumineux étant à haute définition, le procédé comprenant les étapes suivantes : - réception (203) de données captées par au moins un capteur apte à acquérir des données dans une direction de circulation du véhicule hôte; - obtention (208; 209), sur la base des données reçues, d'au moins une première information relative à une orientation du véhicule cible par rapport à une direction du véhicule hôte; - détermination (206), à partir de la première information, d'une zone ciblée correspondant à une position du véhicule cible; - adaptation (206; 207) de la fonction d'éclairage de manière à réduire l'intensité lumineuse de la fonction feu de route dans la zone ciblée uniquement.

Description

Adaptation d’une fonction de feu de route d’un véhicule automobile
La présente invention concerne le domaine des systèmes lumineux pour véhicule automobile. Plus particulièrement, l’invention concerne l’adaptation de l’éclairage d’un système lumineux de véhicule automobile.
Un véhicule automobile comprend généralement plusieurs feux constituant des moyens d’éclairage ou de signalisation remplissant des fonctions diverses. Ces fonctions sont notamment remplies grâce à l’émission d’un faisceau lumineux dont les propriétés varient d’une fonction à l’autre.
La fonction feu de route permet d’éclairer la route avec une forte intensité. Toutefois, elle présente comme inconvénient d’éblouir les autres utilisateurs de la route, piéton, cycliste ou autres automobilistes.
L’utilisateur doit alors être attentif à basculer en fonction feu de croisement lorsqu’il détecte un autre utilisateur sur la route.
Un système nommé ADB (pour « adaptive driving bearn » en anglais) permet de conserver la fonction feu de route de manière permanente en masquant les autres utilisateurs de la route dans le faisceau de lumière de la fonction feu de route.
Un tel système ADB permet ainsi d’améliorer la visibilité sur la route, d’améliorer la sécurité et d’améliorer le confort du conducteur.
Le système ADB est basé sur un ensemble de capteurs et un système de contrôle électronique du système lumineux de véhicule automobile.
Un système connu est décrit dans la demande de brevet européenne EP2743129 du demandeur. Ce système définit une zone ciblée dans laquelle l’intensité du faisceau lumineux de la fonction feu de route est atténuée pour empêcher l’éblouissement quand un autre véhicule est détecté par une caméra du véhicule automobile.
La zone ciblée est déterminée de manière à correspondre à une zone bidimensionnelle ouvrant partiellement le véhicule cible. Une largeur de la zone ciblée qui est représentative de la largeur du véhicule cible est déterminée via des images acquises. Toutefois, un tel système n’est utilisable qu’en ligne droite, et le risque d’éblouissement sur une route incurvée est très élevé.
Une autre solution est proposée dans la demande de brevet européenne EP2657079. Elle suggère de modifier les paternes de distribution de lumière en fonction de la position d’un véhicule cible situé face au véhicule intégrant la solution. Lorsqu’il est détecté que la route est courbe, une section de contrôle passe l’éclairage en feu de croisement de manière automatique, afin d’éviter d’éblouir d’éventuels véhicules sur la route. Toutefois, la visibilité pour le conducteur du véhicule intégrant la solution est diminuée.
Une troisième solution est décrite dans la demande de brevet américaine US5707129. Cette solution prévoit également de basculer sur une fonction feu de croisement, ce qui réduit la visibilité pour le conducteur du véhicule automobile.
Une quatrième solution est décrite dans la demande de brevet américaine US2017/0205039 qui présente un système comprenant une première lampe pour générer une fonction feu de croisement dans une région faisant face au véhicule automobile et une seconde lampe projetant une lumière complémentaire dans les virages, dans des zones complémentaires de la région faisant face au véhicule automobile.
Toutefois, la courbure de la route et/ou l’inclinaison d’un véhicule cible n’est pas prise en compte et le risque d’éblouissement est ainsi élevé.
La présente invention vient améliorer la situation.
Un premier aspect de l’invention concerne un procédé d’adaptation d’une fonction feu de route d’un système lumineux d’un véhicule automobile hôte en vue d’éviter d’éblouir un véhicule cible, le système lumineux étant à haute définition, le procédé comprenant les étapes suivantes :
- réception de données captées par au moins un capteur apte à acquérir des données dans une direction de circulation du véhicule hôte;
- obtention, sur la base des données reçues, d’au moins une première information relative à une orientation du véhicule cible par rapport à une direction du véhicule hôte ;
- détermination, à partir de la première information, d’une zone ciblée correspondant à une position du véhicule cible ;
- adaptation de la fonction d’éclairage de manière à réduire l’intensité lumineuse de la fonction feu de route dans la zone ciblée uniquement.
La prise en compte de l’orientation du véhicule cible permet d’améliorer la précision de la zone ciblée qui est assombrie. En effet, dans un virage si le véhicule cible n’a pas la même direction que le véhicule hôte, il est préférable de prendre en compte l’inclinaison du véhicule cible pour agrandir la zone ciblée comparativement aux solutions de l’art antérieur. La fonction feu de route peut ainsi être conservée, améliorant ainsi la visibilité du conducteur du véhicule hôte, tout en évitant d’éblouir les conducteurs d’autres véhicules sur la route. En effet, la visibilité est maximisée en créant des tunnels correspondant à la zone ciblée, qui s’adaptent au véhicule cible.
Selon un mode de réalisation, le procédé peut comprendre en outre l’obtention d’au moins une seconde information relative à une courbure de la route sur laquelle circule le véhicule cible et la zone ciblée peut être déterminée à partir de la première information et de la deuxième information. Par exemple, la courbure de la route peut être utilisée pour déterminer si la zone ciblée doit être adaptée ou non en fonction de la première information, et la mise en œuvre du procédé est ainsi accélérée.
En complément, la seconde information peut être une valeur de courbure de la route, le procédé peut comprendre la comparaison de la valeur de courbure avec une valeur seuil et peut comprendre en outre, si la valeur de courbure est supérieure à la valeur seuil, la détermination d’une quantité en fonction de la première information, la quantité étant ajoutée pour agrandir la taille de la zone ciblée.
La quantité peut être la valeur D YAW détaillée ultérieurement. La zone ciblée est donc élargie en fonction de l’inclinaison du véhicule cible ce qui améliore la précision de l’adaptation de la fonction feu de route.
En complément, la zone ciblée et la quantité peuvent être identifiées par quatre angles, deux angles correspondant à un intervalle angulaire pour un feu avant gauche et deux angles correspondant à un intervalle angulaire pour un feu avant droit et l’adaptation de la fonction d’éclairage peut comprendre l’envoi d’une commande comprenant les quatre angles à un dispositif de contrôle du système lumineux.
Les données transmises au système lumineux sont ainsi interprétables directement par ce dernier, ce qui accélère la phase d’adaptation de la fonction feu de route.
En complément ou en variante, si la comparaison de la valeur de courbure est inférieure à la valeur seuil, la zone ciblée peut être centrée sensiblement dans la direction de circulation du véhicule hôte.
En complément, lorsque la valeur de courbure est inférieure à la valeur seuil, une position du véhicule cible selon un axe perpendiculaire à la direction de la route peut être comparée à une deuxième valeur seuil afin de différencier au moins deux situations de conduite, et la zone ciblée peut être déterminée en fonction de la situation de conduite.
Ainsi, il est possible d’adapter la zone ciblée à des situations de conduite différentes en ligne droite, par exemple lorsque les véhicules hôte et cible sont sur des mêmes voies ou sur des voies différentes.
En complément, la position peut être comparée à la deuxième valeur seuil et à une troisième seuil afin de différencier trois situations de conduite, et la zone ciblée peut être déterminée en fonction de la situation de conduite.
Ainsi, il est possible d’adapter la zone ciblée à des situations de conduite différentes en ligne droite, par exemple lorsque les véhicules hôte et cible sont sur des mêmes voies ou sur des voies différentes (véhicule hôte à gauche et véhicule cible à droite, ou véhicule hôte à droite et véhicule cible à gauche).
Ainsi, en cas de courbure inférieure à la valeur seuil, la route est considérée comme droite ce qui réduit les temps de calcul associés au procédé. Selon un mode de réalisation, la seconde information peut être reçue directement depuis un système de navigation du véhicule hôte ou depuis le capteur.
Dans un tel mode, la seconde information est accessible de manière fiable à partir des capteurs ou d’un système de navigation, ce qui améliore la réactivité du procédé. En variante, l’obtention de la seconde information comprend l’obtention depuis le capteur de données de position du véhicule cible et l’estimation de la seconde information sur la base des données de position en considérant une continuité de l’évolution de la route entre une position du véhicule hôte et la position du véhicule cible. Ainsi, lorsque la seconde information n’est pas accessible de manière fiable par un capteur ou un système de navigation, la présente invention prévoit tout de même d’estimer la seconde information, ce qui permet de mettre en œuvre le procédé en diminuant les coûts associés au système de capteurs utilisé.
Selon un mode de réalisation, la première information est reçue directement depuis le capteur et le capteur peut comprendre au moins un lidar.
Dans ce mode, la mise en œuvre du procédé est accélérée lorsque le système de capteurs est d’une grande précision, comme c’est le cas pour un lidar.
Selon un mode de réalisation, la première information peut être obtenue à partir d’une vitesse du véhicule cible et d’une vitesse du véhicule hôte.
Dans le cas où le système de capteurs ne permet pas d’accéder à la première information, elle peut être estimée, ce qui permet de réduire les coûts associés aux capteurs.
Selon un mode de réalisation, le système lumineux peut comprendre :
- une source lumineuse couplée à une matrice de miroirs ;
- une source lumineuse monolithique ;
-un système de balayage laser associé à un élément de conversion de longueur d’onde ;
- une source lumineuse matricielle comprenant au moins un segment d’éléments lumineux, tels que des diodes électroluminescentes ou une partie de surface d’une source lumineuse monolithique par exemple.
Toutes ces technologies permettent avantageusement la réalisation d’un système lumineux, notamment de haute définition, améliorant ainsi la précision dans la définition de la zone ciblée.
Selon un mode de réalisation, le procédé peut comprendre en outre une étape préalable mise en œuvre par au moins un capteur de détection du véhicule cible, l’acquisition des données captées par le capteur étant conditionnée par la détection préalable du véhicule cible. Ainsi, le procédé est optimisé en ce qu’il n’est mis en œuvre que lorsque un véhicule cible est détecté.
Selon un mode de réalisation, la zone ciblée est en outre déterminée à partir d’une position angulaire du véhicule cible et/ou d’une distance du véhicule cible. Ce qui est entendu par « position angulaire du véhicule cible » est défini ultérieurement. Une telle réalisation permet d’améliorer la précision de la détermination de la zone ciblée.
Un deuxième aspect de l’invention concerne un programme informatique comportant des instructions pour la mise en œuvre des étapes du procédé selon le premier aspect de l’invention, lorsque ces instructions sont exécutées par un processeur.
Un troisième aspect de l’invention pour le stockage d’un programme informatique comportant des instructions pour la mise en œuvre des étapes du procédé le premier aspect de l’invention, lorsque ces instructions sont exécutées par un processeur. Un quatrième aspect de l’invention concerne un dispositif de pilotage d’une fonction feu de route d’un système lumineux d’un véhicule automobile, le dispositif comprenant :
- une interface de réception de données captées par au moins un capteur apte à acquérir des données dans une direction de circulation du véhicule hôte; - un processeur configuré pour
- obtenir, sur la base des données reçues, au moins une première information relative à une orientation du véhicule cible par rapport à une direction du véhicule hôte ;
- déterminer, à partir de la première information, une zone ciblée correspondant à une position du véhicule cible ;
- adapter la fonction d’éclairage de manière à réduire l’intensité lumineuse de la fonction feu de route dans la zone ciblée uniquement. Un cinquième aspect de l’invention concerne un véhicule automobile comprenant un système lumineux et un dispositif de pilotage du système lumineux selon le quatrième aspect de l’invention.
D’autres caractéristiques et avantages de l’invention apparaîtront à l’examen de la description détaillée ci-après, et des dessins annexés sur lesquels :
La figure 1 illustre un système selon un mode de réalisation de l’invention;
La figure 2 est un diagramme illustrant les étapes d’un procédé selon un mode de réalisation de l’invention ;
La figure 3 illustre la mise en œuvre du procédé selon l’invention dans une première situation de conduite ;
La figure 4 illustre la position angulaire d’un véhicule cible et les distances entre un capteur et un système lumineux d’un véhicule hôte ;
La figure 5 illustre des tunnels sombres dans l’éclairage du véhicule hôte selon un mode de réalisation de l’invention ;
La figure 6 illustre la mise en œuvre du procédé selon l’invention dans une deuxième situation de conduite ;
La figure 7 illustre la mise en œuvre du procédé selon l’invention dans une troisième situation de conduite ;
La figure 8 illustre la mise en œuvre du procédé selon l’invention dans une quatrième situation de conduite.
La figure 1 présente un système comprenant un ensemble d’au moins un capteur 100, un dispositif de pilotage 101 d’un système lumineux 106 de véhicule automobile, et le système lumineux 106.
Le système lumineux 106 est un système lumineux à haute résolution, par exemple ayant une résolution supérieure à 1000 pixels.
Aucune restriction n’est attachée à la technologie utilisée pour la réalisation du système lumineux 106.
Le système lumineux peut par exemple comprendre une source monolithique. On appelle source monolithique une matrice d’éléments électroluminescents monolithique (en anglais « monolithic array ») agencés selon au moins deux colonnes par au moins deux lignes. Dans une matrice monolithique, les éléments électroluminescents peuvent être crûs depuis un substrat commun et peuvent être connectés électriquement de manière à être activables sélectivement, individuellement ou par sous-ensemble d’éléments électroluminescents. Le substrat peut être majoritairement en matériau semi- conducteur. Le substrat peut comporter un ou plusieurs autres matériaux, par exemple non semi-conducteurs (métaux et isolants). Ainsi, chaque élément électroluminescent ou groupe d’éléments électroluminescents peut former un pixel lumineux et peut émettre de la lumière lorsque son ou leur matériau est alimenté en électricité. La configuration d’une telle matrice monolithique permet l’agencement de pixels activables sélectivement très proches les uns des autres, par rapport aux diodes électroluminescentes classiques destinées à être soudées sur des plaques de circuits imprimés. La matrice monolithique peut comporter des éléments électroluminescents dont une dimension principale d’allongement, à savoir la hauteur, est sensiblement perpendiculaire à un substrat commun, cette hauteur étant au plus égale au micromètre.
La ou les matrices monolithiques aptes à émettre des rayons lumineux peuvent être couplées à une unité de contrôle de l’émission lumineuse de la source pixélisée, telle que le dispositif de pilotage 101. Le dispositif de pilotage 101 peut ainsi commander, ou piloter, la génération et/ou la projection d’un faisceau lumineux pixélisé par le système lumineux 106.
Le dispositif de pilotage 101 peut être intégré au système lumineux, et à cet effet, peut être monté sur une ou plusieurs des matrices. A noter que le dispositif de pilotage 101 peut être intégré au système lumineux même lorsque le système lumineux n’est pas de type à matrice monolithique.
Le dispositif de pilotage 101 peut comprendre une unité centrale de traitement, telle qu’un processeur 103, couplée à une mémoire sur laquelle est stocké un programme d’ordinateur qui comprend des instructions permettant au processeur de réaliser des étapes générant des signaux permettant le contrôle du système lumineux 106. Le dispositif de contrôle 101 peut ainsi par exemple contrôler individuellement l’émission lumineuse de chaque pixel d’une matrice. En outre, la luminance obtenue par la pluralité d’éléments peut être d’au moins 60Cd/mm2, de préférence d’au moins 80Cd/mm2.
Le dispositif de pilotage 101 peut former un dispositif électronique apte à commander les éléments électroluminescents du système lumineux 106. Le dispositif de pilotage 101 peut être un circuit intégré, encore appelé puce électronique, est un composant électronique reproduisant une ou plusieurs fonctions électroniques et pouvant intégrer un ou plusieurs types de composants électroniques de base, par exemple dans un volume réduit. Cela rend le circuit facile à utiliser. Le circuit intégré peut être par exemple une ASIC ou ASSP. Un ASIC, pour « Application-Specific Integrated Circuit » en anglais, est un circuit intégré développé pour au moins une application spécifique, c’est-à-dire pour un client. Un ASSP, pour « Application-Specific Standard Product » est un circuit électronique intégré, micro-électronique, regroupant un grand nombre de fonctionnalités pour satisfaire à une application généralement standardisée. Un ASIC est conçu pour un besoin plus particulier, ou spécifique, qu’un ASSP. L’alimentation en électricité des matrices monolithiques peut être réalisée via le dispositif électronique, lui-même alimenté en électricité à l’aide par exemple d’au moins un connecteur le reliant à une source d’électricité. La source d’électricité peut être interne ou externe aux entités représentées sur la figure 1.
Le dispositif de pilotage 101 peut ainsi être apte à contrôler l’alimentation du système lumineux 106.
Alternativement à ce qui a été présenté ci-dessus, le système lumineux peut comprendre une source lumineuse couplée à une matrice de miroirs. Ainsi, la source lumineuse pixellisée peut être formée par l’ensemble d’au moins une source de lumière formé d’au moins une diode électroluminescente émettant de la lumière et une matrice d’éléments optoélectroniques, par exemple une matrice de micro-miroirs, également connue sous l’acronyme DMD, pour « Digital Micro-mirror Device » en anglais, qui dirige les rayons lumineux issus de la source de lumière par réflexion vers un élément optique de projection. Le cas échéant, un élément optique de collection peut permettre de collecter les rayons de la au moins une source de lumière afin de les concentrer et les diriger vers la surface de la matrice de micro -miroirs. Chaque micro-miroir peut pivoter entre deux positions fixes, une première position dans laquelle les rayons lumineux sont réfléchis vers l’élément optique de projection, et une deuxième position dans laquelle les rayons lumineux sont réfléchis dans une direction différente de l’élément optique de projection. Les deux positions fixes sont orientées de la même manière pour tous les micro-miroirs et forment par rapport à un plan de référence support de la matrice de micro -miroirs un angle caractéristique de la matrice de micro -miroirs, défini dans ses spécifications. Un tel angle est généralement inférieur à 20°, et peut valoir usuellement environ 12°. Ainsi, chaque micro-miroir réfléchissant une petite partie des rayons lumineux incidents sur la matrice de micro-miroirs forme un émetteur élémentaire de la source lumineuse pixellisée, l’actionnement et le pilotage du changement de positions des miroirs permettant d’activer sélectivement cet émetteur élémentaire pour émettre ou non un faisceau lumineux élémentaire.
En variante encore, le système lumineux peut être formé par un système à balayage laser dans lequel une source laser émet un faisceau laser vers des moyens de balayage laser, dans lequel une source laser émet un faisceau laser vers des moyens de balayage configurés pour balayer avec le faisceau laser la surface d’un élément convertisseur de longueur d’onde, surface qui est imagée par l’élément optique de projection. Le balayage du faisceau peut être accompli par les moyens de balayage à une vitesse suffisamment grande pour que l’œil humain ne perçoive pas son déplacement dans l’image projetée.
Le pilotage synchronisé de l’allumage de la source laser et du mouvement de balayage du faisceau permet de générer une matrice d’émetteurs élémentaires activables sélectivement au niveau de la surface de l’élément convertisseur de longueur d’onde. Les moyens de balayage peuvent être un micro-miroir mobile permettant de balayer la surface de l’élément convertisseur de longueur d’onde par réflexion du faisceau laser. Les micro-miroirs mentionnés comme moyen de balayage sont par exemple de type MEMS, pour « Micro-Electro-Mechanical Systems » en anglais ou microsystème électromécanique. Cependant, l’invention n’est pas limitée à un tel moyen de balayage et peut utiliser d’autres sortes de moyens de balayage, telle qu’une série de miroirs agencés sur un élément rotatif, la rotation de l’élément engendrant un balayage de la surface de transmission par le faisceau laser.
En variante encore, la source lumineuse peut être matricielle et comprendre au moins un segment d’éléments lumineux, tels que des diodes électroluminescentes ou une partie de surface d’une source lumineuse monolithique.
Comme représenté sur la figure 1, le dispositif de contrôle peut comprendre une unité de traitement 103, une unité de contrôle 104 apte à générer des commandes destinées au système lumineux 106, une interface d’entrée 102 pour recevoir des données du ou des capteurs 100, et une interface de sortie 105 apte à transmettre les commande destinées au système lumineux 106.
La figure 2 illustre les étapes d’un procédé mis en œuvre par le ou les capteurs 100 et par le dispositif de contrôle 101 illustrés sur la figure 1, selon des premier, deuxième et troisième modes de réalisation de l’invention.
A une étape 200, le procédé débute, par exemple lors du démarrage du véhicule ou lorsque la fonction feu de route est activée.
La mise en route du procédé selon l’invention peut en outre être conditionné par la détection, à une étape 201, d’un véhicule cible partageant la route avec le véhicule automobile hôte dans lequel est mis en œuvre le procédé.
A une étape 202, le capteur ou les capteurs du véhicule automobile captent des données. En particulier, au moins un capteur est configuré pour capturer des données dans une direction de circulation du véhicule hôte. Les données perçues dépendent notamment de la nature du ou des capteurs, selon qu’il s’agisse d’une caméra, d’un radar ou d’un lidar. La mise en œuvre des premier, deuxième et troisième modes de réalisation dépend notamment des capteurs dont est équipé le véhicule automobile et/ou de la précision des données captées, comme expliqué dans ce qui suit.
Selon un premier mode de réalisation, les données captées permettent d’obtenir à la fois la distance du véhicule cible, la position angulaire du véhicule cible, la courbure du la route et l’orientation du véhicule cible par rapport à une direction du véhicule hôte. De telles données sont soit obtenues directement par le ou les capteurs, ou sont obtenues par le dispositif de pilotage 101 à partir des données issues du capteur.
La position angulaire du véhicule cible peut être définie par deux angles. Un premier angle correspond à l’angle entre la direction de circulation du véhicule automobile hôte et une direction entre un point donné (par exemple la localisation d’un capteur tel qu’un capteur d’image) du véhicule automobile hôte et un phare gauche d’un véhicule cible. Un deuxième angle correspond à l’angle entre la direction de circulation du véhicule automobile hôte et une direction entre un point donné (par exemple la localisation d’un capteur tel qu’un capteur d’image) du véhicule automobile hôte et un phare droit d’un véhicule cible.
Selon le premier mode de réalisation, les étapes 204 et 208 ne sont pas mises en œuvre.
A une étape 203, le dispositif de pilotage 101 reçoit les données captées par le ou les capteurs 100.
Selon le premier mode de réalisation, la courbure de la route est connue de manière fiable par le dispositif de pilotage 101. Une telle donnée peut être issue d’un capteur de type lidar par exemple.
La courbure de la route peut ensuite être comparée à une étape 204 à un seuil. La courbure de la route peut être définie à partir de l’inverse d’un rayon de courbure. Dans ce cas, de manière préférentielle, l’inverse de la valeur absolue du rayon de courbure de la route est comparé au seuil.
Si la courbure de la route est inférieure à un seuil donné, le procédé passe à l’étape 211 décrite ci-après. Aucune restriction n’est attachée à la valeur du seuil auquel est comparé le rayon de courbure de la route. Par exemple, le seuil peut correspondre à une valeur absolue du rayon de courbure de 1000 mètres.
A l’étape 211, il est différencié entre trois situations de conduite, à savoir : le véhicule hôte suit le véhicule cible sur une même ligne (situation A) ; le véhicule hôte croise ou suit le véhicule cible situé sur une voie gauche de la route alors que le véhicule hôte est sur la voie de droite (situation B); le véhicule hôte croise ou suit le véhicule cible situé sur la voie droite de la route alors que le véhicule hôte est sur la voie de gauche (situation C). Si la courbure de la route est supérieure au seuil donné, alors il est détecté à une étape 209 que la route est courbée vers la droite ou vers la gauche en fonction de G inclinaison du véhicule cible par rapport à la direction du véhicule hôte et en fonction de la courbure de la route.
A une étape 210, l’unité de traitement 103 calcule une valeur appelée D YAW à partir de rinclinaison du véhicule cible. La valeur D YAW sera mieux comprise à la lecture de ce qui suit.
A l’issue de l’étape 210, le procédé passe à l’étape 206.
A l’étape 206, il est déterminé une zone ciblée correspondant à une position du véhicule cible. La zone ciblée peut dépendre d’une largeur du véhicule cible, qui peut être par défaut ou calculée à partir de données de capteur. En outre, lorsque l’étape 206 fait suite à l’étape 210, la largeur de la zone ciblée dépend également de la valeur D YAW. Par exemple, la valeur D YAW est ajoutée de manière à agrandir la taille, telle que la dimension dans la direction de la largeur de la route, de la zone ciblée, comme détaillé ultérieurement.
La fonction d’éclairage de feu de route est ensuite adaptée en réduisant l’intensité lumineuse dans la zone ciblée. A cet effet, des données représentant la zone ciblée peuvent être envoyées au système lumineux 106 à une étape 207. Comme décrit dans ce qui suit, de telles données peuvent être quatre angles, deux angles correspondant à une première zone à assombrir via le feu avant gauche du véhicule hôte, et deux angles correspondant à une deuxième zone à assombrir via le feu avant droit du véhicule hôte. Le système lumineux peut ainsi créer un tunnel sombre correspondant à la zone ciblée dans le faisceau lumineux.
Le deuxième mode de réalisation correspond au cas où l’inclinaison du véhicule cible n’est pas obtenu directement du ou des capteurs 100. Dans ce cas, le procédé selon l’invention propose en outre de mettre en œuvre une étape 208 d’estimation de l’inclinaison du véhicule cible, à partir de données captées par le ou les capteurs du véhicule hôte. En particulier, l’estimation de l’inclinaison du véhicule cible peut dépendre de la vitesse du véhicule cible et de la vitesse du véhicule hôte. En notant Q l’inclinaison du véhicule hôte, on peut estimer Q par la relation suivante : Vy
Q = arctan - -— -
Vx + Vhost
dans lequel arctan est la fonction arc tangente ;
Vhost est la vitesse du véhicule hôte ;
Vx est la vitesse du véhicule cible dans la direction du véhicule hôte ;
Vy est la vitesse du véhicule cible dans la direction normale à la direction du véhicule hôte dans le plan de la route.
Les données sur la vitesse du véhicule cible peuvent être issues des données captées et reçues à l’étape 203.
Le troisième mode de réalisation correspond au cas où l’inclinaison du véhicule cible et la courbure de la route ne sont pas obtenus directement du ou des capteurs 100. Dans ce cas, le procédé selon l’invention met en œuvre les étapes 204 et 208.
L’étape 204 est une étape d’estimation de la courbure de la route par le dispositif de pilotage 101. L’estimation de la courbure de la route peut prendre pour hypothèse une continuité de l’évolution de la route entre le véhicule cible et le véhicule hôte. Les données d’entrée peuvent être l’orientation du véhicule cible et la courbure d’une première portion de route située au plus proche du véhicule hôte. En effet, le tracé de la première portion de route peut être obtenu à partir de données de caméra du véhicule hôte par exemple.
Une deuxième portion de la route située entre la première portion et le véhicule cible peut alors être estimé sur la base de l’hypothèse ci-dessus, en extrapolant la première portion jusqu’au véhicule cible.
Lors de l’étape 204, la courbure de la route peut être obtenue à partir d’un système de navigation, tel qu’un système de navigation GPS, pour « Global Positioning System » en anglais.
A noter, qu’en cas de détection d’un défaut de fiabilité des données de capteur, le procédé peut aller directement à l’étape 206 pour une détermination de la zone ciblée sans prise en compte de la valeur D YAW. Un tel défaut de fiabilité peut résulter d’une panne de capteur, d’un dysfonctionnement de l’algorithme de détection du véhicule cible, ou de toute indisponibilité de certaines données captées par le capteur 100. La figure 3 illustre une situation de conduite d’une route 301 courbée vers la droite avec un véhicule cible 303 circulant dans le même sens que le véhicule hôte 302.
L’inclinaison du véhicule cible est représentée par l’angle Q référencé 307. Le rayon de courbure Rcurv est quant à lui référencé 304. Une largeur du véhicule cible car width est notée 305 et une longueur car length du véhicule cible est notée 306.
La distance longitudinale Dl référencée 309 correspond à la distance selon l’axe X, ou selon la direction du véhicule hôte, entre un capteur du véhicule hôte et le phare arrière gauche du véhicule cible 303. La distance longitudinale Dr référencée 308 correspond à la distance selon l’axe X entre le capteur du véhicule hôte et le phare arrière droit du véhicule cible 303.
Les données 305, 306, 307, 308, 309 peuvent être obtenues à partir des données de capteurs 100 directement ou estimées à partir de ces données ou de données externes (telles que les données d’un système de navigation GPS).
En outre, les angles a et b illustrés sur la figure 4, définissant la position angulaire du véhicule cible 303, et respectivement référencés 313 et 312, sont obtenus par le capteur 100, de type caméra par exemple. L’angle a correspond à l’angle entre la direction du véhicule hôte (ou axe optique) et la droite joignant le capteur 100 et le feu avant droit du véhicule cible. L’angle b correspond à l’angle entre la direction du véhicule hôte (ou axe optique) et la droite joignant le capteur 100 et le feu avant gauche du véhicule cible. A noter que le véhicule cible peut circuler dans le même sens de circulation que le véhicule hôte auquel cas, les angles sont repérés par rapport aux feux arrière du véhicule cible 303.
La figure 4 présente en outre la distance longitudinale Hlr, référencée 314, entre le feu avant gauche du véhicule hôte et le capteur 100, et la distance longitudinale Hll, référencée 315, entre le feu avant gauche du véhicule hôte et le capteur 100. On considère pour la suite des calculs les distances Hlr et Hll comme égales et elles sont donc notées Hl. Toutefois, l’invention s’applique également au cas où ces distances sont différentes.
La distance latérale Lf entre le feu avant gauche du véhicule hôte et le capteur 100 est référencée 316 et la distance latérale Rf entre le feu avant droit du véhicule hôte et le capteur 100 est référencé 317. La valeur D YAW peut être calculée de la manière suivante :
D_YAW = cos (—— q) x Carjength
Les calculs ci-après détaillent comment obtenir les angles asl, asr, bsl et bsr représentés sur la figure 5.
L’angle asl correspond à l’angle entre la direction du véhicule hôte 302 et la droite joignant le feu avant gauche du véhicule hôte 302 au feu avant droit du véhicule cible 303 (ou au feu arrière gauche lorsque le véhicule cible circule dans le même sens que le véhicule hôte).
L’angle asr correspond à l’angle entre la direction du véhicule hôte 302 et la droite joignant le feu avant gauche du véhicule hôte 302 au feu avant gauche du véhicule cible 303 (ou au feu arrière droit lorsque le véhicule cible circule dans le même sens que le véhicule hôte).
L’angle bsl correspond à l’angle entre la direction du véhicule hôte 302 et la droite joignant le feu avant droit du véhicule hôte 302 au feu avant droit du véhicule cible 303 (ou au feu arrière gauche lorsque le véhicule cible circule dans le même sens que le véhicule hôte).
L’angle bsr correspond à l’angle entre la direction du véhicule hôte 302 et la droite joignant le feu avant droit du véhicule hôte 302 au feu avant gauche du véhicule cible 303 (ou au feu arrière droit lorsque le véhicule cible circule dans le même sens que le véhicule hôte).
Les angles asl, asr, bsl et bsr sont les quatre angles évoqués ci-dessus permettant de représenter la zone ciblée. Les quatre angles peuvent donc être utilisés pour commander le système lumineux afin d’adapter l’éclairage en réduisant l’intensité lumineuse dans la zone ciblée.
Dans le cas où un virage à droite est détecté à l’étape 209, selon l’exemple de la figure 3, les angles asl, asr, bsl et bsr peuvent être calculés selon les formules ci-dessous à l’étape 206 : asl = arctan
Figure imgf000018_0001
Dr x tan (b) + Lf + D YAW + Cl
asr = arctan
Dr - Hl + C2 Dl x tan(a)— Rf— C1
bsl = arctan
Dl— Hl + C2
Dr x tan(b) - Rf + D_YAW + C1
bsr = arctan
Dr - Hl + C2
Les notations sont cohérentes avec les notations utilisées pour décrire les figures 3 et 4.
En outre, Cl peut être égal à une fraction, telle que 15% par exemple, de la largeur du véhicule cible 303, afin de prendre en compte la distance entre le phare et le miroir.
C2 correspond à une marge en fonction de la précision des données de capteur. Si les données de capteur ont une précision suffisante, C2 peut être pris égal à 0.
Les angles ci-dessus prennent en compte la valeur D YAW, correspondant à la longueur référencée 310 sur la figure 3 et pouvant être calculée comme décrit ci-dessus, ce qui permet d’obtenir la zone ciblée 311 illustrée sur la figure 3 au lieu de la zone ciblée 320 de l’art antérieur ne prenant pas en compte l’inclinaison des véhicules cibles et/ou la courbure de la route. La zone ciblée 311 permet d’assurer que le conducteur du véhicule cible 303 n’est pas ébloui tout en améliorant la visibilité du conducteur du véhicule hôte 302 puisque la fonction feu de route n’a pas à être interrompue.
Les calculs ci-dessus correspondent au cas où un virage à droite est détecté, conformément à l’exemple de la figure 3.
La figure 6 illustre une situation de conduite dans laquelle un virage à gauche est détecté à l’étape 209.
Sur la figure 6, la valeur D YAW est également référencée 310 mais n’est pas ajoutée à droite de la zone ciblée de l’art antérieur, référencée 320 sur la figure 6, mais bien à gauche, avant d’adapter l’éclairage à la situation de conduite.
Dans ce cas, les angles asl, asr, bsl et bsr peuvent être calculés de la manière suivante :
Dl x tan (a) + Lf - D_YAW - Cl
asl = arctan - ————— - Dr x tan(b) + Lf + Cl
asr = arctan
Dr - H1 + C2
Dl x tan (a) - Rf - D_YAW - Cl
bsl = arctan
Dl - Hl + C2
Dr x tan(b)— Rf + Cl
bsr = arctan
Dr - Hl + C2
La zone ciblée 321 est ainsi obtenue, qui permet, comme la zone ciblée 311 décrite précédemment, d’assurer que le conducteur du véhicule cible 303 n’est pas ébloui tout en améliorant la visibilité du conducteur du véhicule hôte 302 puisque la fonction feu de route n’a pas à être interrompue.
Les situations de conduite illustrées aux figures 3 et 6 présentent des virages et le procédé selon l’invention comprend ainsi a minima les étapes 209 et 210 représentées sur la figure 2.
Les figures 7 et 8 présentent des situations de conduite dans lesquelles la courbure de la route est faible (le rayon de courbure est élevée) voire nulle.
La figure 7 illustre un cas dans lequel la courbure est nulle et dans lequel le véhicule cible 303 circule dans le même sens de circulation que le véhicule hôte 302, et correspond ainsi à la situation A décrite ci-avant.
Dans la situation A, on note Rl, R2, Ll et L2, respectivement les points arrière droit, avant droit, arrière gauche et avant gauche du véhicule cible 303. Le véhicule cible 303 est représenté par ces quatre points.
On note X l’abscisse des points Rl et Ll dans un repère orthonormé d’origine correspondant à un capteur du véhicule hôte 302, l’axe des abscisses étant dirigé dans le sens de circulation du véhicule hôte 302. On note Y l’ordonnée des points Rl et Ll dans le repère orthonormé.
Les coordonnées des points Rl, R2, Ll et L2 peuvent donc être obtenues par :
X_Rl = X
Y_Rl = Y + (l/2)*car_width
X Ll = X Y_Ll = Y - (l/2)*car_width
X_R2 = X + car_length
Y_R2 = Y + (l/2)*car_width
X_L2 = X+ car_length
Y_L2 = Y - (l/2)*car_width
On considère également une valeur seuil, notée seuil Y, pouvant être déterminée expérimentalement, et pouvant par exemple être égale à trois mètres.
La situation A est donc détectée à l’étape 211 lorsque les coordonnées Y du véhicule hôte sont comprises entre -seuil Y et +seuil_Y.
On utilise alors les points Rl et Ll pour les calculs et on note alors :
X_R = X_Rl;
Y_R = Y_Rl;
X L = X_Ll;
Y_L = Y_Ll;
a = arctan(Y_R , X_R );
b = arctan(Y_L , X L);
Dl= X L;
Dr= X R.
Dans une telle situation de conduite, la zone ciblée 331 ne requiert aucune adaptation en fonction de D YAW, qui est considéré comme nul.
Dans ce cas, les angles asl, asr, bsl et bsr peuvent être calculés de la manière suivante asl = arctan
Figure imgf000021_0001
Dr x tan(b) + Lf + C1
asr = arctan
Dr - Hl + C2
Dl x tan(a)— Rf— C1
bsl = arctan
Dl— Hl + C2
Dr x tan(b)— Rf + C1
bsr = arctan
Dr - Hl + C2 En outre, dans cette situation de conduite, les distances longitudinales Dr et Dl sont sensiblement égales.
La figure 8 illustre un cas dans lequel la courbure est nulle et dans lequel le véhicule cible 303 circule sur une voie de gauche (en sens inverse) tandis que le véhicule hôte 302 circule sur la voie de droite. La situation illustrée sur la figure 8 correspond donc à la situation B identifiée à l’étape 211.
Une telle situation est détectée lorsque la coordonnée Y du véhicule cible 303 est inférieure à -seuil Y.
On utilise alors les points R2 et Ll pour les calculs et on note :
X_R = X_R2;
Y R = Y R2;
X L = X_Ll;
Y_L = Y_Ll;
a = arctan(Y_R,X_R);
b= arctan(Y_L,X_L);
Dl= X L = X;
Dr= X R.
Dans une telle situation de conduite, la zone ciblée 331 ne requiert aucune adaptation en fonction de D YAW, qui est considéré comme nul.
Dans ce cas, les angles asl, asr, bsl et bsr sont calculés selon les mêmes formules que les formules ci-dessus décrites pour la figure 7.
Toutefois, la distance longitudinale Dl est calculée comme la distance entre le capteur 100 du véhicule hôte 302 et le phare avant droit du véhicule cible 303, et la distance longitudinale Dr est calculée comme la distance entre le capteur 100 du véhicule hôte 302 et le phare arrière gauche du véhicule cible 303.
Une autre situation de conduite est obtenue en considérant la situation symétrique par rapport à l’axe central de la route sur la figure 8. Dans ce cas, le véhicule hôte 302 circule à gauche et le véhicule cible 303 circule à droite et une telle situation correspond à la situation C identifiée à l’étape 211.
Une telle situation est identifiée lorsque la coordonnée Y du véhicule cible est supérieure à seuil Y. On utilise alors les points Rl et L2 pour les calculs et on note :X_R =
X_Rl;
Y_R = Y_Rl;
X L = X_L2;
Y_L = Y_L2;
a = arctan(Y_R,X_R);
b= arctan(Y_L,X_L);
Dl= X L;
DR= X R.
Dans une telle situation de conduite, la zone ciblée 331 ne requiert aucune adaptation en fonction de D YAW, qui est considéré comme nul.
Dans ce cas, les angles asl, asr, bsl et bsr sont calculés selon les mêmes formules que les formules ci-dessus décrites pour la figure 7.
Bien entendu, l'invention n'est pas limitée aux modes de réalisation décrits précédemment et fournis uniquement à titre d'exemple. Elle englobe diverses modifications, formes alternatives et autres variantes que pourra envisager l'homme du métier dans le cadre de la présente invention et notamment toutes combinaisons des différents modes de réalisation décrits précédemment.

Claims

Revendications
1. Procédé d’adaptation d’une fonction feu de route d’un système lumineux (106) d’un véhicule automobile hôte (302) en vue d’éviter d’éblouir un véhicule cible (303), le système lumineux étant à haute définition, le procédé comprenant les étapes suivantes :
- réception (203) de données captées par au moins un capteur (100) apte à acquérir des données dans une direction de circulation du véhicule hôte;
- obtention (208 ; 209), sur la base des données reçues, d’au moins une première information relative à une orientation du véhicule cible par rapport à une direction du véhicule hôte ;
- détermination (206), à partir de la première information, d’une zone ciblée (311 ; 321 ; 331 ; 342) correspondant à une position du véhicule cible ;
- adaptation (206 ; 207) de la fonction d’éclairage de manière à réduire l’intensité lumineuse de la fonction feu de route dans la zone ciblée uniquement.
2. Procédé selon la revendication 1, comprenant en outre l’obtention d’au moins une seconde information relative à une courbure de la route sur laquelle circule le véhicule cible et dans lequel la zone ciblée est déterminée à partir de la première information et de la deuxième information.
3. Procédé selon la revendication 2, dans lequel la seconde information est une valeur de courbure de la route, dans lequel le procédé comprend la comparaison (205) de la valeur de courbure avec une valeur seuil et comprend en outre, si la valeur de courbure est supérieure à la valeur seuil, la détermination d’une quantité en fonction de la première information (210), la quantité étant ajoutée pour agrandir la taille de la zone ciblée.
4. Procédé selon la revendication 3, dans lequel la zone ciblée (311 ; 321 ; 331 ; 342) et la quantité sont identifiées par quatre angles, deux angles correspondant à un intervalle angulaire pour un feu avant gauche et deux angles correspondant à un intervalle angulaire pour un feu avant droit ; et dans lequel l’adaptation de la fonction d’éclairage comprend l’envoi (207) d’une commande comprenant les quatre angles à un dispositif de contrôle du système lumineux.
5. Procédé selon la revendication 3 ou 4, dans lequel si la comparaison (205) de la valeur de courbure est inférieure à la valeur seuil, la zone ciblée est centrée sensiblement dans la direction de circulation du véhicule hôte.
6. Procédé selon la revendication 5, dans lequel, lorsque la valeur de courbure est inférieure à la valeur seuil, une position du véhicule cible selon un axe perpendiculaire à la direction de la route est comparée à une deuxième valeur seuil afin de différencier au moins deux situations de conduite, et dans lequel la zone ciblée est déterminée en fonction de la situation de conduite.
7. Procédé selon la revendication 6, dans lequel la position est comparée à la deuxième valeur seuil et à une troisième seuil afin de différencier trois situations de conduite, et dans lequel la zone ciblée est déterminée en fonction de la situation de conduite.
8. Procédé selon l’une des revendications 2 à 7, dans lequel la seconde information est reçue directement depuis un système de navigation du véhicule hôte ou depuis le capteur (100).
9. Procédé selon l’une des revendications 2 à 7, dans lequel l’obtention de la seconde information comprend l’obtention depuis le capteur de données de position du véhicule cible et l’estimation (204) de la seconde information sur la base des données de position en considérant une continuité de l’évolution de la route entre une position du véhicule hôte et la position du véhicule cible.
10. Procédé selon l’une des revendications précédentes, dans lequel la première information est reçue directement depuis le capteur (100) et dans lequel le capteur comprend au moins un lidar.
11. procédé selon la revendication 1 à 9, dans lequel la première information est obtenue à partir d’une vitesse du véhicule cible (303) et d’une vitesse du véhicule hôte (302).
12. Procédé selon l’une des revendications précédentes, dans lequel le système lumineux (106) comprend :
- une source lumineuse couplée à une matrice de miroirs ;
- une source lumineuse monolithique ;
-un système de balayage laser associé à un élément de conversion de longueur d’onde.
- une source lumineuse matricielle comprenant au moins un segment d’éléments lumineux.
13. Procédé selon l’une des revendications précédentes, comprenant en outre une étape préalable mise en œuvre par au moins un capteur de détection (201) du véhicule cible (303), l’acquisition des données captées par le capteur étant conditionnée par la détection préalable du véhicule cible.
14. Procédé selon l’une des revendications précédentes, dans lequel la zone ciblée est en outre déterminée à partir d’une position angulaire du véhicule cible (303) et/ou d’une distance du véhicule cible.
15. Programme informatique comportant des instructions pour la mise en œuvre des étapes du procédé selon l’une des revendications précédentes, lorsque ces instructions sont exécutées par un processeur.
16. Support pour le stockage d’un programme informatique comportant des instructions pour la mise en œuvre des étapes du procédé selon l’une des revendications 1 à 14, lorsque ces instructions sont exécutées par un processeur.
17. Dispositif de pilotage d’une fonction feu de route d’un système lumineux d’un véhicule automobile, le dispositif comprenant :
- une interface de réception (102) de données captées par au moins un capteur apte à acquérir des données dans une direction de circulation du véhicule hôte; - un processeur (103) configuré pour
- obtenir, sur la base des données reçues, au moins une première information relative à une orientation du véhicule cible par rapport à une direction du véhicule hôte ;
- déterminer, à partir de la première information, une zone ciblée correspondant à une position du véhicule cible ;
- adapter la fonction d’éclairage de manière à réduire l’intensité lumineuse de la fonction feu de route dans la zone ciblée uniquement.
PCT/EP2019/068165 2018-07-06 2019-07-05 Adaptation d'une fonction de feu de route d'un véhicule automobile WO2020008062A1 (fr)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1856252A FR3083494B1 (fr) 2018-07-06 2018-07-06 Adaptation d'une fonction de feu de route d'un vehicule automobile
FR1856252 2018-07-06

Publications (1)

Publication Number Publication Date
WO2020008062A1 true WO2020008062A1 (fr) 2020-01-09

Family

ID=65031385

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2019/068165 WO2020008062A1 (fr) 2018-07-06 2019-07-05 Adaptation d'une fonction de feu de route d'un véhicule automobile

Country Status (2)

Country Link
FR (1) FR3083494B1 (fr)
WO (1) WO2020008062A1 (fr)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111284394A (zh) * 2020-02-28 2020-06-16 华为技术有限公司 车辆远光灯的状态控制方法及装置、车联网模块处理***
CN112738956A (zh) * 2021-01-07 2021-04-30 浙江农林大学暨阳学院 汽车室内灯照明自适应***及控制方法
CN114715025A (zh) * 2022-04-29 2022-07-08 中国第一汽车股份有限公司 远光灯的控制方法、控制装置及电子设备
CN115681871A (zh) * 2021-08-16 2023-02-03 华为技术有限公司 一种车灯模块、灯光***以及车辆

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5707129A (en) 1993-10-13 1998-01-13 Koito Manufacturing Co., Ltd. Vehicular headlamp producing low beam having cut line controlled in accordance with condition of curved road
DE102008060949A1 (de) * 2008-12-06 2009-09-17 Daimler Ag Verfahren und Anordnung zur Ansteuerung von Fahrzeugscheinwerfern
EP2156983A1 (fr) * 2008-08-20 2010-02-24 Hella KG Hueck & Co. Procédé et dispositif de commande de la ligne de coupure verticale de phares
DE102009023093A1 (de) * 2009-05-12 2010-11-18 Daimler Ag Verfahren zur Fahrlichtsteuerung eines Fahrzeugs
US20130049587A1 (en) * 2011-08-26 2013-02-28 Stanley Electric Co., Ltd. Lighting control device for vehicle headlamp, and vehicle headlamp system
EP2636946A2 (fr) * 2012-03-08 2013-09-11 Stanley Electric Co., Ltd. Contrôleur de phare, unité optique et phare de véhicule
EP2639105A1 (fr) * 2010-11-12 2013-09-18 Toyota Jidosha Kabushiki Kaisha Système de commande de distribution de lumière pour véhicule et procédé de commande de distribution de lumière pour véhicule
EP2657079A2 (fr) 2009-07-10 2013-10-30 Koito Manufacturing Co., Ltd. Appareil de phare de véhicule
EP2700537A1 (fr) * 2012-08-21 2014-02-26 Koito Manufacturing Co., Ltd. Système de commande de lampe et dispositif de commande
EP2743129A1 (fr) 2012-12-11 2014-06-18 Valeo Vision Procédé et dispositif de commande d'un faisceau lumineux
US20170028904A1 (en) * 2014-04-18 2017-02-02 Denso Corporation Control apparatus for vehicle headlight
US20170205039A1 (en) 2016-01-14 2017-07-20 Hyundai Mobis Co., Ltd. Vehicle lamp apparatus and control method thereof

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5707129A (en) 1993-10-13 1998-01-13 Koito Manufacturing Co., Ltd. Vehicular headlamp producing low beam having cut line controlled in accordance with condition of curved road
EP2156983A1 (fr) * 2008-08-20 2010-02-24 Hella KG Hueck & Co. Procédé et dispositif de commande de la ligne de coupure verticale de phares
DE102008060949A1 (de) * 2008-12-06 2009-09-17 Daimler Ag Verfahren und Anordnung zur Ansteuerung von Fahrzeugscheinwerfern
DE102009023093A1 (de) * 2009-05-12 2010-11-18 Daimler Ag Verfahren zur Fahrlichtsteuerung eines Fahrzeugs
EP2657079A2 (fr) 2009-07-10 2013-10-30 Koito Manufacturing Co., Ltd. Appareil de phare de véhicule
EP2639105A1 (fr) * 2010-11-12 2013-09-18 Toyota Jidosha Kabushiki Kaisha Système de commande de distribution de lumière pour véhicule et procédé de commande de distribution de lumière pour véhicule
US20130049587A1 (en) * 2011-08-26 2013-02-28 Stanley Electric Co., Ltd. Lighting control device for vehicle headlamp, and vehicle headlamp system
EP2636946A2 (fr) * 2012-03-08 2013-09-11 Stanley Electric Co., Ltd. Contrôleur de phare, unité optique et phare de véhicule
EP2700537A1 (fr) * 2012-08-21 2014-02-26 Koito Manufacturing Co., Ltd. Système de commande de lampe et dispositif de commande
EP2743129A1 (fr) 2012-12-11 2014-06-18 Valeo Vision Procédé et dispositif de commande d'un faisceau lumineux
US20170028904A1 (en) * 2014-04-18 2017-02-02 Denso Corporation Control apparatus for vehicle headlight
US20170205039A1 (en) 2016-01-14 2017-07-20 Hyundai Mobis Co., Ltd. Vehicle lamp apparatus and control method thereof

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111284394A (zh) * 2020-02-28 2020-06-16 华为技术有限公司 车辆远光灯的状态控制方法及装置、车联网模块处理***
CN111284394B (zh) * 2020-02-28 2023-06-02 华为技术有限公司 车辆远光灯的状态控制方法及装置、车联网模块处理***
CN112738956A (zh) * 2021-01-07 2021-04-30 浙江农林大学暨阳学院 汽车室内灯照明自适应***及控制方法
CN112738956B (zh) * 2021-01-07 2022-08-19 浙江农林大学暨阳学院 汽车室内灯照明自适应***及控制方法
CN115681871A (zh) * 2021-08-16 2023-02-03 华为技术有限公司 一种车灯模块、灯光***以及车辆
CN115681871B (zh) * 2021-08-16 2024-02-13 华为技术有限公司 一种车灯模块、灯光***以及车辆
CN114715025A (zh) * 2022-04-29 2022-07-08 中国第一汽车股份有限公司 远光灯的控制方法、控制装置及电子设备

Also Published As

Publication number Publication date
FR3083494B1 (fr) 2021-04-16
FR3083494A1 (fr) 2020-01-10

Similar Documents

Publication Publication Date Title
WO2020008062A1 (fr) Adaptation d'une fonction de feu de route d'un véhicule automobile
EP3305592A1 (fr) Systeme d'eclairage pour vehicule automobile
EP2056093B1 (fr) Procédé de détection d'un phénomène perturbateur de visibilité pour un véhicule
FR2906362A1 (fr) Procede de determination anticipee d'un virage sur une portion de route et systeme associe.
EP1437259B1 (fr) Système de commande de l'orientation en site d'un projecteur de véhicule et procédé de mise en oeuvre
EP2301801A1 (fr) Procédé de commande d'un projecteur d'éclairage pour véhicule
FR3043168A1 (fr) Dispositif de projection de faisceau lumineux d’un vehicule automobile configure pour projeter une image pixelisee
FR3054505A1 (fr) Dispositif d'eclairage d'un vehicule, son procede de gestion et vehicule ainsi equipe
FR3001028A1 (fr) Torche d'eclairage pour vehicule automobile
FR3084726A1 (fr) Lampe de véhicule
FR3055431B1 (fr) Dispositif de projection d'une image pixelisee
FR3016573B1 (fr) Installation de retroviseur de vehicule
EP3860878A1 (fr) Procédé de pilotage de modules de projection de faisceaux de lumiere pixellise pour vehicule
WO2021122329A1 (fr) Procédé de contrôle d'un système d'éclairage d'un véhicule automobile
FR3055981B1 (fr) Controle de faisceau lumineux pixelise
EP3350507B1 (fr) Dispositif d'éclairage pour véhicules automobiles
FR3058106A1 (fr) Adaptation de l'eclairage d'un vehicule pour materialiser un marquage
FR2927857A1 (fr) Procede d'ajustement d'un faisceau lumineux pour vehicule
FR3032925A1 (fr) Generation et traitement deporte de photometrie
EP3860877B1 (fr) Procede de commande d'un dispositif d'eclairage pour l'emission d'un faisceau d'eclairage de la route non eblouissant
EP1870283B1 (fr) Ensemble projecteur à trois fonctions pour véhicule automobile
WO2021122071A1 (fr) Procédé de commande d'un système d'éclairage d'un véhicule automobile
WO2007042705A1 (fr) Projecteur pour vehicule automobile
FR3101180A1 (fr) Dispositif et procédé destinés à alerter un conducteur d’un véhicule automobile
WO2022180253A1 (fr) Procédé de contrôle d'un système d'éclairage d'un véhicule automobile

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19736714

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19736714

Country of ref document: EP

Kind code of ref document: A1