WO2021049239A1 - 車両用ランプシステム - Google Patents

車両用ランプシステム Download PDF

Info

Publication number
WO2021049239A1
WO2021049239A1 PCT/JP2020/030708 JP2020030708W WO2021049239A1 WO 2021049239 A1 WO2021049239 A1 WO 2021049239A1 JP 2020030708 W JP2020030708 W JP 2020030708W WO 2021049239 A1 WO2021049239 A1 WO 2021049239A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
pedestrian
bicycle
light source
control unit
Prior art date
Application number
PCT/JP2020/030708
Other languages
English (en)
French (fr)
Inventor
光之 望月
Original Assignee
株式会社小糸製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社小糸製作所 filed Critical 株式会社小糸製作所
Priority to US17/641,952 priority Critical patent/US20220305980A1/en
Priority to CN202080063924.XA priority patent/CN114390985A/zh
Priority to EP20863162.2A priority patent/EP4030154A4/en
Priority to JP2021545175A priority patent/JPWO2021049239A1/ja
Publication of WO2021049239A1 publication Critical patent/WO2021049239A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/02Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments
    • B60Q1/04Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights
    • B60Q1/14Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights having dimming means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/0017Devices integrating an element dedicated to another function
    • B60Q1/0023Devices integrating an element dedicated to another function the element being a sensor, e.g. distance sensor, camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/02Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments
    • B60Q1/04Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights
    • B60Q1/06Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights adjustable, e.g. remotely-controlled from inside vehicle
    • B60Q1/08Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights adjustable, e.g. remotely-controlled from inside vehicle automatically
    • B60Q1/085Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights adjustable, e.g. remotely-controlled from inside vehicle automatically due to special conditions, e.g. adverse weather, type of road, badly illuminated road signs or potential dangers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/02Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments
    • B60Q1/04Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights
    • B60Q1/14Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights having dimming means
    • B60Q1/1415Dimming circuits
    • B60Q1/1423Automatic dimming circuits, i.e. switching between high beam and low beam due to change of ambient light or light level in road traffic
    • B60Q1/143Automatic dimming circuits, i.e. switching between high beam and low beam due to change of ambient light or light level in road traffic combined with another condition, e.g. using vehicle recognition from camera images or activation of wipers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/02Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments
    • B60Q1/24Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments for lighting other areas than only the way ahead
    • B60Q1/249Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments for lighting other areas than only the way ahead for illuminating the field of view of a sensor or camera
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F21LIGHTING
    • F21SNON-PORTABLE LIGHTING DEVICES; SYSTEMS THEREOF; VEHICLE LIGHTING DEVICES SPECIALLY ADAPTED FOR VEHICLE EXTERIORS
    • F21S41/00Illuminating devices specially adapted for vehicle exteriors, e.g. headlamps
    • F21S41/10Illuminating devices specially adapted for vehicle exteriors, e.g. headlamps characterised by the light source
    • F21S41/12Illuminating devices specially adapted for vehicle exteriors, e.g. headlamps characterised by the light source characterised by the type of emitted light
    • F21S41/13Ultraviolet light; Infrared light
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F21LIGHTING
    • F21SNON-PORTABLE LIGHTING DEVICES; SYSTEMS THEREOF; VEHICLE LIGHTING DEVICES SPECIALLY ADAPTED FOR VEHICLE EXTERIORS
    • F21S41/00Illuminating devices specially adapted for vehicle exteriors, e.g. headlamps
    • F21S41/10Illuminating devices specially adapted for vehicle exteriors, e.g. headlamps characterised by the light source
    • F21S41/14Illuminating devices specially adapted for vehicle exteriors, e.g. headlamps characterised by the light source characterised by the type of light source
    • F21S41/141Light emitting diodes [LED]
    • F21S41/147Light emitting diodes [LED] the main emission direction of the LED being angled to the optical axis of the illuminating device
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F21LIGHTING
    • F21SNON-PORTABLE LIGHTING DEVICES; SYSTEMS THEREOF; VEHICLE LIGHTING DEVICES SPECIALLY ADAPTED FOR VEHICLE EXTERIORS
    • F21S41/00Illuminating devices specially adapted for vehicle exteriors, e.g. headlamps
    • F21S41/20Illuminating devices specially adapted for vehicle exteriors, e.g. headlamps characterised by refractors, transparent cover plates, light guides or filters
    • F21S41/25Projection lenses
    • F21S41/255Lenses with a front view of circular or truncated circular outline
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F21LIGHTING
    • F21SNON-PORTABLE LIGHTING DEVICES; SYSTEMS THEREOF; VEHICLE LIGHTING DEVICES SPECIALLY ADAPTED FOR VEHICLE EXTERIORS
    • F21S41/00Illuminating devices specially adapted for vehicle exteriors, e.g. headlamps
    • F21S41/60Illuminating devices specially adapted for vehicle exteriors, e.g. headlamps characterised by a variable light distribution
    • F21S41/67Illuminating devices specially adapted for vehicle exteriors, e.g. headlamps characterised by a variable light distribution by acting on reflectors
    • F21S41/675Illuminating devices specially adapted for vehicle exteriors, e.g. headlamps characterised by a variable light distribution by acting on reflectors by moving reflectors
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F21LIGHTING
    • F21VFUNCTIONAL FEATURES OR DETAILS OF LIGHTING DEVICES OR SYSTEMS THEREOF; STRUCTURAL COMBINATIONS OF LIGHTING DEVICES WITH OTHER ARTICLES, NOT OTHERWISE PROVIDED FOR
    • F21V14/00Controlling the distribution of the light emitted by adjustment of elements
    • F21V14/04Controlling the distribution of the light emitted by adjustment of elements by movement of reflectors
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F21LIGHTING
    • F21VFUNCTIONAL FEATURES OR DETAILS OF LIGHTING DEVICES OR SYSTEMS THEREOF; STRUCTURAL COMBINATIONS OF LIGHTING DEVICES WITH OTHER ARTICLES, NOT OTHERWISE PROVIDED FOR
    • F21V23/00Arrangement of electric circuit elements in or on lighting devices
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J1/00Photometry, e.g. photographic exposure meter
    • G01J1/42Photometry, e.g. photographic exposure meter using electric radiation detectors
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • G03B15/02Illuminating scene
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/143Sensing or illuminating at different wavelengths
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/20Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from infrared radiation only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/105Controlling the light source in response to determined parameters
    • H05B47/115Controlling the light source in response to determined parameters by determining the presence or movement of objects or living beings
    • H05B47/125Controlling the light source in response to determined parameters by determining the presence or movement of objects or living beings by using cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2300/00Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
    • B60Q2300/40Indexing codes relating to other road users or special conditions
    • B60Q2300/45Special conditions, e.g. pedestrians, road signs or potential dangers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation

Definitions

  • the present invention relates to a vehicle lamp system used for a vehicle such as an automobile.
  • Patent Document 1 attempts to obtain a clear image by controlling the light projecting means based on the image captured by the imaging means.
  • An object of the present invention is to provide a vehicle lamp system in which the detection accuracy of an infrared camera is further improved.
  • the vehicle lamp system of one aspect of the present invention is A vehicle lamp system mounted on a vehicle having an in-vehicle sensor that acquires information on the surroundings of the vehicle.
  • An IR light source that emits infrared rays and A scanning means for scanning the light emitted from the IR light source in front of the lamp and emitting the light.
  • An infrared camera having high sensitivity to the wavelength of infrared rays emitted by the IR light source,
  • An area setting unit that sets at least one of a dimming area and a highlighting area by comparing the information acquired from the in-vehicle sensor with the information acquired by the infrared camera.
  • It has a lamp control unit that controls turning on and off of the IR light source and the amount of input power so as to irradiate a specific region with infrared rays emitted from the IR light source based on the output of the region setting unit.
  • the area setting unit acquires the first object information indicating an object from the in-vehicle sensor and the second object information indicating the object from the infrared camera at a certain position
  • the area setting unit obtains the first object information indicating the object.
  • the lamp control unit may control the IR light source so that the emphasized region is irradiated with infrared rays with a higher illuminance than the other regions.
  • the area setting unit sets an area corresponding to a pixel having a brightness higher than a predetermined value in the image acquired by the infrared camera as a dimming area.
  • the lamp control unit may control the IR light source so that the dimming region is irradiated with infrared rays with an illuminance lower than that of other regions.
  • a vehicle position acquisition device that acquires the position information of the vehicle using a global positioning satellite system, It has a pedestrian or bicycle position information with an infrastructure equipment or another person's position acquisition device that acquires it from another vehicle.
  • the lamp control unit calculates the direction of the pedestrian or the bicycle as seen from the own vehicle and emphasizes the direction of the pedestrian or the bicycle, or suppresses the direction of the pedestrian or the bicycle to irradiate.
  • the IR light source may be controlled.
  • the other person position acquisition device may be configured to acquire a signal emitted by a mobile terminal possessed by the pedestrian or the driver of the bicycle via the infrastructure equipment.
  • the lamp control unit compares the position information of the pedestrian or the bicycle acquired by the other person's position acquisition device with the image acquired by the infrared camera, and the pedestrian or the bicycle acquired by the other person's position acquisition device
  • the IR light source may be controlled so that infrared rays are emitted with emphasis toward the position information.
  • the lamp control unit determines that the pedestrian or the bicycle is moving in a direction crossing the front of the own vehicle based on the information acquired by the own vehicle position acquisition device and the other person position acquisition device.
  • the IR light source may be controlled so as to emphasize the direction of the pedestrian or the bicycle.
  • the lamp control unit matches the position information of the pedestrian or the bicycle acquired by the other person's position acquisition device with the position information of the pedestrian or the bicycle acquired from the infrared camera, and walks from the infrared camera.
  • the IR light source may be controlled so as to emphasize the direction of the pedestrian or the bicycle.
  • a vehicle lamp system with higher detection accuracy of an infrared camera is provided.
  • FIG. 1 It is a block diagram of the vehicle system which incorporates the vehicle lamp system which concerns on embodiment of this invention. It is sectional drawing of the vehicle lamp equipment incorporated in the vehicle lamp system which concerns on embodiment of this invention. It is a schematic diagram which shows the internal structure of a lamp unit. It is a system block diagram of a vehicle lamp system. It is a flowchart of the process executed by the vehicle lamp system.
  • the image acquired by the in-vehicle camera at time t1 is shown.
  • the image acquired by the infrared camera at time t1 is shown.
  • An image of an infrared camera taken after the highlighted area is irradiated with infrared rays with high illuminance is shown.
  • An image with whiteout acquired by an infrared camera is shown.
  • FIG. 1 is a block diagram of a vehicle system 2 in which the vehicle lamp system 100 according to the embodiment of the present invention is incorporated.
  • the vehicle system 2 according to the present embodiment includes a vehicle control unit 3, a vehicle lighting tool 4, a sensor 5, a camera 6, a radar 7, an HMI (Human Machine Interface) 8, and the like. It includes a GPS (Global Positioning System) 9, a wireless communication unit 10, and a map information storage unit 11. Further, the vehicle system 2 includes a steering actuator 12, a steering device 13, a brake actuator 14, a brake device 15, an accelerator actuator 16, and an accelerator device 17.
  • the vehicle control unit 3 is configured to control the running of the vehicle 1.
  • the vehicle control unit 3 is composed of, for example, an electronic control unit (ECU: Electronic Control Unit).
  • the electronic control unit includes a microcontroller including a processor and a memory, and other electronic circuits (for example, a transistor and the like).
  • the processor is, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), and / or a GPU (Graphics Processing Unit).
  • the memory is a ROM (Read Only Memory) in which various vehicle control programs (for example, an artificial intelligence (AI) program for automatic driving) are stored, and a RAM (Random Access Memory) in which various vehicle control data are temporarily stored. )including.
  • the processor is configured to expand a program designated from various vehicle control programs stored in the ROM on the RAM and execute various processes in cooperation with the RAM.
  • the sensor 5 includes an acceleration sensor, a speed sensor, a gyro sensor, and the like.
  • the sensor 5 is configured to detect the running state of the vehicle 1 and output the running state information to the vehicle control unit 3.
  • the sensor 5 includes a seating sensor that detects whether the driver is sitting in the driver's seat, a face orientation sensor that detects the direction of the driver's face, an external weather sensor that detects the external weather condition, and whether or not there is a person in the vehicle.
  • a motion sensor or the like for detecting may be further provided.
  • the sensor 5 may include an illuminance sensor that detects the illuminance of the surrounding environment of the vehicle 1.
  • the camera (vehicle-mounted camera) 6 is, for example, a camera including an image sensor such as a CCD (Charge-Coupled Device) or a CMOS (Complementary MOS).
  • the image pickup of the camera 6 is controlled based on the signal transmitted from the vehicle control unit 3.
  • the camera 6 can generate an image based on the received visible light.
  • the radar 7 is a millimeter wave radar, a microwave radar, a laser radar, or the like.
  • the radar 7 may be provided with LiDAR (Light Detection and Ringing or Laser Imaging Detection and Ranking).
  • LiDAR is a sensor that generally emits invisible light in front of it and acquires information such as the distance to an object, the shape of the object, and the material of the object based on the emitted light and the return light.
  • the camera 6 and the radar 7 (an example of a sensor) detect the surrounding environment of the vehicle 1 (other vehicles, pedestrians, road shapes, traffic signs, obstacles, etc.) and output the surrounding environment information to the vehicle control unit 3. It is configured in.
  • the HMI 8 is composed of an input unit that receives an input operation from the driver and an output unit that outputs driving information and the like to the driver.
  • the input unit includes a steering wheel, an accelerator pedal, a brake pedal, an operation mode changeover switch for switching the operation mode of the vehicle 1, and the like.
  • the output unit is a display that displays various traveling information.
  • the GPS 9 is configured to acquire the current position information of the vehicle 1 and output the acquired current position information to the vehicle control unit 3.
  • the wireless communication unit 10 is configured to receive information about another vehicle (for example, traveling information) around the vehicle 1 from the other vehicle and transmit information about the vehicle 1 (for example, traveling information) to the other vehicle. (Vehicle-to-vehicle communication). Further, the wireless communication unit 10 is configured to receive infrastructure information from infrastructure equipment such as traffic lights and indicator lights and to transmit traveling information of vehicle 1 to the infrastructure equipment (road-to-vehicle communication).
  • the map information storage unit 11 is an external storage device such as a hard disk drive in which map information is stored, and is configured to output map information to the vehicle control unit 3.
  • the vehicle control unit 3 determines at least one of the steering control signal, the accelerator control signal, and the brake control signal based on the traveling state information, the surrounding environment information, the current position information, the map information, and the like. Generate one automatically.
  • the steering actuator 12 is configured to receive a steering control signal from the vehicle control unit 3 and control the steering device 13 based on the received steering control signal.
  • the brake actuator 14 is configured to receive a brake control signal from the vehicle control unit 3 and control the brake device 15 based on the received brake control signal.
  • the accelerator actuator 16 is configured to receive an accelerator control signal from the vehicle control unit 3 and control the accelerator device 17 based on the received accelerator control signal. As described above, in the automatic driving mode, the traveling of the vehicle 1 is automatically controlled by the vehicle system 2.
  • the vehicle control unit 3 when the vehicle 1 travels in the manual driving mode, the vehicle control unit 3 generates a steering control signal, an accelerator control signal, and a brake control signal according to the manual operation of the driver on the accelerator pedal, the brake pedal, and the steering wheel.
  • the steering control signal, the accelerator control signal, and the brake control signal are generated by the manual operation of the driver, so that the driving of the vehicle 1 is controlled by the driver.
  • the operation mode includes an automatic operation mode and a manual operation mode.
  • the automatic driving mode includes a fully automatic driving mode, an advanced driving support mode, and a driving support mode.
  • the vehicle system 2 automatically performs all driving controls such as steering control, brake control, and accelerator control, and the driver is not in a state where the vehicle 1 can be driven.
  • the vehicle system 2 automatically performs all driving control of steering control, brake control, and accelerator control, and the driver does not drive the vehicle 1 although he / she is in a state where he / she can drive the vehicle 1.
  • the vehicle system 2 In the driving support mode, the vehicle system 2 automatically performs some driving control of steering control, brake control, and accelerator control, and the driver drives the vehicle 1 under the driving support of the vehicle system 2.
  • the vehicle system 2 In the manual driving mode, the vehicle system 2 does not automatically control the driving, and the driver drives the vehicle 1 without the driving support of the vehicle system 2.
  • the driving mode of the vehicle 1 may be switched by operating the driving mode changeover switch.
  • the vehicle control unit 3 sets the driving mode of the vehicle 1 into four driving modes (fully automatic driving mode, advanced driving support mode, driving support mode, manual driving mode) according to the driver's operation on the driving mode changeover switch. ).
  • the driving mode of the vehicle 1 is automatically set based on the information on the travelable section in which the autonomous vehicle can travel, the travel prohibited section in which the autonomous vehicle is prohibited, or the information on the external weather condition. It may be switched.
  • the vehicle control unit 3 switches the driving mode of the vehicle 1 based on this information.
  • the driving mode of the vehicle 1 may be automatically switched by using a seating sensor, a face orientation sensor, or the like. In this case, the vehicle control unit 3 switches the driving mode of the vehicle 1 based on the output signals from the seating sensor and the face orientation sensor.
  • FIG. 2 is a cross-sectional view of a vehicle lamp 4 incorporated in the vehicle lamp system 100 according to the embodiment of the present invention.
  • the vehicle lighting equipment 4 is equipped with a headlamp unit 20 capable of irradiating a low beam and a high beam, and a lamp unit 30 capable of irradiating infrared rays.
  • the headlamp unit 20 and the lamp unit 30 are provided in a common lamp chamber 43 formed by the outer cover 41 and the housing 42.
  • the vehicle lamp 4 is mounted on the front portion of the vehicle 1.
  • the headlamp unit 20 and the lamp unit 30 are controlled by the control unit 101.
  • the headlamp unit 20 is a parabolic type or projector type lamp unit.
  • the headlamp unit 20 includes a light source 21, a reflector 22, and a projection lens 24.
  • the headlamp unit 20 can form a known high beam light distribution pattern or low beam light distribution pattern.
  • FIG. 3 is a schematic view showing the internal configuration of the lamp unit 30.
  • the lamp unit 30 includes a housing 30a, an IR light source 32 that emits infrared rays, a rotating reflector 33 (scanning means), an infrared camera 34, a lens component 35, and a light-shielding wall 36.
  • the inside of the housing 30a is divided into two spaces, a first light room 37 and a second light room 38, by a light-shielding wall 36.
  • the IR light source 32 and the rotary reflector 33 are provided in the first lighting room 37.
  • the infrared camera 34 is provided in the second lighting room 38.
  • the IR light source 32 is composed of an LD (Laser Diode) that emits infrared rays.
  • the IR light source may be composed of an LED (Light Emitting Diode) in addition to the LD.
  • the rotation reflector 33 rotates around the rotation axis R.
  • the rotary reflector 33 includes a shaft portion 33a extending around the rotation axis R and two blades 33b extending in the radial direction from the shaft portion 33a.
  • the surface of the blade 33b is a reflective surface.
  • This reflecting surface has a twisted shape in which the angle with respect to the rotation axis R gradually changes in the circumferential direction.
  • the lamp unit 30 can scan and emit the light from the IR light source 32 in a predetermined range.
  • a lens component 35 is provided in front of the housing 30a.
  • the lens component 35 has a first lens element 35a and a second lens element 35b.
  • the first lens element 35a is located in front of the first light chamber 37.
  • Light emitted from the IR light source 32 and reflected by the rotary reflector 33 is incident on the first lens element 35a.
  • the second lens element 35b is located in front of the second light chamber 38.
  • the second lens element 35b collects the light from the front of the lamp and guides it to the infrared camera 34.
  • the infrared camera 34 is a camera having the highest sensitivity to the peak wavelength of infrared rays emitted from the IR light source 32.
  • the infrared camera 34 can acquire an image corresponding to the reflected light of infrared rays emitted from the IR light source 32 in front of the lamp.
  • the image acquired by the infrared camera 34 is transmitted to the control unit 101.
  • FIG. 4 is a system block diagram of the vehicle lamp system 100.
  • the vehicle lamp system 100 includes a control unit 101 in addition to the lamp unit 30 described above.
  • the control unit 101 is communicably connected to the lamp unit 30.
  • the control unit 101 includes a lamp control unit 102 that controls the lighting state of the IR light source 32 and an input current amount (input power amount), and an area setting unit 103 that sets a normal region, a dimming region, and an emphasis region, which will be described later. There is.
  • FIG. 5 is a flowchart of the process executed by the vehicle lamp system 100.
  • the region setting unit 103 of the control unit 101 first sets a normal region in the entire irradiation range of the IR light source 32, supplies the current of the first current value to the IR light source 32, and all regions. Is irradiated with infrared rays with the same illuminance (step S01).
  • step S01 Is irradiated with infrared rays with the same illuminance
  • control unit 101 acquires an image from the in-vehicle camera 6 as shown in FIG. 6 at time t1 when the infrared rays are irradiated to all the regions with the same illuminance, and the infrared rays as shown in FIG.
  • the image from the camera 34 is acquired (step S02).
  • the in-vehicle camera 6 photographs the oncoming vehicle A and the pedestrian B in front of the own vehicle.
  • the infrared camera 34 is photographing the oncoming vehicle A in front of the own vehicle, but the pedestrian B is not able to photograph.
  • the surface of a vehicle is made of metal and easily reflects infrared rays.
  • the skin and clothing of pedestrian B do not easily reflect infrared rays. Therefore, it is possible that the infrared camera 34 cannot photograph the pedestrian B.
  • the image acquired by the in-vehicle camera 6 and the image acquired by the infrared camera 34 are compared. Specifically, the control unit 101 identifies the first position where an object such as an oncoming vehicle A or a pedestrian B is presumed to exist based on the image of the vehicle-mounted camera 6. Further, the control unit 101 identifies a second position where the object is presumed to exist based on the image of the infrared camera 34. The control unit 101 determines whether or not the first position and the second position match (step S03). The fact that the first position and the second position match means that the number of objects estimated to exist and the coordinates (direction) estimated to exist the objects match. If the first position and the second position match (step S3: Yes), it is determined that an object exists at that position, the presence or absence of the object and its position are specified (step S09), and vehicle control is performed. The information is transmitted to the part 3 (step S10).
  • step S03 when the first position estimated based on the image of the in-vehicle camera 6 and the second position estimated based on the image of the infrared camera 34 are different (step S03). : No), the following control is performed.
  • the region where the object is estimated to exist in the image of the vehicle-mounted camera 6 is estimated to be nonexistent in the image of the infrared camera 34 as shown in FIG. 7 (step S03). : No), when the image of the infrared camera 34 does not include pixels having a brightness equal to or higher than a predetermined value (step S04: No), the area setting unit 103 states that “in the image of the in-vehicle camera 6” as shown in FIG.
  • the emphasis region P is set in the region in which the object is presumed to exist and in the region in which the object is presumed not present in the image of the infrared camera 34 (step S05). Further, the area setting unit 103 sets a normal area in an area other than the area set in the emphasized area P.
  • the lamp control unit 102 irradiates the normal region and the emphasized region P with infrared rays at a predetermined illuminance (step S07). Specifically, the lamp control unit 102 supplies the current of the first current value to the IR light source 32 toward the normal region, and IRs the current of the second current value larger than the first current value toward the emphasized region P. It is supplied to the light source 32. As a result, the emphasized region P is irradiated with infrared rays with a higher illuminance than the normal region.
  • FIG. 8 shows an image of the infrared camera 34 taken after the highlighted region P is irradiated with infrared rays with high illuminance.
  • the control unit 101 sets the normal region and the emphasis region P in this way, irradiates the vehicle with infrared rays at a predetermined illuminance, and then acquires the image of the vehicle-mounted camera 6 and the image of the infrared camera 34 again (step S08), and the vehicle-mounted camera It is determined whether or not the position of the object estimated from the image of No. 6 and the position of the object estimated from the image of the infrared camera 34 match (step S03).
  • the infrared camera 34 may not be able to detect the infrared reflected light of another object because the infrared reflection intensity of some objects is too large. This is a case where the infrared exposure is too large and whiteout occurs in a part of the image of the infrared camera 34.
  • FIG. 9 shows an image taken by the infrared camera 34 at the same time t1 as in FIG. It shows that the intensity of the infrared light reflected by the oncoming vehicle A is too strong, and the infrared camera 34 cannot photograph the pedestrian B on the right side of the oncoming vehicle A.
  • step S03: No it is presumed that the object does not exist in the image of the infrared camera 34 in the region where the object is presumed to exist in the image of the vehicle-mounted camera 6 (step S03: No), and the infrared camera 34
  • the area setting unit 103 reduces the image of the infrared camera 34 to a region where the brightness is equal to or higher than the predetermined value.
  • the optical region Q is set (step 06).
  • the area setting unit 103 sets the dimming area Q in the area where the oncoming vehicle A is photographed. Further, the area setting unit 103 sets a normal area in an area other than the area set in the dimming area Q.
  • the control unit 101 irradiates the normal region and the dimming region Q with infrared rays at a predetermined illuminance (step S07). Specifically, the lamp control unit 102 supplies a current having a first current value toward the normal region to the IR light source 32, and supplies a current having a third current value smaller than the first current value toward the dimming region Q. It is supplied to the IR light source 32. As a result, the dimmed region Q is irradiated with infrared rays with an illuminance lower than that in the normal region.
  • FIG. 10 shows an image of the infrared camera 34 taken after the dimming region Q is irradiated with infrared rays having a weak illuminance.
  • the control unit 101 sets the normal region and the dimming region Q in this way, irradiates the vehicle with infrared rays at a predetermined illuminance, and then acquires the image of the vehicle-mounted camera 6 and the image of the infrared camera 34 again (step S08). It is determined whether or not the position of the object estimated from the image of the camera 6 and the position of the object estimated from the image of the infrared camera 34 match (step S03).
  • the infrared camera 34 in order to control the IR light source 32 for the infrared camera 34 by comparing the image of the vehicle-mounted camera 6 with the image of the infrared camera 34, the infrared camera 34 is used. Infrared rays are emitted in a suitable manner, and the output of the infrared camera 34 becomes clearer. Since the IR light source 32 is controlled based on two cameras having different detection methods, an in-vehicle camera 6 that acquires an image based on visible light and an infrared camera 34 that acquires an image based on infrared rays, the accuracy of the infrared camera 34 is further improved. be able to.
  • the vehicle lamp system 100 may include the own vehicle position acquisition device 104 and the other person position acquisition device 105.
  • the own vehicle position acquisition device 104 acquires the position information of the own vehicle by the global positioning satellite system 106 such as GPS.
  • the other person position acquisition device 105 acquires the position information of the pedestrian B or the bicycle from the infrastructure equipment 106 or the other vehicle.
  • the other person position acquisition device 105 acquires a signal emitted by the mobile terminal 107 possessed by the pedestrian B or the bicycle driver via the infrastructure equipment 106.
  • the control unit 101 calculates the direction of the pedestrian B or the bicycle as seen from the own vehicle and emphasizes the direction of the pedestrian B or the bicycle, or suppresses the direction of the pedestrian B or the bicycle and irradiates the bicycle.
  • the IR light source 32 may be controlled.
  • Pedestrians B and bicycles have weaker reflection intensity in both visible light and infrared rays than automobiles, and it is difficult to detect them with the in-vehicle camera 6 or the infrared camera 34 in the first place.
  • the presence of pedestrian B and bicycle can be acquired by the other person position acquisition device 105, and pedestrian B by the in-vehicle camera 6 and infrared camera 34. And the detection accuracy of the bicycle can be improved.
  • control unit 101 compares the position of the pedestrian B or the bicycle acquired by the other person's position acquisition device 105 with the image acquired by the infrared camera 34, and the pedestrian B acquired by the other person's position acquisition device 105.
  • the enhancement region P may be set at the position of another person, and the IR light source 32 may be controlled so that the light is irradiated toward the position of the other person. ..
  • the accuracy of the information is high.
  • the vehicle control unit 3 uses the infrared camera 34 and the in-vehicle camera 6 to obtain the accurate positions of the pedestrian B and the bicycle. According to such a configuration, it is easy to acquire the accurate position of the pedestrian B or the bicycle by the infrared camera 34.
  • the emphasis region P may be set in the direction in which the pedestrian B or the bicycle exists, and the IR light source 32 may be controlled so as to emphasize this direction.
  • the vehicle control unit 3 it is important for the vehicle control unit 3 to grasp the existence of the pedestrian B or the bicycle. According to this embodiment, it is easy to grasp the existence of a pedestrian B or a bicycle trying to cross the front of the own vehicle.
  • control unit 101 matches the position information of the pedestrian B or the bicycle acquired by the other person position acquisition device 105 with the position information of the pedestrian B or the bicycle estimated from the image of the in-vehicle camera 6 and is an infrared camera.
  • the IR light source 32 may be controlled so as to emphasize the direction of the pedestrian B or the bicycle. With such a configuration, it is easier to grasp the positions of the pedestrian B and the bicycle more reliably by the infrared camera 34.
  • the present invention is not limited to the above-described embodiment, and can be freely modified, improved, and the like as appropriate.
  • the material, shape, size, numerical value, form, number, arrangement location, etc. of each component in the above-described embodiment are arbitrary and are not limited as long as the present invention can be achieved.
  • the dimmed region may not be irradiated with infrared rays.
  • the configuration using the in-vehicle camera that acquires an image based on visible light and the infrared camera has been described, but the configuration is not limited to the in-vehicle camera that acquires an image based on visible light, and the surroundings of the vehicle such as LiDAR and radar.
  • the vehicle lamp system may be configured by using another in-vehicle sensor capable of acquiring the above information and an infrared camera.
  • the infrared camera 34 may be mounted on the vehicle lamp 4 or may be mounted on the vehicle 1 as described above.
  • a vehicle lamp system with higher detection accuracy of an infrared camera is provided.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Lighting Device Outwards From Vehicle And Optical Signal (AREA)

Abstract

車載センサを有する車両に搭載される車両用ランプシステム(100)は、IR光源(32)と、走査手段(33)と、赤外線カメラ(34)と、車載センサ(6)から取得した情報と赤外線カメラ(34)で取得した情報とを比較して減光領域(Q)および/または強調領域(P)を設定する領域設定部(103)と、領域設定部(103)の出力に基づきIR光源(32)から出射される赤外線を特定の領域へ照射させるようにIR光源(32)の点消灯および投入電力量を制御するランプ制御部(102)と、を有する。

Description

車両用ランプシステム
 本発明は、自動車などの車両に用いられる車両用ランプシステムに関する。
 特許文献1などにより、自動車に搭載される暗視装置が知られている。特許文献1は、撮像手段が撮像した画像に基づいて投光手段を制御して鮮明な画像を得ようとしている。
日本国特開2014-127924号公報
 本発明は、赤外線カメラの検出精度がより高められた車両用ランプシステムを提供することを目的とする。
 本発明の一態様の車両用ランプシステムは、
 車両の周囲の情報を取得する車載センサを有する車両に搭載される車両用ランプシステムであって、
 赤外線を出射するIR光源と、
 前記IR光源から出射される光を灯具前方へ走査して出射させる走査手段と、
 前記IR光源が出射する赤外線の波長に高い感度を有する赤外線カメラと、
 車載センサから取得した情報と前記赤外線カメラで取得した情報とを比較して減光領域および強調領域の少なくとも一つを設定する領域設定部と、
 前記領域設定部の出力に基づき前記IR光源から出射される赤外線を特定の領域へ照射させるように前記IR光源の点消灯および投入電力量を制御するランプ制御部と、を有する。
 上記本発明の車両用ランプシステムにおいて、
 前記領域設定部は、ある位置について、前記車載センサから物体を示す第一物体情報を取得し、かつ、前記赤外線カメラからその前記物体を示す第二物体情報を取得していないときに、その前記位置を強調領域に設定し、
 前記ランプ制御部は、前記強調領域が他の領域よりも高い照度で赤外線が照射されるように前記IR光源を制御してもよい。
 上記本発明の車両用ランプシステムにおいて、
 前記領域設定部は、前記赤外線カメラが取得した画像のうち所定値よりも高い輝度の画素に該当する領域を減光領域と設定し、
 前記ランプ制御部は、前記減光領域が他の領域よりも低い照度で赤外線が照射されるように前記IR光源を制御してもよい。
 上記本発明の車両用ランプシステムにおいて、
 全球測位衛星システムにより自車両の位置情報を取得する自車位置取得装置と、
 歩行者または自転車の位置情報をインフラ設備または他車両から取得する他者位置取得装置と、を有し、
 前記ランプ制御部は、自車から見た歩行者または自転車の方向を算出し、歩行者または自転車の方向を強調して照射する、または、歩行者または自転車の方向を抑制して照射するように、前記IR光源を制御してもよい。
 上記本発明の車両用ランプシステムにおいて、
 前記他者位置取得装置は、前記歩行者または前記自転車の運転者が所持する携帯端末が発する信号を前記インフラ設備を介して取得するように構成されていてもよい。
 上記本発明の車両用ランプシステムにおいて、
 前記ランプ制御部は、前記他者位置取得装置で取得した歩行者または自転車の位置情報と、前記赤外線カメラが取得した画像とを比較し、前記他者位置取得装置で取得した歩行者または自転車が前記画像で判別できない場合に、前記位置情報に向けて強調して赤外線が照射されるように前記IR光源を制御してもよい。
 上記本発明の車両用ランプシステムにおいて、
 前記ランプ制御部は、前記自車位置取得装置と前記他者位置取得装置とにより取得した情報に基づき、前記歩行者または前記自転車が自車の前方を横切る方向に移動していると判定した場合に、前記歩行者または前記自転車の方向を強調照射するように前記IR光源を制御してもよい。
 上記本発明の車両用ランプシステムにおいて、
 前記ランプ制御部は、前記他者位置取得装置で取得した歩行者または自転車の位置情報と、前記赤外線カメラから取得した歩行者または自転車の位置情報とが一致し、かつ、前記赤外線カメラから前記歩行者または前記自転車の位置が推定できない場合に、前記歩行者または前記自転車の方向を強調照射するように前記IR光源を制御してもよい。
 本発明によれば、赤外線カメラの検出精度がより高められた車両用ランプシステムが提供される。
本発明の実施形態に係る車両用ランプシステムが組み込まれる車両システムのブロック図である。 本発明の実施形態に係る車両用ランプシステムに組み込まれる車両用灯具の断面図である。 ランプユニットの内部構成を示す模式図である。 車両用ランプシステムのシステムブロック図である。 車両用ランプシステムが実行する処理のフローチャートである。 時刻t1において車載カメラが取得した画像を示す。 時刻t1において赤外線カメラが取得した画像を示す。 強調領域に高い照度で赤外線が照射された後に撮影された赤外線カメラの画像を示す。 赤外線カメラが取得したホワイトアウトが生じている画像を示す。 減光領域に弱い照度の赤外線が照射された後に撮影した赤外線カメラの画像を示す。
 以下、本発明を実施の形態をもとに図面を参照しながら説明する。各図面に示される同一または同等の構成要素、部材、処理には、同一の符号を付するものとし、適宜重複した説明は省略する。また、実施の形態は、発明を限定するものではなく例示であって、実施の形態に記述される全ての特徴やその組合せは、必ずしも発明の本質的なものであるとは限らない。
 図1は、本発明の実施形態に係る車両用ランプシステム100が組み込まれる車両システム2のブロック図である。図1に示すように、本実施形態に係る車両システム2は、車両制御部3と、車両用灯具4と、センサ5と、カメラ6と、レーダ7と、HMI(Human Machine Interface)8と、GPS(Global Positioning System)9と、無線通信部10と、地図情報記憶部11とを備えている。さらに、車両システム2は、ステアリングアクチュエータ12と、ステアリング装置13と、ブレーキアクチュエータ14と、ブレーキ装置15と、アクセルアクチュエータ16と、アクセル装置17とを備えている。
 車両制御部3は、車両1の走行を制御するように構成されている。車両制御部3は、例えば、電子制御ユニット(ECU:Electronic Control Unit)により構成されている。電子制御ユニットは、プロセッサとメモリを含むマイクロコントローラと、その他電子回路(例えば、トランジスタ等)を含む。プロセッサは、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)及び/又はGPU(Graphics Processing Unit)である。メモリは、各種車両制御プログラム(例えば、自動運転用の人工知能(AI)プログラム等)が記憶されたROM(Read Only Memory)と、各種車両制御データが一時的に記憶されるRAM(Random Access Memory)を含む。プロセッサは、ROMに記憶された各種車両制御プログラムから指定されたプログラムをRAM上に展開し、RAMとの協働で各種処理を実行するように構成されている。
 センサ5は、加速度センサ、速度センサ、ジャイロセンサ等を備える。センサ5は、車両1の走行状態を検出して、走行状態情報を車両制御部3に出力するように構成されている。センサ5は、運転者が運転席に座っているかどうかを検出する着座センサ、運転者の顔の方向を検出する顔向きセンサ、外部天候状態を検出する外部天候センサ及び車内に人がいるかどうかを検出する人感センサ等をさらに備えてもよい。さらに、センサ5は、車両1の周辺環境の照度を検出する照度センサを備えてもよい。
 カメラ(車載カメラ)6は、例えば、CCD(Charge-Coupled Device)やCMOS(相補型MOS)等の撮像素子を含むカメラである。カメラ6の撮像は、車両制御部3から送信される信号に基づいて制御される。カメラ6は受光した可視光に基づいて画像を生成可能である。
 レーダ7は、ミリ波レーダ、マイクロ波レーダ又はレーザーレーダ等である。レーダ7は、LiDAR(Light Detection and RangingまたはLaser Imaging Detection and Ranging)を備えていてもよい。LiDARは、一般にその前方に非可視光を出射し、出射光と戻り光とに基づいて、物体までの距離、物体の形状、物体の材質などの情報を取得するセンサである。カメラ6とレーダ7(センサの一例)は、車両1の周辺環境(他車、歩行者、道路形状、交通標識、障害物等)を検出し、周辺環境情報を車両制御部3に出力するように構成されている。
 HMI8は、運転者からの入力操作を受付ける入力部と、走行情報等を運転者に向けて出力する出力部とから構成される。入力部は、ステアリングホイール、アクセルペダル、ブレーキペダル、車両1の運転モードを切替える運転モード切替スイッチ等を含む。出力部は、各種走行情報を表示するディスプレイである。
 GPS9は、車両1の現在位置情報を取得し、当該取得された現在位置情報を車両制御部3に出力するように構成されている。無線通信部10は、車両1の周囲にいる他車に関する情報(例えば、走行情報)を他車から受信すると共に、車両1に関する情報(例えば、走行情報)を他車に送信するように構成されている(車車間通信)。また、無線通信部10は、信号機や標識灯等のインフラ設備からインフラ情報を受信すると共に、車両1の走行情報をインフラ設備に送信するように構成されている(路車間通信)。地図情報記憶部11は、地図情報が記憶されたハードディスクドライブ等の外部記憶装置であって、地図情報を車両制御部3に出力するように構成されている。
 車両1が自動運転モードで走行する場合、車両制御部3は、走行状態情報、周辺環境情報、現在位置情報、地図情報等に基づいて、ステアリング制御信号、アクセル制御信号及びブレーキ制御信号のうち少なくとも一つを自動的に生成する。ステアリングアクチュエータ12は、ステアリング制御信号を車両制御部3から受信して、受信したステアリング制御信号に基づいてステアリング装置13を制御するように構成されている。ブレーキアクチュエータ14は、ブレーキ制御信号を車両制御部3から受信して、受信したブレーキ制御信号に基づいてブレーキ装置15を制御するように構成されている。アクセルアクチュエータ16は、アクセル制御信号を車両制御部3から受信して、受信したアクセル制御信号に基づいてアクセル装置17を制御するように構成されている。このように、自動運転モードでは、車両1の走行は車両システム2により自動制御される。
 一方、車両1が手動運転モードで走行する場合、車両制御部3は、アクセルペダル、ブレーキペダル及びステアリングホイールに対する運転者の手動操作に従って、ステアリング制御信号、アクセル制御信号及びブレーキ制御信号を生成する。このように、手動運転モードでは、ステアリング制御信号、アクセル制御信号及びブレーキ制御信号が運転者の手動操作によって生成されるので、車両1の走行は運転者により制御される。
 次に、車両1の運転モードについて説明する。運転モードは、自動運転モードと手動運転モードとからなる。自動運転モードは、完全自動運転モードと、高度運転支援モードと、運転支援モードとからなる。完全自動運転モードでは、車両システム2がステアリング制御、ブレーキ制御及びアクセル制御の全ての走行制御を自動的に行うと共に、運転者は車両1を運転できる状態にはない。高度運転支援モードでは、車両システム2がステアリング制御、ブレーキ制御及びアクセル制御の全ての走行制御を自動的に行うと共に、運転者は車両1を運転できる状態にはあるものの車両1を運転しない。運転支援モードでは、車両システム2がステアリング制御、ブレーキ制御及びアクセル制御のうち一部の走行制御を自動的に行うと共に、車両システム2の運転支援の下で運転者が車両1を運転する。一方、手動運転モードでは、車両システム2が走行制御を自動的に行わないと共に、車両システム2の運転支援なしに運転者が車両1を運転する。
 また、車両1の運転モードは、運転モード切替スイッチを操作することで切り替えられてもよい。この場合、車両制御部3は、運転モード切替スイッチに対する運転者の操作に応じて、車両1の運転モードを4つの運転モード(完全自動運転モード、高度運転支援モード、運転支援モード、手動運転モード)の間で切り替える。また、車両1の運転モードは、自動運転車が走行可能である走行可能区間や自動運転車の走行が禁止されている走行禁止区間についての情報または外部天候状態についての情報に基づいて自動的に切り替えられてもよい。この場合、車両制御部3は、これらの情報に基づいて車両1の運転モードを切り替える。さらに、車両1の運転モードは、着座センサや顔向きセンサ等を用いることで自動的に切り替えられてもよい。この場合、車両制御部3は、着座センサや顔向きセンサからの出力信号に基づいて、車両1の運転モードを切り替える。
 図2は、本発明の実施形態に係る車両用ランプシステム100に組み込まれる車両用灯具4の断面図である。図2に示したように、車両用灯具4には、ロービームおよびハイビームを照射可能なヘッドランプユニット20と、赤外線を照射可能なランプユニット30とが搭載されている。これらヘッドランプユニット20とランプユニット30は、アウタカバー41とハウジング42で形成された共通の灯室43内に設けられている。この車両用灯具4は車両1の前部に搭載される。これらヘッドランプユニット20とランプユニット30は、制御部101によって制御される。
 ヘッドランプユニット20は、パラボラ型あるいはプロジェクタ型の灯具ユニットである。図示の例では、ヘッドランプユニット20は、光源21とリフレクタ22と投影レンズ24を備えている。ヘッドランプユニット20の光源21には、ハロゲンランプ等のフィラメントを有する白熱灯や、メタルハライドランプ等のHID(High Intensity Discharge)ランプ、LED(Light Emitting Diode)等を用いることができる。ヘッドランプユニット20は、公知のハイビーム配光パターンやロービーム配光パターンを形成することができる。
 図3は、ランプユニット30の内部構成を示す模式図である。図3に示すようにランプユニット30は、ハウジング30aと、赤外線を出射するIR光源32と、回転リフレクタ33(走査手段)と、赤外線カメラ34と、レンズ部品35と、遮光壁36を有している。ハウジング30aの内部は遮光壁36によって第一灯室37と第二灯室38の2つの空間に仕切られている。IR光源32、回転リフレクタ33は第一灯室37に設けられている。赤外線カメラ34は第二灯室38に設けられている。
 IR光源32は、赤外線を出射するLD(Laser Diode)で構成されている。IR光源はLDの他にLED(Light Emitting Diode)で構成してもよい。
 回転リフレクタ33は、回転軸線R回りに回転する。回転リフレクタ33は、回転軸線R回りに延びる軸部33aと、軸部33aから径方向に延びる2枚のブレード33bを備えている。ブレード33bの表面が反射面とされている。この反射面は周方向に徐々に回転軸線Rに対する角度が変化する捩られた形状とされている。具体的には、IR光源32から出射された可視光が回転リフレクタ33の反射面で反射されるときに、反射されて出射される方向が、図5で詳述する左端から右端まで徐々に変化するような形状とされている。これにより、ランプユニット30は、所定の範囲の領域にIR光源32からの光を走査して出射させることができる。
 ハウジング30aの前方にはレンズ部品35が設けられている。レンズ部品35は第一レンズ要素35aと、第二レンズ要素35bを有している。第一レンズ要素35aは第一灯室37の前方に位置している。第一レンズ要素35aには、IR光源32から出射し回転リフレクタ33で反射した光が入射する。第二レンズ要素35bは第二灯室38の前方に位置している。第二レンズ要素35bは、灯具前方からの光を集めて赤外線カメラ34に導く。
 赤外線カメラ34は、IR光源32から出射される赤外線のピーク波長に最も高い感度を有するカメラである。赤外線カメラ34は、IR光源32から灯具前方に出射された赤外線の反射光に応じた画像を取得可能である。赤外線カメラ34が取得した画像は制御部101に送信される。
 図4は、車両用ランプシステム100のシステムブロック図である。図4に示すように、車両用ランプシステム100は、上述したランプユニット30の他に、制御部101を備えている。制御部101は、ランプユニット30に通信可能に接続されている。制御部101は、IR光源32の点灯状態および投入電流量(投入電力量)を制御するランプ制御部102と、後述する通常領域、減光領域、強調領域を設定する領域設定部103を備えている。
 図5は、車両用ランプシステム100が実行する処理のフローチャートである。図4に示すようにまず制御部101の領域設定部103は、IR光源32の照射範囲の全て領域に通常領域を設定し、IR光源32に第一電流値の電流を供給し、全ての領域に同程度の照度で赤外線を照射する(ステップS01)。なお、以降の説明においては、ヘッドランプユニット20は常時点灯しており、また、ヘッドランプユニット20が照射している配光パターンを変更しないものとする。
 次に制御部101は、全ての領域に同程度の照度で赤外線が照射された時刻t1において、図6に示すような車載カメラ6からの画像を取得し、また、図7に示すような赤外線カメラ34からの画像を取得する(ステップS02)。
 ここで、図6に示すように、時刻t1において車載カメラ6は自車両の前方に対向車Aと歩行者Bを撮影している。一方で、図7に示すように、時刻t1において赤外線カメラ34は自車両の前方に対向車Aを撮影しているものの、歩行者Bは撮影できていない。例えば車両の表面は金属で構成されており、赤外線を反射させやすい。一方で、歩行者Bの皮膚や衣類は赤外線を反射させにくい。このため、赤外線カメラ34が歩行者Bを撮影できないことが起こりうる。
 そこで本実施形態に係る車両用ランプシステム100においては、車載カメラ6が取得した画像と赤外線カメラ34が取得した画像とを比較する。具体的には、制御部101は、車載カメラ6の画像に基づき対向車Aや歩行者Bなどの物体が存在すると推定される第一位置を特定する。また制御部101は、赤外線カメラ34の画像に基づき物体が存在すると推定される第二位置を特定する。制御部101は、第一位置と第二位置が一致しているか否かを判定する(ステップS03)。第一位置と第二位置が一致しているとは、存在すると推定された物体の個数、および、その物体が存在すると推定された座標(方向)が一致することを言う。第一位置と第二位置とが一致していれば(ステップS3:Yes)、その位置に物体が存在していると判定し、物体の有無及びその位置を特定し(ステップS09)、車両制御部3へその情報を送信する(ステップS10)。
 一方で、図6と図7で示したように、車載カメラ6の画像に基づき推定した第一位置と、赤外線カメラ34の画像に基づき推定した第二位置とが異なっている場合は(ステップS03:No)、次のような制御を行う。
 図6で示したように車載カメラ6の画像では物体が存在すると推定される領域について図7で示したように赤外線カメラ34の画像では物体が存在しないと推定される場合であって(ステップS03:No)、赤外線カメラ34の画像に所定値以上の輝度の画素が含まれていない場合には(ステップS04:No)、領域設定部103は図7に示すように「車載カメラ6の画像では物体が存在すると推定される領域内でかつ赤外線カメラ34の画像では物体が存在しないと推定された領域」に強調領域Pを設定する(ステップS05)。また領域設定部103は強調領域Pに設定した領域以外の領域に通常領域を設定する。
 ランプ制御部102は、通常領域および強調領域Pにあらかじめ定められた照度で赤外線を照射する(ステップS07)。具体的には、ランプ制御部102は、通常領域に向けて第一電流値の電流をIR光源32に供給し、強調領域Pに向けて第一電流値より大きい第二電流値の電流をIR光源32に供給する。これにより、強調領域Pには通常領域より高い照度で赤外線が照射される。図8は、強調領域Pに高い照度で赤外線が照射された後に撮影された赤外線カメラ34の画像を示す。図8は、強調領域Pに高い照度で赤外線が照射された結果、歩行者Bからの赤外線の反射強度も十分大きく、赤外線カメラ34で歩行者Bが撮影された様子を示している。
 制御部101は、このように通常領域と強調領域Pを設定して所定の照度で赤外線を照射した後、再び車載カメラ6の画像と赤外線カメラ34の画像を取得し(ステップS08)、車載カメラ6の画像から推定した物体の位置と赤外線カメラ34の画像から推定した物体の位置とが一致するか否かを判定する(ステップS03)。
 一方、一部の物体の赤外線の反射強度が大きすぎることに起因して、赤外線カメラ34が他の物体の赤外線の反射光を検出できない場合がある。赤外線の露光が多すぎて赤外線カメラ34の画像の一部にホワイトアウトが生じている場合である。図9は、図6と同時刻t1において赤外線カメラ34が撮影した画像を示している。対向車Aによる赤外線の反射光の強度が強すぎて、赤外線カメラ34が対向車Aの右方にいる歩行者Bを撮影できていない様子を示している。
 このような場合は、車載カメラ6の画像では物体が存在すると推定される領域について赤外線カメラ34の画像では物体が存在しないと推定される場合であって(ステップS03:No)、赤外線カメラ34の画像中に所定値以上の輝度の画素が含まれている場合には(ステップS04:Yes)、領域設定部103は、赤外線カメラ34の画像のうち輝度が所定値以上となっている領域に減光領域Qを設定する(ステップ06)。図9に示した例では、領域設定部103は、対向車Aが撮影された領域に減光領域Qを設定している。また領域設定部103は減光領域Qに設定した領域以外の領域に通常領域を設定する。
 制御部101は、通常領域および減光領域Qにあらかじめ定められた照度で赤外線を照射する(ステップS07)。具体的には、ランプ制御部102は、通常領域に向けて第一電流値の電流をIR光源32に供給し、減光領域Qに向けて第一電流値より小さい第三電流値の電流をIR光源32に供給する。これにより、減光領域Qには通常領域より低い照度で赤外線が照射される。図10は減光領域Qに弱い照度の赤外線が照射された後に撮影した赤外線カメラ34の画像を示す。図10は減光領域Qに低い照度で赤外線が照射された結果、対向車Aからの反射光の強度と歩行者Bからの反射光の強度との強度の差異が小さくなり、赤外線カメラ34で対向車Aと歩行者Bの両方が撮影された様子を示している。
 制御部101は、このように通常領域と減光領域Qを設定して所定の照度で赤外線を照射した後、再び車載カメラ6の画像と赤外線カメラ34の画像を取得し(ステップS08)、車載カメラ6の画像から推定した物体の位置と赤外線カメラ34の画像から推定した物体の位置とが一致するか否かを判定する(ステップS03)。
 このように本実施形態に係る車両用ランプシステム100によれば、車載カメラ6の画像と赤外線カメラ34の画像とを比較して赤外線カメラ34用のIR光源32を制御するため、赤外線カメラ34に適した態様で赤外線が照射され、赤外線カメラ34の出力がより鮮明になる。可視光に基づく画像を取得する車載カメラ6と赤外線に基づく画像を取得する赤外線カメラ34という、検出方法が異なる二つのカメラに基づきIR光源32が制御されるため、より赤外線カメラ34の精度を高めることができる。
 なお本実施形態に係る車両用ランプシステム100は、図1に示したように、自車位置取得装置104と、他者位置取得装置105とを備えていてもよい。自車位置取得装置104は、GPSなどの全球測位衛星システム106により自車両の位置情報を取得する。他者位置取得装置105は、歩行者Bまたは自転車の位置情報をインフラ設備106または他車両から取得する。他者位置取得装置105は、歩行者Bまたは自転車の運転者が所持する携帯端末107が発する信号をインフラ設備106を介して取得する。
 制御部101は、自車から見た歩行者Bまたは自転車の方向を算出し、歩行者Bまたは自転車の方向を強調して照射する、または、歩行者Bまたは自転車の方向を抑制して照射するように、IR光源32を制御してもよい。
 歩行者Bや自転車は自動車に比べて可視光および赤外線ともに反射強度が弱く、車載カメラ6や赤外線カメラ34で検出することがそもそも難しい。可視光や赤外線で歩行者Bや自転車を検出する試みに加えて、他者位置取得装置105により歩行者Bや自転車の存在を取得することができ、車載カメラ6や赤外線カメラ34による歩行者Bおよび自転車の検出精度を高めることができる。
 また制御部101は、他者位置取得装置105で取得した歩行者Bまたは自転車の他者位置と、赤外線カメラ34が取得した画像とを比較し、他者位置取得装置105で取得した歩行者Bまたは自転車が赤外線カメラ34の画像で判別できない場合に、他者位置に強調領域Pを設定し、他者位置に向けて強調して光が照射されるようにIR光源32を制御してもよい。
 他者位置取得装置105で歩行者Bや自転車の存在を取得した場合には、その情報の確度が高い。一方で、車両制御部3は赤外線カメラ34や車載カメラ6によって歩行者Bや自転車の正確な位置を求めている。このような構成によれば、赤外線カメラ34によって歩行者Bや自転車の正確な位置を取得しやすい。
 さらに制御部101は、自車位置取得装置104と他者位置取得装置105とにより取得した情報に基づき、歩行者Bまたは自転車が自車の前方を横切る方向に移動していると判定した場合に、歩行者Bまたは自転車の存在する方向に強調領域Pを設定し、この方向を強調照射するようにIR光源32を制御してもよい。
 特に歩行者Bや自転車が自車両の前方を横切ろうとする場合には、このような歩行者Bや自転車の存在を車両制御部3が把握しておくことが重要である。本実施形態によれば、自車両の前方を横切ろうとする歩行者Bや自転車の存在を把握しやすい。
 さらに制御部101は、他者位置取得装置105で取得した歩行者Bまたは自転車の位置情報と、車載カメラ6の画像から推定した歩行者Bまたは自転車の位置情報とが一致し、かつ、赤外線カメラ34から歩行者Bまたは自転車の位置を推定できない場合に、歩行者Bまたは自転車の方向を強調照射するようにIR光源32を制御してもよい。このような構成によって、より確実に赤外線カメラ34によって歩行者Bや自転車の位置を把握しやすい。
 なお、本発明は、上述した実施形態に限定されず、適宜、変形、改良等が自在である。その他、上述した実施形態における各構成要素の材質、形状、寸法、数値、形態、数、配置場所等は、本発明を達成できるものであれば任意であり、限定されない。
 また上述した実施形態においては、減光領域に赤外線を照射する例を説明したが、減光領域に赤外線を照射しなくてもよい。
 また上述した実施形態では、可視光に基づく画像を取得する車載カメラと赤外線カメラを用いた構成を説明したが、可視光に基づく画像を取得する車載カメラに限らず、LiDARやレーダなど車両の周囲の情報を取得可能な他の車載センサと赤外線カメラを用いて車両用ランプシステムを構成してもよい。赤外線カメラ34は、上述した説明のように車両用灯具4に搭載されていてもよいし、車両1に搭載されていてもよい。
 本出願は、2019年9月11日出願の日本特許出願(特願2019-165514)に基づくものであり、その内容はここに参照として取り込まれる。
 本発明によれば、赤外線カメラの検出精度がより高められた車両用ランプシステムが提供される。

Claims (8)

  1.  車両の周囲の情報を取得する車載センサを有する車両に搭載される車両用ランプシステムであって、
     赤外線を出射するIR光源と、
     前記IR光源から出射される光を灯具前方へ走査して出射させる走査手段と、
     前記IR光源が出射する赤外線の波長に高い感度を有する赤外線カメラと、
     車載センサから取得した情報と前記赤外線カメラで取得した情報とを比較して減光領域および強調領域の少なくとも一つを設定する領域設定部と、
     前記領域設定部の出力に基づき前記IR光源から出射される赤外線を特定の領域へ照射させるように前記IR光源の点消灯および投入電力量を制御するランプ制御部と、を有する、車両用ランプシステム。
  2.  前記領域設定部は、ある位置について、前記車載センサから物体を示す第一物体情報を取得し、かつ、前記赤外線カメラからその前記物体を示す第二物体情報を取得していないときに、その前記位置を強調領域に設定し、
     前記ランプ制御部は、前記強調領域が他の領域よりも高い照度で赤外線が照射されるように前記IR光源を制御する、請求項1に記載の車両用ランプシステム。
  3.  前記領域設定部は、前記赤外線カメラが取得した画像のうち所定値よりも高い輝度の画素に該当する領域を減光領域と設定し、
     前記ランプ制御部は、前記減光領域が他の領域よりも低い照度で赤外線が照射されるように前記IR光源を制御する、請求項1に記載の車両用ランプシステム。
  4.  全球測位衛星システムにより自車両の位置情報を取得する自車位置取得装置と、
     歩行者または自転車の位置情報をインフラ設備または他車両から取得する他者位置取得装置と、を有し、
     前記ランプ制御部は、自車から見た歩行者または自転車の方向を算出し、歩行者または自転車の方向を強調して照射する、または、歩行者または自転車の方向を抑制して照射するように、前記IR光源を制御する、請求項1に記載の車両用ランプシステム。
  5.  前記他者位置取得装置は、前記歩行者または前記自転車の運転者が所持する携帯端末が発する信号を前記インフラ設備を介して取得するように構成されている、請求項4に記載の車両用ランプシステム。
  6.  前記ランプ制御部は、前記他者位置取得装置で取得した歩行者または自転車の位置情報と、前記赤外線カメラが取得した画像とを比較し、前記他者位置取得装置で取得した歩行者または自転車が前記画像で判別できない場合に、前記位置情報に向けて強調して赤外線が照射されるように前記IR光源を制御する、請求項4に記載の車両用ランプシステム。
  7.  前記ランプ制御部は、前記自車位置取得装置と前記他者位置取得装置とにより取得した情報に基づき、前記歩行者または前記自転車が自車の前方を横切る方向に移動していると判定した場合に、前記歩行者または前記自転車の方向を強調照射するように前記IR光源を制御する、請求項4に記載の車両用ランプシステム。
  8.  前記ランプ制御部は、前記他者位置取得装置で取得した歩行者または自転車の位置情報と、前記赤外線カメラから取得した歩行者または自転車の位置情報とが一致し、かつ、前記赤外線カメラから前記歩行者または前記自転車の位置が推定できない場合に、前記歩行者または前記自転車の方向を強調照射するように前記IR光源を制御する、請求項4に記載の車両用ランプシステム。
PCT/JP2020/030708 2019-09-11 2020-08-12 車両用ランプシステム WO2021049239A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US17/641,952 US20220305980A1 (en) 2019-09-11 2020-08-12 Vehicle lamp system
CN202080063924.XA CN114390985A (zh) 2019-09-11 2020-08-12 车辆用灯***
EP20863162.2A EP4030154A4 (en) 2019-09-11 2020-08-12 VEHICLE LAMP SYSTEM
JP2021545175A JPWO2021049239A1 (ja) 2019-09-11 2020-08-12

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019165514 2019-09-11
JP2019-165514 2019-09-11

Publications (1)

Publication Number Publication Date
WO2021049239A1 true WO2021049239A1 (ja) 2021-03-18

Family

ID=74866501

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/030708 WO2021049239A1 (ja) 2019-09-11 2020-08-12 車両用ランプシステム

Country Status (5)

Country Link
US (1) US20220305980A1 (ja)
EP (1) EP4030154A4 (ja)
JP (1) JPWO2021049239A1 (ja)
CN (1) CN114390985A (ja)
WO (1) WO2021049239A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4032751A4 (en) * 2019-09-19 2022-10-26 Koito Manufacturing Co., Ltd. INFRARED LIGHTING UNIT SYSTEM FOR VEHICLE, INFRARED SENSOR SYSTEM FOR VEHICLE, AND LIGHTING UNIT WITH BUILT-IN INFRARED SENSOR AND LIGHTING UNIT WITH BUILT-IN OPTICAL SENSOR FOR VEHICLE

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006318093A (ja) * 2005-05-11 2006-11-24 Mazda Motor Corp 車両用移動物体検出装置
JP2010097410A (ja) * 2008-10-16 2010-04-30 Toyota Motor Corp 車両検出装置
WO2014024385A1 (ja) * 2012-08-08 2014-02-13 株式会社小糸製作所 車両用灯具
JP2014127924A (ja) 2012-12-27 2014-07-07 Denso Corp 暗視装置
JP2019165514A (ja) 2019-07-05 2019-09-26 パイオニア株式会社 スピーカ装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6759949B2 (en) * 2002-05-23 2004-07-06 Visteon Global Technologies, Inc. Image enhancement in far infrared camera
SE529304C2 (sv) * 2005-09-06 2007-06-26 Gm Global Tech Operations Inc Metod och system för förbättrande av trafiksäkerhet
GB2443664A (en) * 2006-11-10 2008-05-14 Autoliv Dev An infra red object detection system de-emphasizing non relevant hot objects
JP5604146B2 (ja) * 2010-03-25 2014-10-08 富士通テン株式会社 車載照明装置、画像処理装置、画像表示システム及び照明方法
JP5698065B2 (ja) * 2011-04-22 2015-04-08 株式会社小糸製作所 障害物検出装置
US9776587B2 (en) * 2012-11-29 2017-10-03 Here Global B.V. Method and apparatus for causing a change in an action of a vehicle for safety
CN110450705B (zh) * 2015-01-13 2023-02-17 麦克赛尔株式会社 车辆
US9731645B1 (en) * 2016-04-07 2017-08-15 Valeo North America, Inc. Cooperative adaptive lighting system using vehicle to target or object communication
CN110121444B (zh) * 2016-12-28 2022-08-16 株式会社小糸制作所 照明装置
EP3805045B1 (en) * 2018-05-24 2023-07-19 Sony Group Corporation Information processing device, information processing method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006318093A (ja) * 2005-05-11 2006-11-24 Mazda Motor Corp 車両用移動物体検出装置
JP2010097410A (ja) * 2008-10-16 2010-04-30 Toyota Motor Corp 車両検出装置
WO2014024385A1 (ja) * 2012-08-08 2014-02-13 株式会社小糸製作所 車両用灯具
JP2014127924A (ja) 2012-12-27 2014-07-07 Denso Corp 暗視装置
JP2019165514A (ja) 2019-07-05 2019-09-26 パイオニア株式会社 スピーカ装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP4030154A4

Also Published As

Publication number Publication date
US20220305980A1 (en) 2022-09-29
JPWO2021049239A1 (ja) 2021-03-18
CN114390985A (zh) 2022-04-22
EP4030154A4 (en) 2022-11-09
EP4030154A1 (en) 2022-07-20

Similar Documents

Publication Publication Date Title
WO2018110389A1 (ja) 車両用照明システムおよび車両
CN110944874B (zh) 车辆用照明***以及车辆
JP6075331B2 (ja) 車両用照明装置
US11454539B2 (en) Vehicle lamp
JPWO2017073635A1 (ja) 車両用部品および車両
US10596953B2 (en) Display device for vehicle
JP7339963B2 (ja) 車両用ランプシステム
WO2018123429A1 (ja) 照明装置
JP7497362B2 (ja) 車両用赤外線灯具システム、車両用赤外線センサシステム、車両用赤外線センサ内蔵灯具および光学センサ内蔵灯具
WO2021049239A1 (ja) 車両用ランプシステム
US11840170B2 (en) Vehicle lamp having two lamp units each having a two light sources and a receiver for detecting an intensity of reflected light
JP7139309B2 (ja) 照明装置
WO2020189289A1 (ja) 車両用灯具および車両用灯具システム
US20220307668A1 (en) Vehicle lamp system and vehicle lamp
JP2005059662A (ja) 車両用前照灯装置
JP7407174B2 (ja) 車両用灯具および車両システム
WO2020189184A1 (ja) 車両用灯具

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20863162

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021545175

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2020863162

Country of ref document: EP

Effective date: 20220411