WO2024127633A1 - 配光制御システム及び配光制御方法 - Google Patents

配光制御システム及び配光制御方法 Download PDF

Info

Publication number
WO2024127633A1
WO2024127633A1 PCT/JP2022/046378 JP2022046378W WO2024127633A1 WO 2024127633 A1 WO2024127633 A1 WO 2024127633A1 JP 2022046378 W JP2022046378 W JP 2022046378W WO 2024127633 A1 WO2024127633 A1 WO 2024127633A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
ground speed
light distribution
distribution control
acquisition unit
Prior art date
Application number
PCT/JP2022/046378
Other languages
English (en)
French (fr)
Inventor
広道 大塚
宏治 土井
Original Assignee
日立Astemo株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日立Astemo株式会社 filed Critical 日立Astemo株式会社
Priority to PCT/JP2022/046378 priority Critical patent/WO2024127633A1/ja
Publication of WO2024127633A1 publication Critical patent/WO2024127633A1/ja

Links

Images

Definitions

  • the present invention relates to a light distribution control system and a light distribution control method.
  • Light distribution control installed in vehicles includes a function called AHB (Auto High Beam) that uses external recognition sensors such as on-board cameras to recognize oncoming vehicles and preceding vehicles, automatically switches to low beam, and automatically switches to high beam after passing the oncoming vehicle or preceding vehicle.
  • ADB Adaptive Driving Beam
  • Patent Document 1 describes a technology that narrows down light spots such as taillights and headlights based on their shape, and performs vehicle judgment based on the direction of movement and speed.
  • light spots are difficult to detect due to external disturbances, or where a vehicle has no lights and cannot be recognized. For this reason, when these vehicles cannot be recognized, there is a problem that they dazzle the drivers of other vehicles.
  • the present invention aims to provide a light distribution control system and a light distribution control method that can effectively detect other vehicles and prevent erroneous detection of objects other than vehicles.
  • the light distribution control system of the present invention recognizes the external environment of the vehicle and performs light distribution control of the headlights mounted on the vehicle based on the recognition of the external environment of the vehicle.
  • a light distribution control system of the present invention includes an external sensor that acquires information about objects around the vehicle, and a ground speed acquisition unit that acquires the ground speed of the object based on the output of the external sensor, and the headlight illumination range is variably set based on the ground speed acquired by the ground speed acquisition unit.
  • the present invention by obtaining the ground speed of an object and controlling the illumination of the vehicle's headlights when the ground speed exceeds a threshold value, it is possible to prevent high beams from being illuminated on other vehicles by methods other than detecting the vehicle's lights. Problems, configurations and effects other than those described above will become apparent from the following description of the embodiments.
  • FIG. 1 is a block diagram showing an example of the configuration of a light distribution control system according to a first embodiment of the present invention.
  • 1 is a block diagram showing an example of the hardware configuration of a recognition processing device provided in a light distribution control system according to a first embodiment of the present invention.
  • FIG. 4 is a flowchart showing a light distribution control process according to the first embodiment of the present invention.
  • FIG. 4A is a diagram showing an example (example 1) of candidates for shading
  • FIG. 4B is a diagram showing an example of a state in which a shading target is selected from the candidates for shading shown in FIG. 4A.
  • FIG. 5A is a diagram showing an example (example 2) of candidates for shading
  • FIG. 5B is a diagram showing an example of a state in which a target for not shading is selected from the candidates for not shading shown in FIG. 5A.
  • FIG. 11 is a block diagram showing an example of the configuration of a light distribution control system according to a second embodiment of the present invention.
  • 10 is a flowchart showing a light distribution control process according to a second embodiment of the present invention.
  • FIG. 1 A light distribution control system and a light distribution control method according to a first embodiment of the present invention will be described below with reference to FIGS. 1 to 5.
  • FIG. 1 A light distribution control system and a light distribution control method according to a first embodiment of the present invention will be described below with reference to FIGS. 1 to 5.
  • FIG. 1 A light distribution control system and a light distribution control method according to a first embodiment of the present invention will be described below with reference to FIGS. 1 to 5.
  • FIG. 1 shows the configuration of a light distribution control system according to this embodiment. 1 is mounted on a vehicle equipped with headlights (not shown), and includes a recognition processing device 10 and a vehicle control device 20. Based on the results of recognition by the recognition processing device 10, the vehicle control device 20 performs light distribution control of the vehicle's headlights.
  • the light distribution control system 1 also includes an external sensor 14 that is installed in front of the vehicle and acquires information about the area in front of the vehicle.
  • the external sensor 14 is a sensor that performs an external sensing process to acquire information about the area in front of or around the vehicle.
  • a stereo camera, a monocular camera, a millimeter wave radar, a LiDAR (Light Detection And Ranging), or the like can be used as the external sensor 14, a stereo camera, a monocular camera, a millimeter wave radar, a LiDAR (Light Detection And Ranging), or the like can be used.
  • a stereo camera uses multiple cameras to capture images of the area in front of the vehicle and its surroundings.
  • a monocular camera uses a single camera to capture images of the area in front of the vehicle and its surroundings.
  • a millimeter wave radar obtains the distance and angle of objects in front of the vehicle and its surroundings.
  • a LiDAR obtains three-dimensional information of the area in front of the vehicle and its surroundings.
  • the external sensor 14 may be one of these sensors used alone or in combination with a monocular camera, millimeter wave radar, etc. Also, other sensors than those mentioned above may be used as long as they sense the surroundings of the vehicle.
  • the recognition processing device 10 includes a central processing unit (CPU) 11 which is a processor, a read-only memory (ROM) 11a, a random access memory (RAM) 11b, a storage device 12, a network interface 11c, an input unit 11d, and an output unit 11e.
  • the CPU 11 may be configured with a microprocessor unit (MPU).
  • the storage device 12 may be, for example, a hard disk drive (HDD), a solid state drive (SSD), or a semiconductor memory.
  • the ROM 11a may also function as the storage device 12.
  • the input unit 11d converts various information input from the external sensor 14 to the recognition processing device 10 or the vehicle control device 20 into information that can be calculated by the CPU 11.
  • the ROM 11a and the storage device 12 are recording media that store control programs that execute the appropriate calculation processes described below, and various information required to execute the calculation processes.
  • the CPU 11 performs predetermined arithmetic processing on signals input to the input unit 11d and signals taken from the ROM 11a, RAM 11b or storage device 12 according to the control program stored in the ROM 11a.
  • the output unit 11e outputs commands for controlling the output target and information used by the output target.
  • the output target is the light distribution control unit 21 of the vehicle control device 20 in the case of the recognition processing device 10, and the headlights of the vehicle whose light distribution is controlled in the case of the vehicle control device 20.
  • recognition processing device 10 and the vehicle control device 20 as a computer equipped with a CPU is just one example, and for example, part or all of the recognition processing device 10 and the vehicle control device 20 may be realized by dedicated hardware such as an FPGA (Field Programmable Gate Array) or an ASIC (Application Specific Integrated Circuit).
  • FPGA Field Programmable Gate Array
  • ASIC Application Specific Integrated Circuit
  • the recognition processing device 10 includes a ground speed acquisition unit 13.
  • the ground speed acquisition unit 13 performs ground speed acquisition processing to acquire the relative speed of an object in front of the vehicle based on information acquired by an external sensor 14.
  • the ground speed acquisition unit 13 uses three-dimensional information acquired by a stereo camera, LiDAR, or the like to recognize an obstacle in front of the vehicle as a three-dimensional object, and calculates the ground speed from time-series data of distance information of the recognized three-dimensional object.
  • the ground speed acquisition unit 13 uses images captured by a stereo camera or a monocular camera to calculate features such as edges and colors from images of the recognition target and images other than the recognition target in advance, and trains a classifier.
  • the ground speed acquisition unit 13 uses the trained classifier to identify the newly acquired recognition target.
  • SVM Small Vector Machine
  • AdaBoost AdaBoost
  • the ground speed acquisition unit 13 performs deep learning such as CNN (Convolutional Neural Network) using images of the recognition target and images other than the recognition target in advance.
  • the ground speed acquisition unit 13 may then recognize the recognition target using an identification network trained by CNN.
  • the ground speed acquisition unit 13 can estimate distance information to the recognized target from the image size of the recognized target, and can also calculate the ground speed from time series data of distance information to the recognized target measured using a sensor such as a millimeter wave radar.
  • the vehicle control device 20 includes a light distribution control unit 21 .
  • the light distribution control unit 21 controls the light distribution of the vehicle's headlights based on ground speed information of objects such as vehicles around the vehicle acquired by the ground speed acquisition unit 13 of the recognition processing device 10, and variably sets the headlight illumination range. That is, for example, in the case of a vehicle equipped with an AHB function that automatically switches the headlights to high beam after passing an oncoming vehicle or a preceding vehicle, the light distribution control unit 21 sets the headlights to low beam when light distribution control is necessary, and sets the headlights to high beam when light distribution control is not necessary.
  • the light distribution control unit 21 blocks the relevant headlight area when light distribution control is necessary and irradiates other areas with high beams.
  • FIG. 3 is a flowchart showing a process flow for controlling the light distribution of headlights in the light distribution control system of this embodiment.
  • the ground speed acquisition unit 13 of the recognition processing device 10 acquires information from the external sensor 14, and calculates and acquires the ground speed of objects around the vehicle based on the information from the external sensor 14 (step S101).
  • the ground speed acquisition unit 13 acquires the ground speed for each object. For example, when an oncoming vehicle and a preceding vehicle are present ahead of the vehicle, the ground speed acquisition unit 13 acquires the ground speed of each of the oncoming vehicle and the preceding vehicle.
  • the recognition processing device 10 judges whether the ground speed obtained in step S101 is equal to or greater than a threshold for each object (step S102).
  • the threshold in step S102 is set to a constant speed, such as 40 km/h, that is suitable for distinguishing between a moving vehicle and an object on the road.
  • a method of using the results of measurements taken multiple times can be considered in order to prevent erroneous determination due to roadside objects, walls, and the like.
  • the ground speed threshold and the number of times the ground speed is measured may be changed based on the vehicle speed. Furthermore, when there are many roadside objects, such as on a curve, the possibility of erroneous judgment increases, so the ground speed threshold and the number of times the ground speed is measured may be changed depending on the curvature of the road on which the vehicle is traveling.
  • step S102 If it is determined in step S102 that the ground speed is equal to or greater than the threshold (True in step S102), the recognition processing device 10 determines that the target is one for which the high beams should be blocked, and the vehicle control device 20 controls the headlights so as not to dazzle the target (step S103). Headlight control so as not to dazzle targets such as oncoming vehicles is performed, for example, by the AHB function or ADB function.
  • step S102 If it is determined in step S102 that the ground speed is less than the threshold value (step S102: False), the recognition processing device 10 determines that the oncoming vehicle or the like is not a light blocking target, and the vehicle control device 20 controls the headlights so as not to change the illumination of the high beams on the target (step S104).
  • Example of recognition target determination state 4 and 5 are conceptual diagrams showing examples of determination states according to this embodiment.
  • 4 and 5 are images of the front of the vehicle captured by a camera, and the areas enclosed in rectangles in each image indicate areas detected by the recognition processing device 10 as light-blocked objects.
  • FIG. 4A shows a captured image 100a in which a preceding vehicle 102, an oncoming vehicle 101, a street lamp 103, and a sign 104 are visible.
  • the preceding vehicle 102 and the oncoming vehicle 101 are traveling on a road, so the ground speed can be acquired. Therefore, if it is determined in step S102 that the acquired ground speed is equal to or greater than a threshold, the recognition processing device 10 sets the recognition result as an image 100b, as shown in FIG. 4B, and sets the preceding vehicle 102 and the oncoming vehicle 101 as light-blocking targets.
  • the recognition processing device 10 does not treat them as objects to be shaded in the recognition result image 100b since the ground speed of the sign 104 and the street light 103 is determined to be less than a certain value in step S102.
  • FIG. 5A shows a captured image 200a in a situation where only roadside objects such as a sign 201, a delineator (arrow type) 202, and a delineator (pole type) 203 are visible.
  • step S102 the sign 201 and delineators 202, 203 are determined to have a ground speed less than a certain level. For this reason, as shown in FIG. 5B, the sign 201 and delineators 202, 203 are not subject to shading in the recognition result image 200b. Therefore, in the case of the AHB function, the light distribution control unit 21 can irradiate the high beam. Also, even in the case of the ADB function, the light distribution control unit 21 can irradiate the high beam without shading.
  • the recognition processing device 10 determines that an object detected by the external sensor 14 is a blocked object only if the ground speed is equal to or greater than a certain speed, so that it can reliably distinguish between a moving vehicle and an object fixed on the road and determine whether it is a blocked object. Therefore, it is possible to prevent the high beam from being illuminated on other vehicles whose ground speed is less than a certain speed.
  • FIG. 6 shows the configuration of a light distribution control system according to this embodiment.
  • the recognition processing device 10 in the light distribution control system 1' of this embodiment shown in Figure 6 includes, in addition to the ground speed acquisition unit 13 described in the first embodiment, an image acquisition unit 15, a light spot detection unit 16, and a vehicle detection unit 17. That is, the CPU (Central Processing Unit) 11 of the recognition processing device 10 is set to have functions as an image acquisition unit 15, a light spot detection unit 16, a vehicle detection unit 17, and a ground speed acquisition unit 13.
  • the light distribution control system 1' shown in FIG. 6 is also configured by the computer shown in FIG.
  • the image acquisition unit 15 acquires an image captured by a camera (stereo camera or monocular camera) serving as the external sensor 14 .
  • the light spot detection unit 16 detects pixels whose image brightness is equal to or greater than a certain value from the image acquired by the image acquisition unit 15, and integrates the pixels and adjacent areas to form a light spot area. Furthermore, the light spot detection unit 16 uses information on the brightness of the light spot area, the relative distance from the vehicle, and the relative position from the vehicle to identify the type of light spot by identifying whether it is a light spot from a headlight or taillight of the vehicle or another light spot.
  • the vehicle detection unit 17 detects a vehicle based on image parallax information (in the case of a stereo camera) or image features. At this time, when detecting a vehicle, the vehicle detection unit 17 can also use machine learning. That is, the vehicle detection unit 17 uses images captured by a stereo camera or a monocular camera to identify vehicles using a trained classifier.
  • the trained classifier calculates features such as edges and colors from images of the recognition target and images other than the recognition target in advance, and performs training using SVM (Support Vector Machine) or AdaBoost.
  • SVM Small Vector Machine
  • AdaBoost AdaBoost
  • the vehicle detection unit 17 uses this trained classifier to calculate features such as edges and colors from the images acquired by the image acquisition unit 15, and performs classification.
  • the classifier uses deep learning such as a Convolutional Neural Network (CNN) to train a network for classification from images of the recognition target and non-recognition target in advance, and identifies the recognition target, such as a vehicle, from images acquired by the image acquisition unit 15 using the trained network.
  • CNN Convolutional Neural Network
  • the ground speed acquisition unit 13 acquires the ground speed of objects around the vehicle, similarly to the first embodiment described with reference to FIG.
  • the vehicle control device 20 controls the light distribution of the vehicle's headlights based on various information about objects such as vehicles around the vehicle, which is acquired by the recognition processing device 10.
  • FIG. 7 is a flowchart showing a process flow for controlling the light distribution of headlights in the light distribution control system of this embodiment.
  • the light spot detection unit 16 recognizes light spots that are candidates for light blocking targets in the light distribution control unit 21 in the image acquired by the image acquisition unit 15 (step S201). Then, the light spot detection unit 16 determines whether or not a light spot is detected in step S201 (step S202).
  • step S202 If a light point that is a candidate for a shading target is recognized in step S202 (step S202: False), the recognition processing device 10 judges the candidate for a shading target for which a light point has been recognized as a shading target (step S208). The result of the judgment that the target is a shading target in step S208 is transmitted from the recognition processing device 10 to the vehicle control device 20. As a result, the vehicle control device 20 sets the headlight control state to low beam or high beam with the corresponding shading target blocked.
  • step S202 if no light point that is a candidate for a light blocking target is recognized in step S202 (True in step S202), the vehicle detection unit 17 performs vehicle identification on the image acquired by the image acquisition unit 15 (step S203). Furthermore, the ground speed acquisition unit 13 acquires the ground speed of the objects around the vehicle (step S204). The ground speed is acquired for each object. For example, when an oncoming vehicle and a preceding vehicle are present ahead of the vehicle, the ground speed of each of the oncoming vehicle and the preceding vehicle is acquired.
  • the recognition processing device 10 judges whether or not vehicle identification was performed in step S203 (step S205). If it is judged in step S205 that vehicle identification was performed (True in step S205), the recognition processing device 10 judges whether or not the ground speed acquired in step S204 is equal to or greater than threshold value a (step S206).
  • the threshold value a here is, for example, 40 km/h.
  • step S206 If it is determined in step S206 that the ground speed is equal to or greater than the threshold value a (True in step S206), the recognition processing device 10 determines that the object is a light-blocking target (step S208). This determination of the light-blocking target in step S208 is transmitted from the recognition processing device 10 to the vehicle control device 20, and the vehicle control device 20 controls the headlights to a state corresponding to the determination of the light-blocking target.
  • step S206 determines that the ground speed is less than the threshold a (step S206: False).
  • step S209 determines that the vehicle is not subject to light blocking (step S209).
  • step S209 even if the vehicle has been identified in step S203, the recognition processing device 10 determines that there is a possibility that a roadside object or the like has been erroneously identified, and performs the determination in step S209.
  • step S205 determines whether the ground speed acquired in step S204 is equal to or greater than threshold value b (step S207).
  • threshold value b is set to a value greater than threshold value a described above, for example, 80 km/h.
  • step S207 If it is determined in step S207 that the ground speed is equal to or greater than the threshold value b (True in step S207), the recognition processing device 10 determines that the object is a light-blocking target (step S208). This determination of the light-blocking target is transmitted from the recognition processing device 10 to the vehicle control device 20, and the headlights are controlled to the corresponding state in the vehicle control device 20.
  • step S207 determines that the ground speed is less than the threshold value b (step S207: False).
  • step S202 if a light spot is detected in step S202, it is immediately determined to be a light-blocking target. Also, if a light spot is not detected in step S202, a light-blocking determination is made based on a combination of the vehicle identification results in steps S203 and S204 and the ground speed results.
  • step S203 even if, for example, in step S203, a part of the delineators 202, 203 as described in Figure 5 is mistakenly recognized as a vehicle, by checking the ground speed in step S206, it can be determined in step S209 that it is not an object to be blocked. Therefore, in a scene where high beam illumination is required as in FIG. 7, it is possible to prevent erroneous switching to low beam.
  • step S207 the preceding vehicle 102 and the oncoming vehicle 101 can be targeted for light blocking in step S208.
  • the ground speed is used to reliably block the light from the preceding vehicle 102 and the oncoming vehicle 101, thereby preventing dazzle.
  • the vehicle detection unit 17 of this embodiment detects vehicles using machine learning with a trained classifier, etc., which allows for more accurate vehicle detection and more accurate headlight control.
  • this embodiment like the first embodiment, it is possible to prevent high beams from being irradiated onto other vehicles that should not be irradiated with the high beams.
  • appropriate control can be performed even if the respective recognition results are undetected. That is, in the case of this embodiment, the ground speed with respect to objects around the vehicle is acquired, and illumination of the vehicle's headlights is controlled when the ground speed is equal to or greater than a threshold value, so that illumination of the headlights can be controlled based on the ground speed even when light spot detection or vehicle detection from an image is difficult due to disturbances such as rain.
  • the ground speed of the object is acquired, and if the ground speed is less than a threshold, it is determined to be a roadside object.
  • a roadside object is erroneously detected as a vehicle, it is possible to drive while maintaining the high beams of the vehicle's headlights without blocking the light from reaching the roadside object.
  • the vehicle detection unit 17 uses machine learning to detect vehicles from image parallax information and image features. This allows the vehicle detection unit 17 to detect vehicles more accurately.
  • using machine learning is just one example, and vehicles may be detected using other methods.
  • the values of 40 Km/h and 80 Km/h as examples of the threshold speeds described in the above-mentioned embodiment are merely examples, and higher or lower speeds may be used.
  • the threshold speed of 40 Km/h in the first embodiment and the threshold speed a of 40 Km/h in the second embodiment may be set to a lower speed value.
  • these threshold speeds may be variably set depending on the traveling speed of the host vehicle.
  • the process of identifying a moving vehicle from other objects according to the flowcharts in FIG. 2 and FIG. 7 is applied to the light distribution control of headlights, but the recognition results from the recognition processing device 10 may also be used by the vehicle control device 20 for control of things other than headlights.
  • the recognition processing device 10 can control the light distribution of headlights by performing a process of distinguishing between a moving vehicle and other objects.
  • AD and ADAS can be one of the pieces of information required for vehicle recognition processing.
  • the vehicle control device 20 that acquires the recognition results from the recognition processing device 10 controls the headlights.
  • the vehicle control device 20 may perform part or all of the recognition process.
  • the recognition processing device 10 may directly control the control of the high beam and low beam of the headlights and the setting of the light blocking range when the high beam is on.
  • the recognition processing device 10 and the vehicle control device 20 are configured as an information processing device such as a computer
  • the programs that realize the recognition processing device 10 and the vehicle control device 20 may be stored in non-volatile storage or memory within the computer, or may be stored in an external memory, IC card, SD card, optical disk, or other recording medium and transferred for use.
  • 1, 1'...light distribution control system 10...recognition processing device, 11...central processing unit (CPU), 11a...read-only memory (ROM), 11b...random access memory (RAM), 11c...network interface, 11d...input section, 11e...output section, 12...storage device, 13...ground speed acquisition section, 14...external sensor, 15...image acquisition section, 16...light spot detection section, 17...vehicle detection section, 20...vehicle control device, 21...light distribution control section, 100a, 100b...image, 101...oncoming vehicle, 102...preceding vehicle, 103...street light, 104...sign, 200a, 200b...image, 201...sign, 202, 203...visual guidance sign

Landscapes

  • Lighting Device Outwards From Vehicle And Optical Signal (AREA)

Abstract

車両の外界認識を行い、車両の外界認識に基づいて、車両に搭載されたヘッドライトの配光制御を行う。構成として、車両の周辺の物体に関する情報を取得する外界センサと、外界センサの出力に基づいて、物体の対地速度を取得する対地速度取得部とを備え、対地速度取得部での対地速度に基づいて、ヘッドライトの照射範囲を可変設定する。

Description

配光制御システム及び配光制御方法
 本発明は、配光制御システム及び配光制御方法に関する。
 近年、自動車などの車両において、車両の外界認識を行って、その認識した結果に基づいて、車両ヘッドライトの配光を制御する配光制御システムを搭載したものが実用化されている。
 車両に搭載される配光制御としては、車載カメラなどの外界認識センサを利用して、対向車や先行車を認識し自動的にロービームに切り替え、対向車や先行車とすれ違った後に自動的にハイビームへ切り替えるAHB(Auto High Beam)と呼ばれる機能がある。また、認識した対向車や先行車の領域を遮光し、遮光した領域以外にハイビームを照射するADB(Adaptive Driving Beam)と呼ばれる機能がある。
 対向車や先行車などの他車両を正しく遮光するためには、外界認識センサによって車両と非車両の判断を正確に行う必要がある。特許文献1には、形状からテールランプやヘッドライトなどの光点を絞り込み、移動方向や速度によって車両判定を行う技術が記載されている。しかしながら、従来の技術では、常に適切な車両判定が行えるとは限らず、外乱により光点が検知しづらい場合や、認識できない無灯火の車の場合などがある。このため、これらの車両の認識ができない場合には、他車両の運転者に対して眩惑を与えてしまうという問題があった。
特開2019-156276号公報
 自動的な配光制御を行う場合には、他車両へハイビームを照射することは好ましくない。しかし、上述したように、外乱によって他車両のライトを検知しづらい場合や、無灯火の車の場合には、他車両のライトが検知できないため、ハイビームを照射してしまう可能性がある。そのため、車両のライトを検知する以外の方法でも配光制御を行うことができる技術の開発が望まれていた。
 また、画像から車両を認識する際には、路側物体などにより誤検知が発生する場合がある。路側物体を車両と誤検知した場合、誤ってロービームに切り替えてしまうため、できる限り路側物体などの誤検知を防ぐことが望まれていた。
 本発明は、他車両を良好に検知できると共に、車両以外の物体の誤検知を防ぐことができる配光制御システム及び配光制御方法を提供することを目的とする。
 上記課題を解決するために、例えば請求の範囲に記載の構成を採用する。
 本願は、上記課題を解決する手段を複数含んでいるが、その一例を挙げるならば、本発明の配光制御システムは、車両の外界認識を行い、車両の外界認識に基づいて、車両に搭載されたヘッドライトの配光制御を行うものである。
 ここで、本発明の一例の配光制御システムは、車両の周辺の物体に関する情報を取得する外界センサと、外界センサの出力に基づいて、物体の対地速度を取得する対地速度取得部とを備え、対地速度取得部で取得した対地速度に基づいて、ヘッドライトの照射範囲を可変設定するようにした。
 本発明によると、物体の対地速度を取得し、対地速度が閾値以上になった場合に自車のヘッドライトの照射を制御することにより、車両のライトを検知する以外の方法で、他車両に対してハイビームを照射することを防ぐことができる。
 上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
本発明の第1の実施の形態例による配光制御システムの構成例を示すブロック図である。 本発明の第1の実施の形態例による配光制御システムが備える認識処理装置のハードウェア構成例を示すブロック図である。 本発明の第1の実施の形態例による配光制御処理を示すフローチャートである。 図4Aは、遮光を行う候補の例(例1)を示す図であり、図4Bは、図4Aに示す遮光を行う候補から遮光対象を選んだ状態の例を示す図である。 図5Aは、遮光を行う候補の例(例2)を示す図であり、図5Bは、図5Aに示す遮光を行わない候補から遮光を行わない対象を選んだ状態の例を示す図である。 本発明の第2の実施の形態例による配光制御システムの構成例を示すブロック図である。 本発明の第2の実施の形態例による配光制御処理を示すフローチャートである。
<第1の実施の形態例>
 以下、本発明の第1の実施の形態例の配光制御システム及び配光制御方法を、図1~図5を参照して説明する。
[配光制御システムの構成]
 図1は、本実施の形態例の配光制御システムの構成を示す。
 図1に示す配光制御システム1は、ヘッドライト(不図示)を備えた車両に搭載され、認識処理装置10と車両制御装置20とを備える。そして、認識処理装置10で認識した結果をもとに、車両制御装置20によって、車両のヘッドライトの配光制御を行う。
 また、配光制御システム1は、車両前方に設置され車両前方の情報を取得する外界センサ14を備える。外界センサ14は、車両前方または周囲の情報を取得する外界センシング処理を行うセンサである。外界センサ14としては、ステレオカメラ、単眼カメラ、ミリ波レーダ、LiDAR(Light Detection And Ranging)などを利用することができる。
 ステレオカメラは、車両前方や周囲の画像を複数のカメラで撮像するものである。単眼カメラは、車両前方や周囲の画像を1個のカメラで撮像するものである。ミリ波レーダは、車両前方や周囲の物体の距離や角度を取得するものである。LiDARは、車両前方や周囲の3次元情報を取得するものである。
 なお、外界センサ14としては、これらのセンサを単体で使用する場合と、単眼カメラやミリ波レーダなどを組み合わせて使用する場合とがある。また、車両周辺のセンシングを行うセンサであれば、上記以外のその他のセンサを使用することも可能である。
 認識処理装置10と車両制御装置20は、いずれもコンピュータである。コンピュータとしての認識処理装置10と車両制御装置20のハードウェア構成例を図2に示す。なお、図2では、認識処理装置10として示しているが、車両制御装置20も認識処理装置10と同様なハードウェア構成とすることができる。
 認識処理装置10は、プロセッサである中央処理ユニット(CPU)11と、リードオンリーメモリ(ROM)11aと、ランダムアクセスメモリ(RAM)11bと、記憶装置12と、ネットワークインタフェース11cと、入力部11dと、出力部11eとを備える。
 CPU11は、MPU(Micro Processor Unit)で構成してもよい。記憶装置12は、例えばHDD(Hard Disk Drive)やSSD(Solid State Drive)、あるいは半導体メモリなどが使用される。記憶装置12は、ROM11aが兼ねる構成でもよい。
 入力部11dは、外界センサ14から認識処理装置10又は車両制御装置20に入力される各種情報を、CPU11が演算可能な情報に変換する。ROM11aや記憶装置12は、適宜後述する演算処理を実行する制御プログラムと、当該演算処理の実行に必要な各種情報等が記憶される記録媒体である。
 CPU11は、ROM11aに記憶された制御プログラムに従って、入力部11dに入力された信号と、ROM11a、RAM11b又は記憶装置12から取り入れた信号に対して所定の演算処理を行う。出力部11eからは、出力対象を制御するための指令や出力対象が利用する情報等が出力される。ここで、出力対象とは、認識処理装置10の場合は、車両制御装置20の配光制御部21になり、車両制御装置20であれば、配光が制御される車両のヘッドライトになる。
 なお、認識処理装置10や車両制御装置20として、CPUを備えたコンピュータで構成するのは一例であり、例えば、認識処理装置10や車両制御装置20の一部又は全部を、FPGA(Field Programmable Gate Array)やASIC(Application Specific Integrated Circuit)などの専用のハードウェアによって実現してもよい。
 図1の構成の説明に戻ると、認識処理装置10は、対地速度取得部13を備える。対地速度取得部13は、外界センサ14で取得した情報に基づいて、車両前方の物体の相対速度を取得する対地速度取得処理を行う。例えば、対地速度取得部13は、ステレオカメラやLiDARなどで取得した3次元情報を利用して、車両前方の障害物を立体物として認識し、認識した立体物の距離情報の時系列データから対地速度を求める。
 あるいは、対地速度取得部13は、ステレオカメラ又は単眼カメラで撮影した画像を使って、あらかじめ認識対象や認識対象以外の画像よりエッジや色などの特徴量を計算して識別器の学習を行う。そして、対地速度取得部13は、学習済みの識別器を用いて、新たに取得した認識対象を識別する。識別器の学習には、例えばSVM(Support Vector Machine)やAdaBoostが利用可能である。
 さらに、対地速度取得部13は、あらかじめ認識対象や認識対象以外の画像を用いてCNN(Convolutional Neural Network)などのディープラーニング(Deep Learning)を行う。そして、対地速度取得部13は、CNNで学習した識別用のネットワークを用いて、認識対象を認識するようにしてもよい。
 また、対地速度取得部13は、これら認識対象の識別を行った後、認識した対象の画像サイズから認識対象までの距離情報を推定したり、さらに、ミリ波レーダなどのセンサを用いて測定した認識対象までの距離情報の時系列データより対地速度を求めたりすることもできる。
 車両制御装置20は、配光制御部21を備える。
 配光制御部21は、認識処理装置10の対地速度取得部13で取得した、自車周辺の車両などの物体の対地速度情報を元に、車両のヘッドライトの配光の制御を行い、ヘッドライトの照射範囲を可変設定する。
 すなわち、例えば、対向車や先行車とすれ違った後に自動的にハイビームへ切り替えるAHB機能を搭載した車両の場合、配光制御部21は、配光制御が必要な状況ではヘッドライトをロービームにする。また、配光制御が必要でない状況では、配光制御部21は、ヘッドライトをハイビームにする。
 また、認識した対向車や先行車の領域を遮光し、遮光した領域以外にハイビームを照射するADB機能を搭載した車両の場合、配光制御部21は、配光制御が必要な状況では該当するヘッドライトの領域を遮光し、それ以外の領域にはハイビームを照射する。
[ヘッドライトの配光制御を行う処理の流れ]
 図3は、本実施の形態例の配光制御システムにおいて、ヘッドライトの配光制御を行う処理の流れを示すフローチャートである。
 まず、認識処理装置10の対地速度取得部13は、外界センサ14の情報を取得し、この外界センサ14からの情報に基づいて車両周辺の物体の対地速度を計算して取得する(ステップS101)。対地速度取得部13は、対地速度の取得を物体毎に行う。例えば、対地速度取得部13は、対向車と先行車が自車前方に存在する場合、対向車、先行車それぞれの対地速度を取得する。
 次に、認識処理装置10は、ステップS101で取得した対地速度について、物体毎に対地速度が閾値以上か否かの判定を行う(ステップS102)。ここで、ステップS102における閾値は、例えば40Km/hのように走行中の車両と道路上の物体とを識別するのに適した一定の速度にする。
 ステップS102において、対地速度が閾値以上か否かの判定には、路側物体や壁などへの誤判定を防止するため、複数回の測定結果を利用する方法が考えられる。
 また、同じ道路を走行している場合、対向車や先行車も自車と同等の速度で走行していると考えられるため、自車速度から、対地速度の閾値や対地速度の測定回数を変更してもよい。さらに、カーブ中など、路側物体が多く設置されている場合には、誤判定の可能性が高くなることから、走行中の道路の曲率により対地速度の閾値や対地速度の測定回数を変更するようにしてもよい。
 そして、ステップS102で対地速度が閾値以上であると判定した場合(ステップS102のTrue)、認識処理装置10は、ハイビームを遮光すべき対象であると判定し、車両制御装置20にて、対象へ眩惑を与えないようにヘッドライトの制御を行う(ステップS103)。対向車などの対象に対して眩惑を与えないヘッドライトの制御は、例えばAHB機能又はADB機能により実行される。
 ステップS102で対地速度が閾値未満と判定した場合(ステップS102のFalse)、認識処理装置10は、対向車等に対して遮光対象ではないと判定し、車両制御装置20にて、対象に対するハイビームの照射を変えないように、ヘッドライトの制御を行う(ステップS104)。
[認識対象の判定状態の例]
 図4及び図5は、本実施の形態例による判定状態の例を示すイメージ図である。
 図4及び図5は、カメラで撮像した車両前方の画像であり、各画像の矩形で囲って示す箇所が、認識処理装置10による遮光対象として検知している部分を示す。
 図4Aは、先行車102、対向車101、街灯103、標識104が見える状況の撮像画像100aである。先行車102と対向車101は道路を走行しているため、対地速度を取得することができる。したがって、ステップS102において、取得した対地速度が閾値以上であると判定できる場合には、認識処理装置10は、図4Bに示すように、認識結果を画像100bとして、先行車102と対向車101を遮光対象とする。
 また、標識104と街灯103は道路設置物であるため、ステップS102において対地速度が一定未満と判定されるので、認識処理装置10は、認識結果の画像100bにおいて、遮光対象としない。
 図5Aは、標識201、視線誘導標(矢印タイプ)202、視線誘導標(ポールタイプ)203などの路側物体のみが見える状況の撮像画像200aである。
 この図5Aに示す画像200aのような状況の場合には、ステップS102において標識201や視線誘導標202、203は、対地速度が一定未満と判定される。このため、図5Bに示すように、標識201や視線誘導標202、203は、認識結果の画像200bにおいて遮光対象としない。よって、配光制御部21は、AHB機能の場合、ハイビームを照射することができる。また、ADB機能であっても、配光制御部21は、遮光を行うことなく、ハイビームを照射することができる。
 なお、図4や図5に示すシーンは対象となるシーンの一例であり、本実施の形態例による判定状態では、その他の様々な状況に対応が可能である。
 以上説明したように、本実施の形態例によると、認識処理装置10は、外界センサ14で検知した物体について、対地速度が一定速度以上である場合に限って、遮光対象と判断するので、走行中の車両と道路上に固定された物体とを確実に区別して遮光対象を判断することができる。したがって、対地速度が一定速度以上未満の他の車両に対するハイビームの照射を防ぐことができる。
<第2の実施の形態例>
 次に、本発明の第2の実施の形態例の配光制御システム及び配光制御方法を、図6~図7を参照して説明する。図6~図7において、第1の実施の形態例で説明した図1~図5と同一の箇所には同一符号を付し、重複説明を省略する。
[配光制御システムの構成]
 図6は、本実施の形態例の配光制御システムの構成を示す。
 図6に示す、本実施の形態例の配光制御システム1′における認識処理装置10は、第1の実施の形態例で説明した対地速度取得部13に加え、画像取得部15と、光点検知部16と、車両検知部17とを備える。
 すなわち、認識処理装置10のCPU(中央処理ユニット)11は、画像取得部15、光点検知部16、車両検知部17、及び対地速度取得部13としての機能を持つように設定される。なお、図6に示す配光制御システム1′も、図2に示すコンピュータにより構成される。
 画像取得部15は、外界センサ14としてのカメラ(ステレオカメラ又は単眼カメラ)で撮像された画像を取得する。
 光点検知部16は、画像取得部15で取得した画像から、画像の輝度が一定値以上の画素を検出し、当該画素と隣接する領域を統合することで光点領域とする。さらに光点検知部16は、光点領域の輝度情報、車両からの相対距離、及び車両からの相対位置の情報などを利用して、車両のヘッドライトやテールランプの光点か、それ以外の光点かを識別することにより光点の種類を識別する。
 車両検知部17は、画像の視差情報(ステレオカメラの場合)又は画像の特徴から車両を検知する。このとき、車両を検知する際に、車両検知部17は、機械学習を利用することもできる。
 すなわち、車両検知部17は、ステレオカメラや単眼カメラで撮影した画像を利用して、学習済みの識別器により車両の識別を行う。
 学習済みの識別器は、あらかじめ認識対象や認識対象以外の画像よりエッジや色などの特徴量を計算してSVM(Support Vector Machine)やAdaBoostなどの学習を行う。そして、車両検知部17は、その学習済みの識別器を用いて、画像取得部15が取得した画像よりエッジや色などの特徴量を計算して識別する。
 あるいは、識別器は、あらかじめ認識対象や認識対象以外の画像よりCNN(Convolutional Neural Network)などのデープラーンニング(Deep Learning)を用いて、識別用のネットワークを学習し、学習済みのネットワークにより画像取得部15が取得した画像から車両などの認識対象を識別する。
 対地速度取得部13は、図1で説明した第1の実施形態例と同様に、車両周辺の物体の対地速度を取得する。
 また、車両制御装置20は、認識処理装置10で取得した、自車周辺の車両などの物体についての各情報を元に、車両のヘッドライトの配光の制御を行う。
[ヘッドライトの配光制御を行う処理の流れ]
 図7は、本実施の形態例の配光制御システムにおいて、ヘッドライトの配光制御を行う処理の流れを示すフローチャートである。
 まず、光点検知部16は、画像取得部15で取得した画像に対し、配光制御部21で遮光対象の候補となる光点を認識する(ステップS201)。そして、光点検知部16は、ステップS201において、光点の検知がないか否かを判断する(ステップS202)。
 ステップS202で遮光対象の候補となる光点を認識した場合(ステップS202のFalse)、認識処理装置10は、光点が認識された遮光対象の候補を、遮光対象と判定する(ステップS208)。ステップS208で遮光対象と判定した結果は、認識処理装置10から車両制御装置20に伝送される。これにより、車両制御装置20は、ヘッドライトの制御状態を、ロービーム又は該当する遮光対象を遮光したハイビームとする。
 また、ステップS202で遮光対象の候補となる光点を認識しない場合(ステップS202のTrue)、車両検知部17は、画像取得部15で取得した画像に対し、車両識別を行う(ステップS203)。
 さらに、対地速度取得部13は、車両周辺の物体の対地速度を取得する(ステップS204)。対地速度の取得は物体毎に行われ、例えば対向車と先行車が自車前方に存在する場合、対向車、先行車それぞれの対地速度が取得される。
 その後、認識処理装置10は、ステップS203で車両識別が有ったか否かを判断する(ステップS205)。ステップS205で、車両識別有りと判断した場合(ステップS205のTrue)、認識処理装置10は、ステップS204で取得した対地速度が閾値a以上か否かを判断する(ステップS206)。ここでの閾値aは、例えば40Km/hとする。
 ステップS206で対地速度が閾値a以上と判断した場合(ステップS206のTrue)、認識処理装置10は該当する物体を遮光対象と判定する(ステップS208)。このステップS208における遮光対象の判定は、認識処理装置10から車両制御装置20に伝送され、車両制御装置20において、遮光対象の判定に対応した状態にヘッドライトが制御される。
 また、ステップS206で対地速度が閾値a未満と判断した場合(ステップS206のFalse)、認識処理装置10は遮光対象外と判断する(ステップS209)。このステップS209の判定において、ステップS203で車両識別している場合であっても、認識処理装置10は、路側物体などを誤識別している可能性があると判断して、ステップS209の判定を行う。
 さらに、ステップS205で、車両識別が無いと判断した場合(ステップS205のFalse)、ステップS204で取得した対地速度が閾値b以上か否かの判定を行う(ステップS207)。ここで、閾値bは、上述した閾値aよりも大きな値とし、例えば80Km/hとする。
 ステップS207で、対地速度が閾値b以上と判断した場合(ステップS207のTrue)、認識処理装置10は、該当する物体を遮光対象と判断する(ステップS208)。この遮光対象の判定は、認識処理装置10から車両制御装置20に伝送され、車両制御装置20で対応した状態にヘッドライトが制御される。
 また、ステップS207で、対地速度が閾値b未満と判断した場合(ステップS207のFalse)、認識処理装置10は、識別した車両を遮光対象外と判断する(ステップS209)。
 以上説明したように、本実施の形態例では、ステップS202で光点の検知がある場合は、すぐに遮光対象として判断する。また、ステップS202で光点としての検知が無い場合は、ステップS203とステップS204の車両識別結果と、対地速度の結果の組み合わせにより遮光判断を行う。
 これにより、例えばステップS203で、図5で説明したような視線誘導標202,203の一部を車両と誤認識した場合でも、ステップS206で対地速度の確認を行うことで、ステップS209で遮光対象外と判断することができる。
 よって、図7のようなハイビーム照射が必要なシーンにおいて、誤ってロービームに切り替えるのを防ぐことができる。
 また、図4のような先行車や対向車が存在するシーンで、雨天時の誤検知などのためにステップS202で光点検知が無く、ステップS205で車両識別が無い場合でも、ステップS207において対地速度の確認を行うことで、ステップS208で先行車102や対向車101を遮光対象とすることができる。
 これにより、画像より光点検知や車両識別が困難な場合でも対地速度を利用することで、先行車102や対向車101を確実に遮光対象とし、眩惑を与えるのを防ぐことができる。
 また、本実施の形態例の車両検知部17は、学習済みの識別器などによる機械学習を利用して車両を検知することで、より的確に車両を検知することができ、ヘッドライトの制御を行う精度がより高くなる。
 以上説明したように、本実施の形態例によると、第1の実施の形態例と同様に、本来照射すべきでない他車両に対するハイビームの照射を防ぐことができる。
 また、本実施の形態例の場合、光点検知や、車両検知を行い、検知結果をもとに自車のヘッドライトの照射を判断する場合に、それぞれの認識結果が未検知の場合でも、適切な制御を行うことができる。すなわち、本実施の形態例の場合、自車周辺の物体に対して対地速度を取得し、対地速度が閾値以上の場合に自車ヘッドライトの照射を制御することにより、雨天などの外乱により、画像から光点検知や車両検知しづらい場合でも、対地速度よりヘッドライトの照射の制御を行うことができる。
 また、本実施の形態例の場合には、車両検知を行った結果で車両有りと認識した場合でも、物体の対地速度を取得し、対地速度が閾値未満の場合は路側物体であると判断するようにした。これにより、本実施の形態例によると、路側物体を車両として誤検知した場合でも、自車ヘッドライトのハイビームの照射を路側物体に対して遮光することなく、ハイビームを維持して走行が可能となる。
 さらに、本実施の形態例の場合、車両検知部17は、機械学習を利用して、画像の視差情報や画像の特徴から車両を検知するようにした。これにより、車両検知部17は、より正確に車両を検知することができる。但し、機械学習を利用するのは一例であり、その他の方法で車両を検知してもよい。
[変形例]
 なお、ここまで説明した実施の形態例は、本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。
 例えば、上述した実施の形態例で説明した閾値の速度例としての40Km/hや80Km/hの値は一例であり、それよりも高い速度や低い速度としてもよい。例えば、対地速度取得部13で取得する速度の精度が高く、誤差が少ない場合には、第1の実施の形態例の閾値40Km/hや、第2の実施の形態例の閾値aの40Km/hの速度値を、これよりも低い速度値にしてもよい。また、自車両の走行速度に応じて、これらの閾値を可変設定してもよい。
 また、上述した各実施の形態例では、図2や図7のフローチャートによる走行中の車両と、それ以外の物体との識別処理を、ヘッドライトの配光制御に適用したが、認識処理装置10での認識結果は、車両制御装置20でヘッドライト以外の制御にも利用してもよい。
 例えば、車両制御装置20が、自動運転システム(Autonomous driving system:AD)や、先進運転支援システム(Advanced Driver-Assistance Systems:ADAS)として制御を行う場合に、認識処理装置10は、走行中の車両と、それ以外の物体との識別処理を行うことで、ヘッドライトの配光制御を行うことができる。また、ADやADASは、車両の認識処理における必要な情報の一つとすることができる。
 このようにして、認識処理装置10における認識結果をヘッドライトの配光制御以外にも適用することで、自動運転や先進運転支援についても、より精度よく的確に行うことが可能になる。
 また、図1や図6に示す構成図では、制御線や情報線は説明上必要と考えられるものだけを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。
 また、本実施の形態例で説明した例では、認識処理装置10での認識結果を取得した車両制御装置20が、ヘッドライトを制御するようにした。これに対して、認識処理の一部又は全てを車両制御装置20が行うようにしてもよい。あるいはまた、認識処理装置10がヘッドライトのハイビームとロービームの制御や、ハイビーム時の遮光範囲の設定を、直接制御するようにしてもよい。
 また、認識処理装置10や車両制御装置20をコンピュータなどの情報処理装置で構成した場合に、認識処理装置10や車両制御装置20を実現するプログラムは、コンピュータ内の不揮発性ストレージやメモリに用意する他に、外部のメモリ、ICカード、SDカード、光ディスク等の記録媒体に置いて、転送して利用するようにしてもよい。
 1,1′…配光制御システム、10…認識処理装置、11…中央処理ユニット(CPU)、11a…リードオンリーメモリ(ROM)、11b…ランダムアクセスメモリ(RAM)、11c…ネットワークインタフェース、11d…入力部、11e…出力部、12…記憶装置、13…対地速度取得部、14…外界センサ、15…画像取得部、16…光点検知部、17…車両検知部、20…車両制御装置、21…配光制御部、100a,100b…画像、101…対向車、102…先行車、103…街灯、104…標識、200a,200b…画像、201…標識、202,203…視線誘導標

Claims (8)

  1.  車両の外界認識を行い、車両の外界認識に基づいて、前記車両に搭載されたヘッドライトの配光制御を行う配光制御システムであって、
     前記車両の周辺の物体に関する情報を取得する外界センサと、
     前記外界センサの出力に基づいて、前記物体の対地速度を取得する対地速度取得部と、を備え、
     前記対地速度取得部で取得した対地速度に基づいて、前記ヘッドライトの照射範囲を可変設定するようにした
     配光制御システム。
  2.  前記対地速度取得部において前記物体の対地速度が第1の閾値未満の場合、自車のヘッドライトの照射向きを、ハイビームに設定する
     請求項1に記載の配光制御システム。
  3.  さらに、車両の周辺の画像を取得する画像取得部と、
     前記画像に含まれる光点を検知する光点検知部と、を備え、
     前記光点検知部で光点を検知しない場合であって、かつ前記対地速度取得部において前記物体の対地速度が第1の閾値以上である場合に、自車のヘッドライトの照射向きをロービーム、又は前記物体を遮光したハイビームに設定する
     請求項1に記載の配光制御システム。
  4.  さらに、前記画像に含まれる車両を検知する車両検知部と、を備え、
     前記対地速度取得部において前記物体の対地速度が第1の閾値以上であると判断するのは、前記車両検知部が車両を検知しない場合である
     請求項3に記載の配光制御システム。
  5.  さらに、前記車両検知部が車両を検知した場合、前記対地速度取得部において前記物体の対地速度が第1の閾値よりも速い速度の第2の閾値以上である場合に、自車のヘッドライトの照射向きをロービーム、又は前記物体を遮光したハイビームに設定する
     請求項4に記載の配光制御システム。
  6.  前記車両検知部は機械学習による画像の視差情報及び画像の特徴から車両を検知する
     請求項4に記載の配光制御システム。
  7.  前記対地速度取得部において、前記物体の対地速度の情報を、前記車両の自動運転又は先進運転支援を行うための物体の情報としても利用する
     請求項1に記載の配光制御システム。
  8.  車両の外界認識を行い、車両の外界認識に基づいて、前記車両に搭載されたヘッドライトの配光制御を行う配光制御方法であって、
     前記車両の周辺の物体に関する情報を取得する外界センシング処理と、
     前記外界センシング処理により得られた情報に基づいて、前記物体の対地速度を取得する対地速度取得処理と、
     前記対地速度取得処理での対地速度に基づいて、前記ヘッドライトの照射範囲を可変設定する配光制御処理と、を含む
     配光制御方法。
PCT/JP2022/046378 2022-12-16 2022-12-16 配光制御システム及び配光制御方法 WO2024127633A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/046378 WO2024127633A1 (ja) 2022-12-16 2022-12-16 配光制御システム及び配光制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/046378 WO2024127633A1 (ja) 2022-12-16 2022-12-16 配光制御システム及び配光制御方法

Publications (1)

Publication Number Publication Date
WO2024127633A1 true WO2024127633A1 (ja) 2024-06-20

Family

ID=91484688

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/046378 WO2024127633A1 (ja) 2022-12-16 2022-12-16 配光制御システム及び配光制御方法

Country Status (1)

Country Link
WO (1) WO2024127633A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013079032A (ja) * 2011-10-05 2013-05-02 Daimler Ag 車両の防眩制御装置
WO2019078287A1 (ja) * 2017-10-19 2019-04-25 株式会社小糸製作所 車両用ランプシステム
JP2019156276A (ja) * 2018-03-15 2019-09-19 株式会社小糸製作所 車両検出方法及び車両検出装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013079032A (ja) * 2011-10-05 2013-05-02 Daimler Ag 車両の防眩制御装置
WO2019078287A1 (ja) * 2017-10-19 2019-04-25 株式会社小糸製作所 車両用ランプシステム
JP2019156276A (ja) * 2018-03-15 2019-09-19 株式会社小糸製作所 車両検出方法及び車両検出装置

Similar Documents

Publication Publication Date Title
CN109155107B (zh) 用于自动化车辆场景感知的感知***
US10286834B2 (en) Vehicle exterior environment recognition apparatus
US20200406897A1 (en) Method and Device for Recognizing and Evaluating Roadway Conditions and Weather-Related Environmental Influences
US10442343B2 (en) Vehicle exterior environment recognition apparatus
JP5409929B2 (ja) 車両用ヘッドライト装置の制御方法およびヘッドライト装置
KR102295577B1 (ko) Ecu, 상기 ecu를 포함하는 무인 자율 주행 차량, 및 이의 주행 차로 판단 방법
US8670592B2 (en) Clear path detection using segmentation-based method
US8611585B2 (en) Clear path detection using patch approach
US8848980B2 (en) Front vehicle detecting method and front vehicle detecting apparatus
KR102371587B1 (ko) 횡단보도 인식 결과를 이용한 안내 정보 제공 장치 및 방법
JP4258385B2 (ja) 路面反射検出装置
US8890951B2 (en) Clear path detection with patch smoothing approach
US8270676B2 (en) Method for automatic full beam light control
US8625850B2 (en) Environment recognition device and environment recognition method
CN107667378B (zh) 用于识别和评估路面反射的方法和装置
EP1837803A2 (en) Headlight, taillight and streetlight detection
US9372112B2 (en) Traveling environment detection device
US11106214B2 (en) Artificial neural network-based projection information recognition apparatus and method thereof
KR20180075985A (ko) 주행환경 감응형 자율 조향 예측 장치 및 그 방법
WO2024127633A1 (ja) 配光制御システム及び配光制御方法
WO2017169704A1 (ja) 環境認識装置
KR20140147212A (ko) 라이더를 이용한 hba 제어 방법 및 이를 위한 장치
KR101622051B1 (ko) 차량 분별 시스템 및 방법
JP6861911B2 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
KR20190026481A (ko) 비전 기반 적응형 순항 제어 시스템 및 방법