JP2022161700A - Traffic light recognition device - Google Patents
Traffic light recognition device Download PDFInfo
- Publication number
- JP2022161700A JP2022161700A JP2021066708A JP2021066708A JP2022161700A JP 2022161700 A JP2022161700 A JP 2022161700A JP 2021066708 A JP2021066708 A JP 2021066708A JP 2021066708 A JP2021066708 A JP 2021066708A JP 2022161700 A JP2022161700 A JP 2022161700A
- Authority
- JP
- Japan
- Prior art keywords
- traffic
- traffic light
- dimensional object
- light
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003384 imaging method Methods 0.000 claims abstract description 9
- 230000001678 irradiating effect Effects 0.000 claims description 2
- 239000000284 extract Substances 0.000 abstract description 7
- 238000000034 method Methods 0.000 description 6
- 230000001133 acceleration Effects 0.000 description 4
- 239000003086 colorant Substances 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Landscapes
- Traffic Control Systems (AREA)
Abstract
Description
本発明は、信号機を認識可能な信号機認識装置に関する。 The present invention relates to a traffic signal recognition device capable of recognizing a traffic signal.
従来から、信号機(灯火の色等も含む。)を認識可能な信号機認識装置が知られている。例えば、特許文献1の信号機認識装置(以下、「従来装置」とも称する。)は、撮像装置で信号機を撮像し、撮像された信号機画像から当該信号機の灯火(以下、「信号灯」とも称する。)の色度情報と輝度情報とを検出し、これらの色度情報及び輝度情報に基づいて信号灯の色を判断することにより、信号灯の色を認識するように構成されている。 2. Description of the Related Art Conventionally, a traffic signal recognition device capable of recognizing a traffic signal (including the color of a light, etc.) is known. For example, a traffic light recognition device (hereinafter also referred to as a "conventional device") disclosed in Patent Document 1 captures an image of a traffic light with an imaging device, and detects a light of the traffic light (hereinafter also referred to as a "signal light") from the captured image of the traffic light. The color of the traffic light is recognized by detecting the chromaticity information and luminance information of the signal lamp and determining the color of the traffic light based on the chromaticity information and luminance information.
従来装置のように、撮像装置により撮像された撮像画像に基づいて信号機を認識する場合、夜間などの弱光環境(周囲が比較的に暗い環境)下では信号機の筐体が撮像され難くなる。このため、弱光環境下では、撮像画像に含まれる灯火の色のみに基づいて信号機の存在有無を判定しなければならないが、この構成によれば、信号灯以外の灯火(例えば、街灯及び先行車のテールランプ)を信号灯として誤って認識(検出)してしまう可能性がある。また、撮像画像は二次元画像であるため、車両と信号機との位置関係の推定精度がそれほど高くない。このため、撮像画像に基づいて信号機を認識できたとしても、自車線用の信号機ではなく、自車線と交差する車線(立体交差する車線を含む)用の信号機を自車線用の信号機として誤って選択してしまう可能性がある。即ち、撮像画像に基づいて信号機を認識する構成では、特に弱光環境下では、信号機を誤検出したり誤選択したりするという問題がある。 When recognizing a traffic signal based on an image captured by an imaging device as in the conventional apparatus, it is difficult to image the housing of the traffic signal in a weak light environment (environment with relatively dark surroundings) such as at night. Therefore, in a low-light environment, it is necessary to determine the presence or absence of a traffic light based only on the color of the light included in the captured image. tail lamp) may be mistakenly recognized (detected) as a signal light. In addition, since the captured image is a two-dimensional image, the accuracy of estimating the positional relationship between the vehicle and the traffic light is not so high. Therefore, even if the traffic signal can be recognized based on the captured image, the traffic signal for the lane that intersects with the own lane (including a grade-separated lane) is mistakenly assumed to be the traffic signal for the own lane instead of the traffic signal for the own lane. You may choose. That is, in a configuration for recognizing a traffic signal based on a captured image, there is a problem that the traffic signal may be erroneously detected or erroneously selected, especially in a low-light environment.
本発明は、上述した問題に対処するためになされたものである。即ち、本発明の目的の一つは、弱光環境においても自車線用の信号機を適切に認識可能な信号機認識装置を提供することにある。 The present invention has been made to address the problems described above. That is, one of the objects of the present invention is to provide a traffic signal recognition device capable of appropriately recognizing a traffic signal for own lane even in a weak light environment.
本発明による信号機認識装置(以下、「本発明装置」と称する。)は、
車両に搭載され、
前記車両の前方領域を撮像することにより画像データを取得可能な撮像装置(11)と、
前記車両の前記前方領域を含む所定の範囲に光を照射し、当該範囲内に存在する立体物からの反射波を受光することにより当該立体物の相対位置及び形状を含む立体物情報を取得可能な光照射装置(12)と、
前記画像データに基づいて、灯火が存在する可能性がある領域を灯火領域として抽出し(ステップ210)、
前記立体物情報に基づいて、前記灯火領域に信号機が存在するか否かを判定し(ステップ215)、
前記灯火領域に信号機が存在すると判定した場合、前記立体物情報に基づいて、前記信号機が自車線用の信号機であるか否かを判定する(ステップ225)、
ように構成された制御ユニット(10)と、
を備える。
A traffic light recognition device according to the present invention (hereinafter referred to as the "present invention device")
mounted on the vehicle
an imaging device (11) capable of acquiring image data by imaging an area in front of the vehicle;
Three-dimensional object information including the relative position and shape of the three-dimensional object can be obtained by irradiating a predetermined range including the front area of the vehicle with light and receiving reflected waves from the three-dimensional object existing within the range. a light irradiation device (12);
Based on the image data, an area in which a lamp may exist is extracted as a lamp area (step 210);
determining whether or not a traffic light exists in the lighting area based on the three-dimensional object information (step 215);
If it is determined that a traffic signal exists in the lighting area, it is determined whether or not the traffic signal is for the own lane based on the three-dimensional object information (step 225);
a control unit (10) configured to
Prepare.
本発明装置は、光照射装置により取得された立体物情報に基づいて信号機の存在有無を判定する。立体物情報は周囲の明るさに関わらず取得可能である。加えて、立体物情報は、立体物の相対位置及び形状を含む三次元の情報である。このため、二次元の撮像画像に基づいて信号機を認識する構成と比較して、弱光環境においても信号機を精度良く認識でき、信号機を誤検出したり誤選択したりする可能性を大幅に低減できる。この構成によれば、弱光環境においても自車線用の信号機を適切に認識することが可能となる。 The device of the present invention determines whether or not there is a traffic light based on the three-dimensional object information acquired by the light irradiation device. Three-dimensional object information can be obtained regardless of the brightness of the surroundings. In addition, the three-dimensional object information is three-dimensional information including relative positions and shapes of three-dimensional objects. Compared to systems that recognize traffic lights based on two-dimensional captured images, this technology enables accurate recognition of traffic lights even in low-light environments, greatly reducing the possibility of misdetection or misselection of traffic lights. can. According to this configuration, it is possible to appropriately recognize the traffic light for the own lane even in a weak light environment.
特に、本発明装置は、立体物情報に含まれる全ての立体物について当該立体物が信号機であるか否かを判定するのではなく、まず、画像データに基づいて灯火領域を抽出し、灯火領域に信号機が存在するか否かを判定するように構成されている。これは、信号灯は灯火の一種であるため、灯火領域以外の領域に存在する可能性は極めて低いという知見に基づいている。この構成によれば、信号機が存在するか否かの判定対象となる立体物の数を大幅に低減できるため、信号機の認識精度を低下させることなく処理負荷を軽減することができる。 In particular, the apparatus of the present invention does not determine whether or not all three-dimensional objects included in the three-dimensional object information are traffic lights, but first extracts the lighting region based on the image data, and extracts the lighting region. is configured to determine whether or not there is a traffic light in the This is based on the knowledge that signal lights are a kind of lights, and therefore the possibility of them existing in areas other than the lighting area is extremely low. According to this configuration, the number of three-dimensional objects to be determined as to whether or not a traffic signal exists can be greatly reduced, so the processing load can be reduced without lowering the recognition accuracy of the traffic signal.
更に、認識した信号機に基づいて車両を加減速制御する場合、立体物情報が三次元であることにより信号機までの距離を正確に演算できる。このため、複数の信号機を認識した場合、信号機までの距離に基づいて信号機に遭遇するタイミングを正確に演算できる。従って、信号機までの距離及び信号灯の色に基づいて、加減速制御の制御タイミング及び制御量を適切に演算することができる。 Furthermore, when accelerating and decelerating the vehicle based on the recognized traffic light, the distance to the traffic light can be calculated accurately because the three-dimensional object information is three-dimensional. Therefore, when a plurality of traffic lights are recognized, the timing of encountering the traffic lights can be accurately calculated based on the distance to the traffic lights. Therefore, the control timing and control amount of the acceleration/deceleration control can be calculated appropriately based on the distance to the traffic light and the color of the traffic light.
本発明の一側面は、
様々な種類の信号機の筐体の形状を含む筐体情報を予め記憶している記憶装置を更に備える。
前記制御ユニット(10)は、
前記立体物情報に含まれる立体物のうち前記灯火領域に対応する領域に含まれる立体物の、信号機の筐体に対する近似度を前記筐体情報に基づいて演算し、当該近似度が所定の近似度閾値以上の場合に前記灯火領域に信号機が存在すると判定する、
ように構成されている。
One aspect of the present invention is
It further comprises a storage device that preliminarily stores housing information including shapes of housings of various types of traffic lights.
Said control unit (10) comprises:
A degree of approximation of a three-dimensional object included in a region corresponding to the lighting region among three-dimensional objects included in the three-dimensional object information to a housing of the traffic light is calculated based on the housing information, and the degree of approximation is a predetermined approximation. determining that there is a traffic light in the lighting area when the degree is equal to or greater than the degree threshold;
is configured as
立体物情報は三次元であるため、立体物の形状を高い精度で取得できる。このため、立体物の「筐体情報に含まれる信号機の筐体」に対する近似度が近似度閾値以上であるということは、当該立体物が信号機の筐体である可能性が極めて高いことを意味する。従って、この構成によれば、灯火領域に信号機が存在するか否かを高い精度で判定できる。 Since the three-dimensional object information is three-dimensional, the shape of the three-dimensional object can be obtained with high accuracy. Therefore, when the degree of approximation of the three-dimensional object to the “traffic light housing included in the housing information” is equal to or greater than the similarity threshold, it means that the three-dimensional object is highly likely to be the traffic light housing. do. Therefore, according to this configuration, it can be determined with high accuracy whether or not there is a traffic signal in the lighting area.
本発明の一側面では、
前記光照射装置は、三次元Lidarである。
In one aspect of the invention,
The light irradiation device is a three-dimensional lidar.
上記説明においては、発明の理解を助けるために、実施形態に対応する発明の構成要件に対して、実施形態で用いた符号を括弧書きで添えているが、発明の各構成要件は、前記符号によって規定される実施形態に限定されるものではない。 In the above description, in order to facilitate understanding of the invention, the symbols used in the embodiments are attached to the constituent elements of the invention corresponding to the embodiments in parentheses. are not limited to the embodiments defined by
(構成)
以下、本発明の実施形態に係る信号機認識装置(以下、「本実施装置」とも称する。)について図面を参照しながら説明する。本実施装置は、車両に搭載される。本実施装置は、自車線用の信号機を認識し、その灯火の色及び当該信号機までの距離に基づいて車両を加減速させ、これにより自動運転制御又は運転支援制御を実行するように構成されている。以下、本実施装置が搭載された車両を「自車両」と称する。ここで、「自車線」とは、自車両が現在走行している車線を意味する。また、「自車線用の信号機」とは、信号機が、進行方向が同一である複数の車線を含む車道単位で設置される国においては、自車線及び自車線と進行方向が同一である車線を含む車道の交通を円滑にするために設置される車両用信号機を意味する。一方、信号機が車線単位で設置される国においては、「自車線用の信号機」とは、自車線の交通を円滑にするために設置される車両用信号機を意味する。
(Constitution)
Hereinafter, a traffic light recognition device (hereinafter also referred to as "this embodiment device") according to an embodiment of the present invention will be described with reference to the drawings. This embodiment device is mounted on a vehicle. This implementation device is configured to recognize a traffic light for one's own lane, accelerate and decelerate a vehicle based on the color of the light and the distance to the traffic light, and thereby execute automatic driving control or driving support control. there is Hereinafter, the vehicle equipped with the device of this embodiment will be referred to as "own vehicle". Here, the "own lane" means the lane in which the own vehicle is currently traveling. In addition, in countries where traffic signals are installed for each roadway that includes multiple lanes with the same direction of travel, the term “traffic signal for own lane” means the own lane and the lane with the same direction of travel as the own lane. means a vehicular signal installed to facilitate traffic on a roadway, including On the other hand, in countries where traffic signals are installed for each lane, the term "traffic signal for own lane" means a traffic signal installed for vehicles to facilitate traffic in the own lane.
図1に示すように、本実施装置は、信号機認識ECU10、並びに、これに接続されたカメラセンサ11、Lidarセンサ12、表示装置20、駆動装置30及び制動装置40を備える。信号機認識ECU10は、マイクロコンピュータを主要部として備える。ECUは、Electronic Control Unitの略である。マイクロコンピュータは、CPU、ROM、RAM及びインターフェース(I/F)等を含み、CPUはROMに格納されたインストラクション(プログラム、ルーチン)を実行することにより各種機能を実現するようになっている。
As shown in FIG. 1, the apparatus includes a traffic
信号機認識ECU10は、カメラセンサ11及びLidarセンサ12が出力する信号を所定時間が経過する毎に取得し、取得した信号に基づいて表示装置20、駆動装置30及び制動装置40を制御するように構成されている。以下では、信号機認識ECU10を単に「ECU10」とも称する。
The traffic
カメラセンサ11(撮像装置)は、自車両のルームミラー(インナーミラー/リアビューミラー)の裏面に設置されている。カメラセンサ11は可視光カメラであり、自車両の前方領域を撮像し(別言すれば、前方領域に存在する立体物を撮像し)、撮像して得られた画像データをECU10に出力する。なお、立体物は、信号機、車両、街灯、中央分離帯及び建物等を含む。
The camera sensor 11 (imaging device) is installed on the rear surface of the rearview mirror (inner mirror/rearview mirror) of the vehicle. The
Lidarセンサ12(光照射装置)は、三次元Lidarセンサであり、自車両のルーフに設けられたドーム内に収容されている。Lidarは、Light Detection and Rangingの略である。Lidarセンサ12は、自車両の全周囲360°の領域に、パルス状に発光する近赤外線波長帯域のレーザー光を照射し、立体物が存在する場合、その立体物からの反射光を受光する。Lidarセンサ12は、レーザー光の照射タイミングと受光タイミングと等に基づいて、立体物の有無と、立体物の相対位置及び形状(別言すれば、立体物の空間座標群)と、を演算する。なお、立体物の相対位置は、自車両から立体物までの距離、及び、自車両に対する立体物の方位等を含む。立体物の形状は、立体物の高さ、及び、立体物の向き(姿勢)等を含む。Lidarセンサ12は、演算結果を三次元点群情報としてECU10に出力する。三次元点群情報は、「立体物情報」の一例に相当する。
The lidar sensor 12 (light irradiation device) is a three-dimensional lidar sensor and housed in a dome provided on the roof of the vehicle. Lidar is an abbreviation for Light Detection and Ranging. The
本実施形態では、Lidarセンサ12としてソリッドステート式のセンサが用いられるが、Lidarセンサの種類はこれに限られず、例えばラスタースキャン式又はウォブリングスキャン式のセンサが用いられてもよい。また、三次元点群情報を取得するセンサはLidarセンサ12に限られず、立体物の相対位置及び形状を三次元で精度良く演算可能なセンサであればよい。
加えて、Lidarセンサ12は、自車両の全周囲360°にレーザー光を照射する構成に限られず、少なくとも前方領域を含む領域にレーザー光を照射可能であればよい。
In this embodiment, a solid-state sensor is used as the
In addition, the
表示装置20は、自車両のメータパネル(図示省略)に信号灯(信号機の灯火)の色に関する情報を表示するための装置である。ECU10は、表示装置20を制御することにより、メータパネルに上記情報を表示させる。
The
駆動装置30は、自車両を走行させるための駆動力をその駆動輪に付与するための装置である。ECU10は、駆動装置30の作動を制御することにより、駆動輪に付与される駆動力を制御する。
The driving
制動装置40は、自車両を制動するための制動力をその車輪に付与するための装置である。ECU10は、制動装置40の作動を制御することにより、車輪に付与される制動力を制御する。
The
(作動の詳細)
続いて、ECU10の作動の詳細について図2を参照して説明する。図2は、ECU10のCPUが自車線用の信号機を認識して装置20乃至40を制御する処理手順を示す図である。CPUは、イグニッションスイッチがオン状態にある期間中、所定時間が経過する毎に図2に示した処理をこの順に繰り返し実行するように構成されている。
(details of operation)
Next, details of the operation of the
所定のタイミングになると、CPUは、ステップ200から処理を開始してステップ205に進み、カメラセンサ11から画像データを取得するとともに、Lidarセンサ12から三次元点群情報を取得する。
At a predetermined timing, the CPU starts processing from
続いて、CPUは、ステップ210に進み、ステップ205にて取得した画像データに基づいて撮像画像を生成し、当該撮像画像から灯火領域を抽出する。灯火領域は、灯火(信号灯、街灯、先行車のテールランプ及び対向車のヘッドランプ等)が存在する可能性がある領域であり、以下のようにして抽出される。即ち、CPUは、画像データに基づいて撮像画像をカラー画像として生成し、当該カラー画像を構成する各画素のRGB値(色情報)を演算し、各画素について、演算されたRGB値が「灯火の平均的なRGB値の範囲」内に含まれるか否かを判定する。ここで、「灯火の平均的なRGB値の範囲」とは、実験又はシミュレーションにより決定された範囲であり、ECU10のROMに予め格納されている。或る画素のRGB値が上記範囲内に含まれる場合、CPUは、当該画素を灯火候補であると判定する。灯火候補と判定された画素同士の距離が所定の距離閾値以下である場合、CPUは、これらの画素群を含む所定の範囲を灯火領域として抽出する。後述するように、灯火領域は、信号機の筐体を検出する際に利用されるため、上記「所定の範囲」は、これらの画素群の周囲と、その下方と、を含む矩形状の範囲であることが望ましい。
Subsequently, the CPU proceeds to step 210, generates a captured image based on the image data acquired in
なお、灯火領域の抽出方法は上記に限られない。例えば、CPUは、画像データに基づいて撮像画像をグレースケール画像として生成し、当該グレースケール画像を構成する各画素の輝度値(明るさ情報)を演算してもよい。そして、所定の輝度閾値より高い輝度値を有する画素群を含む所定の範囲を灯火領域として抽出してもよい。但し、後述するように、本実施形態では信号灯の色がメータパネルに表示されるようになっているため、灯火領域がグレースケール画像に基づいて抽出される場合であっても、信号灯の色情報は別の方法で演算されることが望ましい。 Note that the method for extracting the lighting area is not limited to the above. For example, the CPU may generate a captured image as a grayscale image based on the image data, and calculate the luminance value (brightness information) of each pixel forming the grayscale image. Then, a predetermined range including a group of pixels having luminance values higher than a predetermined luminance threshold may be extracted as the lighting region. However, as will be described later, in this embodiment, the color of the signal light is displayed on the meter panel. is preferably computed in another way.
次に、CPUは、ステップ215に進み、ステップ205にて取得した三次元点群情報に基づいて、ステップ210にて抽出した灯火領域に信号機が存在するか否かを判定する。具体的には、CPUは、まず、三次元点群情報に含まれる空間座標群から、灯火領域を構成する各画素の位置座標に対応する空間座標群を選択する(以下、選択された空間座標群を「灯火領域に対応する空間座標群」とも称する。)。ここで、ECU10のROM(記憶装置)には、様々な種類の信号機(詳細には、車両用信号機)の筐体の形状(別言すれば、筐体の空間座標群)を含む筐体情報が予め記憶されている。CPUは、「灯火領域に対応する空間座標群に含まれる立体物の形状」と「筐体情報に含まれる信号機の筐体の形状」との近似度を演算する。そして、近似度が所定の近似度閾値以上の場合、灯火領域に信号機が存在する(別言すれば、灯火領域に含まれる灯火は信号灯である)と判定し、近似度が近似度閾値未満の場合、灯火領域に信号機が存在しない(別言すれば、灯火領域に含まれる灯火は信号灯以外の灯火である)と判定する。CPUは、ステップ210にて抽出した全ての灯火領域について、ステップ215の処理を実行する。信号機が存在すると判定された灯火領域がある場合、CPUは、ステップ220に進む。一方、信号機が存在すると判定された灯火領域がない場合、CPUは、ステップ255に進んで図2に示す処理を一旦終了する。
Next, the CPU proceeds to step 215 and determines whether or not a traffic light exists in the lighting area extracted in
ステップ220では、CPUは、ステップ215にて信号機が存在すると判定された灯火領域に対応する空間座標群から、信号機の筐体(厳密には、筐体を表す空間座標群)を抽出する。
次いで、CPUは、ステップ225に進み、三次元点群情報と、ステップ220にて抽出された信号機の筐体の相対位置(距離及び方位)及び形状(高さ及び向き)と、に基づいて、当該信号機が自車線用の信号機であるか否かを判定する。
At
Next, the CPU proceeds to step 225, based on the three-dimensional point cloud information and the relative position (distance and direction) and shape (height and direction) of the traffic light housing extracted in
例えば、三次元点群情報により自車両と信号機との間に他車両とは異なる立体物(例えば、中央分離帯)が検出された場合、CPUは、当該信号機は自車線用の信号機ではない(例えば、自車線と交差する交差車線用の信号機である)と判定する。また、信号機の相対位置が自車線及び自車線と進行方向が同一である車線を含む車道から明らかに逸脱している場合、CPUは、当該信号機は自車線用の信号機ではない(例えば、交差車線用の信号機である)と判定する。更に、信号機の高さが所定の高さ閾値以上の場合、CPUは、当該信号機は自車線用の信号機ではない(例えば、自車線と立体的に交差する立体交差車線用の信号機である)と判定する。或いは、信号機が車線単位で設置される国においては、信号機の横位置(自車両の車幅方向における位置)が自車両から大幅に離間している場合、CPUは、当該信号機は自車線用の信号機ではない(例えば、隣接車線用の信号機である)と判定する。
これに対し、例えば、信号機が自車両の前方に位置しており、自車両と信号機との間に他車両以外の立体物が検出されておらず、信号機の高さが高さ閾値未満である場合、CPUは、当該信号機は自車線用の信号機であると判定する。
For example, when a three-dimensional object different from other vehicles (for example, a median strip) is detected between the vehicle and the traffic light from the 3D point cloud information, the CPU determines that the traffic signal is not for the vehicle's own lane ( For example, it is a traffic signal for a cross lane that crosses the own lane). In addition, when the relative position of the traffic signal clearly deviates from the vehicle lane including the own lane and the lane traveling in the same direction as the own lane, the CPU determines that the traffic signal is not for the own lane traffic signal). Furthermore, when the height of the traffic signal is equal to or higher than a predetermined height threshold, the CPU determines that the traffic signal is not for the own lane (for example, the traffic signal is for a grade crossing lane that three-dimensionally intersects with the own lane). judge. Alternatively, in countries where traffic signals are installed for each lane, when the lateral position of the traffic signal (position in the vehicle width direction of the own vehicle) is significantly separated from the own vehicle, the CPU determines that the traffic signal is for the own lane. It is determined that it is not a traffic signal (for example, it is a traffic signal for an adjacent lane).
On the other hand, for example, the traffic signal is positioned in front of the vehicle, no three-dimensional object other than another vehicle is detected between the vehicle and the traffic signal, and the height of the traffic signal is less than the height threshold. In this case, the CPU determines that the traffic signal is for the own lane.
CPUは、ステップ220にて抽出した全ての信号機の筐体について、ステップ225の処理を実行する。自車線用の信号機が存在する場合、CPUは、ステップ230に進む。一方、自車線用の信号機が存在しない場合、CPUは、ステップ255に進んで図2に示す処理を一旦終了する。なお、Lidarセンサ12は比較的に長距離の測距及び空間イメージングが可能であるため、自車線用の信号機が複数存在する(検出される)場合がある。
The CPU executes the process of
ステップ230では、CPUは、ステップ225にて自車線用の信号機であると判定された信号機と同一の信号機情報がECU10のRAMに格納されていないかを追跡する。ここで、信号機情報とは、自車線用の信号機の相対位置及び信号灯の色を含む情報である。
同一の信号機についての信号機情報がRAMに格納されている場合、CPUは、ステップ235にて当該情報を更新する。具体的には、信号機の相対位置を更新するとともに、信号灯の色を追加する。信号灯の色を追加することにより、信号灯の色の変遷が記憶される(後述)。
一方、同一の信号機についての信号機情報がRAMに格納されていない場合、CPUは、新たな信号機を検出したと判定し、ステップ235にて当該信号機の信号機情報をRAMに格納(記憶)する。
At
If traffic light information for the same traffic light is stored in the RAM, the CPU updates the information at step 235 . Specifically, the relative positions of the traffic lights are updated, and the colors of the traffic lights are added. By adding the color of the traffic light, the transition of the color of the traffic light is memorized (described later).
On the other hand, if the traffic signal information for the same traffic signal is not stored in the RAM, the CPU determines that a new traffic signal has been detected, and stores (stores) the traffic signal information of the traffic signal in the RAM at step 235.
その後、CPUは、ステップ240に進み、ステップ235にて更新された信号機情報に含まれる信号灯の色の変遷に基づいて、信号機の種別を判定する。信号機の種別は、典型的には、通常の信号機、点滅信号機、及び、予告信号機である。例えば、信号灯の色が「赤」、「黄」、「青」の順に変遷する場合、CPUは、信号機は通常の信号機であると判定する。一方、信号灯の色が「黄」の点滅である場合、CPUは、信号機は黄色の点滅信号機であると判定する。 After that, the CPU proceeds to step 240 and determines the type of the traffic light based on the transition of the color of the traffic light included in the traffic light information updated in step 235 . The types of traffic signals are typically a normal traffic signal, a flashing traffic signal, and a warning traffic signal. For example, when the color of the traffic light changes in order of "red", "yellow", and "blue", the CPU determines that the traffic signal is a normal traffic signal. On the other hand, when the color of the traffic light is flashing yellow, the CPU determines that the traffic signal is a yellow flashing traffic light.
続いて、CPUは、ステップ245に進み、表示装置20を制御してメータパネルに信号灯の色に関する情報を表示する。ステップ225にて自車線用の信号機が複数検出されている場合、CPUは、信号灯の色に関する情報を、信号機に遭遇する順番で表示してもよい。また、信号機までの距離と関連付けて表示してもよい。
Subsequently, the CPU proceeds to step 245 and controls the
次いで、CPUは、ステップ250に進み、RAMに格納されている自車線用の信号機(厳密には、自車両から最も近い位置に存在する信号機)の信号機情報(即ち、信号機までの距離及び信号灯の色)に基づいて、駆動装置30及び/又は制動装置40を制御して自車両を加減速制御する。なお、ステップ245及びステップ250の処理の順序は問わない。その後、CPUは、ステップ255に進んで図2に示す処理を一旦終了する。
Next, the CPU proceeds to step 250, where the traffic signal information (i.e., the distance to the traffic signal and the number of traffic lights) of the traffic signal for the own lane (strictly speaking, the closest traffic signal from the own vehicle) stored in the RAM. color), the driving
以上説明したように、本実施装置は、Lidarセンサ12により取得された三次元点群情報に基づいて信号機の存在有無を判定する。三次元点群情報は周囲の明るさに関わらず取得可能である。加えて、三次元点群情報は、立体物の相対位置及び形状を含む三次元の情報である。このため、二次元の撮像画像に基づいて信号機を認識する構成と比較して、弱光環境においても信号機を精度良く認識でき、信号機を誤検出したり誤選択したりする可能性を大幅に低減できる。この構成によれば、弱光環境においても自車線用の信号機を適切に認識することが可能となる。
As described above, the apparatus of this embodiment determines whether or not there is a traffic light based on the three-dimensional point group information acquired by the
特に、本実施装置は、三次元点群情報に含まれる全ての立体物について当該立体物が信号機であるか否かを判定するのではなく、まず、画像データに基づいて灯火領域を抽出し、灯火領域に信号機が存在するか否かを判定するように構成されている。これは、信号灯は灯火の一種であるため、灯火領域以外の領域に存在する可能性は極めて低いという知見に基づいている。この構成によれば、信号機が存在するか否かの判定対象となる立体物の数を大幅に低減できるため、信号機の認識精度を低下させることなく処理負荷を軽減することができる。 In particular, the apparatus of this embodiment does not determine whether or not all three-dimensional objects included in the three-dimensional point group information are traffic lights, but first extracts the lighting region based on the image data, It is configured to determine whether or not there is a traffic light in the lighting area. This is based on the knowledge that signal lights are a kind of lights, and therefore the possibility of them existing in areas other than the lighting area is extremely low. According to this configuration, the number of three-dimensional objects to be determined as to whether or not a traffic signal exists can be greatly reduced, so the processing load can be reduced without lowering the recognition accuracy of the traffic signal.
更に、本実施装置は、認識した信号機に基づいて車両を加減速制御するように構成されている。三次元点群情報によれば、信号機までの距離を正確に演算できる。このため、複数の信号機を認識した場合、信号機までの距離に基づいて信号機に遭遇するタイミングを正確に演算できる。従って、信号機までの距離及び信号灯の色に基づいて、加減速制御の制御タイミング及び制御量を適切に演算することができる。 Further, the embodiment device is configured to control the acceleration and deceleration of the vehicle based on the recognized traffic signal. According to the three-dimensional point group information, it is possible to accurately calculate the distance to the traffic light. Therefore, when a plurality of traffic lights are recognized, the timing of encountering the traffic lights can be accurately calculated based on the distance to the traffic lights. Therefore, the control timing and control amount of the acceleration/deceleration control can be calculated appropriately based on the distance to the traffic light and the color of the traffic light.
以上、本実施形態に係る信号機認識装置について説明したが、本発明は上記実施形態に限定されるものではなく、本発明の目的を逸脱しない限り、種々の変更が可能である。 Although the traffic light recognition device according to the present embodiment has been described above, the present invention is not limited to the above embodiment, and various modifications are possible without departing from the object of the present invention.
例えば、信号機認識装置は、表示装置20、駆動装置30及び制動装置40を含まないように構成されてもよい。この場合、ECU10は、表示装置20、駆動装置30及び制動装置40をそれぞれ制御可能なECUに接続されており、ECU10での演算結果を各ECUに送信可能に構成され得る。
For example, the traffic light recognition device may be configured not to include the
10:信号機認識ECU、11:カメラセンサ、12:Lidarセンサ、20:表示装置、30:駆動装置、40:制動装置 10: Traffic light recognition ECU, 11: Camera sensor, 12: Lidar sensor, 20: Display device, 30: Driving device, 40: Braking device
Claims (3)
前記車両の前方領域を撮像することにより画像データを取得可能な撮像装置と、
前記車両の前記前方領域を含む所定の範囲に光を照射し、当該範囲内に存在する立体物からの反射波を受光することにより当該立体物の相対位置及び形状を含む立体物情報を取得可能な光照射装置と、
前記画像データに基づいて、灯火が存在する可能性がある領域を灯火領域として抽出し、
前記立体物情報に基づいて、前記灯火領域に信号機が存在するか否かを判定し、
前記灯火領域に信号機が存在すると判定した場合、前記立体物情報に基づいて、前記信号機が自車線用の信号機であるか否かを判定する、
ように構成された制御ユニットと、
を備える、
信号機認識装置。 mounted on the vehicle
an imaging device capable of acquiring image data by imaging an area in front of the vehicle;
Three-dimensional object information including the relative position and shape of the three-dimensional object can be obtained by irradiating a predetermined range including the front area of the vehicle with light and receiving reflected waves from the three-dimensional object existing within the range. a light irradiation device,
Based on the image data, an area in which lights may exist is extracted as a light area,
determining whether or not a traffic light exists in the lighting area based on the three-dimensional object information;
If it is determined that a traffic signal exists in the lighting area, based on the three-dimensional object information, it is determined whether or not the traffic signal is for the own lane.
a control unit configured to
comprising
Traffic light recognition device.
様々な種類の信号機の筐体の形状を含む筐体情報を予め記憶している記憶装置を更に備え、
前記制御ユニットは、
前記立体物情報に含まれる立体物のうち前記灯火領域に対応する領域に含まれる立体物の、信号機の筐体に対する近似度を前記筐体情報に基づいて演算し、当該近似度が所定の近似度閾値以上の場合に前記灯火領域に信号機が存在すると判定する、
ように構成された、
信号機認識装置。 The traffic light recognition device according to claim 1,
Further comprising a storage device pre-stored housing information including housing shapes of various types of traffic lights,
The control unit is
A degree of approximation of a three-dimensional object included in a region corresponding to the lighting region among three-dimensional objects included in the three-dimensional object information to a housing of the traffic light is calculated based on the housing information, and the degree of approximation is a predetermined approximation. determining that there is a traffic light in the lighting area when the degree is equal to or greater than the degree threshold;
configured as
Traffic light recognition device.
前記光照射装置は、三次元Lidarである、
信号機認識装置。 In the traffic light recognition device according to claim 1 or claim 2,
The light irradiation device is a three-dimensional Lidar,
Traffic light recognition device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021066708A JP2022161700A (en) | 2021-04-09 | 2021-04-09 | Traffic light recognition device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021066708A JP2022161700A (en) | 2021-04-09 | 2021-04-09 | Traffic light recognition device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022161700A true JP2022161700A (en) | 2022-10-21 |
Family
ID=83658851
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021066708A Pending JP2022161700A (en) | 2021-04-09 | 2021-04-09 | Traffic light recognition device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022161700A (en) |
-
2021
- 2021-04-09 JP JP2021066708A patent/JP2022161700A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5809785B2 (en) | Vehicle external recognition device and light distribution control system using the same | |
US8908924B2 (en) | Exterior environment recognition device and exterior environment recognition method | |
JP5680573B2 (en) | Vehicle driving environment recognition device | |
JP5617999B2 (en) | On-vehicle peripheral object recognition device and driving support device using the same | |
JP6471528B2 (en) | Object recognition apparatus and object recognition method | |
US8305431B2 (en) | Device intended to support the driving of a motor vehicle comprising a system capable of capturing stereoscopic images | |
EP2546779B1 (en) | Environment recognizing device for a vehicle and vehicle control system using the same | |
US20080007429A1 (en) | Visibility condition determining device for vehicle | |
JP5761002B2 (en) | Lighting control device | |
WO2015190299A1 (en) | Vehicular lighting device | |
US9616805B2 (en) | Method and device for controlling a headlamp of a vehicle | |
JP5065172B2 (en) | Vehicle lighting determination device and program | |
CN111937002A (en) | Obstacle detection device, automatic braking device using obstacle detection device, obstacle detection method, and automatic braking method using obstacle detection method | |
JP2008094249A (en) | Vehicle detection system and headlamp controller | |
JP6034923B1 (en) | Outside environment recognition device | |
JP6236039B2 (en) | Outside environment recognition device | |
EP3413267A1 (en) | Object detection device, device control system, imaging device, objection detection method, and program | |
CN108536134B (en) | Automatic control method and device for vehicle running | |
JP5361901B2 (en) | Headlight control device | |
JP4735530B2 (en) | Road marking line recognition device | |
CN108528450B (en) | Automatic control method and device for vehicle running | |
JP2022161700A (en) | Traffic light recognition device | |
JP2009048566A (en) | Vehicle detector | |
JP3120648B2 (en) | Environment recognition device for vehicles | |
JP3532896B2 (en) | Smear detection method and image processing apparatus using the smear detection method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240117 |