JP7369921B2 - 物体識別システム、演算処理装置、自動車、車両用灯具、分類器の学習方法 - Google Patents
物体識別システム、演算処理装置、自動車、車両用灯具、分類器の学習方法 Download PDFInfo
- Publication number
- JP7369921B2 JP7369921B2 JP2020560058A JP2020560058A JP7369921B2 JP 7369921 B2 JP7369921 B2 JP 7369921B2 JP 2020560058 A JP2020560058 A JP 2020560058A JP 2020560058 A JP2020560058 A JP 2020560058A JP 7369921 B2 JP7369921 B2 JP 7369921B2
- Authority
- JP
- Japan
- Prior art keywords
- range
- image
- images
- identification system
- object identification
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 174
- 238000000034 method Methods 0.000 title claims description 39
- 238000001514 detection method Methods 0.000 claims description 69
- 238000007781 pre-processing Methods 0.000 claims description 29
- 238000004364 calculation method Methods 0.000 claims description 17
- 238000012805 post-processing Methods 0.000 claims description 16
- 238000010801 machine learning Methods 0.000 claims description 15
- 238000009966 trimming Methods 0.000 claims description 4
- 230000000873 masking effect Effects 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 83
- 238000012986 modification Methods 0.000 description 26
- 230000004048 modification Effects 0.000 description 26
- 239000000523 sample Substances 0.000 description 15
- 230000003287 optical effect Effects 0.000 description 12
- 238000003384 imaging method Methods 0.000 description 10
- 238000012549 training Methods 0.000 description 6
- 230000000052 comparative effect Effects 0.000 description 5
- 238000013527 convolutional neural network Methods 0.000 description 5
- 238000011176 pooling Methods 0.000 description 5
- 230000035945 sensitivity Effects 0.000 description 5
- 238000013459 approach Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 230000012447 hatching Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/08—Systems determining position data of a target for measuring distance only
- G01S17/10—Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
- G01S17/18—Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves wherein range gates are used
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Q—ARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
- B60Q1/00—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
- B60Q1/0017—Devices integrating an element dedicated to another function
- B60Q1/0023—Devices integrating an element dedicated to another function the element being a sensor, e.g. distance sensor, camera
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/141—Control of illumination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/60—Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/772—Determining representative reference patterns, e.g. averaging or distorting patterns; Generating dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/56—Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/73—Circuitry for compensating brightness variation in the scene by influencing the exposure time
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/74—Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Q—ARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
- B60Q1/00—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
- B60Q1/02—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments
- B60Q1/04—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights
- B60Q1/06—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights adjustable, e.g. remotely-controlled from inside vehicle
- B60Q1/08—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights adjustable, e.g. remotely-controlled from inside vehicle automatically
- B60Q1/085—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights adjustable, e.g. remotely-controlled from inside vehicle automatically due to special conditions, e.g. adverse weather, type of road, badly illuminated road signs or potential dangers
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Q—ARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
- B60Q2300/00—Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
- B60Q2300/40—Indexing codes relating to other road users or special conditions
- B60Q2300/45—Special conditions, e.g. pedestrians, road signs or potential dangers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Electromagnetism (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Computer Networks & Wireless Communication (AREA)
- Remote Sensing (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Mechanical Engineering (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
- Image Processing (AREA)
Description
ゲーティングカメラを用いた物体識別システムでは、複数のレンジに対応する複数の画像を処理する必要があるため、画像処理の負荷が大きくなる。したがって、低速な演算処理装置を用いる場合、フレームレートが低下し、フレームレートを高めようとすれば、高速な、言い換えれば高価な演算処理装置が必要となる。
I-1. 概要
本発明の第1側面に関連するある実施の形態は、物体識別システムに関する。物体識別システムは、カメラと、カメラの出力画像にもとづいて、物体を識別できるように機械学習された分類器を含む演算処理装置と、を備える。分類器は、奥行き方向について複数のレンジに区切り、レンジ毎に、投光と露光の時間差を変化させて撮影するゲーティングカメラにより得られた複数の画像を学習データとして機械学習されている。
以下、本発明の第1側面を、好適な実施の形態をもとに図面を参照しながら説明する。本明細書において、各図面に示される同一または同等の構成要素、部材、処理には、同一の符号を付するものとし、適宜重複した説明は省略する。また、実施の形態は、発明を限定するものではなく例示であって、実施の形態に記述されるすべての特徴やその組み合わせは、必ずしも発明の本質的なものであるとは限らない。
TMINi=2×dMINi/c
である。cは光速である。
TMAXi=2×dMAXi/c
である。
図7は、変形例1に係る物体識別システム10Aのブロック図である。物体識別システム10Aは、図1のカメラ30に代えて、ゲーティングカメラ20を備える。ゲーティングカメラ20の構成は、図1のゲーティングカメラ50と同様である。ゲーティングカメラ20は、奥行き方向について複数M個(M≧2)のレンジRNG1~RNGMに区切り、レンジ毎に、投光と露光の時間差を変化させて撮影するカメラである。ゲーティングカメラ20は、複数のレンジRNG1~RNGMに対応する複数の画像IMG1~IMGMを生成する。
II-1. 概要
本発明の第2側面に関連するある実施の形態は、車載用の物体識別システムに関する。物体識別システムは、奥行き方向について複数のレンジに区切り、レンジ毎に、投光と露光の時間差を変化させて撮影するゲーティングカメラと、ゲーティングカメラによって得られる複数のレンジに対応する複数の画像にもとづいて、物体の種類を識別可能な演算処理装置と、を備える。演算処理装置は、アルゴリズムの異なる複数の分類器を含み、レンジに応じた分類器を選択して、物体認識を行う。
図8は、実施の形態2に係る物体識別システム10のブロック図である。この物体識別システム10は、自動車やバイクなどの車両に搭載され、車両の周囲に存在する物体OBJの種類(カテゴリ)を判定する。
TMINi=2×dMINi/c
である。cは光速である。
TMAXi=2×dMAXi/c
である。
M=2,N≧3である場合、1番目~k番目のレンジRNG1~RNGkの画像IMG1~IMGkの処理に、YOLOアルゴリズムの分類器42_1を割り当て、k+1番目~N番目のレンジRNGk+1~RNGNの画像IMGk+1~IMGNの処理に、SSDアルゴリズムの分類器42_2を割り当てるとよい。
実施の形態2では、複数のアルゴリズムとして、YOLOとSSDを説明したが、その限りでない。物体認識のアルゴリズムとしては、R-CNN(Region-based Convolutional Neural Network)、SPPnet(Spatial Pyramid Pooling)、Faster R-CNN、DSSD(Deconvolution -SSD)、Mask R-CNNなどが知られており、それらのいずれかを採用することができ、あるいは、将来開発されるアルゴリズムを採用してもよいことはいうまでもない。
III-1. 概要
本発明の第3側面に関連するある実施の形態は、物体識別システムに関する。物体識別システムは、奥行き方向について複数のレンジに区切り、レンジ毎に、投光と露光の時間差を変化させて撮影するゲーティングカメラと、ゲーティングカメラによって得られる複数のレンジに対応する複数の画像を、レンジ毎に規定された係数でスケーリングするスケーラと、スケーリング後の複数の画像それぞれにもとづいて、物体の種類を識別可能な分類器と、を備える。
以下、本発明の第3側面を、好適な実施の形態をもとに図面を参照しながら説明する。
TMINi=2×dMINi/c
である。cは光速である。
TMAXi=2×dMAXi/c
である。
実施の形態では、複数のレンジのうち中央付近のレンジを基準にとり、基準レンジの係数を1、それ以外のレンジの係数を1より小さく、あるいは大きくしたがその限りでない。たとえば手前のレンジを基準レンジとし、奥側のレンジの係数を1より大きくしてもよい。反対に、たとえば一番奥側のレンジを基準レンジとし、それより手前側のレンジの係数を1より小さくしてもよい。
基準レンジを1個としたが、基準レンジを複数としてもよい。図20を参照して変形例2を説明する。図20(a)、(b)は、ゲーティングカメラ20により得られる画像を説明する図である。ここではレンジの数Nを4個としている。複数のレンジは、複数のセットに分けられる。各セットは、少なくともひとつのレンジを含み、基準レンジは、セット毎に設けられる。たとえば、RNG1,RNG2を第1のセット、RNG3,RNG4を第2のセットに定める。第1のセットに着目すると、それに含まれるレンジRNG1,RNG2のひとつを基準レンジと定め、残りのレンジの係数を、物体のサイズが基準レンジのそれに近づくように定めればよい。
IV-1. 概要
本発明の第4側面に関連するある実施の形態は、物体識別システムに関する。物体識別システムは、奥行き方向について複数のレンジに区切り、レンジ毎に、投光と露光の時間差を変化させて撮影し、複数のレンジに対応する複数の画像を生成するゲーティングカメラと、画像ごとに物体が存在しうる領域が限定されているとの制約条件のもと、複数の画像それぞれに含まれる物体の種類を識別可能に構成される演算処理装置と、を備える。
以下、本発明の第4側面を、好適な実施の形態をもとに図面を参照しながら説明する。
図21は、実施の形態4-1に係る物体識別システム10のブロック図である。この物体識別システム10は、自動車やバイクなどの車両に搭載され、車両の周囲に存在する物体OBJの種類(カテゴリあるいはクラスともいう)を判定する。
TMINi=2×dMINi/c
である。cは光速である。
TMAXi=2×dMAXi/c
である。
Hi=hc+dMAXi×tanθ
となる。
実施の形態4-1では、分類器42の前処理によって、演算処理の対象をROI内に制限したがその限りでない。実施の形態4-2では、分類器42の後処理、あるいは内部処理によって、物体OBJが存在しうる位置が、複数の画像それぞれに固有の興味領域内に限定されているとの制約条件を課す。
図28(a)、(b)は、ROIの変形例を説明する図である。図28(a)に示すように、各画像には、地面より下が含まれる場合がある。この場合において図28(b)に示すように、各画像の上側の範囲(HROI~Hi)に加えて、地面2より下側の範囲(<0)についても、物体が存在しえない領域として扱ってもよい。これにより、演算処理装置40における演算処理量をさらに減らすことができる。
これまでの説明では、物体が存在し得ない範囲を除外したが、その限りでなく、物体が存在したとしても検出する必要がない領域を定めておいてもよい。図29(a)、(b)は、ROIの変形例を説明する図である。図29(a)は上から見た図であり、図29(b)にはゲーティングカメラ20により撮影される画像が示される。
実施の形態4-1において、前処理部46の処理は上述のそれに限定されない。前処理部46は、各画像IMGiから、ROI外の画像をマスクしてもよい。たとえば前処理部46は、ROI外を、単一色(たとえば黒や白)で塗りつぶしてもよい。分類器42は、マスク後の画像IMGmiを処理対象とする。図30(a)、(b)は、変形例3に係る物体識別システム10の動作を説明する図である。
実施の形態では、レンジの異なる画像を、同じ分類器42で処理したがその限りでなく、レンジ毎に異なる分類器を用いてもよい。
図31は、物体識別システム10を備える自動車のブロック図である。自動車300は、前照灯302L,302Rを備える。物体識別システム10は、前照灯302L,302Rの少なくとも一方に内蔵される。前照灯302は、車体の最も先端に位置しており、周囲の物体を検出する上で、ゲーティングカメラ20の設置箇所として最も有利である。
V-1. 概要
本発明の第5側面に関連するある実施の形態は、物体識別システムに関する。物体識別システムは、奥行き方向について複数のレンジに区切り、レンジ毎に、投光と露光の時間差を変化させて撮影し、複数のレンジに対応する複数の画像を生成するゲーティングカメラと、レンジ毎に、対応する画像に写る物体像のサイズの許容範囲が規定されており、許容範囲にもとづいて各画像に写る物体像の種類を識別可能に構成される演算処理装置と、を備える。
以下、本発明の第5側面を、好適な実施の形態をもとに図面を参照しながら説明する。
図33は、実施の形態5-1に係る物体識別システム10Cのブロック図である。この物体識別システム10Cは、自動車やバイクなどの車両に搭載され、車両の周囲に存在する物体OBJの種類(カテゴリ、あるいはクラスともいう)を判定する。
TMINi=2×dMINi/c
である。cは光速である。
TMAXi=2×dMAXi/c
である。
yMAXi=Y×hMAX/(dMINi×tanθ×2)
このyMAXiは、レンジRNGiにおける許容範囲の最大値を与える。
yMINi=Y×hMIN/(dMAXi×tanθ×2)
このyMINiは、レンジRNGiにおける許容範囲の最小値を与える。
図39は、実施の形態5-2に係る物体識別システム10Dのブロック図である。演算処理装置40Dは、分類器42と、その前段に設けられた前処理部46を含む。
許容範囲は、水平方向についても考えることができる。ゲーティングカメラ20による撮像範囲が画角換算で左右方向に±φであるとする。また、物体の横方向の幅の最小値をwMIN、最大値をwMAXとする。このとき、あるレンジRNGiにおける許容範囲の最小値XMINi,最大値XMAXiは以下のように表すことができる。
xMAX=X×wMAX/(dMINi×tanφ×2)
xMIN=X×wMIN/(dMAXi×tanφ×2)
実施の形態では、レンジの異なる画像を、同じ分類器42で処理したがその限りでなく、レンジ毎に異なる分類器を用いてもよい。
許容範囲は、物体の種類ごとに個別に設定してもよい。たとえば、歩行者と自動車が検出対象である場合、歩行者の幅と、自動車の幅について、異なる許容範囲を設定してもよい。
実施の形態5-1,5-2では、許容範囲について、上限と下限の両方を規定したが、それらの一方のみを規定してもよい。
図41は、物体識別システム10を備える自動車のブロック図である。自動車300は、前照灯302L,302Rを備える。物体識別システム10は、前照灯302L,302Rの少なくとも一方に内蔵される。前照灯302は、車体の最も先端に位置しており、周囲の物体を検出する上で、ゲーティングカメラ20の設置箇所として最も有利である。
Claims (42)
- カメラと、
前記カメラの出力画像にもとづいて、物体を識別できるように機械学習された分類器を含む演算処理装置と、
を備え、
前記分類器は、奥行き方向について複数のレンジに区切り、レンジ毎に、投光と露光の時間差を変化させて撮影するゲーティングカメラにより得られた複数の画像を学習データとして機械学習されていることを特徴とする物体識別システム。 - 前記カメラは、単眼カメラであることを特徴とする請求項1に記載の物体識別システム。
- 前記カメラは、ゲーティングカメラであることを特徴とする請求項1に記載の物体識別システム。
- 請求項1から3のいずれかに記載の物体識別システムを備えることを特徴とする車両用灯具。
- 請求項1から3のいずれかに記載の物体識別システムを備えることを特徴とする自動車。
- カメラの出力画像にもとづいて、物体を識別できるように機械学習された分類器を備え、
前記分類器は、奥行き方向について複数のレンジに区切り、レンジ毎に、投光と露光の時間差を変化させて撮影するゲーティングカメラにより得られた複数の画像を学習データとして機械学習されていることを特徴とする演算処理装置。 - カメラの出力画像にもとづいて物体を識別する分類器の学習方法であって、
ゲーティングカメラを用いて、奥行き方向について複数のレンジに区切り、レンジ毎に、投光と露光の時間差を変化させて撮影するステップと、
前記ゲーティングカメラにより得られた複数の画像を学習データとして、前記分類器を機械学習するステップと、
を備えることを特徴とする学習方法。 - 奥行き方向について複数のレンジに区切り、レンジ毎に、投光と露光の時間差を変化させて撮影するゲーティングカメラと、
前記ゲーティングカメラによって得られる複数のレンジに対応する複数の画像にもとづいて、物体の種類を識別可能な演算処理装置と、
を備え、
前記演算処理装置は、アルゴリズムの異なる複数の分類器を含み、レンジに応じた分類器を選択して、物体認識を行うことを特徴とする物体識別システム。 - 前記演算処理装置は、距離が近いレンジの画像処理に、YOLO(You Only Look Once)アルゴリズムの分類器を用いることを特徴とする請求項8に記載の物体識別システム。
- 前記演算処理装置は、距離が遠いレンジの画像処理に、SSD(Single Shot MultiBox Detector)アルゴリズムの分類器を用いることを特徴とする請求項8に記載の物体識別システム。
- 前記演算処理装置は、相対的に距離が近いレンジの画像処理に、相対的に高速なアルゴリズムの分類器を用いることを特徴とする請求項8から10のいずれかに記載の物体識別システム。
- 前記演算処理装置は、相対的に距離が遠いレンジの画像処理に、相対的に高精度なアルゴリズムの分類器を用いることを特徴とする請求項8から11のいずれかに記載の物体識別システム。
- 請求項8から12のいずれかに記載の物体識別システムを備えることを特徴とする自動車。
- 請求項8から13のいずれかに記載の物体識別システムを備えることを特徴とする車両用灯具。
- 奥行き方向について複数のレンジに区切り、レンジ毎に、投光と露光の時間差を変化させて撮影するゲーティングカメラとともに物体識別システムを構成する演算処理装置であって、
前記ゲーティングカメラによって得られる複数のレンジに対応する複数の画像にもとづいて、物体の種類を識別可能に構成され、
アルゴリズムの異なる複数の分類器を含み、レンジに応じた分類器を選択して、物体認識を行うことを特徴とする演算処理装置。 - 奥行き方向について複数のレンジに区切り、レンジ毎に、投光と露光の時間差を変化させて撮影するゲーティングカメラと、
前記ゲーティングカメラによって得られる複数のレンジに対応する複数の画像を、レンジ毎に規定された係数でスケーリングするスケーラと、
スケーリング後の複数の画像それぞれにもとづいて、物体の種類を識別可能な分類器と、
を備えることを特徴とする物体識別システム。 - 前記係数は、近いレンジほど小さく、遠いレンジほど大きいことを特徴とする請求項16に記載の物体識別システム。
- 前記複数のレンジのひとつを基準レンジとし、前記基準レンジの係数は1であり、前記基準レンジより近いレンジの係数は1より小さく、前記基準レンジより遠いレンジの係数は1より大きいことを特徴とする請求項16または17に記載の物体識別システム。
- 請求項16から18のいずれかに記載の物体識別システムを備えることを特徴とする自動車。
- 請求項16から18のいずれかに記載の物体識別システムを備えることを特徴とする車両用灯具。
- 奥行き方向について複数のレンジに区切り、レンジ毎に、投光と露光の時間差を変化させて撮影するゲーティングカメラとともに使用され、物体識別システムを構成する演算処理装置であって、
前記ゲーティングカメラによって得られる複数のレンジに対応する複数の画像を、レンジ毎に規定された係数でスケーリングするスケーラと、
スケーリング後の複数の画像それぞれにもとづいて、物体の種類を識別可能な分類器と、
を備えることを特徴とする演算処理装置。 - 奥行き方向について複数のレンジに区切り、レンジ毎に、投光と露光の時間差を変化させて撮影し、複数のレンジに対応する複数の画像を生成するゲーティングカメラと、
物体が存在しうる位置が、前記複数の画像それぞれに固有の興味領域内に限定されているとの制約条件のもと、前記複数の画像それぞれに含まれる物体の種類を識別可能に構成される演算処理装置と、
を備えることを特徴とする物体識別システム。 - 前記演算処理装置は、
前記複数の画像それぞれについて、前記興味領域内の画像をトリミングする前処理部と、
前記前処理部の出力を処理する分類器と、
を含むことを特徴とする請求項22に記載の物体識別システム。 - 前記演算処理装置は、
前記複数の画像それぞれについて、前記興味領域外の画像をマスクする前処理部と、
前記前処理部の出力を処理する分類器と、
を含むことを特徴とする請求項22に記載の物体識別システム。 - 前記演算処理装置は、
前記複数の画像それぞれについて、それに含まれる物体の種類と位置を検出し、前記複数の画像に対応する複数の検出データを生成する分類器と、
前記複数の検出データを受け、各検出データに含まれる物体の位置が、元の画像に固有の前記興味領域に含まれるか否かを判定する後処理部と、
を含むことを特徴とする請求項22に記載の物体識別システム。 - 前記興味領域は、近いレンジの画像ほど大きく、遠いレンジの画像ほど小さいことを特徴とする請求項22から25のいずれかに記載の物体識別システム。
- 前記興味領域は、遠いレンジの画像ほど高さが小さいことを特徴とする請求項22から26のいずれかに記載の物体識別システム。
- 前記興味領域は、遠いレンジの画像ほど幅が狭いことを特徴とする請求項22から27のいずれかに記載の物体識別システム。
- 請求項22から28のいずれかに記載の物体識別システムを備えることを特徴とする自動車。
- 請求項22から29のいずれかに記載の物体識別システムを備えることを特徴とする車両用灯具。
- 奥行き方向について複数のレンジに区切り、レンジ毎に、投光と露光の時間差を変化させて撮影し、複数のレンジに対応する複数の画像を生成するゲーティングカメラとともに使用され、物体識別システムを構成する演算処理装置であって、
前記複数の画像ごとに固有の興味領域が定められており、前記複数の画像それぞれについて、前記興味領域内の画像をトリミングし、または前記興味領域外の画像をマスクする前処理部と、
前記前処理部の出力を処理する分類器と、
を備えることを特徴とする演算処理装置。 - 奥行き方向について複数のレンジに区切り、レンジ毎に、投光と露光の時間差を変化させて撮影し、複数のレンジに対応する複数の画像を生成するゲーティングカメラとともに使用され、物体識別システムを構成する演算処理装置であって、
前記複数の画像それぞれについて、それに含まれる物体の種類と位置を検出し、前記複数の画像に対応する複数の検出データを生成する分類器と、
前記複数の画像ごとに固有の興味領域が定められており、前記複数の検出データを受け、各検出データに含まれる物体の位置が、元の画像に固有の前記興味領域に含まれるか否かを判定する後処理部と、
を備えることを特徴とする演算処理装置。
- 奥行き方向について複数のレンジに区切り、レンジ毎に、投光と露光の時間差を変化させて撮影し、前記複数のレンジに対応する複数の画像を生成するゲーティングカメラと、
レンジ毎に、対応する画像に写る物体像のサイズの許容範囲が規定されており、前記許容範囲にもとづいて前記複数の画像それぞれに含まれる前記物体像の種類を識別可能に構成される演算処理装置と、
を備えることを特徴とする物体識別システム。 - 前記演算処理装置は、
前記複数の画像それぞれについて、それに含まれる物体像の種類とサイズを検出し、前記複数の画像に対応する複数の検出データを生成する分類器と、
前記複数の検出データを受け、各検出データに含まれる物体像のサイズが、前記許容範囲に含まれるか否かを判定する後処理部と、
を含むことを特徴とする請求項33に記載の物体識別システム。 - 前記演算処理装置は、
前記複数の画像それぞれについて、それに写る物体像ごとのサブ画像に切り分ける前処理部と、
前記前処理部により切り分けられた前記サブ画像のサイズが前記許容範囲に含まれる場合に、当該サブ画像に含まれる物体像の種類を判定する分類器と、
を含むことを特徴とする請求項33に記載の物体識別システム。 - 前記許容範囲は、垂直方向について規定されることを特徴とする請求項33から35のいずれかに記載の物体識別システム。
- 前記許容範囲は、横方向について規定されることを特徴とする請求項33から36のいずれかに記載の物体識別システム。
- 前記許容範囲は、物体の種類ごとに個別に規定されることを特徴とする請求項33から37のいずれかに記載の物体識別システム。
- 請求項33から38のいずれかに記載の物体識別システムを備えることを特徴とする自動車。
- 請求項33から38のいずれかに記載の物体識別システムを備えることを特徴とする車両用灯具。
- 奥行き方向について複数のレンジに区切り、レンジ毎に、投光と露光の時間差を変化させて撮影し、前記複数のレンジに対応する複数の画像を生成するゲーティングカメラとともに使用され、物体識別システムを構成する演算処理装置であって、
レンジ毎に、対応する画像における物体像のサイズの許容範囲が規定されており、前記複数の画像それぞれについて、それに含まれる物体像の種類とサイズを検出し、前記複数の画像に対応する複数の検出データを生成する分類器と、
前記複数の検出データを受け、各検出データに含まれる物体像のサイズが、前記許容範囲に含まれるか否かを判定する後処理部と、
を備えることを特徴とする演算処理装置。 - 奥行き方向について複数のレンジに区切り、レンジ毎に、投光と露光の時間差を変化させて撮影し、前記複数のレンジに対応する複数の画像を生成するゲーティングカメラとともに使用され、物体識別システムを構成する演算処理装置であって、
前記複数の画像それぞれについて、それに写る物体像ごとのサブ画像に切り分ける前処理部と、
レンジ毎に、対応する画像における物体像のサイズの許容範囲が規定されており、前記前処理部により切り分けられた前記サブ画像のサイズが前記許容範囲に含まれる場合に、当該サブ画像に含まれる物体像の種類を判定する分類器と、
を備えることを特徴とする演算処理装置。
Applications Claiming Priority (11)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018231048 | 2018-12-10 | ||
JP2018231048 | 2018-12-10 | ||
JP2018238313 | 2018-12-20 | ||
JP2018238314 | 2018-12-20 | ||
JP2018238314 | 2018-12-20 | ||
JP2018238313 | 2018-12-20 | ||
JP2019036462 | 2019-02-28 | ||
JP2019036463 | 2019-02-28 | ||
JP2019036462 | 2019-02-28 | ||
JP2019036463 | 2019-02-28 | ||
PCT/JP2019/047876 WO2020121973A1 (ja) | 2018-12-10 | 2019-12-06 | 物体識別システム、演算処理装置、自動車、車両用灯具、分類器の学習方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2020121973A1 JPWO2020121973A1 (ja) | 2021-10-28 |
JP7369921B2 true JP7369921B2 (ja) | 2023-10-27 |
Family
ID=71076884
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020560058A Active JP7369921B2 (ja) | 2018-12-10 | 2019-12-06 | 物体識別システム、演算処理装置、自動車、車両用灯具、分類器の学習方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20210295065A1 (ja) |
JP (1) | JP7369921B2 (ja) |
CN (1) | CN113243016A (ja) |
WO (1) | WO2020121973A1 (ja) |
Families Citing this family (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10678244B2 (en) | 2017-03-23 | 2020-06-09 | Tesla, Inc. | Data synthesis for autonomous control systems |
US11893393B2 (en) | 2017-07-24 | 2024-02-06 | Tesla, Inc. | Computational array microprocessor system with hardware arbiter managing memory requests |
US11157441B2 (en) | 2017-07-24 | 2021-10-26 | Tesla, Inc. | Computational array microprocessor system using non-consecutive data formatting |
US10671349B2 (en) | 2017-07-24 | 2020-06-02 | Tesla, Inc. | Accelerated mathematical engine |
US11409692B2 (en) | 2017-07-24 | 2022-08-09 | Tesla, Inc. | Vector computational unit |
US11561791B2 (en) | 2018-02-01 | 2023-01-24 | Tesla, Inc. | Vector computational unit receiving data elements in parallel from a last row of a computational array |
US11215999B2 (en) | 2018-06-20 | 2022-01-04 | Tesla, Inc. | Data pipeline and deep learning system for autonomous driving |
US11361457B2 (en) | 2018-07-20 | 2022-06-14 | Tesla, Inc. | Annotation cross-labeling for autonomous control systems |
US11636333B2 (en) | 2018-07-26 | 2023-04-25 | Tesla, Inc. | Optimizing neural network structures for embedded systems |
US11562231B2 (en) | 2018-09-03 | 2023-01-24 | Tesla, Inc. | Neural networks for embedded devices |
SG11202103493QA (en) | 2018-10-11 | 2021-05-28 | Tesla Inc | Systems and methods for training machine models with augmented data |
US11196678B2 (en) | 2018-10-25 | 2021-12-07 | Tesla, Inc. | QOS manager for system on a chip communications |
US11816585B2 (en) | 2018-12-03 | 2023-11-14 | Tesla, Inc. | Machine learning models operating at different frequencies for autonomous vehicles |
US11537811B2 (en) | 2018-12-04 | 2022-12-27 | Tesla, Inc. | Enhanced object detection for autonomous vehicles based on field view |
US11610117B2 (en) | 2018-12-27 | 2023-03-21 | Tesla, Inc. | System and method for adapting a neural network model on a hardware platform |
US11150664B2 (en) | 2019-02-01 | 2021-10-19 | Tesla, Inc. | Predicting three-dimensional features for autonomous driving |
US10997461B2 (en) | 2019-02-01 | 2021-05-04 | Tesla, Inc. | Generating ground truth for machine learning from time series elements |
US11567514B2 (en) | 2019-02-11 | 2023-01-31 | Tesla, Inc. | Autonomous and user controlled vehicle summon to a target |
US10956755B2 (en) | 2019-02-19 | 2021-03-23 | Tesla, Inc. | Estimating object properties using visual image data |
EP4184242A4 (en) * | 2020-07-14 | 2024-04-03 | Koito Manufacturing Co., Ltd. | TRIGGER CAMERA, VEHICLE DETECTION SYSTEM AND VEHICLE LIGHT |
JPWO2022039230A1 (ja) * | 2020-08-21 | 2022-02-24 | ||
IL300789A (en) * | 2020-08-21 | 2023-04-01 | Koito Mfg Co Ltd | Vehicle sensing system and distance measuring camera |
US20220107422A1 (en) * | 2020-10-06 | 2022-04-07 | Yandex Self Driving Group Llc | LiDAR DETECTION METHODS AND SYSTEMS |
WO2022172719A1 (ja) * | 2021-02-15 | 2022-08-18 | パナソニックIpマネジメント株式会社 | 物体情報生成システム、物体情報生成方法、および、物体情報生成プログラム |
US11734908B2 (en) * | 2021-04-13 | 2023-08-22 | Google Llc | Randomly generated blobs to improve object-detection training for framed video content |
JP2023074948A (ja) * | 2021-11-18 | 2023-05-30 | オムロン株式会社 | 作業認識装置、作業認識方法、及び作業認識プログラム |
WO2023190058A1 (ja) * | 2022-03-30 | 2023-10-05 | パナソニックIpマネジメント株式会社 | 画像処理方法および画像処理装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009257983A (ja) | 2008-04-18 | 2009-11-05 | Calsonic Kansei Corp | 車両用距離画像データ生成装置および車両用距離画像データの生成方法 |
WO2017110413A1 (ja) | 2015-12-21 | 2017-06-29 | 株式会社小糸製作所 | 車両用画像取得装置、制御装置、車両用画像取得装置または制御装置を備えた車両および車両用画像取得方法 |
WO2017149370A1 (en) | 2016-03-01 | 2017-09-08 | Brightway Vision Ltd. | Gated imaging apparatus, system and method |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7630806B2 (en) * | 1994-05-23 | 2009-12-08 | Automotive Technologies International, Inc. | System and method for detecting and protecting pedestrians |
JP2011044064A (ja) * | 2009-08-24 | 2011-03-03 | Nikon Corp | 画像処理装置、および画像処理プログラム |
WO2014009945A1 (en) * | 2012-07-09 | 2014-01-16 | Brightway Vision Ltd. | Stereo gated imaging system and method |
CN104103062A (zh) * | 2013-04-08 | 2014-10-15 | 富士通株式会社 | 图像处理设备和图像处理方法 |
CN103218621B (zh) * | 2013-04-21 | 2015-12-02 | 北京航空航天大学 | 一种室外视频监控中多尺度车辆的识别方法 |
US9866816B2 (en) * | 2016-03-03 | 2018-01-09 | 4D Intellectual Properties, Llc | Methods and apparatus for an active pulsed 4D camera for image acquisition and analysis |
US10306148B2 (en) * | 2016-08-30 | 2019-05-28 | Microsoft Technology Licensing, Llc | Motion triggered gated imaging |
US10248874B2 (en) * | 2016-11-22 | 2019-04-02 | Ford Global Technologies, Llc | Brake light detection |
US10614326B2 (en) * | 2017-03-06 | 2020-04-07 | Honda Motor Co., Ltd. | System and method for vehicle control based on object and color detection |
-
2019
- 2019-12-06 JP JP2020560058A patent/JP7369921B2/ja active Active
- 2019-12-06 WO PCT/JP2019/047876 patent/WO2020121973A1/ja unknown
- 2019-12-06 CN CN201980081906.1A patent/CN113243016A/zh active Pending
-
2021
- 2021-06-09 US US17/343,152 patent/US20210295065A1/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009257983A (ja) | 2008-04-18 | 2009-11-05 | Calsonic Kansei Corp | 車両用距離画像データ生成装置および車両用距離画像データの生成方法 |
WO2017110413A1 (ja) | 2015-12-21 | 2017-06-29 | 株式会社小糸製作所 | 車両用画像取得装置、制御装置、車両用画像取得装置または制御装置を備えた車両および車両用画像取得方法 |
WO2017149370A1 (en) | 2016-03-01 | 2017-09-08 | Brightway Vision Ltd. | Gated imaging apparatus, system and method |
Also Published As
Publication number | Publication date |
---|---|
EP3896645A1 (en) | 2021-10-20 |
JPWO2020121973A1 (ja) | 2021-10-28 |
CN113243016A (zh) | 2021-08-10 |
WO2020121973A1 (ja) | 2020-06-18 |
US20210295065A1 (en) | 2021-09-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7369921B2 (ja) | 物体識別システム、演算処理装置、自動車、車両用灯具、分類器の学習方法 | |
US11527077B2 (en) | Advanced driver assist system, method of calibrating the same, and method of detecting object in the same | |
JP6819996B2 (ja) | 交通信号認識方法および交通信号認識装置 | |
US8055016B2 (en) | Apparatus and method for normalizing face image used for detecting drowsy driving | |
EP2924653A1 (en) | Image processing apparatus and image processing method | |
US20050232466A1 (en) | Method of recognizing and/or tracking objects | |
US20050232463A1 (en) | Method and apparatus for detecting a presence prior to collision | |
CN109409186B (zh) | 用于对象检测和通知的驾驶员辅助***和方法 | |
JP2007065924A (ja) | 画像処理装置 | |
WO2016125377A1 (ja) | 画像処理装置、および車両システム | |
JP6782433B2 (ja) | 画像認識装置 | |
WO2020184447A1 (ja) | ゲーティングカメラ、自動車、車両用灯具、物体識別システム、演算処理装置、物体識別方法、画像表示システム、検査方法、撮像装置、画像処理装置 | |
CN111598065A (zh) | 深度图像获取方法及活体识别方法、设备、电路和介质 | |
JP2007164517A (ja) | 図形中心検出方法、楕円検出方法、画像認識装置、制御装置 | |
JP2023184572A (ja) | 電子機器、移動体、撮像装置、および電子機器の制御方法、プログラム、記憶媒体 | |
WO2021201269A1 (ja) | ゲーティングカメラ、車両用センシングシステム、車両用灯具 | |
JP4969359B2 (ja) | 移動物認識装置 | |
JP7036464B2 (ja) | 物体識別装置、物体識別方法、及び制御プログラム | |
WO2021060397A1 (ja) | ゲーティングカメラ、自動車、車両用灯具、画像処理装置、画像処理方法 | |
JP7201706B2 (ja) | 画像処理装置 | |
JP6983334B2 (ja) | 画像認識装置 | |
WO2023013776A1 (ja) | ゲーティングカメラ、車両用センシングシステム、車両用灯具 | |
CN112153252B (zh) | 车辆用灯具 | |
WO2023095679A1 (ja) | 視認状態判定装置及び視認状態判定システム | |
US20230394844A1 (en) | System for avoiding accidents caused by wild animals crossing at dusk and at night |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220921 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20230113 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20230217 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230829 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20230906 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230922 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7369921 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |