JP6910081B2 - 協調走行を遂行する各車両から取得された各走行イメージを統合する方法及びこれを利用した走行イメージ統合装置 - Google Patents

協調走行を遂行する各車両から取得された各走行イメージを統合する方法及びこれを利用した走行イメージ統合装置 Download PDF

Info

Publication number
JP6910081B2
JP6910081B2 JP2020009978A JP2020009978A JP6910081B2 JP 6910081 B2 JP6910081 B2 JP 6910081B2 JP 2020009978 A JP2020009978 A JP 2020009978A JP 2020009978 A JP2020009978 A JP 2020009978A JP 6910081 B2 JP6910081 B2 JP 6910081B2
Authority
JP
Japan
Prior art keywords
main
sub
learning
detection information
object detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020009978A
Other languages
English (en)
Other versions
JP2020126637A (ja
Inventor
− ヒョン キム、ケイ
− ヒョン キム、ケイ
キム、ヨンジュン
− キョン キム、ハク
− キョン キム、ハク
ナム、ウヒョン
ブー、ソッフン
ソン、ミュンチュル
シン、ドンス
ヨー、ドンフン
リュー、ウジュ
− チュン イ、ミョン
− チュン イ、ミョン
イ、ヒョンス
チャン、テウン
ジョン、キュンチョン
チェ、ホンモ
チョウ、ホジン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Stradvision Inc
Original Assignee
Stradvision Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Stradvision Inc filed Critical Stradvision Inc
Publication of JP2020126637A publication Critical patent/JP2020126637A/ja
Application granted granted Critical
Publication of JP6910081B2 publication Critical patent/JP6910081B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/2163Partitioning the feature space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/251Fusion techniques of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/12Bounding box

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)

Description

本発明は、協調走行(Cooperative Driving)を遂行する各車両から取得された各走行イメージ(Driving Image)を統合する方法及びこれを利用した走行イメージ統合装置に関し、より詳細には、各車両から取得された各走行イメージから検出された物体検出情報を融合(Fusion)して、各走行イメージ内の物体をロバスト性(Robustness)をもって認識できるように、前記各車両から取得された各走行イメージの統合方法及びこれを利用した走行イメージ統合装置に関する。
ディープラーニング(Deep Learning)は、多数のプロセスレイヤ(Processing Layer)を有するディープグラフ(Deep Graph)を利用してデータから高いレベルで抽象化(Abstraction)モデリングするアルゴリズムセットに基づいた機械学習(Machine Learning)及び人工ニューラルネットワーク(Artificial Neural Network)分野のひとつである。一般的なディープラーニングアーキテクチャ(Deep Learning Architecture)は、多くのニューラルレイヤと数百万個のパラメータとを含むことができる。これらのパラメータは、ReLU、ドロップアウト(Dropout)、データ増強(Data Augmentation)及びSGD(Stochastic Gradient descent)のように、多くのレイヤと一緒に作動できる新しい学習手法により、高速GPUが装着されたコンピュータ上で大容量データを利用して学習され得る。
従来のディープラーニングアーキテクチャのうち、CNN(Convolutional Neural Network)は最も広く利用されているディープラーニングアーキテクチャのひとつである。CNNの概念は20年以上知られてきたが、CNNの本当の価値は、最近のディープラーニング理論が発達してから認識されるようになった。現在、CNNは、顔認識、イメージ分類、イメージキャプション生成、物体検出、視覚的質問応答及び自動走行車両のような、複数の人工知能及び機械学習応用プログラムにおいて大きな成功を収めた。
特に、自律走行車両における物体検出技術は、道路上の他の車両、歩行者、車線、信号機等の検出に広く利用されるものであり、場合によっては自律走行のための様々な物体の検出にも利用されている。
また、物体検出技術は、自律走行車両以外にも軍事、監視など、他の分野でも利用されている。
しかし、従来の物体検出技術は、適用された物体検出器の性能に応じて物体に対する認識結果が異なり、認識された結果が最適の状態であるかどうかも確認することが難しいという問題点がある。
また、従来の物体検出技術は、周辺環境に応じて性能が変わるという問題点もある。
本発明は、前述した問題点を全て解決することを目的とする。
本発明は、物体検出器の認識結果を向上させることを他の目的とする。
本発明は、周辺環境に関わらず、正確に物体を検出させることをもう一つの目的とする。
前記のような本発明の目的を達成し、後述する本発明の特徴的な効果を実現するための、本発明の特徴的な構成は下記の通りである。
本発明の一態様によれば、協調走行(Cooperative Driving)を遂行する少なくとも一つの車両から取得された各走行イメージを統合(Integrate)する方法において、(a)前記少なくとも一つの車両のうち少なくとも一つのメイン(main)車両に設置されたメイン走行イメージ統合装置(Driving Image Integrating Device)が、(i)前記メイン車両に設置された少なくとも一つのメインカメラから取得される少なくとも一つのメイン走行イメージをメイン物体検出器(Object Detector)に入力して、前記メイン物体検出器をもって、 (i−1)メインコンボリューションレイヤ(Convolutional Layer)によって前記メイン走行イメージ対してコンボリューション演算を少なくとも一度適用して少なくとも一つのメイン特徴マップ(Feature Map)を生成するようにし、(i−2)メインRPN(Region Proposal Network)によって前記メイン特徴マップ上で少なくとも一つのメイン物体が位置すると予想される、少なくとも一つの領域に対応する少なくとも一つのメインROI(Region Of Interest)を生成するようにし、(i−3)メインプーリングレイヤ(Pooling Layer)によって前記メイン特徴マップ上で前記メインROIに対応する少なくとも一つの領域に対して、プーリング演算を少なくとも一度適用して、少なくとも一つのメインプーリング済み特徴マップ(Pooled Feature Map)を生成するようにし、(i−4)メインFCレイヤ(Fully Connected Layer)によって前記メインプーリング済み特徴マップに対してFC演算を少なくとも一度適用して、前記メイン走行イメージ上に位置する前記メイン物体に対するメイン物体検出情報を生成するようにするプロセスを遂行する段階;(b)前記メイン走行イメージ統合装置が、前記メインプーリング済み特徴マップをメインコンフィデンスネットワーク(Confidence Network)に入力して、前記メインコンフィデンスネットワークをもって、前記メインプーリング済み特徴マップそれぞれに対応する前記メインROIそれぞれの少なくとも一つのメインコンフィデンスそれぞれを生成するようにするプロセスを遂行する段階;及び(c)前記メイン走行イメージ統合装置が、前記協調走行中の少なくとも一つのサブ(sub)車両それぞれからサブ物体検出情報と少なくとも一つのサブコンフィデンスを取得するプロセス、及び前記メインコンフィデンス及び前記サブコンフィデンスを重み付け値として利用して、前記メイン物体検出情報と前記サブ物体検出情報とを統合するプロセスを遂行することにより、前記メイン走行イメージの少なくとも一つの物体検出結果を生成する段階;を含み、前記サブ物体検出情報と前記サブコンフィデンスとは、前記サブ車両それぞれに設置された少なくとも一つのサブ走行イメージ統合装置それぞれにより生成され、前記サブ走行イメージ統合装置それぞれは、(i)サブ走行イメージそれぞれを、対応するサブ物体検出器それぞれに入力して、前記サブ物体検出器をもって、(i−1)対応するサブコンボリューションレイヤそれぞれによって前記サブ走行イメージそれぞれに対して前記コンボリューション演算を少なくとも一度適用してサブ特徴マップそれぞれを生成するようにし、(i−2)対応するサブRPNそれぞれによって前記それぞれのサブ特徴マップ上に少なくとも一つのサブ物体が位置すると予想される少なくとも一つの領域に対応する少なくとも一つのサブROIを生成するようにし、(i−3)対応するサブプーリングレイヤそれぞれによって前記それぞれのサブ特徴マップ上で、前記サブROIそれぞれに対応する少なくとも一つの領域に対して、前記プーリング演算を少なくとも一度適用して少なくとも一つのサブプーリング済み特徴マップそれぞれを生成するようにし、(i−4)対応するサブFCレイヤそれぞれによって前記それぞれのサブプーリング済み特徴マップに対して前記FC演算を少なくとも一度適用して、前記それぞれのサブ走行イメージ上に位置する前記サブ物体に対する前記サブ物体検出情報を生成するようにし、(i−5)前記サブプーリング済み特徴マップそれぞれをサブコンフィデンスネットワークそれぞれに入力して、前記サブコンフィデンスネットワークそれぞれをもって、前記サブプーリング済み特徴マップそれぞれに対応する前記サブROIの前記サブコンフィデンスを生成するようにすることを特徴とする。
一実施例として、前記メイン物体検出器と前記メインコンフィデンスネットワークとは、学習装置により学習された状態であり、少なくとも一つの学習用走行イメージを含むトレーニングデータが取得されると、前記学習装置が、(i)前記トレーニングデータから、(i−1)学習用第1_1走行イメージないし学習用第1_m走行イメージを含む第1トレーニングデータと(i−2)学習用第2_1走行イメージないし学習用第2_n走行イメージを含む第2トレーニングデータとをサンプリングするプロセス、(ii)前記学習用第1_1走行イメージないし前記学習用第1_m走行イメージの一つである学習用第1_j走行イメージを前記メインコンボリューションレイヤに入力して、前記メインコンボリューションレイヤをもって、前記学習用第1_j走行イメージに対して前記コンボリューション演算を少なくとも一度適用して少なくとも一つの第1特徴マップを生成するようにするプロセス、(iii)前記第1特徴マップを前記メインRPNに入力して、前記メインRPNをもって、前記第1特徴マップ上に位置する少なくとも一つの学習用物体に対応する少なくとも一つの第1ROI(Region Of Interest)を生成するようにするプロセス、(iv)前記メインプーリングレイヤをもって、前記第1特徴マップ上で、前記第1ROIに対応する少なくとも一つの領域に対して前記プーリング演算を少なくとも一度適用して少なくとも一つの第1プーリング済み特徴マップを生成するようにするプロセス、(v)前記メインFCレイヤをもって、前記第1プーリング済み特徴マップまたはこれに対応する少なくとも一つの第1特徴ベクトル(Feature Vector)に対して前記FC演算を少なくとも一度適用して、前記学習用第1_j走行イメージ上に位置する前記学習用物体に対応する第1物体検出情報を生成するようにするプロセス、(vi)第1ロスレイヤ(Loss Layer)をもって、前記第1物体検出情報と前記学習用第1_j走行イメージの少なくとも一つの物体GT(Ground Truth)とを参照して少なくとも一つの第1ロスを算出するようにするプロセス、及び(vii)前記第1ロスを利用したバックプロパゲーションによって、前記第1ロスを最小化するように前記メインFCレイヤ及び前記メインコンボリューションレイヤのうちの少なくとも一つのパラメータをアップデートするプロセスを、前記学習用第1_1走行イメージないし前記学習用第1_m走行イメージそれぞれに対して遂行することにより、前記メイン物体検出器を学習し、前記学習装置が、(i)前記学習用第1_1走行イメージないし前記学習用第1_m走行イメージそれぞれに対応する前記第1物体検出情報と前記物体GTとを参照して前記第1ROIそれぞれの少なくとも一つの第1コンフィデンスそれぞれを取得するプロセス、(ii)前記学習用第2_1走行イメージないし前記学習用第2_n走行イメージの一つである学習用第2_k走行イメージを前記メインコンボリューションレイヤに入力して、前記メインコンボリューションレイヤをもって、前記学習用第2_k走行イメージに対して前記コンボリューション演算を少なくとも一度適用して少なくとも一つの第2特徴マップを生成するようにするプロセス、(iii)前記第2特徴マップを前記メインRPNに入力して、前記メインRPNをもって、前記第2特徴マップ上に位置する前記学習用物体に対応する少なくとも一つの第2ROIを生成するようにするプロセス、(iv)前記メインプーリングレイヤをもって、前記第2特徴マップ上で、前記第2ROIに対応する少なくとも一つの領域に対して前記プーリング演算を少なくとも一度適用して少なくとも一つの第2プーリング済み特徴マップを生成するようにするプロセス、(v)前記第2プーリング済み特徴マップを前記メインコンフィデンスネットワークに入力して、前記メインコンフィデンスネットワークをもって、ディープラーニング(Deep Learning)によって前記第2プーリング済み特徴マップに対応する少なくとも一つの第2コンフィデンスを生成するようにするプロセス、(vi)第2ロスレイヤをもって、前記第2コンフィデンスと前記第1コンフィデンスとを参照して少なくとも一つの第2ロスを算出するようにするプロセス、及び(vii)前記第2ロスを利用したバックプロパゲーションによって、前記第2ロスを最小化するように前記メインコンフィデンスネットワークの少なくとも一つのパラメータをアップデートするプロセスを、前記学習用第2_1走行イメージないし前記学習用第2_n走行イメージに対して遂行することにより、前記メインコンフィデンスネットワークを学習した状態であり、前記mは、1以上の整数(integer)であり、前記nは、1以上の整数であることを特徴とする。
一実施例として、前記学習装置は、前記第1物体検出情報とこれに対応する物体GTとを参照して前記第1ROIそれぞれの前記第1コンフィデンスを取得し、前記第1ROIそれぞれに前記学習用物体それぞれがない場合、前記第1コンフィデンスそれぞれは「0」であり、前記第1ROIそれぞれに前記学習用物体それぞれがある場合、前記第1コンフィデンスそれぞれは「1−ボックス_エラー×クラス_エラー(1−Box_Error×Class_Error)」であり、前記それぞれのボックス_エラーは、前記第1物体検出情報に含まれた各バウンディングボックス(Bounding Box)のそれぞれのエラーであり、前記それぞれのクラス_エラーは、前記第1物体検出情報に含まれたクラス情報のそれぞれのエラーであることを特徴とする。
一実施例として、(i)前記それぞれのボックス_エラーは、(i−1)前記それぞれの学習用物体のそれぞれのサイズの(i−2)前記バウンディングボックスそれぞれの中心ポイントのエラーの合計に対する比率であり、(ii)前記それぞれのクラス_エラーは、前記第1物体検出情報に含まれた、前記学習用物体それぞれを分類するのに利用されるそれぞれのクラスに対するそれぞれの予測値のクラスエラーのそれぞれの合計であることを特徴とする。
一実施例として、前記メインコンフィデンスと前記サブコンフィデンスとを重み付け値として利用して、前記メイン物体検出情報と前記サブ物体検出情報とを統合するにおいて、前記メイン走行イメージ統合装置は、(i)前記メインコンフィデンス及び前記サブコンフィデンスのうちの特定物体検出情報それぞれに対応する特定コンフィデンスそれぞれを重み付け値として利用して前記特定物体検出情報それぞれに含まれたクラスそれぞれに対する推定値それぞれの加重和(Weighted Sum)を算出するプロセス、及び加重和されたクラスのうちの最も大きな値を有する特定クラスを前記特定物体に対応する最適クラス情報(Optimal Class Information)として取得するプロセス、と(ii)前記特定物体検出情報それぞれに対応する前記特定コンフィデンスそれぞれを重み付け値として利用して前記特定物体検出情報それぞれに含まれた特定リグレッション情報それぞれの加重和を算出するプロセス、及び加重和されたリグレッション情報を前記特定物体に対応する最適リグレッション情報として取得するプロセス、とを遂行することを特徴とする。
一実施例として、前記メインコンフィデンスと前記サブコンフィデンスとを重み付け値として利用して、前記メイン物体検出情報と前記サブ物体検出情報とを統合するにおいて、前記第1物体検出情報のうちの第1重畳物体検出情報(Overlapping Object Detection Information)と、前記第2物体検出情報のうちの第2重畳物体検出情報とが互いに重なって存在すると判断される場合、前記メイン走行イメージ統合装置は、(i)前記第1重畳物体検出情報に対応する第1バウンディングボックスと、前記第2重畳物体検出情報に対応する第2バウンディングボックスとのIOU(Intersection Over Union)が予め設定された閾値以上であれば、前記第1重畳物体検出情報と前記第2重畳物体検出情報とが前記特定物体に対応するものと判断するプロセス、及び(ii)前記IOUが前記予め設定された閾値未満であれば、前記第1重畳物体検出情報と前記第2重畳物体検出情報とがそれぞれ異なる物体に対応するものと判断するプロセスを遂行することを特徴とする。
本発明の他の態様によれば、協調走行(Cooperative Driving)を遂行する少なくとも一つの車両のうち少なくとも一つのメイン(main)車両に設置された、前記車両から取得された各走行イメージを統合(Integrate)するメイン走行イメージ統合装置(Driving Image Integrating Device)において、インストラクションを格納する少なくとも一つのメモリ;及び(I)前記メイン車両に設置された少なくとも一つのメインカメラから取得される少なくとも一つのメイン走行イメージをメイン物体検出器(Object Detector)に入力して、前記メイン物体検出器をもって、(I−1)メインコンボリューションレイヤ(Convolutional Layer)によって前記メイン走行イメージ対してコンボリューション演算を少なくとも一度適用して少なくとも一つのメイン特徴マップ(Feature Map)を生成するようにし、(I−2)メインRPN(Region Proposal Network)によって前記メイン特徴マップ上で少なくとも一つのメイン物体が位置すると予想される、少なくとも一つの領域に対応する少なくとも一つのメインROI(Region Of Interest)を生成するようにし、(I−3)メインプーリングレイヤ(Pooling Layer)によって前記メイン特徴マップ上で前記メインROIに対応する少なくとも一つの領域に対して、プーリング演算を少なくとも一度適用して、少なくとも一つのメインプーリング済み特徴マップ(Pooled Feature Map)を生成するようにし、(I−4)メインFCレイヤ(Fully Connected Layer)によって前記メインプーリング済み特徴マップに対してFC演算を少なくとも一度適用して、前記メイン走行イメージ上に位置する前記メイン物体に対するメイン物体検出情報を生成するようにするプロセス、(II)前記メインプーリング済み特徴マップをメインコンフィデンスネットワーク(Confidence Network)に入力して、前記メインコンフィデンスネットワークをもって、前記メインプーリング済み特徴マップそれぞれに対応する前記メインROIそれぞれの少なくとも一つのメインコンフィデンスそれぞれを生成するようにするプロセス、及び(III)前記協調走行中の少なくとも一つのサブ(sub)車両それぞれからサブ物体検出情報と少なくとも一つのサブコンフィデンスを取得するプロセス、及び前記メインコンフィデンス及び前記サブコンフィデンスを重み付け値として利用して、前記メイン物体検出情報と前記サブ物体検出情報とを統合するプロセスを遂行することにより、前記メイン走行イメージの少なくとも一つの物体検出結果を生成するプロセスを遂行するようにするか、他の装置をもって遂行するようにするために前記インストラクションを実行するように構成された少なくとも一つのプロセッサを含み、前記サブ物体検出情報と前記サブコンフィデンスとは、前記サブ車両それぞれに設置された少なくとも一つのサブ走行イメージ統合装置それぞれにより生成され、前記サブ走行イメージ統合装置それぞれは、(i)サブ走行イメージそれぞれを、対応するサブ物体検出器それぞれに入力して、前記サブ物体検出器それぞれをもって、(i−1)対応するサブコンボリューションレイヤそれぞれによって前記サブ走行イメージそれぞれに対して前記コンボリューション演算を少なくとも一度適用してサブ特徴マップそれぞれを生成するようにし、(i−2)対応するサブRPNそれぞれによって前記それぞれのサブ特徴マップ上に少なくとも一つのサブ物体が位置すると予想される少なくとも一つの領域に対応する少なくとも一つのサブROIを生成するようにし、(i−3)対応するサブプーリングレイヤそれぞれによって前記それぞれのサブ特徴マップ上で、前記サブROIそれぞれに対応する少なくとも一つの領域に対して、前記プーリング演算を少なくとも一度適用して少なくとも一つのサブプーリング済み特徴マップそれぞれを生成するようにし、(i−4)対応するサブFCレイヤそれぞれによって前記それぞれのサブプーリング済み特徴マップに対して前記FC演算を少なくとも一度適用して、前記それぞれのサブ走行イメージ上に位置する前記サブ物体に対する前記サブ物体検出情報を生成するようにし、(i−5)前記サブプーリング済み特徴マップそれぞれをサブコンフィデンスネットワークそれぞれに入力して、前記サブコンフィデンスネットワークそれぞれをもって、前記サブプーリング済み特徴マップそれぞれに対応する前記サブROIの前記サブコンフィデンスを生成するようにすることを特徴とする。
一実施例として、前記メイン物体検出器と前記メインコンフィデンスネットワークとは、学習装置により学習された状態であり、少なくとも一つの学習用走行イメージを含むトレーニングデータが取得されると、前記学習装置が、(i)前記トレーニングデータから、(i−1)学習用第1_1走行イメージないし学習用第1_m走行イメージを含む第1トレーニングデータと(i−2)学習用第2_1走行イメージないし学習用第2_n走行イメージを含む第2トレーニングデータとをサンプリングするプロセス、(ii)前記学習用第1_1走行イメージないし前記学習用第1_m走行イメージの一つである学習用第1_j走行イメージを前記メインコンボリューションレイヤに入力して、前記メインコンボリューションレイヤをもって、前記学習用第1_j走行イメージに対して前記コンボリューション演算を少なくとも一度適用して少なくとも一つの第1特徴マップを生成するようにするプロセス、(iii)前記第1特徴マップを前記メインRPNに入力して、前記メインRPNをもって、前記第1特徴マップ上に位置する少なくとも一つの学習用物体に対応する少なくとも一つの第1ROI(Region Of Interest)を生成するようにするプロセス、(iv)前記メインプーリングレイヤをもって、前記第1特徴マップ上で、前記第1ROIに対応する少なくとも一つの領域に対して前記プーリング演算を少なくとも一度適用して少なくとも一つの第1プーリング済み特徴マップを生成するようにするプロセス、(v)前記メインFCレイヤをもって、前記第1プーリング済み特徴マップまたはこれに対応する少なくとも一つの第1特徴ベクトル(Feature Vector)に対して前記FC演算を少なくとも一度適用して、前記学習用第1_j走行イメージ上に位置する前記学習用物体に対応する第1物体検出情報を生成するようにするプロセス、(vi)第1ロスレイヤ(Loss Layer)をもって、前記第1物体検出情報と前記学習用第1_j走行イメージの少なくとも一つの物体GT(Ground Truth)とを参照して少なくとも一つの第1ロスを算出するようにするプロセス、及び(vii)前記第1ロスを利用したバックプロパゲーションによって、前記第1ロスを最小化するように前記メインFCレイヤ及び前記メインコンボリューションレイヤのうちの少なくとも一つのパラメータをアップデートするプロセスを、前記学習用第1_1走行イメージないし前記学習用第1_m走行イメージそれぞれに対して遂行することにより、前記メイン物体検出器を学習し、前記学習装置が、(i)前記学習用第1_1走行イメージないし前記学習用第1_m走行イメージそれぞれに対応する前記第1物体検出情報と前記物体GTとを参照して前記第1ROIそれぞれの少なくとも一つの第1コンフィデンスそれぞれを取得するプロセス、(ii)前記学習用第2_1走行イメージないし前記学習用第2_n走行イメージの一つである学習用第2_k走行イメージを前記メインコンボリューションレイヤに入力して、前記メインコンボリューションレイヤをもって、前記学習用第2_k走行イメージに対して前記コンボリューション演算を少なくとも一度適用して少なくとも一つの第2特徴マップを生成するようにするプロセス、(iii)前記第2特徴マップを前記メインRPNに入力して、前記メインRPNをもって、前記第2特徴マップ上に位置する前記学習用物体に対応する少なくとも一つの第2ROIを生成するようにするプロセス、(iv)前記メインプーリングレイヤをもって、前記第2特徴マップ上で、前記第2ROIに対応する少なくとも一つの領域に対して前記プーリング演算を少なくとも一度適用して少なくとも一つの第2プーリング済み特徴マップを生成するようにするプロセス、(v)前記第2プーリング済み特徴マップを前記メインコンフィデンスネットワークに入力して、前記メインコンフィデンスネットワークをもって、ディープラーニング(Deep Learning)によって前記第2プーリング済み特徴マップに対応する少なくとも一つの第2コンフィデンスを生成するようにするプロセス、(vi)第2ロスレイヤをもって、前記第2コンフィデンスと前記第1コンフィデンスとを参照して少なくとも一つの第2ロスを算出するようにするプロセス、及び(vii)前記第2ロスを利用したバックプロパゲーションによって、前記第2ロスを最小化するように前記メインコンフィデンスネットワークの少なくとも一つのパラメータをアップデートするプロセスを、前記学習用第2_1走行イメージないし前記学習用第2_n走行イメージに対して遂行することにより、前記メインコンフィデンスネットワークを学習した状態であり、前記mは、1以上の整数(integer)であり、前記nは、1以上の整数であることを特徴とする。
一実施例として、前記学習装置は、前記第1物体検出情報とこれに対応する物体GTとを参照して前記第1ROIそれぞれの前記第1コンフィデンスを取得し、前記第1ROIそれぞれに前記学習用物体それぞれがない場合、前記第1コンフィデンスそれぞれは「0」であり、前記第1ROIそれぞれに前記学習用物体それぞれがある場合、前記第1コンフィデンスそれぞれは「1−ボックス_エラー×クラス_エラー(1−Box_Error×Class_Error)」であり、前記それぞれのボックス_エラーは、前記第1物体検出情報に含まれた各バウンディングボックス(Bounding Box)のそれぞれのエラーであり、前記それぞれのクラス_エラーは、前記第1物体検出情報に含まれたクラス情報のそれぞれのエラーであることを特徴とする。
一実施例として、(i)前記それぞれのボックス_エラーは、(i−1)前記それぞれの学習用物体のそれぞれのサイズの(i−2)前記バウンディングボックスそれぞれの中心ポイントのエラーの合計に対する比率であり、(ii)前記それぞれのクラス_エラーは、前記第1物体検出情報に含まれた、前記学習用物体それぞれを分類するのに利用されるそれぞれのクラスに対するそれぞれの予測値のクラスエラーのそれぞれの合計であることを特徴とする。
一実施例として、前記メインコンフィデンスと前記サブコンフィデンスとを重み付け値として利用して、前記メイン物体検出情報と前記サブ物体検出情報とを統合するにおいて、前記プロセッサは、(i)前記メインコンフィデンス及び前記サブコンフィデンスのうちの特定物体検出情報それぞれに対応する特定コンフィデンスそれぞれを重み付け値として利用して前記特定物体検出情報それぞれに含まれたクラスそれぞれに対する推定値それぞれの加重和(Weighted Sum)を算出するプロセス、及び加重和されたクラスのうちの最も大きな値を有する特定クラスを前記特定物体に対応する最適クラス情報(Optimal Class Information)として取得するプロセス、と(ii)前記特定物体検出情報それぞれに対応する前記特定コンフィデンスそれぞれを重み付け値として利用して前記特定物体検出情報それぞれに含まれた特定リグレッション情報それぞれの加重和を算出するプロセス、及び加重和されたリグレッション情報を前記特定物体に対応する最適リグレッション情報として取得するプロセス、とを遂行することを特徴とする。
一実施例として、前記メインコンフィデンスと前記サブコンフィデンスとを重み付け値として利用して、前記メイン物体検出情報と前記サブ物体検出情報とを統合するにおいて、前記第1物体検出情報のうちの第1重畳物体検出情報(Overlapping Object Detection Information)と、前記第2物体検出情報のうちの第2重畳物体検出情報とが互いに重なって存在すると判断される場合、前記プロセッサは、(i)前記第1重畳物体検出情報に対応する第1バウンディングボックスと、前記第2重畳物体検出情報に対応する第2バウンディングボックスとのIOU(Intersection Over Union)が予め設定された閾値以上であれば、前記第1重畳物体検出情報と前記第2重畳物体検出情報とが前記特定物体に対応するものと判断するプロセス、及び(ii)前記IOUが前記予め設定された閾値未満であれば、前記第1重畳物体検出情報と前記第2重畳物体検出情報とがそれぞれ異なる物体に対応するものと判断するプロセスを遂行することを特徴とする。
この他にも、本発明の方法を実行するためのコンピュータプログラムを記録するためのコンピュータ読取可能な記録媒体がさらに提供される。
本発明は、多数のカメラから取得された認識結果を統合することにより、物体検出器の認識成果を向上させることができる効果がある。
本発明は、多数のカメラから取得された認識結果を統合することにより、周辺環境に関係なく正確に物体を検出することができる他の効果がある。
本発明の実施例の説明に利用されるために添付された以下の各図面は、本発明の実施例のうちの一部に過ぎず、本発明が属する技術分野でおいて、通常の知識を有する者(以下「通常の技術者」)は、発明的作業が行われることなくこの図面に基づいて他の図面が得られ得る。
図1は、本発明の一実施例に係る協調走行(Cooperative Driving)を遂行する各車両から取得された走行イメージを統合する走行イメージ統合装置を概略的に示した図面であり、 図2は、本発明の一実施例に係る協調走行を遂行する各車両から取得された各走行イメージを統合する走行イメージ統合装置それぞれが設置された協調走行車両が協調走行状態で各走行イメージを統合するプロセスを概略的に示した図面であり、 図3は本発明の一実施例に係る協調走行中の各車両から取得された各走行イメージを統合する方法を概略的に示した図面であり、 図4は、本発明の一実施例に係る協調走行中の各車両から取得された各走行イメージを統合する走行イメージ統合装置を学習する学習装置を概略的に示した図面であり、 図5は、本発明の一実施例に係る協調走行中の各車両から取得された各走行イメージを統合する走行イメージ統合装置を学習する方法を概略的に示した図面である。
後述する本発明に対する詳細な説明は、本発明の各目的、技術的解決方法及び長所を明確にするために、本発明が実施され得る特定実施例を例示として示す添付図面を参照する。これらの実施例は、通常の技術者が本発明を実施することができるように充分詳細に説明される。
また、本発明の詳細な説明及び各請求項にわたって、「含む」という単語及びそれらの変形は、他の技術的各特徴、各付加物、構成要素又は段階を除外することを意図したものではない。通常の技術者にとって本発明の他の各目的、長所及び各特性が、一部は本説明書から、また一部は本発明の実施から明らかになるであろう。以下の例示及び図面は実例として提供され、本発明を限定することを意図したものではない。
さらに、本発明は、本明細書に示された実施例のあらゆる可能な組み合わせを網羅する。本発明の多様な実施例は相互異なるが、相互排他的である必要はないことを理解されたい。例えば、ここに記載されている特定の形状、構造及び特性は一例と関連して、本発明の精神及び範囲を逸脱せず、かつ他の実施例で実装され得る。また、各々の開示された実施例内の個別構成要素の位置または配置は、本発明の精神及び範囲を逸脱せずに変更され得ることを理解されたい。従って、後述する詳細な説明は限定的な意味で捉えようとするものではなく、本発明の範囲は、適切に説明されれば、その請求項が主張することと均等なすべての範囲と、併せて添付された請求項によってのみ限定される。図面で類似した参照符号は、いくつかの側面にかけて同一であるか類似した機能を指称する。
本発明で言及している各種イメージは、舗装または非舗装道路関連のイメージを含み得、この場合、道路環境で登場し得る物体(例えば、車両、人、動物、植物、物、建物、飛行機やドローンのような飛行体、その他の障害物)を想定し得るが、必ずしもこれに限定されるものではなく、本発明で言及している各種イメージは、道路と関係のないイメージ(例えば、非舗装道路、路地、空き地、海、湖、川、山、森、砂漠、空、室内と関連したイメージ)でもあり得、この場合、非舗装道路、路地、空き地、海、湖、川、山、森、砂漠、空、室内環境で登場し得る物体(例えば、車両、人、動物、植物、物、建物、飛行機やドローンのような飛行体、その他の障害物)を想定し得るが、必ずしもこれに限定されるものではない。
ここに提供される本発明の題名や要約は、単に便宜のために提供されるもので、これら実施例の範囲または意味を制限したり解釈したりしない。
以下、本発明が属する技術分野で通常の知識を有する者が本発明を容易に実施することができるようにするために、本発明の好ましい実施例について添付の図面を参照して詳細に説明する。
以下の説明では、車両を例に挙げて説明するが、本発明がこれに限られるものではなく、軍事、監視分野などのように少なくとも一つのカメラが少なくとも一つの所定領域の少なくとも一つの物体を検出する分野においてはどこにでも適用され得る。
図1は、本発明の一実施例に係る協調走行(Cooperative Driving)を遂行する各車両から取得された各走行イメージを統合する走行イメージ統合装置を概略的に示した図面である。図1を参照すれば、走行イメージ統合装置100は、協調走行中の車両から取得された各走行イメージを統合するためのインストラクション(Instruction)を格納するメモリ110と、メモリ110に格納されたインストラクションに対応して協調走行中の各車両から取得された各走行イメージを統合する動作を遂行するプロセッサ120とを含むことができる。
具体的に、走行イメージ統合装置100は、典型的に少なくとも一つのコンピューティング装置(例えば、コンピュータのプロセッサ、メモリ、ストレージ、入力装置及び出力装置、その他の従来のコンピューティング装置の各構成要素を含むことができる装置;ルータ、スイッチなどのような電子通信装置;ネットワーク接続ストレージ(NAS)及びストレージエリアネットワーク(SAN)のような電子情報ストレージシステム)と、少なくとも一つのコンピュータソフトウェア(つまり、コンピューティング装置をもって、特定の方式で機能させる各インストラクション)との組み合わせを利用して希望するシステム性能を達成するものであり得る。
また、コンピューティング装置のプロセッサは、MPU(Micro Processing Unit)またはCPU(Central Processing Unit)、キャッシュメモリ(Cache Memory)、データバス(Data Bus)などのハードウェア構成を含むことができる。また、コンピューティング装置は、オペレーティングシステム、特定の目的を遂行するアプリケーションのソフトウェア構成をさらに含むこともできる。
しかし、コンピューティング装置が本発明を実施するためのプロセッサ、メモリ、ミディアム、または他のコンピューティング構成要素の何らかの組み合わせを含む統合装置(Integrated Device)を排除するものではない。
このように構成された本発明の一実施例に係る走行イメージ統合装置100を利用して協調走行中の車両から取得された走行イメージを統合する方法を説明すると次の通りである。
先に、図2を参照すれば、道路を協調走行中の車両の走行イメージ統合装置100それぞれは、それぞれの車両に設置されたカメラから撮影された少なくとも一つの走行イメージ上の少なくとも一つの物体を検出して、それぞれの検出された物体に対応するそれぞれの少なくとも一つのコンフィデンス(Confidence)を生成することができる。その際、物体は、少なくとも一つの車両、少なくとも一人の歩行者、少なくとも一つの信号機、少なくとも一つの車線、少なくとも一つのガードレールなどのように、走行環境に含まれる物体は何でも含むことができる。
そして、それぞれの車両上のそれぞれの走行イメージ統合装置100は、(i)物体それぞれに対するクラス情報とリグレッション情報とを含む前記検出された物体に対する情報、例えば、物体検出情報と(ii)それぞれの物体検出情報に対応するそれぞれのコンフィデンス情報とを、車車間(Vehicle To Vehicle)通信によって、周辺の少なくとも一つのサブ車両(Sub−vehicle)と共有することができる。
すると、それぞれの車両上のそれぞれの走行イメージ統合装置100は、自身の物体検出情報及びコンフィデンス情報と、各サブ車両から受信される物体検出情報及びこれに対応するコンフィデンス情報とを利用して協調走行中の全ての車両の認識結果を統合することにより、少なくとも一つの最適物体の検出結果(Optimal Object Detection Result)を生成することができる。
この際、図3を参照して、協調走行を遂行する車両のうちのメイン(main)車両に設置されたメイン走行イメージ統合装置100のプロセスを説明すると次の通りである。本発明全般にわたって、接頭辞「メイン(main)」と「サブ(sub)」は、相対的な観点を示す。多数の個体の中から、少なくとも一つの特定の個体がメイン個体、例えば、テスト用メイン物体または学習用メイン物体に指定されると、残りの個体はサブ個体、例えば、テスト用サブ物体または学習用サブ物体にそれぞれ指定され得、個体のうちどれでもメイン個体になり得る。
まず、協調走行中のすべての車両のうちのメイン車両に設置されたメイン走行イメージ統合装置100は、メイン車両に設置された少なくとも一つのメインカメラから取得される、少なくとも一つのメイン走行イメージをメイン物体検出器150に入力するプロセスを遂行することができる。
すると、メイン物体検出器150は、メイン走行イメージをメインコンボリューションレイヤ151に入力して、メインコンボリューションレイヤ151をもって、メイン走行イメージに対してコンボリューション演算を少なくとも一度適用して少なくとも一つのメイン特徴マップ(Feature Map)を生成するようにすることができる。図5において参照番号151が指す対象は、メインコンボリューションレイヤだけでなく、サブコンボリューションレイヤでもあり得るため、「メイン」及び「サブ」という用語は図面から省略された。しかし、「メイン」及び「サブ」は理解を深めることを助けるために、詳細な説明では使われた。
そして、メイン物体検出器150は、メイン特徴マップをメインRPN(Region Proposal Network)152に入力して、メインRPNをもって、メイン特徴マップ上で少なくとも一つのメイン物体が位置すると予想される、少なくとも一つの領域に対応する少なくとも一つのメインROI(Region Of Interest)を生成するようにすることができる。参考までに、本発明全般にわたって、以下の説明で混乱を避けるために、学習プロセスに関連する用語には「学習用」という単語が追加され、テスト用プロセスに関連する用語には「テスト用」という単語が追加された。また、メイン物体とサブ物体の場合、メイン物体は、テスト用のメイン物体を、サブ物体はテスト用のサブ物体を表すが、便宜のために「テスト用」は省略されている。
その後、メイン物体検出器150は、メインROIとメイン特徴マップとをメインプーリングレイヤ(Pooling Layer)153に入力して、メインプーリングレイヤ153をもって、メイン特徴マップ上でメインROIに対応する少なくとも一つの領域に対して、プーリング演算を少なくとも一度適用して、少なくとも一つのメインプーリング済み特徴マップ(Pooled Feature Map)を生成するようにすることができる。
そして、メイン物体検出器150は、メインプーリング済み特徴マップをメインFCレイヤ(Fully Connected Layer)154に入力して、メインFCレイヤ154をもって、メインプーリング済み特徴マップに対してFC演算を少なくとも一度適用してメイン走行イメージ上に位置するメイン物体に対するメイン物体検出情報を生成するようにすることができる。
この際、メイン物体検出器150は、メインプーリング済み特徴マップを少なくとも一つのベクトルに変換して生成された少なくとも一つのメイン特徴ベクトル(Feature Vector)をメインFCレイヤ154に入力することができる。
そして、それぞれのメイン物体検出情報は、メイン物体に対応するクラス情報とリグレッション情報とを含むことができる。また、メイン物体に対するクラス情報は、メインFCレイヤ154によってメイン物体を分類するのに利用されるそれぞれのクラスに対するそれぞれの予測値を含むことができ、メイン物体に対するリグレッション情報は、それぞれのメインプーリング済み特徴マップに対応するメインROIの位置をリグレッションして生成された位置情報、すなわち、各バウンディングボックスに対する位置情報を含むことができる。
次に、メイン走行イメージ統合装置100は、メインプーリング済み特徴マップをメインコンフィデンスネットワーク160に入力して、メインコンフィデンスネットワーク160をもって、それぞれのメインプーリング済み特徴マップに対応するそれぞれのメインROIに対する少なくとも一つのメインコンフィデンスそれぞれを生成するようにするプロセスを遂行することができる。この際、メインコンフィデンスネットワーク160は、それぞれのメインROIのメインコンフィデンスを出力するように学習された状態であり得、これによってメインプーリング済み特徴マップそれぞれに対応するメインコンフィデンスは、ディープラーニング(Deep Learning)によって学習された少なくとも一つのパラメータによって生成され得る。メインコンフィデンスネットワーク160の学習プロセスについては、後で説明する。
次に、メイン走行イメージ統合装置100は、協調走行中の少なくとも一つのサブ車両それぞれからサブ物体検出情報と少なくとも一つのサブコンフィデンスとを車車間通信によって取得するプロセス、及び前記メインコンフィデンス及び前記サブコンフィデンスを重み付け値として利用して、メイン物体検出情報とサブ物体検出情報とを統合するプロセスを遂行することにより、メイン走行イメージの少なくとも一つの物体検出結果を生成することができる。
この際、メインコンフィデンス及びサブコンフィデンスを重み付け値として利用してメイン物体検出情報とサブ物体検出情報とを統合するプロセスを遂行する上で、メイン物体とサブ物体とのうちの一つである特定物体に対応する物体検出情報が存在すると判断される場合、メイン走行イメージ統合装置100は、(i)メインコンフィデンス及びサブコンフィデンスのうちの特定物体検出情報それぞれに対応する特定コンフィデンスそれぞれを重み付け値として利用して特定物体検出情報それぞれに含まれたクラスそれぞれに対する推定値それぞれの加重和(Weighted Sum)を算出するプロセス、及び加重和されたクラスのうちの最も大きな値を有する特定クラスを特定物体に対応する最適クラス情報(Optimal Class Information)として取得するプロセス、と(ii)特定物体検出情報それぞれに対応する特定コンフィデンスそれぞれを重み付け値として利用して特定物体検出情報それぞれに含まれた特定リグレッション情報それぞれの加重和を算出するプロセス、及び加重和されたリグレッション情報を特定物体に対応する最適リグレッション情報として取得するプロセス、とを遂行することができる。
一例として、メインFCレイヤ154が特定物体を車両、歩行者、またはオートバイに分類する場合、(i)メイン物体検出情報に含まれた第1クラス情報、すなわち、第1物体検出情報は、特定物体が車両であると予測した第1_1予測値、特定物体が歩行者であると予測した第1_2予測値、及び特定物体がオートバイであると予測した第1_3予測値を含むことができ、(ii)サブ車両のうちの一つから取得された第2物体検出情報に含まれた第2クラス情報は、特定物体が車両であると予測した第2_1予測値、特定物体が歩行者であると予測した第2_2予測値、及び特定物体がオートバイであると予測した第2_3予測値を含むことができ、(iii)サブ車両のうちの他の一つから取得された第3物体検出情報に含まれた第3クラス情報は、特定物体が車両であると予測した第3_1予測値、特定物体が歩行者であると予測した第3_2予測値、及び特定物体がオートバイであると予測した第3_3予測値を含むことができる。そして、第1物体検出情報に対応するコンフィデンスを第1コンフィデンス、第2物体検出情報に対応するコンフィデンスを第2コンフィデンス、第3物体検出情報に対応するコンフィデンスを第3コンフィデンスであるとすれば、メイン走行イメージ統合装置100によって統合された特定物体に対する統合クラス情報(Integrated Class Information)は、特定物体が車両であると予測する統合予測値が、(第1_1予測値×第1コンフィデンス)+(第2_1予測値×第2コンフィデンス)+(第3_1予測値×第3コンフィデンス)となり、特定物体が歩行者であると予測する統合予測値は、(第1_2予測値×第1コンフィデンス)+(第2_2予測値×第2コンフィデンス)+(第3_2予測値×第3コンフィデンス)のようになり、特定物体がオートバイであると予測する統合予測値は、(第1_3予測値×第1コンフィデンス)+(第2_3予測値×第2コンフィデンス)+(第3_3予測値×第3コンフィデンス)となるように、それぞれのコンフィデンスを重み付け値として利用して、クラスごとの予測値それぞれを加重和して算出されることができる。結果として、加重和された予測値のうちの最も大きな値を有する特定クラスは、統合イメージ(Integrated Image)上の特定物体に対応する最適クラス情報(Optimal Class Information)として取得され得る。この際、第1物体検出情報は、メイン物体に対応する。
また、特定リグレッション情報、すなわち、特定物体のバウンディングした各バウンディングボックスに対する位置情報も、類似した方法によって特定コンフィデンスを重み付け値として利用して加重和されることができ、加重和されたリグレッション情報は、特定物体に対応する最適リグレッション情報として決定されることができる。この際、特定物体の各バウンディングボックスは、特定物体が位置すると予測されるROIをバウンディングして生成され得る。
また、メインコンフィデンスとサブコンフィデンスとを重み付け値として利用して、メイン物体検出情報とサブ物体検出情報とを統合するにおいて、第1物体検出情報のうちの第1重畳物体検出情報(Overlapping Object Detection Information)と、第2物体検出情報のうちの第2重畳物体検出情報とが互いに重なって存在すると判断される場合、メイン走行イメージ統合装置100は、(i)第1重畳物体検出情報に対応する第1バウンディングボックスと、第2重畳物体検出情報に対応する第2バウンディングボックスとのIOU(Intersection Over Union)が予め設定された閾値以上であれば、第1重畳物体検出情報と第2重畳物体検出情報とが特定物体に対応するものと判断するプロセス、及び(ii)IOUが予め設定された閾値未満であれば、第1重畳物体検出情報と第2重畳物体検出情報とがそれぞれ異なる物体に対応するものと判断するプロセスを遂行することができる。
一方、サブ物体検出情報と前記サブコンフィデンスとは、サブ車両それぞれに設置された少なくとも一つのサブ走行イメージ統合装置それぞれによって生成され得る。詳しく見てみると、それぞれのサブ走行イメージ統合装置は、(i)少なくとも一つのサブ走行イメージそれぞれを、対応するサブ物体検出器それぞれに入力して、サブ物体検出器それぞれをもって、(i−1)対応するサブコンボリューションレイヤそれぞれによってサブ走行イメージそれぞれに対してコンボリューション演算を少なくとも一度適用してサブ特徴マップそれぞれを生成するようにし、(i−2)対応するサブRPNそれぞれによってそれぞれのサブ特徴マップ上に少なくとも一つのサブ物体が位置すると予想される少なくとも一つの領域に対応する少なくとも一つのサブROIを生成するようにし、(i−3)対応するサブプーリングレイヤそれぞれによってそれぞれのサブ特徴マップ上で、サブROIそれぞれに対応する少なくとも一つの領域に対して、プーリング演算を少なくとも一度適用して少なくとも一つのサブプーリング済み特徴マップそれぞれを生成するようにし、(i−4)対応するサブFCレイヤそれぞれによってそれぞれのサブプーリング済み特徴マップに対してFC演算を少なくとも一度適用して、それぞれのサブ走行イメージ上に位置するサブ物体に対するサブ物体検出情報を生成するようにし、(i−5)サブプーリング済み特徴マップそれぞれをサブコンフィデンスネットワークそれぞれに入力して、サブコンフィデンスネットワークそれぞれをもって、サブプーリング済み特徴マップそれぞれに対応するサブROIのサブコンフィデンスを生成するようにするプロセスを遂行することができる。
図4は、本発明の一実施例に係る協調走行中の各車両から取得された各走行イメージを統合する走行イメージ統合装置を学習する学習装置を概略的に示した図面である。図4を参照すれば、学習装置200は、協調走行中の車両から取得された各走行イメージを統合する走行イメージ統合装置を学習するためのインストラクションを格納するメモリ210と、メモリ210に格納されたインストラクションに対応して協調走行中の各車両から取得された各走行イメージを統合する走行イメージ統合装置を学習する動作を遂行するプロセッサ220とを含むことができる。
具体的に、学習装置200は、典型的に少なくとも一つのコンピューティング装置(例えば、コンピュータのプロセッサ、メモリ、ストレージ、入力装置及び出力装置、その他の従来のコンピューティング装置の各構成要素を含むことができる装置;ルータ、スイッチなどのような電子通信装置;ネットワーク接続ストレージ(NAS)及びストレージエリアネットワーク(SAN)のような電子情報ストレージシステム)と、少なくとも一つのコンピュータソフトウェア(つまり、コンピューティング装置をもって、特定の方式で機能させる各インストラクション)との組み合わせを利用して希望するシステム性能を達成するものであり得る。
また、コンピューティング装置のプロセッサは、MPU(Micro Processing Unit)またはCPU(Central Processing Unit)、キャッシュメモリ(Cache Memory)、データバス(Data Bus)などのハードウェア構成を含むことができる。また、コンピューティング装置は、オペレーティングシステム、特定の目的を遂行するアプリケーションのソフトウェア構成をさらに含むこともできる。
しかし、コンピューティング装置が本発明を実施するためのプロセッサ、メモリ、ミディアム、または他のコンピューティング構成要素の何らかの組み合わせを含む統合装置(Integrated Device)を排除するものではない。
このように構成された本発明の一実施例に係る学習装置200を利用して協調走行中の各車両から取得された走行イメージを統合する走行イメージ学習装置を学習する方法を、図5を参照して説明すると次の通りである。協調走行中の車両のうちのメイン車両に設置されたメイン走行イメージ統合装置を学習する方法を説明すると次のようになる。
まず、少なくとも一つの学習用走行イメージを含むトレーニングデータが取得されると、前記学習装置200は(i)トレーニングデータから(i−1)学習用第1_1走行イメージないし学習用第1_m走行イメージを含む第1トレーニングデータと(i−2)学習用第2_1走行イメージないし学習用第2_n走行イメージとを含む第2トレーニングデータをサンプリングするプロセスを遂行することができる。この際、mとnとは、それぞれ1以上の整数(Integer)であり得る。
その後、学習装置200は、(ii)学習用第1_1走行イメージないし学習用第1_m走行イメージの一つである学習用第1_j走行イメージをメインコンボリューションレイヤ151に入力して、メインコンボリューションレイヤ151をもって、学習用第1_j走行イメージに対してコンボリューション演算を少なくとも一度適用して少なくとも一つの第1特徴マップを生成するようにするプロセス、及び(iii)第1特徴マップをメインRPN152に入力して、メインRPN152をもって、第1特徴マップ上に位置する少なくとも一つの学習用物体に対応する少なくとも一つの第1ROIを生成するようにするプロセスを遂行することができる。
その後、前記学習装置200は(iv)第1ROIと第1特徴マップとをメインプーリングレイヤ153に入力して、メインプーリングレイヤ153をもって、前記第1特徴マップ上で第1ROIに対応する少なくとも一つの領域に対してプーリング演算を少なくとも一度適用して少なくとも一つの第1プーリング済み特徴マップを生成するようにするプロセス、及び(v)第1プーリング済み特徴マップまたは第1プーリング済み特徴マップから生成された少なくとも一つの第1特徴ベクトルをメインFCレイヤ154に入力して、メインFCレイヤ154をもって、第1プーリング済み特徴マップに対応する第1特徴ベクトルまたは第1プーリング済み特徴マップに対してFC演算を少なくとも一度適用して学習用第1_j走行イメージ上に位置する学習用物体に対応する第1物体検出情報を生成するようにするプロセスを遂行することができる。この際、それぞれの第1物体検出情報は、学習用物体に対応するクラス情報とリグレッション情報とを含むことができる。また、学習用物体に対するクラス情報は、メインFCレイヤ154によって学習用物体を分類するのに利用されるそれぞれのクラスに対するそれぞれの予測値を含むことができ、学習用物体に対するリグレッション情報は、メインプーリング済み特徴マップそれぞれに対応するメインROIの位置をリグレッションして生成された位置情報、すなわち、各バウンディングボックスに対する位置情報を含むことができる。
その後、学習装置200は、(vi)第1ロスレイヤ155をもって、第1物体検出情報と学習用第1_j走行イメージの少なくとも一つの物体GT(Ground Truth)とを参照して少なくとも一つの第1ロスを算出するようにするプロセス、及び(vii)第1ロスを利用したバックプロパゲーションによって、第1ロスを最小化するようにメインFCレイヤ及びメインコンボリューションレイヤのうちの少なくとも一つのパラメータをアップデートするプロセスを、学習用第1_1走行イメージないし学習用第1_m走行イメージそれぞれに対して遂行することにより、メイン物体検出器を学習することができる。
次に、学習装置200は、(i)学習用第1_1走行イメージないし学習用第1_m走行イメージそれぞれに対応する第1物体検出情報とこれに対応する物体GTとを参照して第1ROIそれぞれの少なくとも一つの第1コンフィデンスそれぞれを取得するプロセスを遂行することができる。
この際、前記学習装置200は、前記第1物体検出情報とこれに対応する物体GTとを参照して第1ROIそれぞれの第1コンフィデンスを取得し、第1ROIそれぞれに学習用物体それぞれがない場合、第1コンフィデンスそれぞれは「0」であり、第1ROIそれぞれに学習用物体それぞれがある場合、第1コンフィデンスそれぞれは「1−ボックス_エラー×クラス_エラー(1−Box_Error×Class_Error)」であり得る。
そして、それぞれのボックス_エラーは、第1物体検出情報に含まれた各バウンディングボックスのそれぞれのエラーであり、それぞれのクラス_エラーは、第1物体検出情報に含まれたクラス情報のそれぞれのエラーであり得る。
また、(i)それぞれのボックス_エラーは、(i−1)それぞれの学習用物体のそれぞれのサイズの(i−2)各バウンディングボックスそれぞれの中心ポイントのエラーの合計に対する比率であり得、(ii)前記それぞれのクラス_エラーは、第1物体検出情報に含まれた、学習用物体それぞれを分類するのに利用されるそれぞれのクラスに対するそれぞれの予測値のクラスエラーのそれぞれの合計であり得る。
つまり、
Figure 0006910081

であり、
Figure 0006910081

のように表すことができる。
次に、学習装置200は、(ii)学習用第2_1走行イメージないし学習用第2_n走行イメージの一つである学習用第2_k走行イメージをメインコンボリューションレイヤ151に入力して、メインコンボリューションレイヤ151をもって、学習用第2_k走行イメージに対してコンボリューション演算を少なくとも一度適用して少なくとも一つの第2特徴マップを生成するようにするプロセス、及び(iii)第2特徴マップをメインRPN152に入力して、メインRPN152をもって、第2特徴マップ上に位置する学習用物体に対応する少なくとも一つの第2ROI(Region Of Interest)を生成するようにするプロセスを遂行することができる。
その後、学習装置200は、(iv)メインプーリングレイヤ153をもって、第2特徴マップ上で第2ROIに対応する少なくとも一つの領域に対してプーリング演算を適用して少なくとも一つの第2プーリング済み特徴マップを生成するようにするプロセス、及び(v)第2プーリング済み特徴マップをメインコンフィデンスネットワーク160に入力して、メインコンフィデンスネットワーク160をもって、ディープラーニングによって第2プーリング済み特徴マップに対応する少なくとも一つの第2コンフィデンスを生成するようにするプロセスを遂行することができる。
その後、学習装置200は(vi)第2ロスレイヤ161をもって、第2コンフィデンスと第1コンフィデンスとを参照して少なくとも一つの第2ロスを算出するようにするプロセス、及び(vii)第2ロスを利用したバックプロパゲーションによって、第2ロスを最小化するようにメインコンフィデンスネットワーク160の少なくとも一つのパラメータをアップデートするプロセスを、学習用第2_1走行イメージないし学習用第2_n走行イメージそれぞれに対して遂行することにより、メインコンフィデンスネットワーク160を学習するプロセスを遂行することができる。
つまり、学習装置200は、メイン物体検出器150の学習プロセス中に生成された第1プーリング済み特徴マップそれぞれに対応する第1コンフィデンスそれぞれを取得することができ、第1プーリング済み特徴マップとこれに対応する第2コンフィデンスとを利用して、第1プーリング済み特徴マップに対応する第1コンフィデンスの少なくとも一部を出力するようにメインコンフィデンスネットワーク160を学習することができる。
一方、前記では協調走行中の車両を例にして説明したが、同一の場所で複数台のカメラを利用して監視する監視システム、軍事システムでも本発明に係る物体検出器の認識性能を向上させることができ、これによって物体検出システムの安定性を向上させることができる。
前記で述べたように、本発明は、多数のカメラ映像イメージの認識結果及びコンフィデンスを、車両間の情報融合により統合して最適認識結果を提供することにより、物体検出を利用して監視システム、軍事システムの安定性を向上させることができる。
また、以上で説明された本発明に係る実施例は、多様なコンピュータ構成要素を通じて遂行できるプログラム命令語の形態で具現されてコンピュータで判読可能な記録媒体に記録され得る。前記コンピュータで読取り可能な記録媒体はプログラム命令語、データファイル、データ構造などを単独でまたは組み合わせて含まれ得る。前記コンピュータ読取り可能な記録媒体に記録されるプログラム命令語は、本発明のために特別に設計されて構成されたものであるか、コンピュータソフトウェア分野の当業者に公知となって利用可能なものでもよい。コンピュータで判読可能な記録媒体の例には、ハードディスク、フロッピィディスク及び磁気テープのような磁気媒体、CD−ROM、DVDのような光記録媒体、フロプティカルディスク(flopticaldisk)のような磁気−光媒体(magneto−opticalmedia)、及びROM、RAM、フラッシュメモリなどといったプログラム命令語を格納して遂行するように特別に構成されたハードウェア装置が含まれる。プログラム命令語の例には、コンパイラによって作られるもののような機械語コードだけでなく、インタプリタなどを用いてコンピュータによって実行され得る高級言語コードも含まれる。前記ハードウェア装置は、本発明に係る処理を遂行するために一つ以上のソフトウェアモジュールとして作動するように構成され得、その逆も同様である。
以上、本発明が具体的な構成要素などのような特定事項と限定された実施例及び図面によって説明されたが、これは本発明のより全般的な理解を助けるために提供されたものであるに過ぎず、本発明が前記実施例に限られるものではなく、本発明が属する技術分野において通常の知識を有する者であれば係る記載から多様な修正及び変形が行われ得る。
従って、本発明の思想は前記説明された実施例に局限されて定められてはならず、後述する特許請求の範囲だけでなく、本特許請求の範囲と均等または等価的に変形されたものすべては、本発明の思想の範囲に属するといえる。
100:走行イメージ統合装置
110:メモリ
120:プロセッサ
200:学習装置
210:メモリ
220:プロセッサ

Claims (12)

  1. 調走行を遂行する少なくともつの車両から取得された各走行イメージを統合する方法において、
    (a)前記少なくとも一つの車両のうち少なくとも一つのメイン車両に設置されたメイン走行イメージ統合装置が、(i)前記メイン車両に設置された少なくとも一つのメインカメラから取得される少なくとも一つのメイン走行イメージをメイン物体検出器に入力して、前記メイン物体検出器をもって、(i−1)メインコンボリューションレイヤによって前記メイン走行イメージ対してコンボリューション演算を少なくとも一度適用して少なくとも一つのメイン特徴マップを生成するようにし、(i−2)メインRPN(Region Proposal Network)によって前記メイン特徴マップ上で少なくとも一つのメイン物体が位置すると予想される、少なくとも一つの領域に対応する少なくとも一つのメインROI(Region Of Interest)を生成するようにし、(i−3)メインプーリングレイヤによって前記メイン特徴マップ上で前記メインROIに対応する少なくとも一つの領域に対して、プーリング演算を少なくとも一度適用して、少なくとも一つのメインプーリング済み特徴マップを生成するようにし、(i−4)メインFCレイヤによって前記メインプーリング済み特徴マップに対してFC演算を少なくとも一度適用して、前記メイン走行イメージ上に位置する前記メイン物体に対するメイン物体検出情報を生成するようにするプロセスを遂行する段階;
    (b)前記メイン走行イメージ統合装置が、前記メインプーリング済み特徴マップをメインコンフィデンスネットワークに入力して、前記メインコンフィデンスネットワークをもって、前記メインプーリング済み特徴マップそれぞれに対応する前記メインROIそれぞれの少なくとも一つのメインコンフィデンスそれぞれを生成するようにするプロセスを遂行する段階;及び
    (c)前記メイン走行イメージ統合装置が、前記協調走行中の少なくとも一つのサブ(sub)車両それぞれからサブ物体検出情報と少なくとも一つのサブコンフィデンスを取得するプロセス、及び前記メインコンフィデンス及び前記サブコンフィデンスを重み付け値として利用して、前記メイン物体検出情報と前記サブ物体検出情報とを統合するプロセスを遂行することにより、前記メイン走行イメージの少なくとも一つの物体検出結果を生成する段階;
    を含み、
    前記サブ物体検出情報と前記サブコンフィデンスとは、前記サブ車両それぞれに設置された少なくとも一つのサブ走行イメージ統合装置それぞれにより生成され、
    前記サブ走行イメージ統合装置それぞれは、(i)サブ走行イメージそれぞれを、対応するサブ物体検出器それぞれに入力して、前記サブ物体検出器をもって、(i−1)対応するサブコンボリューションレイヤそれぞれによって前記サブ走行イメージそれぞれに対して前記コンボリューション演算を少なくとも一度適用してサブ特徴マップそれぞれを生成するようにし、(i−2)対応するサブRPNそれぞれによって前記それぞれのサブ特徴マップ上に少なくとも一つのサブ物体が位置すると予想される少なくとも一つの領域に対応する少なくとも一つのサブROIを生成するようにし、(i−3)対応するサブプーリングレイヤそれぞれによって前記それぞれのサブ特徴マップ上で、前記サブROIそれぞれに対応する少なくとも一つの領域に対して、前記プーリング演算を少なくとも一度適用して少なくとも一つのサブプーリング済み特徴マップそれぞれを生成するようにし、(i−4)対応するサブFCレイヤそれぞれによって前記それぞれのサブプーリング済み特徴マップに対して前記FC演算を少なくとも一度適用して、前記それぞれのサブ走行イメージ上に位置する前記サブ物体に対する前記サブ物体検出情報を生成するようにし、(i−5)前記サブプーリング済み特徴マップそれぞれをサブコンフィデンスネットワークそれぞれに入力して、前記サブコンフィデンスネットワークそれぞれをもって、前記サブプーリング済み特徴マップそれぞれに対応する前記サブROIの前記サブコンフィデンスを生成するようにすることを特徴とする方法。
  2. 前記メイン物体検出器と前記メインコンフィデンスネットワークとは、学習装置により学習された状態であり、
    少なくとも一つの学習用走行イメージを含むトレーニングデータが取得されると、前記学習装置が、(i)前記トレーニングデータから、(i−1)学習用第1_1走行イメージないし学習用第1_m走行イメージを含む第1トレーニングデータと(i−2)学習用第2_1走行イメージないし学習用第2_n走行イメージを含む第2トレーニングデータとをサンプリングするプロセス、(ii)前記学習用第1_1走行イメージないし前記学習用第1_m走行イメージの一つである学習用第1_j走行イメージを前記メインコンボリューションレイヤに入力して、前記メインコンボリューションレイヤをもって、前記学習用第1_j走行イメージに対して前記コンボリューション演算を少なくとも一度適用して少なくとも一つの第1特徴マップを生成するようにするプロセス、(iii)前記第1特徴マップを前記メインRPNに入力して、前記メインRPNをもって、前記第1特徴マップ上に位置する少なくとも一つの学習用物体に対応する少なくとも一つの第1ROI(Region Of Interest)を生成するようにするプロセス、(iv)前記メインプーリングレイヤをもって、前記第1特徴マップ上で、前記第1ROIに対応する少なくとも一つの領域に対して前記プーリング演算を少なくとも一度適用して少なくとも一つの第1プーリング済み特徴マップを生成するようにするプロセス、(v)前記メインFCレイヤをもって、前記第1プーリング済み特徴マップまたはこれに対応する少なくとも一つの第1特徴ベクトルに対して前記FC演算を少なくとも一度適用して、前記学習用第1_j走行イメージ上に位置する前記学習用物体に対応する第1物体検出情報を生成するようにするプロセス、(vi)第1ロスレイヤをもって、前記第1物体検出情報と前記学習用第1_j走行イメージの少なくとも一つの物体GT(Ground Truth)とを参照して少なくとも一つの第1ロスを算出するようにするプロセス、及び(vii)前記第1ロスを利用したバックプロパゲーションによって、前記第1ロスを最小化するように前記メインFCレイヤ及び前記メインコンボリューションレイヤのうちの少なくとも一つのパラメータをアップデートするプロセスを、前記学習用第1_1走行イメージないし前記学習用第1_m走行イメージそれぞれに対して遂行することにより、前記メイン物体検出器を学習し、
    前記学習装置が、(i)前記学習用第1_1走行イメージないし前記学習用第1_m走行イメージそれぞれに対応する前記第1物体検出情報と前記物体GTとを参照して前記第1ROIそれぞれの少なくとも一つの第1コンフィデンスそれぞれを取得するプロセス、(ii)前記学習用第2_1走行イメージないし前記学習用第2_n走行イメージの一つである学習用第2_k走行イメージを前記メインコンボリューションレイヤに入力して、前記メインコンボリューションレイヤをもって、前記学習用第2_k走行イメージに対して前記コンボリューション演算を少なくとも一度適用して少なくとも一つの第2特徴マップを生成するようにするプロセス、(iii)前記第2特徴マップを前記メインRPNに入力して、前記メインRPNをもって、前記第2特徴マップ上に位置する前記学習用物体に対応する少なくとも一つの第2ROIを生成するようにするプロセス、(iv)前記メインプーリングレイヤをもって、前記第2特徴マップ上で、前記第2ROIに対応する少なくとも一つの領域に対して前記プーリング演算を少なくとも一度適用して少なくとも一つの第2プーリング済み特徴マップを生成するようにするプロセス、(v)前記第2プーリング済み特徴マップを前記メインコンフィデンスネットワークに入力して、前記メインコンフィデンスネットワークをもって、ディープラーニングによって前記第2プーリング済み特徴マップに対応する少なくとも一つの第2コンフィデンスを生成するようにするプロセス、(vi)第2ロスレイヤをもって、前記第2コンフィデンスと前記第1コンフィデンスとを参照して少なくとも一つの第2ロスを算出するようにするプロセス、及び(vii)前記第2ロスを利用したバックプロパゲーションによって、前記第2ロスを最小化するように前記メインコンフィデンスネットワークの少なくとも一つのパラメータをアップデートするプロセスを、前記学習用第2_1走行イメージないし前記学習用第2_n走行イメージに対して遂行することにより、前記メインコンフィデンスネットワークを学習した状態であり、前記mは、1以上の整数であり、前記nは、1以上の整数であることを特徴とする請求項1に記載の方法。
  3. 前記学習装置は、前記第1物体検出情報とこれに対応する物体GTとを参照して前記第1ROIそれぞれの前記第1コンフィデンスを取得し、
    前記第1ROIそれぞれに前記学習用物体それぞれがない場合、前記第1コンフィデンスそれぞれは「0」であり、前記第1ROIそれぞれに前記学習用物体それぞれがある場合、前記第1コンフィデンスそれぞれは「1−ボックス_エラー×クラス_エラー(1−Box_Error×Class_Error)」であり、
    前記それぞれのボックス_エラーは、前記第1物体検出情報に含まれた各バウンディングボックスのそれぞれのエラーであり、前記それぞれのクラス_エラーは、前記第1物体検出情報に含まれたクラス情報のそれぞれのエラーであることを特徴とする請求項2に記載の方法。
  4. (i)前記それぞれのボックス_エラーは、(i−1)前記それぞれの学習用物体のそれぞれのサイズの(i−2)前記バウンディングボックスそれぞれの中心ポイントのエラーの合計に対する比率であり、(ii)前記それぞれのクラス_エラーは、前記第1物体検出情報に含まれた、前記学習用物体それぞれを分類するのに利用されるそれぞれのクラスに対するそれぞれの予測値のクラスエラーのそれぞれの合計であることを特徴とする請求項3に記載の方法。
  5. 前記メインコンフィデンスと前記サブコンフィデンスとを重み付け値として利用して、前記メイン物体検出情報と前記サブ物体検出情報とを統合するにおいて、
    前記メイン走行イメージ統合装置は、(i)前記メインコンフィデンス及び前記サブコンフィデンスのうちの特定物体検出情報それぞれに対応する特定コンフィデンスそれぞれを重み付け値として利用して前記特定物体検出情報それぞれに含まれたクラスそれぞれに対する推定値それぞれの加重和を算出するプロセス、及び加重和されたクラスのうちの最も大きな値を有する特定クラスを前記特定物体に対応する最適クラス情報として取得するプロセス、と(ii)前記特定物体検出情報それぞれに対応する前記特定コンフィデンスそれぞれを重み付け値として利用して前記特定物体検出情報それぞれに含まれた特定リグレッション情報それぞれの加重和を算出するプロセス、及び加重和されたリグレッション情報を前記特定物体に対応する最適リグレッション情報として取得するプロセス、とを遂行することを特徴とする請求項1に記載の方法。
  6. 前記メインコンフィデンスと前記サブコンフィデンスとを重み付け値として利用して、前記メイン物体検出情報と前記サブ物体検出情報とを統合するにおいて、
    前記第1物体検出情報のうちの第1重畳物体検出情報と、前記第2物体検出情報のうちの第2重畳物体検出情報とが互いに重なって存在すると判断される場合、前記メイン走行イメージ統合装置は、(i)前記第1重畳物体検出情報に対応する第1バウンディングボックスと、前記第2重畳物体検出情報に対応する第2バウンディングボックスとのIOU(Intersection Over Union)が予め設定された閾値以上であれば、前記第1重畳物体検出情報と前記第2重畳物体検出情報とが前記特定物体に対応するものと判断するプロセス、及び(ii)前記IOUが前記予め設定された閾値未満であれば、前記第1重畳物体検出情報と前記第2重畳物体検出情報とがそれぞれ異なる物体に対応するものと判断するプロセスを遂行することを特徴とする請求項5に記載の方法。
  7. 調走行を遂行する少なくともつの車両のうち少なくとも一つのメイン車両に設置された、前記車両から取得された各走行イメージを統合するメイン走行イメージ統合装置において、
    インストラクションを格納する少なくとも一つのメモリ;及び
    (I)前記メイン車両に設置された少なくとも一つのメインカメラから取得される少なくとも一つのメイン走行イメージをメイン物体検出器に入力して、前記メイン物体検出器をもって、(I−1)メインコンボリューションレイヤによって前記メイン走行イメージ対してコンボリューション演算を少なくとも一度適用して少なくとも一つのメイン特徴マップを生成するようにし、(I−2)メインRPN(Region Proposal Network)によって前記メイン特徴マップ上で少なくとも一つのメイン物体が位置すると予想される、少なくとも一つの領域に対応する少なくとも一つのメインROI(Region Of Interest)を生成するようにし、(I−3)メインプーリングレイヤによって前記メイン特徴マップ上で前記メインROIに対応する少なくとも一つの領域に対して、プーリング演算を少なくとも一度適用して、少なくとも一つのメインプーリング済み特徴マップを生成するようにし、(I−4)メインFCレイヤによって前記メインプーリング済み特徴マップに対してFC演算を少なくとも一度適用して、前記メイン走行イメージ上に位置する前記メイン物体に対するメイン物体検出情報を生成するようにするプロセス、(II)前記メインプーリング済み特徴マップをメインコンフィデンスネットワークに入力して、前記メインコンフィデンスネットワークをもって、前記メインプーリング済み特徴マップそれぞれに対応する前記メインROIそれぞれの少なくとも一つのメインコンフィデンスそれぞれを生成するようにするプロセス、及び(III)前記協調走行中の少なくとも一つのサブ車両それぞれからサブ物体検出情報と少なくとも一つのサブコンフィデンスを取得するプロセス、及び前記メインコンフィデンス及び前記サブコンフィデンスを重み付け値として利用して、前記メイン物体検出情報と前記サブ物体検出情報とを統合するプロセスを遂行することにより、前記メイン走行イメージの少なくとも一つの物体検出結果を生成するプロセスを遂行するようにするか、他の装置をもって遂行するようにするために前記インストラクションを実行するように構成された少なくとも一つのプロセッサを含み、
    前記サブ物体検出情報と前記サブコンフィデンスとは、前記サブ車両それぞれに設置された少なくとも一つのサブ走行イメージ統合装置それぞれにより生成され、前記サブ走行イメージ統合装置それぞれは、(i)サブ走行イメージそれぞれを、対応するサブ物体検出器それぞれに入力して、前記サブ物体検出器それぞれをもって、(i−1)対応するサブコンボリューションレイヤそれぞれによって前記サブ走行イメージそれぞれに対して前記コンボリューション演算を少なくとも一度適用してサブ特徴マップそれぞれを生成するようにし、(i−2)対応するサブRPNそれぞれによって前記それぞれのサブ特徴マップ上に少なくとも一つのサブ物体が位置すると予想される少なくとも一つの領域に対応する少なくとも一つのサブROIを生成するようにし、(i−3)対応するサブプーリングレイヤそれぞれによって前記それぞれのサブ特徴マップ上で、前記サブROIそれぞれに対応する少なくとも一つの領域に対して、前記プーリング演算を少なくとも一度適用して少なくとも一つのサブプーリング済み特徴マップそれぞれを生成するようにし、(i−4)対応するサブFCレイヤそれぞれによって前記それぞれのサブプーリング済み特徴マップに対して前記FC演算を少なくとも一度適用して、前記それぞれのサブ走行イメージ上に位置する前記サブ物体に対する前記サブ物体検出情報を生成するようにし、(i−5)前記サブプーリング済み特徴マップそれぞれをサブコンフィデンスネットワークそれぞれに入力して、前記サブコンフィデンスネットワークそれぞれをもって、前記サブプーリング済み特徴マップそれぞれに対応する前記サブROIの前記サブコンフィデンスを生成するようにすることを特徴とする装置。
  8. 前記メイン物体検出器と前記メインコンフィデンスネットワークとは、学習装置により学習された状態であり、
    少なくとも一つの学習用走行イメージを含むトレーニングデータが取得されると、前記学習装置が、(i)前記トレーニングデータから、(i−1)学習用第1_1走行イメージないし学習用第1_m走行イメージを含む第1トレーニングデータと(i−2)学習用第2_1走行イメージないし学習用第2_n走行イメージを含む第2トレーニングデータとをサンプリングするプロセス、(ii)前記学習用第1_1走行イメージないし前記学習用第1_m走行イメージの一つである学習用第1_j走行イメージを前記メインコンボリューションレイヤに入力して、前記メインコンボリューションレイヤをもって、前記学習用第1_j走行イメージに対して前記コンボリューション演算を少なくとも一度適用して少なくとも一つの第1特徴マップを生成するようにするプロセス、(iii)前記第1特徴マップを前記メインRPNに入力して、前記メインRPNをもって、前記第1特徴マップ上に位置する少なくとも一つの学習用物体に対応する少なくとも一つの第1ROI(Region Of Interest)を生成するようにするプロセス、(iv)前記メインプーリングレイヤをもって、前記第1特徴マップ上で、前記第1ROIに対応する少なくとも一つの領域に対して前記プーリング演算を少なくとも一度適用して少なくとも一つの第1プーリング済み特徴マップを生成するようにするプロセス、(v)前記メインFCレイヤをもって、前記第1プーリング済み特徴マップまたはこれに対応する少なくとも一つの第1特徴ベクトルに対して前記FC演算を少なくとも一度適用して、前記学習用第1_j走行イメージ上に位置する前記学習用物体に対応する第1物体検出情報を生成するようにするプロセス、(vi)第1ロスレイヤをもって、前記第1物体検出情報と前記学習用第1_j走行イメージの少なくとも一つの物体GT(Ground Truth)とを参照して少なくとも一つの第1ロスを算出するようにするプロセス、及び(vii)前記第1ロスを利用したバックプロパゲーションによって、前記第1ロスを最小化するように前記メインFCレイヤ及び前記メインコンボリューションレイヤのうちの少なくとも一つのパラメータをアップデートするプロセスを、前記学習用第1_1走行イメージないし前記学習用第1_m走行イメージそれぞれに対して遂行することにより、前記メイン物体検出器を学習し、
    前記学習装置が、(i)前記学習用第1_1走行イメージないし前記学習用第1_m走行イメージそれぞれに対応する前記第1物体検出情報と前記物体GTとを参照して前記第1ROIそれぞれの少なくとも一つの第1コンフィデンスそれぞれを取得するプロセス、(ii)前記学習用第2_1走行イメージないし前記学習用第2_n走行イメージの一つである学習用第2_k走行イメージを前記メインコンボリューションレイヤに入力して、前記メインコンボリューションレイヤをもって、前記学習用第2_k走行イメージに対して前記コンボリューション演算を少なくとも一度適用して少なくとも一つの第2特徴マップを生成するようにするプロセス、(iii)前記第2特徴マップを前記メインRPNに入力して、前記メインRPNをもって、前記第2特徴マップ上に位置する前記学習用物体に対応する少なくとも一つの第2ROIを生成するようにするプロセス、(iv)前記メインプーリングレイヤをもって、前記第2特徴マップ上で、前記第2ROIに対応する少なくとも一つの領域に対して前記プーリング演算を少なくとも一度適用して少なくとも一つの第2プーリング済み特徴マップを生成するようにするプロセス、(v)前記第2プーリング済み特徴マップを前記メインコンフィデンスネットワークに入力して、前記メインコンフィデンスネットワークをもって、ディープラーニングによって前記第2プーリング済み特徴マップに対応する少なくとも一つの第2コンフィデンスを生成するようにするプロセス、(vi)第2ロスレイヤをもって、前記第2コンフィデンスと前記第1コンフィデンスとを参照して少なくとも一つの第2ロスを算出するようにするプロセス、及び(vii)前記第2ロスを利用したバックプロパゲーションによって、前記第2ロスを最小化するように前記メインコンフィデンスネットワークの少なくとも一つのパラメータをアップデートするプロセスを、前記学習用第2_1走行イメージないし前記学習用第2_n走行イメージに対して遂行することにより、前記メインコンフィデンスネットワークを学習した状態であり、前記mは、1以上の整数であり、前記nは、1以上の整数であることを特徴とする請求項7に記載の装置。
  9. 前記学習装置は、前記第1物体検出情報とこれに対応する物体GTとを参照して前記第1ROIそれぞれの前記第1コンフィデンスを取得し、
    前記第1ROIそれぞれに前記学習用物体それぞれがない場合、前記第1コンフィデンスそれぞれは「0」であり、前記第1ROIそれぞれに前記学習用物体それぞれがある場合、前記第1コンフィデンスそれぞれは「1−ボックス_エラー×クラス_エラー(1−Box_Error×Class_Error)」であり、
    前記それぞれのボックス_エラーは、前記第1物体検出情報に含まれた各バウンディングボックスのそれぞれのエラーであり、前記それぞれのクラス_エラーは、前記第1物体検出情報に含まれたクラス情報のそれぞれのエラーであることを特徴とする請求項8に記載の装置。
  10. (i)前記それぞれのボックス_エラーは、(i−1)前記それぞれの学習用物体のそれぞれのサイズの(i−2)前記バウンディングボックスそれぞれの中心ポイントのエラーの合計に対する比率であり、(ii)前記それぞれのクラス_エラーは、前記第1物体検出情報に含まれた、前記学習用物体それぞれを分類するのに利用されるそれぞれのクラスに対するそれぞれの予測値のクラスエラーのそれぞれの合計であることを特徴とする請求項9に記載の装置。
  11. 前記メインコンフィデンスと前記サブコンフィデンスとを重み付け値として利用して、前記メイン物体検出情報と前記サブ物体検出情報とを統合するにおいて、
    前記プロセッサは、(i)前記メインコンフィデンス及び前記サブコンフィデンスのうちの特定物体検出情報それぞれに対応する特定コンフィデンスそれぞれを重み付け値として利用して前記特定物体検出情報それぞれに含まれたクラスそれぞれに対する推定値それぞれの加重和を算出するプロセス、及び加重和されたクラスのうちの最も大きな値を有する特定クラスを前記特定物体に対応する最適クラス情報として取得するプロセス、と(ii)前記特定物体検出情報それぞれに対応する前記特定コンフィデンスそれぞれを重み付け値として利用して前記特定物体検出情報それぞれに含まれた特定リグレッション情報それぞれの加重和を算出するプロセス、及び加重和されたリグレッション情報を前記特定物体に対応する最適リグレッション情報として取得するプロセス、とを遂行することを特徴とする請求項7に記載の装置。
  12. 前記メインコンフィデンスと前記サブコンフィデンスとを重み付け値として利用して、前記メイン物体検出情報と前記サブ物体検出情報とを統合するにおいて、
    前記第1物体検出情報のうちの第1重畳物体検出情報と、前記第2物体検出情報のうちの第2重畳物体検出情報とが互いに重なって存在すると判断される場合、前記プロセッサは、(i)前記第1重畳物体検出情報に対応する第1バウンディングボックスと、前記第2重畳物体検出情報に対応する第2バウンディングボックスとのIOU(Intersection Over Union)が予め設定された閾値以上であれば、前記第1重畳物体検出情報と前記第2重畳物体検出情報とが前記特定物体に対応するものと判断するプロセス、及び(ii)前記IOUが前記予め設定された閾値未満であれば、前記第1重畳物体検出情報と前記第2重畳物体検出情報とがそれぞれ異なる物体に対応するものと判断するプロセスを遂行することを特徴とする請求項11に記載の装置。
JP2020009978A 2019-01-31 2020-01-24 協調走行を遂行する各車両から取得された各走行イメージを統合する方法及びこれを利用した走行イメージ統合装置 Active JP6910081B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201962799514P 2019-01-31 2019-01-31
US62/799,514 2019-01-31
US16/739,220 US10796206B2 (en) 2019-01-31 2020-01-10 Method for integrating driving images acquired from vehicles performing cooperative driving and driving image integrating device using same
US16/739,220 2020-01-10

Publications (2)

Publication Number Publication Date
JP2020126637A JP2020126637A (ja) 2020-08-20
JP6910081B2 true JP6910081B2 (ja) 2021-07-28

Family

ID=69191878

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020009978A Active JP6910081B2 (ja) 2019-01-31 2020-01-24 協調走行を遂行する各車両から取得された各走行イメージを統合する方法及びこれを利用した走行イメージ統合装置

Country Status (5)

Country Link
US (1) US10796206B2 (ja)
EP (1) EP3690744B1 (ja)
JP (1) JP6910081B2 (ja)
KR (1) KR102301631B1 (ja)
CN (1) CN111507160B (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101977174B1 (ko) 2017-09-13 2019-05-10 이재준 영상 분석 방법, 장치 및 컴퓨터 프로그램
IL270540A (en) * 2018-12-26 2020-06-30 Yandex Taxi Llc Method and system for training a machine learning algorithm to recognize objects from a distance
US11043003B2 (en) 2019-11-18 2021-06-22 Waymo Llc Interacted object detection neural network
US11634144B2 (en) * 2020-09-24 2023-04-25 Zhejiang University Sensing method and sensing device for human driven vehicles under partial VANET (vehicular ad hoc network) environment
CN113282721B (zh) * 2021-04-28 2023-07-21 南京大学 基于网络结构搜索的视觉问答方法
KR102637343B1 (ko) * 2021-05-26 2024-02-16 삼성전자주식회사 오브젝트 추적 방법 및 장치

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11144185A (ja) * 1997-09-03 1999-05-28 Honda Motor Co Ltd 自動運転制御誘導システム
JP4093026B2 (ja) * 2002-11-18 2008-05-28 日本電気株式会社 道路環境情報通知装置、車載報知装置、情報センタ内装置、及び道路環境情報通知プログラム
JP2006090957A (ja) * 2004-09-27 2006-04-06 Nissan Motor Co Ltd 移動体の周囲物体検出装置及び移動体の周囲物体検出方法
JP4752836B2 (ja) * 2007-12-25 2011-08-17 日本電気株式会社 道路環境情報通知装置及び道路環境情報通知プログラム
US8831869B2 (en) * 2009-03-31 2014-09-09 GM Global Technology Operations LLC Using V2X-based in-network message generation, aggregation, distribution and processing protocols to enable road hazard condition warning applications
US11465640B2 (en) * 2010-06-07 2022-10-11 Affectiva, Inc. Directed control transfer for autonomous vehicles
US8995956B2 (en) * 2011-09-23 2015-03-31 GM Global Technology Operations LLC System and method for vehicle based cellular offload
US9002060B2 (en) * 2012-06-28 2015-04-07 International Business Machines Corporation Object retrieval in video data using complementary detectors
US9767381B2 (en) * 2015-09-22 2017-09-19 Xerox Corporation Similarity-based detection of prominent objects using deep CNN pooling layers as features
US9965719B2 (en) * 2015-11-04 2018-05-08 Nec Corporation Subcategory-aware convolutional neural networks for object detection
US9672734B1 (en) * 2016-04-08 2017-06-06 Sivalogeswaran Ratnasingam Traffic aware lane determination for human driver and autonomous vehicle driving system
EP3614106B1 (en) * 2016-06-27 2021-10-27 Mobileye Vision Technologies Ltd. Controlling host vehicle based on detected parked vehicle characteristics
WO2018031673A1 (en) * 2016-08-10 2018-02-15 Surround.IO Corporation Method and system for providing information via collected and stored metadata using inferred attentional model
WO2018117631A1 (en) * 2016-12-21 2018-06-28 Samsung Electronics Co., Ltd. Electronic apparatus and method of operating the same
KR20180097944A (ko) * 2017-02-24 2018-09-03 재단법인대구경북과학기술원 공유 특징맵을 이용한 다중 객체 추적 장치 및 그 방법
US11308391B2 (en) * 2017-03-06 2022-04-19 Baidu Usa Llc Offline combination of convolutional/deconvolutional and batch-norm layers of convolutional neural network models for autonomous driving vehicles
US10147193B2 (en) * 2017-03-10 2018-12-04 TuSimple System and method for semantic segmentation using hybrid dilated convolution (HDC)
US10762359B2 (en) * 2017-08-31 2020-09-01 Nec Corporation Computer aided traffic enforcement using dense correspondence estimation with multi-level metric learning and hierarchical matching
US9934440B1 (en) * 2017-10-04 2018-04-03 StradVision, Inc. Method for monitoring blind spot of monitoring vehicle and blind spot monitor using the same
US9946960B1 (en) 2017-10-13 2018-04-17 StradVision, Inc. Method for acquiring bounding box corresponding to an object in an image by using convolutional neural network including tracking network and computing device using the same
US10007865B1 (en) * 2017-10-16 2018-06-26 StradVision, Inc. Learning method and learning device for adjusting parameters of CNN by using multi-scale feature maps and testing method and testing device using the same
US10866588B2 (en) * 2017-10-16 2020-12-15 Toyota Research Institute, Inc. System and method for leveraging end-to-end driving models for improving driving task modules
US10445597B2 (en) * 2017-10-17 2019-10-15 Toyota Research Institute, Inc. Systems and methods for identification of objects using audio and sensor data
US10528824B2 (en) * 2017-12-11 2020-01-07 GM Global Technology Operations LLC Artificial neural network for lane feature classification and localization
DE102018200982A1 (de) * 2018-01-23 2019-08-08 Volkswagen Aktiengesellschaft Verfahren zur Verarbeitung von Sensordaten in einer Anzahl von Steuergeräten, entsprechend ausgelegte Vorverarbeitungseinheit sowie Fahrzeug
US11086317B2 (en) * 2018-03-30 2021-08-10 Intel Corporation Emotional adaptive driving policies for automated driving vehicles
CN108491827B (zh) * 2018-04-13 2020-04-10 腾讯科技(深圳)有限公司 一种车辆检测方法、装置及存储介质
US11138745B2 (en) * 2018-04-30 2021-10-05 Uatc, Llc Object association for autonomous vehicles
US10739455B2 (en) * 2018-05-24 2020-08-11 GM Global Technology Operations LLC Method and apparatus for acquiring depth information using cameras from different vehicles
US11966838B2 (en) * 2018-06-19 2024-04-23 Nvidia Corporation Behavior-guided path planning in autonomous machine applications
US11024180B2 (en) * 2018-12-27 2021-06-01 Intel Corporation Methods and apparatus to validate data communicated by a vehicle

Also Published As

Publication number Publication date
CN111507160A (zh) 2020-08-07
KR20200095387A (ko) 2020-08-10
JP2020126637A (ja) 2020-08-20
US10796206B2 (en) 2020-10-06
CN111507160B (zh) 2023-11-14
EP3690744B1 (en) 2024-07-03
KR102301631B1 (ko) 2021-09-14
US20200250499A1 (en) 2020-08-06
EP3690744A1 (en) 2020-08-05

Similar Documents

Publication Publication Date Title
JP6910081B2 (ja) 協調走行を遂行する各車両から取得された各走行イメージを統合する方法及びこれを利用した走行イメージ統合装置
EP3686779B1 (en) Method and device for attention-based lane detection without post-processing by using lane mask and testing method and testing device using the same
JP6820030B2 (ja) 異なるラベルセットを有する複数のラベリングされたデータベースを用いて学習する方法及び装置、そしてこれを利用したテスト方法及び装置{learning method and learning device using multiple labeled databases with different label sets and testing method and testing device using the same}
JP6849898B2 (ja) 生成ニューラルネットワークと、判別ニューラルネットワークとを含む敵対的生成ネットワークを利用して、合成可否判断不可の合成イメージを生成する方法、及び装置
KR102309711B1 (ko) 유용한 학습 데이터를 취사 선별하기 위한 cnn 기반 학습 방법 및 학습 장치 그리고 이를 이용한 테스트 방법 및 테스트 장치
JP6847463B2 (ja) CNN(Convolutional Neural Network)を利用して車線を検出するための学習方法及び学習装置そしてこれを利用したテスト方法及びテスト装置{LEARNING METHOD, LEARNING DEVICE FOR DETECTING LANE USING CNN AND TEST METHOD, TEST DEVICE USING THE SAME}
CN110837778A (zh) 一种基于骨架关节点序列的交警指挥手势识别方法
US10919543B2 (en) Learning method and learning device for determining whether to switch mode of vehicle from manual driving mode to autonomous driving mode by performing trajectory-based behavior analysis on recent driving route
KR102539942B1 (ko) 궤적 계획 모델을 훈련하는 방법, 장치, 전자 기기, 저장 매체 및 프로그램
JP6869565B2 (ja) 危険要素検出に利用される学習用イメージデータセットの生成方法及びコンピューティング装置、そしてこれを利用した学習方法及び学習装置{method and computing device for generating image data set to be used for hazard detection and learning method and learning device using the same}
US11875551B2 (en) Collecting and processing data from vehicles
JP7092383B2 (ja) 各領域において最適化された自律走行を遂行できるように位置基盤アルゴリズムの選択によってシームレスパラメータ変更を遂行する方法及び装置
JP6867054B2 (ja) マルチカメラシステム内のダブルエンベディング構成を利用して、道路利用者イベントを検出するために用いられるセグメンテーション性能向上のための学習方法及び学習装置、そしてこれを利用したテスティング方法及びテスティング装置。{learning method and learning device for improving segmentation performance to be used for detecting road user events using double embedding configuration in multi−camera system and testing method and testing device using the same}
JP6980289B2 (ja) 車線モデルを利用して車線を検出し得る学習方法及び学習装置そしてこれを利用したテスト方法及びテスト装置{learning method, learning device for detecting lane using lane model and test method, test device using the same}
JP6892157B2 (ja) V2x情報融合技術によって取得された、各物体に対する深さ予測情報及び各物体に対するクラス情報を利用して3d空間を再構築することによりhdマップをアップデートする学習方法及び学習装置、そしてこれを利用したテスティング方法及びテスティング装置
KR20220019204A (ko) 자율주행 차량에서의 주행 경로 생성 및 제어 시스템 및 방법
JP6903352B2 (ja) 非最大値抑制を学習する併合ネットワークを利用した異種センサ融合のための学習方法及び学習装置{learning method and learning device for heterogeneous sensor fusion by using merging network which learns non−maximum suppression}
Aditya et al. Collision detection: An improved deep learning approach using SENet and ResNext
Bourja et al. Real time vehicle detection, tracking, and inter-vehicle distance estimation based on stereovision and deep learning using YOLOv3
JP6853543B2 (ja) 自律走行に対する論理的根拠を提示するために、管理者が物体検出器の検出プロセスを評価できるように支援する方法及び装置
Aswini et al. Custom Based Obstacle Detection Using Yolo v3 for Low Flying Drones
Singh et al. Improved YOLOv5l for vehicle detection: an application to estimating traffic density and identifying over speeding vehicles on highway scenes
JP2020135672A (ja) 交通流の推論
Bhatia et al. Road Image Segmentation for Autonomous Car
Das Vision-Based Lane and Vehicle Detection: A First Step Toward Autonomous Unmanned Vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210210

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210510

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210622

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210629

R150 Certificate of patent or registration of utility model

Ref document number: 6910081

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250