JP6833630B2 - 物体検出装置、物体検出方法およびプログラム - Google Patents

物体検出装置、物体検出方法およびプログラム Download PDF

Info

Publication number
JP6833630B2
JP6833630B2 JP2017122337A JP2017122337A JP6833630B2 JP 6833630 B2 JP6833630 B2 JP 6833630B2 JP 2017122337 A JP2017122337 A JP 2017122337A JP 2017122337 A JP2017122337 A JP 2017122337A JP 6833630 B2 JP6833630 B2 JP 6833630B2
Authority
JP
Japan
Prior art keywords
distance
image
vehicle
captured image
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017122337A
Other languages
English (en)
Other versions
JP2019008460A (ja
Inventor
玲子 野田
玲子 野田
友樹 渡辺
友樹 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2017122337A priority Critical patent/JP6833630B2/ja
Priority to EP18159704.8A priority patent/EP3418943B1/en
Priority to US15/911,607 priority patent/US10713507B2/en
Publication of JP2019008460A publication Critical patent/JP2019008460A/ja
Application granted granted Critical
Publication of JP6833630B2 publication Critical patent/JP6833630B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24137Distances to cluster centroïds
    • G06F18/2414Smoothing the distance, e.g. radial basis function networks [RBFN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Description

本発明の実施形態は、物体検出装置、物体検出方法およびプログラムに関する。
従来、単眼カメラで撮影した撮影画像から物体を検出する技術がある。また、いくつかの仮定を拘束条件として与えた上で、撮影画像から検出した物体までの距離を推定する技術も知られている。しかし、従来技術では、仮定が成立しない場合は物体までの距離を正しく推定することができず、例えば、物体として車両周辺の障害物を検出してその障害物を回避するように車両制御を行うといったアプリケーションでは、車両制御の信頼性の低下を招くといった懸念がある。このため、物体までの距離の推定精度を向上させることが求められている。
特許第4502733号公報
Arsalan Mousavian,Dragomir Anguelov,John Flynn,Jana Kosecka,3D Bounding Box Estimation Using Deep Learning and Geometry Arxiv 1612.00496
本発明が解決しようとする課題は、撮影画像を用いて物体までの距離を精度良く推定することができる物体検出装置、物体検出方法およびプログラムを提供することである。
実施形態の物体検出装置は、カメラにより撮像された撮影画像に基づき、検出対象である物体までの距離を算出する。前記物体検出装置は、検出部と、非線形処理部と、を備える。検出部は、前記撮影画像から前記物体を含む物体候補領域を検出する。非線形処理部は、前記撮影画像における前記物体候補領域を切り出した部分画像または前記部分画像の特徴を表す特徴マップをニューラルネットワークに入力して距離補正値を推定し前記カメラのカメラパラメータおよび前記撮影画像における前記物体候補領域の位置に基づき算出される前記物体までの推定距離を前記距離補正値により補正することにより、前記物体までの距離を算出し、少なくとも前記物体までの距離の情報を含む物体情報を出力する。前記ニューラルネットワークは、画像または前記画像の特徴を表す特徴マップを入力し、前記画像に含まれる前記物体の姿勢と、前記距離補正値とを同時に出力するように学習される。
実施形態の物体検出装置の構成例を示すブロック図。 検出機能による処理の一例を説明する図。 ニューラルネットワークの入力のバリエーションを説明する図。 非線形処理機能による処理の一例を説明する図。 非線形処理機能による処理の一例を説明する図。 非線形処理機能による処理の一例を説明する図。 非線形処理機能による処理の一例を説明する図。 非線形処理機能による処理の一例を説明する図。 ニューラルネットワークが推定する他車両の姿勢の一例を説明する図。 ニューラルネットワークが推定する他車両の姿勢の一例を説明する図。 ディスプレイに表示される画像例を示す図。 実施形態の物体検出装置の動作例を示すフローチャート。
以下に添付図面を参照して、実施形態の物体検出装置、物体検出方法およびプログラムについて詳しく説明する。実施形態の物体検出装置は、単眼カメラで撮影された撮影画像を元に撮影範囲内に存在する物体を検出し、少なくとも検出した物体までの距離の情報を含む物体情報を出力する。以下では、車両に搭載された物体検出装置を例に挙げて説明する。この場合、物体検出装置が検出する物体としては、例えば、当該物体検出装置が搭載された車両(以下、「自車両」と呼ぶ)の周辺に存在する他の車両(以下、「他車両」と呼ぶ)、歩行者、自転車やバイクなどの二輪車、信号機、標識、電柱、看板などの路側設置物など、自車両の走行の妨げになり得る障害物が挙げられる。物体検出装置は、自車両に設置された単眼カメラ(以下、「車載カメラ」と呼ぶ)により撮影された撮影画像を取得して、車載カメラの撮影範囲内の障害物を検出して物体情報を出力する。
図1は、本実施形態の物体検出装置1の構成例を示すブロック図である。この物体検出装置1は、例えば専用または汎用コンピュータを用いて構成され、図1に示すように、処理回路10、記憶回路20、通信部30、各部を接続するバス40を備える。この物体検出装置1には、車載カメラ2、ディスプレイ3、車両制御部4などが有線または無線により接続されている。
処理回路10は、取得機能11と、検出機能12と、非線形処理機能13とを有する。これらの各処理機能の具体的な内容については後述する。なお、図1では、本実施形態に関わる主要な処理機能を例示しているが、処理回路10が有する処理機能はこれらに限られるものではない。
物体検出装置1において実行される各処理機能は、例えば、コンピュータによって実行可能なプログラムの形態で記憶回路20に記憶されている。処理回路10は、記憶回路20からプログラムを読み出して実行することで、各プログラムに対応する処理機能を実現するプロセッサである。各プログラムを読み出した状態の処理回路10は、図1に示した各処理機能を有することになる。
なお、図1では、単一の処理回路10により取得機能11、検出機能12、非線形処理機能13の各処理機能が実現されるものとして図示しているが、複数の独立したプロセッサを組み合わせて処理回路10を構成しても構わない。この場合、各処理機能がプログラムとして構成されてもよいし、特定の機能が専用の独立したプログラム実行回路に実装されてもよい。
上述の「プロセッサ」は、例えば、CPU(Central Processing Unit)やGPU(Graphical Processing Unit)などの汎用プロセッサ、あるいは、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、フィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))などの回路を意味する。プロセッサは記憶回路20に保存されたプログラムを読み出し実行することで機能を実現する。なお、記憶回路20にプログラムを保存する代わりに、プロセッサの回路内にプログラムを直接組み込むよう構成しても構わない。この場合、プロセッサは回路内に組み込まれたプログラムを読み出し実行することで機能を実現する。
記憶回路20は、処理回路10の各処理機能に伴うデータなどを必要に応じて記憶する。本実施形態の記憶回路20は、プログラムと、各種の処理に用いられるデータとを記憶する。例えば、記憶回路20は、RAM(Random Access Memory)、フラッシュメモリなどの半導体メモリ素子、ハードディスク、光ディスクなどである。また、記憶回路20は、物体検出装置1の外部の記憶装置で代替されてもよい。記憶回路20は、LAN(Local Area Network)やインターネットなどにより伝達されたプログラムをダウンロードして記憶または一時記憶した記憶媒体であってもよい。また、記憶媒体は1つに限らず、複数の媒体から構成されてもよい。
通信部30は、有線または無線で接続された外部装置と情報の入出力を行うインタフェースである。通信部30は、ネットワークに接続して通信を行ってもよい。
車載カメラ2は、例えば、自車両の前方の車幅の中心位置近くに取り付けられた小型で安価な単眼カメラである。車載カメラ2は、モノクロ画像を撮像するカメラであってもよいし、カラー画像を撮像するカメラであってもよい。また、車載カメラ2は、可視光カメラであっても、赤外光の情報を取得できるカメラであってもよい。また、車載カメラ2は、自車両の後方や側方を撮影できるように取り付けられていてもよい。
ディスプレイ3は、例えば液晶表示器などの表示デバイスであり、各種の情報を表示する。本実施形態では、物体検出装置1が出力する物体検出情報を用いて描画された画像などをディスプレイ3に表示することができる。
車両制御部4は、自車両のアクセル量、ブレーキ量、操舵角などの制御を行う。本実施形態では、物体検出装置1が出力する物体情報を用いて車両制御部4が自車両周辺の障害物の自車両に対する挙動(相対的な動き)を推定し、障害物を回避するような制御を行うことができる。
次に、処理回路10が有する各処理機能について説明する。取得機能11は、車載カメラ2により撮影された撮影画像を取得する。取得機能11は、例えば、毎秒Nフレームの間隔で車載カメラ2から連続的に撮影画像を取得して、取得した撮影画像を検出機能12と非線形処理機能13とに随時出力する。なお、本実施形態では車載用途を想定しているため、取得機能11は車載カメラ2から撮影画像を取得するが、取得機能11は、例えば監視用途であれば建物内や電柱などの定置カメラとして取り付けられた単眼カメラから撮影画像を取得するなど、用途に応じて最適な単眼カメラから撮影画像を取得する構成であればよい。また、頭部装着型装置などに取り付けられて装着者の前方や側方、後方などを撮影する単眼カメラから撮影画像を取得する構成であってもよい。
検出機能12は、取得機能11から受け取った車載カメラ2の撮影画像から、検出の対象となる物体が映っている可能性がある領域(以下、「物体候補領域」と呼ぶ)を検出する。検出機能12は、1フレームの撮影画像から多数の物体候補領域を検出することが一般的であるが、1つの物体候補領域が検出されてもよい。検出の対象となる物体は、他車両、歩行者、二輪車、路側設置物のいずれかでもよいし、これらのうち複数の物体を同時に検出の対象としてもよい。以下では、検出の対象となる物体が他車両であることを想定して、検出機能12による処理の概要を説明する。
検出機能12による物体候補領域の検出は、車載カメラ2の撮影画像上で、検出の対象となる物体の大きさに相当する走査矩形を用いて物体の有無を判断することを基本とする。ここで、検出の対象となる物体として想定する他車両(車両)は路面上にあり、かつ、その大きさも車種によって違いはあるものの標準的な大きさからの乖離は小さい。したがって、標準的な車両の大きさと車載カメラ2のパラメータから、撮影画像上の位置に応じた走査矩形の大きさを設定することができる。
例えば、図2に示すように、車載カメラ2に近い場所に対応する撮影画像100上の位置においては、車載カメラ2に近い場所に存在する他車両Vを想定した大きさの走査矩形101を用いる。また、車載カメラ2から離れた場所に対応する撮影画像100上の位置においては、車載カメラ2から離れた場所に存在する他車両Vを想定した大きさの走査矩形102を用いる。そして、走査矩形101,102内の画像領域に対し、例えばHOG(Histograms of Oriented Gradients)やCoHOG(Co-occurrence Histograms of Oriented Gradients)などの画像特徴量を算出し、予め学習した識別器を用いて、走査矩形101,102内に他車両Vがあるか否かを判別するか、他車両Vらしさを示す尤度を出力する。ここで、画像特徴量はここに挙げたものだけではなく、画像から算出される特徴であれば何でも構わない。
また、上述のような走査矩形に対して画像特徴量を算出し、例えば予め学習したニューラルネットワークを用いて他車両であるか否かを示す尤度を出力してもよい。また、走査矩形内の画像を予め学習したニューラルネットワークに直接入力し、他車両であるか否かを示す尤度を出力してもよい。また、車載カメラ2の撮影画像の全体あるいは一部を予め学習したニューラルネットワークに入力して走査矩形に相当する位置の出力のみを取り出し、それらに対してさらにニューラルネットワークなどの非線形処理を行って他車両であるか否かを示す尤度を出力してもよい。
また、他車両と歩行者など、複数の物体を検出の対象とする場合には、走査矩形の形状や大きさのバリエーションをそれぞれの物体に対応させて複数に増やしてよい。また、例えば他車両だけを検出の対象としている場合であっても、縦向きの他車両を検出するための走査矩形の形状と、横向きの他車両を検出するための走査矩形の形状など、バリエーションを複数に増やしてもよい。
検出機能12は、例えば、走査矩形に対する尤度が予め設定された閾値以上の撮影画像上の領域を物体候補領域として検出し、その物体候補領域の撮影画像上の位置を示す情報や尤度などを含む候補領域情報を非線形処理機能13に出力する。あるいは、検出機能12は、走査矩形に対する尤度が高い順に撮影画像上の領域を並び替え、予め決められた上位N個の領域を物体候補領域として検出して候補領域情報を出力してもよい。また、走査矩形に対する尤度が高い撮影画像上の領域について、一定の重なりを持つものをグルーピングし、その中から尤度の高い順にN個、あるいは一定の閾値以上の尤度を持つものを物体候補領域として候補領域情報を出力してもよい。これは例えばNMS(Non-Maximum Suppression)という手法を用いて実現できる。撮影画像上の領域をグルーピングする際に、車載カメラ2からの距離がほぼ同じとみなせる領域のみをグルーピングの対象としてもよい。
非線形処理機能13は、少なくとも検出機能12により検出された物体候補領域を含む画像(撮影画像の一部または全部)に対して非線形処理を行って、少なくとも物体候補領域内の物体までの距離の情報を含む物体情報を出力する。非線形処理には、物体候補領域内の物体の姿勢とその物体までの距離とを同時に推定するニューラルネットワーク、つまり、物体候補領域内の物体の姿勢とその物体までの距離とを同時に推定するように学習されたニューラルネットワークを用いる。なお、本実施形態において「物体までの距離」とは、LIDAR(Light Detection and Ranging)などの距離センサにより計測される値である実際の距離だけでなく、既知の値から実際の距離を算出するために用いる値も含まれる。例えば、後述するように、車載カメラ2の撮影画像上における物体候補領域の位置から求まる距離と、物体候補領域内の物体までの実際の距離との差分に相当する値aは、「物体までの距離」の一例である。以下では、上述の検出機能12の説明と同様に、検出の対象となる物体が他車両であることを想定して、非線形処理機能13による処理の概要を説明する。
まず、非線形処理に用いるニューラルネットワークの入力のバリエーションについて説明する。ニューラルネットワークへの入力としては、取得機能11からある時刻に受け取った1フレームの撮影画像の全体を入力としてもよいし、撮影画像の一部を入力としてもよい。例えば、車載カメラ2が自車両の前方を撮影した撮影画像であれば、画像の上側の領域は他車両や歩行者が写っていないと仮定して、この上側の領域をトリミングしてニューラルネットワークに入力してもよい。また、検出機能12から受け取った候補領域情報に基づいて撮影画像上における物体候補領域の位置を特定し、その物体候補領域の画像のみをクリッピングしてニューラルネットワークに入力してもよい。
また、例えば図3に示すように、撮影画像100に含まれる物体候補領域111,112に対して、これら物体候補領域111,112よりもK倍大きな領域121,122をクリッピングしてニューラルネットワークに入力してもよい。このとき、領域121,122は一部が撮影画像100からはみ出してよい。その場合は、はみ出した領域を例えば黒に相当する画素値で埋めてもよいし、はみ出した領域を撮影画像100の端部の画素値で埋めてもよい。なお、はみ出した領域を埋める方法はここで示しただけでなく、別の方法でも構わない。
また、ニューラルネットワークに入力する画像のデータは、R,G,Bのカラー画像でもよいし、色空間を変換した例えばY,U,Vのカラー画像でもよい。また、カラー画像をモノクロ化した1チャンネルの画像としてニューラルネットワークに入力しても構わない。また、画像そのままではなく、例えばR,G,Bのカラー画像であれば、各チャンネルの画素値の平均値を引いた画像、平均値を引いて分散で割った正規化画像などをニューラルネットワークに入力しても構わない。また、ある時刻の1フレームの撮影画像あるいその一部をニューラルネットワークに入力してもよいし、ある時刻を基準に前後数時刻分の複数フレームの撮影画像、あるいは複数フレームの撮影画像それぞれの一部をニューラルネットワークに入力してもよい。
次に、ニューラルネットワークによる非線形処理のバリエーションについて説明する。ニューラルネットワークは、入力された画像データに対して非線形処理を行い、検出機能12によって撮影画像から検出された物体候補領域内に含まれる物体の姿勢と距離を推定するための特徴マップを得る。そして、得られた特徴マップを用いて物体の姿勢と物体までの距離を推定し、結果を出力する。
検出機能12によって検出された物体候補領域の画像だけでなく、車載カメラ2の撮影画像の全体あるいは不要な部分をトリミングした画像がニューラルネットワークに入力される場合は、その画像に対応する特徴マップが得られる。この場合、非線形処理機能13は、検出機能12から受け取った候補領域情報に基づいて、図4に示すように、物体候補領域111に対応する特徴マップを切り出して物体の姿勢と距離の推定に用いる。特徴マップの切り出しは、例えば、ROI−Pooling(Fast R-CNN、Ross Girshick、ICCV2015)という手法を用いて実現できる。このとき、例えば図5に示すように、物体候補領域111に対応する特徴マップだけでなく、物体候補領域111に対してK倍大きな領域121に対応する特徴マップを切り出し、双方あるいはいずれか一方の特徴マップを物体の姿勢と距離の推定に用いてもよい。
一方、例えば図6に示すように、車載カメラ2の撮影画像100から検出機能12によって検出された物体候補領域111の画像をクリッピングしてニューラルネットワークに入力する場合には、物体候補領域111に対応する特徴マップが得られる。したがって、この場合は、得られた特徴マップをそのまま物体の姿勢と距離の推定に用いればよい。また、例えば図7に示すように、物体候補領域111よりもK倍大きな領域121の画像をクリッピングしてニューラルネットワークに入力した場合は、この領域121に対応する特徴マップが得られる。この場合は、この領域121に対応する特徴マップをそのまま物体の姿勢と距離の推定に用いてもよいし、例えば図8に示すように、領域121に対応する特徴マップから物体候補領域111に対応する特徴マップを切り出して、領域121に対応する特徴マップと物体候補領域111に対応する特徴マップの双方あるいはいずれか一方を物体の姿勢と距離の推定に用いてもよい。
次に、ニューラルネットワークの出力のバリエーションについて説明する。ニューラルネットワークの出力は、例えば、物体候補領域内に含まれる物体の姿勢とその物体までの距離である。
自車両の進行方向を撮影するように取り付けられた車載カメラ2とその撮影範囲内に存在する他車両Vとを俯瞰した様子を図9に示す。図9に示すように、車載カメラ2から他車両Vの重心Cを通る直線L1と、他車両Vの重心Cから他車両Vの進行方向を結ぶ直線L2とがなす角度(向き)αを、他車両Vの姿勢としてニューラルネットワークを用いて推定することができる。また、車載カメラ2の光軸と直交する直線L3と、他車両Vの重心Cから他車両Vの進行方向を結ぶ直線L2とがなす角度θを、他車両Vの姿勢としてニューラルネットワークを用いて推定して出力してもよい。
また、例えば図10に示すように、車載カメラ2の撮影画像100において他車両Vに外接する直方体Bが路面と接する面(長方形)の4つの頂点p1,p2,p3,p4のうち、例えば自車両から見えている少なくとも2つの頂点の撮影画像100上での位置を、それぞれ他車両Vの姿勢としてニューラルネットワークを用いて推定して出力してもよい。
他車両までの距離については、上述のように、他車両までの実際の距離(LIDARなどの距離センサで計測される距離)をニューラルネットワークにより推定して出力してもよいし、既知の値から実際の距離を算出するために用いる値をニューラルネットワークにより推定して出力してもよい。既知の値から実際の距離を算出するために用いる値としては、例えば、車載カメラ2の撮影画像上における物体候補領域の位置から求まる距離Zlと、他車両までの実際の距離Zrとの差分に相当する値aが挙げられる。この場合、例えば下記式(1)を満たす値aを予め学習によって回帰するようにニューラルネットワークを学習しておく。そして、車載カメラ2の撮影画像上における物体候補領域の位置から求まる距離Zlと、ニューラルネットワークが出力する値aとを下記式(1)に代入することにより、他車両までの実際の距離Zrを算出することができる。
Zr=Zl×a+Zl ・・・(1)
なお、既知の値から実際の距離Zrを算出するために用いる値は、上述の差分に相当する値aに限らない。
また、ニューラルネットワークの出力として、さらに、検出機能12によって検出された物体候補領域を、その物体候補領域内に含まれる他車両が正確に外接する別の矩形により囲まれた、より正確な物体候補領域に修正する値をさらに出力してもよい。また、非線形処理機能13が用いるニューラルネットワークは、さらに、物体候補領域内に他車両が含まれるか否かを示す尤度をさらに出力してもよい。
非線形処理機能13が用いるニューラルネットワークとしては、以上説明した入力のバリエーションや出力のバリエーションに応じて、入力された画像および物体候補領域に対して予め与えられた正解データとニューラルネットワークの出力とから計算される損失を小さくするように学習されたものを用いる。ここで、正解データとは、例えば、物体候補領域内に含まれる物体のラベルと、その物体に正しく外接する矩形を示す情報、物体の姿勢、物体までの距離を含むデータである。物体のラベルは、ニューラルネットワークが他車両のみを検出の対象とし、他車両の姿勢と他車両までの距離とを推定することを目的としているのであれば、例えば、物体候補領域と最も重なり率の高い他車両の外接矩形と、物体候補領域を示す矩形の重なり率が一定の閾値以上である場合には1、そうでない場合には0などとして与えることができる。
また、物体の姿勢については、物体候補領域内に一定以上の重なり率の他車両がある場合に、例えばその他車両の図9に示した角度αを、学習用の画像を撮影した際に同時に計測したLIDARなどの距離センサによる点群の情報などを利用して計測しておき、正解として与えることができる。また、図10に示したように、他車両Vに外接する直方体Bが路面と接する面の4つの頂点p1、p2,p3,p4の撮影画像100上での位置を、他車両Vの姿勢の正解として与えることもできる。この際、向きによって見えない頂点は正解として設定しなくてもよい。
同様に、物体までの距離については、例えば学習用の画像を撮影した際に同時にLIDARなどの距離センサで計測した他車両までの距離を正解データとしてもよい。あるいは、LIDARなどの距離センサで計測した距離に対して、車載カメラ2の撮影画像上における物体候補領域の位置から求まる距離との誤差に相当する値、すなわち上記式(1)で示される値aを正解データとしてもよい。
本実施形態の非線形処理機能13は、以上のように、物体の姿勢と物体までの距離とを同時に推定するように予め学習されたニューラルネットワークを用いることで、物体がどのような姿勢であっても、その物体までの距離を正しく推定することができる。なお、物体のラベルに対する損失は、例えば交差エントロピー誤差、外接矩形や姿勢、距離については、二乗誤差やSmooth L1誤差などで定義することができる。物体ラベル、外接矩形、姿勢、距離などのそれぞれの損失を足し合わせることにより、ニューラルネットワーク全体の損失を計算することができ、誤差伝搬法などによりニューラルネットワークの重みを共有しながら、それぞれの損失を最小化するように学習することが可能となる。
また、画像の入力から特徴マップを得るまでの処理と、特徴マップから物体の姿勢と物体までの距離を推定して出力するまでの処理とを異なるニューラルネットワークとしてそれぞれ予め学習しておいてもよいし、画像の入力から物体の姿勢および物体までの距離の出力までを1つのニューラルネットワークとして予め学習しておいてもよい。また、検出機能12での物体候補領域の検出にニューラルネットワークを用いる場合、検出機能12で用いるニューラルネットワークと非線形処理機能13で用いるニューラルネットワークとを1つのネットワークとして予め学習しておいてもよい。
また、複数種類の物体(例えば他車両と歩行者など)を同時に検出の対象とする場合は、検出の対象となる物体ごとに異なるニューラルネットワークを予め学習して用いてもよいし、同じニューラルネットワークを予め学習して用いてもよい。また、検出の対象となる物体が他車両であっても、乗用車とトラック、バスなどの車種ごとに異なるニューラルネットワークを予め学習して姿勢や距離の推定に用い、例えばもっとも尤度が高い結果を出力としてもよい。
また、1フレームの撮影画像から多数の物体候補領域が検出された場合、ニューラルネットワークが上述のように物体候補領域を修正する値や物体らしさを示す尤度をさらに出力する構成であれば、例えばニューラルネットワークが出力した物体らしさを示す尤度と修正後の物体候補領域の情報をもとに、一定の重なりを持つ物体候補領域をグルーピングし、その中から尤度の高い順にN個、あるいは一定の閾値以上の尤度を持つ物体候補領域に対する推定結果のみを出力してもよい。これは例えば上述のNMSという手法を用いて実現できる。
非線形処理機能13は、ニューラルネットワークが出力する物体の姿勢と距離の情報をそのまま物体情報として出力してもよいし、ニューラルネットワークの出力を加工して物体情報として出力してもよい。例えば、ニューラルネットワークが距離の情報として上述の相対距離を示す値a(距離Zlと距離Zrとの差分に相当する値)を出力する場合、非線形処理機能13は、車載カメラ2のカメラパラメータと撮影画像上の物体候補領域の位置から距離Zlを求め、この距離Zlとニューラルネットワークが出力する値aとを用いて実際の距離Zrを算出し、実際の距離Zrを含む物体情報を出力してもよい。
また、非線形処理機能13は、ニューラルネットワークが出力する姿勢と距離の情報を用いて物体の3次元位置と向きを計算し、物体の3次元位置と向きを含む物体情報を出力してもよい。例えば、自車両の進行方向を撮影するように取り付けられた車載カメラ2の撮影画像から他車両を検出する場合、非線形処理機能13は、ニューラルネットワークが出力する姿勢と距離の情報を用いて他車両が自車両に対してどの位置にいるかを計算し、他車両の3次元位置と自車両に対する向きを物体情報として出力してもよい。これは、例えば、非線形処理機能13のニューラルネットワークの出力から、撮影画像中の他車両を囲む外接矩形の左上の座標(x1,y1)と右下の座標(x2,y2)、他車両までの実際の距離Zrと、他車両の向きα(図9参照)が得られる場合に、これらの値と、車載カメラ2のパラメータ行列を用いると、公知の手法を用いて他車両の3次元位置と上面から見た時の他車両の向きを求めることが可能である。なお、ニューラルネットワークが出力する物体の姿勢の情報は3次元位置の計算のみに用い、姿勢(向き)の情報を含まない物体情報を出力してもよい。
非線形処理機能13が出力する物体情報は、例えば、本実施形態の物体検出装置1に接続された車両制御部4が自車両の車両制御を行うために利用することができる。車両制御部4は、例えば、衝突回避システムや自動ブレーキシステム、車間自動制御システム、自動運転制御システムなどを含む。例えば、衝突回避システムは、車載カメラ2の撮影画像のフレームごとに出力される物体情報を用いて、自車両に対する他車両の動きを表す軌跡を推定し、m秒後に衝突する確率を計算することが可能である。また、その結果に基づいて、自動ブレーキシステムを作動させるか否かの判定に用いることもできる。また、車間自動制御システムは、車載カメラ2の撮影画像のフレームごとに出力される物体情報を用いて、障害物を避けて現在走行中の車線を保ち、かつ前方を走行する他車両との車間距離を所定距離以上保つように自車両の制御を行うことができる。また、自動運転制御システムは、車載カメラ2の撮影画像のフレームごとに出力される物体情報を用いて、障害物を回避した走行経路を計算し、その走行経路に従って自律走行するように自車両の制御を行うことができる。
また、非線形処理機能13が出力する物体情報は、例えば、本実施形態の物体検出装置1に接続されたディスプレイ3に障害物の情報を画像として表示するために利用することができる。例えば図11に示すように、非線形処理機能13が出力する物体情報に基づいて自車両V0に対する他車両V1,V2,V3の位置と姿勢を示す画像200を描画してディスプレイ3に表示することができる。図11に示す画像例では、自車両V0の位置を基準として、他車両V1,V2,V3を示す矩形の描画位置によりこれら他車両V1,V2,V3までの距離が示され、矩形の描画角度によりこれら他車両V1,V2,V3の姿勢が示されている。なお、矩形の太線部分が他車両V1,V2,V3の前方(進行方向)を表している。
図12は、以上説明した本実施形態の物体検出装置1(処理回路10)の動作例を示すフローチャートである。なお、図12の各ステップの具体的な内容は上述した通りであるので、詳細な説明は適宜省略する。
まず、処理回路10の取得機能11が、車載カメラ2(単眼カメラ)により撮影された撮影画像を取得する(ステップS101)。次に、処理回路10の検出機能12が、ステップS101で取得された撮影画像から、少なくとも1つの物体候補領域を検出する(ステップS102)。次に、処理回路10の非線形処理機能13が、ステップS101で取得された撮影画像と、ステップS102で検出された物体候補領域を示す候補領域情報とに基づいて、物体候補領域内の物体の姿勢とその物体までの距離を推定する(ステップS103)。このとき、非線形処理機能13は、物体候補領域内の物体の姿勢と距離とを同時に推定するように学習されたニューラルネットワークを用いて、物体候補領域内の物体の姿勢とその物体までの距離を推定する。そして、非線形処理機能13は、少なくとも物体までの距離の情報を含む物体情報を出力する(ステップS104)。
以上説明したように、本実施形態の物体検出装置1は、車載カメラ2(単眼カメラ)により撮影された撮影画像から物体候補領域を検出し、物体の姿勢と物体までの距離とを同時に推定するように学習されたニューラルネットワークを用いて、物体候補領域内の物体までの距離を推定する。したがって、本実施形態の物体検出装置1によれば、車載カメラ2(単眼カメラ)で撮影した画像を用いて物体までの距離を精度良く推定することができる。
例えば、検出の対象となる物体を他車両とした場合、本実施形態の物体検出装置1によれば、車載カメラ2の撮影画像に写る他車両の姿勢と距離を、ニューラルネットワークを用いて直接推定するので、例えば路面形状に関わらず、走行車線前方の他車両の自車両に対する位置や向きを正確に推定でき、衝突回避や自動ブレーキ、経路生成などに利用することができる。
また、本実施形態の物体検出装置1は、物体までの距離として、車載カメラ2の撮影画像上における物体候補領域の位置から求まる距離Zlと物体までの実際の距離Zrとの差分に相当する値aを、ニューラルネットワークを用いて推定する構成とすることにより、カメラパラメータに依存せずにニューラルネットワークを適切に学習することができ、実際の使用時には物体までの距離を精度良く推定することができる。
なお、本実施形態の物体検出装置1の上述の処理機能は、上述したように、例えばコンピュータを用いて構成される物体検出装置1がプログラムを実行することにより実現される。この場合、本実施形態の物体検出装置1で実行されるプログラムを、インターネットなどのネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するようにしてもよい。また、本実施形態の物体検出装置1で実行されるプログラムを、インターネットなどのネットワーク経由で提供または配布するようにしてもよい。さらに、本実施形態の物体検出装置1で実行されるプログラムを、ROMなどの不揮発性の記録媒体に予め組み込んで提供するようにしてもよい。
以上、本発明の実施形態を説明したが、上述の実施形態は例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら新規な実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
1 物体検出装置
2 車載カメラ
3 ディスプレイ
4 車両制御部
10 処理回路
11 取得機能
12 検出機能
13 非線形処理機能

Claims (11)

  1. カメラにより撮像された撮影画像に基づき、検出対象である物体までの距離を算出する物体検出装置であって、
    前記撮影画像から前記物体を含む物体候補領域を検出する検出部と、
    前記撮影画像における前記物体候補領域を切り出した部分画像または前記部分画像の特徴を表す特徴マップをニューラルネットワークに入力して距離補正値を推定し前記カメラのカメラパラメータおよび前記撮影画像における前記物体候補領域の位置に基づき算出される前記物体までの推定距離を前記距離補正値により補正することにより、前記物体までの距離を算出し、少なくとも前記物体までの距離の情報を含む物体情報を出力する非線形処理部と、
    を備え、
    前記ニューラルネットワークは、画像または前記画像の特徴を表す特徴マップを入力し、前記画像に含まれる前記物体の姿勢と、前記距離補正値とを同時に出力するように学習される
    体検出装置。
  2. 前記距離補正値は、前記撮影画像上における前記物体候補領域の位置から算出される前記推定距離と前記物体までの実際の距離との差分に相当する値である、
    請求項1に記載の物体検出装置。
  3. 前記非線形処理部は、前記差分に相当する値を用いて前記物体までの実際の距離を算出し、前記物体までの実際の距離の情報を含む前記物体情報を出力する、
    請求項2に記載の物体検出装置。
  4. 前記非線形処理部は、前記物体までの距離の情報と前記物体の姿勢を表す情報とを含む前記物体情報を出力する、
    請求項1乃至3のいずれか一項に記載の物体検出装置。
  5. 前記検出部は、CoHOG特徴を用いて前記撮影画像から前記物体候補領域を検出する、
    請求項1乃至4のいずれか一項に記載の物体検出装置。
  6. 前記検出部は、前記物体の大きさに相当する走査矩形であり前記撮影画像上の位置に応じた大きさの前記走査矩形を用いて、前記撮影画像から前記物体を検出し、前記撮影画像における検出した前記物体を含む物体候補領域を検出する
    請求項1乃至のいずれか一項に記載の物体検出装置。
  7. 前記撮影画像は車載カメラにより撮影された画像であり、
    前記物体は車両、歩行者、二輪車、路側設置物の少なくともいずれかである、
    請求項1乃至6のいずれか一項に記載の物体検出装置。
  8. 前記車載カメラは単眼カメラである、
    請求項7に記載の物体検出装置。
  9. 前記物体情報に基づいて、前記車載カメラが搭載された車両を制御する車両制御部をさらに備える、
    請求項7または8に記載の物体検出装置。
  10. カメラにより撮像された撮影画像に基づき、検出対象である物体までの距離を算出する物体検出方法であって、
    前記撮影画像から前記物体を含む物体候補領域を検出するステップと、
    前記撮影画像における前記物体候補領域を切り出した部分画像または前記部分画像の特徴を表す特徴マップをニューラルネットワークに入力して距離補正値を推定し前記カメラのカメラパラメータおよび前記撮影画像における前記物体候補領域の位置に基づき算出される前記物体までの推定距離を前記距離補正値により補正することにより、前記物体までの距離を算出し、少なくとも前記物体までの距離の情報を含む物体情報を出力するステップと、
    を含み、
    前記ニューラルネットワークは、画像または前記画像の特徴を表す特徴マップを入力し、前記画像に含まれる前記物体の姿勢と、前記距離補正値とを同時に出力するように学習される
    体検出方法。
  11. コンピュータを、カメラにより撮像された撮影画像に基づき、検出対象である物体までの距離を算出する物体検出装置として機能させるためのプログラムであって、
    コンピュータに、
    前記撮影画像から前記物体を含む1つ以上の物体候補領域を検出する機能と、
    前記撮影画像における前記物体候補領域を切り出した部分画像または前記部分画像の特徴を表す特徴マップをニューラルネットワークに入力して距離補正値を推定し前記カメラのカメラパラメータおよび前記撮影画像における前記物体候補領域の位置に基づき算出される前記物体までの推定距離を前記距離補正値により補正することにより、前記物体までの距離を算出し、少なくとも前記物体までの距離の情報を含む物体情報を出力する機能と、
    を実現させ、
    前記ニューラルネットワークは、画像または前記画像の特徴を表す特徴マップを入力し、前記画像に含まれる前記物体の姿勢と、前記距離補正値とを同時に出力するように学習される
    プログラム。
JP2017122337A 2017-06-22 2017-06-22 物体検出装置、物体検出方法およびプログラム Active JP6833630B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017122337A JP6833630B2 (ja) 2017-06-22 2017-06-22 物体検出装置、物体検出方法およびプログラム
EP18159704.8A EP3418943B1 (en) 2017-06-22 2018-03-02 Object detecting apparatus, object detecting method, and computer-readable medium
US15/911,607 US10713507B2 (en) 2017-06-22 2018-03-05 Object detecting apparatus, object detecting method, and computer program product

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017122337A JP6833630B2 (ja) 2017-06-22 2017-06-22 物体検出装置、物体検出方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2019008460A JP2019008460A (ja) 2019-01-17
JP6833630B2 true JP6833630B2 (ja) 2021-02-24

Family

ID=61557185

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017122337A Active JP6833630B2 (ja) 2017-06-22 2017-06-22 物体検出装置、物体検出方法およびプログラム

Country Status (3)

Country Link
US (1) US10713507B2 (ja)
EP (1) EP3418943B1 (ja)
JP (1) JP6833630B2 (ja)

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6930120B2 (ja) * 2017-02-02 2021-09-01 株式会社リコー 表示装置、移動体装置及び表示方法。
JP2019096072A (ja) 2017-11-22 2019-06-20 株式会社東芝 物体検出装置、物体検出方法およびプログラム
KR102612821B1 (ko) * 2017-12-11 2023-12-12 엘지전자 주식회사 차량용 전자 장치 및 차량용 전자 장치의 동작 방법
JP7204326B2 (ja) * 2018-01-15 2023-01-16 キヤノン株式会社 情報処理装置及びその制御方法及びプログラム、並びに、車両の運転支援システム
CN108921840A (zh) * 2018-07-02 2018-11-30 北京百度网讯科技有限公司 显示屏***电路检测方法、装置、电子设备及存储介质
DE102019124809A1 (de) * 2018-09-21 2020-03-26 Fanuc Corporation Bildgebungsvorrichtung und Bildgebungssystem
US10395140B1 (en) * 2019-01-23 2019-08-27 StradVision, Inc. Learning method and learning device for object detector based on CNN using 1×1 convolution to be used for hardware optimization, and testing method and testing device using the same
US10956755B2 (en) 2019-02-19 2021-03-23 Tesla, Inc. Estimating object properties using visual image data
JP7230596B2 (ja) * 2019-03-08 2023-03-01 マツダ株式会社 自動車用演算システム
JP6965298B2 (ja) * 2019-03-18 2021-11-10 株式会社東芝 物体検出装置、物体検出方法、プログラム、および移動体
JP6965299B2 (ja) * 2019-03-18 2021-11-10 株式会社東芝 物体検出装置、物体検出方法、プログラム、および移動体
CN110020633B (zh) * 2019-04-12 2022-11-04 腾讯科技(深圳)有限公司 姿态识别模型的训练方法、图像识别方法及装置
JP7286406B2 (ja) * 2019-05-07 2023-06-05 アルパイン株式会社 画像分析システムおよび画像分析方法
CN112109717A (zh) * 2019-06-19 2020-12-22 商汤集团有限公司 一种智能驾驶控制方法及装置、电子设备
CN110246183B (zh) * 2019-06-24 2022-07-15 百度在线网络技术(北京)有限公司 车轮接地点检测方法、装置及存储介质
JP2021006011A (ja) * 2019-06-27 2021-01-21 株式会社クボタ 農作業車のための障害物検出システム
JP7226553B2 (ja) 2019-07-22 2023-02-21 日本電気株式会社 情報処理装置、データ生成方法、及びプログラム
CN110674696B (zh) * 2019-08-28 2023-01-13 珠海格力电器股份有限公司 一种监控方法、装置、***、监控设备及可读存储介质
CN110619307B (zh) * 2019-09-18 2020-09-18 广州文远知行科技有限公司 交通灯状态确定方法、装置、设备和存储介质
CN110706291A (zh) * 2019-09-26 2020-01-17 哈尔滨工程大学 一种适用于水池实验中运动物体三维轨迹的视觉测量方法
JP7379065B2 (ja) 2019-10-08 2023-11-14 キヤノン株式会社 情報処理装置、情報処理方法、およびプログラム
US11145074B2 (en) * 2019-10-17 2021-10-12 Toyota Research Institute, Inc. Systems and methods for depth estimation using monocular images
WO2021205616A1 (ja) * 2020-04-09 2021-10-14 三菱電機株式会社 移動体制御装置、移動体制御方法、および、学習装置
JP7479925B2 (ja) 2020-05-14 2024-05-09 キヤノン株式会社 画像処理システム、画像処理方法、及びプログラム
KR20210152741A (ko) 2020-06-09 2021-12-16 삼성전자주식회사 첨단 운전자 지원 장치 및 이의 객체를 검출하는 방법
CN111695491B (zh) * 2020-06-10 2023-12-19 阿波罗智联(北京)科技有限公司 用于检测行人的方法和装置
JP7323716B2 (ja) 2020-06-11 2023-08-08 日立Astemo株式会社 画像処理装置および画像処理方法
JP7446985B2 (ja) 2020-12-15 2024-03-11 株式会社東芝 学習方法、プログラム及び画像処理装置
WO2022255152A1 (ja) * 2021-06-03 2022-12-08 ソニーグループ株式会社 測定装置、測定方法、プログラム
JP7447874B2 (ja) 2021-07-02 2024-03-12 Jfeスチール株式会社 鋼板の蛇行量推定モデルの生成方法、鋼板の蛇行量推定方法、鋼板の蛇行制御方法、及び鋼板の製造方法
JP7468481B2 (ja) 2021-08-24 2024-04-16 Jfeスチール株式会社 鋼板の蛇行量推定モデルの生成方法、蛇行量推定方法、及び製造方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06147830A (ja) * 1992-11-11 1994-05-27 Mitsubishi Electric Corp 3次元位置測定装置及び3次元位置測定結果補正方法
JP3394287B2 (ja) * 1993-06-18 2003-04-07 政典 杉坂 自立走行車
JPH0780790A (ja) * 1993-09-16 1995-03-28 Fujitsu Ltd 三次元物体把持システム
JP4502733B2 (ja) 2004-07-15 2010-07-14 ダイハツ工業株式会社 障害物測定方法及び障害物測定装置
JP4931218B2 (ja) * 2007-02-22 2012-05-16 キヤノン株式会社 撮像装置、物体検出方法及び姿勢パラメータの算出方法
JP6495696B2 (ja) * 2015-03-13 2019-04-03 株式会社東芝 画像収集装置、画像収集方法及びコンピュータプログラム
US10019657B2 (en) * 2015-05-28 2018-07-10 Adobe Systems Incorporated Joint depth estimation and semantic segmentation from a single image
CN107298021B (zh) * 2016-04-15 2022-03-08 松下电器(美国)知识产权公司 信息提示控制装置、自动驾驶车及其驾驶辅助***
EP3497405B1 (en) * 2016-08-09 2022-06-15 Nauto, Inc. System and method for precision localization and mapping
US10235771B2 (en) * 2016-11-11 2019-03-19 Qualcomm Incorporated Methods and systems of performing object pose estimation
US10296828B2 (en) * 2017-04-05 2019-05-21 Here Global B.V. Learning a similarity measure for vision-based localization on a high definition (HD) map
US10217297B2 (en) * 2017-04-19 2019-02-26 Ford Global Technologies, Llc Control module activation to monitor vehicles in a key-off state
US10444759B2 (en) * 2017-06-14 2019-10-15 Zoox, Inc. Voxel based ground plane estimation and object segmentation
WO2018229549A2 (en) * 2017-06-16 2018-12-20 Nauto Global Limited System and method for digital environment reconstruction

Also Published As

Publication number Publication date
JP2019008460A (ja) 2019-01-17
EP3418943B1 (en) 2023-11-29
US10713507B2 (en) 2020-07-14
EP3418943A1 (en) 2018-12-26
US20180373942A1 (en) 2018-12-27

Similar Documents

Publication Publication Date Title
JP6833630B2 (ja) 物体検出装置、物体検出方法およびプログラム
JP7228652B2 (ja) 物体検出装置、物体検出方法およびプログラム
US11458912B2 (en) Sensor validation using semantic segmentation information
US11138750B2 (en) Distance estimating method and apparatus
US11338807B2 (en) Dynamic distance estimation output generation based on monocular video
US10825186B2 (en) Information processing device, information processing method, and computer program product
CN112292711A (zh) 关联lidar数据和图像数据
US20170359561A1 (en) Disparity mapping for an autonomous vehicle
US20220373353A1 (en) Map Updating Method and Apparatus, and Device
WO2021226921A1 (en) Method and system of data processing for autonomous driving
CN111086521A (zh) 校准方法、校准装置以及非暂时性计算机记录媒体
CN112802092B (zh) 一种障碍物感知方法、装置以及电子设备
US10733464B2 (en) Method, system and device of obtaining 3D-information of objects
JP7077726B2 (ja) 車両システム、空間領域推測方法及び空間領域推測装置
CN116592872A (zh) 一种更新占据栅格地图的方法及其装置、相关设备
CN112334947A (zh) 基于传感器和存储器表示周围环境的方法、显示装置和具有显示装置的车辆
US11715277B2 (en) Perception system for autonomous vehicles
US11734845B2 (en) System and method for self-supervised monocular ground-plane extraction
US20230098314A1 (en) Localizing and updating a map using interpolated lane edge data
US11373389B2 (en) Partitioning images obtained from an autonomous vehicle camera
JP2022161066A (ja) 表示制御システム、表示制御方法及びプログラム
EP4266261A1 (en) 3d road surface estimation for automated driving systems
KR20190066396A (ko) 이종 카메라를 이용한 충돌 경고 방법 및 장치
US11461922B2 (en) Depth estimation in images obtained from an autonomous vehicle camera
CN116457843A (zh) 飞行时间物体检测电路和飞行时间物体检测方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190813

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201002

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201013

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210203

R151 Written notification of patent or utility model registration

Ref document number: 6833630

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151