JP7020353B2 - 物体検出装置 - Google Patents

物体検出装置 Download PDF

Info

Publication number
JP7020353B2
JP7020353B2 JP2018177528A JP2018177528A JP7020353B2 JP 7020353 B2 JP7020353 B2 JP 7020353B2 JP 2018177528 A JP2018177528 A JP 2018177528A JP 2018177528 A JP2018177528 A JP 2018177528A JP 7020353 B2 JP7020353 B2 JP 7020353B2
Authority
JP
Japan
Prior art keywords
vehicle
detection
relative
detected
relative position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018177528A
Other languages
English (en)
Other versions
JP2020047210A (ja
Inventor
純 小澤
哲平 太田
善貴 及川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2018177528A priority Critical patent/JP7020353B2/ja
Priority to US16/520,974 priority patent/US10970870B2/en
Priority to CN201910705848.7A priority patent/CN110940974B/zh
Publication of JP2020047210A publication Critical patent/JP2020047210A/ja
Application granted granted Critical
Publication of JP7020353B2 publication Critical patent/JP7020353B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/932Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles using own vehicle data, e.g. ground speed, steering wheel direction
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9323Alternative operation using light waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93271Sensor installation details in the front of the vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30236Traffic on road, railway or crossing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Image Analysis (AREA)
  • Navigation (AREA)

Description

本発明は、自車両の周囲の物体を検出する物体検出装置に関する。
例えば、特許文献1には、自車両の周囲のカメラ画像に基づいて物体を検出すると共に、自車両の周囲の物体を検出するレーダセンサの検出結果に基づいて物体を検出する装置が記載されている。このような装置では、自車両を原点とする絶対位置座標を用い、カメラ画像に基づいて検出された物体の絶対位置と、レーダセンサを用いて検出された物体の絶対位置とを比較することによって、両物体の同一判定を行っている。
特開2016-066182号公報
例えば、広角レンズを用いたこと等によるカメラ画像の歪み等により、カメラ画像に基づく物体の絶対位置の検出精度(距離精度)が低下することがある。この場合、カメラ画像に基づいて検出された物体とレーダセンサによって検出された物体との同一判定を精度良く行うことができない。このため、本技術分野では、カメラ画像に基づいて検出された物体とレーダセンサを用いて検出された物体との同一判定を精度良く行うことが望まれている。
本発明の一側面は、自車両の周囲の物体を検出する物体検出装置であって、自車両の周囲を撮像するカメラと、カメラで撮像されたカメラ画像に基づいて、カメラ画像中の第1物体を検出すると共に、自車両に対する第1物体が存在する方向を示す第1相対角度、及びカメラ画像中の道路構造物に対する第1物体の相対位置である第1相対位置を検出する第1物体検出部と、自車両の地図上の位置を認識する車両位置認識部と、道路構造物の地図上の位置を含む地図情報を記憶する地図データベースと、自車両の周囲に電波又は光を照射し、照射した電波又は光の反射波を受信するレーダセンサと、レーダセンサの受信結果に基づいて、自車両の周囲の第2物体を検出すると共に、自車両に対する第2物体が存在する方向を示す第2相対角度、及び自車両と第2物体との相対距離を検出する第2物体検出部と、地図情報に含まれる道路構造物の地図上の位置、車両位置認識部で認識された自車両の地図上の位置、並びに、第2物体検出部で検出された第2相対角度及び相対距離に基づいて、道路構造物に対する第2物体の相対位置である第2相対位置を推定する第2物***置推定部と、第1物体検出部で検出された第1物体及び第2物体検出部で検出された第2物体に基づいて、自車両の周囲の物体を認識する物体認識部と、を備え、物体認識部は、第1物体についての第1相対角度及び第1相対位置と、第2物体についての第2相対角度及び第2相対位置とに基づいて、第1物体及び第2物体の同一判定を行い、同一である場合に第1物体と第2物体とを同一物体として認識する。
この物体検出装置では、カメラ画像に基づいて検出される第1物体について、第1物体が存在する方向を示す第1相対角度と、道路構造物に対する第1物体の第1相対位置とが検出される。また、レーダセンサの受信結果に基づいて検出される第2物体について、第2物体が存在する方向を示す第2相対角度が検出され、道路構造物に対する第2物体の第2相対位置が地図情報等に基づいて推定される。そして、物体検出装置は、第1物体についての第1相対角度及び第1相対位置と、第2物体についての第2相対角度及び第2相対位置とに基づいて同一判定を行う。これにより、物体検出装置は、カメラ画像に基づく第1物体の絶対位置の検出精度(距離精度)が低い場合であっても、道路構造物に対する相対位置である第1相対位置及び第2相対位置等を用いて、同一判定を行うことができる。このように、物体検出装置は、カメラ画像に基づいて検出された物体(第1物体)とレーダセンサを用いて検出された物体(第2物体)との同一判定を精度良く行うことができる。
物体検出装置において、物体認識部は、同一判定を行う際に、第1相対角度と第2相対角度との差が予め定められた相対角度基準値以内の場合に、第1物体と第2物体とが同一であると判定してもよい。この場合、物体検出装置は、第1相対角度と第2相対角度との差が相対角度基準値以内であるか否かに基づいて、同一判定を行うことができる。
物体検出装置において、物体認識部は、同一判定を行う際に、第1相対位置と第2相対位置との差が予め定められた相対位置基準値以内の場合に、第1物体と第2物体とが同一であると判定してもよい。この場合、物体検出装置は、第1相対位置と第2相対位置との差が相対位置基準値以内であるか否かに基づいて、同一判定を行うことができる。
本発明の一側面によれば、カメラ画像に基づいて検出された物体とレーダセンサを用いて検出された物体との同一判定を精度良く行うことができる。
実施形態に係る物体検出装置の概略構成を示す図である。 カメラ画像に基づいて検出された第1検出車両と自車両との位置関係を示す模式平面図である。 レーダセンサを用いて検出された第2検出車両と自車両との位置関係を示す模式平面図である。 第1物体検出部で行われる第1検出車両についての第1相対角度及び第1相対位置の検出処理の流れを示すフローチャートである。 第2物体検出部及び第2物***置推定部で行われる第2検出車両についての第2相対角度の検出及び第2相対位置の推定処理の流れを示すフローチャートである。 物体認識部で行われる物体認識処理の流れを示すフローチャートである。
以下、本発明の実施形態について図面を参照しながら説明する。なお、図面の説明において同一の要素には同一の符号を付し、重複する説明を省略する。
図1に示されるように、物体検出装置100は、自動運転が可能な乗用車等の自車両Vに搭載され、自車両Vの周囲の物体を検出する。自動運転とは、予め設定された目標ルートに沿って自車両Vを自動で走行させる車両制御である。自動運転では、運転者が運転操作を行う必要がなく、自車両Vが自動で走行する。物体検出装置100が検出する自車両Vの周囲の物体には、例えば、自車両Vの周囲の他車両、歩行者、固定障害物等が含まれる。以下では、物体検出装置100が自車両Vの周囲の他車両を検出する場合を例に説明する。
物体検出装置100は、カメラ1、レーダセンサ2、GPS受信部3、地図データベース4、及び物体検出ECU10を備えている。物体検出ECU10は、装置を統括的に制御する。物体検出ECU10には、カメラ1、レーダセンサ2、GPS受信部3、及び地図データベース4が接続されている。
物体検出ECU[Electronic Control Unit]10は、CPU[Central Processing Unit]、ROM[Read Only Memory]、RAM[Random Access Memory]等を有する電子制御ユニットである。物体検出ECU10では、例えば、ROMに記憶されているプログラムをRAMにロードし、RAMにロードされたプログラムをCPUで実行することにより各種の機能が実現される。物体検出ECU10は、複数の電子制御ユニットから構成されていてもよい。また、以下に説明する物体検出ECU10の機能の一部は、自車両Vと通信可能な情報管理センター等の施設のコンピュータにおいて実行されてもよい。
カメラ1は、自車両Vの周囲の外部状況を撮像する撮像機器である。カメラ1は、自車両Vの周囲を撮像可能に設けられている。カメラ1は、撮像したカメラ画像を物体検出ECU10へ送信する。カメラ1は、自車両Vの周囲を撮像できるように、複数のカメラによって構成されていてもよい。自車両Vの周囲を撮像できれば、カメラ1の種類は特に限定されない。
レーダセンサ2は、電波(例えばミリ波)又は光を利用して自車両Vの周辺の障害物を検出する検出機器である。レーダセンサ2には、例えば、ミリ波レーダ又はライダー[LIDAR:Light Detection and Ranging]が含まれる。レーダセンサ2は、自車両Vの周囲に電波又は光を照射し、照射した電波又は光の反射波を受信することで物体を検出する。レーダセンサ2は、電波又は光の受信結果を物体検出ECU10へ送信する。レーダセンサ2で検出される物体には、ガードレール、建物等の固定障害物の他、歩行者、自転車、他車両等の移動障害物が含まれる。
GPS受信部3は、3個以上のGPS衛星から信号を受信することにより、自車両Vの位置(例えば自車両Vの緯度及び経度)を測定する。GPS受信部3は、測定した自車両Vの位置情報を物体検出ECU10へ送信する。
地図データベース4は、地図情報を記憶するデータベースである。地図データベース4は、例えば、自車両Vに搭載されたHDD[Hard Disk Drive]内に形成されている。地図情報には、道路(車線)の位置情報(地図上の位置)、道路形状(車線形状)の情報(例えばカーブ、直線部の種別、カーブの曲率等)、及び道路構造物の位置情報等が含まれる。なお、地図データベース4は、自車両Vと通信可能なサーバーに記憶されていてもよい。ここで、道路構造物とは、道路に設置された物であり、道路に設けられた車線、車線を区画する区画線(白線等)、及びガードレール等が含まれる。なお、道路に設けられた車線は、区画線の位置情報によって定められ得る。
物体検出ECU10は、機能的には、第1物体検出部11、車両位置認識部12、第2物体検出部13、第2物***置推定部14、及び物体認識部15を備えている。
第1物体検出部11は、カメラ1で撮像されたカメラ画像に基づいて、カメラ画像中の他車両(第1物体)を検出する。以下、カメラ画像に基づいて第1物体検出部11によって検出される他車両を「第1検出車両」と称する。また、第1物体検出部11は、カメラ画像に基づいて、自車両Vに対する第1検出車両が存在する方向を示す第1相対角度、及びカメラ画像中の道路構造物に対する第1検出車両の相対位置である第1相対位置を検出する。
なお、第1物体検出部11は、カメラ画像に基づく第1検出車両の検出を、周知の画像処理技術等を用いて行うことができる。第1物体検出部11は、例えば、画像のパターンマッチングによって、第1検出車両V1を検出してもよい。また、第1物体検出部11は、第1相対角度及び第1相対位置を、カメラ画像及びカメラ1の設置の向き等に基づいて周知の画像処理技術等を用いて行うことができる。
ここで、第1相対角度及び第1相対位置の検出の具体的な一例について説明する。例えば、図2に示されるように、第1物体検出部11は、カメラ画像に基づいて、自車両Vの左斜め前方を走行する第1検出車両V1を検出したとする。ここで、自車両Vが走行する車線を車線R1とし、車線R1から左側に向かって順に車線R2,R3及びR4が隣接しているとする。また、第1検出車両V1は、車線R3と車線R4とを区画する区画線Lを跨ぐ位置を走行しているとする。
第1物体検出部11は、カメラ画像に基づいて、自車両Vに対する第1検出車両V1の第1相対角度を検出する。一例として、本実施形態において第1物体検出部11は、図2に示されるように、自車両Vの前端の中央位置を原点P0とし、原点P0から見た場合に第1検出車両V1が存在する方向を第1相対角度として検出する。一例として、本実施形態において第1物体検出部11は、第1相対角度として、原点P0から前方に向かう方向を0°とし、第1検出車両V1の存在する角度範囲を第1相対角度として検出する。一例として、本実施形態において第1物体検出部11は、図2に示されるように、第1検出車両V1の前端の右側の角部P1と、後端の右側角部P2とを含む角度A1~B1[°]を第1検出車両V1の第1相対角度として検出する。
但し、上述した第1相対角度の検出方法は一例である。例えば、第1相対角度を検出するための原点P0は、自車両Vの前端の中央位置に限定されず、自車両Vの中央位置(前後左右の中央位置)、又はカメラ1の設置位置等、予め定められた他の位置であってもよい。また、原点P0から前方に向かう方向以外の方向を0°としてもよい。また、第1物体検出部11は、自車両Vの前端の左右の角部間を含む角度範囲、又は後端の左右の角部間を含む角度範囲を、第1検出車両V1が存在する方向を示す第1相対角度として検出してもよい。また、第1物体検出部11は、第1相対角度として、第1検出車両V1の存在する角度範囲を用いることに限定されない。例えば、第1物体検出部11は、原点P0から見て、第1検出車両V1の中央位置(前後左右の中央位置)等の予め定められた位置を通る方向を、第1相対角度として検出してもよい。このように、第1物体検出部11は、自車両Vに対する第1検出車両V1が存在する方向を示すことができれば、第1相対角度として周知の種々の特定方法を採用できる。
次に、第1物体検出部11は、カメラ画像に基づいて、カメラ画像中の道路構造物に対する第1検出車両V1の相対位置である第1相対位置を検出する。具体的には、第1物体検出部11は、道路構造物として、カメラ画像中において第1検出車両V1の近傍に存在する物体を用いる。本実施形態において第1物体検出部11は、道路構造物として、道路の車線を用いる。ここでは、第1物体検出部11は、道路構造物として用いる車線として、第1検出車両V1の周囲の車線のうち、第1検出車両V1がオーバーラップしている車線を用いる。第1物体検出部11は、周知の画像処理技術等により、カメラ画像に含まれる区画線Lを検出し、カメラ画像中における区画線L及び第1検出車両V1の位置に基づいて、第1検出車両V1がオーバーラップしている車線R3及びR4を検出することができる。なお、ここでは、図2に示されるように、第1検出車両V1の右端を含む部分が車線R3にオーバーラップし、第1検出車両V1の左端を含む部分が車線R4にオーバーラップしている。
また、第1物体検出部11は、第1相対位置として、道路構造物として検出した車線R3及びR4に対する第1検出車両V1のそれぞれのオーバーラップ率を用いる。例えば、車線R3に対するオーバーラップ率とは、車線R3に対し、車線幅方向において第1検出車両V1がオーバーラップしている割合である。すなわち、車線R3に対するオーバーラップ率とは、車線R3の車線幅Wを100%としたときに、車線幅方向において車線R3内を第1検出車両V1が占める割合である。第1物体検出部11は、カメラ画像に基づいて、図2に示されるように、車線R3に対する第1検出車両V1のオーバーラップ率C1[%]と、車線R4に対する第1検出車両V1のオーバーラップ率D1[%]とを検出する。第1物体検出部11は、オーバーラップ率の検出を、カメラ画像中における区画線L及び第1検出車両V1の位置に基づいて検出できる。
なお、第1相対位置として用いられるオーバーラップ率には、どの車線に対するオーバーラップ率であるかを特定する情報が対応付けられている。すなわち、図2に示される例では、オーバーラップ率C1[%]には、車線R3に対するオーバーラップ率であることが対応付けられ、オーバーラップ率D1[%]には、車線R4に対するオーバーラップ率であることが対応付けられている。
車両位置認識部12は、GPS受信部3の位置情報及び地図データベース4の地図情報に基づいて、自車両Vの地図上の位置を認識する。また、車両位置認識部12は、地図データベース4の地図情報に含まれた電柱等の固定障害物の位置情報及び自車両Vの外部状況を検出する外部センサの検出結果を利用して、SLAM[Simultaneous Localization and Mapping]技術により自車両Vの位置を認識する。車両位置認識部12は、その他、周知の手法により自車両Vの地図上の位置を認識してもよい。
第2物体検出部13は、レーダセンサ2の受信結果に基づいて、自車両Vの周囲の他車両(第2物体)を検出する。以下、レーダセンサ2の受信結果に基づいて第2物体検出部13によって検出される他車両を「第2検出車両」と称する。また、第2物体検出部13は、レーダセンサ2の受信結果に基づいて、自車両Vに対する第2検出車両が存在する方向を示す第2相対角度、及び自車両Vと第2検出車両との相対距離を検出する。
なお、第2物体検出部13は、レーダセンサ2の受信結果に基づく第2検出車両の検出を、周知の方法を用いて行うことができる。また、第2物体検出部13は、第2相対角度及び相対距離を、電波等の照射方向、及び電波等を照射してから反射波が受信されるまでの時間等に基づいて周知の方法を用いて行うことができる。
ここで、第2相対角度の検出の具体的な一例について説明する。例えば、図3に示されるように、第2物体検出部13は、レーダセンサ2の受信結果に基づいて、自車両Vの左斜め前方を走行する第2検出車両V2を検出したとする。ここで、自車両Vが走行する車線を車線R1とし、車線R1から左側に向かって順に車線R2,R3及びR4が隣接しているとする。また、第2検出車両V2は、車線R3と車線R4とを区画する区画線Lを跨ぐ位置を走行しているとする。
第2物体検出部13は、レーダセンサ2の受信結果に基づいて、自車両Vに対する第2検出車両V2の第2相対角度を検出する。第2物体検出部13は、第1相対角度と同様に、図3に示されるように、第2検出車両V2の前端の右側の角部P1と、後端の右側角部P2とを含む角度A2~B2[°]を第2検出車両V2の第2相対角度として検出する。ここで、物体認識部15において、第1相対角度と第2相対角度とが比較される。このため、第2物体検出部13は、第1相対角度と比較可能なように、第1相対角度と同じ角度の特定方法によって、第2相対角度を検出すればよい。
第2物***置推定部14は、地図情報に含まれる道路構造物の地図上の位置、車両位置認識部12で認識された自車両Vの地図上の位置、並びに、第2物体検出部13で検出された第2相対角度及び相対距離に基づいて、道路構造物に対する第2検出車両V2の相対位置である第2相対位置を推定する。
ここで、第2物***置推定部14は、第1相対位置と同様に、道路構造物として車線を用いる。ここでは、第2物***置推定部14は、道路構造物として用いる車線として、第2検出車両V2の周囲の車線のうち、第2検出車両V2がオーバーラップしている車線を用いる。また、第2物***置推定部14は、第1相対位置と同様に、道路構造物として用いられる車線に対する第2検出車両V2のオーバーラップ率を、第2相対位置として用いる。
なお、第2相対位置として用いられるオーバーラップ率には、第1相対位置のオーバーラップ率と同様に、どの車線に対するオーバーラップ率であるかを特定する情報が対応付けられている。
具体的には、第2物***置推定部14は、図3に示されるように、地図情報に含まれる区画線Lの位置情報、自車両Vの地図上の位置、並びに、第2物体検出部13で検出された第2検出車両V2の第2相対角度及び相対距離に基づいて、各車線に対する第2検出車両V2の位置関係を推定する。そして、第2物***置推定部14は、第2検出車両V2がオーバーラップしている車線R3及びR4を推定する。
第2物***置推定部14は、第2相対位置として、推定した車線R3に対する第2検出車両V2のオーバーラップ率C2[%]と、推定した車線R4に対する第2検出車両V2のオーバーラップ率D2[%]とを推定する。第2物***置推定部14は、オーバーラップ率の推定を、推定した車線R3及びR4の位置情報(区画線Lの位置情報)、自車両Vの地図上の位置、並びに、第2物体検出部13で検出された第2検出車両V2の第2相対角度及び相対距離を用いて、各部の位置関係に基づいて推定できる。
物体認識部15は、第1物体検出部11で検出された第1検出車両V1と第2物体検出部13で検出された第2検出車両V2とに基づいて、自車両Vの周囲の他車両を認識する。物体認識部15は、第1検出車両V1と第2検出車両V2とが同一であるか否かを判定する同一判定を行い、第1検出車両V1と第2検出車両V2とが同一であると判定した場合に、第1検出車両V1と第2検出車両V2とは同一の他車両(同一物体)として認識する。物体認識部15は、同一判定によって、第1検出車両V1と第2検出車両V2とが同一ではないと判定した場合に、第1検出車両V1と第2検出車両V2とは別々の他車両であると認識する。
以下、同一判定について説明する。物体認識部15は、第1検出車両V1についての第1相対角度及び第1相対位置と、第2検出車両V2についての第2相対角度及び第2相対位置とに基づいて、第1検出車両V1と第2検出車両V2との同一判定を行う。
ここでは、物体認識部15は、同一判定を行う際に、第1相対角度と第2相対角度との差が予め定められた相対角度基準値以内の場合に、第1検出車両V1と第2検出車両V2とが同一であると判定することができる。例えば、物体認識部15は、第1相対角度及び第2相対角度として角度範囲を用いている場合、角度の範囲のずれ量(2つの角度範囲が重複しない範囲)を、第1相対角度と第2相対角度との差として用いていもよい。これに限定されず、物体認識部15は、第1相対角度の角度範囲の中間値と第2相対角度の角度範囲の中間値との差を、第1相対角度と第2相対角度との差として用いていもよい。このように、物体認識部15は、第1相対角度及び第2相対角度として角度範囲を用いている場合であっても、第1相対角度と第2相対角度との差を表すことができれば、第1相対角度と第2相対角度との差として種々の特定方法を用いることができる。
また、物体認識部15は同一判定を行う際に、第1相対位置と第2相対位置との差が予め定められた相対位置基準値以内の場合に、第1検出車両V1と第2検出車両V2とが同一であると判定することができる。ここでは、物体認識部15は、第1相対位置としてのオーバーラップ率と、第2相対位置としてのオーバーラップ率との差が相対位置基準値以内である場合に、第1検出車両V1と第2検出車両V2とが同一の他車両であると判定する。
一例として、物体認識部15は、第1相対位置として、第1検出車両V1が最もオーバーラップしている車線についてのオーバーラップ率を用いてもよい。同様に、物体認識部15は、第2相対位置として、第2検出車両V2が最もオーバーラップしている車線についてのオーバーラップ率を用いてもよい。例えば、図2及び図3に示される例では、第1相対位置及び第2相対位置として、車線R3についてのオーバーラップ率C1及びC2が用いられる。この場合、物体認識部15は、オーバーラップ率C1及びC2の差が相対位置基準値以内であるか否かに基づいて、同一判定を行うことができる。なお、物体認識部15は、第1検出車両V1及び第2検出車両V2が最もオーバーラップしている車線についてのオーバーラップ率を用いる場合、第1検出車両V1が最もオーバーラップしている車線と第2検出車両V2が最もオーバーラップしている車線とが互いに異なる車線である場合、物体認識部15は、第1検出車両V1と第2検出車両V2とが同一ではないと判定してもよい。
但し、物体認識部15は、上述したように、第1相対位置等として、第1検出車両V1等が最もオーバーラップしている車線についてのオーバーラップ率を用いることに限定されない。例えば、物体認識部15は、第1検出車両V1がオーバーラップしている複数の車線のそれぞれのオーバーラップ率と、第2検出車両V2がオーバーラップしている複数の車線のそれぞれのオーバーラップ率とに基づいて、同一判定を行ってもよい。
また、自車両Vには、自動運転装置200が搭載されている。自動運転装置200は、自車両Vの運転者による自動運転の開始の指示等に基づいて、自車両Vにおける自動運転制御を実行する。自動運転装置200は、物体検出装置100で検出された自車両Vの周囲の物体の検出結果を用いて、自動運転制御を実行する。自動運転装置200は、周知の方法によって、自車両Vの自動運転制御を実行することができる。
次に、物体検出装置100で実行される物体検出処理の流れについて説明する。まず、第1物体検出部11で行われる第1検出車両についての第1相対角度及び第1相対位置の検出処理の流れについて、図4を用いて説明する。なお、図4に示される処理は、例えば、自車両Vの状態が走行開始状態になると共に開始される。また、図4に示される処理は、例えば、処理がエンドに至った後、所定時間経過後に再びスタートから処理が開始される。
図4に示されるように、第1物体検出部11は、カメラ1からカメラ画像を取得し、取得したカメラ画像に基づいて第1検出車両の検出処理を行う(S101)。第1検出車両が検出されない場合(S101:NO)、第1物体検出部11は、今回の処理を終了し、所定時間経過後に再びスタートから処理を開始する。
第1検出車両が検出された場合(S101:YES)、第1物体検出部11は、カメラ画像に基づいて、自車両Vに対する第1検出車両が存在する方向を示す第1相対角度を検出する(S102)。第1物体検出部11は、カメラ画像に基づいて、第1検出車両が走行する車線を道路構造物として検出する(S103)。第1物体検出部11は、カメラ画像に基づいて、道路構造物として検出した車線に対する第1検出車両のオーバーラップ率を、第1相対位置として検出する(S104)。
なお、上述したステップS102の処理と、ステップS103及びS104の処理とは、図4に示される順序で実行されることに限定されず、図4に示される順序とは逆の順序で実行されてもよく、同時に実行されてもよい。
次に、第2物体検出部13及び第2物***置推定部14で行われる第2検出車両についての第2相対角度及び第2相対位置の検出及び推定処理の流れについて、図5を用いて説明する。なお、図5に示される処理は、例えば、自車両Vの状態が走行開始状態になると共に開始される。また、図4に示される処理は、例えば、処理がエンドに至った後、所定時間経過後に再びスタートから処理が開始される。
図5に示されるように、第2物体検出部13は、レーダセンサ2の受信結果を取得し、取得した受信結果に基づいて第2検出車両の検出処理を行う(S201)。第2検出車両が検出されない場合(S201:NO)、第2物体検出部13は、今回の処理を終了し、所定時間経過後に再びスタートから処理を開始する。
第2検出車両が検出された場合(S201:YES)、第2物体検出部13は、レーダセンサ2の受信結果に基づいて、自車両Vに対する第2検出車両が存在する方向を示す第2相対角度を検出する(S202)。第2物体検出部13は、レーダセンサ2の受信結果に基づいて、自車両Vと第2検出車両との相対距離を検出する(S203)。
第2物***置推定部14は、地図情報に含まれる区画線Lの位置情報等に基づいて、第2検出車両が走行する車線を道路構造物として推定する(S204)。第2物***置推定部14は、地図情報に含まれる区画線Lの位置情報等に基づいて、道路構造物として推定した車線に対する第2検出車両のオーバーラップ率を、第2相対位置として推定する(S205)。
なお、上述したステップS202の処理と、ステップS203の処理とは、図5に示される順序で実行されることに限定されず、図5に示される順序とは逆の順序で実行されてもよく、同時に実行されてもよい。
次に、物体認識部15で行われる物体認識処理の流れについて、図6を用いて説明する。なお、図6に示される処理は、例えば、カメラ1における撮像処理及びレーダセンサ2における検出処理が開始されると共に開始される。また、図6に示される処理は、例えば、処理がエンドに至った後、所定時間経過後に再びスタートから処理が開始される。
物体認識部15は、第1物体検出部11における第1検出車両の検出結果、及び第2物体検出部13における第2検出車両の検出結果を取得する。ここでは、第1物体検出部11及び第2物体検出部13において繰り返し実行される検出結果のうち、例えば、最新の検出結果をそれぞれ取得する。物体認識部15は、取得した検出結果に基づいて、第1検出車両及び第2検出車両がそれぞれ検出されているか否かを判定する(S301)。第1検出車両及び第2検出車両の両方が検出されていない場合、又は、いずれか一方しか検出されていない場合(S301:NO)、物体認識部15は、今回の処理を終了し、所定時間経過後に再びスタートから処理を開始する。
第1検出車両及び第2検出車両の両方が検出されている場合(S301:YES)、物体認識部15は、第1物体検出部11で検出された第1相対角度と第2物体検出部13で検出された第2相対角度との差が、予め定められた相対角度基準値以内であるか否かを判定する(S302)。相対角度の差が相対角度基準値以内ではない場合(S302:NO)、物体認識部15は、第1検出車両と第2検出車両とは同一ではないと判定し、第1検出車両と第2検出車両とを別々の他車両として認識する(S303)。
相対角度の差が相対角度基準値以内である場合(S302:YES)、物体認識部15は、第1物体検出部11で検出された第1相対位置と第2物***置推定部14で推定された第2相対位置とにおけるオーバーラップ率の差が、予め定められた相対位置基準値以内であるか否かを判定する(S304)。相対位置(オーバーラップ率)の差が相対位置基準値以内ではない場合(S304:NO)、物体認識部15は、第1検出車両と第2検出車両とは同一ではないと判定し、第1検出車両と第2検出車両とを別々の他車両として認識する(S305)。
相対位置(オーバーラップ率)の差が相対位置基準値以内である場合(S304:YES)、物体認識部15は、第1検出車両と第2検出車両とが同一であると判定し、第1検出車両と第2検出車両とを同一の他車両として認識する(S306)。
以上のように、物体検出装置100では、カメラ画像に基づいて検出された第1検出車両について、第1検出車両が存在する方向を示す第1相対角度と、道路構造物(車線)に対する第1検出車両の第1相対位置とが検出される。また、レーダセンサ2の受信結果に基づいて検出される第2検出車両について、第2検出車両が存在する方向を示す第2相対角度が検出され、道路構造物(車線)に対する第2検出車両の第2相対位置が地図情報等に基づいて推定される。そして、物体検出装置100は、第1検出車両についての第1相対角度及び第1相対位置と、第2検出車両についての第2相対角度及び第2相対位置とに基づいて同一判定を行う。これにより、物体検出装置100は、カメラ画像に基づく第1検出車両の絶対位置の検出精度(距離精度)が低い場合であっても、道路構造物に対する相対位置である第1相対位置及び第2相対位置等を用いて、第1検出車両及び第2検出車両の同一判定を行うことができる。このように、物体検出装置100は、カメラ画像に基づいて検出された第1検出車両とレーダセンサ2を用いて検出された第2検出車両との同一判定を精度良く行うことができる。
また、物体検出装置100は、第1相対角度と第2相対角度との差が相対角度基準値以内であるか否かに基づいて、第1検出車両及び第2検出車両の同一判定を行うことができる。同様に、物体検出装置100は、第1相対位置と第2相対位置とにおけるオーバーラップ率の差が相対位置基準値以内であるか否かに基づいて、第1検出車両及び第2検出車両の同一判定を行うことができる。
以上、本発明の実施形態について説明したが、本発明は、上記実施形態に限定されるものではない。例えば、第1相対位置を検出及び第2相対位置を認識する際に、道路構造物として車線が用いられる場合を例に説明したが、道路構造物として車線以外の物が用いられてもよい。例えば、道路構造物として、道路に設置されたガードレール、道路脇等に設置された側壁、及び路面に付された路面ペイント等が用いられてもよい。
例えば、道路構造物の位置情報は、予め地図情報として地図データベース4に記憶されていることに限定されない。例えば、物体検出装置100は、カメラ1のカメラ画像等に基づいて道路構造物の位置情報を検出し、検出した道路構造物の位置情報を地図情報として地図データベース4に記憶させてもよい。この場合、例えば、物体検出装置100は、過去に撮像された複数のカメラ画像を自車両Vの挙動に応じてつなぎ合わせ、白線等の道路構造物を認識する。ここでの自車両Vの挙動として、例えば、ヨーレートセンサで検出された自車両Vのヨーレート、及び車速センサで検出された自車両Vの車速等が用いられ得る。そして、物体検出装置100は、車両位置認識部12で認識された自車両Vの地図上の位置に基づいて、白線等の道路構造物の地図上の位置を検出してもよい。このようにして検出された道路構造物の位置情報が、第2物***置推定部14が第2検出車両の第2相対位置を推定する際に用いられてもよい。
例えば、第1相対位置及び第2相対位置として、車線に対するオーバーラップ率が用いられることに限定されない。例えば、第1物体検出部11は、第1相対位置として、第1検出車両が走行する車線内における第1検出車両の位置(例えば、第1検出車両の車幅方向の中央位置)を検出してもよい。すなわち、第1物体検出部11は、第1相対位置として、第1検出車両が走行する車線(道路構造物)に対する第1検出車両の相対位置を検出してもよい。同様に、第2物***置推定部14は、第2相対位置として、第2検出車両が走行する車線内における第2検出車両の位置(例えば、第2検出車両の車幅方向の中央位置)を認識してもよい。すなわち、第2物***置推定部14は、第2相対位置として、第2検出車両が走行する車線(道路構造物)に対する第2検出車両の相対位置を推定してもよい。この場合、物体認識部15は、同一判定を行う際に、上述したオーバーラップ率に代えて、第1相対位置として検出された車線内における第1検出車両の位置と、第2相対位置として認識された車線内における第2検出車両の位置との差が、予め定められた基準値以内である場合に第1検出車両と第2検出車両V2とが同一であると判定してもよい。
また、他の例として、物体認識部15は、第1検出車両及び第2検出車両の絶対位置と、上述した走行車線内における第1検出車両及び第2検出車両の位置とに基づいて、同一判定を行ってもよい。この場合、第1物体検出部11は、カメラ画像に基づいて周知の方法によって第1検出車両の絶対位置を検出すればよい。同様に、第2物体検出部13は、レーダセンサ2の受信結果に基づいて周知の方法によって第2検出車両の絶対位置を検出すればよい。
また、物体検出装置100における自車両Vの周囲の物体の検出結果は、自動運転装置200において用いられることに限定されない。物体検出装置100における検出結果は、自車両Vの運転支援等、他の用途に用いられてもよい。
1…カメラ、2…レーダセンサ、4…地図データベース、11…第1物体検出部、12…車両位置認識部、13…第2物体検出部、14…第2物***置推定部、15…物体認識部、100…物体検出装置、R3,R4…車線(道路構造物)、V…自車両、V1…第1検出車両(第1物体)、V2…第2検出車両(第2物体)。

Claims (3)

  1. 自車両の周囲の物体を検出する物体検出装置であって、
    前記自車両の周囲を撮像するカメラと、
    前記カメラで撮像されたカメラ画像に基づいて、前記カメラ画像中の第1物体を検出すると共に、前記自車両に対する前記第1物体が存在する方向を示す第1相対角度、及び前記カメラ画像中の道路構造物に対する前記第1物体の相対位置である第1相対位置を検出する第1物体検出部と、
    前記自車両の地図上の位置を認識する車両位置認識部と、
    前記道路構造物の地図上の位置を含む地図情報を記憶する地図データベースと、
    前記自車両の周囲に電波又は光を照射し、照射した前記電波又は前記光の反射波を受信するレーダセンサと、
    前記レーダセンサの受信結果に基づいて、前記自車両の周囲の第2物体を検出すると共に、前記自車両に対する前記第2物体が存在する方向を示す第2相対角度、及び前記自車両と前記第2物体との相対距離を検出する第2物体検出部と、
    前記地図情報に含まれる前記道路構造物の地図上の位置、前記車両位置認識部で認識された前記自車両の地図上の位置、並びに、前記第2物体検出部で検出された前記第2相対角度及び前記相対距離に基づいて、前記道路構造物に対する前記第2物体の相対位置である第2相対位置を推定する第2物***置推定部と、
    前記第1物体検出部で検出された前記第1物体及び前記第2物体検出部で検出された前記第2物体に基づいて、前記自車両の周囲の前記物体を認識する物体認識部と、
    を備え、
    前記物体認識部は、前記第1物体についての前記第1相対角度及び前記第1相対位置と、前記第2物体についての前記第2相対角度及び前記第2相対位置とに基づいて、前記第1物体及び前記第2物体の同一判定を行い、同一である場合に前記第1物体と前記第2物体とを同一物体として認識する、物体検出装置。
  2. 前記物体認識部は、前記同一判定を行う際に、前記第1相対角度と前記第2相対角度との差が予め定められた相対角度基準値以内の場合に、前記第1物体と前記第2物体とが同一であると判定する、請求項1に記載の物体検出装置。
  3. 前記物体認識部は、前記同一判定を行う際に、前記第1相対位置と前記第2相対位置との差が予め定められた相対位置基準値以内の場合に、前記第1物体と前記第2物体とが同一であると判定する、請求項1又は2に記載の物体検出装置。
JP2018177528A 2018-09-21 2018-09-21 物体検出装置 Active JP7020353B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018177528A JP7020353B2 (ja) 2018-09-21 2018-09-21 物体検出装置
US16/520,974 US10970870B2 (en) 2018-09-21 2019-07-24 Object detection apparatus
CN201910705848.7A CN110940974B (zh) 2018-09-21 2019-08-01 物体检测装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018177528A JP7020353B2 (ja) 2018-09-21 2018-09-21 物体検出装置

Publications (2)

Publication Number Publication Date
JP2020047210A JP2020047210A (ja) 2020-03-26
JP7020353B2 true JP7020353B2 (ja) 2022-02-16

Family

ID=69884943

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018177528A Active JP7020353B2 (ja) 2018-09-21 2018-09-21 物体検出装置

Country Status (3)

Country Link
US (1) US10970870B2 (ja)
JP (1) JP7020353B2 (ja)
CN (1) CN110940974B (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6649865B2 (ja) * 2016-10-27 2020-02-19 株式会社Soken 物体検知装置
US20210208269A1 (en) * 2020-01-06 2021-07-08 Metawave Corporation Angular resolution refinement in a vehicle radar for object identification
JP7191065B2 (ja) * 2020-07-06 2022-12-16 本田技研工業株式会社 処理装置、処理方法、およびプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016148935A (ja) 2015-02-10 2016-08-18 株式会社デンソー 走行軌跡選定装置、走行軌跡選定方法
WO2017168588A1 (ja) 2016-03-29 2017-10-05 パイオニア株式会社 測定装置、測定方法、及び、プログラム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4420011B2 (ja) * 2006-11-16 2010-02-24 株式会社日立製作所 物体検知装置
WO2011036807A1 (ja) * 2009-09-28 2011-03-31 トヨタ自動車株式会社 物体検出装置及び物体検出方法
US8452535B2 (en) * 2010-12-13 2013-05-28 GM Global Technology Operations LLC Systems and methods for precise sub-lane vehicle positioning
US9430946B2 (en) * 2011-12-28 2016-08-30 Toyota Jidosha Kabushiki Kaisha Obstacle determination device
CN106255997A (zh) * 2014-05-15 2016-12-21 本田技研工业株式会社 移动辅助装置
CN106463064B (zh) * 2014-06-19 2020-06-26 日立汽车***株式会社 物体识别装置和使用该物体识别装置的车辆行驶控制装置
JP6303956B2 (ja) * 2014-09-24 2018-04-04 株式会社デンソー 軸ずれ量推定装置
JP6394228B2 (ja) 2014-09-24 2018-09-26 株式会社デンソー 物体検出装置
JP6363516B2 (ja) * 2015-01-21 2018-07-25 株式会社デンソー 車両の走行制御装置
JP6593588B2 (ja) * 2015-02-16 2019-10-23 パナソニックIpマネジメント株式会社 物体検出装置および物体検出方法
JP2018091714A (ja) * 2016-12-02 2018-06-14 トヨタ自動車株式会社 車両位置測定システム
JP6747269B2 (ja) * 2016-12-06 2020-08-26 トヨタ自動車株式会社 物体認識装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016148935A (ja) 2015-02-10 2016-08-18 株式会社デンソー 走行軌跡選定装置、走行軌跡選定方法
WO2017168588A1 (ja) 2016-03-29 2017-10-05 パイオニア株式会社 測定装置、測定方法、及び、プログラム

Also Published As

Publication number Publication date
US20200098126A1 (en) 2020-03-26
JP2020047210A (ja) 2020-03-26
CN110940974B (zh) 2023-10-10
CN110940974A (zh) 2020-03-31
US10970870B2 (en) 2021-04-06

Similar Documents

Publication Publication Date Title
US9669829B2 (en) Travel lane marking recognition system
US9151626B1 (en) Vehicle position estimation system
WO2018105179A1 (ja) 車載用画像処理装置
US11092442B2 (en) Host vehicle position estimation device
US10325163B2 (en) Vehicle vision
US11351997B2 (en) Collision prediction apparatus and collision prediction method
JP2004531424A (ja) 車用の感知装置
US11042759B2 (en) Roadside object recognition apparatus
CN111028534B (zh) 一种泊车位检测方法及装置
JP7020353B2 (ja) 物体検出装置
JP2009096361A (ja) 車両走行支援装置
JP6930394B2 (ja) 物体認識装置
CN113859263B (zh) 预定行驶路径设定装置以及预定行驶路径设定方法
CN112455430A (zh) 无车位线的斜列车位的检测方法、泊车方法及泊车***
JP6989284B2 (ja) 車両位置推定装置及びプログラム
WO2019065970A1 (ja) 車両用外界認識装置
JP2017142151A (ja) 運転支援システム及びデータ構造
JP2020190416A (ja) 認識システム、認識方法、及び認識プログラム
JP7149060B2 (ja) 移動物体認識装置
JP2010072947A (ja) 障害物検出装置
KR101424636B1 (ko) 자동 후진 주차시스템
JP4872517B2 (ja) 障害物認識装置
US20220289185A1 (en) Vehicle controller and method for controlling vehicle
US11156466B2 (en) Lane determination device
JP7325296B2 (ja) 物体認識方法及び物体認識システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220117

R151 Written notification of patent or utility model registration

Ref document number: 7020353

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151