JP6753383B2 - 物体検知装置 - Google Patents

物体検知装置 Download PDF

Info

Publication number
JP6753383B2
JP6753383B2 JP2017204513A JP2017204513A JP6753383B2 JP 6753383 B2 JP6753383 B2 JP 6753383B2 JP 2017204513 A JP2017204513 A JP 2017204513A JP 2017204513 A JP2017204513 A JP 2017204513A JP 6753383 B2 JP6753383 B2 JP 6753383B2
Authority
JP
Japan
Prior art keywords
sensor
ultrasonic
point
distance
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017204513A
Other languages
English (en)
Other versions
JP2019079188A (ja
Inventor
陽平 鈴木
陽平 鈴木
充保 松浦
充保 松浦
岳人 原田
岳人 原田
博彦 柳川
博彦 柳川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2017204513A priority Critical patent/JP6753383B2/ja
Priority to PCT/JP2018/034876 priority patent/WO2019082563A1/ja
Publication of JP2019079188A publication Critical patent/JP2019079188A/ja
Priority to US16/854,023 priority patent/US11467281B2/en
Application granted granted Critical
Publication of JP6753383B2 publication Critical patent/JP6753383B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/02Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems using reflection of acoustic waves
    • G01S15/06Systems determining the position data of a target
    • G01S15/08Systems for measuring distance only
    • G01S15/10Systems for measuring distance only using transmission of interrupted, pulse-modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B21/00Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/02Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems using reflection of acoustic waves
    • G01S15/06Systems determining the position data of a target
    • G01S15/46Indirect determination of position data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/86Combinations of sonar systems with lidar systems; Combinations of sonar systems with systems not using wave reflection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/87Combinations of sonar systems
    • G01S15/876Combination of several spaced transmitters or receivers of known location for determining the position of a transponder or a reflector
    • G01S15/878Combination of several spaced transmitters or receivers of known location for determining the position of a transponder or a reflector wherein transceivers are operated, either sequentially or simultaneously, both in bi-static and in mono-static mode, e.g. cross-echo mode
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V1/00Seismology; Seismic or acoustic prospecting or detecting
    • G01V1/001Acoustic presence detection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V8/00Prospecting or detecting by optical means
    • G01V8/10Detecting, e.g. by using light barriers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • G06F18/256Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/809Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
    • G06V10/811Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data the classifiers operating on different input data, e.g. multi-modal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Acoustics & Sound (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Geophysics (AREA)
  • General Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Environmental & Geological Engineering (AREA)
  • Geology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
  • Traffic Control Systems (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)
  • Geophysics And Detection Of Objects (AREA)

Description

本発明は、物体検知装置に関するものである。
車両に搭載される物体検知装置に関して、例えば特許文献1では、カメラの移動を利用して仮想的なステレオカメラを実現する移動ステレオにより障害物を検知する技術が提案されている。すなわち、特許文献1では、カメラの移動の前後で2枚の画像を撮像し、2枚の画像の差分から障害物の立体データを取得している。
特許第3494434号公報
しかしながら、特許文献1に記載の方法では、物体検知処理を行う度にデータ量の大きい画像を処理する必要があるため、演算量が大きくなる。
カメラ以外の装置を用いて物体を検知する方法としては、例えば超音波センサを用いた方法が挙げられる。この方法では、画像処理によって物体を検知する方法に比べて一般的に演算量が小さくなるが、1つの超音波センサで物体が存在する方向を調べることは困難であるため、カメラを用いた方法に比べて物体の位置の検出精度が低くなりやすい。
本発明は上記点に鑑みて、演算量の増加を抑制しつつ物体の検出精度を向上させることが可能な物体検知装置を提供することを目的とする。
上記目的を達成するため、請求項1に記載の発明では、車両に搭載され、車両の外部の物体を検知する物体検知装置であって、超音波の送受信により物体との距離を検出する超音波センサ(10)と、車両の周囲を第1時刻に撮像して第1画像を取得し、第1時刻の後の第2時刻に撮像して第2画像を取得するカメラ(21)と、第1画像および第2画像それぞれから特徴点を抽出する特徴抽出部(23)と、特徴点の位置、および、超音波センサが検出した距離に基づいて、物体の位置を算出する位置算出部(24)と、を備え、位置算出部は、第1画像から抽出された特徴点の画像内での位置に基づいて、物体の位置の候補を示す点として複数の候補点を設定し、複数の候補点の位置、および、車両の移動情報に基づいて、複数の候補点の第2時刻の位置を予測し、予測した位置と、第2画像から抽出された特徴点の位置とを比較して、物体の位置を算出するものであり、複数の候補点は、超音波センサが検出した距離に基づいて設定される検知範囲(R)の中では、検知範囲の外よりも密度が高くなるように設定される。
第1画像の特徴点の位置から物体が存在する方向を検出することができる。そして、この方向の中で設定された複数の候補点についてのみ第2画像との比較を行うことにより、この方向のすべての範囲について比較を行う場合に比べて演算量を小さくすることができる。
また、超音波センサが検出した距離に基づいて検知範囲を設定し、検知範囲の中では検知範囲の外よりも密度が高くなるように候補点を設定することで、超音波センサが検出した距離に近い位置では高分解能で演算が行われる。したがって、演算量の増加を抑制しつつ検出精度を向上させることができる。
なお、上記各手段の括弧内の符号は、後述する実施形態に記載の具体的手段との対応関係の一例を示すものである。
第1実施形態にかかる物体検知装置の構成を示す図である。 第1実施形態における物体検知処理のフローチャートである。 第1実施形態における超音波センサの作動を説明するための図である。 第1実施形態における画像センサの作動を説明するための図である。 第1実施形態における画像センサの作動を説明するための図である。 第2実施形態における物体検知処理のフローチャートである。 第3実施形態における物体検知処理のフローチャートである。 第4実施形態における超音波センサの作動を説明するための図である。 第5実施形態における超音波センサの作動を説明するための図である。 第6実施形態における超音波センサの作動を説明するための図である。
以下、本発明の実施形態について図に基づいて説明する。なお、以下の各実施形態相互において、互いに同一もしくは均等である部分には、同一符号を付して説明を行う。
(第1実施形態)
第1実施形態について説明する。本実施形態の物体検知装置は、車両に搭載された超音波センサとカメラとの連携によって、車両の外部の物体を検知するものである。
図1に示すように、物体検知装置は、超音波センサ10と、画像センサ20と、ECU30と、車内LAN40とを備えている。ECU30、および、後述する制御部13、制御部22等は、CPU、ROM、RAM、I/Oなどを備えた周知のマイクロコンピュータによって構成され、ROMなどに記憶されたプログラムに従って各種演算などの処理を実行する。
超音波センサ10は、超音波の送受信により物体を検知するものであり、マイクロホン11と、送波部12と、制御部13と、受波部14と、距離算出部15とを備えている。なお、本実施形態では、物体検知装置は超音波センサ10を複数備えている。
マイクロホン11は、車両の外表面に面して配置されており、物体を検知するための超音波を車両の外側に向けて送信するものである。具体的には、マイクロホン11は、互いに対向する2つの電極の間に圧電膜が配置された構成の図示しない圧電素子を備えている。そして、2つの電極は送波部12に接続されており、送波部12から交流電圧が印加されて圧電膜が変形することにより、マイクロホン11から車両の外側へ超音波が送信される。
超音波センサ10では、制御部13が送波部12に周期的に送波指示を送っている。送波部12は、制御部13からの送波指示を受信すると、マイクロホン11に信号を送信し、これにより、マイクロホン11から超音波が送信される。
また、マイクロホン11は、超音波を受信し、受信した超音波の音圧に応じた電圧を出力するように構成されている。具体的には、マイクロホン11が備える圧電素子の2つの電極は、受波部14にも接続されており、超音波を受信して圧電膜が変形したときの2つの電極間の電圧が受波部14に入力されるようになっている。受波部14は、マイクロホン11から入力された電圧をA/D変換し、これにより生成された信号を出力する。
距離算出部15は、受波部14がA/D変換によって生成した信号を用いて物体との距離を算出するものである。距離算出部15は、受波部14から信号が入力されると、この信号に対して直交復調を行い、受信波の振幅を検出する。そして、距離算出部15は、受信波の振幅を所定の閾値と比較し、制御部13が送波部12に送波指示を出してから受信波の振幅が閾値以上となるまでの時間に基づいて、物体との距離を算出する。
距離算出部15は、算出した物体との距離を制御部13に送信し、制御部13は、距離算出部15から送信された距離情報を、車内LAN40を介して画像センサ20に送信する。
画像センサ20は、車両の周囲を撮像し、これにより得られた画像を用いて物体を検知するものであり、カメラ21と、制御部22と、特徴抽出部23と、位置算出部24とを備えている。
カメラ21は、車両の周囲を撮像するものである。制御部22は、超音波センサ10の制御部13からの距離情報を受信すると、カメラ21に撮像指示を出すように構成されており、カメラ21は、制御部22からの撮像指示を受信すると、時間差を設けて2枚の画像を撮像する。カメラ21が1回目、2回目に画像を撮像する時刻をそれぞれ第1時刻、第2時刻とし、第1時刻、第2時刻に車両の周囲を撮像して取得した画像をそれぞれ第1画像、第2画像とする。カメラ21は、取得した画像情報を特徴抽出部23に送信する。
特徴抽出部23は、第1画像および第2画像それぞれから特徴点を抽出するものである。ここでは、輝度に特徴を有する画素を特徴点とする。例えば、隣接する2つの画素の輝度の差が所定値より大きい場合に、この2つの画素の一方を特徴点とする。特徴抽出部23は、抽出した特徴点の位置を位置算出部24に送信する。
位置算出部24は、特徴抽出部23が抽出した特徴点の位置に基づいて、物体の位置を算出するものである。詳細には、位置算出部24には制御部13が送信した距離情報が車内LAN40、制御部22を介して入力されており、位置算出部24は、特徴点の位置、および、超音波センサ10が検出した物体との距離に基づいて、物体の位置を算出する。
位置算出部24は、第1画像から抽出された特徴点の画像内での位置に基づいて、物体の位置の候補を示す点として複数の候補点を設定する。なお、候補点は、後述する範囲Rの中では範囲Rの外よりも密度が高くなるように設定される。また、位置算出部24には、図示しない車速センサ等から車内LAN40を介して車両の移動情報が送信されており、位置算出部24は、複数の候補点の位置、および、車両の移動情報に基づいて、複数の候補点の第2時刻の位置を予測する。そして、位置算出部24は、予測した位置と、第2画像から抽出された特徴点の位置とを比較して、物体の位置を算出する。位置算出部24は、算出した物体の位置をECU30に送信する。
ECU30は、制御部31と、物体判定部32とを備えている。制御部31は、車内LAN40を介して超音波センサ10および画像センサ20との通信を行うものである。物体判定部32は、画像センサ20から送信された情報に基づいて、所定の距離よりも近い場所に物体があるか否かを判定するものである。制御部31は、物体判定部32の判定結果に応じて、車内LAN40を介して図示しないモニタ、ブザー等で構成される報知部に指示を出し、運転者への報知等を行う。
物体検知装置の作動について説明する。物体検知装置では、超音波センサ10と画像センサ20との連携によって物体を検知する。具体的には、物体検知装置は、図2に示すステップS11〜ステップS17によって物体の検知を行う。
ステップS11では、超音波センサ10が超音波の送受信を行う。すなわち、超音波センサ10の制御部13が送波部12に送波指示を出し、送波部12からマイクロホン11に交流電圧が印加されることによって、マイクロホン11から超音波が送信される。また、マイクロホン11は、超音波を受信すると、受信した超音波の音圧に応じて信号を出力し、受波部14は、マイクロホン11の出力信号にA/D変換などの処理を施し、距離算出部15に出力する。そして、距離算出部15は、受波部14から入力された信号に基づいて超音波を反射した物体との距離を算出する。
本実施形態の物体検知装置は、2つの超音波センサ10を用いた三角測量によって物体との距離を検知する。ここでは、図3に示すように、車両50に搭載された複数の超音波センサ10のうちの2つを超音波センサ10a、10bとして、超音波センサ10aが超音波を送信するとともに、超音波センサ10a、10bが超音波を受信する場合について説明する。超音波センサ10a、10bは、それぞれ第1センサ、第2センサに相当する。
超音波センサ10aが超音波を送信してから超音波を受信するまでの時間をTとし、 超音波センサ10aが超音波を送信してから超音波センサ10bが超音波を受信するまでの時間をTとする。そして、時間T、Tの間に超音波が進む距離をLA1、LB1とすると、超音波センサ10aと物体との距離はLA1/2、超音波センサ10bと物体との距離はLB1−LA1/2となる。
したがって、超音波センサ10a、10bの位置を示す点をA、Bとし、物体の位置を示す点をPs1とすると、点Ps1は、点Aを中心とした半径LA1/2の円と、点Bを中心とした半径LB1−LA1/2の円との交点となる。
ステップS11では、例えば、超音波センサ10a、10bのいずれか一方の距離算出部15が、LA1、LB1を用いて点Ps1の位置を求め、点Ps1に物体が存在するものとして物体との距離を算出する。
なお、ここでは、物体が超音波センサ10aおよび超音波センサ10bと同じ水平面上にあるものとして物体の位置を算出している。また、距離算出部15は、線分Aの中点と点Ps1との距離を車両50と物体との距離として算出する。距離算出部15が算出した距離をdとする。
ステップS12では、制御部13は、距離算出部15によって物体が検知されたか否かを判定し、判定結果、および、距離算出部15が算出した距離dを画像センサ20に送信する。例えば、制御部13は、距離dが所定の距離以下であるときに物体が検知されたと判定し、距離dが所定の距離よりも長いときに物体が検知されなかったと判定する。
ステップS12にて物体が検知されたと判定されると、ステップS13にて、位置算出部24は、距離dに基づいて検知範囲としての範囲Rを設定し、範囲Rの中でのピッチと外でのピッチを設定する。ここで設定するピッチは、ステップS15で候補点を設定する際に用いられるものであり、ピッチが小さいほど候補点の密度が高くなる。
本実施形態では、範囲Rの中での候補点の密度が範囲Rの外での候補点の密度に比べて高くなるようにピッチが設定される。すなわち、範囲Rの中でのピッチが範囲Rの外でのピッチよりも小さくされる。また、範囲Rの中でのピッチは、ステップS14で設定されるピッチよりも小さくされる。範囲Rは、例えば、車両50からの水平方向距離がdの点を中心とし所定の幅と高さを有する直方体状の範囲とされる。
ステップS12にて物体が検知されなかったと判定されると、ステップS14にて、位置算出部24は、候補点が配置される範囲を所定の範囲とし、候補点のピッチを所定のピッチとする。この所定の範囲は、例えば、ステップS13で設定される範囲Rよりも大きく、車両50から所定の距離にある直方体状の範囲とされる。物体検知装置は、ステップS13、S14からステップS15に進む。
ステップS15では、画像センサ20が移動ステレオ演算を行う。詳細には、まず、制御部22がカメラ21に撮像指示を出し、カメラ21が車両50の周囲を撮像する。このとき、制御部22は時間差を設けて2回撮像するようにカメラ21に指示を出す。
カメラ21が第1時刻に撮像した第1画像および第2時刻に撮像した第2画像は特徴抽出部23に送信される。特徴抽出部23は、第1画像および第2画像それぞれから特徴点を抽出し、特徴点の位置を位置算出部24に送信する。
位置算出部24は、第1画像の特徴点の位置に基づいて、第1時刻におけるカメラ21から見た物体の方向を取得する。そして、物体の位置の候補を示す複数の候補点を設定する。候補点は、ステップS13またはステップS14によって設定された情報に基づいて設定される。
すなわち、ステップS13が行われた場合には、ステップS13にて設定された範囲Rおよびピッチに基づいて、候補点を設定する。これにより、範囲Rの中では範囲Rの外に比べて候補点の密度が高くなる。本実施形態では、範囲Rの中と外それぞれにおいて、等間隔のピッチで候補点が並んでおり、範囲Rの中でのピッチ、すなわち、隣り合う2つの候補点の間の距離は、範囲Rの外でのピッチよりも小さくされている。
例えば、図4に示すように、特徴点の位置から物体が直線Lで示す方向にあると推定された場合、直線L上の複数の点が候補点として設定される。ここでは、候補点を5つ設定した場合について説明する。
5つの候補点をカメラ21から近い順に点P11、点P21、点P31、点P41、点P51とする。点P21、点P31、点P41は範囲Rに含まれ、点P11、点P51は範囲Rの外側に位置している。また、点P11と点P21との距離は点P41と点P51との距離に等しく、点P21と点P31との距離は点P31と点P41との距離に等しい。また、点P11と点P21との距離、点P41と点P51との距離は、点P21と点P31との距離、点P31と点P41との距離よりも長くされている。点P11、点P21、点P31、点P41、点P51の高さをそれぞれh、h、h、h、hとする。水平方向における点P11、点P21、点P31、点P41、点P51とカメラ21との距離をそれぞれd、d、d、d、dとする。
なお、候補点が6つ以上設定されるとき、例えば、点P11点〜P51に加えて点P11よりもカメラ21に近い場所に候補点が設定されるときには、この候補点と点P11との距離が点P11と点P21との距離に等しくなるように、各候補点が配置される。また、例えば、点P11点〜P51に加えて点P51よりもカメラ21から遠い場所に候補点が設定されるときには、この候補点と点P51との距離が点P41と点P51との距離に等しくなるように、各候補点が配置される。
また、ステップS14が行われた場合には、複数の候補点は、直線L上の所定の範囲において等間隔に並ぶように設定される。
位置算出部24には、図示しない車速センサ等から車内LAN40および制御部22を介して、第1時刻から第2時刻までの間に車両50が移動した距離に関する情報が送信される。位置算出部24は、送信された情報に基づいて、複数の候補点それぞれについて、第2時刻での位置を予測する。
図5に示すように、5つの候補点に対応する第2時刻の候補点をそれぞれ点P12、点P22、点P32、点P42、点P52とする。そして、第1時刻から第2時刻までの間にカメラ21が水平方向に移動した距離をΔdとすると、位置算出部24は、点P12〜点P52とカメラ21との距離がそれぞれd−Δd、d−Δd、d−Δd、d−Δd、d−Δdとなると予測する。また、候補点の高さは第1時刻と第2時刻とで変化しないものとする。すなわち、点P12〜点P52の高さはそれぞれh〜hとされる。
また、位置算出部24は、第2画像の特徴点の位置に基づいて、第2時刻での物体の方向を取得する。図5において、直線Lは、第2画像から検出された第2時刻での物体の方向を示している。そして、予測された点P12〜点P52の中から、直線Lに最も近いものを選択し、選択した候補点に対応する位置を物体の位置とする。例えば、予測された点P12〜点P52と直線Lとの関係が図5に示すようになったときには、点P32に対応する位置が第2時刻における物体の位置とされる。
位置算出部24は、このように決定された物体の位置に基づいて車両50と物体との距離を算出し、制御部22および車内LAN40を介してECU30に送信する。位置算出部24が算出した物体との距離をdとする。
なお、ここではカメラ21が車両の周囲を2回撮像した後に候補点を設定したが、候補点の設定等を行った後に2回目の撮像を行ってもよい。
ステップS16では、物体判定部32は、位置算出部24によって物体が検知されたか否かを判定し、判定結果を制御部31に送信する。例えば、物体判定部32は、距離dが所定の距離以下であるときに物体が検知されたと判定し、距離dが所定の距離よりも長いときに物体が検知されなかったと判定する。
ステップS16にて物体が検知されたと判定されると、制御部31は、ステップS17にて、図示しないモニタ、ブザー等を用いて運転者への報知を行い、物体検知処理を終了する。一方、ステップS16にて物体が検知されなかったと判定されると、物体検知装置はステップS11に進む。
以上説明したように、本実施形態では、超音波センサ10が検出した距離dに基づいて範囲Rを設定し、範囲Rの中では、範囲Rの外よりも密度が高くなるように候補点を設定する。このように、超音波センサ10が検出した位置に近い範囲でのみ画像センサ20による演算を高分解能で行うことにより、例えば地面からカメラ21までの高さの範囲すべてについて高分解能で演算する場合に比べて、演算量を小さくすることができる。したがって、演算量の増加を抑制しつつ検出精度を向上させることができる。
また、本実施形態では、複数の超音波センサ10を用いて物体の位置を検出しているので、1つの超音波センサ10によって位置を検出する場合に比べて、範囲Rを狭く設定することができ、演算量をさらに小さくすることができる。
(第2実施形態)
第2実施形態について説明する。本実施形態は、第1実施形態に対して物体検知処理を変更したものであり、その他については第1実施形態と同様であるため、第1実施形態と異なる部分についてのみ説明する。
本実施形態では、超音波センサ10および画像センサ20による物体検知を複数回行い、物体が所定の回数検知されたときに物体の検知を確定し、運転者への報知を行う。
具体的には、図6に示すように、本実施形態ではステップS11の前にステップS21が行われ、物体が検知された回数を示すカウンタが0に設定される。そして、ステップS16にて物体が検知されたと判定されると、ステップS22にてカウンタに1が加算され、ステップS23にて、物体判定部32は、カウンタが所定の閾値よりも大きいか否かを判定する。
カウンタが閾値よりも大きいと判定されると、物体検知装置はステップS17に進み、物体の検知が確定し、運転者への報知が行われる。一方、カウンタが閾値以下であると判定されると、物体検知装置はステップS11に進み、超音波センサ10および画像センサ20による物体の検知を繰り返す。
このように物体検知処理を繰り返すことにより、物体の誤検知を抑制することができる。
(第3実施形態)
第3実施形態について説明する。本実施形態は、第2実施形態に対して物体検知処理を変更したものであり、その他については第2実施形態と同様であるため、第2実施形態と異なる部分についてのみ説明する。
本実施形態では、超音波センサ10が検出した距離dが車内LAN40を介してECU30に送信される。そして、距離dと距離dとの差が小さい場合には、距離dと距離dとの差が大きい場合に比べて、早期に物体検知が確定される。
具体的には、図7に示すように、物体検知装置はステップS16からステップS31に進み、物体判定部32は、距離dと距離dとの差の絶対値が所定の値以下であるか否かを判定する。そして、ステップS31にて|d−d|が所定の値以下であると判定された場合には、物体検知装置はステップS32にてカウンタに2を加算し、ステップS23に進む。
一方、ステップS31にて|d−d|が所定の値よりも大きいと判定された場合には、物体検知装置はステップS22に進み、カウンタに1を加算してステップS23に進む。
このような処理により、|d−d|が小さい場合には、|d−d|が大きい場合に比べて物体の検知が早期に確定される。
距離dと距離dとの差が小さい場合には、両センサが同一物体を検出している可能性が高く、また、至近距離に物体が存在することが予想される。したがって、距離dと距離dとの差が小さい場合に物体の検知を早期に確定させ、運転者への報知や自動ブレーキングを行うことにより、物体との接触等を抑制することができる。
なお、本実施形態ではカウンタに加算する値を変化させることにより物体の検知を確定させるまでの処理を早めたが、別の方法によってこの処理を早めてもよい。例えば、|d−d|が小さいときにカウンタの閾値を小さくするようにしてもよい。また、|d−d|が小さいときにカウンタと閾値との比較を行わずに物体の検知を確定させるようにしてもよい。
(第4実施形態)
第4実施形態について説明する。本実施形態は、第1実施形態に対して超音波センサ10による物体の検知方法を変更したものであり、その他については第1実施形態と同様であるため、第1実施形態と異なる部分についてのみ説明する。
第1実施形態では、物体を点として考えて、物体の位置を示す点Ps1を検出したが、図8に示すような方法によれば、物体を幅がある面として考えて物***置を検出することができる。
すなわち、超音波センサ10aに戻る超音波が反射する位置を示す点をPs2とすると、点Ps2は、点Aを中心とした半径LA1/2の円周上にある。そして、物体を面として考えるなら、この面は点Ps2を通り、直線Ps2に垂直である。図8では、この面を直線Lで示している。
また、入射角と反射角の関係を考慮すれば、超音波センサ10bに到達する超音波が反射する位置を示す点Ps3は、直線Lに対して点Aに対称な点と点Bとを結ぶ直線と、直線Lとの交点となる。直線Lに対して点Aに対称な点をOとすると、線分Ps3の長さは線分OPs3の長さに等しく、直線OBの長さはLB1となる。したがって、点Oは、点Aを中心とする半径LA1の円と、点Bを中心とする半径LB1の円との交点である。
距離算出部15は、超音波の送受信によって距離LA1、LB1が得られたとき、点Aを中心とする半径LA1の円と点Bを中心とする半径LB1の円との交点をOとし、線分OAの中点をPs2とし、点Ps2を通る直線OAの垂線と直線OBとの交点をPs3とする。そして、距離算出部15は、線分Ps2s3上に物体があるものとして、物体との距離を算出する。
(第5実施形態)
第5実施形態について説明する。本実施形態は、第1実施形態に対して超音波センサ10による物体の検知方法を変更したものであり、その他については第1実施形態と同様であるため、第1実施形態と異なる部分についてのみ説明する。
図9に示すように、本実施形態の超音波センサ10は、車両の移動の前後で超音波の送受信を2回行う。なお、ここでは、1回目に超音波を送信してから反射波を受信するまでの間に超音波センサ10が移動する距離、および、2回目に超音波を送信してから反射波を受信するまでの間に超音波センサ10は移動する距離を無視して物体との距離を算出する。
超音波センサ10が1回目に超音波を送信した位置を示す点をAとし、超音波センサ10が1回目に超音波を送信してから反射波を受信するまでの間に超音波が進んだ距離をLA2とすると、点Aと物体との距離はLA2/2となる。
また、超音波センサ10が2回目に超音波を送信した位置を示す点をBとし、超音波センサ10が2回目に超音波を送信してから反射波を受信するまでの間に超音波が進んだ距離をLB2とすると、点Bと物体との距離はLB2/2となる。
距離算出部15は、点Aを中心とする半径LA2/2の円と、点Bを中心とする半径LB2/2の円との交点Ps4に対応する位置に物体があるものとして、物体との距離を算出する。
このように車両の移動を挟んで超音波の送受信を2回行うことにより物体との距離を測定する本実施形態においても、第1実施形態と同様に範囲Rを狭く設定することができ、演算量をさらに小さくすることができる。
(第6実施形態)
第6実施形態について説明する。本実施形態は、第5実施形態に対して超音波センサ10による物体の検知方法を変更したものであり、その他については第5実施形態と同様であるため、第5実施形態と異なる部分についてのみ説明する。
第5実施形態では、物体を点として考えて、物体の位置を示す点Ps4を検出したが、図10に示すような方法によれば、超音波の送受信を車両の移動の前後で2回行う場合に、物体を幅がある面として考えて物***置を検出することができる。
すなわち、1回目の送受信で超音波センサ10に戻る超音波が反射する位置を示す点をPs5とすると、点Ps5は、点Aを中心とする半径LA2/2の円周上にある。また、2回目の送受信で超音波センサ10に戻る超音波が反射する位置を示す点をPs6とすると、点Ps6は、点Bを中心とする半径LB2/2の円周上にある。
そして、物体を面として考えるなら、この面は点Ps5および点Ps6を通り、かつ、直線Ps5および直線Ps6に垂直である。したがって、上記の2つの円の共通接線をLとすると、点Ps5および点Ps6は、上記の2つの円と接線Lの接点となる。
距離算出部15は、距離LA2、LB2を用いて、上記の距離LA2、距離LB2、点Ps5、点Ps6、直線Lの関係に基づいて点Ps5および点Ps6の位置を求め、線分Ps5s6上に物体があるものとして、物体との距離を算出する。
(他の実施形態)
なお、本発明は上記した実施形態に限定されるものではなく、特許請求の範囲に記載した範囲内において適宜変更が可能である。
例えば、超音波センサ10によって物体が検知された場合に、候補点を範囲Rの中にのみ設定してもよく、このように候補点を設定することにより、演算量を小さくすることができる。
また、距離算出部15が直交復調によって受信波の周波数を求め、この周波数を用いて物体の車両に対する相対速度を算出し、複数の候補点の位置、および、物体の相対速度に基づいて、第2時刻での候補点の位置を予測してもよい。また、相対速度を考慮して範囲Rを設定してもよく、例えば、物体の相対速度が大きいほど範囲Rを広く設定してもよい。
10 超音波センサ
21 カメラ
23 特徴抽出部
24 位置算出部

Claims (11)

  1. 車両に搭載され、前記車両の外部の物体を検知する物体検知装置であって、
    超音波の送受信により物体との距離を検出する超音波センサ(10)と、
    前記車両の周囲を第1時刻に撮像して第1画像を取得し、前記第1時刻の後の第2時刻に撮像して第2画像を取得するカメラ(21)と、
    前記第1画像および前記第2画像それぞれから特徴点を抽出する特徴抽出部(23)と、
    前記特徴点の位置、および、前記超音波センサが検出した距離に基づいて、物体の位置を算出する位置算出部(24)と、を備え、
    前記位置算出部は、
    前記第1画像から抽出された特徴点の画像内での位置に基づいて、物体の位置の候補を示す点として複数の候補点を設定し、
    複数の前記候補点の位置、および、前記車両の移動情報に基づいて、複数の前記候補点の前記第2時刻の位置を予測し、
    予測した位置と、前記第2画像から抽出された特徴点の位置とを比較して、物体の位置を算出するものであり、
    複数の前記候補点は、前記超音波センサが検出した距離に基づいて設定される検知範囲(R)の中では、前記検知範囲の外よりも密度が高くなるように設定される物体検知装置。
  2. 前記超音波センサによって物体が検知されたときには、複数の前記候補点は、前記検知範囲の中では前記検知範囲の外よりも密度が高くなるように設定され、
    前記超音波センサによっては物体が検知されなかったときには、複数の前記候補点は、所定の範囲の中で等間隔に配置される請求項1に記載の物体検知装置。
  3. 前記超音波センサによって物体が検知されたときに設定される前記検知範囲の中での前記候補点の密度は、前記超音波センサによっては物体が検知されなかったときに設定される前記所定の範囲の中での前記候補点の密度よりも高くされる請求項2に記載の物体検知装置。
  4. 前記超音波センサによって物体が検知されたときには、複数の前記候補点は、前記検知範囲の中にのみ設定される請求項1ないし3のいずれか1つに記載の物体検知装置。
  5. 前記位置算出部の算出結果に基づいて、所定の距離よりも近い場所に物体が存在するか否かを判定する物体判定部(32)を備え、
    前記物体判定部は、前記超音波センサが検出した距離と、前記位置算出部が算出した位置から求められる物体との距離との差の絶対値が所定値よりも小さいときには、所定の距離よりも近い場所に物体が存在すると判定するまでの処理を早める請求項1ないし4のいずれか1つに記載の物体検知装置。
  6. 前記車両に対する物体の相対速度が大きいほど、前記検知範囲が広く設定される請求項1ないし5のいずれか1つに記載の物体検知装置。
  7. 前記位置算出部は、複数の前記候補点の位置、および、前記車両に対する物体の相対速度に基づいて、複数の前記候補点の前記第2時刻の位置を予測する請求項1ないし6のいずれか1つに記載の物体検知装置。
  8. 前記超音波センサとしての第1センサ(10a)および第2センサ(10b)を備え、
    前記第1センサが超音波を送信し、前記第1センサおよび前記第2センサが該超音波の反射波を受信したときに、
    前記第1センサの位置を示す点をAとし、
    前記第1センサが超音波を送信してから反射波を受信するまでの間に超音波が進んだ距離をLA1とし、
    前記第2センサの位置を示す点をBとし、
    前記第1センサが超音波を送信してから前記第2センサが反射波を受信するまでの間に超音波が進んだ距離をLB1とし、
    前記点Aを中心とする半径LA1/2の円と、前記点Bを中心とする半径LB1−LA1/2の円との交点に対応する位置に物体が存在するものとして物体との距離が算出される請求項1ないし7のいずれか1つに記載の物体検知装置。
  9. 前記超音波センサとしての第1センサ(10a)および第2センサ(10b)を備え、
    前記第1センサが超音波を送信し、前記第1センサおよび前記第2センサが該超音波の反射波を受信したときに、
    前記第1センサの位置を示す点をAとし、
    前記第1センサが超音波を送信してから反射波を受信するまでの間に超音波が進んだ距離をLA1とし、
    前記第2センサの位置を示す点をBとし、
    前記第1センサが超音波を送信してから前記第2センサが反射波を受信するまでの間に超音波が進んだ距離をLB1とし、
    前記点Aを中心とする半径LA1の円と、前記点Bを中心とする半径LB1の円との交点をOとし、
    線分OAの中点をPs2とし、
    前記中点Ps2を通る直線OAの垂線と直線OBとの交点をPs3とし、
    線分Ps2s3に対応する位置に物体が存在するものとして物体との距離が算出される請求項1ないし7のいずれか1つに記載の物体検知装置。
  10. 前記超音波センサは、前記車両の移動の前後で超音波の送受信を2回行い、
    前記超音波センサが1回目に超音波を送信した位置を示す点をAとし、
    前記超音波センサが1回目に超音波を送信してから該超音波の反射波を受信するまでの間に超音波が進んだ距離をLA2とし、
    前記超音波センサが2回目に超音波を送信した位置を示す点をBとし、
    前記超音波センサが2回目に超音波を送信してから該超音波の反射波を受信するまでの間に超音波が進んだ距離をLB2とし、
    前記点Aを中心とする半径LA2/2の円と、前記点Bを中心とする半径LB2/2の円との交点に対応する位置に物体が存在するものとして物体との距離が算出される請求項1ないし7のいずれか1つに記載の物体検知装置。
  11. 前記超音波センサは、前記車両の移動の前後で超音波の送受信を2回行い、
    前記超音波センサが1回目に超音波を送信した位置を示す点をAとし、
    前記超音波センサが1回目に超音波を送信してから該超音波の反射波を受信するまでの間に超音波が進んだ距離をLA2とし、
    前記超音波センサが2回目に超音波を送信した位置を示す点をBとし、
    前記超音波センサが2回目に超音波を送信してから該超音波の反射波を受信するまでの間に超音波が進んだ距離をLB2とし、
    前記点Aを中心とする半径LA2/2の円と、前記点Bを中心とする半径LB2/2の円との共通接線をLとし、
    前記点Aを中心とする半径LA2/2の円と前記共通接線Lとの接点をPs5とし、
    前記点Bを中心とする半径LB2/2の円と前記共通接線Lとの接点をPs6とし、
    線分Ps5s6に対応する位置に物体が存在するものとして物体との距離が算出される請求項1ないし7のいずれか1つに記載の物体検知装置。
JP2017204513A 2017-10-23 2017-10-23 物体検知装置 Active JP6753383B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017204513A JP6753383B2 (ja) 2017-10-23 2017-10-23 物体検知装置
PCT/JP2018/034876 WO2019082563A1 (ja) 2017-10-23 2018-09-20 物体検知装置
US16/854,023 US11467281B2 (en) 2017-10-23 2020-04-21 Object detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017204513A JP6753383B2 (ja) 2017-10-23 2017-10-23 物体検知装置

Publications (2)

Publication Number Publication Date
JP2019079188A JP2019079188A (ja) 2019-05-23
JP6753383B2 true JP6753383B2 (ja) 2020-09-09

Family

ID=66246904

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017204513A Active JP6753383B2 (ja) 2017-10-23 2017-10-23 物体検知装置

Country Status (3)

Country Link
US (1) US11467281B2 (ja)
JP (1) JP6753383B2 (ja)
WO (1) WO2019082563A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019202627A1 (ja) * 2018-04-16 2019-10-24 三菱電機株式会社 障害物検出装置、障害物検出装置を利用した自動ブレーキ装置、障害物検出方法、および障害物検出方法を利用した自動ブレーキ方法
JP7204612B2 (ja) * 2019-08-06 2023-01-16 株式会社東芝 位置姿勢推定装置、位置姿勢推定方法及びプログラム
JP7099426B2 (ja) * 2019-10-09 2022-07-12 株式会社デンソー 物体認識装置
US11634127B2 (en) * 2020-09-15 2023-04-25 Aptiv Technologies Limited Near-object detection using ultrasonic sensors
CN112115930B (zh) * 2020-11-23 2021-03-16 腾讯科技(深圳)有限公司 位姿信息的确定方法和装置
JP2022114767A (ja) * 2021-01-27 2022-08-08 キヤノン株式会社 光学系、撮像装置、車載システムおよび移動装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3494434B2 (ja) 1999-10-21 2004-02-09 松下電器産業株式会社 駐車支援装置
US7301479B2 (en) * 2003-09-26 2007-11-27 Chrysler Llc Trailer detection circuit for a vehicle park assist system
JP4394476B2 (ja) * 2004-02-20 2010-01-06 富士重工業株式会社 車両用運転支援装置
US7298247B2 (en) * 2004-04-02 2007-11-20 Denso Corporation Vehicle periphery monitoring system
JP4315117B2 (ja) 2004-04-02 2009-08-19 株式会社デンソー 車両周辺監視システム
US8260539B2 (en) * 2010-05-12 2012-09-04 GM Global Technology Operations LLC Object and vehicle detection and tracking using 3-D laser rangefinder
JP2013054399A (ja) * 2011-08-31 2013-03-21 Honda Motor Co Ltd 車両周辺監視装置
US20130215221A1 (en) * 2012-02-21 2013-08-22 Sen Wang Key video frame selection method
JP6019959B2 (ja) * 2012-09-06 2016-11-02 富士通株式会社 物体検出装置、物体検出プログラムおよび車両
JP5996421B2 (ja) 2012-12-26 2016-09-21 ヤマハ発動機株式会社 障害物検出装置及びそれを用いた車両
KR102092625B1 (ko) * 2013-10-15 2020-04-14 현대모비스 주식회사 차량 상태 경보 방법 및 이를 위한 장치
US8886387B1 (en) * 2014-01-07 2014-11-11 Google Inc. Estimating multi-vehicle motion characteristics by finding stable reference points
JP6559535B2 (ja) * 2015-10-22 2019-08-14 株式会社東芝 障害物マップ生成装置、その方法、及び、そのプログラム
JP6782192B2 (ja) 2017-05-17 2020-11-11 株式会社デンソーアイティーラボラトリ 物体検出装置、物体検出方法、及びプログラム

Also Published As

Publication number Publication date
US11467281B2 (en) 2022-10-11
JP2019079188A (ja) 2019-05-23
US20200249347A1 (en) 2020-08-06
WO2019082563A1 (ja) 2019-05-02

Similar Documents

Publication Publication Date Title
JP6753383B2 (ja) 物体検知装置
US9470548B2 (en) Device, system and method for calibration of camera and laser sensor
US10922561B2 (en) Object recognition device and vehicle travel control system
JP4682816B2 (ja) 障害物位置検出装置
JP2004037239A (ja) 同一対象物判断方法および装置、並びに、位置ずれ補正方法および装置
JP6396714B2 (ja) 物体認識装置
JP6450294B2 (ja) 物体検出装置、物体検出方法、及びプログラム
JP2014137288A (ja) 車両周辺監視装置および車両周辺監視方法
JP5012270B2 (ja) 物体検出装置
JP2018037737A5 (ja)
EP3548838A1 (en) Wire rope measuring device and wire rope measuring method
JP2019020158A5 (ja)
JP2017009572A5 (ja)
JP6697281B2 (ja) 物体検知装置
WO2016031918A1 (ja) 軸ずれ診断装置
CN104417454B (zh) 用于检测障碍物的装置和方法
JP2019159380A (ja) 物体検知装置、物体検知方法およびプログラム
CN113099120B (zh) 深度信息获取方法、装置、可读存储介质及深度相机
CN109263649B (zh) 车辆及其自动驾驶模式下的物体识别方法和物体识别***
JP2013108921A (ja) 超音波センサシステム
JP3925285B2 (ja) 走行路環境検出装置
JP6954367B2 (ja) 計測システム、補正処理装置、補正処理方法、及びプログラム
JP2019086406A (ja) 物体検知装置
WO2019078211A1 (ja) 移動物体認識装置
JP7027810B2 (ja) 物体検知装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200602

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200703

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200721

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200803

R150 Certificate of patent or registration of utility model

Ref document number: 6753383

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250