JP2019086406A - Object detector - Google Patents
Object detector Download PDFInfo
- Publication number
- JP2019086406A JP2019086406A JP2017214855A JP2017214855A JP2019086406A JP 2019086406 A JP2019086406 A JP 2019086406A JP 2017214855 A JP2017214855 A JP 2017214855A JP 2017214855 A JP2017214855 A JP 2017214855A JP 2019086406 A JP2019086406 A JP 2019086406A
- Authority
- JP
- Japan
- Prior art keywords
- point
- distance
- ultrasonic sensor
- vehicle
- ultrasonic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Length Measuring Devices With Unspecified Measuring Means (AREA)
- Geophysics And Detection Of Objects (AREA)
- Traffic Control Systems (AREA)
- Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Description
本発明は、物体検知装置に関するものである。 The present invention relates to an object detection device.
従来、車両に搭載されたカメラを用いて車両の周囲の物体を検知する技術が提案されている。例えば特許文献1では、車両の移動中にカメラによって車両の周囲を2回撮像し、これにより得られた2つの画像に基づいて障害物の位置を検出する技術が提案されている。
Conventionally, a technique has been proposed for detecting an object around a vehicle using a camera mounted on the vehicle. For example,
しかしながら、このようにカメラが撮像した画像に基づいて物体を検知する方法では、車両と物体との距離の測定精度にばらつきが生じやすいため、物体の検知精度が低下するおそれがある。 However, in the method of detecting an object based on the image captured by the camera as described above, the measurement accuracy of the distance between the vehicle and the object is likely to vary, so the detection accuracy of the object may be reduced.
本発明は上記点に鑑みて、カメラを用いた物体検知装置において、検知精度の低下を抑制することを目的とする。 In view of the above-described points, the present invention has an object to suppress a decrease in detection accuracy in an object detection apparatus using a camera.
上記目的を達成するため、請求項1に記載の発明では、車両に搭載されて、車両の外部の物体を検知する物体検知装置であって、超音波の送受信により物体を検知し、物体の位置を検出する超音波センサ(10)と、車両の周囲を撮像して複数の画像を取得し、該複数の画像に基づいて物体を検知するカメラシステム(20)と、超音波センサおよびカメラシステムが同一の物体を検知したか否かを判定する物体判定部(30)と、を備え、カメラシステムは、複数の画像から輝度に特徴を有する画素を抽出する特徴画素抽出部(22)と、特徴画素抽出部によって複数の画像から共通して抽出された画素を特徴点として、特徴点の位置を検出する特徴点検出部(23)と、を備え、超音波センサを通る平面において、超音波センサが検出した物体の位置を示す点をPsとし、点Psを含む領域をRとし、領域Rに含まれる特徴点の数をN1として、物体判定部は、数N1が所定数以上であるとき、超音波センサおよびカメラシステムが同一の物体を検知したと判定する。
In order to achieve the above object, the invention according to
このように、カメラシステムと超音波センサを組み合わせて用い、超音波センサの検出点に近い特徴点の数をカウントして物体の検知結果を確定させることにより、検知精度の低下を抑制することができる。 As described above, by using the camera system and the ultrasonic sensor in combination and counting the number of feature points close to the detection point of the ultrasonic sensor to determine the detection result of the object, it is possible to suppress the decrease in detection accuracy. it can.
なお、上記各手段の括弧内の符号は、後述する実施形態に記載の具体的手段との対応関係の一例を示すものである。 In addition, the code | symbol in the parenthesis of each said means shows an example of the correspondence with the specific means as described in embodiment mentioned later.
以下、本発明の実施形態について図に基づいて説明する。なお、以下の各実施形態相互において、互いに同一もしくは均等である部分には、同一符号を付して説明を行う。 Hereinafter, an embodiment of the present invention will be described based on the drawings. In the following embodiments, parts that are the same as or equivalent to each other will be described with the same reference numerals.
(第1実施形態)
第1実施形態について説明する。本実施形態の物体検知装置は、車両に搭載された超音波センサとカメラによって車両の外部の物体を検知するものである。図1に示すように、物体検知装置は、超音波センサ10と、カメラシステム20と、ECU30とを備えている。なお、本実施形態では、物体検知装置は超音波センサ10を複数備えており、図1では、物体検知装置が備える複数の超音波センサ10のうちの1つを図示している。
First Embodiment
The first embodiment will be described. The object detection apparatus of this embodiment detects an object outside the vehicle by an ultrasonic sensor and a camera mounted on the vehicle. As shown in FIG. 1, the object detection device includes an
超音波センサ10は、超音波の送受信により物体を検知し、物体の位置を検出するものであり、マイクロホン11と、送波部12と、パルス生成部13と、受波部14と、距離算出部15とを備えている。距離算出部15、および、後述する特徴画素抽出部22等は、CPU、ROM、RAM、I/Oなどを備えた周知のマイクロコンピュータによって構成され、ROMなどに記憶されたプログラムに従って各種演算などの処理を実行する。
The
マイクロホン11は、車両の外表面に面して配置されており、物体を検知するための超音波を車両の外側に向けて送信するものである。具体的には、マイクロホン11は、互いに対向する2つの電極の間に圧電膜が配置された構成の図示しない圧電素子を備えている。そして、2つの電極は送波部12に接続されており、送波部12から交流電圧が印加されて圧電膜が変形することにより、マイクロホン11から車両の外側へ超音波が送信される。
The
送波部12は、入力された信号をD/A変換し、これにより生成された電圧を出力するものである。送波部12にはパルス信号を生成するパルス生成部13が接続されており、送波部12は、パルス生成部13から入力されたパルス信号をD/A変換し、これにより生成された交流電圧をマイクロホン11に印加する。
The wave transmission unit 12 D / A converts the input signal and outputs a voltage generated thereby. A
また、マイクロホン11は、超音波を受信し、受信した超音波の音圧に応じた電圧を出力するように構成されている。具体的には、マイクロホン11が備える圧電素子の2つの電極は、受波部14にも接続されており、超音波を受信して圧電膜が変形したときの2つの電極間の電圧が受波部14に入力されるようになっている。受波部14は、マイクロホン11から入力された電圧をA/D変換し、これにより生成された信号を出力する。
Further, the
距離算出部15は、受波部14がA/D変換によって生成した信号を用いて物体との距離を算出するものである。距離算出部15は、受波部14から信号が入力されると、この信号に対して直交復調を行い、受信波の振幅を検出する。そして、距離算出部15は、受信波の振幅を所定の閾値と比較し、パルス生成部13がパルス信号の生成を開始してから受信波の振幅が閾値以上となるまでの時間に基づいて、物体との距離を算出する。
The
カメラシステム20は、車両の周囲を撮像して複数の画像を取得し、該複数の画像に基づいて物体を検知するものであり、カメラ21と、特徴画素抽出部22と、特徴点検出部23とを備えている。
The
カメラ21は、車両の周囲を撮像して複数の画像を取得するものである。カメラ21としては、同時に2枚の画像を撮像可能なステレオカメラや、時間差を設けて2枚の画像を撮像する移動ステレオカメラを用いることができる。カメラ21は、撮像した画像を特徴画素抽出部22に送信する。
The
特徴画素抽出部22は、カメラ21が撮像した複数の画像から、輝度に特徴を有する画素を抽出するものである。
The feature
例えば、特徴画素抽出部22は、画像を複数の領域に分割し、各領域の中で輝度がある程度大きく変化しているか否かを判定し、輝度がある程度大きく変化している場合には、領域内の1つの画素を輝度に特徴を有する画素として抽出する。特徴画素抽出部22は、抽出した画素の情報を特徴点検出部23に送信する。
For example, the feature
特徴点検出部23は、特徴画素抽出部22が抽出した画素のうち、複数の画像から共通して抽出された画素を特徴点として、特徴点の位置を検出するものである。カメラシステム20では、特徴点検出部23が特徴点を1つ以上検出することにより、物体を検知する。
The feature
このように、物体検知装置では、超音波センサ10およびカメラシステム20がそれぞれ物体を検知する。そして、超音波センサ10とカメラシステム20の検知結果、すなわち、距離算出部15が算出した距離、および、特徴点検出部23が検出した特徴点の位置は、ECU30に送信される。
Thus, in the object detection apparatus, the
ECU30は、超音波センサ10とカメラシステム20が同一の物体を検知したか否かを判定するものであり、物体判定部に相当する。ECU30によって超音波センサ10とカメラシステム20が同一の物体を検知したと判定されると、物体の検知結果が確定し、検出された距離に応じて自動ブレーキングや運転者への報知が行われる。
The
物体検知装置の作動について説明する。物体検知装置では、ECU30が超音波センサ10およびカメラシステム20に定期的に物体検知指示を送信する。
The operation of the object detection device will be described. In the object detection apparatus, the
超音波センサ10は、ECU30からの物体検知指示を受信すると、三角測量によって物体との距離を検知する。ここでは、図2に示すように、車両40に搭載された複数の超音波センサ10のうちの2つを超音波センサ10a、10bとして、超音波センサ10aが超音波を送信するとともに、超音波センサ10a、10bが超音波を受信する場合について説明する。超音波センサ10a、10bは、それぞれ第1センサ、第2センサに相当する。
When receiving the object detection instruction from the
超音波センサ10aが超音波を送信してから超音波を受信するまでの時間をTAとし、 超音波センサ10aが超音波を送信してから超音波センサ10bが超音波を受信するまでの時間をTBとする。そして、時間TA、TBの間に超音波が進む距離をLA1、LB1とすると、超音波センサ10aと物体との距離はLA1/2、超音波センサ10bと物体との距離はLB1−LA1/2となる。
Time to the
したがって、超音波センサ10a、10bの位置を示す点をA1、B1とし、物体の位置を示す点をPs1とすると、点Ps1は、点A1を中心とした半径LA1/2の円と、点B1を中心とした半径LB1−LA1/2の円との交点となる。
Therefore, assuming that the points indicating the positions of the
例えば、超音波センサ10a、10bのいずれか一方の距離算出部15が、LA1、LB1を用いて点Ps1の位置を求め、点Ps1に物体が存在するものとして物体との距離を算出する。
For example, the
なお、ここでは、後述する平面Sに物体が存在するものとして物体の位置を算出している。また、距離算出部15は、例えば線分A1B1の中点と点Ps1との距離を車両40と物体との距離として算出する。距離算出部15が算出した距離をdsとする。
Here, the position of the object is calculated on the assumption that the object exists on a plane S described later. The
カメラシステム20は、ECU30からの物体検知指示を受信すると、カメラ21によって車両の周囲を撮像する。これにより、例えば図3に示すような物体50が撮像された画像が取得される。カメラ21は、このような画像を複数撮像する。そして、特徴画素抽出部22は、複数の画像それぞれから輝度に特徴を有する画素を抽出する。
When receiving an object detection instruction from the
特徴点検出部23は、特徴画素抽出部22が抽出した画素に基づいて特徴点を抽出し、特徴点の位置をECU30に送信する。なお、特徴点検出部23は、カメラ21が撮像した画像を図4に示すような鳥瞰画像に変換して特徴点の位置を算出する。
The feature
この画像は、超音波センサ10を通る平面内の画像である。この平面を平面Sとする。平面Sは、例えば車両の前後左右方向を含む平面や、水平面とされる。平面Sに含まれる互いに垂直な2つの方向をそれぞれx方向、y方向として、本実施形態では、x方向は、超音波センサ10a、10bが並ぶ方向とされている。
This image is an image in a plane passing through the
特徴点検出部23は、図4に示す画像での特徴点の位置、すなわち、平面S内での特徴点の位置、および、特徴点の高さを求め、ECU30に送信する。なお、図4において、hは特徴点の高さ[cm]である。
The feature
ECU30は、超音波センサ10およびカメラシステム20から送信された情報に基づいて、図5に示すステップS11〜S14によって物体の検知結果を確定させる。ECU30は、超音波センサ10およびカメラシステム20に定期的に物体検知指示を送信し、超音波センサ10およびカメラシステム20から検知結果を受信すると、図5に示す処理を行う。
The
ステップS11では、ECU30は、平面Sにおいて、超音波センサ10が検出した物体の位置を示す点Psを含むように、領域Rを設定する。前述したように、本実施形態では超音波センサ10a、10bによって点Ps1が検出されており、ECU30は、点Psとして点Ps1を用いて、領域Rを設定する。
In step S11, the
図4に示すように、本実施形態では、領域Rは、点Ps1を中心としてx方向に平行な所定長さの2つの辺およびy方向に平行な所定長さの2つの辺を有する長方形状とされている。このように領域Rを簡単な形状とすることで、領域Rの設定や、ステップS12における演算が容易になる。 As shown in FIG. 4, in the present embodiment, the region R is a rectangle having two sides of a predetermined length parallel to the x direction centering on the point P s1 and two sides of a predetermined length parallel to the y direction. It is in the form of By setting the region R to a simple shape as described above, setting of the region R and calculation in step S12 become easy.
ECU30は、ステップS11からステップS12に進み、特徴点検出部23から送信された特徴点の位置に基づいて、特徴点検出部23が検出した特徴点のうち領域Rに含まれるものの数N1を求め、N1が所定数以上であるか否かを判定する。
The
例えば、N1≧5であると判定すると、ECU30はステップS13に進み、超音波センサ10およびカメラシステム20が同一の物体を検知したと判定する。そして、ECU30は、超音波センサ10およびカメラシステム20が検出した物体の位置に基づいて、車両から所定距離以内に物体が存在するか否かを判定し、所定距離以内に物体が存在すると判定した場合には運転者への報知などを行い、処理を終了する。
For example, when it is determined that N 1 55, the
一方、ステップS12にてN1≧5でないと判定すると、ECU30はステップS14に進み、所定距離以内に物体が存在するか否かの判定をせずに処理を終了する。
On the other hand, when it is determined in step S12 that N 1 55 does not hold, the
以上説明したように、本実施形態の物体検知装置は、超音波センサ10とカメラシステム20の検知結果を組み合わせて用いることにより、物体の検知結果を確定させている。
As described above, the object detection apparatus of the present embodiment uses the detection results of the
例えばカメラシステムのみで物体を検知する方法では、車両と物体との距離を測定する際に、特に奥行き方向の測定精度にばらつきが生じやすく、検知精度が低下するおそれがある。カメラシステムにおいて、クラスタリング処理などで精度を向上させることも可能であるが、処理負荷が増加する。また、例えばミリ波レーダとカメラの検知を組み合わせて判定する方法では、精度の高い距離検出が難しいため、特に駐車時のような高い距離分解能が求められるシーンには適していない。 For example, in the method of detecting an object only with a camera system, when measuring the distance between the vehicle and the object, the measurement accuracy in the depth direction is likely to vary, and the detection accuracy may be reduced. In the camera system, although it is possible to improve the accuracy by clustering processing or the like, the processing load increases. Further, for example, in the method of determining by combining the detection of the millimeter wave radar and the camera, it is difficult to detect the distance with high accuracy, so it is not particularly suitable for a scene where high distance resolution is required such as parking.
これに対して、本実施形態では、カメラシステム20に比べて奥行き方向の精度が良い超音波センサ10をカメラシステム20に組み合わせて用いることにより、検知精度の低下を抑制することができる。また、領域Rに含まれる特徴点の数をカウントするという簡易な方法で検知結果の一致判定を行うので、処理負荷の増加を抑制することができる。
On the other hand, in the present embodiment, a decrease in detection accuracy can be suppressed by using the
また、カメラシステム20が通常多数の特徴点を検出するのに対し、超音波センサ10は物体の位置としてカメラシステム20よりも少ない数、例えば1つの位置を検出する。そのため、超音波センサ10をカメラシステム20に組み合わせて用いることにより、複数の障害物が存在し特徴点の集合の分布が分かれる場合等に、車両と接触する可能性がより高い物体を優先的に検知することができる。
Also, while the
(第2実施形態)
第2実施形態について説明する。本実施形態は、第1実施形態に対して超音波センサ10による物体の検知方法を変更したものであり、その他については第1実施形態と同様であるため、第1実施形態と異なる部分についてのみ説明する。
Second Embodiment
The second embodiment will be described. The present embodiment is the same as the first embodiment except that the method of detecting an object by the
第1実施形態では、物体を点として考えて、物体の位置を示す点Ps1を検出したが、図6に示すような方法によれば、物体を幅がある面として考えて物***置を検出することができる。 In the first embodiment, the object is regarded as a point, and the point P s1 indicating the position of the object is detected. However, according to the method as shown in FIG. can do.
すなわち、超音波センサ10aに戻る超音波が反射する位置を示す点をPs2とすると、点Ps2は、点A1を中心とした半径LA1/2の円周上にある。そして、物体を面として考えるなら、この面は点Ps2を通り、直線Ps2A1に垂直である。図6では、この面を直線L1で示している。
That is, when the point indicating the position of ultrasonic waves back to the
また、入射角と反射角の関係を考慮すれば、超音波センサ10bに到達する超音波が反射する位置を示す点Ps3は、直線L1に対して点A1に対称な点と点B1とを結ぶ直線と、直線L1との交点となる。直線L1に対して点A1に対称な点をOとすると、線分Ps3A1の長さは線分OPs3の長さに等しく、直線OB1の長さはLB1となる。したがって、点Oは、点A1を中心とする半径LA1の円と、点B1を中心とする半径LB1の円との交点である。
Furthermore, considering the relationship between reflection and incident angles, the
距離算出部15は、超音波の送受信によって距離LA1、LB1が得られたとき、点A1を中心とする半径LA1の円と点B1を中心とする半径LB1の円との交点をOとし、線分OA1の中点をPs2とし、点Ps2を通る直線OA1の垂線と直線OB1との交点をPs3とする。そして、距離算出部15は、線分Ps2Ps3上に物体があるものとして、物体との距離を算出する。ECU30は、点Psとして線分Ps2Ps3上の1つの点、あるいは複数の点を用いて、線分Ps2Ps3の一部または全体が含まれるように領域Rを設定する。
(第3実施形態)
第3実施形態について説明する。本実施形態は、第1実施形態に対して超音波センサ10による物体の検知方法を変更したものであり、その他については第1実施形態と同様であるため、第1実施形態と異なる部分についてのみ説明する。
Third Embodiment
A third embodiment will be described. The present embodiment is the same as the first embodiment except that the method of detecting an object by the
図7に示すように、本実施形態の超音波センサ10は、車両の移動の前後で超音波の送受信を2回行う。なお、ここでは、1回目に超音波を送信してから反射波を受信するまでの間に超音波センサ10が移動する距離、および、2回目に超音波を送信してから反射波を受信するまでの間に超音波センサ10が移動する距離を無視して物体との距離を算出する。
As shown in FIG. 7, the
本実施形態では、x方向は、超音波センサが1回目に超音波を送信した位置と、2回目に超音波を送信した位置とを結ぶ方向とされている。 In the present embodiment, the x direction is a direction connecting the position where the ultrasonic sensor transmitted the ultrasonic wave for the first time and the position where the ultrasonic wave was transmitted for the second time.
超音波センサ10が1回目に超音波を送信した位置を示す点をA2とし、超音波センサ10が1回目に超音波を送信してから反射波を受信するまでの間に超音波が進んだ距離をLA2とすると、点A2と物体との距離はLA2/2となる。
The point at which the
また、超音波センサ10が2回目に超音波を送信した位置を示す点をB2とし、超音波センサ10が2回目に超音波を送信してから反射波を受信するまでの間に超音波が進んだ距離をLB2とすると、点B2と物体との距離はLB2/2となる。
Further, a point that the
距離算出部15は、点A2を中心とする半径LA2/2の円と、点B2を中心とする半径LB2/2の円との交点Ps4に対応する位置に物体があるものとして、物体との距離を算出する。ECU30は、点Psとして交点Ps4を用いて、交点Ps4が含まれるように領域Rを設定する。
The
(第4実施形態)
第4実施形態について説明する。本実施形態は、第1実施形態に対して超音波センサ10による物体の検知方法を変更したものであり、その他については第1実施形態と同様であるため、第1実施形態と異なる部分についてのみ説明する。
Fourth Embodiment
A fourth embodiment will be described. The present embodiment is the same as the first embodiment except that the method of detecting an object by the
第3実施形態では、物体を点として考えて、物体の位置を示す点Ps4を検出したが、図8に示すような方法によれば、超音波の送受信を車両の移動の前後で2回行う場合に、物体を幅がある面として考えて物***置を検出することができる。 In the third embodiment, an object is considered as a point, and a point Ps4 indicating the position of the object is detected. However, according to the method as shown in FIG. 8, transmission and reception of ultrasonic waves are performed twice before and after movement of the vehicle. When performing, the object position can be detected by considering the object as a wide surface.
すなわち、1回目の送受信で超音波センサ10に戻る超音波が反射する位置を示す点をPs5とすると、点Ps5は、点A2を中心とする半径LA2/2の円周上にある。また、2回目の送受信で超音波センサ10に戻る超音波が反射する位置を示す点をPs6とすると、点Ps6は、点B2を中心とする半径LB2/2の円周上にある。
That is, assuming that a point indicating a position at which the ultrasonic wave returning to the
そして、物体を面として考えるなら、この面は点Ps5および点Ps6を通り、かつ、直線Ps5A2および直線Ps6B2に垂直である。したがって、上記の2つの円の共通接線をL2とすると、点Ps5および点Ps6は、上記の2つの円と接線L2の接点となる。 Then, we consider the object as a face, this face passes through the point P s5 and the point P s6, and is perpendicular to the straight line P s5 A 2 and linear P s6 B 2. Therefore, when the common tangent of two circles above and L 2, the point P s5 and the point P s6 is a two circles and contact of the tangent L 2 above.
距離算出部15は、距離LA2、LB2を用いて、上記の距離LA2、距離LB2、点Ps5、点Ps6、直線L2の関係に基づいて点Ps5および点Ps6の位置を求め、線分Ps5Ps6上に物体があるものとして、物体との距離を算出する。ECU30は、点Psとして線分Ps5Ps6上の1つの点、あるいは複数の点を用いて、線分Ps5Ps6の一部または全体が含まれるように領域Rを設定する。
The
(第5実施形態)
第5実施形態について説明する。本実施形態は、第1実施形態に対して領域Rの形状を変更したものであり、その他については第1実施形態と同様であるため、第1実施形態と異なる部分についてのみ説明する。
Fifth Embodiment
A fifth embodiment will be described. The present embodiment is the same as the first embodiment except that the shape of the region R is modified with respect to the first embodiment, and therefore only the portions different from the first embodiment will be described.
本実施形態では、領域Rが台形状とされている。具体的には、図9に示すように、領域Rの形状は、x方向に平行な2つの辺を有する台形状とされており、この2つの辺のうち車両から遠い方が車両に近い方よりも長くされている。 In the present embodiment, the region R is trapezoidal. Specifically, as shown in FIG. 9, the shape of the region R is a trapezoidal shape having two sides parallel to the x direction, and one of the two sides which is farther from the vehicle is closer to the vehicle It is longer than that.
カメラシステム20による物***置の検出では、カメラ21を中心とする円周方向に誤差が生じやすい。したがって、検出誤差が生じやすい方向に沿って領域Rを広げ、特徴点をカウントすることにより、超音波センサ10とカメラシステム20の検知結果が関連づけされやすくなり、ECU30の判定精度が向上する。
In the detection of the object position by the
(第6実施形態)
第6実施形態について説明する。本実施形態は、第1実施形態に対して領域Rの形状を変更したものであり、その他については第1実施形態と同様であるため、第1実施形態と異なる部分についてのみ説明する。
Sixth Embodiment
A sixth embodiment will be described. The present embodiment is the same as the first embodiment except that the shape of the region R is modified with respect to the first embodiment, and therefore only the portions different from the first embodiment will be described.
図10に示すように、本実施形態の領域Rは、中心に対して車両とは反対側に広がる扇状とされている。領域Rをこのような形状とすることで、領域Rの広がる方向がカメラシステム20の検出誤差が生じやすい方向にさらによく一致するようになり、ECU30の判定精度がさらに向上する。
As shown in FIG. 10, the region R of the present embodiment is fan-shaped and extends on the side opposite to the vehicle with respect to the center. By setting the region R to such a shape, the direction in which the region R extends is more in line with the direction in which the detection error of the
(第7実施形態)
第7実施形態について説明する。本実施形態は、第1実施形態に対して検知結果の一致判定処理を変更したものであり、その他については第1実施形態と同様であるため、第1実施形態と異なる部分についてのみ説明する。
Seventh Embodiment
A seventh embodiment will be described. The present embodiment is the same as the first embodiment except that the matching determination processing of the detection result is changed with respect to the first embodiment, and only the parts different from the first embodiment will be described.
本実施形態では、ECU30は、図11に示す処理によって検知結果の一致判定を行う。すなわち、ECU30は、ステップS11からステップS21に進み、特徴点検出部23が検出した特徴点のうち、領域Rに含まれ、かつ、高さが所定の範囲内にあるものの数をN2として、N2が所定数以上であるか否かを判定する。ECU30は、例えば、領域Rに含まれる特徴点のうち20≦hであるものの数が5以上であるか否かを判定する。
In the present embodiment, the
上記の所定の範囲については、物体の検知範囲と処理負荷を考慮して設定される。例えば、所定の範囲の下限を、車両が備えるバンパの下端の高さの0.5倍以上2倍以下の高さとし、上限を、車両の高さより大きい値とすることにより、必要な検知範囲の広さを確保しつつ処理負荷を軽減することができる。 The predetermined range is set in consideration of the detection range of the object and the processing load. For example, by setting the lower limit of the predetermined range to a height not less than 0.5 times and not more than twice the height of the lower end of the bumper provided in the vehicle, the upper limit is a value larger than the height of the vehicle. The processing load can be reduced while securing the area.
ステップS21にてN2が所定数以上であると判定すると、ECU30は、ステップS22に進み、車両と特徴点との平均距離dc、および、車両と特徴点との距離の標準偏差σを算出する。例えば、距離dcとして、領域Rに含まれる特徴点とカメラ21とのy方向における距離の平均値dcy1を用い、標準偏差σとして、領域Rに含まれる特徴点とカメラ21とのy方向における距離の標準偏差σyを用いる。また、距離dcとして、領域Rに含まれる特徴点とカメラ21とのx方向における距離の平均値dcx1を用い、標準偏差σとして、領域Rに含まれる特徴点とカメラ21とのx方向における距離の標準偏差σxを用いてもよい。
If it is determined in step S21 that N 2 is equal to or greater than the predetermined number, the
ECU30は、ステップS22からステップS23に進み、所定の係数をkとして、距離dsと距離dcとの差の絶対値がkσ以下であるか否かを判定する。距離dcとしてdcy1を用い、標準偏差σとしてσyを用いる場合には、距離dsとして、点Psと車両とのy方向における距離dsyを用いる。また、距離dcとしてdcx1を用い、標準偏差σとしてσxを用いる場合には、距離dsとして、点Psと車両とのx方向における距離dsxを用いる。
The
|ds−dc|≦kσであると判定すると、ECU30は、ステップS13に進み、超音波センサ10およびカメラシステム20が同一の物体を検知したと判定する。
When it is determined that | d s −d c | ≦ kσ, the
ステップS21にてN2が所定数以上でないと判定するか、または、ステップS23にて|ds−dc|≦kσでないと判定すると、ECU30はステップS14に進む。
Or at step S21 N 2 is determined not to be the predetermined number or more, or, at step S23 | d s -d c | ≦ kσ not equal when determining,
このように、検知結果の一致判定に複数の条件を用いることにより、物体の検知精度がさらに向上する。 As described above, the object detection accuracy is further improved by using a plurality of conditions for the coincidence determination of the detection results.
(他の実施形態)
なお、本発明は上記した実施形態に限定されるものではなく、特許請求の範囲に記載した範囲内において適宜変更が可能である。
(Other embodiments)
In addition, this invention is not limited to above-described embodiment, In the range described in the claim, it can change suitably.
例えば、上記第1実施形態では2つの超音波センサ10によって検出した物体の位置を判定に用いたが、3つ以上の超音波センサ10によって検出した位置を判定に用いてもよい。
For example, although the position of the object detected by the two
また、上記第7実施形態とは異なる高さの範囲について特徴点をカウントしてもよい。例えば、20≦h<40の特徴点のみをカウントしてもよい。 In addition, feature points may be counted in a range of height different from that of the seventh embodiment. For example, only feature points of 20 ≦ h <40 may be counted.
また、上記第7実施形態のステップS23において、|ds−dc|≦kσとは別の条件を用いてもよい。また、上記第1実施形態において、N1が所定数以上であることに加え、|ds−dc|≦kσ、あるいは、|ds−dc|≦kσとは別の条件を用いて判定を行ってもよい。 Further, in step S23 of the seventh embodiment, another condition may be used other than | d s −d c | ≦ kσ. In the first embodiment, in addition to the fact that N 1 is a predetermined number or more, another condition is used other than | d s −d c | ≦ kσ or | d s −d c | ≦ kσ. The determination may be made.
例えば、領域Rに含まれる特徴点の平均位置を示す点をPcとし、点Psと点Pcとの距離が所定値以下であるときに、超音波センサ10およびカメラシステム20が同一の物体を検知したと判定してもよい。
For example, the point indicating the average position of the characteristic point included in the region R and P c, when the distance between the point P s and the point P c is equal to or less than the predetermined value, the
また、超音波センサが点Psとして複数の点を検出した場合に、複数の点の平均位置と点Pcとの距離が所定値以下であるときに、超音波センサ10およびカメラシステム20が同一の物体を検知したと判定してもよい。また、超音波センサが点Psとして複数の点を検出した場合に、複数の点のうち車両に最も近い点と点Pcとの距離が所定値以下であるときに、超音波センサ10およびカメラシステム20が同一の物体を検知したと判定してもよい。
When the ultrasonic sensor detects a plurality of points as the point P s , the
超音波センサ10が検出した複数の点の平均位置を用いることで、超音波センサ10の検出誤差の影響を低減することができる。また、複数の点のうち車両に近いものを用いることで、車両により近い物体が優先的に検知されるようになり、車両と物体との接触を回避する性能が向上する。
By using the average position of the plurality of points detected by the
また、点Psと点Pcとを比較する場合には、点Psと点Pcとのx方向の距離dxを用いてもよいし、y方向の距離dyを用いてもよい。また、距離dxおよび距離dyの両方を用いてもよい。 Furthermore, when comparing the point P s and the point P c may be used in the x-direction distance d x between the point P s and the point P c, it may be used the distance d y in the y-direction . Also, both the distance d x and the distance d y may be used.
なお、上記第1、第3実施形態のようにx方向を定めた場合、超音波センサ10による位置の検出は、x方向よりもy方向の精度が高くなる。そこで、物体の検知精度を向上させるために距離の判定の基準範囲を狭くする場合には、距離dxよりも距離dyについての基準範囲を狭くしてもよい。すなわち、所定の値をkx1、ky1とし、kx1>ky1として、距離dxがkx1以下であり、かつ、距離dyがky1以下であるとき、超音波センサ10およびカメラシステム20が同一の物体を検知したと判定してもよい。kx1、ky1は第1の値、第2の値に相当する。
When the x direction is determined as in the first and third embodiments, the detection of the position by the
また、検知精度を向上させるために、特徴点の分布のばらつきが大きいときは検知結果を確定しないようにしてもよい。例えば、標準偏差σxが所定値以下のとき、あるいは、標準偏差σyが所定値以下のときに、超音波センサ10およびカメラシステム20が同一の物体を検知したと判定してもよい。
Further, in order to improve the detection accuracy, the detection result may not be determined when the variation of the distribution of the feature points is large. For example, it may be determined that the
特徴点の分布のばらつきを用いる場合にも、特徴点の平均位置を用いる場合と同様に、x方向の距離よりもy方向の距離についての基準範囲を狭くしてもよい。すなわち、所定の値をkx2、ky2とし、kx2>ky2として、標準偏差σxがkx2以下であり、かつ、標準偏差σyがky2以下であるとき、超音波センサ10およびカメラシステム20が同一の物体を検知したと判定してもよい。kx2、ky2は第1の値、第2の値に相当する。
Also in the case of using the variation of the distribution of the feature points, as in the case of using the average position of the feature points, the reference range for the distance in the y direction may be narrower than the distance in the x direction. That is, assuming that predetermined values are k x2 and k y2, and k x2 > k y2 , when the standard deviation σ x is less than or equal to k x2 and the standard deviation σ y is less than or equal to k y2 , the
また、領域Rに含まれる特徴点のy方向における分布について、分布がピークとなる位置と車両との距離をdcy2として、距離dsyと距離dcy2との差が所定値以下であるときに、超音波センサ10およびカメラシステム20が同一の物体を検知したと判定してもよい。例えば、図12に示すように距離のピークが2つ存在する場合には、いずれか一方のピークと距離dsyとの差が所定値以下となればよい。
Also, the distribution in the y-direction of the feature points included in the region R, the distance between the position and the vehicle the distribution has a peak as d cy2, when the difference between the distance d sy and the distance d cy2 is equal to or less than a predetermined value Alternatively, it may be determined that the
分布のピーク位置は平均位置よりも物体の実際の位置に近いので、ピーク位置を判定に用いることにより、平均位置を用いる場合に比べて、物体の検知精度をさらに向上させることができる。 Since the peak position of the distribution is closer to the actual position of the object than the average position, by using the peak position for determination, the detection accuracy of the object can be further improved as compared with the case where the average position is used.
また、車両との距離が距離dcy2と等しい特徴点の数が所定数以上であるときに、超音波センサ10およびカメラシステム20が同一の物体を検知したと判定してもよい。なお、ここで、車両との距離が距離dcy2と等しい特徴点には、車両との距離が距離dcy2とほぼ等しい特徴点も含まれる。
Alternatively, it may be determined that the
また、領域Rに含まれる特徴点の分布について、分布がピークとなる位置と超音波センサとの距離をdcx2として、距離dsxと距離dcx2との差が所定値以下であるときに、超音波センサ10およびカメラシステム20が同一の物体を検知したと判定してもよい。
Moreover, the distribution of the feature points included in the region R, when the difference of the distance between the position and the ultrasonic sensor distribution reaches a peak as d cx2, the distance d sx and distance d cx2 is equal to or less than a predetermined value, It may be determined that the
また、車両との距離が距離dcx2と等しい特徴点の数が所定数以上であるときに、超音波センサ10およびカメラシステム20が同一の物体を検知したと判定してもよい。ここで、車両との距離が距離dcx2と等しい特徴点には、車両との距離が距離dcx2とほぼ等しい特徴点も含まれる。
Alternatively, it may be determined that the
また、所定の値をkx3、ky3とし、kx3>ky3として、|dsx−dcx2|≦kx3であり、かつ、|dsy−dcy2|≦ky3であるとき、超音波センサ10およびカメラシステム20が同一の物体を検知したと判定してもよい。kx3、ky3は第1の値、第2の値に相当する。
Also, a predetermined value and k x3, k y3, as k x3> k y3, | d sx -d cx2 | a ≦ k x3, and, | d sy -d cy2 | when a ≦ k y3, super It may be determined that the
また、|ds−dc|が所定値以下のときに、超音波センサ10およびカメラシステム20が同一の物体を検知したと判定してもよい。また、標準偏差σが所定値以下であるときに、超音波センサ10およびカメラシステム20が同一の物体を検知したと判定してもよい。
Further, when | d s −d c | is equal to or less than a predetermined value, it may be determined that the
また、領域Rに含まれる特徴点を高さによって複数のグループに分け、各グループについてECU30による判定を行ってもよい。この場合に、1つ以上のグループについてN1等に関する条件が満たされたときに、超音波センサ10とカメラシステム20が同一の物体を検知したと判定してもよい。
In addition, the feature points included in the region R may be divided into a plurality of groups according to the height, and the determination by the
例えば、|ds−dc|が所定値以下であるという条件を用いる場合に、30≦h、20≦h<30、h<20の特徴点がそれぞれ図13〜図15に示すように分布することがある。すなわち、30≦h、20≦h<30の特徴点について、h<20の特徴点に比べて|ds−dc|が大きくなることがある。このような場合、30≦h、20≦h<30の特徴点について|ds−dc|が所定値以下でなくても、h<20の特徴点について|ds−dc|が所定値以下であれば、ECU30は、超音波センサ10とカメラシステム20が同一の物体を検知したと判定する。
For example, when using the condition that | d s −d c | is a predetermined value or less, the feature points of 30 ≦ h, 20 ≦ h <30, h <20 are distributed as shown in FIGS. 13 to 15, respectively. There is something to do. That is, for the feature points of 30 ≦ h and 20 ≦ h <30, | d s −d c | may be larger than the feature points of h <20. In such a case, for the feature points of 30 ≦ h and 20 ≦ h <30, | d s −d c | is predetermined for h <20 feature points even though | d s −d c | If it is below the value, the
例えば、幅の広い土台を有する柱や、直立せず斜めに立っている柵など、高さによって水平方向の幅や位置が異なる形状の物体が車両の周囲に存在すると、特徴点の分布ピークの奥行距離と超音波センサ10が検出した距離とが異なる場合がある。このような場合に、特徴点の高さのグループごとに超音波センサ10とカメラシステム20の検知結果の一致判定を行うことで、物体を正しく検知することができる。また、点Psが物体のどの高さから検出されたかを調べることができるため、超音波センサ10とカメラシステム20の検知結果を精度よく対応させることができる。
For example, if an object with a shape that differs in horizontal width or position depending on the height, such as a pillar with a wide base or a fence that stands upright and does not stand upright, is present around the vehicle, The depth distance may be different from the distance detected by the
10 超音波センサ
20 カメラシステム
22 特徴画素抽出部
23 特徴点検出部
30 ECU
10
Claims (30)
超音波の送受信により物体を検知し、物体の位置を検出する超音波センサ(10)と、
前記車両の周囲を撮像して複数の画像を取得し、該複数の画像に基づいて物体を検知するカメラシステム(20)と、
前記超音波センサおよび前記カメラシステムが同一の物体を検知したか否かを判定する物体判定部(30)と、を備え、
前記カメラシステムは、
前記複数の画像から輝度に特徴を有する画素を抽出する特徴画素抽出部(22)と、
前記特徴画素抽出部によって前記複数の画像から共通して抽出された画素を特徴点として、前記特徴点の位置を検出する特徴点検出部(23)と、を備え、
前記超音波センサを通る平面において、前記超音波センサが検出した物体の位置を示す点をPsとし、前記点Psを含む領域をRとし、
前記領域Rに含まれる前記特徴点の数をN1として、
前記物体判定部は、前記数N1が所定数以上であるとき、前記超音波センサおよび前記カメラシステムが同一の物体を検知したと判定する物体検知装置。 An object detection apparatus mounted on a vehicle for detecting an object outside the vehicle, comprising:
An ultrasonic sensor (10) that detects an object by transmitting and receiving ultrasonic waves and detects the position of the object;
A camera system (20) for imaging a periphery of the vehicle to acquire a plurality of images and detecting an object based on the plurality of images;
An object determining unit (30) that determines whether the ultrasonic sensor and the camera system have detected the same object;
The camera system is
A feature pixel extraction unit (22) for extracting a pixel having a feature in luminance from the plurality of images;
And a feature point detection unit (23) for detecting the position of the feature point using a pixel commonly extracted from the plurality of images by the feature pixel extraction unit as a feature point,
Wherein in a plane passing through the ultrasonic sensor, the point indicating the position of an object the ultrasonic sensor detects the P s, the area including the point P s and R,
Assuming that the number of the feature points included in the region R is N 1
The object determination unit, when the number N 1 is equal to or more than a predetermined number, said the determined target detector ultrasonic sensor and the camera system detects the same object.
前記平面に含まれる互いに垂直な2つの方向をそれぞれx方向、y方向として、
前記x方向は、前記第1センサおよび前記第2センサが並ぶ方向とされている請求項1ないし8のいずれか1つに記載の物体検知装置。 A first sensor (10a) and a second sensor (10b) as the ultrasonic sensor;
Let two directions perpendicular to each other included in the plane be an x direction and ay direction, respectively.
The object detection apparatus according to any one of claims 1 to 8, wherein the x direction is a direction in which the first sensor and the second sensor are aligned.
前記第1センサの位置を示す点をA1とし、
前記第1センサが超音波を送信してから反射波を受信するまでの間に超音波が進んだ距離をLA1とし、
前記第2センサの位置を示す点をB1とし、
前記第1センサが超音波を送信してから前記第2センサが反射波を受信するまでの間に超音波が進んだ距離をLB1とし、
前記点A1を中心とする半径LA1/2の円と、前記点B1を中心とする半径LB1−LA1/2の円との交点に対応する位置に物体が存在するものとして物体との距離が算出される請求項9に記載の物体検知装置。 When the first sensor transmits an ultrasonic wave and the first sensor and the second sensor receive a reflected wave of the ultrasonic wave,
Let A 1 be a point indicating the position of the first sensor,
The distance traveled by the ultrasonic wave after the first sensor transmits the ultrasonic wave and the time the reflected wave is received is L A1 .
Let B 1 be a point indicating the position of the second sensor,
The distance traveled by the ultrasonic wave after the first sensor transmits the ultrasonic wave and the second sensor receives the reflected wave is L B1 ,
And a circle with a radius L A1 / 2 centered on the point A 1, the object as the object at the intersection corresponding to the position of the radius L B1 -L A1 / 2 of a circle centered on the said point B 1 is present The object detection apparatus according to claim 9, wherein the distance between
前記第1センサの位置を示す点をA1とし、
前記第1センサが超音波を送信してから反射波を受信するまでの間に超音波が進んだ距離をLA1とし、
前記第2センサの位置を示す点をB1とし、
前記第1センサが超音波を送信してから前記第2センサが反射波を受信するまでの間に超音波が進んだ距離をLB1とし、
前記点A1を中心とする半径LA1の円と、前記点B1を中心とする半径LB1の円との交点をOとし、
線分OA1の中点をPs2とし、
前記中点Ps2を通る直線OA1の垂線と直線OB1との交点をPs3とし、
線分Ps2Ps3に対応する位置に物体が存在するものとして物体との距離が算出される請求項9に記載の物体検知装置。 When the first sensor transmits an ultrasonic wave and the first sensor and the second sensor receive a reflected wave of the ultrasonic wave,
Let A 1 be a point indicating the position of the first sensor,
The distance traveled by the ultrasonic wave after the first sensor transmits the ultrasonic wave and the time the reflected wave is received is L A1 .
Let B 1 be a point indicating the position of the second sensor,
The distance traveled by the ultrasonic wave after the first sensor transmits the ultrasonic wave and the second sensor receives the reflected wave is L B1 ,
Let O be the point of intersection of a circle of radius L A1 centered on the point A 1 and a circle of radius L B1 centered on the point B 1 ,
Let the middle point of line segment OA 1 be P s2 ,
The intersection of the perpendicular and the line OB 1 linear OA 1 passing through the middle point P s2 and P s3,
The object detection apparatus according to claim 9, wherein a distance to the object is calculated assuming that the object exists at a position corresponding to the line segment P s2 P s3 .
前記平面に含まれる互いに垂直な2つの方向をそれぞれx方向、y方向として、
前記x方向は、前記超音波センサが1回目に超音波を送信した位置と、2回目に超音波を送信した位置とを結ぶ方向とされている請求項1ないし8のいずれか1つに記載の物体検知装置。 The ultrasonic sensor transmits and receives ultrasonic waves twice before and after movement of the vehicle.
Let two directions perpendicular to each other included in the plane be an x direction and ay direction, respectively.
The direction according to any one of claims 1 to 8, wherein the x direction is a direction connecting a position at which the ultrasonic sensor transmitted ultrasonic waves for the first time and a position at which ultrasonic waves were transmitted for the second time. Object detection device.
前記超音波センサが1回目に超音波を送信してから該超音波の反射波を受信するまでの間に超音波が進んだ距離をLA2とし、
前記超音波センサが2回目に超音波を送信した位置を示す点をB2とし、
前記超音波センサが2回目に超音波を送信してから該超音波の反射波を受信するまでの間に超音波が進んだ距離をLB2とし、
前記点A2を中心とする半径LA2/2の円と、前記点B2を中心とする半径LB2/2の円との交点に対応する位置に物体が存在するものとして物体との距離が算出される請求項12に記載の物体検知装置。 Let A 2 be a point indicating the position where the ultrasonic sensor transmitted the ultrasonic wave for the first time,
Let L A2 be the distance that the ultrasonic wave travels between the time when the ultrasonic sensor transmits the ultrasonic wave for the first time and the time when the reflected wave of the ultrasonic wave is received.
The ultrasonic sensor is a point indicating a position which transmits ultrasound to the second and B 2,
The distance traveled ultrasound between from the transmission of the ultrasonic waves to the ultrasonic sensor a second time until receiving the reflected wave of the ultrasonic wave and L B2,
A distance to an object at a position corresponding to an intersection point of a circle of radius L A2 / 2 centered on the point A 2 and a circle of radius L B2 / 2 centered on the point B 2 The object detection device according to claim 12, wherein is calculated.
前記超音波センサが1回目に超音波を送信してから該超音波の反射波を受信するまでの間に超音波が進んだ距離をLA2とし、
前記超音波センサが2回目に超音波を送信した位置を示す点をB2とし、
前記超音波センサが2回目に超音波を送信してから該超音波の反射波を受信するまでの間に超音波が進んだ距離をLB2とし、
前記点A2を中心とする半径LA2/2の円と、前記点B2を中心とする半径LB2/2の円との共通接線をL2とし、
前記点A2を中心とする半径LA2/2の円と前記共通接線L2との接点をPs5とし、
前記点B2を中心とする半径LB2/2の円と前記共通接線L2との接点をPs6とし、
線分Ps5Ps6に対応する位置に物体が存在するものとして物体との距離が算出される請求項12に記載の物体検知装置。 Let A 2 be a point indicating the position where the ultrasonic sensor transmitted the ultrasonic wave for the first time,
Let L A2 be the distance that the ultrasonic wave travels between the time when the ultrasonic sensor transmits the ultrasonic wave for the first time and the time when the reflected wave of the ultrasonic wave is received.
The ultrasonic sensor is a point indicating a position which transmits ultrasound to the second and B 2,
The distance traveled ultrasound between from the transmission of the ultrasonic waves to the ultrasonic sensor a second time until receiving the reflected wave of the ultrasonic wave and L B2,
And a circle with a radius L A2 / 2 centered on the point A 2, the common tangent of a circle with a radius L B2 / 2 centered at the point B 2 and L 2,
Let a point of contact between a circle of radius L A2 / 2 centered on the point A 2 and the common tangent L 2 be P s5 ,
Let a point of contact between the circle of radius L B2 / 2 centered on the point B 2 and the common tangent L 2 be P s6 ,
The object detection device according to claim 12, wherein the distance to the object is calculated assuming that the object exists at a position corresponding to the line segment P s5 P s6 .
前記物体判定部は、前記点Psと前記点Pcとの距離が所定値以下であるとき、前記超音波センサおよび前記カメラシステムが同一の物体を検知したと判定する請求項9ないし14のいずれか1つに記載の物体検知装置。 Let P c be a point indicating the average position of the feature points included in the region R,
The object determining unit determines that the ultrasonic sensor and the camera system detect the same object when the distance between the point P s and the point P c is equal to or less than a predetermined value. An object detection device according to any one of the preceding claims.
前記物体判定部は、該複数の点の平均位置と前記点Pcとの距離が所定値以下であるとき、または、該複数の点のうち前記車両に最も近い点と前記点Pcとの距離が所定値以下であるとき、前記超音波センサおよび前記カメラシステムが同一の物体を検知したと判定する請求項15に記載の物体検知装置。 When the ultrasonic sensor detects a plurality of points as the point P s ,
When the distance between the average position of the plurality of points and the point P c is equal to or less than a predetermined value, the object determining unit determines that the point closest to the vehicle and the point P c among the plurality of points. The object detection apparatus according to claim 15, wherein it is determined that the ultrasonic sensor and the camera system detect the same object when the distance is equal to or less than a predetermined value.
前記物体判定部は、前記x方向における前記点Psと前記点Pcとの距離が第1の値以下であり、かつ、前記y方向における前記点Psと前記点Pcとの距離が前記第1の値よりも小さい第2の値以下であるとき、前記超音波センサおよび前記カメラシステムが同一の物体を検知したと判定する請求項9ないし14のいずれか1つに記載の物体検知装置。 Let P c be a point indicating the average position of the feature points included in the region R,
In the object determination unit, the distance between the point P s and the point P c in the x direction is equal to or less than a first value, and the distance between the point P s and the point P c in the y direction is The object detection according to any one of claims 9 to 14, wherein it is determined that the ultrasonic sensor and the camera system have detected the same object when the second value is smaller than or equal to the second value. apparatus.
前記領域Rに含まれる前記特徴点と前記車両との前記y方向における距離の平均値をdcy1とし、
前記領域Rに含まれる前記特徴点と前記車両との前記y方向における距離の標準偏差をσyとして、
前記物体判定部は、前記距離dsyと前記距離dcy1との差の絶対値が、前記標準偏差σyに所定の係数を掛けて得られる値以下であるとき、前記超音波センサおよび前記カメラシステムが同一の物体を検知したと判定する請求項9ないし14のいずれか1つに記載の物体検知装置。 Let d sy be the distance between the point P s and the vehicle in the y direction,
An average value of distances in the y direction between the feature point included in the region R and the vehicle is set as d cy1 .
The standard deviation of the distance in the y direction between the feature point included in the region R and the vehicle is taken as σ y
When the absolute value of the difference between the distance d sy and the distance d cy1 is equal to or less than a value obtained by multiplying the standard deviation σ y by a predetermined coefficient, the object determination unit determines the ultrasonic sensor and the camera The object detection apparatus according to any one of claims 9 to 14, which determines that the system has detected the same object.
前記領域Rに含まれる前記特徴点と前記車両との前記x方向における距離の平均値をdcx1とし、
前記領域Rに含まれる前記特徴点と前記車両との前記x方向における距離の標準偏差をσxとして、
前記物体判定部は、前記距離dsxと前記距離dcx1との差の絶対値が、前記標準偏差σxに所定の係数を掛けて得られる値以下であるとき、前記超音波センサおよび前記カメラシステムが同一の物体を検知したと判定する請求項9ないし14のいずれか1つに記載の物体検知装置。 Let d sx be the distance between the point P and the vehicle in the x direction,
The average value of the distances in the x direction between the feature points included in the region R and the vehicle is represented by d cx1 .
The standard deviation of the distance in the x direction between the feature point included in the region R and the vehicle is taken as σ x
When the absolute value of the difference between the distance d sx and the distance d cx1 is equal to or less than a value obtained by multiplying the standard deviation σ x by a predetermined coefficient, the object determination unit determines the ultrasonic sensor and the camera The object detection apparatus according to any one of claims 9 to 14, which determines that the system has detected the same object.
前記領域Rに含まれる前記特徴点の前記y方向における分布について、該分布がピークとなる位置と前記車両との距離をdcy2として、
前記物体判定部は、前記距離dsyと前記距離dcy2との差が所定値以下であるとき、前記超音波センサおよび前記カメラシステムが同一の物体を検知したと判定する請求項9ないし14のいずれか1つに記載の物体検知装置。 Let d sy be the distance between the point P s and the vehicle in the y direction,
Regarding the distribution of the feature points included in the region R in the y direction, the distance between the peak position of the distribution and the vehicle is d cy 2
The object determining unit determines that the ultrasonic sensor and the camera system detect the same object when the difference between the distance d sy and the distance d cy2 is equal to or less than a predetermined value. An object detection device according to any one of the preceding claims.
前記領域Rに含まれる前記特徴点の前記x方向における分布について、該分布がピークとなる位置と前記車両との距離をdcx2として、
前記物体判定部は、前記距離dsxと前記距離dcx2との差が所定値以下であるとき、前記超音波センサおよび前記カメラシステムが同一の物体を検知したと判定する請求項9ないし14のいずれか1つに記載の物体検知装置。 Let d sx be the distance between the point P s and the vehicle in the x direction,
Regarding the distribution of the feature points included in the region R in the x direction, the distance between the peak position of the distribution and the vehicle is d cx2 .
The object determining unit determines that the ultrasonic sensor and the camera system detect the same object when the difference between the distance d sx and the distance d cx2 is equal to or less than a predetermined value. An object detection device according to any one of the preceding claims.
前記領域Rに含まれる前記特徴点の前記x方向における分布について、該分布がピークとなる位置と前記車両との距離をdcx2とし、
前記点Psと前記車両との前記y方向における距離をdsyとし、
前記領域Rに含まれる前記特徴点の前記y方向における分布について、該分布がピークとなる位置と前記車両との距離をdcy2として、
前記物体判定部は、前記距離dsxと前記距離dcx2との差が第1の値以下であり、かつ、前記距離dsyと前記距離dcy2との差が前記第1の値よりも小さい第2の値以下であるとき、前記超音波センサおよび前記カメラシステムが同一の物体を検知したと判定する請求項9ないし14のいずれか1つに記載の物体検知装置。 Let d sx be the distance between the point P s and the vehicle in the x direction,
Regarding the distribution in the x direction of the feature points included in the region R, let d cx2 be the distance between the position at which the distribution peaks and the vehicle
Let d sy be the distance between the point P s and the vehicle in the y direction,
Regarding the distribution of the feature points included in the region R in the y direction, the distance between the peak position of the distribution and the vehicle is d cy 2
The object determination unit determines that the difference between the distance d sx and the distance d cx2 is equal to or less than a first value, and the difference between the distance d sy and the distance d cy2 is smaller than the first value. The object detection device according to any one of claims 9 to 14, wherein it is determined that the ultrasonic sensor and the camera system detect the same object when the second value or less.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017214855A JP2019086406A (en) | 2017-11-07 | 2017-11-07 | Object detector |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017214855A JP2019086406A (en) | 2017-11-07 | 2017-11-07 | Object detector |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019086406A true JP2019086406A (en) | 2019-06-06 |
Family
ID=66762794
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017214855A Pending JP2019086406A (en) | 2017-11-07 | 2017-11-07 | Object detector |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019086406A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020064544A (en) * | 2018-10-19 | 2020-04-23 | 株式会社デンソー | Object detection device, object detection method, and program |
WO2022153586A1 (en) * | 2021-01-13 | 2022-07-21 | 日立Astemo株式会社 | Self-map generation device and self-position estimation device |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003194938A (en) * | 2001-12-25 | 2003-07-09 | Denso Corp | Obstacle detector |
JP2006226965A (en) * | 2005-02-21 | 2006-08-31 | Sumitomo Electric Ind Ltd | Image processing system, computer program and image processing method |
JP2015041265A (en) * | 2013-08-22 | 2015-03-02 | 株式会社デンソー | Target detection device and program |
JP2015203677A (en) * | 2014-04-16 | 2015-11-16 | 本田技研工業株式会社 | object recognition device |
JP5843948B1 (en) * | 2014-11-27 | 2016-01-13 | 三菱電機株式会社 | Parking assistance device and parking assistance method |
JP2016042288A (en) * | 2014-08-18 | 2016-03-31 | 株式会社デンソー | Object recognition device |
US20160116593A1 (en) * | 2014-10-23 | 2016-04-28 | Hyundai Mobis Co., Ltd. | Object detecting apparatus, and method of operating the same |
JP2016080644A (en) * | 2014-10-22 | 2016-05-16 | 株式会社デンソー | Object detector |
-
2017
- 2017-11-07 JP JP2017214855A patent/JP2019086406A/en active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003194938A (en) * | 2001-12-25 | 2003-07-09 | Denso Corp | Obstacle detector |
JP2006226965A (en) * | 2005-02-21 | 2006-08-31 | Sumitomo Electric Ind Ltd | Image processing system, computer program and image processing method |
JP2015041265A (en) * | 2013-08-22 | 2015-03-02 | 株式会社デンソー | Target detection device and program |
JP2015203677A (en) * | 2014-04-16 | 2015-11-16 | 本田技研工業株式会社 | object recognition device |
JP2016042288A (en) * | 2014-08-18 | 2016-03-31 | 株式会社デンソー | Object recognition device |
JP2016080644A (en) * | 2014-10-22 | 2016-05-16 | 株式会社デンソー | Object detector |
US20160116593A1 (en) * | 2014-10-23 | 2016-04-28 | Hyundai Mobis Co., Ltd. | Object detecting apparatus, and method of operating the same |
JP5843948B1 (en) * | 2014-11-27 | 2016-01-13 | 三菱電機株式会社 | Parking assistance device and parking assistance method |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020064544A (en) * | 2018-10-19 | 2020-04-23 | 株式会社デンソー | Object detection device, object detection method, and program |
WO2022153586A1 (en) * | 2021-01-13 | 2022-07-21 | 日立Astemo株式会社 | Self-map generation device and self-position estimation device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9470548B2 (en) | Device, system and method for calibration of camera and laser sensor | |
JP6753383B2 (en) | Object detection device | |
US9148657B2 (en) | Calibration device, range-finding system including the calibration device and stereo camera, and vehicle mounting the range-finding system | |
KR101043450B1 (en) | Location and distance mesuring appratus its method usnig camera | |
JP3750512B2 (en) | Vehicle obstacle detection device | |
JP5804185B2 (en) | Moving object position / orientation estimation apparatus and moving object position / orientation estimation method | |
US9177196B2 (en) | Vehicle periphery monitoring system | |
WO2015104898A1 (en) | Vehicle-surroundings recognition device | |
EP2894618B1 (en) | Speed calculating device and speed calculating method, and collision determination device | |
JP2004037239A (en) | Identical object judging method and system, and misregistration correcting method and system | |
JP2009014445A (en) | Range finder | |
JP2008298533A (en) | Obstruction measurement method, device, and system | |
JP2012159469A (en) | Vehicle image recognition device | |
JP2019086406A (en) | Object detector | |
JP5548212B2 (en) | Crosswalk sign detection method and crosswalk sign detection device | |
JP2017009572A5 (en) | ||
WO2016031918A1 (en) | Axial displacement diagnosis apparatus | |
WO2009101687A1 (en) | Range finder | |
CN109263649B (en) | Vehicle, object recognition method and object recognition system thereof in automatic driving mode | |
JP5783211B2 (en) | Traffic volume measuring apparatus and traffic volume measuring method | |
JP5163164B2 (en) | 3D measuring device | |
JP6599075B2 (en) | Obstacle detection device | |
EP3605015A1 (en) | Stereo image processing device | |
WO2020017336A1 (en) | Object detection device | |
KR101890482B1 (en) | Appartus for distinction of stop and movement using radar spectrum and method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201013 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210805 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210817 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211001 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211214 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220107 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220517 |