JP7111506B2 - Target detection device - Google Patents
Target detection device Download PDFInfo
- Publication number
- JP7111506B2 JP7111506B2 JP2018095297A JP2018095297A JP7111506B2 JP 7111506 B2 JP7111506 B2 JP 7111506B2 JP 2018095297 A JP2018095297 A JP 2018095297A JP 2018095297 A JP2018095297 A JP 2018095297A JP 7111506 B2 JP7111506 B2 JP 7111506B2
- Authority
- JP
- Japan
- Prior art keywords
- unit
- instantaneous data
- target
- data
- vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Radar Systems Or Details Thereof (AREA)
Description
本発明は、物標検出装置に関する。 The present invention relates to a target detection device .
従来、例えば車両の周囲へ電波を送信し、送信した電波が物標で反射した反射波に基づいて物標の自車両への向きの相対速度等を含む瞬時データを検出する物標検出装置が知られている(例えば、特許文献1参照)。 Conventionally, for example, there is a target detection device that transmits radio waves to the surroundings of a vehicle and detects instantaneous data including the relative speed of the target toward the own vehicle based on the reflected waves of the transmitted radio waves that are reflected by the target. known (see, for example, Patent Document 1).
しかしながら、上記した物標検出装置において検出される相対速度は、自車両への向きの速度成分のみであり、物標の実際の移動向きの速度成分を得るためには、初回検知から数スキャン分の瞬時データが必要となる。従って、従来の物標検出装置では、数スキャン後に物標の実際の移動向きが分かるため、物標に対する応答性を上げられないという課題があった。 However, the relative velocity detected by the above-described target detection apparatus is only the velocity component in the direction toward the own vehicle. of instantaneous data is required. Therefore, in the conventional target object detection device, since the actual moving direction of the target object can be known after several scans, there is a problem that the responsiveness to the target object cannot be improved.
本発明は、上記に鑑みてなされたものであって、物標に対する応答性を向上させることができる物標検出装置および物標検出方法を提供することを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide a target detection apparatus and target detection method capable of improving responsiveness to targets.
上述した課題を解決し、目的を達成するために、本発明に係る物標検出装置は、生成部と、推定部とを備える。前記生成部は、送信した電波が物標で反射した複数の反射点それぞれについて、前記物標の自車両への向きの相対速度を含む瞬時データを生成する。前記推定部は、前記生成部によって生成された複数の前記瞬時データにおける前記相対速度に基づき、当該複数の瞬時データそれぞれに対応する前記自車両への向きのベクトルにおける起点を揃え、当該ベクトルに対する垂線の交点から前記物標の移動向きを推定する。 In order to solve the above-described problems and achieve the object, the target detection device according to the present invention includes a generator and an estimator. The generator generates instantaneous data including the relative velocity of the target toward the own vehicle for each of a plurality of reflection points at which the transmitted radio wave is reflected by the target. The estimator aligns the starting points of the direction vectors toward the host vehicle corresponding to each of the plurality of instantaneous data based on the relative velocity in the plurality of instantaneous data generated by the generator, and determines the direction perpendicular to the vector. The direction of movement of the target is estimated from the intersection of .
本発明によれば、物標に対する応答性を向上させることができる。 ADVANTAGE OF THE INVENTION According to this invention, the responsiveness with respect to a target object can be improved.
以下、添付図面を参照して、本願の開示する物標検出装置および物標検出方法の実施形態を詳細に説明する。なお、この実施形態により本発明が限定されるものではない。なお、以下では、物標検出装置がFM-CW(Frequency Modulated Continuous Wave)方式である場合を例に挙げて説明するが、物標検出装置は、例えばFCM(Fast-Chirp Modulation)方式といった他の方式であってもよい。 Hereinafter, embodiments of a target object detection device and a target object detection method disclosed in the present application will be described in detail with reference to the accompanying drawings. It should be noted that the present invention is not limited by this embodiment. In the following description, the target detection device is based on the FM-CW (Frequency Modulated Continuous Wave) system. It may be a method.
まず、図1Aおよび図1Bを用いて、実施形態に係る物標検出方法の概要について説明する。図1Aおよび図1Bは、実施形態に係る物標検出方法の概要を示す図である。図1Aでは、実施形態に係る物標検出装置1を搭載した自車両MCと、所定の移動ベクトルVで移動する他車両LCとを示している。移動ベクトルVとは、他車両LCの実際の移動向きおよびかかる移動向きへの相対速度を含むベクトルである。
First, the outline of the target object detection method according to the embodiment will be described with reference to FIGS. 1A and 1B. 1A and 1B are diagrams showing an outline of a target detection method according to an embodiment. FIG. 1A shows an own vehicle MC equipped with the target
図1Aに示すように、物標検出装置1は、例えば自車両MCのフロントグリル内等に搭載され、自車両MCの進行方向に存在する物標(例えば、他車両LC等)を検出する。なお、物標検出装置1の搭載箇所は、例えばフロントガラスやリアグリル、左右の側部(例えば、左右のドアミラー)等他の箇所に搭載されてもよい。
As shown in FIG. 1A, the
また、図1Aに示すように、物標検出装置1は、自車両MCの周囲に送信した電波が他車両LCで反射した複数の反射点それぞれについて、瞬時データ100を生成する。瞬時データ100には、例えば、自車両MCへの向きの相対速度(ベクトルRV1,RV2)等が含まれる。具体的には、図1Aに示す2つのベクトルRV1,RV2は、同一の物標から得られるベクトルであり、移動ベクトルVが自車両MCと瞬時データ100とを通る直線に射影されたベクトルである。なお、以下では、「ベクトルRV1」および「ベクトルRV2」を区別しない場合、単に「ベクトルRV」と記載する場合がある。
Further, as shown in FIG. 1A, the
ここで、従来の物標検出装置について説明する。従来の物標検出装置では、1スキャンで検出される相対速度は、自車両への向きの相対速度のみ(例えば、図1Aに示すベクトルRV1,RV2)であり、移動ベクトルを得ることができない。つまり、1スキャンでは、物標の実際の移動向きを得ることができず、物標の実際の移動向きを得るためには、初回検知から数スキャン分の瞬時データの変化から求めなければならない。従って、従来の物標検出装置では、数スキャン後に物標の実際の移動向きが分かるため、物標に対する応答性を上げられないという課題があった。 Here, a conventional target object detection device will be described. In the conventional target detection device, the relative velocity detected in one scan is only the relative velocity toward the own vehicle (for example, vectors RV1 and RV2 shown in FIG. 1A), and a movement vector cannot be obtained. In other words, the actual direction of movement of the target cannot be obtained in one scan, and in order to obtain the actual direction of movement of the target, it must be obtained from changes in instantaneous data for several scans after the initial detection. Therefore, in the conventional target object detection device, since the actual moving direction of the target object can be known after several scans, there is a problem that the responsiveness to the target object cannot be improved.
そこで、実施形態に係る物標検出方法では、1スキャンで物標の実際の移動向きを検出可能とした。具体的には、実施形態に係る物標検出方法では、複数の瞬時データ100における相対速度に基づき、複数の瞬時データ100それぞれに対応する自車両MCへの向きのベクトルRV1,RV2における起点を揃え、ベクトルRVに対する垂線VLの交点CPから物標である他車両LCの移動向きを推定する。
Therefore, in the target detection method according to the embodiment, it is possible to detect the actual moving direction of the target in one scan. Specifically, in the target object detection method according to the embodiment, based on the relative velocity in the plurality of
図1Bに示す例では、2つの瞬時データ100に対応する2つのベクトルRV1,RV2の起点を揃えた2次元平面を示している。なお、図1Bにおいて、縦軸は、自車両MCに対して左右方向への相対速度(VY)を示し、横軸は、自車両MCに対して前後方向への相対速度(VX)を示す。
The example shown in FIG. 1B shows a two-dimensional plane in which the starting points of two vectors RV1 and RV2 corresponding to two
図1Bに示すように、実施形態に係る物標検出方法では、まず、起点が揃った2つのベクトルRV1,RV2の終点を通る垂線VLを引き、2つの垂線VLの交点CPを求める。そして、実施形態に係る物標検出方法では、交点が1つであった場合、ベクトルRV1,RV2の起点を移動ベクトルVの起点とし、交点CPを移動ベクトルVの終点とする。すなわち、ベクトルRV1,RV2の起点から交点CPへの向きが物標の実際の移動向きを示し、ベクトルRV1,RV2の起点と交点CPとの間の距離が物標の移動向きへの相対速度を示す。 As shown in FIG. 1B, in the target detection method according to the embodiment, first, a perpendicular line VL passing through the end points of two vectors RV1 and RV2 having the same starting point is drawn to obtain an intersection point CP of the two perpendicular lines VL. In the target detection method according to the embodiment, when there is one intersection point, the starting point of the vectors RV1 and RV2 is set as the starting point of the movement vector V, and the intersection point CP is set as the end point of the movement vector V. FIG. That is, the direction from the starting point of the vectors RV1 and RV2 to the intersection point CP indicates the actual moving direction of the target, and the distance between the starting point of the vectors RV1 and RV2 and the intersection point CP indicates the relative speed of the target in the moving direction. show.
このように、実施形態に係る物標検出方法によれば、複数の瞬時データ100に基づいて1スキャンで物標の移動向きを検出できるため、数スキャン必要とした従来に比べて、物標に対する応答性を向上させることができる。
As described above, according to the target detection method according to the embodiment, since the direction of movement of the target can be detected in one scan based on a plurality of
なお、実施形態に係る物標検出方法では、物標の移動向きのみが必要であれば、物標の移動向きであるベクトルRV1,RV2の起点と交点CPとの間の距離を必ずしも求める必要はない。つまり、実施形態に係る物標検出方法では、少なくとも物標の移動向きを推定する。 In the target detection method according to the embodiment, if only the direction of movement of the target is required, it is not necessary to obtain the distance between the origin of the vectors RV1 and RV2, which are the directions of movement of the target, and the intersection point CP. do not have. That is, in the target object detection method according to the embodiment, at least the movement direction of the target object is estimated.
また、実施形態に係る物標検出方法では、交点CPが3つ以上の場合に、かかる交点CPにより形成される三角形の内心を求めることで、物標の移動向きを推定するが、かかる点については後述する。 Further, in the target object detection method according to the embodiment, when there are three or more intersection points CP, the movement direction of the target object is estimated by obtaining the center of the triangle formed by the intersection points CP. will be described later.
次に、図2を参照して、実施形態に係る物標検出装置1の構成について詳細に説明する。図2は、実施形態に係る物標検出装置1の構成を示すブロック図である。なお、図2では、本実施形態の特徴を説明するために必要な構成要素のみを機能ブロックで表しており、一般的な構成要素についての記載を省略している。
Next, the configuration of the target
換言すれば、図2に図示される各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。例えば、各機能ブロックの分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することが可能である。 In other words, each component illustrated in FIG. 2 is functionally conceptual and does not necessarily need to be physically configured as illustrated. For example, the specific forms of distribution and integration of each functional block are not limited to those shown in the figure, and all or part of them can be functionally or physically distributed in arbitrary units according to various loads and usage conditions.・It is possible to integrate and configure.
図2に示すように、物標検出装置1は、送信部10と、受信部20と、処理部30とを備える。物標検出装置1は、自車両MCの挙動を制御する車両制御装置2に接続される。
As shown in FIG. 2 , the
かかる車両制御装置2は、物標検出装置1による物標の検出結果に基づいて、PCS(Pre-crash Safety System)やAEB(Advanced Emergency Braking System)などの車両制御を行う。
The vehicle control device 2 performs vehicle control such as PCS (Pre-crash Safety System) and AEB (Advanced Emergency Braking System) based on the target detection result by the
送信部10は、信号生成部11と、発振器12と、送信アンテナ13とを備える。信号生成部11は、後述する送受信制御部31の制御により、三角波で周波数変調されたミリ波を送信するための変調信号を生成する。発振器12は、かかる信号生成部11によって生成された変調信号に基づいて送信信号を生成し、送信アンテナ13へ出力する。なお、図2に示すように、発振器12によって生成された送信信号は、後述するミキサ22に対しても分配される。
The
送信アンテナ13は、発振器12からの送信信号を送信波へ変換し、かかる送信波を自車両MCの外部へ出力する。送信アンテナ13が出力する送信波は、三角波で周波数変調された連続波である。送信アンテナ13から自車両MCの外部、たとえば前方へ送信された送信波は、他車両LC等の物標で反射されて反射波となる。
The
受信部20は、アレーアンテナを形成する複数の受信アンテナ21と、複数のミキサ22と、複数のA/D変換部23とを備える。ミキサ22およびA/D変換部23は、受信アンテナ21ごとに設けられる。
The receiving
各受信アンテナ21は、物標からの反射波を受信波として受信し、かかる受信波を受信信号へ変換してミキサ22へ出力する。なお、図2に示す受信アンテナ21の数は4つであるが、3つ以下または5つ以上であってもよい。
Each receiving
受信アンテナ21から出力された受信信号は、図示略の増幅器(たとえば、ローノイズアンプ)で増幅された後にミキサ22へ入力される。ミキサ22は、分配された送信信号と、受信アンテナ21から入力される受信信号との一部をミキシングし不要な信号成分を除去してビート信号を生成し、A/D変換部23へ出力する。
A received signal output from the receiving
ビート信号は、送信波と反射波との差分波であって、送信信号の周波数(以下、「送信周波数」と記載する)と受信信号の周波数(以下、「受信周波数」と記載する)との差となるビート周波数を有する。ミキサ22で生成されたビート信号は、A/D変換部23でデジタル信号に変換された後に、処理部30へ出力される。
The beat signal is a difference wave between the transmitted wave and the reflected wave, and is the difference between the frequency of the transmitted signal (hereinafter referred to as "transmission frequency") and the frequency of the received signal (hereinafter referred to as "received frequency"). It has a different beat frequency. The beat signal generated by the
処理部30は、送受信制御部31と、信号処理部32と、記憶部33とを備える。信号処理部32は、生成部32aと、フィルタ処理部32bとを備える。
The
記憶部33は、履歴データ33aを記憶する。履歴データ33aは、信号処理部32が実行する一連の信号処理における物標データの履歴や、瞬時データ100の履歴を含む情報である。
The
処理部30は、たとえば、CPU(Central Processing Unit)、記憶部33に対応するROM(Read Only Memory)やRAM(Random Access Memory)、レジスタ、その他の入出力ポートなどを含むマイクロコンピュータであり、物標検出装置1全体を制御する。
The
かかるマイクロコンピュータのCPUがROMに記憶されたプログラムを読み出して実行することによって、送受信制御部31および信号処理部32として機能する。なお、送受信制御部31および信号処理部32は全部をASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などのハードウェアで構成することもできる。
The CPU of such a microcomputer functions as a transmission/reception control section 31 and a
送受信制御部31は、信号生成部11を含む送信部10、および、受信部20を制御する。信号処理部32は、一連の信号処理を周期的に実行する。つづいて信号処理部32の各構成要素について説明する。
The transmission/reception control section 31 controls the
生成部32aは、瞬時データ100を生成する。具体的には、生成部32aは、周波数解析処理と、ピーク抽出処理と、瞬時データ生成処理とを行うことで、瞬時データ100を生成する。
The
周波数解析処理では、各A/D変換部23から入力されるビート信号に対して高速フーリエ変換(FFT:Fast Fourier Transform)処理(以下、「FFT処理」と記載する)を行う。かかるFFT処理の結果は、ビート信号の周波数スペクトルであり、ビート信号の周波数ごと(周波数分解能に応じた周波数間隔で設定された周波数ビンごと)のパワー値(信号レベル)である。
In the frequency analysis process, the beat signal input from each A/
ピーク抽出処理では、周波数解析処理によるFFT処理の結果においてピークとなるピーク周波数を抽出する。なお、ピーク抽出処理では、後述するビート信号の「UP区間」および「DN区間」のそれぞれについてピーク周波数を抽出する。 In the peak extraction process, a peak frequency is extracted as a result of the FFT process by the frequency analysis process. In the peak extraction process, peak frequencies are extracted for each of the "UP section" and the "DN section" of the beat signal, which will be described later.
瞬時データ生成処理では、ピーク抽出処理において抽出されたピーク周波数のそれぞれに対応する反射波の到来角度とそのパワー値を算出する角度推定処理を実行する。なお、角度推定処理の実行時点で、到来角度は、物標が存在すると推定される角度であることから、以下では「推定角度」と記載する場合がある。 In the instantaneous data generation process, an angle estimation process is executed to calculate the arrival angle and the power value of the reflected wave corresponding to each of the peak frequencies extracted in the peak extraction process. It should be noted that, at the time of execution of the angle estimation process, the arrival angle is an angle at which it is estimated that the target exists, so it may be referred to as an "estimated angle" below.
また、瞬時データ生成処理では、算出した推定角度とパワー値との算出結果に基づいて「UP区間」および「DN区間」それぞれのピーク周波数の正しい組み合わせを判定するペアリング処理を実行する。 Also, in the instantaneous data generation process, a pairing process is executed to determine the correct combination of the peak frequencies of the "UP section" and the "DN section" based on the calculated estimated angle and power value.
また、瞬時データ生成処理では、判定した組み合わせ結果から各物標の自車両MCに対する距離および自車両MCへの向きの相対速度を算出する。また、瞬時データ処理では、算出した各物標の推定角度、距離および相対速度を、最新周期(最新スキャン)分の瞬時データ100としてフィルタ処理部32bへ出力するとともに、記憶部33の履歴データ33aとして記憶する。
Further, in the instantaneous data generation process, the distance of each target from the own vehicle MC and the relative speed toward the own vehicle MC are calculated from the determined combination result. In the instantaneous data processing, the calculated estimated angle, distance, and relative velocity of each target are output as
説明を分かりやすくするために、信号処理部32の前段処理から信号処理部32におけるここまでの処理の流れを図3~図4Cに示す。図3は、信号処理部32の前段処理から生成部32aにおけるピーク抽出処理までの処理説明図である。
3 to 4C show the flow of processing from the pre-processing of the
また、図4Aは、角度推定処理の処理説明図である。また、図4Bおよび図4Cは、ペアリング処理の処理説明図(その1)および(その2)である。なお、図3は、2つの太い下向きの白色矢印で3つの領域に区切られている。以下では、かかる各領域を順に、上段、中段、下段と記載する。 Also, FIG. 4A is a process explanatory diagram of the angle estimation process. 4B and 4C are process explanatory diagrams (part 1) and (part 2) of the pairing process. Note that FIG. 3 is divided into three regions by two thick downward white arrows. In the following, such regions are described in order as an upper stage, a middle stage, and a lower stage.
図3の上段に示すように、送信信号fs(t)は、送信アンテナ13から送信波として送出された後、物標において反射されて反射波として到来し、受信アンテナ21において受信信号fr(t)として受信される。
As shown in the upper part of FIG. 3, the transmission signal fs(t) is transmitted from the
このとき、図3の上段に示すように、受信信号fr(t)は、自車両MCと物標との距離に応じて、送信信号fs(t)に対して時間差Tだけ遅延している。この時間差Tと、自車両MCおよび物標の相対速度に基づくドップラー効果とにより、ビート信号は、周波数が上昇する「UP区間」の周波数fupと、周波数が下降する「DN区間」の周波数fdnとが繰り返される信号として得られる(図3の中段参照)。 At this time, as shown in the upper part of FIG. 3, the received signal fr(t) is delayed by the time difference T with respect to the transmitted signal fs(t) according to the distance between the host vehicle MC and the target. Due to this time difference T and the Doppler effect based on the relative velocities of the host vehicle MC and the target, the beat signal has a frequency fup in an "UP section" where the frequency rises and a frequency fdn in the "DN section" where the frequency drops. is obtained as a repeated signal (see the middle part of FIG. 3).
図3の下段には、かかるビート信号を周波数解析処理においてFFT処理した結果を、「UP区間」側および「DN区間」側のそれぞれについて模式的に示している。 The lower part of FIG. 3 schematically shows the results of the FFT processing of the beat signal in the frequency analysis processing for each of the "UP section" side and the "DN section" side.
図3の下段に示すように、FFT処理後には、「UP区間」側および「DN区間」側のそれぞれの周波数領域における波形が得られる。ピーク抽出処理では、かかる波形においてピークとなるピーク周波数を抽出する。 As shown in the lower part of FIG. 3, after the FFT processing, waveforms in the frequency domains on the "UP section" side and the "DN section" side are obtained. In the peak extraction process, the peak frequency of the waveform is extracted.
たとえば、図3の下段に示した例の場合、ピーク抽出閾値が用いられ、「UP区間」側においては、ピークPu1~Pu3がそれぞれピークとして判定され、ピーク周波数fu1~fu3がそれぞれ抽出される。 For example, in the case of the example shown in the lower part of FIG. 3, a peak extraction threshold is used, peaks Pu1 to Pu3 are determined as peaks, and peak frequencies fu1 to fu3 are extracted on the "UP section" side.
また、「DN区間」側においては、同じくピーク抽出閾値により、ピークPd1~Pd3がそれぞれピークとして判定され、ピーク周波数fd1~fd3がそれぞれ抽出される。 Also, on the "DN section" side, the peaks Pd1 to Pd3 are determined as peaks by the same peak extraction threshold, and the peak frequencies fd1 to fd3 are extracted.
ここで、ピーク抽出処理により抽出した各ピーク周波数の周波数成分には、複数の物標からの反射波が混成している場合がある。そこで、瞬時データ生成処理では、各ピーク周波数のそれぞれについて方位演算する角度推定処理を行い、ピーク周波数ごとに対応する物標の存在を解析する。 Here, the frequency component of each peak frequency extracted by the peak extraction process may be mixed with reflected waves from a plurality of targets. Therefore, in the instantaneous data generation process, an angle estimation process for performing azimuth calculation is performed for each peak frequency, and the presence of a target corresponding to each peak frequency is analyzed.
なお、瞬時データ生成処理における方位演算は、たとえばESPRIT(Estimation of Signal Parameters via Rotational Invariance Techniques)などの公知の到来方向推定手法を用いて行うことができる。 Note that the azimuth calculation in the instantaneous data generation process can be performed using a known direction-of-arrival estimation technique such as ESPRIT (Estimation of Signal Parameters via Rotational Invariance Techniques).
図4Aは、瞬時データ生成処理の方位演算結果を模式的に示すものである。瞬時データ生成処理では、かかる方位演算結果の各ピークPu1~Pu3から、これらピークPu1~Pu3にそれぞれ対応する各物標(各反射点)の推定角度を算出する。また、各ピークPu1~Pu3の大きさがパワー値となる。瞬時データ生成処理では、図4Bに示すように、かかる角度推定処理を「UP区間」側および「DN区間」側のそれぞれについて行う。 FIG. 4A schematically shows an azimuth calculation result of instantaneous data generation processing. In the instantaneous data generation process, the estimated angle of each target (each reflection point) corresponding to each of the peaks Pu1 to Pu3 is calculated from each of the peaks Pu1 to Pu3 of the azimuth calculation result. Also, the magnitude of each of the peaks Pu1 to Pu3 is the power value. In the instantaneous data generation processing, as shown in FIG. 4B, such angle estimation processing is performed for each of the "UP section" side and the "DN section" side.
そして、瞬時データ生成処理では、方位演算結果において、推定角度およびパワー値の近い各ピークを組み合わせるペアリング処理を行う。また、その組み合わせ結果から、瞬時データ生成処理では、各ピークの組み合わせに対応する各物標(各反射点)の距離および自車両MCへの向きの相対速度を算出する。 Then, in the instantaneous data generation process, a pairing process is performed in which peaks having similar estimated angles and power values are combined in the azimuth calculation result. Further, from the result of the combination, in the instantaneous data generation process, the distance of each target (each reflection point) corresponding to the combination of each peak and the relative speed toward the own vehicle MC are calculated.
距離は、「距離∝(fup+fdn)」の関係に基づいて算出することができる。相対速度は、「速度∝(fup-fdn)」の関係に基づいて算出することができる。その結果、図4Cに示すように、自車両MCに対する、各反射点RPの推定角度、距離および相対速度の瞬時データ100を示すペアリング処理結果が得られる。
The distance can be calculated based on the relationship “distance∝(fup+fdn)”. The relative velocity can be calculated based on the relationship "velocity∝(fup-fdn)". As a result, as shown in FIG. 4C, a pairing processing result showing
図2に戻って、フィルタ処理部32bについて説明する。図2に示すように、フィルタ処理部32bは、予測部321bと、割り当て部322bと、推定部323bと、重み付け部324bと、リサンプリング部325bと、物標データ生成部326bとを備える。
Returning to FIG. 2, the filter processing section 32b will be described. As shown in FIG. 2, the filtering unit 32b includes a prediction unit 321b, an allocation unit 322b, an estimation unit 323b, a
フィルタ処理部32bは、生成部32aによって生成された瞬時データ100に対して所定数の粒子データを割り当てるパーティクルフィルタを施すことによって、瞬時データ100に対応する物標データを生成する。
The filtering unit 32b generates target object data corresponding to the
予測部321bは、パーティクルフィルタにおけるサンプル点(粒子データ)の予測処理を行う。具体的には、予測部321bは、最新の周期を時間tとし、時間tにおける粒子データの分布状態Xtとした場合、前回の周期の時間t-1の分布状態Xt-1に基づく確率密度関数に基づいてN個の粒子データを配置(サンプリング)する。つまり、予測部321bは、予測処理において、時間t-1の粒子データから時間tにおいて瞬時データ100が現れそうな領域に粒子データを分布させる。
The prediction unit 321b performs prediction processing of sample points (particle data) in the particle filter. Specifically, the prediction unit 321b assumes that the latest cycle is time t, and the distribution state X t of the particle data at time t is the probability based on the distribution state X t−1 at time t−1 of the previous cycle Arrange (sample) the N particle data based on the density function. That is, in the prediction process, the prediction unit 321b distributes the particle data from the particle data at time t−1 to a region where
また、予測部321bは、前回の物標データに基づいて今回の物標データに対応する予測データを生成する。具体的には、予測部321bは、前回の物標データの移動向きおよびかかる移動向きへの相対速度に基づいて予測データを生成する。 Also, the prediction unit 321b generates prediction data corresponding to the current target data based on the previous target data. Specifically, the prediction unit 321b generates prediction data based on the moving direction of the previous target object data and the relative speed to the moving direction.
なお、予測部321bは、新規の物標に対応する瞬時データ100については、前回の周期の粒子データが存在しないため、所定の分布状態の粒子データを分布させる。
Note that the prediction unit 321b distributes particle data in a predetermined distribution state for the
割り当て部322bは、最新の周期における瞬時データ100を、予測部321bの予測結果である最新の粒子データへ割り当てる処理を行う。具体的には、割り当て部322bは、予測部321bによって生成された予測データに対応する所定の割り当て範囲内に存在する瞬時データ100に対して、当該予測データに対応する粒子データを割り当てる。
The allocation unit 322b performs a process of allocating the
なお、割り当て部322bは、いずれの物標データの割り当て範囲内にも存在しない瞬時データ100があった場合には、かかる瞬時データ100を新規の物標として扱う。
If there is
推定部323bは、生成部32aによって生成された複数の瞬時データ100に基づいて物標の移動ベクトルVを推定する。具体的には、推定部323bは、瞬時データ100における自車両MCへの向きの相対速度に基づき、複数の瞬時データ100それぞれに対応する自車両MCへの向きのベクトルRVにおける起点を揃え、ベクトルRVに対する垂線VLの交点CPから物標の移動ベクトルVを推定する。
The estimation unit 323b estimates the movement vector V of the target based on the multiple pieces of
ここで、図5~図7を用いて、推定部323bの処理内容について具体的には説明する。図5~図7は、推定部323bの処理内容を示す図である。図5に示すように、推定部323bは、瞬時データ選択部323baと、バッファリング部323bbと、垂線作成部323bcと、交点作成部323bdと、内心作成部323beと、移動ベクトル作成部323bfとを備える。 Here, details of the processing performed by the estimation unit 323b will be described in detail with reference to FIGS. 5 to 7. FIG. 5 to 7 are diagrams showing the processing contents of the estimation unit 323b. As shown in FIG. 5, the estimation unit 323b includes an instantaneous data selection unit 323ba, a buffering unit 323bb, a perpendicular line creation unit 323bc, an intersection creation unit 323bd, an incenter creation unit 323be, and a motion vector creation unit 323bf. Prepare.
瞬時データ選択部323baは、移動ベクトル作成部323bfにおける移動ベクトルVの推定処理に用いる瞬時データ100を選択する。具体的には、瞬時データ選択部323baは、瞬時データ100に含まれる自車両MCへの向きの相対速度や、角度および距離に基づいて移動ベクトルVの推定処理では不要な瞬時データ100を除外する処理を行う。
The instantaneous data selection unit 323ba selects the
例えば、瞬時データ選択部323baは、複数の瞬時データ100のうち、ベクトルRVの自車両MCへの向きが類似する瞬時データ100を移動ベクトルの推定処理から除外する。具体的には、瞬時データ選択部323baは、2つの瞬時データ100の角度差(例えば、略ゼロ)が所定の閾値未満の場合、2つの瞬時データ100のいずれか一方を除外する。
For example, the instantaneous data selection unit 323ba excludes
かかる場合、瞬時データ選択部323baは、例えば、2つの瞬時データ100のうち、自車両MCまでの距離が近い方の瞬時データ100や、角度のパワー値が大きい方の瞬時データ100を残すようにする。これは、角度が略同じで、相対速度が異なる2つの瞬時データ100は、同一の物標からは得られないことに起因している。また、角度が略同じで、相対速度が同じ2つの瞬時データ100は、物標において同じような位置の反射点に由来していると考えられ、移動ベクトルVの推定処理においては、いずれか一方のみを用いれば情報量として足りるため除外する。
In such a case, the instantaneous data selection unit 323ba may, for example, leave the
このように、角度が略同じ複数の瞬時データ100のうち、少なくとも1つを残して、残りを除外することで、移動ベクトルVの推定精度を落とすことなく、推定部323bの推定処理における処理量が嵩むことを防止できる。
In this way, by leaving at least one of the plurality of
また、瞬時データ選択部323baは、複数の瞬時データ100のうち、自車両MCへの向きの相対速度が類似、かつ、自車両MCまでの距離が類似の瞬時データ100を移動ベクトルVの推定処理から除外する。
Further, the instantaneous data selection unit 323ba selects the
具体的には、瞬時データ選択部323baは、2つの瞬時データ100の相対速度差(例えば、略ゼロ)が所定の閾値未満、かつ、距離差(例えば、略ゼロ)が所定の閾値未満の場合、2つの瞬時データ100のいずれか一方を除外する。かかる場合、瞬時データ選択部323baは、角度のパワー値が大きい方の瞬時データ100や、角度が物標データ近い方の瞬時データ100を残すようにする。これは、相対速度が略同じ、かつ、距離が略同じ2つの瞬時データ100は原理上存在せず、異なる物標の瞬時データ100または角度割れである可能性が高いためである。
Specifically, when the relative speed difference (for example, approximately zero) between the two
これにより、他の物標の瞬時データ100を用いることによる移動ベクトルVの推定精度の低下を防ぐことができるとともに、推定部323bの推定処理における処理量が嵩むことを防止できる。
As a result, it is possible to prevent the estimation accuracy of the movement vector V from deteriorating due to the use of the
次に、バッファリング部323bbは、瞬時データ選択部323baによって選択された瞬時データ100を記憶部3の履歴データ33aに記憶する。履歴データ33aの記憶方法は、例えば、生成部32aによって生成された複数の瞬時データ100に対して、瞬時データ選択部323baで選択されたことを示すフラグを立ててもよく、あるいは、生成部32aによって生成された複数の瞬時データ100のうち、瞬時データ選択部323baによって選択された瞬時データ100のみを残してもよい。
Next, the buffering unit 323bb stores the
そして、上記した瞬時データ選択部323baは、最新の瞬時データ100の数が所定数未満の場合、記憶部33に記憶された履歴データ33a(過去の瞬時データ100の一例)を移動ベクトルVの推定処理に用いる。
When the number of the latest
これにより、瞬時データ100の数が不足することで移動ベクトルVの推定精度が低下することを抑えることができる。
As a result, it is possible to prevent the estimation accuracy of the movement vector V from deteriorating due to the shortage of the
なお、瞬時データ選択部323baは、過去の瞬時データ100を用いる場合、最新の周期から所定周期以内の瞬時データ100を用いることが好ましい。これにより、過去の瞬時データ100を使用することによる移動ベクトルVの推定精度が低下を抑えることができる。
In addition, when using the past
次に、垂線作成部323bcは、瞬時データ選択部323baによって選択された瞬時データ100の自車両MCへの向きの相対速度を示すベクトルRVに対する垂線VLを作成する。
Next, the perpendicular creating unit 323bc creates a perpendicular VL to the vector RV indicating the relative velocity of the
具体的には、垂線作成部323bcは、複数の瞬時データ100それぞれに対応するベクトルRVの起点を揃えた場合に、ベクトルRVの終点を通る垂線VLを作成する。例えば、垂線作成部323bcは、自車両MCの左右方向への相対速度成分(VY軸)と、自車両MCに対して前後方向への相対速度成分(VX軸)とで表される平面の原点にベクトルRVの起点を揃えたとする。
Specifically, when the starting points of the vectors RV corresponding to the plurality of
かかる場合、垂線VLの直線式は、VY=a×VX+bで表される。具体的には、ベクトルRVのVX軸を基準とする角度θと、ベクトルRVの大きさである相対速度Taとした場合、係数aは、a=tan(θ+π/2)で表わされ、係数bは、b=Ta/sin(θ)で表される。なお、θ=0または±2πの場合、係数aが発散するため、以降の処理においては、Vx=Vとして例外処理を行う。 In such a case, the linear equation of the perpendicular line VL is represented by VY=a*VX+b. Specifically, when the angle θ of the vector RV with respect to the VX axis and the relative speed Ta, which is the magnitude of the vector RV, are expressed as a=tan(θ+π/2), the coefficient b is represented by b=Ta/sin(θ). Note that when θ=0 or ±2π, the coefficient a diverges, so exception handling is performed with Vx=V in subsequent processing.
次に、交点作成部323bdは、垂線作成部323bcによって作成された垂線VLの交点CPを作成する。具体的には、交点作成部323bdは、交点CPを求める2つの垂線VLをn1およびn2とし、n1の係数aをa[n1]、係数bをb[n1]と表した場合、交点CPの座標VXは、VX=(b[n2]-b[n1])/(a[n1]-a[n2])により算出され、座標VYは、VY=a×VX+bに上記のVXを代入することで算出される。 Next, the intersection creating section 323bd creates an intersection point CP of the perpendicular VL created by the perpendicular creating section 323bc. Specifically, when the two perpendicular lines VL for obtaining the intersection point CP are n1 and n2, the coefficient a of n1 is expressed as a[n1], and the coefficient b is expressed as b[n1], the intersection point creation unit 323bd The coordinate VX is calculated by VX=(b[n2]-b[n1])/(a[n1]-a[n2]), and the coordinate VY is obtained by substituting the above VX for VY=a×VX+b. Calculated by
次に、内心作成部323beは、交点作成部323bdによって作成された交点CPが3つ以上であった場合、かかる3つの交点CPにより形成される三角形の内心IP(図6A参照)を作成する。なお、内心作成部323beによる内心IPの作成方法については、図6Aで後述する。 Next, when the number of intersection points CP generated by the intersection point generation unit 323bd is three or more, the incenter generation unit 323be generates a triangle incenter IP (see FIG. 6A) formed by the three intersection points CP. A method of creating an in-center IP by the in-center creating unit 323be will be described later with reference to FIG. 6A.
次に、移動ベクトル作成部323bfは、交点作成部323bdによって作成された交点CPに基づいて物標の移動ベクトルVを作成する。例えば、移動ベクトル作成部323bfは、交点作成部323bdによって作成された交点CPが1つであった場合、ベクトルRVの起点(VY軸およびVX軸の原点)を移動ベクトルVの起点とし、交点CPを移動ベクトルVの終点として推定する。 Next, the motion vector generator 323bf creates a target motion vector V based on the intersection CP created by the intersection creator 323bd. For example, when there is one intersection point CP generated by the intersection generation unit 323bd, the movement vector generation unit 323bf sets the origin of the vector RV (the origin of the VY axis and the VX axis) as the origin of the movement vector V, and the intersection point CP is estimated as the end point of the motion vector V.
つまり、推定部323bは、移動ベクトル作成部323bfによって作成された移動ベクトルVに基づいて、ベクトルRVにおける起点から交点CPへの向きが物標の実際の移動向きであると推定し、ベクトルRVにおける起点および交点CPの距離が物標の移動向きへの相対速度であると推定する。 That is, the estimating unit 323b estimates that the direction from the starting point of the vector RV to the intersection point CP is the actual moving direction of the target based on the motion vector V created by the motion vector creating unit 323bf, and It is assumed that the distance between the starting point and the intersection point CP is the relative velocity of the target in the moving direction.
また、移動ベクトル作成部323bfは、交点作成部323bdによって作成された交点CPが3つ以上であった場合、内心作成部323beによって作成された内心IPに基づいて移動ベクトルVを作成する。ここで、図6Aおよび図6Bを用いて、交点CPが3つ以上の場合における移動ベクトルVの作成方法について説明する。 Further, when the number of intersection points CP generated by the intersection point generation unit 323bd is three or more, the movement vector generation unit 323bf generates a movement vector V based on the inner center IP generated by the inner center generation unit 323be. Here, a method of creating the movement vector V when there are three or more intersections CP will be described with reference to FIGS. 6A and 6B.
図6Aは、交点CPが3つの場合における移動ベクトルVの作成方法を示す。図6Bは、交点CPが6つの場合における移動ベクトルVの作成方法を示す。まず、図6Aを用いて、交点CPが3つの場合における移動ベクトルVの作成方法について説明する。 FIG. 6A shows a method of creating a movement vector V when there are three intersection points CP. FIG. 6B shows a method of creating the movement vector V when there are six intersections CP. First, with reference to FIG. 6A, a method of creating the movement vector V when there are three intersections CP will be described.
まず、内心作成部323beは、3つの交点CP1,CP2,CP3の内心IPを作成する。具体的には、内心IPは、3つの交点CP1,CP2,CP3に形成される三角形の内接円の中心である。 First, the incenter creating unit 323be creates the incenter IP of the three intersections CP1, CP2, and CP3. Specifically, the incenter IP is the center of the inscribed circle of the triangle formed by the three intersection points CP1, CP2 and CP3.
より具体的には、内心作成部323beは、上記したVY軸およびVX軸の平面における原点を起点として、各交点CP1,CP2,CP3を終点とする算出用ベクトルCV1,CV2,CV3を作成する。 More specifically, the centric creating unit 323be creates calculation vectors CV1, CV2 and CV3 starting from the origin on the plane of the VY and VX axes and ending at the intersections CP1, CP2 and CP3.
そして、内心作成部323beは、算出用ベクトルCV1,CV2,CV3と、各交点CP1,CP2,CP3の対辺に基づいて内心IPを作成する。具体的には、内心作成部323beは、交点CP1,CP2,CP3の対辺をCP1a,CP2a,CP3aと表した場合、原点から内心IPへのベクトル(図6Aでは、移動ベクトルV)は、V=(CP1a×CV1+CP2a×CV2+CP3a×CV3)/(CP1a+CP2a+CP3a)で算出される。 Then, the incenter creating unit 323be creates the incenter IP based on the calculation vectors CV1, CV2, and CV3 and the opposite sides of the intersection points CP1, CP2, and CP3. Specifically, when the opposite sides of the intersection points CP1, CP2, and CP3 are expressed as CP1a, CP2a, and CP3a, the centric creating unit 323be creates a vector from the origin to the centric IP (movement vector V in FIG. 6A) as V= It is calculated by (CP1a*CV1+CP2a*CV2+CP3a*CV3)/(CP1a+CP2a+CP3a).
なお、内心作成部323beは、三角形を形成する3つの交点CPのバラつきが所定値以上の場合には、内心IPの算出処理から除外する。具体的には、内心作成部323beは、3つの交点CPの不偏分散が所定値以上の場合には、内心IPの算出処理から除外する。 It should be noted that the incenter creating unit 323be excludes from the calculation process of the incenter IP when the variation of the three intersection points CP forming the triangle is equal to or greater than a predetermined value. Specifically, when the unbiased variance of the three intersections CP is equal to or greater than a predetermined value, the centric IP creation unit 323be excludes it from the calculation process of the centric IP.
そして、移動ベクトル作成部323bfは、内心IPが1つの場合、原点から内心IPへのベクトルを移動ベクトルVとして作成する。このように、内心IPを算出して移動ベクトルVを作成することで、交点CPが複数の場合であっても、移動ベクトルVの推定精度が低下することを防止できる。 Then, when there is one inner core IP, the motion vector creation unit 323bf creates a vector from the origin to the inner core IP as the motion vector V. FIG. In this way, by calculating the incenter IP and creating the motion vector V, it is possible to prevent the estimation accuracy of the motion vector V from deteriorating even when there are a plurality of intersection points CP.
なお、移動ベクトル作成部323bfは、算出用ベクトルCV1,CV2,CV3のうち、いずれか2つの算出用ベクトルCV1,CV2,CV3の誤差が所定値以上であることが明らかである場合等には、残りの算出用ベクトルCV1,CV2,CV3を移動ベクトルVとしてもよい。 When it is clear that any two calculation vectors CV1, CV2, and CV3 out of the calculation vectors CV1, CV2, and CV3 have an error greater than or equal to a predetermined value, the movement vector generation unit 323bf The remaining calculation vectors CV1, CV2, and CV3 may be used as the movement vector V. FIG.
次に、図6Bを用いて、交点CPが6つの場合における移動ベクトルVの作成方法について説明する。図6Bに示すように、交点CP3~CP8が6つの場合、かかる交点CP3~CP8によって形成される三角形が複数となり、従って内心IP1~IP4も複数となる。なお、図6Bに示す例では、3つの交点CP(例えば、交点CP3,CP5,CP8)により三角形が形成されない組み合わせもあり、かかる交点CPの組み合わせについては内心IPの作成から除外する。 Next, with reference to FIG. 6B, a method of creating the movement vector V when there are six intersection points CP will be described. As shown in FIG. 6B, when there are six intersection points CP3 to CP8, a plurality of triangles formed by the intersection points CP3 to CP8 are formed, and thus a plurality of incenters IP1 to IP4 are formed. Note that in the example shown in FIG. 6B, there are combinations in which three intersection points CP (for example, intersection points CP3, CP5, and CP8) do not form a triangle, and such combinations of intersection points CP are excluded from the creation of the incenter IP.
図6Bに示すように、移動ベクトル作成部323bfは、例えば、内心IP1~IP4の平均値となる平均点IPAを算出し、原点から平均点IPAへのベクトルを移動ベクトルVとして算出する。 As shown in FIG. 6B, the movement vector generation unit 323bf calculates, for example, an average point IPA that is the average value of the inner centers IP1 to IP4, and calculates a vector from the origin to the average point IPA as a movement vector V. As shown in FIG.
このように、内心IPが複数作成された場合に、平均点IPAによる移動ベクトルVを作成することにより、内心IPのバラつきによる移動ベクトルVの推定誤差を最小限に抑えることができる。 In this way, when a plurality of in-center IPs are created, by creating the movement vector V based on the average point IPA, it is possible to minimize the estimation error of the movement vector V due to variations in the in-center IP.
なお、移動ベクトル作成部323bfは、複数の内心IPのバラつきが所定値以上の場合には、移動ベクトルVの作成処理から除外する。具体的には、移動ベクトル作成部323bfは、複数の内心IPのうち、不偏分散が所定値以上の内心IPについては、移動ベクトルVの作成処理から除外する。 It should be noted that the motion vector creation unit 323bf excludes from the motion vector V creation processing when the variation of a plurality of inner core IPs is equal to or greater than a predetermined value. Specifically, the movement vector generation unit 323bf excludes from the movement vector V generation processing, among the plurality of internal IPs, the internal IPs whose unbiased variance is equal to or greater than a predetermined value.
図2に戻って重み付け部324bについて説明する。重み付け部324bは、割り当て関係にある今回の瞬時データ100および今回の粒子データについて今回の粒子データそれぞれに対して重みを付ける。
Returning to FIG. 2, the
例えば、重み付け部324bは、今回の粒子データのうち、今回の瞬時データ100に近い粒子の重みを大きくし、今回の瞬時データ100から遠い粒子の重みを小さくする。なお、ここでいう「近い」および「遠い」は、マハラノビス距離が「近い」および「遠い」ことを指す。
For example, the
また、重み付け部324bは、推定部323bによって推定された移動ベクトルVに基づいて重み付けを行う。ここで、かかる点について、図7を用いて説明する。図7は、移動ベクトルVによる重み付け処理を示す図である。
Also, the
図7では、3つの粒子データに基づくベクトルPV1~PV3の起点と、移動ベクトルVの起点とをVY軸およびVX軸平面の原点に揃えた場合を示している。なお、粒子データに基づくベクトルPV1~PV3は、前回の粒子データから今回の粒子データ(予測部321bにより予測された粒子データ)へのベクトルである。 FIG. 7 shows a case where the starting points of vectors PV1 to PV3 based on three particle data and the starting point of movement vector V are aligned with the origins of the VY-axis and VX-axis planes. The vectors PV1 to PV3 based on the particle data are vectors from the previous particle data to the current particle data (particle data predicted by the prediction unit 321b).
例えば、重み付け部324bは、ベクトルPV1~PV3と移動ベクトルVとの類似度が高いほど重みを大きくする。例えば、重み付け部324bは、ベクトルPV1~PV3および移動ベクトルVのVY軸およびVX軸の相対速度成分が近いほど、類似度を高くする。
For example, the
つまり、図7に示す例では、重み付け部324bは、ベクトルPV1,PV2に由来する粒子データの重みを大きくし、ベクトルPV3に由来する粒子データの重みを小さくする。これにより、後段のリサンプリング部325bにおけるリサンプリングの精度を向上させることができ、算出される物標データの精度を向上させることができる。
That is, in the example shown in FIG. 7, the
次に、リサンプリング部325bは、今回の粒子データそれぞれの重みに基づいて粒子データを再配置(リサンプリング)する。具体的には、リサンプリング部325bは、重みが小さい粒子データを瞬時データ100の近くへ移動させる。
Next, the resampling unit 325b rearranges (resamples) the particle data based on the respective weights of the current particle data. Specifically, the resampling unit 325b moves the particle data having a small weight closer to the
物標データ生成部326bは、リサンプリング部325bによって再配置された今回の粒子データに基づいて確率密度関数を再計算し、再計算された確率密度関数の重心に基づいて物標データを生成する。なお、物標データ生成部326bは、確率密度関数の重心に基づいて物標データを生成したが、例えば、確率密度関数の平均に基づいて物標データを生成してもよい。
The target
また、物標データ生成部326bは、粒子データが割り当てられなかった瞬時データ100を新規の物標として扱い、そのまま物標データとして出力する。すなわち、物標データ生成部326bは、新規の物標の場合、瞬時データ100=物標データとして出力する。
Also, the
次に、図8を用いて、実施形態に係る物標検出装置1が実行する処理の処理手順について説明する。図8は、実施形態に係る物標検出装置1が実行する処理の処理手順を示すフローチャートである。
Next, a processing procedure of processing executed by the target
図8に示すように、まず、生成部32aは、送信した電波が物標で反射した複数の反射点それぞれについて、物標の自車両MCへの向きの相対速度を含む瞬時データ100を生成する(ステップS101)。
As shown in FIG. 8, the
つづいて、フィルタ処理部32bの予測部321bは、前回の粒子データに基づいて今回の粒子データを予測する予測処理を行う(ステップS102)。なお、フィルタ処理部32bは、前回の粒子データが存在しない場合、前回の瞬時データ100の相対速度に基づいて今回の粒子データを予測する。
Subsequently, the prediction unit 321b of the filter processing unit 32b performs a prediction process of predicting the current particle data based on the previous particle data (step S102). In addition, when the previous particle data does not exist, the filter processing unit 32b predicts the current particle data based on the relative velocity of the previous
つづいて、割り当て部322bは、今回の粒子データに今回の瞬時データ100を割り当てる(ステップS103)。つづいて、推定部323bは、複数の今回の瞬時データ100に基づいて物標の移動ベクトルVを推定する(ステップS104)。なお、推定部323bによる推定処理の処理手順については図9で後述する。
Subsequently, the allocation unit 322b allocates the current
つづいて、割り当て部322bは、今回の粒子データが割り当てられなかった瞬時データ100の有無により新規の物標の有無を判定する(ステップS105)。割り当て部322bは、瞬時データ100が新規の物標であった場合(ステップS105,Yes)、新規の物標に対応する瞬時データ100に対して所定の粒子データ(例えば、初期状態の粒子データ)を設定する(ステップS106)。
Subsequently, the assignment unit 322b determines whether there is a new target based on the presence or absence of
つづいて、重み付け部324bは、瞬時データ100が新規の物標でなかった場合(ステップS105,No)、推定部323bによって推定された移動ベクトルVに基づいて今回の粒子データそれぞれに重み付けを行う(ステップS107)。
Subsequently, if the
つづいて、リサンプリング部325bは、重み付け部324bによる重み付けに基づいて今回の粒子データのリサンプリングを行う(ステップS108)。つづいて、物標データ生成部326bは、リサンプリングされた今回の粒子データの確率密度関数を更新し、かかる確率密度関数に基づいて物標データを生成し(ステップS109)、処理を終了する。
Subsequently, the resampling unit 325b resamples the current particle data based on the weighting by the
次に、図9を用いて、実施形態に係る推定部323bが実行する推定処理の処理手順について説明する。図9は、実施形態に係る推定部323bが実行する推定処理の処理手順を示すフローチャートである。 Next, a processing procedure of estimation processing executed by the estimation unit 323b according to the embodiment will be described with reference to FIG. FIG. 9 is a flowchart showing the procedure of estimation processing executed by the estimation unit 323b according to the embodiment.
図9に示すように、まず、瞬時データ選択部323baは、複数の瞬時データ100のうち、移動ベクトルVの推定処理に用いる瞬時データ100を選択する選択処理を行う(ステップS201)。
As shown in FIG. 9, first, the instantaneous data selection unit 323ba performs a selection process of selecting the
つづいて、バッファリング部323bbは、瞬時データ選択部323baによって選択された瞬時データ100を記憶部33に履歴データ33aとして記憶するバッファリング処理を行う(ステップS202)。
Subsequently, the buffering unit 323bb performs a buffering process of storing the
つづいて、垂線作成部323bcは、瞬時データ選択部323baによって選択された瞬時データ100における自車両MCへの向きの相対速度に基づき、複数の瞬時データ100それぞれに対応するベクトルRVにおける起点を揃え、ベクトルRVに対する垂線VLを作成する垂線作成処理を行う(ステップS203)。
Next, the perpendicular line creating unit 323bc aligns the starting points of the vectors RV corresponding to the plurality of
つづいて、交点作成部323bdは、垂線作成部323bcによって作成された垂線VLの交点CPを作成する交点作成処理を行う(ステップS204)。移動ベクトル作成部323bfは、交点作成部323bdによって作成された交点CPが1つであるか否かを判定する(ステップS205)。 Subsequently, the intersection creating unit 323bd performs an intersection creating process of creating an intersection point CP of the perpendicular VL created by the perpendicular creating unit 323bc (step S204). The movement vector creation unit 323bf determines whether or not there is one intersection CP created by the intersection creation unit 323bd (step S205).
移動ベクトル作成部323bfは、交点作成部323bdによって作成された交点CPが1つであった場合(ステップS205,Yes)、移動ベクトル作成処理を行い(ステップS206)、処理を終了する。なお、移動ベクトル作成部323bfは、かかる場合、ベクトルRVの起点から交点CPへのベクトルを移動ベクトルVとして作成する。 If there is one intersection point CP generated by the intersection point generation unit 323bd (step S205, Yes), the movement vector generation unit 323bf performs movement vector generation processing (step S206), and ends the processing. In this case, the motion vector creation unit 323bf creates a vector from the starting point of the vector RV to the intersection point CP as the motion vector V. FIG.
一方、ステップS205において、内心作成部323beは、交点CPが1つでない場合(ステップS205,No)、すなわち、交点CPが3つ以上の場合、3つの交点CPにより形成される三角形の内心IPを作成する内心作成処理を行い(ステップS207)、処理をステップS206へ移行する。なお、かかる場合、移動ベクトル作成部323bfは、ステップS206において、内心作成部323beによって作成された内心IPに基づいて移動ベクトル作成処理を行う。 On the other hand, in step S205, if the number of intersection points CP is not one (step S205, No), that is, if there are three or more intersection points CP, the incenter creation unit 323be calculates the incenter IP of the triangle formed by the three intersection points CP. In-core creation processing is performed (step S207), and the process proceeds to step S206. In such a case, the motion vector creation unit 323bf performs motion vector creation processing based on the inner core IP created by the inner core creation unit 323be in step S206.
上述してきたように、実施形態に係る物標検出装置1は、生成部32aと、推定部323bとを備える。生成部32aは、送信した電波が物標で反射した複数の反射点それぞれについて、物標の自車両MCへの向きの相対速度を含む瞬時データ100を生成する。推定部323bは、生成部32aによって生成された複数の瞬時データ100における相対速度に基づき、当該複数の瞬時データ100それぞれに対応する自車両MCへの向きのベクトルRVにおける起点を揃え、ベクトルRVに対する垂線VLの交点CPから物標の移動向き(移動ベクトルVの一要素)を推定する。これにより、物標に対する応答性を向上させることができる。
As described above, the
上述した実施形態では、物標検出装置1は車両に設けられることとしたが、無論、車両以外の移動体、たとえば船舶や航空機などに設けられてもよい。
In the above-described embodiment, the
また、上述した実施形態では、物標検出装置1の用いる到来方向推定手法の例にESPRITを挙げたが、これに限られるものではない。たとえばDBF(Digital Beam Forming)や、PRISM(Propagator method based on an Improved Spatial-smoothing Matrix)、MUSIC(Multiple Signal Classification)などを用いてもよい。
Further, in the above-described embodiment, ESPRIT is used as an example of the direction-of-arrival estimation method used by the
また、実施形態に係る物標検出装置1は、移動ベクトル作成部323bfによって作成された移動ベクトルVの確度を粒子データに基づいて検証してもよい。かかる点について、図10を用いて説明する。
Moreover, the
図10は、移動ベクトルVの検証処理を示す図である。図10では、移動ベクトルVと、粒子データに基づくベクトルPVとを示している。 10A and 10B are diagrams showing verification processing of the movement vector V. FIG. FIG. 10 shows a movement vector V and a vector PV based on particle data.
図10に示すように、推定部323bは、作成した移動ベクトルVと粒子データのベクトルPVとの類似度により移動ベクトルVの信頼度を示す確度を算出する。具体的には、推定部323bは、移動ベクトルVおよびベクトルPVのVY軸およびVX軸の相対速度成分の類似度を確度として算出する。 As shown in FIG. 10, the estimating unit 323b calculates the accuracy indicating the reliability of the motion vector V based on the degree of similarity between the created motion vector V and the vector PV of the particle data. Specifically, the estimation unit 323b calculates the degree of similarity between the relative velocity components of the movement vector V and the vector PV on the VY axis and the VX axis as the degree of accuracy.
例えば、推定部323bは、粒子データのベクトルPVと移動ベクトルVとの類似度が所定値以上である場合に、かかる移動ベクトルVを最終的な推定結果の確定値とする。一方、推定部323bは、粒子データのベクトルPVと移動ベクトルVとの類似度が所定値未満である場合に、かかる移動ベクトルVの使用を禁止する。これにより、より推定精度の高い移動ベクトルVを使用することができる。 For example, when the degree of similarity between the vector PV of the particle data and the movement vector V is equal to or greater than a predetermined value, the estimation unit 323b sets the movement vector V as the definite value of the final estimation result. On the other hand, the estimation unit 323b prohibits the use of the motion vector V when the similarity between the vector PV of the particle data and the motion vector V is less than a predetermined value. As a result, a motion vector V with higher estimation accuracy can be used.
なお、図10では、移動ベクトルVおよびベクトルPVのVY軸およびVX軸の相対速度成分の類似度を確度として算出したが、例えば、移動ベクトルVおよびベクトルPVの向きの類似度を確度として算出してもよい。 In FIG. 10, the degree of similarity between the relative velocity components of the VY axis and the VX axis of the moving vector V and the vector PV is calculated as the accuracy. may
なお、上述した実施形態では、フィルタ処理部32bは、パーティクルフィルタを用いた場合を示したが、用いる時系列フィルタは、パーティクルフィルタに限定されるものではなく、例えば、カルマンフィルタや、αβフィルタ等の時系列フィルタであってもよい。 In the above-described embodiment, the filter processing unit 32b uses a particle filter, but the time-series filter used is not limited to the particle filter. It may be a time series filter.
さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な態様は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲およびその均等物によって定義される総括的な発明の概念の精神または範囲から逸脱することなく、様々な変更が可能である。 Further effects and modifications can be easily derived by those skilled in the art. Therefore, the broader aspects of the invention are not limited to the specific details and representative embodiments so shown and described. Accordingly, various changes may be made without departing from the spirit or scope of the general inventive concept defined by the appended claims and equivalents thereof.
1 物標検出装置
32 信号処理部
32a 生成部
32b フィルタ処理部
33 記憶部
33a 履歴データ
100 瞬時データ
321b 予測部
322b 割り当て部
323b 推定部
323ba 瞬時データ選択部
323bb バッファリング部
323bc 垂線作成部
323bd 交点作成部
323be 内心作成部
323bf 移動ベクトル作成部
324b 重み付け部
325b リサンプリング部
326b 物標データ生成部
LC 他車両
MC 自車両
1
Claims (5)
前記生成部によって生成された複数の前記瞬時データにおける前記相対速度に基づき、当該複数の瞬時データそれぞれに対応する前記自車両への向きのベクトルにおける起点を揃え、当該ベクトルに対する垂線の交点から前記物標の移動向きを推定する推定部と
を備える物標検出装置であって、
前記生成部によって生成された過去の前記瞬時データを記憶する記憶部をさらに備え、
前記推定部は、
前記生成部によって生成された最新の前記瞬時データの数が所定数未満であった場合、前記記憶部に記憶された前記過去の瞬時データを前記移動向きの推定処理に用いること
を特徴とする物標検出装置。 a generation unit that generates instantaneous data including the relative velocity of the target toward the own vehicle for each of a plurality of reflection points at which the transmitted radio wave is reflected by the target;
Based on the relative velocities in the plurality of instantaneous data generated by the generating unit, the starting points of the direction vectors toward the own vehicle corresponding to each of the plurality of instantaneous data are aligned, and the object is detected from the intersection of the perpendiculars to the vectors. an estimation unit that estimates the direction of movement of the target;
A target detection device comprising
Further comprising a storage unit that stores the past instantaneous data generated by the generation unit,
The estimation unit
When the number of the latest instantaneous data generated by the generation unit is less than a predetermined number, using the past instantaneous data stored in the storage unit for the movement direction estimation process.
A target detection device characterized by:
前記交点が1つであった場合、前記ベクトルにおける前記起点から当該交点への向きが前記移動向きであると推定すること
を特徴とする請求項1に記載の物標検出装置。 The estimation unit
2. The target detection apparatus according to claim 1, wherein when there is one intersection point, a direction from the starting point of the vector to the intersection point is estimated to be the moving direction.
前記交点が3つ以上であった場合、該交点により形成される三角形の内心に基づいて前記移動向きを推定すること
を特徴とする請求項1または2に記載の物標検出装置。 The estimation unit
3. The target detection device according to claim 1, wherein when there are three or more intersection points, the direction of movement is estimated based on the center of a triangle formed by the intersection points.
前記複数の瞬時データのうち、前記ベクトルの前記自車両への向きが類似する前記瞬時データを前記移動向きの推定処理から除外すること
を特徴とする請求項1~3のいずれか1つに記載の物標検出装置。 The estimation unit
4. The method according to any one of claims 1 to 3, wherein, among the plurality of instantaneous data, the instantaneous data in which the direction of the vector toward the own vehicle is similar is excluded from the process of estimating the moving direction. target detection device.
前記自車両から当該瞬時データの位置までの距離が含まれ、
前記推定部は、
前記生成部によって生成された前記複数の瞬時データのうち、前記相対速度が類似、かつ、前記距離が類似の前記瞬時データを前記移動向きの推定処理から除外すること
を特徴とする請求項1~4のいずれか1つに記載の物標検出装置。 The instantaneous data includes:
including the distance from the own vehicle to the position of the instantaneous data,
The estimation unit
Among the plurality of instantaneous data generated by the generation unit, the instantaneous data having similar relative velocities and similar distances are excluded from the movement direction estimation process. 5. The target detection device according to any one of 4.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018095297A JP7111506B2 (en) | 2018-05-17 | 2018-05-17 | Target detection device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018095297A JP7111506B2 (en) | 2018-05-17 | 2018-05-17 | Target detection device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019200154A JP2019200154A (en) | 2019-11-21 |
JP7111506B2 true JP7111506B2 (en) | 2022-08-02 |
Family
ID=68611282
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018095297A Active JP7111506B2 (en) | 2018-05-17 | 2018-05-17 | Target detection device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7111506B2 (en) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002350532A (en) | 2001-05-24 | 2002-12-04 | Tech Res & Dev Inst Of Japan Def Agency | Radar antenna adjustment error correcting method |
JP2006258637A (en) | 2005-03-17 | 2006-09-28 | Mitsubishi Electric Corp | Direction finder receiver, target detection system, and signal processing method |
JP2007333616A (en) | 2006-06-16 | 2007-12-27 | Alpine Electronics Inc | Radar measurement system |
JP2008286582A (en) | 2007-05-16 | 2008-11-27 | Fujitsu Ten Ltd | Radar signal processing device and method |
WO2013146468A1 (en) | 2012-03-28 | 2013-10-03 | 三菱電機株式会社 | Positioning tracking device |
JP2017003386A (en) | 2015-06-09 | 2017-01-05 | 古野電気株式会社 | Radar device |
JP2017223607A (en) | 2016-06-17 | 2017-12-21 | 三菱電機株式会社 | Object recognition integration unit and object recognition integration method |
JP2018063130A (en) | 2016-10-11 | 2018-04-19 | 株式会社デンソーテン | Radar device and continuity determination method |
JP6316390B1 (en) | 2016-11-25 | 2018-04-25 | 三菱電機株式会社 | Object detection apparatus and object detection method |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3565713B2 (en) * | 1998-05-27 | 2004-09-15 | 富士通テン株式会社 | Signal processing device for FM-CW scan radar |
EP3285230B1 (en) * | 2016-08-19 | 2021-04-07 | Veoneer Sweden AB | Enhanced object detection and motion estimation for a vehicle environment detection system |
-
2018
- 2018-05-17 JP JP2018095297A patent/JP7111506B2/en active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002350532A (en) | 2001-05-24 | 2002-12-04 | Tech Res & Dev Inst Of Japan Def Agency | Radar antenna adjustment error correcting method |
JP2006258637A (en) | 2005-03-17 | 2006-09-28 | Mitsubishi Electric Corp | Direction finder receiver, target detection system, and signal processing method |
JP2007333616A (en) | 2006-06-16 | 2007-12-27 | Alpine Electronics Inc | Radar measurement system |
JP2008286582A (en) | 2007-05-16 | 2008-11-27 | Fujitsu Ten Ltd | Radar signal processing device and method |
WO2013146468A1 (en) | 2012-03-28 | 2013-10-03 | 三菱電機株式会社 | Positioning tracking device |
JP2017003386A (en) | 2015-06-09 | 2017-01-05 | 古野電気株式会社 | Radar device |
JP2017223607A (en) | 2016-06-17 | 2017-12-21 | 三菱電機株式会社 | Object recognition integration unit and object recognition integration method |
JP2018063130A (en) | 2016-10-11 | 2018-04-19 | 株式会社デンソーテン | Radar device and continuity determination method |
JP6316390B1 (en) | 2016-11-25 | 2018-04-25 | 三菱電機株式会社 | Object detection apparatus and object detection method |
Non-Patent Citations (1)
Title |
---|
松崎 貴史 ほか,目標追尾における速度ベクトル平滑化アルゴリズム,電子情報通信学会2002年通信ソサイエティ大会講演論文集1,日本,社団法人電子情報通信学会,2002年08月20日,Page: 202 |
Also Published As
Publication number | Publication date |
---|---|
JP2019200154A (en) | 2019-11-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9869761B2 (en) | Radar apparatus | |
US7663534B2 (en) | Radar sensor and method for analyzing objects | |
US10481251B2 (en) | Radar device and target detecting method | |
CN109407093A (en) | Solve the Doppler measurement of wide aperture radar angle of arrival fuzziness | |
JP6993136B2 (en) | Radar device and target detection method | |
US20180259634A1 (en) | Radar device and target height estimation method | |
US10473760B2 (en) | Radar device and vertical axis-misalignment detecting method | |
EP3124994B1 (en) | Vehicle radar device | |
JP2018115931A (en) | Radar device and method for detecting target | |
JP6924066B2 (en) | Radar device and target detection method | |
JP7244220B2 (en) | Radar device and target data output method | |
JP7164327B2 (en) | Target detection device | |
JP7221606B2 (en) | Radar device and shaft deviation detection method | |
JP7060441B2 (en) | Radar device and target detection method | |
JP7111506B2 (en) | Target detection device | |
JP6873009B2 (en) | Radar device and target detection method | |
US11237260B2 (en) | Processing apparatus for estimating a movement direction of a target | |
JP7181010B2 (en) | Radar device and target detection method | |
US11614533B2 (en) | Radar signal processing device, radar device, and radar signal processing method | |
JP6980979B2 (en) | Radar device and target detection method | |
JP7168353B2 (en) | Radar device and target data allocation method | |
WO2021075331A1 (en) | Object tracking device | |
JP6929183B2 (en) | Radar device and target detection method | |
JP7156817B2 (en) | Target detection device and target detection method | |
JP2019039750A (en) | Rader system and method for detecting target |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210429 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20211013 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20220217 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220224 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220322 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220523 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220628 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220721 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7111506 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |