JP4394029B2 - Target detection device - Google Patents

Target detection device Download PDF

Info

Publication number
JP4394029B2
JP4394029B2 JP2005110056A JP2005110056A JP4394029B2 JP 4394029 B2 JP4394029 B2 JP 4394029B2 JP 2005110056 A JP2005110056 A JP 2005110056A JP 2005110056 A JP2005110056 A JP 2005110056A JP 4394029 B2 JP4394029 B2 JP 4394029B2
Authority
JP
Japan
Prior art keywords
target
spread
area
video area
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005110056A
Other languages
Japanese (ja)
Other versions
JP2006292429A (en
Inventor
恭弘 高瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2005110056A priority Critical patent/JP4394029B2/en
Publication of JP2006292429A publication Critical patent/JP2006292429A/en
Application granted granted Critical
Publication of JP4394029B2 publication Critical patent/JP4394029B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Radar Systems Or Details Thereof (AREA)

Description

この発明は、例えば、船舶などの目標を検出し、その目標がカメラの撮影範囲から逸脱しないようにカメラを制御する目標検出装置に関するものである。   The present invention relates to a target detection apparatus that detects a target such as a ship and controls the camera so that the target does not deviate from the shooting range of the camera.

空港面探知レーダ装置(ASDE:Airport Surface Detection Equipment)を用いて船舶などの目標を検出し、その目標の検出位置に応じて可動式カメラを自動制御することにより、航行する船舶などの目標を映し出す場合、ASDEが高分解能レーダであるため、船舶自身が生み出す引き波などのシークラッタがエコーとして映し出され、船舶の目標検出位置の精度が低下する。
カメラは、通常、陸地の遠方に設置されるので、望遠レンズを使用しなければならない。そのため、目標の検出位置のズレが大きく影響して、カメラの画角から船舶が逸脱する場合が考えられる。
そこで、船舶自身が生み出す引き波による検出位置の精度低下を防止する必要がある。
A target such as a ship is detected by detecting a target such as a ship using an airport surface detection equipment (ASDE) and automatically controlling a movable camera according to the detection position of the target. In this case, since ASDE is a high-resolution radar, sea clutter such as a pulling wave generated by the ship itself is displayed as an echo, and the accuracy of the target detection position of the ship is lowered.
Cameras are usually installed far away on land, so a telephoto lens must be used. For this reason, there may be a case where the deviation of the target detection position has a great influence and the ship deviates from the angle of view of the camera.
Therefore, it is necessary to prevent a decrease in accuracy of the detection position due to a pulling wave generated by the ship itself.

従来の目標検出装置は、スレッショルド処理を実施することにより、船舶自身が生み出す引き波などの反射波を識別するようにしている。
具体的には、下記の通りである。
まず、目標検出装置の送受信機がレーダアンテナを用いて、目標に向けてレーダ信号を空間に放射し、レーダアンテナが目標に反射されたレーダ信号を受信すると、その微弱なレーダ信号を増幅して周波数変換を実施することにより、レーダビデオ信号を生成する。
A conventional target detection apparatus identifies a reflected wave such as a pulling wave generated by a ship by performing a threshold process.
Specifically, it is as follows.
First, when the transceiver of the target detector uses a radar antenna to radiate a radar signal toward the target and the radar antenna receives the radar signal reflected by the target, the weak radar signal is amplified. A radar video signal is generated by performing frequency conversion.

A/D変換部は、送受信機がレーダビデオ信号を生成すると、そのレーダビデオ信号をA/D変換して、デジタルのレーダビデオ信号をメモリ部に格納する。
スレッショルド処理部は、メモリ部に格納されているレーダビデオ信号のレーダビデオ階調値をスレッショルドレベルと比較することにより、そのレーダビデオ信号をノイズ成分と目標成分に分別する。
ここで、このノイズ成分には、レベルが低いノイズ信号の他に、船舶自身が生み出す引き波などの反射波が含まれる。
スレッショルド処理部は、レーダビデオ信号をノイズ成分と目標成分に分別すると、そのレーダビデオ信号からノイズ成分を除去する。
When the transceiver generates a radar video signal, the A / D converter performs A / D conversion on the radar video signal and stores the digital radar video signal in the memory unit.
The threshold processing unit compares the radar video gradation value of the radar video signal stored in the memory unit with a threshold level, thereby classifying the radar video signal into a noise component and a target component.
Here, the noise component includes a reflected wave such as a pulling wave generated by the ship itself, in addition to a noise signal having a low level.
When the threshold processing unit classifies the radar video signal into a noise component and a target component, the threshold processing unit removes the noise component from the radar video signal.

クラスタリング処理部は、スレッショルド処理部がレーダビデオ信号からノイズ成分を除去すると、そのレーダビデオ信号に対するクラスタリング処理を実施することにより、目標のビデオ領域(クラスタ)を検出する。
重心位置処理部は、クラスタリング処理部が目標のビデオ領域を検出すると、そのビデオ領域の重心位置を計算する。
カメラ制御部は、重心位置処理部がビデオ領域の重心位置を計算すると、その重心位置に応じてカメラ制御信号を生成し、そのカメラ制御信号をカメラに送信して、カメラを操作する。
なお、カメラにより撮影された映像は、表示装置により表示される(例えば、特許文献1参照)。
When the threshold processing unit removes a noise component from the radar video signal, the clustering processing unit detects a target video region (cluster) by performing clustering processing on the radar video signal.
The center-of-gravity position processing unit calculates the center-of-gravity position of the video region when the clustering processing unit detects the target video region.
When the centroid position processing unit calculates the centroid position of the video area, the camera control unit generates a camera control signal according to the centroid position, transmits the camera control signal to the camera, and operates the camera.
In addition, the video image | photographed with the camera is displayed by a display apparatus (for example, refer patent document 1).

特開平5−288846号公報(段落番号[0010]から[0012]、図2)Japanese Patent Laid-Open No. 5-28884 (paragraph numbers [0010] to [0012], FIG. 2)

従来の目標検出装置は以上のように構成されているので、船舶自身が生み出す引き波などの反射波の諧調値がスレッショルドレベルより高い場合、その引き波などの反射波を除去することができない。この場合、引き波などの反射波が目標であると誤検出されて、真の目標がカメラの撮影範囲から逸脱することがあるなどの課題があった。   Since the conventional target detection apparatus is configured as described above, when the gradation value of the reflected wave such as the pull wave generated by the ship itself is higher than the threshold level, the reflected wave such as the pull wave cannot be removed. In this case, there is a problem that a reflected wave such as a pulling wave is erroneously detected as a target, and the true target may deviate from the shooting range of the camera.

この発明は上記のような課題を解決するためになされたもので、船舶などの目標が生み出す引き波の影響を排除して真の目標を正確に検出し、真の目標がカメラの撮影範囲から逸脱しないようにカメラを制御することができる目標検出装置を得ることを目的とする。   The present invention has been made to solve the above-described problems. The true target is accurately detected by eliminating the influence of a pulling wave generated by a target such as a ship, and the true target is detected from the shooting range of the camera. It is an object of the present invention to obtain a target detection apparatus that can control a camera without deviating.

この発明に係る目標検出装置は、目標に向けてレーダ信号を放射し、その目標に反射されたレーダ信号を受信する信号送受信手段と、上記信号送受信手段により受信されたレーダ信号に対するクラスタリング処理を実施して、そのレーダ信号に含まれている目標のビデオ領域を検出する目標検出手段と、上記目標検出手段により検出された目標のビデオ領域における進行方向の広がり部分を検出し、その目標のビデオ領域から進行方向の広がり部分を除去する広がり除去手段と、上記広がり除去手段により広がり部分が除去された目標のビデオ領域の重心位置を計算する重心位置計算手段と、上記重心位置計算手段により計算された重心位置に応じて目標を撮影するカメラを制御するカメラ制御手段とを備え、上記広がり除去手段は、目標検出手段により検出された目標のビデオ領域と広がり閾値を比較し、その広がり閾値を超えているビデオ領域を進行方向の広がり部分であると認定し、目標検出手段により検出された目標のビデオ領域と、広がり部分が除去されている前回の目標のビデオ領域との相関処理を実施して目標の速度とヘディングを求め、その速度とヘディングから広がり閾値を求めるようにしたものである。 The target detection apparatus according to the present invention performs a clustering process on a radar signal received by the signal transmission / reception means that radiates a radar signal toward the target and receives the radar signal reflected by the target. A target detection unit for detecting a target video region included in the radar signal; and a spread portion in a traveling direction in the target video region detected by the target detection unit. Calculated by the spread center removing means for removing the spread portion in the advancing direction, the center of gravity position calculating means for calculating the center of gravity position of the target video area from which the spread portion has been removed by the spread removing means, and the center of gravity position calculating means. Camera control means for controlling a camera that captures the target according to the position of the center of gravity, and the spread removal means comprises target detection. The target video area detected by the means is compared with the spread threshold, the video area exceeding the spread threshold is identified as the spread portion in the traveling direction, and the target video area detected by the target detection means, The target speed and heading are obtained by performing correlation processing with the previous target video area from which the spread portion has been removed, and the spread threshold value is obtained from the speed and heading .

この発明によれば、目標に向けてレーダ信号を放射し、その目標に反射されたレーダ信号を受信する信号送受信手段と、上記信号送受信手段により受信されたレーダ信号に対するクラスタリング処理を実施して、そのレーダ信号に含まれている目標のビデオ領域を検出する目標検出手段と、上記目標検出手段により検出された目標のビデオ領域における進行方向の広がり部分を検出し、その目標のビデオ領域から進行方向の広がり部分を除去する広がり除去手段と、上記広がり除去手段により広がり部分が除去された目標のビデオ領域の重心位置を計算する重心位置計算手段と、上記重心位置計算手段により計算された重心位置に応じて目標を撮影するカメラを制御するカメラ制御手段とを備え、上記広がり除去手段は、目標検出手段により検出された目標のビデオ領域と広がり閾値を比較し、その広がり閾値を超えているビデオ領域を進行方向の広がり部分であると認定し、目標検出手段により検出された目標のビデオ領域と、広がり部分が除去されている前回の目標のビデオ領域との相関処理を実施して目標の速度とヘディングを求め、その速度とヘディングから広がり閾値を求めるように構成したので、船舶などの目標が生み出す引き波の影響を排除して真の目標を正確に検出し、真の目標がカメラの撮影範囲から逸脱しないようにカメラを制御することができる効果がある。
According to the present invention, a signal transmission / reception unit that radiates a radar signal toward a target and receives a radar signal reflected by the target, and a clustering process for the radar signal received by the signal transmission / reception unit, Target detection means for detecting a target video area included in the radar signal, and a spread portion in the traveling direction in the target video area detected by the target detection means is detected, and the traveling direction from the target video area is detected. A centroid position calculating means for calculating a centroid position of a target video area from which the divergence portion has been removed by the divergence removing means, and a centroid position calculated by the centroid position calculating means. And a camera control unit that controls a camera that captures the target according to the target detection unit. The target video area and the spread threshold are compared with each other, the video area exceeding the spread threshold is identified as the spread part in the traveling direction, and the target video area detected by the target detection means and the spread part are identified. Since the target speed and heading are calculated by performing correlation processing with the video area of the previous target from which the noise has been removed, and the spread threshold is calculated from the speed and heading , the pulling wave generated by the target such as a ship Thus, there is an effect that the true target can be accurately detected by eliminating the influence of the above and the camera can be controlled so that the true target does not deviate from the shooting range of the camera.

実施の形態1.
図1はこの発明の実施の形態1による目標検出装置を示す構成図であり、図において、送受信機2はレーダアンテナ1を用いて目標に向けてレーダ信号(電波)を空間に放射し、レーダアンテナ1が目標に反射されたレーダ信号を受信すると、その微弱なレーダ信号を増幅して周波数変換を実施することにより、レーダビデオ信号を生成する処理を実施する。
なお、レーダアンテナ1及び送受信機2から信号送受信手段が構成されている。
Embodiment 1 FIG.
FIG. 1 is a block diagram showing a target detection apparatus according to Embodiment 1 of the present invention. In the figure, a transceiver 2 radiates a radar signal (radio wave) into a space using a radar antenna 1 toward a target. When the antenna 1 receives the radar signal reflected by the target, the weak radar signal is amplified and frequency conversion is performed, thereby executing processing for generating a radar video signal.
The radar antenna 1 and the transceiver 2 constitute signal transmission / reception means.

A/D変換部3は送受信機2により生成されたレーダビデオ信号をA/D変換して、デジタルのレーダビデオ信号をメモリ部4に格納する処理を実施する。
メモリ部4はA/D変換部3から出力されたデジタルのレーダビデオ信号を一時的に蓄積する処理を実施する。
スレッショルド処理部5はメモリ部4に蓄積されているレーダビデオ信号のレーダビデオ階調値をスレッショルドレベルと比較することにより、そのレーダビデオ信号をノイズ成分と目標成分に分別し、そのレーダビデオ信号からノイズ成分を除去する処理を実施する。
クラスタリング処理部6はスレッショルド処理部5によるノイズ成分除去後のレーダビデオ信号に対するクラスタリング処理を実施することにより、そのレーダビデオ信号に含まれている目標のビデオ領域(クラスタ)を検出する処理を実施する。
なお、A/D変換部3、メモリ部4、スレッショルド処理部5及びクラスタリング処理部6から目標検出手段が構成されている。
The A / D conversion unit 3 performs A / D conversion on the radar video signal generated by the transceiver 2 and stores the digital radar video signal in the memory unit 4.
The memory unit 4 performs processing for temporarily storing the digital radar video signal output from the A / D conversion unit 3.
The threshold processing unit 5 compares the radar video gradation value of the radar video signal stored in the memory unit 4 with a threshold level, thereby classifying the radar video signal into a noise component and a target component, and from the radar video signal. A process for removing noise components is performed.
The clustering processing unit 6 performs a process of detecting a target video area (cluster) included in the radar video signal by performing a clustering process on the radar video signal after the noise component is removed by the threshold processing unit 5. .
The A / D conversion unit 3, the memory unit 4, the threshold processing unit 5, and the clustering processing unit 6 constitute target detection means.

重心位置計算部7はクラスタリング処理部6により検出された目標のビデオ領域の重心位置(目標の位置)を計算する処理を実施する。
相関処理部8は重心位置計算部7により重心位置が計算された目標のビデオ領域と、前回最終的に検出された目標のビデオ領域との相関処理を実施して、両者が同一の目標であるか否かを判定し、同一目標であると判定する場合に限り、その相関結果等を速度/ヘディング処理部9に出力する。
速度/ヘディング処理部9は相関処理部8から出力された相関結果から目標の速度とヘディングを求め、その速度とヘディングから広がり閾値を求める処理を実施する。
広がり除去部10は重心位置計算部7により重心位置が計算された目標のビデオ領域と速度/ヘディング処理部9により求められた広がり閾値を比較し、その広がり閾値を超えているビデオ領域を進行方向の広がり部分であると認定し、その目標のビデオ領域から進行方向の広がり部分を除去する処理を実施する。
なお、重心位置計算部7、相関処理部8、速度/ヘディング処理部9及び広がり除去部10から広がり除去手段が構成されている。
The centroid position calculation unit 7 performs a process of calculating the centroid position (target position) of the target video area detected by the clustering processing unit 6.
The correlation processing unit 8 performs a correlation process between the target video area whose centroid position is calculated by the centroid position calculation unit 7 and the target video area finally detected last time, and both are the same target. The correlation result or the like is output to the speed / heading processing unit 9 only when it is determined that the target is the same target.
The speed / heading processing unit 9 obtains a target speed and heading from the correlation result output from the correlation processing unit 8, and performs processing for obtaining a spread threshold from the speed and heading.
The spread removing unit 10 compares the target video area whose centroid position has been calculated by the centroid position calculating unit 7 with the spread threshold obtained by the speed / heading processing unit 9, and the video area exceeding the spread threshold is processed in the traveling direction. It recognizes that it is a spreading part of the video, and performs a process of removing the spreading part in the moving direction from the target video area.
The center-of-gravity position calculation unit 7, the correlation processing unit 8, the speed / heading processing unit 9, and the spread removal unit 10 constitute a spread removal unit.

クラスタリング再処理部11は広がり除去部10による処理後のレーダビデオ信号に対するクラスタリング処理を実施することにより、そのレーダビデオ信号に含まれている目標のビデオ領域(クラスタ)を検出する処理を実施する。
重心位置再計算部12はクラスタリング再処理部11により検出された目標のビデオ領域の重心位置(目標の位置)を計算する処理を実施する。
相関再処理部13は重心位置再計算部12により重心位置が計算された目標のビデオ領域と、前回最終的に検出された目標のビデオ領域との相関処理を実施して、両者が同一の目標であるか否かを判定し、同一目標であると判定する場合に限り、その相関結果等をデータフォーマット処理部14に出力する。
なお、クラスタリング再処理部11、重心位置再計算部12及び相関再処理部13から重心位置計算手段が構成されている。
The clustering reprocessing unit 11 performs a process of detecting a target video region (cluster) included in the radar video signal by performing a clustering process on the radar video signal processed by the spread removal unit 10.
The centroid position recalculation unit 12 performs a process of calculating the centroid position (target position) of the target video area detected by the clustering reprocessing unit 11.
The correlation reprocessing unit 13 performs a correlation process between the target video area whose centroid position has been calculated by the centroid position recalculation unit 12 and the target video area that was finally detected last time. The correlation result is output to the data format processing unit 14 only when it is determined that the target is the same target.
The clustering reprocessing unit 11, the centroid position recalculating unit 12, and the correlation reprocessing unit 13 constitute a centroid position calculating unit.

データフォーマット処理部14は相関再処理部13から出力された相関結果等のデータ形式を、カメラ制御部15や表示装置17が読み取り可能な形式に変換する処理を実施する。
カメラ制御部15は重心位置再計算部12により計算されたビデオ領域の重心位置に応じてカメラ制御信号を生成し、そのカメラ制御信号をカメラ16に送信して、カメラ16を操作する処理を実施する。
なお、データフォーマット処理部14及びカメラ制御部15からカメラ制御手段が構成されている。
The data format processing unit 14 converts the data format such as the correlation result output from the correlation reprocessing unit 13 into a format that can be read by the camera control unit 15 and the display device 17.
The camera control unit 15 generates a camera control signal according to the barycentric position of the video area calculated by the barycentric position recalculating unit 12, transmits the camera control signal to the camera 16, and performs processing for operating the camera 16. To do.
The data format processing unit 14 and the camera control unit 15 constitute a camera control unit.

カメラ16はカメラ架台に設置されており、カメラ制御部15から送信されるカメラ制御信号にしたがってズーム倍率などが制御される。カメラ16の撮影方向はカメラ架台がカメラ制御部15から送信されるカメラ制御信号にしたがって制御されることにより制御される。
表示装置17はカメラ16により撮像された映像や重心位置再計算部12により計算された重心位置(目標の位置)などを表示する。
The camera 16 is installed on a camera mount, and zoom magnification and the like are controlled according to a camera control signal transmitted from the camera control unit 15. The shooting direction of the camera 16 is controlled by controlling the camera mount in accordance with a camera control signal transmitted from the camera control unit 15.
The display device 17 displays an image captured by the camera 16, a gravity center position (target position) calculated by the gravity center position recalculation unit 12, and the like.

次に動作について説明する。
送受信機2は、レーダアンテナ1を用いて、目標に向けてレーダ信号(電波)を空間に放射し、レーダアンテナ1が目標に反射されたレーダ信号を受信すると、その微弱なレーダ信号を増幅して周波数変換を実施することにより、レーダビデオ信号を生成する。
Next, the operation will be described.
The transmitter / receiver 2 radiates a radar signal (radio wave) toward the target using the radar antenna 1 and amplifies the weak radar signal when the radar antenna 1 receives the radar signal reflected by the target. A radar video signal is generated by performing frequency conversion.

A/D変換部3は、送受信機2がレーダビデオ信号を生成すると、そのレーダビデオ信号をA/D変換して、デジタルのレーダビデオ信号をメモリ部4に格納する。
スレッショルド処理部5は、メモリ部4に蓄積されているレーダビデオ信号のレーダビデオ階調値をスレッショルドレベルと比較することにより、そのレーダビデオ信号をノイズ成分と目標成分に分別し、そのレーダビデオ信号からノイズ成分を除去する。
When the transceiver 2 generates a radar video signal, the A / D conversion unit 3 performs A / D conversion on the radar video signal and stores the digital radar video signal in the memory unit 4.
The threshold processing unit 5 compares the radar video gradation value of the radar video signal stored in the memory unit 4 with the threshold level, thereby classifying the radar video signal into a noise component and a target component, and the radar video signal. Remove noise components from.

クラスタリング処理部6は、スレッショルド処理部5からノイズ成分が除去されたレーダビデオ信号を受けると、そのレーダビデオ信号に対するクラスタリング処理を実施することにより、そのレーダビデオ信号に含まれている目標のビデオ領域(クラスタ)を検出する。
ここで、図2は船舶(目標)が停止している状態のレーダビデオ信号が示す映像であり、船舶が停止している状態では、引き波が作り出されないので、この映像には引き波のエコーが表示されない。
一方、図3は船舶(目標)が移動している状態のレーダビデオ信号が示す映像であり、船舶が移動している状態では、引き波が作り出されるので、船舶の後方に広がりを有する引き波のエコーが表示される。
When the clustering processing unit 6 receives the radar video signal from which the noise component has been removed from the threshold processing unit 5, the clustering processing unit 6 performs clustering processing on the radar video signal, thereby performing a target video region included in the radar video signal. (Cluster) is detected.
Here, FIG. 2 is an image shown by the radar video signal in a state where the ship (target) is stopped. In the state where the ship is stopped, no pulling wave is generated. The echo is not displayed.
On the other hand, FIG. 3 is an image shown by the radar video signal in a state where the ship (target) is moving. In the state where the ship is moving, a pulling wave is generated, and therefore a pulling wave having a spread behind the ship. Echo is displayed.

重心位置計算部7は、クラスタリング処理部6が目標のビデオ領域を検出すると、そのビデオ領域の重心位置(目標の位置)を計算する。
船舶(目標)が停止している状態では、図2に示すように、重心位置計算部7により計算される重心位置Aは、船舶の内部に位置するが、船舶(目標)が移動している状態では、船舶の後方に広がりを有する引き波のエコーが存在するため、図3に示すように、重心位置計算部7により計算される重心位置Bは、船舶の外部(後方部分)に位置する。
したがって、重心位置計算部7により計算される重心位置Bは、船舶の位置を正確に表していないことになる。
When the clustering processing unit 6 detects a target video area, the barycentric position calculation unit 7 calculates the barycentric position (target position) of the video area.
In a state where the ship (target) is stopped, as shown in FIG. 2, the center of gravity position A calculated by the center of gravity position calculation unit 7 is located inside the ship, but the ship (target) is moving. In the state, there is an echo of a squeezing wave extending behind the ship, so that the gravity center position B calculated by the gravity center position calculator 7 is located outside the ship (rear part) as shown in FIG. .
Therefore, the gravity center position B calculated by the gravity center position calculation unit 7 does not accurately represent the position of the ship.

相関処理部8は、重心位置計算部7がビデオ領域の重心位置を計算すると、船舶(目標)が移動している状態でも、船舶の位置を正確に表示することができるようにするため、その目標のビデオ領域と、前回最終的に検出された目標のビデオ領域(前回、相関再処理部13により同一目標であると判定された目標のビデオ領域)との相関処理を実施して、両者が同一の目標であるか否かを判定する。
相関処理部8は、両者が同一の目標でないと判定する場合、重心位置計算部7により計算された重心位置やレーダビデオ信号を破棄して、以後の処理を終了する。
一方、両者が同一目標であると判定する場合、その相関結果等を速度/ヘディング処理部9に出力する。
The correlation processing unit 8 calculates the barycentric position of the video area by the barycentric position calculating unit 7 so that the position of the ship can be accurately displayed even when the ship (target) is moving. Correlation processing between the target video area and the target video area finally detected last time (the target video area determined to be the same target by the correlation reprocessing unit 13 last time) is performed. It is determined whether or not the target is the same.
When the correlation processing unit 8 determines that both are not the same target, the correlation processing unit 8 discards the gravity center position and the radar video signal calculated by the gravity center position calculation unit 7 and ends the subsequent processing.
On the other hand, when it is determined that both are the same target, the correlation result or the like is output to the speed / heading processing unit 9.

速度/ヘディング処理部9は、相関処理部8から相関結果を受けると、その相関結果から目標の速度(目標の進行方向を含む)とヘディングを求めて、その速度とヘディングから広がり閾値(広がり判定スレッショルド)を求める。
即ち、船舶が作り出す引き波の広がりは、船舶の速度に比例して大きくなり、船舶の進行方向と垂直な方向に引き波が広がるので、目標の速度(目標の進行方向を含む)とヘディングをパラメータにして広がり閾値を計算する。
広がり閾値は、図4に示すように、船舶の進行方向に一定の幅を有し、その幅は船舶の幅より若干広い値になる。
When the speed / heading processing unit 9 receives the correlation result from the correlation processing unit 8, the speed / heading processing unit 9 obtains the target speed (including the direction of travel of the target) and the heading from the correlation result, and the spread threshold (spreading determination) from the speed and heading. Threshold).
In other words, the spread of the pulling wave generated by the ship increases in proportion to the speed of the ship, and the pulling wave spreads in a direction perpendicular to the traveling direction of the ship. The spread threshold is calculated as a parameter.
As shown in FIG. 4, the spread threshold has a certain width in the traveling direction of the ship, and the width is slightly wider than the width of the ship.

広がり除去部10は、速度/ヘディング処理部9が広がり閾値を計算すると、相関処理部8から出力されたレーダビデオ信号が示す目標のビデオ領域と広がり閾値を比較し、その広がり閾値を超えているビデオ領域を進行方向の広がり部分であると認定する。
即ち、広がり除去部10は、図4に示すように、広がり閾値より外側の領域に存在するビデオ領域を進行方向の広がり部分であると認定する。
広がり除去部10は、進行方向の広がり部分を認定すると、目標のビデオ領域から進行方向の広がり部分を除去する処理を実施する。
When the velocity / heading processing unit 9 calculates the spread threshold, the spread removing unit 10 compares the target video region indicated by the radar video signal output from the correlation processing unit 8 with the spread threshold, and exceeds the spread threshold. The video area is recognized as a spread part in the traveling direction.
That is, as shown in FIG. 4, the spread removal unit 10 recognizes a video region existing in a region outside the spread threshold as a spread portion in the traveling direction.
When the spread removal unit 10 recognizes the spread portion in the traveling direction, the spread removal unit 10 performs a process of removing the spread portion in the traveling direction from the target video area.

クラスタリング再処理部11は、広がり除去部10が進行方向の広がり部分を除去すると、広がり除去部10による処理後のレーダビデオ信号に対するクラスタリング処理を実施することにより、そのレーダビデオ信号に含まれている目標のビデオ領域(クラスタ)を検出する。
重心位置再計算部12は、クラスタリング再処理部11が目標のビデオ領域を検出すると、そのビデオ領域の重心位置(目標の位置)を計算する。
ただし、広がり除去部10により進行方向の広がり部分が既に除去されているので、船舶(目標)が移動している状態でも、重心位置再計算部12は船舶の重心位置を正確に計算することができる。
When the spread removal unit 10 removes the spread portion in the traveling direction, the clustering reprocessing unit 11 performs clustering processing on the radar video signal processed by the spread removal unit 10 and is included in the radar video signal. Detect the target video area (cluster).
When the clustering reprocessing unit 11 detects the target video area, the barycentric position recalculation unit 12 calculates the barycentric position (target position) of the video area.
However, since the spread part in the traveling direction has already been removed by the spread removing unit 10, the center-of-gravity position recalculating unit 12 can accurately calculate the center-of-gravity position of the ship even when the ship (target) is moving. it can.

相関再処理部13は、重心位置再計算部12がビデオ領域の重心位置を計算すると、その目標のビデオ領域と、前回最終的に検出された目標のビデオ領域(前回、相関再処理部13により同一目標であると判定された目標のビデオ領域)との相関処理を実施して、両者が同一の目標であるか否かを判定する。
相関再処理部13は、両者が同一の目標でないと判定する場合、重心位置再計算部12により計算された重心位置やレーダビデオ信号を破棄して、以後の処理を終了する。
一方、両者が同一目標であると判定する場合、その相関結果等をデータフォーマット処理部14に出力する。
When the center-of-gravity position recalculation unit 12 calculates the center-of-gravity position of the video region, the correlation re-processing unit 13 and the target video region that was finally detected last time (the previous time by the correlation re-processing unit 13). Correlation processing with the target video area determined to be the same target is performed to determine whether or not both are the same target.
When the correlation reprocessing unit 13 determines that the two are not the same target, the correlation reprocessing unit 13 discards the centroid position and the radar video signal calculated by the centroid position recalculation unit 12 and ends the subsequent processing.
On the other hand, when it is determined that both are the same target, the correlation result or the like is output to the data format processing unit 14.

データフォーマット処理部14は、相関再処理部13から相関結果等を受けると、その相関結果等のデータ形式を、カメラ制御部15や表示装置17が読み取り可能な形式に変換する処理を実施する。
カメラ制御部15は、重心位置再計算部12により計算されたビデオ領域の重心位置に応じてカメラ制御信号を生成し、そのカメラ制御信号をカメラ16に送信して、カメラ16を操作する処理を実施する。
When the data format processing unit 14 receives the correlation result or the like from the correlation reprocessing unit 13, the data format processing unit 14 performs a process of converting the data format such as the correlation result into a format that can be read by the camera control unit 15 or the display device 17.
The camera control unit 15 generates a camera control signal according to the centroid position of the video area calculated by the centroid position recalculation unit 12, transmits the camera control signal to the camera 16, and performs a process of operating the camera 16. carry out.

カメラ16は、カメラ制御部15から送信されるカメラ制御信号にしたがってズーム倍率などが制御され、目標を撮影して、その映像を表示装置17に表示する。
なお、カメラ16の撮影方向は、カメラ架台がカメラ制御部15から送信されるカメラ制御信号にしたがって制御されることにより制御される。
The camera 16 controls the zoom magnification and the like according to the camera control signal transmitted from the camera control unit 15, shoots the target, and displays the video on the display device 17.
Note that the shooting direction of the camera 16 is controlled by controlling the camera mount in accordance with a camera control signal transmitted from the camera control unit 15.

以上で明らかなように、この実施の形態1によれば、クラスタリング処理部6により検出された目標のビデオ領域における進行方向の広がり部分を検出し、その目標のビデオ領域から進行方向の広がり部分を除去する広がり除去部10を設け、その広がり除去部10により広がり部分が除去された目標のビデオ領域の重心位置を計算し、その重心位置に応じてカメラ16を制御するように構成したので、船舶などの目標が生み出す引き波の影響を排除して真の目標を正確に検出し、真の目標がカメラの撮影範囲から逸脱しないようにカメラ16を制御することができる効果を奏する。   As is apparent from the above, according to the first embodiment, the spread portion in the traveling direction in the target video region detected by the clustering processing unit 6 is detected, and the spread portion in the traveling direction is detected from the target video region. Since the spread removal unit 10 to be removed is provided, the centroid position of the target video area from which the spread portion has been removed by the spread removal unit 10 is calculated, and the camera 16 is controlled according to the centroid position. Thus, it is possible to accurately detect the true target by eliminating the influence of the pulling wave generated by the target, and to control the camera 16 so that the true target does not deviate from the photographing range of the camera.

実施の形態2.
図5はこの発明の実施の形態2による目標検出装置を示す構成図であり、図において、図1と同一符号は同一または相当部分を示すので説明を省略する。
目標認識部18はカメラ16の撮影結果から目標の長さを特定する処理を実施する。
広がり除去部19は図1の広がり除去部10と同様に、重心位置計算部7により重心位置が計算された目標のビデオ領域と速度/ヘディング処理部9により求められた広がり閾値を比較して、その広がり閾値を超えているビデオ領域を進行方向の広がり部分であると認定するが、その際、その目標の長さを考慮して、その目標のビデオ領域における進行方向の広がり部分を検出する。
なお、重心位置計算部7、相関処理部8、速度/ヘディング処理部9、目標認識部18及び広がり除去部19から広がり除去手段が構成されている。
Embodiment 2. FIG.
5 is a block diagram showing a target detection apparatus according to Embodiment 2 of the present invention. In the figure, the same reference numerals as those in FIG.
The target recognizing unit 18 performs processing for specifying the length of the target from the photographing result of the camera 16.
The spread remover 19 compares the target video area whose centroid position has been calculated by the centroid position calculator 7 with the spread threshold obtained by the speed / heading processor 9 in the same manner as the spread remover 10 in FIG. A video area exceeding the spread threshold is recognized as a spread portion in the traveling direction. At this time, the spread portion in the traveling direction in the target video region is detected in consideration of the length of the target.
The centroid position calculation unit 7, the correlation processing unit 8, the speed / heading processing unit 9, the target recognition unit 18 and the spread removal unit 19 constitute a spread removal unit.

次に動作について説明する。
目標認識部18は、カメラ16の撮影結果から目標の長さを特定する。即ち、目標が船舶であれば、船舶の船首から船尾に至る長さを測定する。
広がり除去部19は、速度/ヘディング処理部9が広がり閾値を計算すると、図1の広がり除去部10と同様に、相関処理部8から出力されたレーダビデオ信号が示す目標のビデオ領域と広がり閾値を比較し、その広がり閾値を超えているビデオ領域を進行方向の広がり部分であると認定する。
Next, the operation will be described.
The target recognizing unit 18 specifies the length of the target from the photographing result of the camera 16. That is, if the target is a ship, the length from the bow of the ship to the stern is measured.
When the velocity / heading processing unit 9 calculates the spread threshold, the spread removal unit 19 calculates the target video region and spread threshold indicated by the radar video signal output from the correlation processing unit 8 as in the spread removal unit 10 of FIG. And the video region exceeding the spread threshold is identified as a spread portion in the traveling direction.

ただし、広がり除去部19は、進行方向の広がり部分の認定精度を高めるため、目標認識部18により特定された目標の長さに応じた閾値を設定する。
例えば、目標の長さの1.2倍程度の閾値を設定する。
広がり除去部19は、相関処理部8から出力されたレーダビデオ信号が示す目標のビデオ領域の進行方向の長さが閾値より長い場合、目標の後方に引き波による広がり部分が付加されている可能性が高いので、目標のビデオ領域の後方部分を除去して、目標のビデオ領域の進行方向の長さを閾値まで短くする処理を実施する。
目標認識部18及び広がり除去部19以外の処理は、上記実施の形態1と同様であるため説明を省略する。
However, the spread removing unit 19 sets a threshold value corresponding to the target length specified by the target recognizing unit 18 in order to improve the accreditation accuracy of the spread portion in the traveling direction.
For example, a threshold value about 1.2 times the target length is set.
When the length of the target video area indicated by the radar video signal output from the correlation processing unit 8 is longer than the threshold, the spread removal unit 19 may add a spread portion due to a pulling wave behind the target. Therefore, a process of removing the rear portion of the target video area and shortening the length of the target video area in the traveling direction to the threshold value is performed.
Since the processes other than the target recognition unit 18 and the spread removal unit 19 are the same as those in the first embodiment, description thereof is omitted.

以上で明らかなように、この実施の形態2によれば、カメラ16の撮影結果から目標の長さを特定し、その目標の長さを考慮して、その目標のビデオ領域における進行方向の広がり部分を検出するように構成したので、上記実施の形態1よりも、真の目標の検出精度を高めることができる効果を奏する。   As apparent from the above, according to the second embodiment, the target length is specified from the photographing result of the camera 16, and the extension of the traveling direction in the target video area is considered in consideration of the target length. Since the configuration is such that the portion is detected, the true target detection accuracy can be improved as compared with the first embodiment.

実施の形態3.
図6はこの発明の実施の形態3による目標検出装置を示す構成図であり、図において、図1と同一符号は同一または相当部分を示すので説明を省略する。
ブランクエリア形成部20は相関再処理部13から出力されたレーダビデオ信号が示す目標のビデオ領域の後方に一定のブランクエリアを形成する処理を実施する。
クラスタリング処理部21は図1のクラスタリング処理部6と同様に、スレッショルド処理部5によるノイズ成分除去後のレーダビデオ信号に対するクラスタリング処理を実施することにより、そのレーダビデオ信号に含まれている目標のビデオ領域(クラスタ)を検出するが、その際、目標のビデオ領域のうち、ブランクエリア形成部20により形成されたブランクエリアの部分を無効化する処理を実施する。
なお、A/D変換部3、メモリ部4、スレッショルド処理部5、ブランクエリア形成部20及びクラスタリング処理部21から目標検出手段が構成されている。
Embodiment 3 FIG.
6 is a block diagram showing a target detection apparatus according to Embodiment 3 of the present invention. In the figure, the same reference numerals as those in FIG.
The blank area forming unit 20 performs a process of forming a certain blank area behind the target video area indicated by the radar video signal output from the correlation reprocessing unit 13.
Similar to the clustering processing unit 6 in FIG. 1, the clustering processing unit 21 performs clustering processing on the radar video signal after the noise component removal by the threshold processing unit 5, so that the target video included in the radar video signal is obtained. A region (cluster) is detected. At that time, a process of invalidating a blank area portion formed by the blank area forming unit 20 in a target video region is performed.
The A / D conversion unit 3, the memory unit 4, the threshold processing unit 5, the blank area forming unit 20, and the clustering processing unit 21 constitute a target detection unit.

次に動作について説明する。
上記実施の形態1では、目標のビデオ領域における進行方向の広がり部分を検出し、その目標のビデオ領域から進行方向の広がり部分を除去するものについて示したが、この実施の形態3では、目標のビデオ領域の後方に一定のブランクエリアを形成し、そのブランクエリアの部分を無効化することにより、真の目標の検出精度を高めるようにしている。
具体的には、下記の通りである。
Next, the operation will be described.
In the first embodiment, the spread direction portion in the target video area is detected and the spread direction portion is removed from the target video area. In the third embodiment, the target video area is removed. A certain blank area is formed at the rear of the video area, and the blank area is invalidated to increase the true target detection accuracy.
Specifically, it is as follows.

クラスタリング処理部21は、図1のクラスタリング処理部6と同様に、スレッショルド処理部5によるノイズ成分除去後のレーダビデオ信号に対するクラスタリング処理を実施することにより、そのレーダビデオ信号に含まれている目標のビデオ領域(クラスタ)を検出するが、船舶などの目標が生み出す引き波のエコーが一様でない場合、図7に示すように、真の目標の他に、複数の誤目標が検出される場合がある。   Similar to the clustering processing unit 6 in FIG. 1, the clustering processing unit 21 performs clustering processing on the radar video signal after the noise component removal by the threshold processing unit 5, so that the target included in the radar video signal is detected. When the video region (cluster) is detected, but the echo of the pulling wave generated by the target such as a ship is not uniform, a plurality of false targets may be detected in addition to the true target as shown in FIG. is there.

ブランクエリア形成部20は、引き波のエコーに伴う複数の誤目標を除去するため、図8に示すように、相関再処理部13から出力されたレーダビデオ信号が示す目標のビデオ領域の後方に一定のブランクエリアを形成する処理を実施する。
クラスタリング処理部21は、スレッショルド処理部5から出力されたレーダビデオ信号に対するクラスタリング処理を実施することにより、そのレーダビデオ信号に含まれている目標のビデオ領域を検出すると、図9に示すように、その目標のビデオ領域のうち、ブランクエリア形成部20により形成されたブランクエリアの部分を無効化する処理を実施する。
As shown in FIG. 8, the blank area forming unit 20 is behind the target video area indicated by the radar video signal output from the correlation reprocessing unit 13 in order to remove a plurality of erroneous targets associated with the echo of the subtraction wave. A process for forming a certain blank area is performed.
When the clustering processing unit 21 detects a target video area included in the radar video signal by performing clustering processing on the radar video signal output from the threshold processing unit 5, as shown in FIG. In the target video area, the blank area formed by the blank area forming unit 20 is invalidated.

ブランクエリア形成部20及びクラスタリング処理部21以外の処理は、上記実施の形態1と同様であるため説明を省略する。   Since the processes other than the blank area forming unit 20 and the clustering processing unit 21 are the same as those in the first embodiment, description thereof is omitted.

以上で明らかなように、この実施の形態3によれば、目標のビデオ領域における後方の一定エリアをブランク処理して、その目標のビデオ領域から進行方向の広がり部分を除去するように構成したので、上記実施の形態1よりも、真の目標の検出精度を高めることができる効果を奏する。   As is apparent from the above, according to the third embodiment, the fixed area behind the target video area is blanked, and the spread portion in the traveling direction is removed from the target video area. As compared with the first embodiment, the true target detection accuracy can be improved.

実施の形態4.
図10はこの発明の実施の形態4による目標検出装置を示す構成図であり、図において、図1と同一符号は同一または相当部分を示すので説明を省略する。
相関禁止処理部22は相関再処理部13から出力されたレーダビデオ信号が示す前回の目標のビデオ領域を考慮して、目標のビデオ領域の後方に相関禁止エリアを設定する処理を実施する。
相関処理部23は図1の相関処理部8と同様に、重心位置計算部7により重心位置が計算された目標のビデオ領域と、前回最終的に検出された目標のビデオ領域(相関再処理部13から出力されたレーダビデオ信号が示す前回の目標のビデオ領域)との相関処理を実施して、両者が同一の目標であるか否かを判定し、同一目標であると判定する場合に限り、その相関結果等を速度/ヘディング処理部9に出力するが、その際、相関禁止処理部22により設定された相関禁止エリアの相関を中止して、目標の後方の誤目標を検出しないようにしている。
なお、重心位置計算部7、速度/ヘディング処理部9、広がり除去部10、相関禁止処理部22及び相関処理部23から広がり除去手段が構成されている。
Embodiment 4 FIG.
FIG. 10 is a block diagram showing a target detection apparatus according to Embodiment 4 of the present invention. In the figure, the same reference numerals as those in FIG.
The correlation prohibition processing unit 22 performs processing for setting a correlation prohibition area behind the target video region in consideration of the previous target video region indicated by the radar video signal output from the correlation reprocessing unit 13.
Similar to the correlation processing unit 8 in FIG. 1, the correlation processing unit 23 calculates the target video region whose center of gravity position has been calculated by the center of gravity position calculation unit 7 and the target video region finally detected last time (correlation reprocessing unit). Only when it is determined whether or not both are the same target by performing a correlation process with the previous target video area indicated by the radar video signal output from 13. The correlation result or the like is output to the speed / heading processing unit 9. At this time, the correlation in the correlation prohibition area set by the correlation prohibition processing unit 22 is canceled so that an erroneous target behind the target is not detected. ing.
The centroid position calculation unit 7, the speed / heading processing unit 9, the spread removal unit 10, the correlation prohibition processing unit 22, and the correlation processing unit 23 constitute a spread removal unit.

次に動作について説明する。
上記実施の形態1では、目標のビデオ領域における進行方向の広がり部分を検出し、その目標のビデオ領域から進行方向の広がり部分を除去するものについて示したが、この実施の形態4では、広がり部分が除去されている前回の目標のビデオ領域を考慮して、目標のビデオ領域における後方の一定エリアを相関禁止エリアに設定することにより、真の目標の検出精度を高めるようにしている。
具体的には、下記の通りである。
Next, the operation will be described.
In the first embodiment, the spread portion in the traveling direction in the target video region is detected and the spread portion in the traveling direction is removed from the target video region. However, in the fourth embodiment, the spread portion is illustrated. In consideration of the previous target video area in which is removed, a fixed area behind the target video area is set as a correlation prohibition area, thereby improving the true target detection accuracy.
Specifically, it is as follows.

相関禁止処理部22は、相関再処理部13からレーダビデオ信号を受けると、そのレーダビデオ信号が示す前回の目標のビデオ領域を考慮して、目標のビデオ領域の後方に相関禁止エリアを設定する。
相関処理部23は、図1の相関処理部8と同様に、重心位置計算部7により重心位置が計算された目標のビデオ領域と、前回最終的に検出された目標のビデオ領域(相関再処理部13から出力されたレーダビデオ信号が示す前回の目標のビデオ領域)との相関処理を実施するが、その際、相関禁止処理部22により設定された相関禁止エリアについては相関処理を実施しないようにする。
これにより、クラスタリング処理部6で、真の目標の他に、複数の誤目標が検出されても(図7を参照)、複数の誤目標が存在するエリアの相関処理が実施されないため、ビデオレーダ信号から複数の誤目標を除去される。
When the correlation prohibition processing unit 22 receives the radar video signal from the correlation reprocessing unit 13, the correlation prohibition processing unit 22 sets a correlation prohibition area behind the target video region in consideration of the previous target video region indicated by the radar video signal. .
Similar to the correlation processing unit 8 in FIG. 1, the correlation processing unit 23 calculates the target video area whose center of gravity position has been calculated by the center of gravity position calculation unit 7 and the target video area finally detected last time (correlation reprocessing). The correlation process with the previous target video area indicated by the radar video signal output from the unit 13 is performed, but at this time, the correlation process is not performed on the correlation prohibition area set by the correlation prohibition processing unit 22. To.
Thereby, even if a plurality of erroneous targets are detected in addition to the true target in the clustering processing unit 6 (see FIG. 7), the correlation processing of the area where the plurality of erroneous targets exists is not performed. Multiple false targets are removed from the signal.

以上で明らかなように、この実施の形態4によれば、広がり部分が除去されている前回の目標のビデオ領域を考慮して、目標のビデオ領域における後方の一定エリアを相関禁止エリアに設定することにより、その目標のビデオ領域から進行方向の広がり部分を除去するように構成したので、上記実施の形態1よりも、真の目標の検出精度を高めることができる効果を奏する。   As is apparent from the above, according to the fourth embodiment, a predetermined area behind the target video area is set as a correlation prohibition area in consideration of the previous target video area from which the spread portion has been removed. As a result, since the spread portion in the traveling direction is removed from the target video area, the true target detection accuracy can be improved as compared with the first embodiment.

実施の形態5.
上記実施の形態3では、ブランクエリア形成部20を実装して、目標のビデオ領域における後方の一定エリアをブランク処理するようにし、上記実施の形態4では、相関禁止処理部22を実装して、目標のビデオ領域における後方の一定エリアの相関を禁止するものについて示したが、図11に示すように、ブランクエリア形成部20及び相関禁止処理部22を実装して、目標のビデオ領域における後方の一定エリアのブランク処理を実施するとともに、目標のビデオ領域における後方の一定エリアの相関を禁止するようにしてもよい。
この場合、更に、真の目標の検出精度を高めることができる効果を奏する。
Embodiment 5 FIG.
In the third embodiment, the blank area forming unit 20 is mounted so as to perform blank processing on a certain area behind the target video area. In the fourth embodiment, the correlation prohibition processing unit 22 is mounted, As shown in FIG. 11, the blank area forming unit 20 and the correlation prohibition processing unit 22 are mounted so that the rearward correlation in the target video area is prohibited. While performing blank processing of a certain area, correlation of a certain area behind in the target video area may be prohibited.
In this case, it is possible to further improve the detection accuracy of the true target.

この発明の実施の形態1による目標検出装置を示す構成図である。It is a block diagram which shows the target detection apparatus by Embodiment 1 of this invention. 船舶(目標)が停止している状態のレーダビデオ信号の映像を示す説明図である。It is explanatory drawing which shows the image | video of the radar video signal of the state which the ship (target) has stopped. 船舶(目標)が移動している状態のレーダビデオ信号の映像を示す説明図である。It is explanatory drawing which shows the image | video of the radar video signal of the state which the ship (target) is moving. 広がり部分が除去されたレーダビデオ信号の映像を示す説明図である。It is explanatory drawing which shows the image | video of the radar video signal from which the breadth part was removed. この発明の実施の形態2による目標検出装置を示す構成図である。It is a block diagram which shows the target detection apparatus by Embodiment 2 of this invention. この発明の実施の形態3による目標検出装置を示す構成図である。It is a block diagram which shows the target detection apparatus by Embodiment 3 of this invention. 複数の誤目標が検出されている様子を示す説明図である。It is explanatory drawing which shows a mode that the several mistarget is detected. ブランクエリアが形成されている様子を示す説明図である。It is explanatory drawing which shows a mode that the blank area is formed. ブランク処理後のレーダビデオ信号の映像を示す説明図である。It is explanatory drawing which shows the image | video of the radar video signal after a blank process. この発明の実施の形態4による目標検出装置を示す構成図である。It is a block diagram which shows the target detection apparatus by Embodiment 4 of this invention. この発明の実施の形態5による目標検出装置を示す構成図である。It is a block diagram which shows the target detection apparatus by Embodiment 5 of this invention.

符号の説明Explanation of symbols

1 レーダアンテナ(信号送受信手段)、2 送受信機(信号送受信手段)、3 A/D変換部(目標検出手段)、4 メモリ部(目標検出手段)、5 スレッショルド処理部(目標検出手段)、6 クラスタリング処理部(目標検出手段)、7 重心位置計算部(広がり除去手段)、8 相関処理部(広がり除去手段)、9 速度/ヘディング処理部(広がり除去手段)、10 広がり除去部(広がり除去手段)、11 クラスタリング再処理部(重心位置計算手段)、12 重心位置再計算部(重心位置計算手段)、13 相関再処理部(重心位置計算手段)、14 データフォーマット処理部(カメラ制御手段)、15 カメラ制御部(カメラ制御手段)、16 カメラ、17 表示装置、18 目標認識部(広がり除去手段)、19 広がり除去部(広がり除去手段)、20 ブランクエリア形成部(目標検出手段)、21 クラスタリング処理部(目標検出手段)、22 相関禁止処理部(広がり除去手段)、23 相関処理部(広がり除去手段)。
DESCRIPTION OF SYMBOLS 1 Radar antenna (signal transmission / reception means) 2 Transmitter / receiver (signal transmission / reception means) 3 A / D conversion part (target detection means) 4 Memory part (target detection means) 5 Threshold processing part (target detection means), 6 Clustering processing unit (target detection unit), 7 Center of gravity position calculation unit (spreading removing unit), 8 Correlation processing unit (spreading removing unit), 9 Speed / heading processing unit (spreading removing unit), 10 Spreading removing unit (spreading removing unit) ), 11 Clustering reprocessing unit (centroid position calculating means), 12 Center of gravity position recalculating section (center of gravity position calculating means), 13 Correlation reprocessing section (center of gravity position calculating means), 14 Data format processing section (camera control means), DESCRIPTION OF SYMBOLS 15 Camera control part (camera control means), 16 Cameras, 17 Display apparatus, 18 Target recognition part (Expansion removal means), 19 Spreading removal part (Spread removal) Means), 20 blank area forming part (target detection means), 21 clustering processing part (target detection means), 22 correlation prohibition processing part (spreading removal means), 23 correlation processing part (spreading removal means).

Claims (4)

目標に向けてレーダ信号を放射し、その目標に反射されたレーダ信号を受信する信号送受信手段と、上記信号送受信手段により受信されたレーダ信号に対するクラスタリング処理を実施して、そのレーダ信号に含まれている目標のビデオ領域を検出する目標検出手段と、上記目標検出手段により検出された目標のビデオ領域における進行方向の広がり部分を検出し、その目標のビデオ領域から進行方向の広がり部分を除去する広がり除去手段と、上記広がり除去手段により広がり部分が除去された目標のビデオ領域の重心位置を計算する重心位置計算手段と、上記重心位置計算手段により計算された重心位置に応じて目標を撮影するカメラを制御するカメラ制御手段とを備え
上記広がり除去手段は、目標検出手段により検出された目標のビデオ領域と広がり閾値を比較し、その広がり閾値を超えているビデオ領域を進行方向の広がり部分であると認定し、目標検出手段により検出された目標のビデオ領域と、広がり部分が除去されている前回の目標のビデオ領域との相関処理を実施して目標の速度とヘディングを求め、その速度とヘディングから広がり閾値を求めることを特徴とする目標検出装置。
Included in the radar signal is a signal transmission / reception means that radiates a radar signal toward the target and receives the radar signal reflected by the target, and a clustering process is performed on the radar signal received by the signal transmission / reception means. Detecting a target video area detected by the target detection area, and detecting a spread area in the moving direction in the target video area detected by the target detecting means, and removing the spread area in the moving direction from the target video area. The target is photographed according to the spread center removing means, the center of gravity calculating means for calculating the center of gravity of the target video area from which the spread is removed by the spread removing means, and the center of gravity calculated by the center of gravity position calculating means. Camera control means for controlling the camera ,
The spread removal means compares the target video area detected by the target detection means with a spread threshold, recognizes a video area exceeding the spread threshold as a spread portion in the traveling direction, and detects by the target detection means. The target speed and heading are obtained by performing correlation processing between the target video area and the previous target video area from which the spread portion has been removed, and the spread threshold is obtained from the speed and heading. target detection apparatus to be.
目標に向けてレーダ信号を放射し、その目標に反射されたレーダ信号を受信する信号送受信手段と、上記信号送受信手段により受信されたレーダ信号に対するクラスタリング処理を実施して、そのレーダ信号に含まれている目標のビデオ領域を検出する目標検出手段と、上記目標検出手段により検出された目標のビデオ領域における進行方向の広がり部分を検出し、その目標のビデオ領域から進行方向の広がり部分を除去する広がり除去手段と、上記広がり除去手段により広がり部分が除去された目標のビデオ領域の重心位置を計算する重心位置計算手段と、上記重心位置計算手段により計算された重心位置に応じて目標を撮影するカメラを制御するカメラ制御手段とを備え、
上記広がり除去手段は、カメラの撮影結果から目標の長さを特定し、その目標の長さを考慮して、その目標のビデオ領域における進行方向の広がり部分を検出することを特徴とする目標検出装置。
Included in the radar signal is a signal transmission / reception means that radiates a radar signal toward the target and receives the radar signal reflected by the target, and a clustering process is performed on the radar signal received by the signal transmission / reception means. Detecting a target video area detected by the target detection area, and detecting a spread area in the moving direction in the target video area detected by the target detecting means, and removing the spread area in the moving direction from the target video area. The target is photographed according to the spread center removing means, the center of gravity calculating means for calculating the center of gravity of the target video area from which the spread is removed by the spread removing means, and the center of gravity calculated by the center of gravity position calculating means. Camera control means for controlling the camera,
The spread detection means identifies a target length from a camera shooting result, and takes into account the target length, and detects a spread portion in the moving direction in the target video area. apparatus.
目標検出手段は、目標のビデオ領域における後方の一定エリアをブランク処理することを特徴とする請求項1記載の目標検出装置。 Target detection means, the rear fixed area of the target video area blanked target detection apparatus according to claim 1 Symbol mounting, characterized in that. 広がり除去手段は、広がり部分が除去されている前回の目標のビデオ領域を考慮して、目標検出手段により検出された目標のビデオ領域における後方の一定エリアを相関禁止エリアに設定することにより、その目標のビデオ領域から進行方向の広がり部分を除去することを特徴とする請求項1から請求項のうちのいずれか1項記載の目標検出装置。 The spread removal means considers the previous target video area from which the spread portion has been removed, and sets a certain area behind the target video area detected by the target detection means as a correlation prohibition area. target detection apparatus according to any one of claims 1 to 3, characterized in that removing the spread portion in the traveling direction from the target of the video area.
JP2005110056A 2005-04-06 2005-04-06 Target detection device Expired - Fee Related JP4394029B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005110056A JP4394029B2 (en) 2005-04-06 2005-04-06 Target detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005110056A JP4394029B2 (en) 2005-04-06 2005-04-06 Target detection device

Publications (2)

Publication Number Publication Date
JP2006292429A JP2006292429A (en) 2006-10-26
JP4394029B2 true JP4394029B2 (en) 2010-01-06

Family

ID=37413160

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005110056A Expired - Fee Related JP4394029B2 (en) 2005-04-06 2005-04-06 Target detection device

Country Status (1)

Country Link
JP (1) JP4394029B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6258310B2 (en) * 2013-05-31 2018-01-10 古野電気株式会社 Pulling wave detection apparatus, radar apparatus, pulling wave detection method, and pulling wave detection program
JP6735594B2 (en) * 2016-04-15 2020-08-05 キヤノン株式会社 Image processing apparatus, image processing apparatus control method, and program
JP6732900B2 (en) * 2016-05-26 2020-07-29 古野電気株式会社 Signal processing device and radar device
JP7281472B2 (en) * 2018-08-27 2023-05-25 古野電気株式会社 Tracking target identification device, tracking target identification method, and tracking target identification program
WO2022195670A1 (en) * 2021-03-15 2022-09-22 パイオニア株式会社 Information processing apparatus, control method, program, and storage medium

Also Published As

Publication number Publication date
JP2006292429A (en) 2006-10-26

Similar Documents

Publication Publication Date Title
JP6784943B2 (en) Information processing equipment, information processing methods, and programs
JP4763250B2 (en) Object detection device
JP5835243B2 (en) Target recognition device
JP4394029B2 (en) Target detection device
JP2006343198A (en) Image processing system for vehicle and drive assist device
JP6931710B2 (en) Radar device and target tracking method
JP4937029B2 (en) Object detection apparatus and program
JP5012270B2 (en) Object detection device
JP2008164545A (en) Moving target detecting device, moving target detection method, and moving target detection program
JP2017009572A5 (en)
WO2015005001A1 (en) Object recognition device
JP2003217099A (en) On-vehicle surrounding monitoring device
JP2009117978A (en) Vehicle surroundings display device
JP2003077099A (en) Preceding vehicle recognition system
JP2008215918A (en) Airport plane monitoring system and method
JP2003337170A (en) Radar and radar signal processor
WO2021024562A1 (en) Target detection device
JP2008143447A (en) Vehicle safety control device
JP6466702B2 (en) Tracking processing device, radar device, and tracking processing method
JP5012163B2 (en) Detection apparatus and program
JP2007017081A (en) Infrared guide device and infrared guide method
JP6735801B2 (en) Object recognition device, vehicle control device using the same, object recognition method, and vehicle control method using the same
JP6838705B2 (en) Laser radar device and intensity image acquisition method used for it
JP2019020360A (en) Body recognition device, body recognition method and program
JP5549109B2 (en) Image sonar analysis system, image sonar analysis method, image sonar analysis program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070111

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20071009

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20080723

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090311

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090317

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090413

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091006

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091014

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121023

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131023

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees