JP2017219377A - Monitoring device, monitoring method, and airport monitoring system - Google Patents

Monitoring device, monitoring method, and airport monitoring system Download PDF

Info

Publication number
JP2017219377A
JP2017219377A JP2016112790A JP2016112790A JP2017219377A JP 2017219377 A JP2017219377 A JP 2017219377A JP 2016112790 A JP2016112790 A JP 2016112790A JP 2016112790 A JP2016112790 A JP 2016112790A JP 2017219377 A JP2017219377 A JP 2017219377A
Authority
JP
Japan
Prior art keywords
probability map
target object
camera
image
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016112790A
Other languages
Japanese (ja)
Other versions
JP6632474B2 (en
Inventor
彰一 清水
Shoichi Shimizu
彰一 清水
関 真規人
Makito Seki
真規人 関
信太郎 渡邉
Shintaro Watanabe
信太郎 渡邉
晴之 岩間
Haruyuki Iwama
晴之 岩間
清之 畑
Kiyoyuki Hata
清之 畑
恭輔 内田
Kyosuke Uchida
恭輔 内田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2016112790A priority Critical patent/JP6632474B2/en
Publication of JP2017219377A publication Critical patent/JP2017219377A/en
Application granted granted Critical
Publication of JP6632474B2 publication Critical patent/JP6632474B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a monitoring device with which it is possible to detect the position of an object present on airport surface with high accuracy.SOLUTION: A monitoring device 4 comprises: a coordinate conversion unit 10 for converting the positioning coordinates of a target object to image coordinates; a sensor probability map generation unit 12 for calculating a sensor probability map that indicates the distribution of probability of each of the target object and background appearing in a two-dimensional image space on the basis of error distribution data that indicates the error distribution of detected positions by an airport surface detection sensor 2 and the image coordinates; a camera probability map generation unit 11 for calculating a camera probability map that indicates the distribution of probability of each of the target object and background appearing in the two-dimensional image space on the basis of a camera image; and an object detection unit 14 for execution segmentation to separate the camera image into a foreground region and a background region on the basis of a composite probability map obtained by synthesizing the sensor probability map and the camera probability map.SELECTED DRAWING: Figure 1

Description

本発明は、航空機及び車両などの物体を監視する画像処理技術に関し、特に、空港内の航空機及び車両などの物体を監視するためにカメラ画像に基づいて当該物体の位置を検出する画像処理技術に関する。   The present invention relates to an image processing technique for monitoring an object such as an aircraft or a vehicle, and more particularly to an image processing technique for detecting the position of the object based on a camera image in order to monitor an object such as an aircraft or a vehicle in an airport. .

従来より、空港における滑走路及び誘導路などの地表面(以下「空港面」ともいう。)の監視のために、ASDE(Airport Surface Detection Equipment:空港面探知装置)と呼ばれるレーダ装置、及び監視カメラなどの監視装置が使用されている。空港の管制官は、ASDEにより得られたレーダエコー画面とカメラ画像とを通じて、空港面に存在する航空機または車両などの物体の動きを把握することができる。   Conventionally, a radar device called an ASDE (Airport Surface Detection Equipment) and a monitoring camera for monitoring the ground surface (hereinafter also referred to as “airport surface”) such as runways and taxiways at airports. Monitoring devices such as are used. The airport controller can grasp the movement of an object such as an aircraft or a vehicle existing on the airport surface through a radar echo screen and a camera image obtained by ASDE.

また、レーダ装置と監視カメラとを用いて空港面に存在する物体を自動的に識別する技術も存在する。たとえば、特許文献1(特開平11−160424号公報)に開示されている空港面監視装置は、レーダエコーに基づいて航空機または車両などの目標物体の方位及び距離信号を含む目標物情報を生成するASDE目標検出装置と、監視カメラの画像データを解析することにより目標物体を抽出しその識別情報(機体番号または車両識別番号)、移動方向及び位置座標をそれぞれ検出するパターン認識装置と、その移動方向及び位置座標の組と当該目標物情報との間の位置相関の有無を判定する位置相関処理装置とを備えている。位置相関処理装置は、位置相関があったとき、ASDE目標検出装置で検出された目標物体が、画像データから抽出された目標物体と同一であると識別し、ASDE目標検出装置で検出された目標物体に当該識別情報のタグを付加する。   There is also a technology for automatically identifying an object existing on an airport surface using a radar device and a monitoring camera. For example, an airport surface monitoring device disclosed in Patent Document 1 (Japanese Patent Laid-Open No. 11-160424) generates target information including a direction signal and a distance signal of a target object such as an aircraft or a vehicle based on a radar echo. ASDE target detection device, pattern recognition device for extracting target object by analyzing image data of surveillance camera and detecting its identification information (machine number or vehicle identification number), moving direction and position coordinate, and moving direction thereof And a position correlation processing device that determines the presence or absence of position correlation between the set of position coordinates and the target object information. When there is a position correlation, the position correlation processing device identifies that the target object detected by the ASDE target detection device is the same as the target object extracted from the image data, and detects the target detected by the ASDE target detection device. A tag of the identification information is added to the object.

特開平11−160424号公報(たとえば、図1及び段落0026)JP-A-11-160424 (for example, FIG. 1 and paragraph 0026)

しかしながら、ASDE目標検出装置においてレーダエコーを基に検出された目標物体の方位及び距離信号の検出誤差は、空港面における当該目標物体の存在位置に応じて変化する。このため、その検出精度が低いと、当該目標物体の検出位置精度が低くなるおそれがある。   However, the detection error of the azimuth of the target object and the distance signal detected based on the radar echo in the ASDE target detection device changes according to the position of the target object on the airport surface. For this reason, if the detection accuracy is low, the detection position accuracy of the target object may be lowered.

上記に鑑みて本発明の目的は、空港面に存在する物体の位置を高い精度で検出することを可能とする監視装置、監視方法及び空港監視システムを提供することである。   In view of the above, an object of the present invention is to provide a monitoring device, a monitoring method, and an airport monitoring system that can detect the position of an object existing on an airport surface with high accuracy.

本発明の一態様による監視装置は、空港面に存在する目標物体の測位座標を検出する空港面探知センサと、前記空港面を撮像して前記目標物体の画像及び該目標物体以外の背景の画像を含むカメラ画像を出力する撮像部とを用いて前記目標物体を監視する監視装置であって、前記測位座標を2次元の画像座標に変換する座標変換部と、前記空港面探知センサによる測位位置の空間的な誤差分布を示す誤差分布データを取得し、当該誤差分布データ及び前記画像座標に基づき、2次元画像空間において前記目標物体及び前記背景がそれぞれ現れる確からしさの分布を示すセンサ確率マップの算出を行うセンサ確率マップ生成部と、前記カメラ画像に基づき、前記2次元画像空間において前記目標物体及び前記背景がそれぞれ現れる確からしさの分布を示すカメラ確率マップの算出を行うカメラ確率マップ生成部と、前記センサ確率マップ及び前記カメラ確率マップを合成して得られる合成確率マップに基づき、前記カメラ画像を、前記目標物体を表す前景領域と背景領域とに分離するセグメンテーションを実行する物体検出部とを備えることを特徴とする。   A monitoring apparatus according to an aspect of the present invention includes an airport surface detection sensor that detects positioning coordinates of a target object existing on an airport surface, an image of the airport surface by imaging the airport surface, and an image of a background other than the target object. A monitoring device that monitors the target object using an imaging unit that outputs a camera image including a coordinate conversion unit that converts the positioning coordinates into two-dimensional image coordinates, and a positioning position by the airport surface detection sensor Error distribution data representing a spatial error distribution of the sensor probability map, and based on the error distribution data and the image coordinates, a sensor probability map indicating a probability distribution in which the target object and the background respectively appear in a two-dimensional image space. Based on the sensor probability map generation unit that performs the calculation and the camera image, the probability that the target object and the background will appear in the two-dimensional image space, respectively. A foreground region representing the target object based on a combined probability map obtained by combining the sensor probability map and the camera probability map; and a camera probability map generation unit that calculates a camera probability map indicating cloth And an object detection unit that performs segmentation to separate the background region.

本発明によれば、空港面に存在する目標物体の位置を高い精度で検出することが可能となる。   According to the present invention, the position of the target object existing on the airport surface can be detected with high accuracy.

本発明に係る実施の形態1の空港監視システムの概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the airport monitoring system of Embodiment 1 which concerns on this invention. 実施の形態1に係る空港監視処理の概要を説明するための図である。It is a figure for demonstrating the outline | summary of the airport monitoring process which concerns on Embodiment 1. FIG. 実施の形態1に係る空港監視処理の手順の一例を概略的に示すフローチャートである。4 is a flowchart schematically showing an example of a procedure of airport monitoring processing according to the first embodiment. 実施の形態1の目標検出部によるセグメンテーションを説明するための図である。6 is a diagram for explaining segmentation by a target detection unit according to Embodiment 1. FIG. 実施の形態1の目標検出部によるセグメンテーションを説明するための図である。6 is a diagram for explaining segmentation by a target detection unit according to Embodiment 1. FIG. 図6A及び図6Bは、実施の形態1の監視装置のハードウェア構成を実現する2種類の情報処理装置の構成を概略的に示すブロック図である。6A and 6B are block diagrams schematically showing configurations of two types of information processing apparatuses that implement the hardware configuration of the monitoring apparatus according to the first embodiment. 本発明に係る実施の形態2の空港監視システムの概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the airport monitoring system of Embodiment 2 which concerns on this invention. 本発明に係る実施の形態3の空港監視システムの概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the airport monitoring system of Embodiment 3 which concerns on this invention.

以下、図面を参照しつつ、本発明に係る種々の実施の形態について詳細に説明する。なお、図面全体において同一符号を付された構成要素は、同一構成及び同一機能を有するものとする。   Hereinafter, various embodiments according to the present invention will be described in detail with reference to the drawings. In addition, the component to which the same code | symbol was attached | subjected in the whole drawing shall have the same structure and the same function.

実施の形態1.
図1は、本発明に係る実施の形態1の空港監視システム1の概略構成を示すブロック図である。この空港監視システム1は、図1に示されるように空港面探知センサ2、撮像部3、監視装置4、及び、画像表示装置を含む表示部21を備えて構成されている。空港面探知センサ2は、滑走路または誘導路などの空港面に存在する航空機、トラック、バスまたは特殊車両などの移動物体を探知してその位置座標(以下「測位座標」ともいう。)を測定する測位機能を有し、当該測位座標を示す測位データGDを監視装置4に送信する通信機能を有する。測位座標は、たとえば、GEO座標系(GEOdetic coordinates:測地座標系)の緯度φ、経度Ω及び高度hで表現されている。特殊車両としては、たとえば、トーイングカー(航空機のプッシュバックまたはトーイングのために使用される車両)、コンテナ運搬車、燃料給油作業車及び給水車が挙げられる。
Embodiment 1 FIG.
FIG. 1 is a block diagram showing a schematic configuration of an airport monitoring system 1 according to the first embodiment of the present invention. As shown in FIG. 1, the airport monitoring system 1 includes an airport surface detection sensor 2, an imaging unit 3, a monitoring device 4, and a display unit 21 including an image display device. The airport surface detection sensor 2 detects a moving object such as an aircraft, a truck, a bus, or a special vehicle existing on the airport surface such as a runway or a taxiway and measures its position coordinates (hereinafter also referred to as “positioning coordinates”). And a communication function for transmitting the positioning data GD indicating the positioning coordinates to the monitoring device 4. The positioning coordinates are expressed by, for example, the latitude φ, longitude Ω, and altitude h of the GEO coordinate system (geodetic coordinates). Examples of the special vehicle include a towing car (a vehicle used for aircraft pushback or towing), a container carrier, a fuel refueling work vehicle, and a water supply vehicle.

また、空港面探知センサ2は、たとえば、ASDE(Airport Surface Detection Equipment:空港面探知装置)やASR(Airport Surveillance Radar)などの監視レーダで構成可能である。また、空港面探知センサ2は、監視レーダが探知できない領域を監視するために、MLAT(Multi−LATeration:マルチラテレーション)などの監視システムを備えている。MLATとは、航空機のトランスポンダから送信された応答信号またはスキッタ信号などの信号を3カ所以上の受信局で受信して、これら受信信号間の受信時刻の差に基づいて当該航空機の位置を測定する監視システムである。   Moreover, the airport surface detection sensor 2 can be configured by a monitoring radar such as an ASDE (Airport Surface Detection Equipment) or an ASR (Airport Surveillance Radar). In addition, the airport surface detection sensor 2 includes a monitoring system such as MLAT (Multi-Lateration) in order to monitor a region where the monitoring radar cannot detect. MLAT is a system that receives signals such as response signals or squitter signals transmitted from an aircraft transponder at three or more receiving stations, and measures the position of the aircraft based on the difference in reception time between these received signals. It is a monitoring system.

更に、空港面探知センサ2は、MLATなどの監視システムを利用して、移動物体の種類を示す移動体情報BTを供給することができる。移動体情報BTとしては、航空機の機種情報または特殊車両の車種情報が挙げられる。この移動体情報BTは、本実施の形態では使用されないが、後述する実施の形態2及び実施の形態3で使用される情報である。   Furthermore, the airport surface detection sensor 2 can supply moving body information BT indicating the type of moving object using a monitoring system such as MLAT. Examples of the moving body information BT include aircraft model information or special vehicle model information. This mobile body information BT is information that is not used in the present embodiment, but is used in Embodiment 2 and Embodiment 3 to be described later.

撮像部3は、空港内に設置された単数または複数の監視カメラで構成されており、各監視カメラは、空港面と空などの背景とを撮像するように配置されている。各監視カメラの構造は、被写体を撮像してその被写体の撮像画像IMGを監視装置4に転送することができる構成を有していればよく、その構造は特に限定されるものではない。このような監視カメラは、たとえば、撮像光学系から入射された被写体の光学像を電気信号に変換する固体撮像素子と、この固体撮像素子の出力に信号処理を施して撮像画像データを生成する信号処理回路と、その撮像画像データを一時的に記憶するバッファメモリと、このバッファメモリから撮像画像データを読み出して監視装置4に転送するデータ送信部とで構成可能である。固体撮像素子としては、たとえば、CCD(Charge−Coupled Device)イメージセンサ、CMOS(Complementary Metal−Oxide Semiconductor)イメージセンサ、または、光電子増倍管などの光電変換デバイスを含む高感度イメージセンサを使用することができる。   The imaging unit 3 includes one or a plurality of surveillance cameras installed in the airport, and each surveillance camera is arranged so as to capture the airport surface and a background such as the sky. The structure of each monitoring camera is not particularly limited as long as it has a configuration capable of imaging a subject and transferring a captured image IMG of the subject to the monitoring device 4. Such a monitoring camera is, for example, a solid-state imaging device that converts an optical image of a subject incident from an imaging optical system into an electrical signal, and a signal that performs signal processing on the output of the solid-state imaging device to generate captured image data The processing circuit, a buffer memory that temporarily stores the captured image data, and a data transmission unit that reads the captured image data from the buffer memory and transfers the captured image data to the monitoring device 4 can be configured. As the solid-state imaging device, for example, a high-sensitivity image sensor including a CCD (Charge-Coupled Device) image sensor, a CMOS (Complementary Metal-Oxide Semiconductor) image sensor, or a photoelectric conversion device such as a photomultiplier tube is used. Can do.

監視装置4は、図1に示されるように、座標変換部10、カメラ確率マップ生成部11、センサ確率マップ生成部12、モデル生成部13、物体検出部14、座標推定部15、出力部16及びセンサ誤差記憶部17を備えて構成される。   As shown in FIG. 1, the monitoring device 4 includes a coordinate conversion unit 10, a camera probability map generation unit 11, a sensor probability map generation unit 12, a model generation unit 13, an object detection unit 14, a coordinate estimation unit 15, and an output unit 16. And a sensor error storage unit 17.

座標変換部10は、空港面探知センサ2から測位データGDを受信すると、この測位データGDで示される、移動物体(以下「目標物体」という。)の測位座標を2次元の画像座標ICに投影変換し、その画像座標ICの情報をセンサ確率マップ生成部12に供給する。投影変換は、たとえば、WGS−84(World Geodetic System−84)座標系を使用して行われる。空港面探知センサ2で得られる測位座標がGEO座標系の情報であるため、座標変換部10は、測位座標をECF(Earth−Centered−Earth−Fixed)座標に変換し、このECF座標をENU(East−North−Up)座標に変換する。そして、座標変換部10は、そのENU座標に基づいて画像座標を算出する。   Upon receiving the positioning data GD from the airport surface detection sensor 2, the coordinate conversion unit 10 projects the positioning coordinates of the moving object (hereinafter referred to as “target object”) indicated by the positioning data GD onto the two-dimensional image coordinate IC. The converted image coordinate IC information is supplied to the sensor probability map generation unit 12. Projection transformation is performed using, for example, a WGS-84 (World Geometric System-84) coordinate system. Since the positioning coordinates obtained by the airport surface detection sensor 2 are information in the GEO coordinate system, the coordinate conversion unit 10 converts the positioning coordinates into ECF (Earth-Centered-Earth-Fixed) coordinates, and converts the ECF coordinates to ENU ( (East-North-Up) coordinates. The coordinate conversion unit 10 calculates image coordinates based on the ENU coordinates.

具体的には、座標変換部10は、先ず、次式(1)に従って、GEO座標系の測位座標[φ,Ω,h](Tは転置記号)をECF座標[X,Y,Zに変換する。

Figure 2017219377
Specifically, the coordinate conversion unit 10 first converts the positioning coordinates [φ, Ω, h] T (T is a transposed symbol) of the GEO coordinate system into the ECF coordinates [X F , Y F , Z F ] T.

Figure 2017219377

ここで、φは緯度(単位:ラジアン)、Ωは経度(単位:ラジアン)、hは楕円体高(単位:m)、eは地球の離心率、fは地球の偏平率、Nは地球半径である。離心率e、偏平率f及び地球半径Nは、次式(2)で与えられる。

Figure 2017219377
ここで、定数aは、WGS84準拠楕円体の長半径(=6378137m)である。 Where φ is latitude (unit: radians), Ω is longitude (unit: radians), h is ellipsoidal height (unit: m), e is the eccentricity of the earth, f is the flatness of the earth, and N is the earth radius. is there. The eccentricity e, the flatness f, and the earth radius N are given by the following equation (2).

Figure 2017219377
Here, the constant a is the major radius (= 6378137 m) of the WGS84-compliant ellipsoid.

次に、座標変換部10は、次式(3)に従って、ECF座標[X,Y,ZをENU座標[X,Y,Zに変換する。

Figure 2017219377
Next, the coordinate conversion unit 10 converts the ECF coordinates [X F , Y F , Z F ] T to ENU coordinates [X N , Y N , Z N ] T according to the following equation (3).

Figure 2017219377

式(3)の右辺のベクトル[XFS,YFS,ZFSは、基準点のECF座標である。また、式(3)の右辺のTFNは、次式(4)で与えられる回転行列である。

Figure 2017219377
The vector [X FS , Y FS , Z FS ] T on the right side of Equation (3) is the ECF coordinate of the reference point. In addition, T FN on the right side of the equation (3) is a rotation matrix given by the following equation (4).

Figure 2017219377

なお、回転行列TFNは、この回転行列の転置TFN と等しい。 Note that the rotation matrix T FN is equal to the transpose T FN T of this rotation matrix.

そして、座標変換部10は、同次座標(Homogenous Coordinates)を用いて、次式(5)により、ENU座標[X,Y,Zを2次元の画像座標[u,v]に変換することができる。

Figure 2017219377
Then, the coordinate conversion unit 10 uses the homogeneous coordinates to convert the ENU coordinates [X N , Y N , Z N ] T into the two-dimensional image coordinates [u, v] according to the following equation (5). Can be converted to T.

Figure 2017219377

ここで、右辺のAは、カメラの内部パラメータを示すスカラー量であり、[R|T]は、3行4列の行列である。また、Rは、2行2列の回転行列要素を含む3行2列の行列であり、Tは、並行移動量を含む3行1列の行列である。内部パラメータA、行列R,Tは、予めカメラキャリブレーションにより求められる。   Here, A on the right side is a scalar quantity indicating an internal parameter of the camera, and [R | T] is a 3 × 4 matrix. Further, R is a 3 × 2 matrix including 2 × 2 rotation matrix elements, and T is a 3 × 1 matrix including parallel movement amounts. The internal parameter A and the matrices R and T are obtained in advance by camera calibration.

センサ誤差記憶部17は、空港面探知センサ2による測位位置の空間的な誤差分布を示す誤差分布データEDをセンサ確率マップ生成部12に供給する記録媒体である。誤差分布データEDは、たとえば、空港面探知センサ2における監視レーダまたはMLATにより得られた測位情報(緯度、経度及び高度)に対して発生する誤差分布を示すデータであればよい。この誤差分布は、GPS(global positioning system)などのGNSS(全地球航法衛星システム)の高精度測位情報と、空港面探知センサ2で得られた測位情報の平均値及び分散値とを用いて予め算出されたものである。また、GNSSが使用されない場合には、空港内の定点に置かれた測定器のデータを使用して平均値及び分散値を求める方法が使用されてもよい。更には、MLATに代えて、ADS−B(Automatic Dependent Surveillance−Broadcast)システムから得た測位情報が使用されてもよい。   The sensor error storage unit 17 is a recording medium that supplies error distribution data ED indicating the spatial error distribution of the positioning position by the airport surface detection sensor 2 to the sensor probability map generation unit 12. The error distribution data ED may be data indicating an error distribution generated with respect to positioning information (latitude, longitude, and altitude) obtained by monitoring radar or MLAT in the airport surface detection sensor 2, for example. This error distribution is preliminarily determined by using high-precision positioning information of GNSS (Global Navigation Satellite System) such as GPS (Global Positioning System) and average values and dispersion values of positioning information obtained by the airport surface detection sensor 2. It is calculated. In addition, when GNSS is not used, a method of obtaining an average value and a variance value using data of a measuring instrument placed at a fixed point in an airport may be used. Further, positioning information obtained from an ADS-B (Automatic Dependent Survey-Broadcast) system may be used instead of MLAT.

なお、本実施の形態のセンサ誤差記憶部17は、監視装置4の構成要素の1つであるが、これに限定されるものではない。センサ誤差記憶部17は、監視装置4の外部に配置され、ケーブルまたは通信回線を介して監視装置4と接続されていてもよい。   In addition, although the sensor error storage part 17 of this Embodiment is one of the components of the monitoring apparatus 4, it is not limited to this. The sensor error storage unit 17 may be disposed outside the monitoring device 4 and connected to the monitoring device 4 via a cable or a communication line.

図2に概念的に示されるように、監視装置4は、空港面探知センサ2から目標物体の測位位置Ptを示す測位データGDを受信し、撮像部3から目標物体が現れるカメラ画像IMGを受信する。監視装置4は、測位データGD及びカメラ画像IMGに加えて、センサ誤差記憶部17から誤差分布を示す誤差分布データEDを取得し、これら測位データGD、カメラ画像IMG及び誤差分布データEDに基づいて、目標物体の正確な位置を推定することができる。また、監視装置4は、図2に示されるような監視用画像IMG1,IMG2を図1の表示部21に表示させることができる。空港の管制官は、表示部21に表示された監視用画像IMG1,IMG2を用いて効率的な管制業務を行うことが可能である。一方の監視用画像IMG1は、カメラ画像に目標物体を指す検出枠Fmの画像を重畳させて得られる画像である。また、他方の監視用画像IMG2は、空港内に配置された監視カメラ25と、空港面に存在する目標物体26とを模式的に表す画像である。   As conceptually shown in FIG. 2, the monitoring device 4 receives the positioning data GD indicating the positioning position Pt of the target object from the airport surface detection sensor 2, and receives the camera image IMG in which the target object appears from the imaging unit 3. To do. The monitoring device 4 acquires error distribution data ED indicating an error distribution from the sensor error storage unit 17 in addition to the positioning data GD and the camera image IMG, and based on the positioning data GD, the camera image IMG, and the error distribution data ED. The accurate position of the target object can be estimated. Further, the monitoring device 4 can display monitoring images IMG1 and IMG2 as shown in FIG. 2 on the display unit 21 of FIG. The airport controller can use the monitoring images IMG1 and IMG2 displayed on the display unit 21 to perform efficient control operations. One monitoring image IMG1 is an image obtained by superimposing an image of a detection frame Fm indicating a target object on a camera image. The other monitoring image IMG2 is an image schematically representing the monitoring camera 25 arranged in the airport and the target object 26 existing on the airport surface.

次に、図3を参照しつつ、センサ確率マップ生成部12、カメラ確率マップ生成部11、モデル生成部13及び物体検出部14の動作を以下に説明する。図3は、実施の形態1に係る物体検出処理の手順の一例を概略的に示すフローチャートである。   Next, operations of the sensor probability map generation unit 12, the camera probability map generation unit 11, the model generation unit 13, and the object detection unit 14 will be described with reference to FIG. FIG. 3 is a flowchart schematically showing an example of the procedure of the object detection process according to the first embodiment.

図3を参照すると、先ず、センサ確率マップ生成部12は、誤差分布データEDと目標物体の画像座標[u,v]とに基づき、2次元画像空間において目標物体及びこれ以外の背景がそれぞれ現れる確からしさの分布を示すセンサ確率マップPMbを算出する(ステップST10)。 Referring to FIG. 3, first, the sensor probability map generation unit 12 determines whether the target object and other backgrounds are in the two-dimensional image space based on the error distribution data ED and the image coordinates [u, v] T of the target object. A sensor probability map PMb indicating the probability distribution of appearing is calculated (step ST10).

ここで、本実施の形態のセンサ誤差記憶部17に記憶されている誤差分布は、ECF座標系の誤差分布であるので、センサ確率マップ生成部12は、その誤差分布を、カメラ画像に対応した画像座標系上の誤差分布に変換する必要がある。この変換は、カメラパラメータを用いた座標変換により、誤差分布を画像座標系に投影するものである。センサ確率マップ生成部12は、画像座標系上の誤差分布と画像座標[u,v]とを用いて、センサ確率マップPMbを算出する。 Here, since the error distribution stored in the sensor error storage unit 17 of the present embodiment is an error distribution in the ECF coordinate system, the sensor probability map generation unit 12 corresponds the error distribution to the camera image. It is necessary to convert to an error distribution on the image coordinate system. In this conversion, the error distribution is projected onto the image coordinate system by coordinate conversion using camera parameters. The sensor probability map generation unit 12 calculates the sensor probability map PMb using the error distribution on the image coordinate system and the image coordinates [u, v] T.

今、目標物体の画像座標を[u,v]=[u,vとし、画像座標系上の誤差分布をU(u,v)とする。このとき、センサ確率マップ生成部12は、次式(6),(7)に従って、センサ確率マップPMbを算出することができる。

Figure 2017219377

Figure 2017219377
Now, the image coordinates of the target object are [u, v] T = [u S , v S ] T, and the error distribution on the image coordinate system is U (u, v). At this time, the sensor probability map generation unit 12 can calculate the sensor probability map PMb according to the following equations (6) and (7).

Figure 2017219377

Figure 2017219377

ここで、Smap fg(u,v)は、2次元画像空間において目標物体(すなわち前景)が現れる確からしさの分布を示す前景確率マップであり、Smap bg(u,v)は、2次元画像空間において背景が現れる確からしさの分布を示す背景確率マップである。センサ確率マップPMbは、これら前景確率マップSmap fg(u,v)と背景確率マップSmap bg(u,v)との組で構成されている。また、式(7)中のmax{Smap fg(u,v)}は、Smap fg(u,v)の最大値である。式(6)は、画像上の目標物体の存在確率の値が、検出位置座標[u,vから離れるに従って小さくなることを示している。 Here, S map fg (u, v) is a foreground probability map indicating the probability distribution in which the target object (ie, foreground) appears in the two-dimensional image space, and S map bg (u, v) is two-dimensional. It is a background probability map which shows distribution of the probability that a background will appear in image space. The sensor probability map PMb is composed of a set of the foreground probability map S map fg (u, v) and the background probability map S map bg (u, v). Further, max {S map fg (u, v)} in equation (7) is the maximum value of S map fg (u, v). Equation (6) shows that the value of the existence probability of the target object on the image decreases as the distance from the detected position coordinates [u S , v S ] T increases.

次に、カメラ確率マップ生成部11、モデル生成部13及び物体検出部14は、連携して動作し、カメラ画像IMGに基づいて、2次元画像空間において目標物体及びこれ以外の背景がそれぞれ現れる確からしさの分布を示すカメラ確率マップPMaを算出する(ステップST11)。   Next, the camera probability map generation unit 11, the model generation unit 13, and the object detection unit 14 operate in cooperation so that the target object and other backgrounds appear in the two-dimensional image space based on the camera image IMG. A camera probability map PMa indicating the likelihood distribution is calculated (step ST11).

具体的には、初回(1回目)にカメラ確率マップPMaの算出が行われる場合、物体検出部14が、ステップST10で算出された前景確率マップSmap fg(u,v)に基づいて、画像における目標物体の存在確率が高い局所画像領域V(たとえば、存在確率が一定以上の領域)を初期の前景領域として検出する。モデル生成部13は、この前景領域Vを用いて目標物体を表す前景の色分布モデルを算出し、前景領域V以外の背景領域VBG(複数の目標物体が存在する場合には、これらすべての目標物体以外の背景領域)を用いて背景の色分布モデルを算出する。前景の色分布モデルは、たとえば、その前景領域Vの濃度の相対頻度分布(すなわち濃度ヒストグラム)である前景画像の色ヒストグラムHfg(c)(cは、濃度階調値)として算出可能である。すなわち、モデル生成部13は、次式(8)に従って前景画像の色ヒストグラムHfg(c)を算出することができる。

Figure 2017219377
Specifically, when the camera probability map PMa is calculated for the first time (first time), the object detection unit 14 performs an image based on the foreground probability map S map fg (u, v) calculated in step ST10. A local image region V p having a high presence probability of the target object in (for example, a region having a certain existence probability) is detected as an initial foreground region. Model generation unit 13, if the foreground area with V p to calculate the foreground color distribution model representing the target object, there is a background area V BG (more target objects other than the foreground region V p, these A background color distribution model is calculated using background regions other than all target objects). The foreground color distribution model can be calculated as, for example, a color histogram H fg (c) (c is a density gradation value) of the foreground image, which is a relative frequency distribution (that is, a density histogram) of the density of the foreground region V p. is there. That is, the model generation unit 13 can calculate the color histogram H fg (c) of the foreground image according to the following equation (8).

Figure 2017219377

ここで、右辺の分母のM(V)は、前景領域Vに含まれる画素の総数である。右辺の分子は、カメラ画像全体について、画素座標(u,v)が前景領域Vに属し且つ画像濃度I(u,v)が濃度階調値cに一致する場合にのみ1を加算することを意味している。 Here, M (V p ) in the denominator on the right side is the total number of pixels included in the foreground region V p . The numerator on the right side adds 1 only when the pixel coordinates (u, v) belong to the foreground region V p and the image density I (u, v) matches the density gradation value c for the entire camera image. Means.

一方、背景の色分布モデルは、たとえば、背景領域VBGの濃度の相対頻度分布(すなわち濃度ヒストグラム)である背景画像の色ヒストグラムHbg(c)として算出可能である。すなわち、モデル生成部13は、次式(9)に従って背景画像の色ヒストグラムHbg(c)を算出することができる。

Figure 2017219377
On the other hand, the color distribution model of the background is, for example, can be calculated as the relative frequency distribution of the density of the background area V BG (i.e. density histogram) of the background image is a color histogram H bg (c). That is, the model generation unit 13 can calculate the color histogram H bg (c) of the background image according to the following equation (9).

Figure 2017219377

ここで、右辺の分母のM(VBG)は、背景領域VBGに含まれる画素の総数である。右辺の分子は、カメラ画像全体について、画素座標(u,v)が背景領域VBGに属し且つ画像濃度I(u,v)が濃度階調値cに一致する場合にのみ1を加算することを意味している。 Here, M (V BG ) in the denominator on the right side is the total number of pixels included in the background region V BG . The numerator on the right side adds 1 only when the pixel coordinates (u, v) belong to the background region VBG and the image density I (u, v) matches the density gradation value c for the entire camera image. Means.

カメラ確率マップ生成部11は、次式(10),(11)に従って、カメラ確率マップPMaを算出することができる。

Figure 2017219377

Figure 2017219377
The camera probability map generation unit 11 can calculate the camera probability map PMa according to the following equations (10) and (11).

Figure 2017219377

Figure 2017219377

ここで、cu,vは、座標(u,v)での濃度階調値cである。また、Imap fg(u,v)は、2次元画像空間において目標物体(すなわち前景)が現れる確からしさの分布を示す前景確率マップであり、Imap bg(u,v)は、2次元画像空間において背景が現れる確からしさの分布を示す背景確率マップである。カメラ確率マップPMaは、これら前景確率マップImap fg(u,v)と背景確率マップImap bg(u,v)との組で構成されている。 Here, c u, v is the density gradation value c at the coordinates (u, v). Further, I map fg (u, v) is a foreground probability map indicating a probability distribution in which a target object (ie, foreground) appears in a two-dimensional image space, and I map bg (u, v) is a two-dimensional image. It is a background probability map which shows distribution of the probability that a background will appear in space. The camera probability map PMa is composed of a set of the foreground probability map I map fg (u, v) and the background probability map I map bg (u, v).

2回目以後のステップST11が実行される場合は、カメラ確率マップ生成部11は、 次式(12),(13)に従って、カメラ確率マップPMaを算出することができる。

Figure 2017219377

Figure 2017219377
When step ST11 after the second time is executed, the camera probability map generation unit 11 can calculate the camera probability map PMa according to the following equations (12) and (13).

Figure 2017219377

Figure 2017219377

上記したカメラ確率マップPMaの算出(ステップST11)後、物体検出部14は、カメラ確率マップPMa及びセンサ確率マップPMbを合成して得られる合成確率マップに基づいて、カメラ画像を、目標物体を表す前景領域とこれ以外の背景領域とに分離するセグメンテーションを実行する(ステップST12)。具体的には、物体検出部14は、グラフ理論に基づくグラフカット法を用いて、合成確率マップを有するデータ項と、隣接画素間の滑らかさを定める平滑化項とを含むエネルギー関数E(X)の値が最小化するようにセグメンテーションを実行する。グラフカット法によれば、エネルギー関数E(X)は、次式(14)で与えられる。

Figure 2017219377
After calculating the camera probability map PMa (step ST11), the object detection unit 14 represents a camera image and a target object based on a combined probability map obtained by combining the camera probability map PMa and the sensor probability map PMb. Segmentation for separating the foreground area and the background area other than this is executed (step ST12). Specifically, the object detection unit 14 uses an energy function E (X (X) including a data term having a composite probability map and a smoothing term that determines smoothness between adjacent pixels, using a graph cut method based on graph theory. ) Segmentation is performed so that the value of) is minimized. According to the graph cut method, the energy function E (X) is given by the following equation (14).

Figure 2017219377

ここで、右辺の第1項は、カメラ確率マップImap Xm(u,v)とセンサ確率マップSmap Xm(u,v)とが合成(すなわち線形加算)された合成確率マップを有するデータ項(data term)である。このデータ項では、Vは、サイト(画素)rを表す集合を意味する。Xmは、サイトrに割り当てられるべきラベル(前景fgまたは背景bgのいずれか)を意味する。 Here, the first term on the right side is a data term having a composite probability map in which the camera probability map I map Xm (u, v) and the sensor probability map S map Xm (u, v) are combined (that is, linear addition). (Data term). In this data term, V means a set representing a site (pixel) r. Xm means a label (either foreground fg or background bg) to be assigned to site r.

一方、式(14)の右辺の第2項は、互いに隣接するサイト(画素)r,q間の滑らかさを定める平滑項(smoothing term)である。この平滑項では、Eは、サイトq,r間の隣接関係を表す集合であり、(q,r)∈Eの場合は、2つのサイトq,rが隣接することを意味する。また、X1は、サイトqに割り当てられるべきラベル(前景fgまたは背景bgのいずれか)を意味し、X2は、サイトrに割り当てられるべきラベル(前景fgまたは背景bgのいずれか)を意味する。これは、グラフ理論では、Vを頂点の集合とし、Eを辺の集合とする無向グラフと考えることができる。hX1,X2(X1,X2)は、たとえば、次式(15)で定義可能である。

Figure 2017219377
On the other hand, the second term on the right side of Expression (14) is a smoothing term that determines the smoothness between adjacent sites (pixels) r and q. In this smooth term, E is a set representing the adjacency relationship between the sites q and r. When (q, r) εE, it means that the two sites q and r are adjacent. X1 means a label (either foreground fg or background bg) to be assigned to site q, and X2 means a label (either foreground fg or background bg) to be assigned to site r. In graph theory, this can be considered as an undirected graph in which V is a set of vertices and E is a set of edges. h X1, X2 (X1, X2) can be defined by the following equation (15), for example.

Figure 2017219377

ここで、X1=X2以外の場合(otherwise)の式(15)の右辺の分母dist(X1,X2)は、2つのサイト間の距離であり、(uX1,vX1)は一方のサイトの画像座標を、(uX2,vX2)は他方のサイトの画像座標をそれぞれ示す。平滑化項は、近傍のサイト(画素)に同じラベル(前景fgまたは背景bg)が割り当てられた場合に小さい値となるように定義されている。たとえば、図4Aに示されるように入力画像G0が与えられたとき、図4Bに示されるように、前景fgが割り当てられた画素Pfと背景bgが割り当てられた画素Pbとからなるラベル画像G1が生成される。ラベル画像G1の中央付近において白色の画素Pfで囲まれた黒色画素Pbは、周囲の画素のラベルとは異なるためにペナルティが加えられる。黒色画素Pfは同じラベルが付くように設定される。 Here, the denominator dist (X1, X2) on the right side of the equation (15) in the case of other than X1 = X2 is the distance between the two sites, and (u X1 , v X1 ) is the value of one site The image coordinates (u X2 , v X2 ) indicate the image coordinates of the other site, respectively. The smoothing term is defined to be a small value when the same label (foreground fg or background bg) is assigned to a nearby site (pixel). For example, when an input image G0 is given as shown in FIG. 4A, as shown in FIG. 4B, a label image G1 composed of a pixel Pf to which the foreground fg is assigned and a pixel Pb to which the background bg is assigned is obtained. Generated. The black pixel Pb surrounded by the white pixel Pf near the center of the label image G1 is different from the labels of the surrounding pixels, so a penalty is added. The black pixels Pf are set to have the same label.

物体検出部14は、グラフカット法に従い、エネルギー関数E(X)を最小化するように各サイトのラベルを決定する(大域最小化する)ことにより、カメラ画像を前景領域と背景領域とに分離(セグメント)することができる(ステップST12)。より具体的な分離方法としては、たとえば、下記の非特許文献1に開示されている方法を採用すればよい。
・非特許文献1:Y. Boykov and M-P. Jolly.: Interactive Graph Cuts for Optimal Boundary & Region Segmentation of Objects in N-D Images, In ICCV2001, I:105-112, 2001.
The object detection unit 14 determines the label of each site so as to minimize the energy function E (X) according to the graph cut method, thereby separating the camera image into the foreground region and the background region. (Segment) can be performed (step ST12). As a more specific separation method, for example, a method disclosed in Non-Patent Document 1 below may be adopted.
Non-Patent Document 1: Y. Boykov and MP. Jolly .: Interactive Graph Cuts for Optimal Boundary & Region Segmentation of Objects in ND Images, In ICCV2001, I: 105-112, 2001.

なお、カラー画像に基づく色分布モデルを使用する場合には、色分布モデルとして混合正規分布(GMM:Gaussian Mixture Model)を採用すればよい。この場合のセグメンテーションとしては、たとえば、下記の非特許文献2に開示されている方法を使用すればよい。
・非特許文献2:C. Rother, V. Kolmogorov, and A. Blake.: “Grab-Cut”: Interactive Foreground Extraction Using Iterated Graph Cuts, ACM Transactions on Graphics (Proc. SIGGRAPH 2004), 23(3):309-314, 2004.
When a color distribution model based on a color image is used, a mixed normal distribution (GMM: Gaussian Mixture Model) may be employed as the color distribution model. As segmentation in this case, for example, a method disclosed in Non-Patent Document 2 below may be used.
Non-Patent Document 2: C. Rother, V. Kolmogorov, and A. Blake .: “Grab-Cut”: Interactive Foreground Extraction Using Iterated Graph Cuts, ACM Transactions on Graphics (Proc. SIGGRAPH 2004), 23 (3): 309-314, 2004.

上記ステップST12の実行後は、ステップST10〜ST12の繰り返し回数(反復回数)が上限に到達していない場合(ステップST13のNO)、物体検出部14は、ステップST14に処理を移行させる。   After the execution of step ST12, when the number of repetitions (the number of repetitions) of steps ST10 to ST12 has not reached the upper limit (NO in step ST13), the object detection unit 14 shifts the process to step ST14.

ステップST14では、モデル生成部13は、ステップST12で得られた前景領域と背景領域とを用いて、色分布モデルを更新する。すなわち、モデル生成部13は、ステップST12で得られた前景領域と背景領域とを用いて、上式(8),(9)に従って色分布モデルHfg(c),Hbg(c)を新たに生成する。次の2回目以後のステップST11では、そして、カメラ確率マップ生成部11は、これら色分布モデルHfg(c),Hbg(c)を用いて、上式(12),(13)に従ってカメラ確率マップPMaを算出する。 In step ST14, the model generation unit 13 updates the color distribution model using the foreground region and the background region obtained in step ST12. That is, the model generation unit 13 newly uses the foreground region and the background region obtained in step ST12 to newly generate color distribution models H fg (c) and H bg (c) according to the above equations (8) and (9). To generate. In step ST11 after the second time, the camera probability map generation unit 11 uses these color distribution models H fg (c) and H bg (c) to perform the camera according to the above equations (12) and (13). A probability map PMa is calculated.

このような繰り返し処理を行うことにより、前景の色分布モデルと背景の色分布モデルとの精度が向上し、前景と背景との分離精度が向上する。繰り返し回数の上限は、定数で指定されてもよいし、あるいは、グラフ理論を用いた目標物体検出結果による変化がしきい値以下となった場合を終了条件としてもよい。たとえば、図5Aのカメラ画像IMGが与えられたとき、グラフ理論を用いた大域最小化により、図5Bに例示されるように、ラベル画像IMGaには目標物体が白色(濃度値=255)で示され、背景が黒色(濃度値=0)で示される。   By performing such repeated processing, the accuracy of the foreground color distribution model and the background color distribution model is improved, and the separation accuracy of the foreground and the background is improved. The upper limit of the number of repetitions may be specified by a constant, or the end condition may be a case where a change due to the target object detection result using graph theory is equal to or less than a threshold value. For example, when the camera image IMG of FIG. 5A is given, the target object is shown in white (density value = 255) in the label image IMGa as illustrated in FIG. 5B by global minimization using graph theory. The background is shown in black (density value = 0).

その後、繰り返し回数が上限に到達した場合(ステップST13のYES)、物体検出部14は、得られた前景領域で特定される目標物体に対する検出枠を生成する(ステップST15)。具体的には、物体検出部14は、たとえば、図5Cの白色の前景領域を内包するように白色の検出枠を生成すればよい。検出枠のための座標算出法として、検出枠の左上座標を(u、v)、右下座標を(u、v)とするとき、物体検出部14は、白色領域の最小座標を(u、v)に、その最大座標を(u、v)に設定することができる。 Thereafter, when the number of repetitions reaches the upper limit (YES in step ST13), the object detection unit 14 generates a detection frame for the target object specified in the obtained foreground region (step ST15). Specifically, the object detection unit 14 may generate a white detection frame so as to include the white foreground region in FIG. 5C, for example. As a coordinate calculation method for the detection frame, when the upper left coordinate of the detection frame is (u L , v L ) and the lower right coordinate is (u R , v R ), the object detection unit 14 determines the minimum coordinate of the white region. Can be set to (u L , v L ) and its maximum coordinates can be set to (u R , v R ).

次に、物体検出部14は、全ての目標物体について処理が完了したか否かを判定する(ステップST16)。全ての目標物体について処理が完了していない場合(ステップST16のNO)、物体検出部14は、次の目標物体を指定してステップST10に処理を移行させる。一方、全ての目標物体について処理が完了した場合(ステップST16のYES)、以上の物体検出処理は終了する。   Next, the object detection unit 14 determines whether or not the processing has been completed for all target objects (step ST16). When the process has not been completed for all target objects (NO in step ST16), the object detection unit 14 designates the next target object and shifts the process to step ST10. On the other hand, when the process has been completed for all target objects (YES in step ST16), the above object detection process ends.

上記物体検出処理の完了後は、座標推定部15は、目標物体の前景領域と背景領域とを示す検出結果DTを用いて、空港面における各目標物体の位置座標を推定する。具体的には、座標推定部15は、当該検出結果DT及び撮像部3の内部パラメータを用いて、画像座標をENU座標に変換し、そのENU座標をECF座標に変換する。更に、座標推定部15は、そのECF座標をGEO座標に変換する。   After the object detection process is completed, the coordinate estimation unit 15 estimates the position coordinates of each target object on the airport surface using the detection result DT indicating the foreground area and the background area of the target object. Specifically, the coordinate estimation unit 15 converts the image coordinates into ENU coordinates using the detection result DT and the internal parameters of the imaging unit 3, and converts the ENU coordinates into ECF coordinates. Further, the coordinate estimation unit 15 converts the ECF coordinates into GEO coordinates.

たとえば、座標推定部15は、次式(16)に示すように2次元の画像座標[u,v]に基づいて3次元座標[vec ,vec ,vec を生成する。

Figure 2017219377
For example, the coordinate estimation unit 15 generates three-dimensional coordinates [vec x C , vec y C , vec z C ] T based on the two-dimensional image coordinates [u, v] T as shown in the following equation (16). To do.

Figure 2017219377

ここで、(C,C)は、撮像部3のカメラの内部パラメータのレンズ中心を示し、(f,f)は焦点距離を示す。 Here, (C u , C v ) indicates the lens center of the internal parameters of the camera of the imaging unit 3, and (f u , f v ) indicates the focal length.

次に、座標推定部15は、3次元座標[vec ,vec ,vec をENU座標[X,Y,Zに変換する。具体的には、座標推定部15は、次式(17)に示されるように回転行列{Rij}を用いて、3次元座標[vec ,vec ,vec を座標変換する。

Figure 2017219377
Next, the coordinate estimation unit 15 converts the three-dimensional coordinates [vec x C , vec y C , vec z C ] T into ENU coordinates [X N , Y N , Z N ] T. Specifically, the coordinate estimation unit 15 coordinates the three-dimensional coordinates [vec x C , vec y C , vec z C ] T using the rotation matrix {R ij } as shown in the following equation (17). Convert.

Figure 2017219377

次に、座標推定部15は、次式(18)に示されるような座標変換を実行してENF座標[X,Y,Zを生成する。

Figure 2017219377
Next, the coordinate estimation unit 15 performs coordinate transformation as shown in the following equation (18) to generate ENF coordinates [X N , Y N , Z N ] T.

Figure 2017219377

ここで、たとえば、Z=0のとき、式(18)により、定数kは、−T/vec として算出される。 Here, for example, when Z N = 0, the constant k is calculated as −T z / vec z E by Expression (18).

次に、座標推定部15は、次式(19)に示されるように、ENF座標[X,Y,ZをECF座標[X,Y,Zに変換する。

Figure 2017219377
Next, the coordinate estimation unit 15 converts the ENF coordinates [X N , Y N , Z N ] T into ECF coordinates [X F , Y F , Z F ] T as shown in the following equation (19). .

Figure 2017219377

ここで、行列TNFは、行列TFNに対する逆行列である。 Here, the matrix T NF is an inverse matrix with respect to the matrix T FN .

そして、座標推定部15は、次式(20A)〜(20C)に従って、ECF座標[X,Y,ZをGEO座標[φ,Ω,h]に変換する。

Figure 2017219377

Figure 2017219377

Figure 2017219377
Then, the coordinate estimation unit 15 converts the ECF coordinates [X F , Y F , Z F ] T into GEO coordinates [φ, Ω, h] T according to the following equations (20A) to (20C).

Figure 2017219377

Figure 2017219377

Figure 2017219377

ここで、p,r,μは次式(21)のとおりである。

Figure 2017219377
Here, p, r, and μ are as shown in the following equation (21).

Figure 2017219377

出力部16は、座標推定部15による推定結果ETを用いて、たとえば、図2に示されるように検出枠Fmが描画された表示画像IMG1、あるいは、目標物体のシンボル26が描画された空港面の地図を示す表示画像IMG2を表示部21に表示させることができる。   The output unit 16 uses the estimation result ET from the coordinate estimation unit 15 to display, for example, the display image IMG1 in which the detection frame Fm is drawn as shown in FIG. 2 or the airport surface on which the target object symbol 26 is drawn. A display image IMG2 indicating the map of the image can be displayed on the display unit 21.

上記した監視装置4のハードウェア構成は、たとえば、パーソナルコンピュータ、ワークステーションまたはメインフレームなどのCPU(Central Processing Unit)内蔵のコンピュータで実現可能である。あるいは、監視装置4のハードウェア構成は、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)もしくはFPGA(Field−Programmable Gate Array)またはこれらの組み合わせなどのLSI(Large Scale Integrated circuit)により実現されてもよい。   The hardware configuration of the monitoring device 4 described above can be realized by, for example, a computer with a CPU (Central Processing Unit) such as a personal computer, a workstation, or a main frame. Alternatively, the hardware configuration of the monitoring device 4 may be an LSI (Circuit Real Gate Array) such as DSP (Digital Signal Processor), ASIC (Application Specific Integrated Circuit), or FPGA (Field-Programmable Gate Array), or a combination thereof. May be.

図6Aは、監視装置4のハードウェア構成を実現する情報処理装置4Sの概略構成を示すブロック図である。図6Aに示されるように情報処理装置4Sは、CPU31cを含むプロセッサ31と、プロセッサ31によって作業用メモリとして使用されるRAM(Random Access Memory)32と、ソフトウェア及びファームウェアの一方または双方のコンピュータ・プログラムが格納される不揮発性メモリ33と、センサ誤差記憶部17に接続されるメモリインタフェース回路(メモリI/F回路)34と、空港面探知センサ2及び撮像部3から観測データを受信する入力インタフェース回路(入力I/F回路)35と、表示部21に接続される出力インタフェース回路(出力I/F回路)36とを備えて構成されている。プロセッサ31、RAM32、不揮発性メモリ33、メモリI/F回路34、入力I/F回路35及び出力I/F回路36は、バス回路などの信号路30を介して相互に接続されている。   FIG. 6A is a block diagram illustrating a schematic configuration of an information processing device 4S that implements the hardware configuration of the monitoring device 4. As shown in FIG. 6A, the information processing apparatus 4S includes a processor 31 including a CPU 31c, a RAM (Random Access Memory) 32 used as a working memory by the processor 31, and a computer program of one or both of software and firmware. , A memory interface circuit (memory I / F circuit) 34 connected to the sensor error storage unit 17, and an input interface circuit that receives observation data from the airport surface detection sensor 2 and the imaging unit 3 (Input I / F circuit) 35 and an output interface circuit (output I / F circuit) 36 connected to the display unit 21 are provided. The processor 31, RAM 32, nonvolatile memory 33, memory I / F circuit 34, input I / F circuit 35, and output I / F circuit 36 are connected to each other via a signal path 30 such as a bus circuit.

プロセッサ31は、不揮発性メモリ33から、ソフトウェアもしくはファームウェアまたはこれらの組み合わせであるコンピュータ・プログラムを読み出して実行することにより、図1の座標変換部10、カメラ確率マップ生成部11、センサ確率マップ生成部12、モデル生成部13、物体検出部14、座標推定部15及び出力部16の機能を実現する。不揮発性メモリ33としては、たとえば、ROM(Read Only Memory)、フラッシュメモリ、磁気ディスクまたは光ディスクを使用することができるが、これらに限定されるものではない。プロセッサ31は、メモリI/F回路34を介してセンサ誤差記憶部17から誤差分布データを取得し、入力I/F回路35を介して空港面探知センサ2及び撮像部3から測位データGD及び撮像画像IMGを取得することができる。また、プロセッサ31は、出力I/F回路36を介して表示部21に表示データを供給することができる。   The processor 31 reads out and executes a computer program that is software, firmware, or a combination thereof from the non-volatile memory 33, whereby the coordinate conversion unit 10, the camera probability map generation unit 11, the sensor probability map generation unit of FIG. 12, the function of the model production | generation part 13, the object detection part 14, the coordinate estimation part 15, and the output part 16 is implement | achieved. As the non-volatile memory 33, for example, a ROM (Read Only Memory), a flash memory, a magnetic disk, or an optical disk can be used, but is not limited thereto. The processor 31 acquires error distribution data from the sensor error storage unit 17 via the memory I / F circuit 34, and positioning data GD and imaging from the airport surface detection sensor 2 and the imaging unit 3 via the input I / F circuit 35. An image IMG can be acquired. Further, the processor 31 can supply display data to the display unit 21 via the output I / F circuit 36.

図6Bは、監視装置4の他のハードウェア構成を実現する情報処理装置4Hの概略構成を示すブロック図である。図6Bに示されるように情報処理装置4Hは、DSP、ASICまたはFPGAなどの処理回路41と、センサ誤差記憶部17に接続されるメモリインタフェース回路(メモリI/F回路)42と、空港面探知センサ2及び撮像部3から観測データを受信する入力インタフェース回路(入力I/F回路)43と、表示部21に接続される出力インタフェース回路(出力I/F回路)44とを備えて構成されている。処理回路41、メモリI/F回路42、入力I/F回路43及び出力I/F回路44は、バス回路などの信号路40を介して相互に接続されている。処理回路41は、図1の座標変換部10、カメラ確率マップ生成部11、センサ確率マップ生成部12、モデル生成部13、物体検出部14、座標推定部15及び出力部16の機能を実現する信号処理回路である。処理回路41は、メモリI/F回路42を介してセンサ誤差記憶部17から誤差分布データを取得し、入力I/F回路43を介して空港面探知センサ2及び撮像部3から測位データGD及び撮像画像IMGを取得することができる。また、処理回路41は、出力I/F回路44を介して表示部21に表示データを供給することができる。   FIG. 6B is a block diagram illustrating a schematic configuration of an information processing device 4H that realizes another hardware configuration of the monitoring device 4. As shown in FIG. 6B, the information processing apparatus 4H includes a processing circuit 41 such as a DSP, ASIC, or FPGA, a memory interface circuit (memory I / F circuit) 42 connected to the sensor error storage unit 17, and an airport surface detection. An input interface circuit (input I / F circuit) 43 that receives observation data from the sensor 2 and the imaging unit 3 and an output interface circuit (output I / F circuit) 44 connected to the display unit 21 are configured. Yes. The processing circuit 41, the memory I / F circuit 42, the input I / F circuit 43, and the output I / F circuit 44 are connected to each other via a signal path 40 such as a bus circuit. The processing circuit 41 realizes the functions of the coordinate conversion unit 10, the camera probability map generation unit 11, the sensor probability map generation unit 12, the model generation unit 13, the object detection unit 14, the coordinate estimation unit 15, and the output unit 16 of FIG. It is a signal processing circuit. The processing circuit 41 acquires error distribution data from the sensor error storage unit 17 via the memory I / F circuit 42, and the positioning data GD and the positioning data GD from the airport surface detection sensor 2 and the imaging unit 3 via the input I / F circuit 43. A captured image IMG can be acquired. Further, the processing circuit 41 can supply display data to the display unit 21 via the output I / F circuit 44.

以上に説明したように実施の形態1の監視装置4は、カメラ確率マップPMaとセンサ確率マップPMbとを合成して得られる合成確率マップを用いて、空港面に存在する物体の位置を高い精度で検出することができる。   As described above, the monitoring device 4 according to the first embodiment uses the composite probability map obtained by combining the camera probability map PMa and the sensor probability map PMb to accurately determine the position of an object existing on the airport surface. Can be detected.

実施の形態2.
次に、本発明に係る実施の形態2について説明する。図7は、本発明に係る実施の形態2の空港監視システム1Aの概略構成を示すブロック図である。
Embodiment 2. FIG.
Next, a second embodiment according to the present invention will be described. FIG. 7 is a block diagram showing a schematic configuration of an airport monitoring system 1A according to the second embodiment of the present invention.

図7に示される空港監視システム1Aは、空港面探知センサ2、撮像部3、監視装置4A及び表示部21を備えて構成されている。監視装置4Aの構成は、図1のセンサ確率マップ生成部12に代えてセンサ確率マップ生成部12A、サイズ判別部18及びサイズ情報記憶部19を有する点を除いて、上記実施の形態1の監視装置4の構成と同じである。   An airport monitoring system 1A shown in FIG. 7 includes an airport surface detection sensor 2, an imaging unit 3, a monitoring device 4A, and a display unit 21. The configuration of the monitoring device 4A is the same as that of the first embodiment except that the sensor probability map generation unit 12A, the size determination unit 18 and the size information storage unit 19 are provided instead of the sensor probability map generation unit 12 of FIG. The configuration of the apparatus 4 is the same.

サイズ判別部18は、空港面探知センサ2から供給された移動体情報BTに基づき、サイズ情報記憶部19を参照して当該目標物体の物理的なサイズを判別することができる。サイズ情報記憶部19には、各種物体と物理的なサイズとの対応関係を示すデータが記憶されている。センサ確率マップ生成部12Aは、当該判別されたサイズを用いてセンサ確率マップPMbの算出を行うことができる。   The size determination unit 18 can determine the physical size of the target object with reference to the size information storage unit 19 based on the moving body information BT supplied from the airport surface detection sensor 2. The size information storage unit 19 stores data indicating the correspondence between various objects and physical sizes. The sensor probability map generation unit 12A can calculate the sensor probability map PMb using the determined size.

具体的には、センサ確率マップ生成部12Aは、上式(6),(7)に代えて次式(6A),(7A)に従って、前景確率マップSmap fg(u,v)と背景確率マップSmap bg(u,v)とを算出することができる。

Figure 2017219377
Specifically, the sensor probability map generation unit 12A replaces the above equations (6) and (7) with the following equations (6A) and (7A) and uses the foreground probability map S map fg (u, v) and the background probability. The map S map bg (u, v) can be calculated.

Figure 2017219377


Figure 2017219377

Figure 2017219377

上式(6A)は、画像座標[u,vから遠くなるほど値が低くなり、且つサイズの長さLを半径とした領域以外の領域に目標物体が存在しないと仮定するものである。なお、航空機などの目標物体の移動方向を推定し、当該目標物体の向きを推定することで、ECF座標系で楕円体の確率分布を生成し、その確率分布を画像座標系に投影する方法を採用してもよい。 The above equation (6A) assumes that the value decreases as the distance from the image coordinates [u S , v S ] T decreases, and that the target object does not exist in a region other than the region having the size length L B as the radius. It is. A method of generating a probability distribution of an ellipsoid in an ECF coordinate system by estimating a moving direction of a target object such as an aircraft and estimating a direction of the target object, and projecting the probability distribution to an image coordinate system. It may be adopted.

センサ確率マップ生成部12Aの機能は、当該判別されたサイズを用いてセンサ確率マップPMbの算出を行う点以外は、上記センサ確率マップ生成部12の機能と同じである。   The function of the sensor probability map generator 12A is the same as the function of the sensor probability map generator 12 except that the sensor probability map PMb is calculated using the determined size.

以上に説明したように実施の形態2の監視装置4Aは、目標物体を絞り込むことが可能となり、検出枠の算出精度を向上させることができる。   As described above, the monitoring device 4A according to the second embodiment can narrow down the target object and can improve the calculation accuracy of the detection frame.

実施の形態3.
次に、本発明に係る実施の形態3について説明する。図8は、本発明に係る実施の形態3の空港監視システム1Bの概略構成を示すブロック図である。図8に示される空港監視システム1Bは、空港面探知センサ2、撮像部3、監視装置4B及び表示部21を備えて構成されている。監視装置4Bの構成は、図1のモデル生成部13に代えて、モデル生成部13B及び色ヒストグラム抽出部20を有する点を除いて、上記実施の形態1の監視装置4の構成と同じである。
Embodiment 3 FIG.
Next, a third embodiment according to the present invention will be described. FIG. 8 is a block diagram showing a schematic configuration of an airport monitoring system 1B according to the third embodiment of the present invention. An airport monitoring system 1B shown in FIG. 8 includes an airport surface detection sensor 2, an imaging unit 3, a monitoring device 4B, and a display unit 21. The configuration of the monitoring device 4B is the same as the configuration of the monitoring device 4 of the first embodiment, except that the model generating unit 13B and the color histogram extracting unit 20 are provided instead of the model generating unit 13 in FIG. .

モデル生成部13Bは、空港面探知センサ2から供給された移動体情報BTを色ヒストグラム抽出部20に与える。色ヒストグラム抽出部20は、移動体情報BTに基づき、当該目標物体の既知の色分布モデルを供給することができる。モデル生成部13Bは、その既知の色分布モデルをカメラ確率マップ生成部11に供給することが可能である。よって、カメラ確率マップ生成部11は、当該既知の色分布モデルを初期の色分布モデルとして用いて前記カメラ確率マップPMaの算出を行うことができる。   The model generation unit 13 </ b> B gives the moving body information BT supplied from the airport surface detection sensor 2 to the color histogram extraction unit 20. The color histogram extraction unit 20 can supply a known color distribution model of the target object based on the moving body information BT. The model generation unit 13B can supply the known color distribution model to the camera probability map generation unit 11. Therefore, the camera probability map generation unit 11 can calculate the camera probability map PMa using the known color distribution model as an initial color distribution model.

以上に説明したように実施の形態3の監視装置4Bは、機種などの目標物体の種類に合わせた色分布モデルを最初から使用することができる。よって、目標物体を絞り込むことが容易となり、検出枠の算出精度が向上する。   As described above, the monitoring device 4B according to the third embodiment can use a color distribution model according to the type of target object such as a model from the beginning. Therefore, it becomes easy to narrow down the target object and the detection frame calculation accuracy is improved.

以上、図面を参照して本発明に係る種々の実施の形態について述べたが、これら実施の形態は本発明の例示であり、これら実施の形態以外の様々な形態を採用することもできる。なお、本発明の範囲内において、上記実施の形態1〜3の自由な組み合わせ、各実施の形態の任意の構成要素の変形、または各実施の形態の任意の構成要素の省略が可能である。   Although various embodiments according to the present invention have been described above with reference to the drawings, these embodiments are examples of the present invention, and various forms other than these embodiments can be adopted. In addition, within the scope of the present invention, the above-described first to third embodiments can be freely combined, any constituent element of each embodiment can be modified, or any constituent element of each embodiment can be omitted.

1,1A,1B 空港監視システム、2 空港面探知センサ、3 撮像部、4,4A,4B 監視装置、4S,4H 情報処理装置、10 座標変換部、11 カメラ確率マップ生成部、12,12A センサ確率マップ生成部、13 モデル生成部、14 物体検出部、15 座標推定部、16 出力部、17 センサ誤差記憶部、18 サイズ判別部、19 サイズ情報記憶部、20 色ヒストグラム抽出部、21 表示部、30 信号路、31 プロセッサ、31c CPU、32 RAM、33 不揮発性メモリ、34 メモリI/F回路、35 入力I/F回路、36 出力I/F回路、40 信号路、41 処理回路、42 メモリI/F回路、43 入力I/F回路、44 出力I/F回路。   1, 1A, 1B Airport monitoring system, 2 Airport surface detection sensor, 3 Imaging unit, 4, 4A, 4B Monitoring device, 4S, 4H Information processing device, 10 Coordinate conversion unit, 11 Camera probability map generation unit, 12, 12A sensor Probability map generation unit, 13 model generation unit, 14 object detection unit, 15 coordinate estimation unit, 16 output unit, 17 sensor error storage unit, 18 size discrimination unit, 19 size information storage unit, 20 color histogram extraction unit, 21 display unit , 30 signal path, 31 processor, 31c CPU, 32 RAM, 33 nonvolatile memory, 34 memory I / F circuit, 35 input I / F circuit, 36 output I / F circuit, 40 signal path, 41 processing circuit, 42 memory I / F circuit, 43 input I / F circuit, 44 output I / F circuit.

Claims (12)

空港面に存在する目標物体の測位座標を検出する空港面探知センサと、前記空港面を撮像して前記目標物体の画像及び該目標物体以外の背景の画像を含むカメラ画像を出力する撮像部とを用いて前記目標物体を監視する監視装置であって、
前記測位座標を2次元の画像座標に変換する座標変換部と、
前記空港面探知センサによる測位位置の空間的な誤差分布を示す誤差分布データを取得し、当該誤差分布データ及び前記画像座標に基づき、2次元画像空間において前記目標物体及び前記背景がそれぞれ現れる確からしさの分布を示すセンサ確率マップの算出を行うセンサ確率マップ生成部と、
前記カメラ画像に基づき、前記2次元画像空間において前記目標物体及び前記背景がそれぞれ現れる確からしさの分布を示すカメラ確率マップの算出を行うカメラ確率マップ生成部と、
前記センサ確率マップ及び前記カメラ確率マップを合成して得られる合成確率マップに基づき、前記カメラ画像を、前記目標物体を表す前景領域と背景領域とに分離するセグメンテーションを実行する物体検出部と
を備えることを特徴とする監視装置。
An airport surface detection sensor for detecting positioning coordinates of a target object existing on the airport surface; and an imaging unit that images the airport surface and outputs a camera image including an image of the target object and an image of a background other than the target object; A monitoring device for monitoring the target object using
A coordinate converter for converting the positioning coordinates into two-dimensional image coordinates;
Error distribution data indicating a spatial error distribution of the positioning position by the airport surface detection sensor is acquired, and the target object and the background are likely to appear in a two-dimensional image space based on the error distribution data and the image coordinates. A sensor probability map generation unit for calculating a sensor probability map indicating the distribution of
A camera probability map generation unit that calculates a camera probability map indicating a probability distribution in which the target object and the background each appear in the two-dimensional image space based on the camera image;
An object detection unit for performing segmentation for separating the camera image into a foreground region and a background region representing the target object based on a combined probability map obtained by combining the sensor probability map and the camera probability map; A monitoring device characterized by that.
請求項1記載の監視装置であって、前記物体検出部は、グラフカット法を用いて、前記合成確率マップを有するデータ項と隣接画素間の滑らかさを定める平滑化項とを含むエネルギー関数の値が最小化するように前記セグメンテーションを実行することを特徴とする監視装置。   The monitoring apparatus according to claim 1, wherein the object detection unit uses an energy function including a data term having the composite probability map and a smoothing term for determining smoothness between adjacent pixels using a graph cut method. A monitoring apparatus that performs the segmentation so that the value is minimized. 請求項1または請求項2記載の監視装置であって、
前記センサ確率マップは、前記2次元画像空間において前記目標物体が現れる確からしさの分布を示す第1の前景確率マップと、前記2次元画像空間において前記背景が現れる確からしさの分布を示す第1の背景確率マップとを含み、
前記カメラ確率マップは、前記2次元画像空間において前記目標物体が現れる確からしさの分布を示す第2の前景確率マップと、前記2次元画像空間において前記背景が現れる確からしさの分布を示す第2の背景確率マップとを含む、
ことを特徴とする監視装置。
The monitoring device according to claim 1 or 2,
The sensor probability map includes a first foreground probability map indicating a probability distribution in which the target object appears in the two-dimensional image space, and a first probability distribution in which the background appears in the two-dimensional image space. Including a background probability map,
The camera probability map includes a second foreground probability map indicating a probability distribution in which the target object appears in the two-dimensional image space, and a second probability distribution in which the background appears in the two-dimensional image space. Including a background probability map,
A monitoring device characterized by that.
請求項1から請求項3のうちのいずれか1項記載の監視装置であって、前記物体検出部により得られた当該前景領域に基づいて前記カメラ画像における前記目標物体を表す前景の色分布モデルの算出を行うとともに、前記物体検出部により得られた当該背景領域に基づいて前記カメラ画像における前記背景の色分布モデルの算出を行うモデル生成部を更に備え、
前記カメラ確率マップ生成部は、前記前景の色分布モデル及び前記背景の色分布モデルを用いて前記カメラ確率マップの算出を行うことを特徴とする監視装置。
4. The monitoring device according to claim 1, wherein the foreground color distribution model represents the target object in the camera image based on the foreground region obtained by the object detection unit. 5. A model generation unit that calculates the background color distribution model in the camera image based on the background region obtained by the object detection unit,
The monitoring apparatus, wherein the camera probability map generation unit calculates the camera probability map using the foreground color distribution model and the background color distribution model.
請求項4記載の監視装置であって、前記モデル生成部、前記カメラ確率マップ生成部及び前記物体検出部は、前記前景の色分布モデルの算出、前記背景の色分布モデルの算出、前記カメラ確率マップの算出及び前記セグメンテーションを反復して実行することを特徴とする監視装置。   5. The monitoring device according to claim 4, wherein the model generation unit, the camera probability map generation unit, and the object detection unit calculate the foreground color distribution model, calculate the background color distribution model, and the camera probability. A monitoring apparatus that repeatedly executes map calculation and the segmentation. 請求項1から請求項5のうちのいずれか1項記載の監視装置であって、前記誤差分布データが予め記憶されているセンサ誤差記憶部を更に備え、
前記センサ確率マップ生成部は、前記センサ誤差記憶部から前記誤差分布データを取得することを特徴とする監視装置。
The monitoring apparatus according to any one of claims 1 to 5, further comprising a sensor error storage unit in which the error distribution data is stored in advance.
The monitoring apparatus, wherein the sensor probability map generation unit acquires the error distribution data from the sensor error storage unit.
請求項1から請求項6のうちのいずれか1項記載の監視装置であって、
前記物体検出部により得られた当該前景領域の画像座標に基づいて、前記空港面における前記目標物体の位置座標を推定する座標推定部と、
当該推定された位置座標を表す画像情報を表示部に表示させる出力部と
を更に備えることを特徴とする監視装置。
The monitoring device according to any one of claims 1 to 6,
A coordinate estimation unit that estimates the position coordinates of the target object on the airport surface based on the image coordinates of the foreground region obtained by the object detection unit;
A monitoring apparatus, further comprising: an output unit that causes the display unit to display image information representing the estimated position coordinates.
請求項1から請求項7のうちのいずれか1項記載の監視装置であって、前記目標物体の物理的なサイズを判別するサイズ判別部を更に備え、
前記センサ確率マップ生成部は、当該判別されたサイズを用いて前記センサ確率マップの算出を行うことを特徴とする監視装置。
The monitoring device according to any one of claims 1 to 7, further comprising a size determination unit that determines a physical size of the target object,
The monitoring apparatus according to claim 1, wherein the sensor probability map generation unit calculates the sensor probability map using the determined size.
請求項4または請求項5記載の監視装置であって、前記目標物体の既知の色分布モデルを供給する色ヒストグラム抽出部を更に備え、
前記カメラ確率マップ生成部は、当該既知の色分布モデルを用いて前記カメラ確率マップの算出を行うことを特徴とする監視装置。
The monitoring apparatus according to claim 4 or 5, further comprising a color histogram extraction unit that supplies a known color distribution model of the target object,
The monitoring apparatus, wherein the camera probability map generation unit calculates the camera probability map using the known color distribution model.
請求項1から請求項9のうちのいずれか1項記載の監視装置であって、前記空港面探知センサは、前記目標物体からの反射レーダ波を受信し、当該受信結果に基づいて前記測位座標を算出するレーダ装置を含むことを特徴とする監視装置。   10. The monitoring device according to claim 1, wherein the airport surface detection sensor receives a reflected radar wave from the target object, and the positioning coordinates based on the reception result. A monitoring device comprising a radar device for calculating the frequency. 空港面に存在する目標物体の測位座標を検出する空港面探知センサと、
前記空港面を撮像して前記目標物体の画像及び該目標物体以外の背景の画像を含むカメラ画像を出力する撮像部と
請求項1から請求項10のうちのいずれか1項記載の監視装置と
を備えることを特徴とする空港監視システム。
An airport surface detection sensor for detecting positioning coordinates of a target object existing on the airport surface;
An imaging unit that images the airport surface and outputs a camera image including an image of the target object and a background image other than the target object, and the monitoring device according to any one of claims 1 to 10. An airport monitoring system comprising:
空港面に存在する目標物体の測位座標を検出する空港面探知センサと、前記空港面を撮像して前記目標物体の画像及び該目標物体以外の背景の画像を含むカメラ画像を出力する撮像部とを用いて前記目標物体を監視する監視装置において実行される監視方法であって、
前記測位座標を2次元の画像座標に変換するステップと、
前記空港面探知センサによる測位位置の空間的な誤差分布を示す誤差分布データを取得するステップと、
当該誤差分布データ及び前記画像座標に基づき、2次元画像空間において前記目標物体及び前記背景がそれぞれ現れる確からしさの分布を示すセンサ確率マップの算出を行うステップと、
前記カメラ画像に基づき、前記2次元画像空間において前記目標物体及び前記背景がそれぞれ現れる確からしさの分布を示すカメラ確率マップの算出を行うステップと、
前記センサ確率マップ及び前記カメラ確率マップを合成して得られる合成確率マップに基づき、前記カメラ画像を、前記目標物体を表す前景領域と背景領域とに分離するセグメンテーションを実行するステップと
を備えることを特徴とする監視方法。
An airport surface detection sensor for detecting positioning coordinates of a target object existing on the airport surface; and an imaging unit that images the airport surface and outputs a camera image including an image of the target object and an image of a background other than the target object; A monitoring method executed in a monitoring device that monitors the target object using
Converting the positioning coordinates into two-dimensional image coordinates;
Obtaining error distribution data indicating a spatial error distribution of a positioning position by the airport surface detection sensor;
Calculating a sensor probability map indicating a probability distribution in which the target object and the background each appear in a two-dimensional image space based on the error distribution data and the image coordinates;
Calculating a camera probability map indicating a probability distribution in which the target object and the background each appear in the two-dimensional image space based on the camera image;
Performing segmentation for separating the camera image into a foreground region and a background region representing the target object based on a combined probability map obtained by combining the sensor probability map and the camera probability map. A characteristic monitoring method.
JP2016112790A 2016-06-06 2016-06-06 Monitoring device, monitoring method and airport monitoring system Active JP6632474B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016112790A JP6632474B2 (en) 2016-06-06 2016-06-06 Monitoring device, monitoring method and airport monitoring system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016112790A JP6632474B2 (en) 2016-06-06 2016-06-06 Monitoring device, monitoring method and airport monitoring system

Publications (2)

Publication Number Publication Date
JP2017219377A true JP2017219377A (en) 2017-12-14
JP6632474B2 JP6632474B2 (en) 2020-01-22

Family

ID=60657040

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016112790A Active JP6632474B2 (en) 2016-06-06 2016-06-06 Monitoring device, monitoring method and airport monitoring system

Country Status (1)

Country Link
JP (1) JP6632474B2 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108508425A (en) * 2018-03-26 2018-09-07 微瞳科技(深圳)有限公司 Foreground target detection method based on neighborhood characteristics under a kind of radar near-earth ambient noise
JP6447706B1 (en) * 2017-12-20 2019-01-09 オムロン株式会社 Calibration data generation apparatus, calibration data generation method, calibration system, and control program
CN109324505A (en) * 2018-06-22 2019-02-12 中国人民解放军海军航空大学青岛校区 A kind of collaboration detecting and control method based on machine learning
CN110082756A (en) * 2019-05-11 2019-08-02 王志东 Region intelligent monitor system and its recognition methods of probability identification are done based on background
JP2019158692A (en) * 2018-03-15 2019-09-19 東芝電波プロダクツ株式会社 Precision approach radar and display system
CN111028287A (en) * 2018-10-09 2020-04-17 杭州海康威视数字技术股份有限公司 Method and device for determining transformation matrix of radar coordinates and camera coordinates
CN111145599A (en) * 2019-12-17 2020-05-12 中国民用航空总局第二研究所 Curve flight segment and error distribution establishing method
CN111563428A (en) * 2020-04-23 2020-08-21 杭州云视通互联网科技有限公司 Airport parking space intrusion detection method and system
JP2020198024A (en) * 2019-06-05 2020-12-10 日本無線株式会社 Remote control system and remote control method
KR102353336B1 (en) * 2021-05-06 2022-01-20 (주)공간인소프트 Electronic device for recognizing port structure based on artificial intelligence model and control method thereof
CN114360296A (en) * 2021-12-15 2022-04-15 中国飞行试验研究院 Full-automatic airplane approach landing process monitoring method based on foundation photoelectric equipment

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11160424A (en) * 1997-11-27 1999-06-18 Nec Corp Airport ground surface monitor device
JP2002048860A (en) * 2000-07-31 2002-02-15 Mitsubishi Electric Corp Device and method for tracking moving body
JP2004163218A (en) * 2002-11-12 2004-06-10 Toshiba Corp Airport monitoring system
JP2008547097A (en) * 2005-06-17 2008-12-25 マイクロソフト コーポレーション Image segmentation
US20100002077A1 (en) * 2005-01-13 2010-01-07 Sensis Corporation Method and system for tracking position of an object using imaging and non-imaging surveillance devices
JP2013156718A (en) * 2012-01-27 2013-08-15 National Institute Of Advanced Industrial & Technology Person tracking attribute estimation device, person tracking attribute estimation method and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11160424A (en) * 1997-11-27 1999-06-18 Nec Corp Airport ground surface monitor device
JP2002048860A (en) * 2000-07-31 2002-02-15 Mitsubishi Electric Corp Device and method for tracking moving body
JP2004163218A (en) * 2002-11-12 2004-06-10 Toshiba Corp Airport monitoring system
US20100002077A1 (en) * 2005-01-13 2010-01-07 Sensis Corporation Method and system for tracking position of an object using imaging and non-imaging surveillance devices
JP2008547097A (en) * 2005-06-17 2008-12-25 マイクロソフト コーポレーション Image segmentation
JP2013156718A (en) * 2012-01-27 2013-08-15 National Institute Of Advanced Industrial & Technology Person tracking attribute estimation device, person tracking attribute estimation method and program

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6447706B1 (en) * 2017-12-20 2019-01-09 オムロン株式会社 Calibration data generation apparatus, calibration data generation method, calibration system, and control program
WO2019123988A1 (en) * 2017-12-20 2019-06-27 オムロン株式会社 Calibration data generating device, calibration data generating method, calibration system, and control program
JP2019109200A (en) * 2017-12-20 2019-07-04 オムロン株式会社 Data generation device for calibration, data generation method for calibration, calibration system, and control program
JP2019158692A (en) * 2018-03-15 2019-09-19 東芝電波プロダクツ株式会社 Precision approach radar and display system
CN108508425A (en) * 2018-03-26 2018-09-07 微瞳科技(深圳)有限公司 Foreground target detection method based on neighborhood characteristics under a kind of radar near-earth ambient noise
CN108508425B (en) * 2018-03-26 2020-08-04 微瞳科技(深圳)有限公司 Method for detecting foreground target based on neighborhood characteristics under radar near-earth background noise
CN109324505A (en) * 2018-06-22 2019-02-12 中国人民解放军海军航空大学青岛校区 A kind of collaboration detecting and control method based on machine learning
CN111028287A (en) * 2018-10-09 2020-04-17 杭州海康威视数字技术股份有限公司 Method and device for determining transformation matrix of radar coordinates and camera coordinates
CN111028287B (en) * 2018-10-09 2023-10-20 杭州海康威视数字技术股份有限公司 Method and device for determining a transformation matrix of radar coordinates and camera coordinates
CN110082756A (en) * 2019-05-11 2019-08-02 王志东 Region intelligent monitor system and its recognition methods of probability identification are done based on background
JP2020198024A (en) * 2019-06-05 2020-12-10 日本無線株式会社 Remote control system and remote control method
CN111145599A (en) * 2019-12-17 2020-05-12 中国民用航空总局第二研究所 Curve flight segment and error distribution establishing method
CN111563428B (en) * 2020-04-23 2023-10-17 杭州云视通互联网科技有限公司 Airport stand intrusion detection method and system
CN111563428A (en) * 2020-04-23 2020-08-21 杭州云视通互联网科技有限公司 Airport parking space intrusion detection method and system
KR102353336B1 (en) * 2021-05-06 2022-01-20 (주)공간인소프트 Electronic device for recognizing port structure based on artificial intelligence model and control method thereof
CN114360296A (en) * 2021-12-15 2022-04-15 中国飞行试验研究院 Full-automatic airplane approach landing process monitoring method based on foundation photoelectric equipment
CN114360296B (en) * 2021-12-15 2024-04-09 中国飞行试验研究院 Full-automatic aircraft approach landing process monitoring method based on foundation photoelectric equipment

Also Published As

Publication number Publication date
JP6632474B2 (en) 2020-01-22

Similar Documents

Publication Publication Date Title
JP6632474B2 (en) Monitoring device, monitoring method and airport monitoring system
EP4109331A1 (en) Obstacle detection method and apparatus, computer device, and storage medium
US10964054B2 (en) Method and device for positioning
US7733342B2 (en) Method of extracting 3D building information using shadow analysis
EP3876189A1 (en) Geographic object detection device, geographic object detection method, and geographic object detection program
WO2022067647A1 (en) Method and apparatus for determining pavement elements
JP2015201183A (en) Context-aware object detection in aerial photographs/videos using travel path metadata
US11841421B2 (en) Synthetic aperture radar image analysis system, synthetic aperture radar image analysis method, and synthetic aperture radar image analysis program
Toschi et al. Combining airborne oblique camera and LiDAR sensors: Investigation and new perspectives
KR102346676B1 (en) Method for creating damage figure using the deep learning-based damage image classification of facility
KR20210090573A (en) Method and device for monitoring harbor and ship considering sea level
CN113608234A (en) City data acquisition system
WO2022126540A1 (en) Obstacle detection and re-identification method, apparatus, movable platform, and storage medium
CN111553342B (en) Visual positioning method, visual positioning device, computer equipment and storage medium
JP2014099055A (en) Detector, detection method, and program
KR100981588B1 (en) A system for generating geographical information of city facilities based on vector transformation which uses magnitude and direction information of feature point
WO2022083529A1 (en) Data processing method and apparatus
Baeck et al. Drone based near real-time human detection with geographic localization
CN110660113A (en) Method and device for establishing characteristic map, acquisition equipment and storage medium
CN114051627A (en) Camera calibration method
JP6546898B2 (en) Three-dimensional space identification apparatus, method, and program
JP2006172099A (en) Changed region recognition device and change recognition system
Long et al. Automatic Vehicle Speed Estimation Method for Unmanned Aerial Vehicle Images.
Weinmann et al. A step towards dynamic scene analysis with active multi-view range imaging systems
Reddy et al. Implementation of Lane Detection Algorithms for Autonomous Vehicle Using Lidar Point Cloud Data

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181023

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191011

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191210

R150 Certificate of patent or registration of utility model

Ref document number: 6632474

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250