JP6593995B2 - 空港監視装置 - Google Patents

空港監視装置 Download PDF

Info

Publication number
JP6593995B2
JP6593995B2 JP2015012131A JP2015012131A JP6593995B2 JP 6593995 B2 JP6593995 B2 JP 6593995B2 JP 2015012131 A JP2015012131 A JP 2015012131A JP 2015012131 A JP2015012131 A JP 2015012131A JP 6593995 B2 JP6593995 B2 JP 6593995B2
Authority
JP
Japan
Prior art keywords
target object
detection
airport
dimensional
tracking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015012131A
Other languages
English (en)
Other versions
JP2016139172A5 (ja
JP2016139172A (ja
Inventor
彰一 清水
信太郎 渡邉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2015012131A priority Critical patent/JP6593995B2/ja
Publication of JP2016139172A publication Critical patent/JP2016139172A/ja
Publication of JP2016139172A5 publication Critical patent/JP2016139172A5/ja
Application granted granted Critical
Publication of JP6593995B2 publication Critical patent/JP6593995B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

この発明は、空港面の管制作業を支援する空港監視装置に関する。
従来の空港監視装置では、空港面の管制作業を支援する空港監視装置において、特に画像認識処理及び文字認識処理を用いて、管制作業の負荷の軽減や警報の自動化を図っている(例えば特許文献1参照)。
具体的には、過密化する空港面において空港面を移動する全ての航空機及び車両の位置と識別番号を認識し、衝突の可能性がある対象物に対して衝突警報を自動的に発することにより、航空管制官の管制業務の軽減及び空港面の安全性を高めるために、以下の空港監視装置が開示されている。空港面の数箇所に設置したビデオカメラの画像データと画像処理による文字認識を用いて、空港面を移動する全ての航空機や車両の便名や車両番号、移動方向、及び位置を認識し、空港面探知レーダとの相関を取って表示する。また、衝突警告を空港面に自動的に発信する衝突警告送信装置と、発信された情報を受けて警告を発する航空機・車両搭載衝突警告受信装置を有している。
特許第2973302号公報
しかしながら、1つのカメラを用いた目標物体の座標推定は、地面と目標物体の接地面を正確に求める必要がある。先行例では、重心や検出領域の下端を用いているが、検出領域の欠けや影の影響、夜間では精度が低下するという問題点があった。
この発明の目的は以上の問題点を解決し、単眼カメラを用いた目標物体の座標推定において目標物体の位置を正確に求めることができる空港監視装置を提供することにある。
この発明に係る空港監視装置は、
所定の目標物体を含む空港面を撮影して当該空港面の画像信号を出力する撮像手段と、
上記撮影された画像の画像信号から上記目標物体を検出する目標物体検出手段と、
上記目標物体の輪郭データである所定のエッジモデルを用いて上記検出した目標物体を上記空港面において位置合わせを行って、位置合わせ結果の画像信号を出力する位置合わせ手段と、
上記位置合わせ結果の画像信号に基づいて、上記目標物体の上記撮像手段で撮影された画像上の上記空港面との接地点の座標を推定し、上記接地点の座標を地図上の位置座標へ座標変換することで、上記目標物体の上記地図上の位置座標を算出する位置推定手段とを備え、
上記目標物体検出手段は、上記目標物体の背景差分による検出結果と、上記目標物体の追跡による追跡結果とを統合するときに、上記背景差分による検出枠と上記追跡による検出枠の重なりを判定し、重なっていると判定したとき、上記背景差分による検出枠の面積と、上記追跡による検出枠の面積と、上記背景差分による検出枠と上記追跡による検出枠との重なりの面積とに基づいて、所定の重なり率を計算し、上記重なり率に基づいて、上記背景差分による検出結果と上記追跡による検出結果とを統合する統合処理を行うことを特徴とする。



この発明に係る空港監視装置によれば、カメラを用いた目標物体の位置推定精度が日照条件に頑健になり、精度が向上する。また、精度が向上することにより、他のレーダなどの情報との整合が容易になる。
この発明の実施の形態1に係る空港監視装置の動作を示す概略図である。 図1の空港監視装置の構成を示すブロック図である。 図2の目標物体検出部2による目標物体検出処理を示すフローチャートである。 図2の目標物体検出部2による追跡処理を説明するための概略図である。 図2の目標物体検出部2による重なり判定処理の一例を示す概略図である。 図2の精密位置合わせ部3による2次元エッジモデルを用いた精密位置合わせ処理を示すフローチャートである。 図2の精密位置合わせ部3による2次元エッジモデルを用いた精密位置合わせ処理を示す概略図である。 この発明の実施の形態2に係る空港監視装置の構成を示すブロック図である。 図8の空港監視装置の精密位置合わせ部3Aによる3次元エッジモデルを用いた精密位置合わせ処理を示すフローチャートである。 この発明の実施の形態3に係る空港監視装置の構成を示すブロック図である。 図10の点光源検出部2Aによる点光源検出処理を示すフローチャートである。 図10の精密位置合わせ部3Bによる2次元ライトモデルを用いた精密位置合わせ処理を示すフローチャートである。 図10の精密位置合わせ部3による精密位置合わせ処理を説明するための概略図である。 この発明の実施の形態4に係る空港監視装置の構成を示すブロック図である。 図14の精密位置合わせ部3Cによる3次元ライトモデルを用いた精密位置合わせ処理を示すフローチャートである。
以下、この発明に係る実施形態について図面を参照して説明する。なお、以下の各実施形態において、同様の構成要素については同一の符号を付している。
実施の形態1.
図1はこの発明の実施の形態1に係る空港監視装置の動作を示す概略図である。また、図2は図1の空港監視装置の構成を示すブロック図である。図2において、実施の形態1に係る空港監視装置は、カメラ1と、目標物体検出部2と、2次元エッジモデルによる精密位置合わせ部3と、位置推定部4と、空港面3Dデータメモリ5と、結果表示部6と、航空機情報メモリ7と、2次元エッジモデルメモリ8とを備えて構成される。
図1に示すように、実施の形態1では、カメラ1で目標物体である航空機を含む空港面
を撮影し、このカメラ1から得られる画像の画像信号を用いて、航空機を検出する。そし
て、検出された航空機の領域に対して、予め作成しておいた航空機のエッジモデルを当て
はめる。最後に、航空機が路面上と接地する座標から地図上への位置座標へ変換し、航空
機の推定位置の検出結果を出力する。以下、図2を参照して、実施の形態1に係る空港監
視装置について詳細説明する。
図2において、カメラ1は目標物体である航空機を含む空港面を撮影し、撮影した画像の画像信号を目標物体検出部2、精密位置合わせ部3及び結果表示部6に転送する。目標物体検出部b2は、転送された画像信号の画像から航空機の空港面内での領域を検出し、検出した航空機の領域を2次元エッジモデルによる精密位置合わせ部3と結果表示部6に転送する。なお、結果表示部6は例えば液晶ディスプレイであって、入力される画像信号の画像を表示する。
図3は図2の目標物体検出部2による目標物体検出処理を示すフローチャートである。図3において、まず、ステップST1では、得られた画像と、基準画像(背景画像)とを用いて、画像内の静止物体のぶれ量を推定する。ぶれ量の計算は、背景画像I(u座標,v座標,カラーチャンネル(3))と現フレームの画像I(u座標,v座標,カラーチャンネル(3))とすると、以下の式を満たすぶれ量(u,v)を算出することとなる。
Figure 0006593995
ここで、ぶれ補正では、画像全体をずらした際の差分値が最も小さくなる(u,v)ように画像を選ぶこととなる。
次いで、ステップST2では、ぶれ量(u,v)を加味した航空機の検出を行う。検出には、背景差分を用いた手法や予め航空機から特徴量を抽出し、機械学習により得られた学習データを用いて検出する手法などを用いればよい。
図4は図2の目標物体検出部2による追跡処理を説明するための概略図である。
次いで、ステップST3では、図4のように1処理前の物体検出結果のテンプレート画像T(u座標,v座標,カラーチャンネル)を用いて、現フレームの画像I(u,v,カラーチャンネル)から以下の式を満たす物***置を算出する。
Figure 0006593995
このとき、Nはu座標軸の探索範囲、Mはv座標軸の探索範囲を表し、上記式はSAD(差分絶対値和(Sum of Absolute Difference))が最小となる、座標(u,v)を出力する式となる。
次いで、ステップST4では、ステップST2により出力された検出結果とステップST3により検出された検出結果の統合を行う。まず、2つの検出枠の重なり判定を行う。物体検出結果の検出枠の左上・右下座標をRdet(l:左上u座標、l:左上v座標、r:右下u座標、r:右下v座標)、追跡による検出枠の左上・右下標をRtrack(l:左上u座標、l:左上v座標、r:右下u座標、r:右下v座標)とすると、以下の式で判定を行う。
Figure 0006593995
図5は図2の目標物体検出部2による重なり判定処理の一例を示す概略図である。図5に示すように、重なっている(O=1)と判定された場合、さらに重なり率の判定を行うことで、統合するかの判定を行う。重なり率は、次式のように、ステップST2の処理により出力された物体検出枠の面積areadetと、ステップST3の処理により出力された追跡による検出枠の面積areatrack、物体検出枠と追跡による検出枠の重なり領域の面積areaoverlapから算出する。
Figure 0006593995
この面積を用いて以下の条件に当てはまる場合、統合処理を行う。
Figure 0006593995
ここで、THは重なり率である。統合処理では、統合枠が1つの場合と2つ以上の場合で異なる。
(A)統合枠が1つの場合:背景差分の検出枠と追跡の検出枠の幅を比べ、追跡の検出枠の幅が大きい場合は、追跡の検出枠の幅を採用する。
(B)統合枠が2つ以上の場合:すべての枠を内包する統合枠を算出する。
ステップST5の処理では、ステップST4の処理で得られた検出枠を元に、追跡で使用するテンプレート画像を抽出する。以上の処理により、目標物体検出を行い、その結果を精密位置合わせ部3に転送する。
次いで、2次元エッジモデルによる精密位置合わせ部3では、目標物体検出部2で得られた航空機の領域内を、2次元エッジモデルメモリ8に格納された航空機のエッジモデルを用いて、位置合わせを行う。
図6は図2の精密位置合わせ部3による2次元エッジモデルを用いた精密位置合わせ処理を示すフローチャートである。
まず、ステップST11では、2次元エッジモデルメモリ8からエッジモデルを取得する。2次元エッジモデルは、2次元画像上の輪郭データであり、様々な角度から撮影された際の輪郭データを保持しておく。取得された2次元エッジモデルは、2次元エッジモデルメモリ8に保持される。一方、航空機の機種などの情報である航空機情報は、航空機等の位置を測定する監視システムであるマルチラレテーションなどから入手して航空機情報メモリ7に予め格納される。次いで、精密位置合わせ部3は、それに合わせたエッジモデルを選択する。また、カメラ1の設置位置からエッジモデルの選択に限定を持たせてもよい。
図7は図2の精密位置合わせ部3による2次元エッジモデルを用いた精密位置合わせ処理を示す概略図である。
図6のステップST12では、ステップST11の処理で取得したエッジモデルを用いて、図7のように、例えばチャンファ・マッチング(chamfer matching)法などを用いてエッジ画像に対して位置合わせを行う。図7において、m1は2次元エッジモデル、m2はエッジ画像、m3は位置合わせ後のエッジモデルであり、2次元エッジモデルm1とエッジ画像m2とを位置合わせして、位置合わせ後のエッジモデルm3を得る。
次いで、ステップST13では、ステップST12の処理での位置合わせの評価を行う。位置合わせの評価値(誤差)errorは、位置合わせを行ったエッジ上の輝度値eを総和したものとし、エッジ画像I、エッジモデルのエッジ座標e(E個の座標を持つ)から以下の式で算出する。
Figure 0006593995
ここで、δ(I(edge))はエッジがあるときに1を出力する一方、エッジがないときに0を出力する関数である。
次いで、ステップST14では、位置合わせの評価値(誤差)errorが所定のしきい値以下のとき、位置合わせが達成されたとして、処理を終了する。ステップST14において、NOであるときは、ステップST11からの処理を繰り返す。
以上の処理により、精密な位置合わせを行い、位置合わせ結果の画像の画像信号を位置推定部4に転送する。
次いで、位置推定部4は、2次元エッジモデルによる精密位置合わせ部3の位置合わせ
結果の画像と、空港面3Dデータメモリ5に予め格納された空港面3Dデータを用いて、
位置合わせされた航空機の位置について地図上の座標を算出する。位置推定部4は、2次
元エッジモデルによる精密位置合わせ部3からの位置合わせ結果の画像から、航空機に関
する、画像上の空港面との接地点を推定する。次いで、画像上の空港面での航空機の位置
座標を、空港面3Dデータへの位置座標へ座標変換することで、地図上の位置座標を算出
する。この算出結果を結果表示部6に転送して表示する。結果表示部6は、カメラ1で撮
影した画像に目標物体検出部2で得られた目標物体である航空機の位置の画像と、位置推
定部4で推定した航空機の地図上の位置を地図へ描画する。
以上説明したように、本実施の形態によれば、カメラ1を用いた目標物体の位置推定精度が向上し、他のレーダなどの情報との整合が容易になる。
実施の形態2.
図8はこの発明の実施の形態2に係る空港監視装置の構成を示すブロック図である。実施の形態2に係る空港監視装置は、図2の実施の形態1に係る空港監視装置に比較して以下の点が異なる。
(1)2次元エッジモデルによる精密位置合わせ部3に代えて、3次元エッジモデルによる精密位置合わせ部3を備えた。
(2)2次元エッジモデルメモリ8に代えて、3次元エッジモデルメモリ8Aを備えた。
以下、相違点について詳述する。
実施の形態2に係る空港監視装置は、カメラ1で目標物体である航空機を含む空港面を
撮影し、このカメラ1から得られる画像の画像信号を用いて、航空機の領域を検出する。
そして、検出された航空機の領域に対して、3次元エッジモデルから2次元エッジモデル
を作成し航空機のエッジモデルを当てはめる。最後に、航空機が空港面の路面上と接地する座標から地図上への位置座標へ変換し、検出結果を出力する。
実施の形態2では、実施の形態1に比較して、特に、3次元エッジモデルによる精密位置合わせ部3Aは、目標物体検出部2で得られた航空機の領域内を、3次元エッジモデルメモリ8Aに格納された航空機の3次元エッジモデルから生成される2次元エッジモデルを用いて、位置合わせを行うことを特徴としている。
図9は図8の空港監視装置の精密位置合わせ部3Aによる3次元エッジモデルを用いた精密位置合わせ処理を示すフローチャートである。
図9のステップST31では、2次元エッジモデルを3次元エッジモデルから生成して3次元エッジモデルメモリ8Aに格納する。ここで、3次元エッジモデルは、3次元空間上の航空機の輪郭データである。この3次元空間上の航空機の輪郭データから、航空機の2次元エッジモデルを生成する。一方、航空機の機種などの情報は、航空機等の位置を測定する監視システムであるマルチラレテーションなどから入手して航空機情報メモリ7に格納され、精密位置合わせ部3Aはそれに合わせた3次元エッジモデルを選択する。なお、2次元エッジモデルの生成は、カメラ1の設置位置を初期値として、その位置にカメラ1があった際の2次元エッジモデルを生成する。3次元エッジモデルのエッジの3次元座標e3D(x,y,z)とすると、2次元エッジの座標e(u,v)は以下の式で算出できる。
Figure 0006593995
ここで、Aはカメラ1の内部パラメータ、Rは回転行列、Tは平行移動ベクトルを表す。これにより、2次元エッジモデルを得る。
次いで、ステップST12では、ステップST11で取得したエッジモデルを用いて、図7のように、例えばチャンファ・マッチング(chamfer matching)法などを用いて、エッジ画像に対して位置合わせを行う。
次いで、ステップST13では、ステップST12での位置合わせの評価を行う。位置合わせの評価値(誤差)eは、位置合わせを行ったエッジ上の輝度値eを総和したものとし、エッジ画像I、エッジモデルのエッジ座標edge(E個の座標を持つ)から以下の式で算出する。
Figure 0006593995
ここで、δ(I(edge))はエッジがあるときに1を出力し、エッジではないときに0を出力する関数である。
次いで、ステップST14では、位置合わせの評価値(誤差)eが所定のしきい値以下のとき、位置合わせが達成されたとして、処理を終了する。なお、ステップST14においてNOであるときは、ステップST31の処理から繰り返す。
以上の処理により、精密な位置合わせを行い、その位置合わせ結果の画像を位置推定部4に転送する。
以上説明したように、本実施の形態によれば、3次元エッジモデルを持つことで、データ数が削減され、任意の2次元エッジモデルを生成することができるようになり、カメラを用いた目標物体の位置推定精度が向上する。また、他のレーダなどの情報との整合が容易になる。
実施の形態3.
図10はこの発明の実施の形態3に係る空港監視装置の構成を示すブロック図である。実施の形態3に係る空港監視装置は、図2の実施の形態1に係る空港監視装置に比較して以下の点が異なる。
(1)目標物体検出部2に代えて、点光源検出部2Aを備えた。
(2)2次元エッジモデルによる精密位置合わせ部3に代えて、2次元ライトモデルによる精密位置合わせ部3Bを備えた。
(2)2次元エッジモデルメモリ8に代えて、2次元ライトモデルメモリ8Bを備えた。
以下、相違点について詳述する。
実施の形態3では、カメラ1で目標物体である航空機を含む空港面を撮影し、このカメ
ラ1から得られる画像を用いて、航空機の点光源群を検出する。そして、検出された点光
源群に対して、予め作成しておいた航空機のライトモデルを当てはめる。最後に、航空機
が路面上と接地する座標から地図上への位置座標へ変換し、航空機の位置座標の検出結果
を出力する。
上述のように、実施の形態3は、点光源検出部2A、2次元ライトモデルによる精密位置合わせ部3B、2次元ライトモデルメモリ8Bが実施の形態1との相違点である。点光源検出部2Aは、カメラ1により撮像した画像の画像信号から航空機の点光源群を検出し、検出した点光源群の位置情報を、2次元ライトモデルによる精密位置合わせ部3Bに転送する。
図11は図10の点光源検出部2Aによる点光源検出処理を示すフローチャートである。
まず、図11のステップST1では、実施の形態1と同様にぶれ量を推定する。次いで、ステップST32では、撮像された画像から航空機の点光源を検出する。点光源の検出は、背景差分を用いた手法により抽出し、点光源の位置と色成分を出力する。以上の処理により、点光源検出部2Aは、2次元ライトモデルによる精密位置合わせ部3Bに点光源の位置と色成分を転送する。
次いで、2次元ライトモデルによる精密位置合わせ部3Bは、点光源検出部2Aで得られた点光源群の位置情報(色成分を含む)と、2次元ライトモデルメモリ8Bに予め格納された航空機の2次元ライトモデルを用いて、位置合わせを行う。
図12は図10の精密位置合わせ部3Bによる2次元ライトモデルを用いた精密位置合わせ処理を示すフローチャートである。
図12のステップST31では、まず、2次元ライトモデルメモリ8Bから2次元ライトモデルを取得する。2次元ライトモデルは、2次元画像上の航空機のライト設置位置のデータであり、様々な角度から撮影された際のライト設置位置を2次元ライトモデルメモリ8Bに保持しておく。一方、航空機の機種などの情報は、航空機等の位置を測定する監視システムであるマルチラレテーションなどから入手して予め航空機情報メモリ7に格納される。精密位置合わせ部3bはそれに合わせた2次元ライトモデルを選択する。ここで、カメラ1の設置位置から2次元ライトモデルの選択に限定を持たせてもよい。
次いで、ステップST32では、ステップST31の処理で取得した2次元ライトモデルを用いて、図12のように、入力画像に対して位置合わせを行う。この位置合わせは、点光源検出部2Aで得られた点光源群の位置情報と2次元ライトモデルの位置情報との間の相関を求めることで行う。
次いで、ステップST33では、ステップST32の処理での位置合わせの評価を行う。位置合わせの評価値(誤差)errorは、位置合わせを行った点光源との距離dを総和したものとし、一致したE個の点光源群pとモデルの一致した点eから以下の式で算出する。
Figure 0006593995
次いで、ステップST14では、誤差errorが所定のしきい値以下のとき、位置合わせが達成されたとして、処理を終了する。なお、ステップST14においてNOであるときは、ステップST31に戻り、処理を繰り返す。
図13は図10の精密位置合わせ部3による精密位置合わせ処理を説明するための概略図である。図13において、m30は2次元ライトモデル、m31は航空機がある場合の2次元エッジ、m32は夜間画像、m33は位置合わせ後のライトモデルである。すなわち、2次元ライトモデルm30における航空機の2次元エッジm31と、夜間画像m32との間で位置合わせすることで、位置合わせ後のライトモデルm33を得ることができる。
以上の処理により、精密な位置合わせを行い、2次元ライトモデルに含まれる航空機と、空港面の路面の接地位置を位置推定部4に転送し、結果表示部6には航空機の領域とラ
イトモデルに含まれる航空機と路面の接地位置を転送して表示する。
以上説明したように、本実施の形態によれば、点光源検出部2A及び2次元ライトモデルによる精密位置合わせ部3Bを備えたので、夜間におけるカメラ1を用いた目標物体の位置推定精度が向上する。また、他のレーダなどの情報との整合が容易になる。
実施の形態4.
図14はこの発明の実施の形態4に係る空港監視装置の構成を示すブロック図である。実施の形態4に係る空港監視装置は、図3の実施の形態3に係る空港監視装置に比較して以下の点が異なる。
(1)2次元ライトモデルによる精密位置合わせ部3Bに代えて、3次元ライトモデルによる精密位置合わせ部3Cを備えた。
(2)2次元ライトモデルメモリ8Bに代えて、3次元ライトモデルメモリ8Cを備えた。
以下、相違点について詳述する。
実施の形態4では、カメラ1で目標物体である航空機を含む空港面を撮影し、このカメ
ラ1から得られる画像を用いて、航空機の点光源群を検出する。そして、検出された航空
機の点光源群に対して、3次元エッジモデルから2次元エッジモデルを作成し航空機のエ
ッジモデルを当てはめる。最後に、航空機が路面上と接地する座標から地図上への位置座
標へ変換し、航空機の位置の検出結果を出力する。
上述のように、実施の形態4は、3次元ライトモデルによる精密位置合わせ部3Cと3次元ライトモデルメモリ8Cが実施の形態3との相違点である。3次元ライトモデルによる精密位置合わせ部3Cは、点光源検出部2Aで得られた航空機の点光源群と、航空機の3次元ライトモデルを用いて位置合わせを行う。
図15は図14の精密位置合わせ部3Cによる3次元ライトモデルを用いた精密位置合わせ処理を示すフローチャートである。
図15のステップST41では、2次元ライトモデルを3次元ライトモデルから生成する。3次元ライトモデルは、3次元空間上の航空機のライト座標である。この3次元空間上のライト座標から、2次元ライトモデルを生成する。一方、航空機の機種などの情報は、航空機等の位置を測定する監視システムであるマルチラレテーションなどから入手して航空機情報メモリ7に予め格納される。精密位置合わせ部3Cはそれに合わせた3次元ライトモデルを選択する。なお、2次元ライトモデルの生成は、実施の形態2と同様の方法で求める。ステップST32以降は、実施の形態3と同様に実行される。以上の処理により、精密な位置合わせを行い、航空機の位置合わせの結果である航空機の位置情報を含む位置合わせ結果を位置推定部4に転送する。なお、位置推定部4の処理は実施の形態3と同様である。
以上説明したように、本実施の形態によれば、3次元ライトモデルを持つことにで、データ数が削減され、任意の2次元ライトモデルを生成することができるようになり、夜間におけるカメラ1を用いた目標物体の位置推定精度が向上する。また、他のレーダなどの情報との整合が容易になる。
1 カメラ、2 目標物体検出部、2A 点光源検出部、3,3A,3B,3C 精密位置合わせ部、4 位置推定部、5 空港面3Dデータメモリ、6 結果表示部、7 航空機情報メモリ、8 2次元エッジモデルメモリ、8A 3次元エッジモデルメモリ、8B 2次元ライトモデルメモリ、8C 3次元ライトモデルメモリ、m1 2次元エッジモデル、m2 エッジ画像、m3 位置合わせ後のエッジモデル、m30 2次元ライトモデル、m31 航空機がある場合の2次元エッジ、m32 夜間画像、m33 位置合わせ後のライトモデル。

Claims (5)

  1. 所定の目標物体を含む空港面を撮影して当該空港面の画像信号を出力する撮像手段と、
    上記空港面の画像信号から上記目標物体を検出する目標物体検出手段と、
    上記目標物体の輪郭データである所定のエッジモデルを用いて上記検出した目標物体を上記目標物体検出手段で検出した上記目標物体の領域内において位置合わせを行って、位置合わせ結果の画像信号を出力する位置合わせ手段と、
    上記位置合わせ結果の画像信号に基づいて、上記目標物体の上記撮像手段で撮影された画像上の上記空港面との接地点の座標を推定し、上記接地点の座標を地図上の位置座標へ座標変換することで、上記目標物体の上記地図上の位置座標を算出する位置推定手段とを備え
    上記目標物体検出手段は、上記目標物体の背景差分による検出結果と、上記目標物体の追跡による追跡結果とを統合するときに、上記背景差分による検出枠と上記追跡による検出枠の重なりを判定し、重なっていると判定したとき、上記背景差分による検出枠の面積と、上記追跡による検出枠の面積と、上記背景差分による検出枠と上記追跡による検出枠との重なりの面積とに基づいて、所定の重なり率を計算し、上記重なり率に基づいて、上記背景差分による検出結果と上記追跡による検出結果とを統合する統合処理を行うことを特徴とする空港監視装置。
  2. 上記目標物体検出手段は、
    (A)上記統合処理で用いる所定の統合枠が1つの場合、上記背景差分による検出枠と、上記追跡による検出枠の幅を比べ、上記追跡による検出枠の幅が大きい場合は、上記追跡による検出枠の幅を採用し、
    (B)上記統合枠が2つ以上の場合、すべての統合枠を内包する統合枠を算出することで、上記統合処理を行うことを特徴とする請求項1記載の空港監視装置。
  3. 上記検出した目標物体の検出結果及び上記推定された目標物体の位置を表示する表示手段をさらに備えることを特徴とする請求項1又は2に記載の空港監視装置。
  4. 上記エッジモデルは、2次元画像上の目標物体の輪郭データである2次元エッジモデルであることを特徴とする請求項1〜3のうちのいずれか1つに記載の空港監視装置
  5. 上記エッジモデルは、3次元画像上の目標物体の輪郭データである3次元エッジモデルであることを特徴とする請求項1〜3のうちのいずれか1つに記載の空港監視装置。
JP2015012131A 2015-01-26 2015-01-26 空港監視装置 Active JP6593995B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015012131A JP6593995B2 (ja) 2015-01-26 2015-01-26 空港監視装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015012131A JP6593995B2 (ja) 2015-01-26 2015-01-26 空港監視装置

Publications (3)

Publication Number Publication Date
JP2016139172A JP2016139172A (ja) 2016-08-04
JP2016139172A5 JP2016139172A5 (ja) 2018-02-22
JP6593995B2 true JP6593995B2 (ja) 2019-10-23

Family

ID=56559193

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015012131A Active JP6593995B2 (ja) 2015-01-26 2015-01-26 空港監視装置

Country Status (1)

Country Link
JP (1) JP6593995B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6934386B2 (ja) * 2017-10-03 2021-09-15 日本放送協会 動体追尾装置及びそのプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0966900A (ja) * 1995-09-01 1997-03-11 Hitachi Ltd 飛行状態監視方法とその装置
JP3226812B2 (ja) * 1996-12-12 2001-11-05 独立行政法人電子航法研究所 空港面監視装置
JP3547946B2 (ja) * 1997-08-05 2004-07-28 三菱電機株式会社 エプロン監視装置
JP2004094518A (ja) * 2002-08-30 2004-03-25 Oki Electric Ind Co Ltd 人物追跡装置、人物追跡方法及びプログラム
JP2005055184A (ja) * 2003-08-01 2005-03-03 Toshiba Corp 地上走行管制表示システムおよび地上走行管制表示方法
JP5773944B2 (ja) * 2012-05-22 2015-09-02 株式会社ソニー・コンピュータエンタテインメント 情報処理装置および情報処理方法

Also Published As

Publication number Publication date
JP2016139172A (ja) 2016-08-04

Similar Documents

Publication Publication Date Title
TWI695181B (zh) 用於產生彩色點雲的方法和系統
JP6760114B2 (ja) 情報処理装置、データ管理装置、データ管理システム、方法、及びプログラム
CN111830953B (zh) 车辆自定位方法、装置及***
JP5588812B2 (ja) 画像処理装置及びそれを用いた撮像装置
JP4406381B2 (ja) 障害物検出装置及び方法
KR102054455B1 (ko) 이종 센서 간의 캘리브레이션 장치 및 방법
CN107305632B (zh) 基于单目计算机视觉技术的目标对象距离测量方法与***
Chien et al. Visual odometry driven online calibration for monocular lidar-camera systems
CN111164648B (zh) 移动体的位置推断装置及位置推断方法
WO2020140164A1 (en) Systems and methods for updating a high-definition map
JP6552448B2 (ja) 車両位置検出装置、車両位置検出方法及び車両位置検出用コンピュータプログラム
CN111623773B (zh) 一种基于鱼眼视觉和惯性测量的目标定位方法及装置
US20140286537A1 (en) Measurement device, measurement method, and computer program product
JP6410231B2 (ja) 位置合わせ装置、位置合わせ方法及び位置合わせ用コンピュータプログラム
EP3051255B1 (en) Survey data processing device, survey data processing method, and program therefor
JP2021081272A (ja) 位置推定装置および位置推定用コンピュータプログラム
WO2020113425A1 (en) Systems and methods for constructing high-definition map
US20200132471A1 (en) Position Estimating Device
KR102195040B1 (ko) 이동식 도면화 시스템 및 모노카메라를 이용한 도로 표지 정보 수집 방법
KR20160125803A (ko) 영역 추출 장치, 물체 탐지 장치 및 영역 추출 방법
CN105021573A (zh) 用于基于跟踪的视距估计的方法和设备
JP6593995B2 (ja) 空港監視装置
JP6886136B2 (ja) 位置合わせ装置、位置合わせ方法及び位置合わせ用コンピュータプログラム
JP2018116147A (ja) 地図作成装置、地図作成方法及び地図作成用コンピュータプログラム
CN114518106A (zh) 高精度地图垂向要素更新检测方法、***、介质及设备

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180110

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180110

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190312

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190827

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190924

R150 Certificate of patent or registration of utility model

Ref document number: 6593995

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250