JP2019185787A - 地理的地域内のコンテナのリモート決定 - Google Patents

地理的地域内のコンテナのリモート決定 Download PDF

Info

Publication number
JP2019185787A
JP2019185787A JP2019076582A JP2019076582A JP2019185787A JP 2019185787 A JP2019185787 A JP 2019185787A JP 2019076582 A JP2019076582 A JP 2019076582A JP 2019076582 A JP2019076582 A JP 2019076582A JP 2019185787 A JP2019185787 A JP 2019185787A
Authority
JP
Japan
Prior art keywords
image
interest
machine learning
feature
learning model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019076582A
Other languages
English (en)
Inventor
ウィギン クラフト アダム
Wiggen Kraft Adam
ウィギン クラフト アダム
アレクサンドロヴィッチ バベンコ ボリス
Aleksandrovich Babenko Boris
アレクサンドロヴィッチ バベンコ ボリス
ボグダノフ アブタンスキ アレクサンダー
Bogdanov Avtanski Alexander
ボグダノフ アブタンスキ アレクサンダー
マイケル サモンズ ダニエル
Michael Sammons Daniel
マイケル サモンズ ダニエル
リン ジャスパー
Lin Jasper
リン ジャスパー
ディー.ローン ジェイソン
D Lohn Jason
ディー.ローン ジェイソン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Orbital Insight Inc
Original Assignee
Orbital Insight Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US15/952,112 external-priority patent/US10217236B2/en
Application filed by Orbital Insight Inc filed Critical Orbital Insight Inc
Publication of JP2019185787A publication Critical patent/JP2019185787A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/176Urban or other man-made structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
    • G06V10/993Evaluation of the quality of the acquired pattern

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)

Abstract

【課題】空中撮像装置からの画像を処理するための方法およびシステムを提供すること。【解決手段】方法は、第1の解像度を有する地理的領域の第1の画像を受信するステップを含む。方法は、関心オブジェクトを含む関心領域を識別するために、第1の画像を機械学習モデルに送信する。方法は、第1の解像度よりも高い第2の解像度を有する地理的領域の第2の画像を受信する。方法は、関心領域が関心オブジェクトを含む尤度を決定するために、第2の画像を機械学習モデルに送信する。方法は、尤度が閾値を下回る場合、第1の解像度を有する画像内の関心領域に対応する特徴を除去するように、機械学習モデルをトレーニングする。方法は、尤度が閾値を超える場合、関心オブジェクトの視覚的表現をユーザ装置に送信する。【選択図】 図1

Description

本開示は、一般に、低解像度画像の画像処理に関し、詳細には、空中撮像装置によって捕獲された低解像度画像を使用して、地理的領域内のリモートオブジェクトを識別することに関する。
関連出願の相互参照
本出願は、その全体が参照によって組み込まれる、2016年4月8日に出願された米国特許仮出願第62/320387号明細書の利益を主張する、2017年3月27日に出願された同時係属中の米国特許出願第15/470543号明細書の一部継続出願である。
いくつかの応用例は、画像内のオブジェクト、例えば、衛星によって捕獲(capture)された空中画像内の様々なオブジェクトを識別するために、空中画像を解析する。高解像度画像の解析は、相対的に簡単な技法を使用して実行されることができる。高解像度空中画像の獲得は、一般に、大きい高価な衛星の使用および結果を必要とする。これらの衛星は、一般に、大量のリソースを必要とする。例えば、そのような衛星は、高空間解像度カメラ、高価なトランスポンダ、および高度なコンピュータなど、高性能で高価な機器を搭載している。高価な撮像衛星と関連付けられたコストに寄与する他の要因は、打ち上げコストおよび保守である。高価な高空間解像度撮像衛星は、地上施設から監視されなければならず、それは、高価な人的資源を必要とする。これらの衛星は、損傷またはコストのかかる故障時間を招きやすくもある高価な撮像衛星の高い打ち上げコストおよび開発コストは、オブジェクト検出のための新しいまたはアップグレードされた衛星画像および通信サービスの導入において遅滞をもたらす。
画像を捕獲するために、より安価な低空間解像度撮像衛星が使用されてよい。
しかしながら、そのような衛星は、不鮮明な画像を提供する。低解像度画像においては、コンテナまたはタンクなどのオブジェクトは、一般に、鮮明に識別可能ではなく、しばしば、少数の隣接ピクセルを含むブロブとして現れる。赤外バンド画像などの他の例においては、画像は、人間にまったく見えないことがある。
開示される実施形態は、詳細な説明、添付の特許請求の範囲、および添付の図(または図面)からより容易に明らかな利点および特徴を有する。図についての簡潔な導入は、以下の通りである。
実施形態に従った、リモートコンテナ解析システムが動作する例示的なシステム環境のブロック図である。 実施形態に従った、リモートコンテナ解析システムのための例示的なシステムアーキテクチャのブロック図である。 実施形態に従った、リモートコンテナ解析システムのための例示的なポジティブトレーニングセットを示す図である。 実施形態に従った、リモートコンテナ解析システムのための例示的なネガティブトレーニングセットを示す図である。 実施形態に従った、雲被覆検出のための例示的なポジティブトレーニングセットを示す図である。 実施形態に従った、雲被覆検出のための例示的なネガティブトレーニングセットを示す図である。 実施形態に従った、リモートコンテナ解析システム内の機械学習モデルをトレーニングするための例示的なプロセスを示す図である。 実施形態に従った、雲被覆検出を実行するように機械学習モデルをトレーニングするための例示的な適合率対再現率曲線を示す図である。 実施形態に従った、リモートオブジェクトを識別するためのリモートコンテナ解析システムについての例示的なプロセスを示す図である。 実施形態に従った、リモートオブジェクトの満たされた容積を決定するためのリモートコンテナ解析システムについての例示的なプロセスを示す図である。 実施形態に従った、雲被覆検出のための、およびリモートオブジェクトの満たされた容積を決定するための例示的なプロセスを示す図である。 実施形態に従った、理想化された画像の例示的な合成を示す図である。 実施形態に従った、例示的な円射影方程式のセットを示す図である。 実施形態に従った、例示的な理想化された画像のセットを示す図である。 実施形態に従った、コンテナの例示的な受信された画像を示す図である。 実施形態に従った、受信された画像のための例示的な画像勾配を示す図である。 実施形態に従った、理想化された画像内のコンテナの上縁の例示的な輪郭を示す図である。 実施形態に従った、理想化された画像内のコンテナの内表面上の影の例示的な輪郭を示す図である。 マシン可読媒体から命令を読み、それらをプロセッサまたはコントローラにおいて実行することができる例示的なマシンのコンポーネントを示すブロック図である。
図および以下の説明は、もっぱら例示として、好ましい実施形態に関連する。以下の説明から本明細書において開示される構造および方法の代替的実施形態は、特許請求されるものの原理から逸脱することなく、利用されてよい実行可能な代案として容易に認識されることが留意されるべきである。
その例が添付の図において示されるいくつかの実施形態に対する言及が、今から詳細に行われる。実施可能である場合は常に、類似または同様の参照番号が、図中で使用されてよく、類似または同様の機能性を示してよいことが留意される。図は、もっぱら例示の目的で、開示されるシステム(または方法)の実施形態を示す。当業者は、本明細書において示される構造および方法の代替的実施形態が、本明細書において説明される原理から逸脱することなく利用されてよいことを以下の説明から容易に認識する。
構成概要
例示的な実施形態によって、広大な地理的地域(例えば、国)にわたって、浮き屋根構造を有する円筒形のコンテナまたはタンクなどのリモートオブジェクトを識別し、リモートオブジェクトの満たされた容積を決定するための、システム、方法、および/またはコンピュータプログラム製品(例えば、1つもしくは複数の処理ユニットによって実行可能な命令を記憶する非一時的コンピュータ可読記憶媒体)が開示される。
例示的な一実施形態においては、リモートコンテナ解析システムは、衛星、ドローン、または他の構成された空中撮像システムなどの空中撮像装置から、地理的領域の画像を受信する。画像は、低解像度を有してよく、例えば、パンクロマティックバンドにおけるピクセル当たり15メートル(m)のランドサット画像である。システムは、浮き屋根構造を有する円筒形のコンテナまたはタンクなど、画像内の関心オブジェクトを含む関心領域を識別するために、画像を機械学習モデルに送信する。そのようなタンクは、一般に、クラスタまたは「タンクファーム」において見出される。システムは、地理的領域の第2の画像を受信する。第2の画像は、第1の画像よりも高い解像度、例えば、ピクセル当たり50cmを有する。システムは、関心領域が関心オブジェクトを含む尤度を決定するために、第2の画像を機械学習モデルに送信してよい。関心領域が関心オブジェクトを含まないなど(フォールスポジティブ)、尤度が閾値を下回る場合、機械学習モデルは、第1の解像度を有する画像内の関心領域に対応する特徴を除去し、尤度が閾値を超える場合、関心オブジェクトを識別する視覚的表現が、ユーザ装置に送信される。
別の例示的な実施形態においては、システムは、関心オブジェクトの画像を受信してよい。システムは、画像からパラメータベクトルを抽出する。パラメータベクトルは、空中撮像装置の仰角を記述するパラメータを含んでよい。システムは、関心オブジェクトの高さおよび幅を決定するために、画像に対して画像解析を実行する。システムは、抽出されたパラメータベクトル、ならびに関心オブジェクトの決定された高さおよび幅を使用して、関心オブジェクトの理想化された画像テンプレートを生成する。各理想化された画像は、30%、70%など、関心オブジェクトの異なる満たされた容積に対応する。システムは、受信された画像のピクセルと理想化された画像のピクセルとの間のドット積を実行することによって、関心オブジェクトの満たされた容積を決定するために、関心オブジェクトの受信された画像を各理想化された画像と照合する。システムは、関心オブジェクトの決定された満たされた容積に対応する情報を、ユーザ装置に送信する。
別の例示的な実施形態においては、システムは、機械学習モデルによって、関心オブジェクトの画像を使用して、関心オブジェクトの画像内に存在する雲被覆の量を検出してよい。機械学習モデルは、雲被覆に対応する特徴を、背景特徴および関心オブジェクトに対応する特徴から区別するように構成される。関心オブジェクトの画像内に存在する雲被覆の量が、雲検出閾値よりも少ないことに応答して、システムは、空中撮像装置の少なくとも方位角を記述するパラメータを、関心オブジェクトの画像から抽出する。パラメータから、関心オブジェクトの理想化された画像が生成される。各理想化された画像は、関心オブジェクトの異なる満たされた容積に対応する。関心オブジェクトの画像は、関心オブジェクトの満たされた容積を決定するために、各理想化された画像と照合される。関心オブジェクトの決定された満たされた容積に対応する情報は、ユーザ装置に送信される。
例示的なシステム環境
ここで図1を参照すると、それは、実施形態に従った、リモートコンテナ解析システム101が動作する例示的なシステム環境のブロック図を示している。図1に示される例示的なシステム環境は、空中撮像装置110と、リモートコンテナ解析システム101と、ユーザ装置120とを含んでよい。
図1に示される空中撮像装置110は、低解像度画像を捕獲することが可能な、衛星、ドローン、または他の構成された空中撮像システムであってよい。画像は、同じスペクトルバンドまたは異なるスペクトルバンドに対応してよく、スペクトルバンドは、光の波長の範囲に対応する。例示的なスペクトルバンドは、赤色スペクトルバンド、緑色スペクトルバンド、青色スペクトルバンド、赤外スペクトルバンド、およびパンクロマティックスペクトルバンドを含む。低解像度画像は、高解像度画像(例えば、ピクセル当たり50cm)よりも著しく低い(例えば、ピクセル当たり15m)解像度を有する。
リモートコンテナ解析システム101は、画像記憶102と、任意選択の特徴抽出モジュール104と、機械学習モデル106と、コンテナ解析モジュール107と、パラメータ抽出モジュール105と、テンプレート生成モジュール103とを含んでよい。図1に示される画像記憶102は、図2を参照して以下で示され、説明されるように、空中撮像装置110から受信された画像を記憶してよい。特徴抽出モジュール104は、空中撮像装置110から受信された画像から、任意選択で特徴ベクトルを抽出してよい。例えば、特徴ベクトルは、図4Aを参照して以下で示され、説明されるように、画像内のピクセルのピクセル属性に基づいた集合的な値を含んでよい。リモートコンテナ解析システム101は、図5を参照して以下で示され、説明されるように、画像内の関心オブジェクトを識別するために、または図6Bを参照して以下で示され、説明されるように、雲被覆検出を実行するために、任意選択で特徴ベクトルを機械学習モデル106に送信する。コンテナ解析モジュール107は、画像内の識別された関心オブジェクトに関連するパターン、例えば、画像の捕獲時刻、画像数、画像の満たされた容積を解析してよい。
パラメータ抽出モジュール105は、パラメータ、例えば、空中撮像装置110の方位角を記述するパラメータ、太陽の仰角を記述するパラメータ、および太陽の方位角を記述するパラメータを、画像から抽出する。パラメータは、図9を参照して以下で示され、説明されるように、抽出されたパラメータを使用して、関心オブジェクトの理想化された画像テンプレートを生成するために、テンプレート生成モジュール103によって使用される。各理想化された画像は、関心オブジェクトの異なる満たされた容積、例えば、35%に対応する。
リモートコンテナ解析システム101は、図1に示されるユーザ装置120と対話してよい。ユーザ装置120は、ユーザ入力を受信し、ならびにネットワークを介してデータを送信および/または受信することが可能なコンピューティング装置であってよい。例示的な一実施形態においては、ユーザ装置120は、デスクトップまたはラップトップコンピュータなどの、従来のコンピュータシステムであってよい。あるいは、ユーザ装置120は、パーソナルデジタルアシスタント(PDA)、モバイル電話、スマートフォン、タブレット、または別の適切な装置など、コンピュータ機能性を有する装置であってよい。リモートコンテナ解析システム101は、関心オブジェクトの視覚的表現をユーザ装置120に送信してよく、または関心オブジェクトの視覚的表現を、例えば、グラフィカルアイコン、グラフィカルオーバレイ、および他の視覚的インジケータを通して、ユーザインターフェースに出力してよい。
例示的なシステムアーキテクチャ
ここで図2を参照すると、それは、実施形態に従った、リモートコンテナ解析システム101のための例示的なシステムアーキテクチャのブロック図を示している。図2に示されるシステムアーキテクチャは、外部システムインターフェース201と、画像記憶102と、パラメータ抽出モジュール105と、テンプレート生成モジュール103と、任意選択の特徴抽出モジュール104と、任意選択の特徴記憶202と、機械学習モデル106と、機械学習トレーニングエンジン203と、画像解析モジュール204と、テンプレート照合モジュール205と、コンテナ解析モジュール107と、コンテナパターン記憶206とを含んでよい。
図2に示される外部システムインターフェース201は、画像を表すデータパケットを空中撮像装置110から受信する、専用ハードウェアまたはソフトウェアネットワーキング装置であってよい。外部システムインターフェース201は、関心オブジェクトの視覚的表現を表すデータパケット、または関心オブジェクトの決定された満たされた容積に対応する情報を、リモートコンテナ解析システム101から、ネットワークを介して、ユーザ装置120に転送してよい。一例においては、外部システムインターフェース201は、インターネットバックボーンの光ファイバ回線に沿って、データパケットを高速で転送する。別の例においては、外部システムインターフェース201は、ボーダゲートウェイプロトコル(BGP)を使用して、ルーティング情報を交換し、エッジルータ、ボーダルータ、またはコアルータであってよい。
図2に示される画像記憶102は、空中撮像装置110から受信された画像を記憶してよい。広大な領域にわたるスキャニングを実用的かつ効率的にするために、システムの第1のフェーズ用に、低解像度画像が使用される。そのような画像の例は、(パンクロマティックバンドにおける)15m/ピクセルのランドサット画像である。システムの第1のフェーズは、より低い適合率という代償を払って、高い再現率を有するように設計される。第2のフェーズにおいては、図4Aを参照して以下で説明されるように、機械学習モデル106をトレーニングして、フォールスアラームを除去するために、より高解像度の画像、例えば、50cm/ピクセルが使用されてよい。パラメータ抽出モジュール105、任意選択の特徴抽出モジュール104、および画像解析モジュール204は、画像記憶102によって記憶された画像を、処理のために取り出してよい。画像記憶102は、リムーバブルまたは非リムーバブルのメモリカード、テープカセット、zipカセット、およびコンピュータハードドライブのうちの1つまたは複数の上に記憶される、画像のデータベースまたはテーブルとして編成されてよい。一実施形態においては、画像記憶102は、多数のデータフィールドを含んでよく、各々は、画像の1つまたは複数の属性を記述する。一例においては、画像記憶102は、単一の画像についての、捕獲時刻、スペクトルバンド情報、地理的領域座標などを含む。
任意選択の特徴抽出モジュール104は、画像記憶102内の画像から、特徴ベクトルを抽出してよい。特徴ベクトルは、画像内のピクセルのピクセル属性に基づいた集合的な値を含んでよい。実施形態においては、特徴抽出モジュール104は、任意選択で、ピクセルクラスタリングを使用して、隣接ピクセルのクラスタを識別してよい。識別されたクラスタ内において、隣接ピクセルは、ピクセル属性に基づいて互いに一致してよい。例えば、グレースケール画像については、ピクセル属性は、ピクセルの明度を表す単一の数であってよい。この例においては、0ないし255の可能な値の範囲を与えた場合、ピクセル属性は、8ビット整数として記憶されるバイトである。0は黒を表し、255は白を表す。0と255の間の値は、グレーの異なる陰影を作り上げる。カラー画像の別の例においては、各ピクセルに対して、別々の赤色、緑色、および青色成分が指定される。この例においては、ピクセル属性は、3つの数からなるベクトルである。
図2に示される任意選択の特徴抽出モジュール104は、画像記憶102からの画像において、画像内の各ピクセルをピクセルの属性を有する領域として初期化することによって、ピクセルクラスタを識別してよい。特徴抽出モジュール104は、最も類似した属性値を有する2つの隣接領域を識別する。これら2つの領域は、合併されて、2つの領域のすべてのピクセルを含み、2つの領域の属性値の平均としての属性値を有する、新しい領域を形成する。特徴抽出モジュール104は、類似した領域が残っていないようになるまで、プロセスを繰り返す。
図2に示される特徴抽出モジュール104の他の実施形態は、以下のうちの、すなわち、(a)候補特徴として使用する画像内の縁(edge)またはコーナを見つける、ハリスコーナまたはキャニーエッジなどの、エッジ/コーナ検出方法、(b)エッジ強度情報を抽出する、画像勾配、(c)特定の形状を識別する、オリエンテッドフィルタ、(d)局所的または大域的閾値を使用して特徴を抽出する、閾値化方法、(e)与えられた画像パッチにおいて向きおよびエッジ記述特徴を算出する、スケール不変特徴変換(SIFT)、高速化されたロバストな特徴(SURF)、加速化されたセグメントテストからの特徴(FAST)、2値のロバストな独立した基本特徴(BRIEF)、高速網膜キーポイント(FREAK)、および方向付けられた勾配のヒストグラム(HOG)などの、画像パッチディスクリプタのうちの1つまたは組み合わせを使用してよい。
図2に示される特徴抽出モジュール104は、関心オブジェクトに対応する画像内のピクセルを識別するために、受信された画像内においてエッジ解析を実行してよい。特徴抽出モジュール104は、画像内の各ピクセルロケーション(i,j)に関して演算を行ってよい。ここで、iは、画像内のピクセルロケーションの行の値を表し、jは、画像内のピクセルの列の値を表す。例示的な一実施形態においては、Sは、画像を表し、Mは、対応するオブジェクトマップ画像出力を表す。関数M(i,j)は、画像S内のロケーション(i,j)がオブジェクトピクセルに対応するときは常に1であり、それ以外のときは0であるように定義される。特徴抽出モジュール104は、ピクセル属性が鋭く変化する画像内のポイントを識別してよい。ピクセル属性が鋭く変化するポイントは、エッジと呼ばれる曲がった線分のセットに編成されてよい。特徴抽出モジュール104は、エッジのペアを識別するために、エッジ解析プロセスにおいて3つのステップを、すなわち、フィルタリング、強化、および検出を実行してよい。フィルタリングステップは、画像内におけるノイズ、例えば、ごま塩ノイズ、インパルスノイズ、およびガウスノイズを低減させる。強化は、ピクセル属性値の著しい変化が存在するロケーション(i,j)におけるピクセルを際立たせる。一例においては、特徴抽出モジュール104は、様々なピクセルロケーション(i,j)における画像の勾配の大きさを計算することによって、強化を実行する。検出は、エッジピクセルを検出するために、閾値よりも高い勾配値を有するピクセルロケーション(i,j)を探す。
代替的実施形態においては、図2に示される特徴抽出モジュール104は、関心オブジェクトが予想される関心領域を含む確率的ヒートマップまたはブロック化画像を生成するために、画像を解析してよい。特徴抽出モジュール104は、幾何学的情報(例えば、点、線、および多角形)を含む、他のマッピングソースを組み込むようにさらに構成されてよい。特徴抽出モジュール104は、幾何学的情報を使用して、確率的ヒートマップを直接的に生成してよく、または例えば、線発見アルゴリズムもしくはランダムフォレ記憶ルゴリズムのような他の画像処理操作とともに、もしくは特徴抽出を必要としない、サポートベクトルマシン(SVM)、ニューラルネットワーク、もしくは畳み込みニューラルネットワーク(CNN)などの機械学習方法を使用して、確率的ヒートマップを生成してよい。
図2を再び参照すると、特徴抽出モジュール104は、画像を特徴の縮小セット(特徴ベクトル)に変換するために、画像内の冗長性、例えば、反復するピクセル値を低減させる。特徴ベクトルは、完全な初期画像の代わりに、この縮小された表現を使用することによって、関心オブジェクトが機械学習モデル106によって識別されることができるように、画像からの関連情報を含む。特徴抽出モジュール104によって抽出される例示的な特徴は、図4Aにおいて示され、説明される。いくつかの例示的な実施形態においては、以下の次元縮小技法が、すなわち、独立成分分析、アイソマップ、カーネルPCA、潜在的意味解析、部分最小2乗法、主成分分析、多因子次元縮小、非線形次元縮小、多重線形主成分分析、多重線形部分空間学習、半定値埋め込み、オートエンコーダ、および深層特徴合成が、特徴抽出モジュール104によって使用されてよい。
代替的実施形態においては、機械学習トレーニングエンジン203は、データ表現を学習するために、タスク固有のアルゴリズムを使用するのとは対照的に、(深層構造化学習または階層的学習としても知られる)深層学習を実行してよい。深層学習においては、明示的な特徴抽出は、実行されず、特徴は、機械学習トレーニングエンジン203によって暗黙的に抽出されてよい。例えば、機械学習トレーニングエンジン203および機械学習モデル106は、暗黙的な特徴抽出および変換のために、非線形処理ユニットの多数のレイヤからなるカスケードを使用してよい。連続する各レイヤは、先行レイヤからの出力を入力として使用する。したがって、機械学習モデル106は、教師ありモード(例えば、分類)および/または教師なしモード(例えば、パターン解析)で学習してよい。機械学習モデル106は、抽象化の異なるレベルに対応する多数のレベルの表現を学習してよく、異なるレベルは、概念の階層を形成する。この方式においては、機械学習モデル106は、画像内の雲被覆に対応する特徴を、背景特徴および関心オブジェクトに対応する特徴から区別するように構成されてよい。
図2に示される特徴記憶202は、受信された画像から特徴抽出モジュール104によって抽出された特徴を記憶する。リモートコンテナ解析システム101は、機械学習モデル106のトレーニングのために、記憶された特徴を取り出す。特徴記憶202は、リムーバブルまたは非リムーバブルのメモリカード、テープカセット、zipカセット、およびコンピュータハードドライブのうちの1つまたは複数の上に記憶される、画像のデータベースまたはテーブルとして編成されてよい。
リモートコンテナ解析システム101は、トレーニングセットおよび特徴記憶202からのデータを使用して、機械学習モデル106をトレーニングしてよい。例示的な一実施形態においては、機械学習モデル106は、図3Aおよび図3Bを参照して以下で示され、説明されるように、関心オブジェクトに対応するラベル付けされたピクセルのクラスタを含む、トレーニングセットを受け取ってよい。図2に示される機械学習トレーニングエンジン203は、ピクセルのクラスタについてのスコアを決定するために、トレーニングセットを使用して、機械学習モデル106をトレーニングしてよい。スコアは、特徴ベクトルに基づいた、クラスタが関心オブジェクトに対応する尤度を示す。機械学習トレーニングエンジン203によって従われるプロセスは、図4Aに示されている。リモートコンテナ解析システム101は、スコアが閾値を超えるかどうかに基づいて、クラスタを選択してよく、クラスタを関心オブジェクトと関連付ける。
例示的な代替的実施形態においては、(畳み込みニューラルネットワークの形態の)図2に示される機械学習モデル106は、特徴抽出の必要なしに、画像から直接的に出力を生成してよい。CNNは、それのニューロン間の接続性パターンが視覚野の機構から着想された、フィードフォワード人工ニューラルネットワークの種類である。個々の皮質ニューロンは、受容野として知られる空間の制限された領域における刺激に応答する。異なるニューロンの受容野は、それらが視野を隙間なく埋めるように、部分的に重なり合う。受容野内における刺激に対する個々のニューロンの応答は、畳み込み演算によって数学的に近似されることができる。CNNは、生理学的過程に基づいており、最小量の前処理を使用するように設計された多層パーセプトロンの変形である。CNNの利点は、特徴抽出の除去と、層内の各ピクセルに対して同じフィルタ(重みバンク)が使用されることを意味する、畳み込み層における共用重みの使用とを含み、これらはともに、メモリフットプリントを低減させ、性能を向上させる。
機械学習モデル106は、畳み込み層および最大プーリング層の両方から成る、CNNであってよい。機械学習モデル106のアーキテクチャは、「完全な畳み込み」であってよく、それは、可変サイズの入力画像がそれに供給されることができることを意味する。機械学習モデル106への入力は、パンクロマティックランドサット画像であってよく、機械学習モデル106の出力は、ピクセル毎の確率マップであってよい(すなわち、入力画像内の各ピクセルについて、機械学習モデル106は、そのピクセルの周囲の小区画について検討し、そのピクセルがタンクファームの一部である確率を返す)。機械学習モデル106の最後以外のすべての畳み込み層には、インプレース正規化線形ユニット活性化が後続してよい。すべての畳み込み層について、機械学習モデル106は、その層の入力に適用される、カーネルサイズ、畳み込みのストライド、およびゼロパディングの量を指定してよい。プーリング層について、モデル106は、カーネルサイズ、およびプーリングのストライドを指定してよい。
(CNNの形態の)機械学習モデル106の出力は、任意選択でピクセルクラスタを含んでよく、各ピクセルクラスタは、画像のうちの異なる画像内の1つまたは複数の隣接ピクセルを含み、隣接ピクセルは、ピクセル属性に基づいて互いに一致する。出力は、ピクセルクラスタが関心オブジェクトに対応する尤度を示すスコアを含んでよい。出力は、関心オブジェクトに対応する1つまたは複数のピクセルロケーションを含んでよい。出力は、各関心オブジェクト内のピクセルの数を含んでよい。出力は、ピクセルクラスタと関心オブジェクトとの間の関連付けを含んでよい。
図2に示されるパラメータ抽出モジュール105は、空中撮像装置110から受信された画像のメタデータからパラメータベクトルを抽出してよい。パラメータベクトルは、空中撮像装置110の仰角を記述する例示的なパラメータを含んでよい。衛星の仰角とは、衛星に向かってまっすぐ延びる直線と、局所的水平面との間の角度のことである。パラメータは、受信された画像の捕獲時刻を記述してよい。パラメータは、空中撮像装置110の方位角を記述してよい。方位角は、球面座標系における角度測定値であり、それは、衛星に向かってまっすぐ延びる直線と、基準平面上において北を指し示す基準ベクトルとの間の角度のことである。
パラメータ抽出モジュール105によって抽出されるパラメータは、太陽の仰角を記述してよい。太陽の仰角とは、太陽に向かってまっすぐ延びる直線と、局所的水平面との間の角度のことである。パラメータは、太陽の方位角を記述してよい。太陽の方位角とは、太陽に向かってまっすぐ延びる直線と、基準平面上において北を指し示す基準ベクトルとの間の角度のことである。パラメータは、画像内の関心オブジェクトの底面の中心の地理的ロケーションを記述してよい。リモートコンテナ解析システム101は、いくつかのパラメータは不正確なことがあるという仮定の下で動作する。具体的には、システムは、オブジェクトのロケーションおよび衛星の角度は正確でないことがあるが、本明細書において説明されるように処理されてよいことを仮定する。
画像解析モジュール204は、画像を画像記憶102から取り出す。画像解析モジュール204は、画像内の関心オブジェクトの高さおよび幅を決定するために、画像に対して画像解析を実行してよい。例えば、画像解析モジュール204は、関心オブジェクトの画像のピクセル解像度rを受け取ってよい。画像解析モジュール204は、関心オブジェクトの高さと関連付けられたピクセルの数hを決定してよい。画像解析モジュール204は、ピクセル解像度rと、関心オブジェクトの高さと関連付けられたピクセルの数hとに基づいて、関心オブジェクトの高さを、高さ=r×hのように決定してよい。画像解析モジュール204は、関心オブジェクトの幅と関連付けられたピクセルの数wを決定してよい。画像解析モジュール204は、ピクセル解像度rと、関心オブジェクトの幅と関連付けられたピクセルの数wとに基づいて、関心オブジェクトの幅を、幅=r×wのように決定してよい。
画像解析モジュール204は、受信された画像の中心に関心オブジェクトの中心を位置付けるために、受信された画像の縁を切り落としてよい。実施形態においては、画像解析モジュール204は、フレーミングを改善するため、関心オブジェクトを目立たせるため、またはアスペクト比を変更するために、画像の外側部分を自動的に除去してよい。画像解析モジュール204は、関心オブジェクトの影および内表面に対応するピクセルを負の値、例えば、−1になるように設定し、関心オブジェクトの屋根に対応するピクセルを正の値、例えば、+1になるように設定することによって、関心オブジェクトの受信された画像をリスケールしてよい。
図2に示されるテンプレート生成モジュール103は、パラメータ抽出モジュール105によって抽出されたパラメータベクトルを使用し、関心オブジェクトの幾何形状についての三角投影に基づいて、異なる満たされた容積のパーセンテージ、例えば、10%、30%などのための、理想化された画像テンプレートを合成する。テンプレートのセットは、満たされた容積のパーセンテージを変えることによって生成される。図9は、異なる満たされた容積のパーセンテージに対応する、円筒形タンクコンテナについての理想化された画像900を示している。テンプレート生成モジュール103は、抽出されたパラメータベクトル、関心オブジェクト決定された高さ、および決定された幅を使用して、関心オブジェクトの理想化された画像を生成する。衛星の視野角(仰角および方位角)の不正確さを許容するために、テンプレート生成モジュール103は、特徴抽出モジュール104によって抽出された角度値の周りの角度値の範囲にわたってスイープを実行してよい。
正確なロケーションにおけるある程度の誤差は合成プロセスによって許容されるが、テンプレート生成モジュール103は、受信された画像が関心オブジェクトを中央に有することを仮定する。テンプレート生成モジュール103は、オブジェクトが、それの屋根を含めて、明るい色であることも仮定する。それは、オブジェクトの屋根およびそれの上縁によって投げられる影、ならびにオブジェクトの内壁が、暗い色であることを仮定する。理想化された画像テンプレートは、図7を参照して以下で示され、説明されるように、円の位置から構成される。円は、関心オブジェクトの上縁、関心オブジェクトの底面、関心オブジェクトの内表面上の影の弧、および関心オブジェクトの屋根に対応する。図8に示される実施形態においては、理想化された画像は、関心オブジェクトの上縁、関心オブジェクトの内表面上の影の弧、および関心オブジェクトの屋根に対応する円の位置だけから構成されてよい。テンプレート生成モジュール103は、オブジェクトの高さおよび幅、所望の浮き屋根の高さ、衛星についての2つの角度、ならびに太陽についての2つの角度を使用する。その情報、および図8に示される三角方程式を使用して、テンプレート生成モジュール103は、円が位置する場所の2D射影を生成する。テンプレート生成モジュール103は、各理想化された画像の中心に関心オブジェクトの中心を位置付けるために、各理想化された画像の縁を切り落としてもよい。
円の位置がひとたび生成されると、テンプレート生成モジュール103は、上縁に対応する円、影の弧に対応する円、および屋根に対応する円に関する畳み込みを実行することによって、オブジェクトの異なる満たされた容積についての図9に示される理想化された画像を合成する。テンプレート生成モジュール103は、図9に示される理想的オブジェクト画像についての「眼球」形状(暗い領域および影領域)を生成するために、3つの円の間の合併集合演算および共通集合演算を実行することによって、畳み込みを実行する。テンプレート生成モジュール103は、関心オブジェクトの影および内表面に対応するピクセルを−1などの負の値になるように設定し、関心オブジェクトの屋根に対応するピクセルを+1などの正の値になるように設定し、他のすべてのピクセルを0になるように設定することによって、関心オブジェクトの各理想化された画像をリスケールしてよい。
3つの円の間の合併集合演算および共通集合演算は、例えば、形態学的な画像処理を使用して、テンプレート生成モジュール103によって実行されてよい。形態学的な画像処理とは、画像内の特徴の形状または形態に関連する非線形操作のことである。形態学的な画像処理操作は、ピクセル値の相対的な順序付けにだけ依存して、それらの数値に依存せず、したがって、リスケールされた理想化された画像に適している。A∩Bと書かれる画像AおよびBの共通集合は、AおよびBの両方において1であるすべてのピクセルpにおいて1である、2値画像である。A∪Bと書かれる画像AおよびBの合併集合は、Aにおいて1、もしくはBにおいて1(または両方において1)であるすべてのピクセルvにおいて1である、2値画像である。
図2に示されるテンプレート照合モジュール205は、関心オブジェクトの満たされた容積を決定するために、関心オブジェクトの受信された画像を、テンプレート生成モジュール103によって合成された各理想化された画像と照合する。照合は、受信された画像のピクセルと理想化された画像のピクセルとの間のドット積を実行することによって実行されてよい。受信された画像および理想化された画像は、それのピクセル値が−1ないし+1の範囲にわたるように、すなわち、暗いピクセル(影、内壁など)が負であり、明るいピクセル(屋根など)が正であるように、リスケールされるので、受信された画像と理想化された画像との間のドット積の実行は、受信された画像と理想化された画像が似て見える場合、大きい正の数という結果となる。これは、受信された画像内の正のピクセルは、理想化された画像内の正のピクセルと整列し、受信された画像内の負のピクセルは、理想化された画像内の負のピクセルと整列するためである。
図2に示されるテンプレート照合モジュール205によってドット積を実行することは、受信された画像のピクセルと、理想化された画像のピクセルとを取得し、単一の数を返す、代数演算である。代数的には、ドット積は、受信された画像のピクセルと理想化された画像のピクセルの対応するピクセル値の積の総和である。例えば、2つの画像A=[a1,a2,...,an]とB=[b1,b2,...,bn]のドット積は、A・B=Σaii=a11+a22+...+annのように決定されてよく、ここで、Aは、受信された画像であり、Bは、理想化された画像テンプレートである。さらに、フォールスポジティブマッチを回避するために、画像解析モジュール204およびテンプレート照合モジュール205によって実行される畳み込みの詳細は、図10Aを参照して以下で示され、説明される。
ジオリファレンス画像における不正確さ、およびオブジェクトは予想されたロケーション内に正確に存在しないことがあるという事実を許容するために、テンプレート照合モジュール205は、オブジェクトの数々の可能なロケーションを考慮して、受信された画像上においてスイープを実行する。テンプレート照合モジュール205は、受信された画像と各テンプレートとの間の2D畳み込みを使用することによって、スイープを実行する。テンプレート照合モジュール205が、関心オブジェクトの受信された画像に対するテンプレートマッチをひとたび見つけると、それは、関心オブジェクトの満たされた容積を、マッチした理想化された画像テンプレートに対応する満たされた容積として決定する。
コンテナ解析モジュール107は、受信された画像の捕獲時刻、受信された画像内の1つまたは複数の関心オブジェクトの数、および受信された画像内の1つまたは複数関心オブジェクトの各々の決定された満たされた容積のうちの1つまたは複数を含む、関心オブジェクトパターンを解析してよい。コンテナ解析モジュール107は、解析された関心オブジェクトパターンが閾値を超えた場合、ユーザ装置120に情報を送信してよい。例えば、コンテナ解析モジュール107は、受信された画像内の関心オブジェクトの数が閾値を超えた場合、または閾値数のオブジェクトの決定された満たされた容積が閾値を超えた場合、ユーザ装置120に情報を送信してよい。
図2に示されるコンテナパターン記憶206は、コンテナ解析モジュール107から受け取ったパターンを記憶してよい。コンテナパターン記憶206は、リムーバブルまたは非リムーバブルのメモリカード、テープカセット、zipカセット、およびコンピュータハードドライブのうちの1つまたは複数の上に記憶される、画像のデータベースまたはテーブルとして編成されてよい。一実施形態においては、コンテナパターン記憶206は、多数のデータフィールドを記憶し、各々は、オブジェクトの1つまたは複数の属性を記述する。一例においては、コンテナパターン記憶206は、単一のオブジェクトについての、画像の捕獲時刻、地理的領域座標、オブジェクトの高さ、および/またはオブジェクトの幅を記憶する。
例示的な機械学習トレーニングセット
図3Aは、実施形態に従った、リモートコンテナ解析システム101のための例示的なポジティブトレーニングセット300を示している。機械学習モデル106のトレーニングの一部として、機械学習トレーニングエンジン203は、問題となっている特性(コンテナの存在)を有すると決定された特徴のポジティブトレーニングセットを識別することによって、特徴のセットおよびトレーニングラベル、例えば、コンテナ305を形成し、いくつかの実施形態においては、図3Bを参照して以下で詳細に説明されるように、問題となっている特性を欠いた特徴のネガティブトレーニングセットを形成する。例えば、各トレーニングセットは、コンテナ、例えば、コンテナ303に対応する、ラベル付けされたピクセルクラスタを含んでよい。トレーニングセットを収集するために、世界中の知られたタンクファームの周りにおいて、多角形が標識付けされてよく、ダウンロードされたランドサット8画像が、これらの多角形と交わらされてよい。ランダムにサンプリングされた画像も、ネガティブ例(すなわち、石油タンクファームを含まない画像)のセットのために収集されてよい。ひとたびトレーニングされると、機械学習モデル106が、関心地域(例えば、米国)のすべての画像に対して動作させられてよい。リモートコンテナ解析システム101の最終的な出力は、機械学習モデル106が高い出力スコアを返した関心領域(幾何学的多角形)のセットである。
図3Aに示されるポジティブトレーニングセット300は、コンテナの存在を有すると決定された特徴を含む。ポジティブトレーニングセット300は、コンテナ305、コンテナ303、およびコンテナ304に対応するラベル付けされたピクセルクラスタを含んでよい。ポジティブトレーニングセット300は、背景領域の水域301および陸地302についてのラベルも含む。例示的なトレーニングセット300は、陸地302が水域301に出会う港に対応してよい。ポジティブトレーニングセット300においては、コンテナ305は、水域とラベル付けされた領域内に存在するが、コンテナ303およびコンテナ304は、陸地とラベル付けされた領域内に存在する。
図3Bは、実施形態に従った、リモートコンテナ解析システム101のための例示的なネガティブトレーニングセット350を示している。図3Bに示されるネガティブトレーニングセット350は、コンテナの存在を欠くと決定された特徴を含む。ネガティブトレーニングセット350は、一部が水域351内に、一部が陸地352上に配置された、フォールスポジティブなピクセルのクラスタ354を含む。ネガティブトレーニングセット350は、2つの交わるピクセルのクラスタに関連する、フォールスポジティブなピクセルのクラスタ353も含む。2つのコンテナは、互いに交わることができないので、これら2つの交わるピクセルのクラスタは、フォールスポジティブであり、そのようにラベル付けされる(353)。
例示的な雲被覆検出トレーニングセット
図3Cは、例示的な実施形態に従った、雲被覆検出のための例示的なポジティブトレーニングセット370を示している。空中画像内の雲被覆は、画像内のコンテナまたは他の関心オブジェクトをよく見えなくし、または変形させ、リモートセンシング画像解釈を曖昧にし、または歪曲させることがある。したがって、従来の画像処理方法は、画像認識が実行される前に、少量でも雲被覆を有する空中画像を除去するように構成される。しかしながら、特定の画像が、ある量の雲被覆を有することがあるとしても、雲被覆が雲検出閾値よりも少なく、特定の関心領域がよく見えなくされていない限り、画像は、依然として有益であることができる。したがって、リモートコンテナ解析システム101は、コンテナ満杯度測定のための本明細書において説明されるコンピュータビジョン方法の結果を使用すべきかどうかを決定するために、空中画像内における雲の存在および非存在、ならびに雲被覆の量を決定する。
機械学習モデル106のトレーニングの一部として、機械学習トレーニングエンジン203は、問題となっている特性(雲の存在)を有すると決定された特徴のポジティブトレーニングセットを識別することによって、雲特徴(例えば、375)と、水域特徴(例えば、371)と、陸地特徴(例えば、372)のトレーニングセット、およびトレーニングラベルを形成し、いくつかの実施形態においては、図3Dを参照して以下で詳細に説明されるように、問題となっている特性を欠いた特徴のネガティブトレーニングセットを形成する。例えば、各トレーニングセットは、雲、例えば、373、374、および375に対応する、ラベル付けされたピクセルクラスタを含んでよい。トレーニングセットを収集するために、知られた雲の周りにおいて、多角形が標識付けされてよく、ダウンロードされたランドサット8画像が、これらの多角形と交わらされてよい。ランダムにサンプリングされた画像も、ネガティブ例(例えば、雲を含まない雪原に関連する特徴)のセットのために収集されてよい。ひとたびトレーニングされると、機械学習モデル106が、関心地域(例えば、欧州地域)のすべての画像に対して動作させられてよい。リモートコンテナ解析システム101の出力は、機械学習モデル106が高い出力スコアを返した関心領域(幾何学的多角形)のセットである。これは、関心オブジェクトの画像内に存在する雲被覆の量を決定するために使用される。
図3Cに示されるポジティブトレーニングセット370は、雲(例えば、375)の存在を有すると決定された特徴を含む。ポジティブトレーニングセット300は、雲373、374、および375に対応するラベル付けされたピクセルクラスタを含んでよい。ポジティブトレーニングセット370は、水域371および陸地372に対応する背景特徴についてのラベルも含む。例示的なトレーニングセット370は、陸地372が水域371に出会う港に対応してよい。ポジティブトレーニングセット370においては、雲375は、水域とラベル付けされた領域内に存在するが、雲373、374は、陸地とラベル付けされた領域内に存在する。
図3Dは、例示的な実施形態に従った、雲被覆検出のための例示的なネガティブトレーニングセット380を示している。図3Dに示されるネガティブトレーニングセット380は、雲の存在を欠くと決定された特徴(フォールスポジティブ)を含む。ネガティブトレーニングセット380は、フォールスポジティブなピクセルのクラスタ384と、フォールスポジティブなピクセルのクラスタ383とを含む。ピクセルのクラスタ384は、それが水域381と陸地382との間の縁にある雪原を捕獲しており、雲ではないので、フォールスポジティブを表す。ピクセルのクラスタ383は、それが山頂にある雪原を捕獲しており、雲ではないので、フォールスポジティブを表す。
いくつかの例示的な実施形態においては、トレーニングセット370、380は、高いスコアを表すピクセルクラスタ、および低いスコアを表すピクセルクラスタを人手でラベル付けすることによって生成されてよい。他の実施形態においては、機械学習トレーニングエンジン203は、画像記憶102から獲得された記憶された画像からトレーニングセットを抽出してよい。例えば、記憶された画像が、陸地に配置された雲特徴、例えば、373を含む場合、機械学習トレーニングエンジン203は、ピクセル特徴をポジティブトレーニングセットとして使用してよい。
例示的な機械学習トレーニングプロセス
ここで図4Aを参照すると、それは、リモートコンテナ解析システム101内の機械学習モデル106のための機械学習トレーニングエンジン203に対する例示的なトレーニングプロセスを示している。プロセスは、画像解析モジュール204と、特徴抽出モジュール104と、機械学習モデル106とを使用してよい。図4Aおよび他の図は、同様の要素を識別するために、同様の参照番号を使用する。「410a」など、後に文字が付いた参照番号は、接尾文字の付いたその特定の参照番号を有する要素を本文が特に参照していることを示している。「410」など、後続文字のない本文中の参照番号は、その参照番号を有する図中の要素のうちのいずれかまたはすべてを参照しており、例えば、「410」は、図中の参照番号「410a」および/または「410b」を参照している。
画像解析モジュール204は、関心オブジェクトに対応するトレーニング画像401内のピクセルを識別するために、トレーニング画像401内においてエッジ解析を実行してよい。図4Aに示される任意選択の特徴抽出モジュール104は、トレーニング画像401から特徴410を抽出してよい。トレーニング画像401に対応する特徴410は、トレーニングラベル402に基づいて、機械学習モデル106をトレーニングするために使用される。例示的な一実施形態においては、特徴410aは、画像401内のピクセルのピクセル属性に基づいた集合的な値を表してよい。トレーニング画像401から特徴410aを抽出することは、トレーニング画像401内の隣接ピクセルのクラスタを識別するために、ピクセルクラスタリングを実行することを含んでよい。トレーニング画像401内の隣接ピクセルは、ピクセル属性に基づいて互いに一致する。例示的な特徴410bは、画像内の隣接ピクセルからなる2つのクラスタが互いに交わるかどうかを表してよく、コンテナは交わることができないので、この特徴は、2つのピクセルクラスタがコンテナを表さなくてよいことを機械学習モデル106に教える。
例示的な特徴410cは、ピクセルのクラスタが一部は陸地上に、一部は水域上に配置されているかどうかを表してよく、コンテナは、一部は陸地302上に、一部は水域301上に配置されることができないので、この特徴は、ピクセルクラスタがコンテナを表さなくてよいことを機械学習モデル106に教える。特徴410dは、ピクセルロケーションとピクセル属性との間の関連付けを表してよい。例えば、特徴410dは、ピクセルの、画像内においてそれの右側に配置されたピクセルに対する明度値を表してよく、ピクセルが周囲ピクセルよりも明るいので、この特徴は、ピクセルがコンテナを表すピクセルクラスタの一部であってよいことを機械学習モデル106に教える。特徴410eは、ピクセルの、画像内において同じ行上に配置されたピクセルの平均の明度に対する明度を表してよく、ピクセルが周囲ピクセルよりも明るいので(例えば、より強い照明)、この特徴は、ピクセルがコンテナを表す画像ブロブの一部であってよいことを機械学習モデル106に教える。
機械学習トレーニングエンジン203は、特徴ベクトル410およびトレーニングラベル402を使用して、図4Aに示される機械学習モデル106をトレーニングしてよい。一実施形態においては、それによって、機械学習モデル106は、画像内の各ピクセルロケーションについてのスコアを決定するように構成され、スコアは、ピクセルロケーションがコンテナに対応する尤度を示す。別の実施形態においては、機械学習モデル106は、ピクセルクラスタについてのスコアを決定するように構成され、スコアは、ピクセルクラスタがコンテナに対応する尤度を示す。代替的実施形態においては、機械学習モデル106は、ピクセルクラスタと、ピクセルクラスタがコンテナに対応する尤度を示すスコアとを含む、出力を生成するように構成される。実施形態においては、機械学習モデル106は、ピクセルクラスタに対応する1つまたは複数のピクセルロケーションと、ピクセルロケーションがピクセルクラスタに対応する尤度を示すスコアとを含む、出力を生成するように構成される。実施形態においては、機械学習モデル106は、識別された各ピクセルクラスタ内のピクセルの数を含む出力を生成するように構成される。実施形態においては、機械学習モデル106は、識別されたピクセルクラスタとコンテナとの間の関連付けを含む出力を生成するように構成される。
機械学習モデルトレーニングエンジン203は、特徴に適用されたときに、特徴が関連付けられた1つまたは複数の特性を有するかどうかを示すインジケーションを出力する、例えば、受信された画像の特徴に適用されたときに、特徴が特定のブール特性を有する、またはスカラ特性の推定値を有する確率など、コンテナが存在するかどうかについての推定を出力する、機械学習モデル106をトレーニングするために、機械学習技法を適用してよい。機械学習トレーニングエンジン203は、特徴ベクトル410内のデータの量を低減させて、より小さいより代表的なデータのセットにするために、(例えば、線形判別分析(LDA)または主成分分析(PCA)などを介して)次元縮小を適用してよい。
機械学習トレーニングエンジン203は、入力として役立つポジティブトレーニングセット300およびネガティブトレーニングセット350の特徴ベクトル410を用いて、図4Aに示される機械学習モデル106をトレーニングするために、教師あり機械学習を使用してよい。他の実施形態においては、線形サポートベクトルマシン(線形SVM)、他のアルゴリズムのためのブースティング(例えば、AdaBoost)、ロジスティック回帰、ナイーブベイズ、メモリベースの学習、ランダムフォレスト、バッグドツリー、決定木、ブーステッドツリー、ブーステッドスタンプ、ニューラルネットワーク、CNNなど、異なる機械学習技法が使用されてよい。機械学習モデル106は、受信された画像のセットから抽出された特徴ベクトル410に適用されるとき、はい/いいえのブール推定、または確率を表すスカラ値など、ピクセルクラスタが問題となっている特性を有するかどうかを示すインジケーションを出力する。
いくつかの例示的な実施形態においては、バリデーションセットは、問題となっている特性を有する、または欠いているとすでに決定されたトレーニングセット内のもの以外の追加の特徴から形成される。機械学習トレーニングエンジン203は、機械学習モデル106の正確性を定量化するために、図4Aに示されるトレーニングされた機械学習モデル106をバリデーションセットの特徴に適用する。正確性測定において適用される共通のメトリックは、適合率=TP/(TP+FP)、再現率=TP/(TP+FN)を含み、ここで、適合率は、機械学習モデル106が、それが予想した全部(TPまたはトゥルーポジティブ+FPまたはフォールスポジティブ)のうちで、正しく予想した結果(TP)(例えば、コンテナまたは他のオブジェクト)はいくつであるかであり、再現率は、機械学習モデル106が、問題となっている特性を有する特徴の総数(TP+FNまたはフォールスネガティブ)のうちで、正しく予想した結果(TP)はいくつであるかである。Fスコア(F−score=2×PR/(P+R))は、適合率と再現率を単一の尺度に統合する。一実施形態においては、機械学習トレーニングエンジン203は、機械学習モデル106が十分正確であることを示す正確性測定インジケーションなどの停止条件が発生するまで、またはある回数のトレーニングラウンドが行われるまで、機械学習モデル106を反復的に再トレーニングする。
代替的実施形態においては、機械学習モデル106は、どのピクセルクラスタがコンテナに対応するかなどの有益な表現(特徴)を、明示的な特徴抽出なしに、トレーニングセットから直接的に学習する、CNNであってよい。例えば、機械学習モデル106は、トレーニング画像401からの原ピクセルを直接的に内部ラベルに運ぶ、エンドツーエンド認識システム(非線形マップ)であってよい。(CNNの形態の)図4Aに示される機械学習モデル106は、特徴抽出、エッジ解析、またはピクセルクラスタ識別を必要とせずに、トレーニング画像401から直接的に出力を生成してよい。
雲被覆検出
機械学習トレーニングエンジン203は、同様に、雲被覆検出を実行するために、機械学習モデル106をトレーニングしてよい。例えば、図3Cに関して上で説明されたように、トレーニングセット(例えば、370)は、地理的領域のラベル付けされた画像401を含むように生成されてよい。地理的領域のラベル付けされた画像401は、異なる量の雲被覆、例えば、5%、10%、35%、75%などを含んでよい。機械学習モデル106は、トレーニングセット370、380に基づいて、ラベル付けされていない画像内に存在する雲被覆(例えば、375)に対応するラベル付けされていない画像内の特徴を、ラベル付けされていない画像内に存在する背景特徴(例えば、371)から区別することによって、ラベル付けされていない画像内に存在する雲被覆の量を検出するように構成される。
関心オブジェクトのラベル付けされていない画像上において、トレーニングされた機械学習モデル106を使用して、雲被覆検出を実行するために、特徴ベクトル410が、関心オブジェクトのラベル付けされていない画像から任意選択で抽出されてよい。特徴ベクトル410は、関心オブジェクトの画像内のピクセルの属性を表す特徴を含んでよい。例えば、図4Aに関して上で説明されたピクセルの属性に類似した特徴が、使用されてよい。関心オブジェクトの画像内に存在する雲被覆の量を検出することは、トレーニングされた機械学習モデル106に特徴ベクトル410を送信することを含んでよい。
一実施形態においては、トレーニングフェーズ中の雲領域は、小さいサイズ、中間のサイズ、および大きいサイズの雲を含んでよい。背景は、山、建物、道路、農地、および川を含んでよい。機械学習モデル106は、雲の種類、雲のサイズ、密度が異なり、下層の風景環境が異なる、異なる状況において、雲(例えば、375)を分類するために使用されてよい。質感(texture)情報、より明瞭な幾何学的形状属性、および特徴のよりはっきりした空間分布のために、より高解像度の画像が使用されてよい。例えば、雲および水域の隣接ピクセル間においては、特徴が僅かしか変化しないことがあるが、建物および山の質感は、非常に異なることがある。したがって、雲を建物および山から弁別するために、均一な雲の質感が使用されてよい。
一実施形態においては、雲被覆(例えば、373)に対応する特徴を、背景特徴(例えば、372)および関心オブジェクト(例えば、305)に対応する特徴から区別するために、幾何学的形状属性が使用されてよい。例えば、雲特徴は、より自然で不規則であるが、道路特徴は、相対的に狭く線的であり、建物特徴は、相対的に規則的な形状輪郭を有する。したがって、スペクトル特性および質感の両方に関連する特徴が、使用されてよい。
一実施形態においては、「特徴融合」が使用されてよい。特徴融合は、様々な特徴(例えば、373、371)を正規化し、その後、正規化された特徴を合併して単一の特徴セットにすることを含む。これは、カテゴリに関連する特徴の選択、および冗長な特徴を排除することを可能にする。目標特徴を分類するために、特徴ベクトル410の多数のセットが生成されてよい。特徴の多数のセットも、複雑なベクトルによって組み合わされ、目標特徴を分類するために使用されてよい。
機械学習モデル106は、雲被覆(例えば、373)に対応する特徴を、背景特徴(例えば、372)および関心オブジェクト(例えば、305)に対応する特徴から区別することによって、関心オブジェクトの画像内に存在する雲被覆の量を検出するために、関心オブジェクトの画像を使用する。
この方法の利益および利点は、リモートコンテナ容積検出のために、今や、より多数の画像が使用されてよいことである。いくつかの地理的地域が、1年のある時期に持続的な雲被覆を有する場合であっても、コンテナについての正確な容積検出が、実行されることができる。無駄な画像がより僅かしか存在しなくなるので、送信されるデータの量は低減される。雲検出閾値の柔軟な使用が、雲被覆が存在するときでさえも、オブジェクト、およびオブジェクトの満たされた容積の検出を可能にする。
適合率対再現率曲線
図4Bは、実施形態に従った、雲被覆検出を実行するように機械学習モデルをトレーニングするための例示的な適合率対再現率曲線を示している。機械学習トレーニングエンジン203は、すべての特徴の中における関連する雲特徴の比率を示すために、(ポジティブ予想値とも呼ばれる)適合率を使用する。(感度とも呼ばれる)再現率は、関連する雲特徴の総量に対する取り出された関連する雲特徴の比率を示すために使用される。
例えば、機械学習モデル106は、11個の雲およびいくつかの陸地特徴を有する空中画像内において、7個の雲を識別することがある。識別された7個の雲のうち、4つは実際に雲であるが(トゥルーポジティブ)、残りは建物である(フォールスポジティブ)。機械学習モデル106の適合率は、4/7であり、一方、機械学習モデル106の再現率は、4/11である。機械学習モデル106が29個の雲を返し、そのうちの19個だけは本当の雲であったが、39個のさらなる雲を返すことに失敗したとき、機械学習モデル106の適合率は、19/29と決定されてよく、それの再現率は、19/58である。
リモートオブジェクトを識別するための例示的なプロセス
図5は、実施形態に従った、リモートオブジェクトを識別するためのリモートコンテナ解析システム101についての例示的なプロセスを示している。いくつかの例示的な実施形態においては、プロセスは、図5に関連して説明されるものとは異なるステップおよび/または追加のステップを有してよい。プロセスのステップは、図5に関連して説明される順序とは異なる順序で実行されてよい。いくつかのステップは、並列で実行されてよい。あるいは、ステップのいくつかは、並列で実行されてよく、いくつかのステップは、順次的に実行される。あるいは、いくつかのステップは、先行ステップの実行前にステップの実行が開始されるような、パイプライン方式で実行してよい。
リモートコンテナ解析システム101は、500において、地理的領域の第1の画像を受信し、第1の画像は、第1の解像度を有する。第1の画像は、広大な地理的地域についてのものである。広大な地理的地域は、例えば、領域に基づいて事前定義されてよい。この領域は、例えば、国全体、例えば、米国、または州/省もしくは市などのより小さい部分、例えば、テキサスもしくはヒューストンであってよい。広大な領域にわたるスキャニングを実用的かつ効率的にするために、第1の画像のために、より低解像度の画像が使用される。そのような画像の例は、(パンクロマティックバンドにおける)15m/ピクセルのランドサット画像である。特徴抽出モジュール104は、504において、第1の画像から第1の特徴ベクトルを抽出する。第1の特徴ベクトルは、図2を参照して上で説明されたように、第1の画像内のピクセル属性に基づいた集合的な値を含んでよい。リモートコンテナ解析システム101は、第1の画像内において関心オブジェクトを含む関心領域を識別するために、508において、機械学習モデル106に第1の特徴ベクトルを送信する。第1の画像内において関心オブジェクトを含む関心領域を識別することは、図2および図4を参照して上で説明されたように、第1の画像内の各ピクセルについて、ピクセルが関心オブジェクトに対応する尤度を決定することを含む。機械学習モデル106は、より低い適合率(例えば、より高いフォールスポジティブ率)という代償を払って、高い再現率を有するようにトレーニングされる。
リモートコンテナ解析システム101は、512において、地理的領域の第2の画像を受信する。第2の画像は、第1の解像度よりも高い第2の解像度を有する。低解像度の第1の画像の処理には、第2の画像上におけるクリーンアップフェーズが後続する。フォールスポジティブを除去するために、第1のパスによって返されたすべての関心領域にわたって、第2のパスが実行される。今度は、より高解像度の画像が使用され、個々のコンテナは、(例えばピクセル当たり50cmの画像が使用されて)より明瞭に見られることができる。特徴抽出モジュール104は、516において、第2の画像から第2の特徴ベクトルを抽出する。第2の特徴ベクトルは、図2を参照して上で説明されたように、関心領域内のピクセルのピクセル属性に基づいた集合的な値を含む。
リモートコンテナ解析システム101は、520において、関心領域が関心オブジェクトを含む尤度を決定するために、機械学習モデル106に第2の特徴ベクトルを送信する。関心領域が関心オブジェクトを含む尤度を決定することは、図2および図4を参照して上で説明されたように、関心領域の各ピクセルについて、ピクセルが関心オブジェクトに対応する尤度を決定することを含む。尤度が閾値を下回る場合、リモートコンテナ解析システム101は、524において、第1の解像度を有する画像内において関心領域に対応する特徴を除去するように、機械学習モデルをトレーニングする。機械学習モデル106の正確性を改善するために、「ブートストラッピング」または「ハードネガティブマイニング」と呼ばれる手順が、実行されてよい。クリーンアップは、高いスコアリングの関心領域の合理的に小さいセットに制限される。高いスコアを受け取るが、オブジェクトを含まない関心領域は、ネガティブトレーニングセットに戻され、機械学習モデル106は、再びトレーニングされる。この手順は、トレーニングセットが「難しい」ネガティブ例を含むことを保証し、精度を向上させ、フォールスポジティブの数を低減させることができる。
例示的な一実施形態においては、524において関心領域に対応する特徴を除去するように機械学習モデル106をトレーニングすることは、関心領域に対応する特徴ベクトルを第1の画像から抽出することを含む。リモートコンテナ解析システム101は、第1の画像内における関心オブジェクトの欠落に対応する、特徴ベクトルを含むトレーニングセットおよびラベルを生成する。リモートコンテナ解析システム101は、第1の画像内における関心オブジェクトの欠落を識別するように、トレーニングセットに基づいて、機械学習モデル106を構成する。別の例示的な実施形態においては、524において関心領域に対応する特徴を除去するように機械学習モデル106をトレーニングすることは、関心領域に対応する特徴ベクトルを第1の画像から抽出することと、第1の画像内における関心オブジェクトの欠落を報告するように、抽出された特徴ベクトルに基づいて、機械学習モデル106を構成することとを含む。
第2の画像内の関心領域が関心オブジェクトを含む尤度が、閾値を超えた場合、リモートコンテナ解析システム101は、528において、図2において説明されたように、関心オブジェクトの視覚的表現をユーザ装置に送信する。
リモートオブジェクトの満たされた容積を決定するための例示的なプロセス
図6Aは、実施形態に従った、リモートオブジェクトの満たされた容積を決定するためのリモートコンテナ解析システム101についての例示的なプロセスを示している。いくつかの実施形態においては、プロセスは、図6Aに関連して説明されるものとは異なるステップおよび/または追加のステップを有してよい。プロセスのステップは、図6Aに関連して説明される順序とは異なる順序で実行されてよい。いくつかのステップは、並列で実行されてよい。あるいは、ステップのいくつかは、並列で実行されてよく、いくつかのステップは、順次的に実行される。あるいは、いくつかのステップは、先行ステップの実行前にステップの実行が開始されるような、パイプライン方式で実行してよい。
リモートコンテナ解析システム101は、画像と知られた浮き屋根コンテナロケーションとの交わりを探すために、衛星画像を処理する。600において、コンテナ画像が受信され、コンテナの中心が画像の中心に存在するように、縁を切り落とされる。タスクは、縁を切り落とされた画像を使用して、コンテナの満たされた容積を決定すること(すなわち、屋根がどれだけ下がっているかを決定すること)である。例示的な実施形態においては、コンテナは明るい色であることが仮定され、各コンテナの内壁は暗い色であるように、システムが構成される。リモートコンテナ解析システム101は、604において、画像からパラメータベクトルを抽出する。パラメータベクトルは、コンテナの緯度および経度、画像タイムスタンプ、衛星仰角および方位角、太陽仰角および方位角、ならびにタンク高さおよびタンク幅(またはタンク直径)を記述するパラメータを含んでよい。
例示的な実施形態においては、リモートコンテナ解析システム101は、図2を参照して上で説明されたように、608において、関心オブジェクト(コンテナ)の高さおよび幅を決定するために、画像に対して画像解析を実行してよい。リモートコンテナ解析システム101は、図2を参照して上で説明され、図7を参照して以下で示されるように、612において、抽出されたパラメータベクトル、関心オブジェクトの決定された高さ、および決定された幅を使用して、関心オブジェクトの理想化された画像を生成する。各理想化された画像は、図9を参照して以下で示され、説明されるように、関心オブジェクトの異なる満たされた容積に対応する。
リモートコンテナ解析システム101は、616において、関心オブジェクトの満たされた容積を決定するために、関心オブジェクトの受信された画像を各理想化された画像と照合する。照合は、図2を参照して上で説明され、図9を参照して以下でさらに示されるように、受信された画像のピクセルと理想化された画像のピクセルとの間のドット積を実行することを含む。リモートコンテナ解析システム101は、図2を参照して上で説明されたように、620において、関心オブジェクトの決定された満たされた容積に対応する情報を、ユーザ装置120に送信する。
雲被覆検出および満たされた容積決定のための例示的なプロセス
図6Bは、実施形態に従った、雲被覆検出のための、およびリモートオブジェクトの満たされた容積を決定するための例示的なプロセスを示している。いくつかの実施形態においては、プロセスは、図6Bに関連して説明されるものとは異なるステップおよび/または追加のステップを有してよい。プロセスのステップは、図6Bに関連して説明される順序とは異なる順序で実行されてよい。いくつかのステップは、並列で実行されてよい。あるいは、ステップのいくつかは、並列で実行されてよく、いくつかのステップは、順次的に実行される。あるいは、いくつかのステップは、先行ステップの実行前にステップの実行が開始されるような、パイプライン方式で実行してよい。
リモートコンテナ解析システム101は、630において、衛星、ドローンなどであってよい、空中撮像装置110から、関心オブジェクト(例えば、コンテナ)の画像を受信する。関心オブジェクトの画像は、それの空間解像度(地上において測定された表面積のサイズを表す画像のピクセルサイズ)、スペクトル解像度(測定された波長間隔サイズおよび間隔の数)時間解像度(画像収集期間の間に経過した時間量)、ならびにラジオメトリック解像度(異なるレベルの明度を記録する装置110の能力)によって特徴付けられてよい。
リモートコンテナ解析システム101は、634において、雲検出閾値を選択する。雲検出閾値は、画像内の雲被覆の比率またはパーセンテージの値である。雲検出閾値は、曇り画像を使用したコンテナ検出結果または満たされた容積検出結果と、非曇り画像を使用したそれらを比較することによって、選択されてよい。したがって、雲検出閾値は、リモートコンテナ解析システム101が、正確にコンテナを識別し、識別されたコンテナの満たされた容積を決定することができる、雲被覆の量として選択されてよい。例えば、雲検出閾値は、15%であってよい。雲被覆検出中におけるフォールスネガティブの影響を軽減するために、雲検出閾値に余裕が追加されてもよい。フォールスネガティブは、リモートコンテナ解析システム101に、実際に存在する(例えば、16%)よりも少ない雲被覆(例えば、15%)が存在すると信じさせることがある。この事象が起こると、容積検出が影響されることがある。したがって、雲検出閾値に追加される余裕(例えば、1%)は、コンテナ検出および容積検出の正確性を向上させる。雲検出閾値および/または余裕は、天候、地理的地域、および解析下の関心オブジェクトの種類に従って、変更されてもよい。
リモートコンテナ解析システム101は、638において、機械学習モデル106によって、関心オブジェクトの画像を使用して、関心オブジェクトの画像内に存在する雲被覆の量を検出する。機械学習モデル106は、図3C、図3D、図4A、および図4Bに関して上で詳細に説明され、示されたように、雲被覆に対応する特徴を、背景特徴および関心オブジェクトに対応する特徴から区別するように構成される。
関心オブジェクトの画像内に存在する雲被覆の量が雲検出閾値よりも少ないことに応答して、リモートコンテナ解析システム101は、642において、関心オブジェクトの画像から、少なくとも空中撮像装置の方位角を記述するパラメータを抽出する。抽出されてよい他のパラメータは、図2、図6A、および図8に関して詳細に説明される。
リモートコンテナ解析システム101は、646において、パラメータから、関心オブジェクトの理想化された画像を生成する。各理想化された画像は、関心オブジェクトの異なる満たされた容積に対応する。理想化された画像は、図2、図6A、図7、図8、および図9に関して説明され、示されるように、生成される。例えば、各理想化された画像の生成は、オブジェクトの上縁に対応する第1の円を生成することと、オブジェクトの内表面上の影の弧に対応する第2の円を生成することと、オブジェクトの屋根に対応する第3の円を生成することと、3つの円に関して畳み込みを実行することによって、理想化された画像を合成することとを含んでよい。
リモートコンテナ解析システム101は、図2、図6A、および図10Aないし図10Dに関して説明され、示されるように、650において、関心オブジェクトの満たされた容積を決定するために、関心オブジェクトの画像を各理想化された画像と照合する。例えば、関心オブジェクトの画像を各理想化された画像と照合することは、関心オブジェクトの画像の異なるロケーション上に理想化された画像を重ね合わせることと、異なるロケーションの各々において関心オブジェクトの画像のピクセルと理想化された画像のピクセルとの間のドット積を実行して、異なるロケーションの各々におけるドット積の最大値を決定することとを含んでよい。
リモートコンテナ解析システム101は、654において、関心オブジェクトの決定された満たされた容積に対応する情報を、ユーザ装置120に送信する。
理想化された画像の例示的な合成
図7は、実施形態に従った、理想化された画像の例示的な合成700を示している。テンプレート生成モジュール103は、コンテナは、それの屋根を含んで、白色または明るい色であると仮定する。それは、影およびコンテナ内表面が黒であることも仮定する。テンプレート生成モジュール103は、円、すなわち、上円704(オブジェクトの上縁)、底円720(オブジェクトの底、それはそこで地面に接する)、屋根高さ円708(オブジェクトの屋根を表す)、および内部影円(オブジェクトの内表面712上の内部影の弧から生成される)の位置から、理想化された画像テンプレートを生成する。実施形態においては、上円704、屋根高さ円708、および内部影円712だけが、使用されてよい。理想化された画像テンプレートを生成するために、テンプレート生成モジュール103は、以下の情報、すなわち、オブジェクトの高さおよび幅、所望の屋根高さ、衛星の2つの角度、ならびに太陽の2つの角度を使用する。上記の情報、および図8に示される三角方程式に基づいて、テンプレート生成モジュール103は、円が位置する場所の2D射影を生成する。
テンプレート生成モジュール103は、図8に示されるようなパラメータベクトルを使用して、関心オブジェクトの上縁に対応する円704を生成することによって、オブジェクトの与えられた満たされた容積についての理想化された画像を生成する。テンプレート生成モジュール103は、パラメータベクトルを使用して、関心オブジェクトの内表面712上の影の弧に対応する円を生成する。テンプレート生成モジュール103は、パラメータベクトルを使用して、関心オブジェクトの屋根に対応する円708を生成する。テンプレート生成モジュール103は、図8に示されるように、所望の屋根高さに対応するテンプレートを生成するために、屋根上の影716を使用する。テンプレート生成モジュール103は、円704、円720、内部影の弧に対応する円712、および円708に関する畳み込みを実行することによって、理想化された画像を合成してよい。
円の位置がひとたび知られると、テンプレート生成モジュール103は、図2を参照して上で説明されたように、図7に示される「眼球」形状(暗い領域および影領域)テンプレートを生成するために、合併集合および共通集合を計算する。最終的なテンプレートにおいては、内部影ピクセルおよび内壁ピクセルは、−1になるように設定され、屋根ピクセルは、+1になるように設定され、他のすべてのピクセルは、0になるように設定される。これは、暗いピクセル(例えば、影および内表面)が負になり、明るいピクセル(例えば、屋根)が正になるように行われる。その場合、入力画像と理想化された画像との間で実行されるドット積は、テンプレートと画像が類似している場合は、大きい正の数という結果となり、その理由は、画像内の正のピクセルは、理想化された画像内の正のピクセルと整列し、画像内の負のピクセルは、理想化された画像内の負のピクセルと整列するからである。
例示的な円射影方程式
図8は、実施形態に従った、例示的な円射影方程式のセットを示している。テンプレート生成モジュール103は、抽出されたパラメータ、および図8に示される三角方程式に基づいて、図7を参照して上で示され、説明された円の位置から、理想化された画像テンプレートを生成する。
一実施形態においては、テンプレート生成モジュール103は、パラメータベクトルを円上に写像するために、図8に示される三角方程式に基づいて、射影を生成してよい。テンプレート生成モジュール103は、以下のように、上縁によって投げられる影を屋根上に、内表面によって投げられる影を平面上に射影してよい。点の射影は、平面上の点の影である。平面上の点の影は、点自体である。例えば、点から平面上への射影は、以下のように実行されてよい。Cが、射影の中心と呼ばれる点である場合、Cと異なる点PのCを含まない平面上への射影は、直線CPと平面との交点である。直線CPが平面と平行であるような点Pは、射影によるいかなる像も有さない。しかしながら、それらは、平面の無限遠にある点への射影と見なされる。点C自体の射影は、定義されない。別の例においては、平面上への方向Dに平行な射影は、以下のように実行されてよい。点Pの像は、Pを通過するDに平行な直線の平面との交点である。
代替的実施形態においては、テンプレート生成モジュール103は、体K上のn次元射影空間P(V)を、n+1次元のK上のベクトル空間における直線の集合として定義してよい。Vの基底が固定されている場合、Vの点は、Kn+1の点(x0,...,xn)によって表されてよい。したがって、V内の直線であるP(V)の点は、この直線のいずれかの非ゼロの点の座標によって表されてよい。同じ次元の2つの射影空間P(V)およびP(W)を与えられると、テンプレート生成モジュール103は、ベクトル空間の同型写像f:V→Wによって引き起こされる、P(V)から(W)への写像として、ホモグラフィを生成してよい。そのような同型写像は、fの線形性のため、P(V)から(W)への全単射を引き起こす。2つのそのような同型写像fおよびgは、g=afであるようなKの非ゼロ要素が存在する場合かつその場合に限って、同じホモグラフィを定義してよい。
例示的な理想化された画像
図9は、実施形態に従った、例示的な理想化された画像900のセットを示している。理想化された画像900は、関心コンテナの満たされた容積のパーセンテージを0%満杯(画像904)から100%満杯(画像924)まで変化させることによって、テンプレート生成モジュール103によって生成される。画像908においては、コンテナの満たされた容積のパーセンテージは、20%である。画像912においては、コンテナの満たされた容積のパーセンテージは、40%である。コンテナの上縁によってコンテナの屋根932および内表面上に投げられた画像912内の影は、画像908内の影よりも小さい。
画像916においては、コンテナの満たされた容積のパーセンテージは、60%である。コンテナの上縁によってコンテナの屋根および内表面上に投げられた画像916内の影は、画像912内の影936よりも小さい。画像920においては、コンテナの満たされた容積のパーセンテージは、80%である。コンテナの上縁によってコンテナの屋根および内表面上に投げられた画像920内の影は、画像916内の影よりも小さい。画像924においては、コンテナの満たされた容積のパーセンテージは、100%である。画像924においては、影は存在しない。
入力の与えられたセットに対して、リモートコンテナ解析システム101は、画像900の中のどの理想化されたテンプレートが、受信された画像と最も良く一致するかどうかを決定し、その後、対応する満たされた容積のパーセンテージを返す。例示的な一実施形態においては、テンプレート照合モジュール205は、以下のように、受信された画像、衛星および太陽の角度、ならびにコンテナ寸法に基づいて、コンテナの満たされた容積を決定する。テンプレート照合モジュール205は、変数「best_score」を大きい負の数になるように設定する。テンプレート照合モジュール205は、変数「best_fill_percentage」を−1になるように設定する。テンプレート照合モジュール205は、0%から100%までの異なる満たされた容積のパーセンテージのために、以下のステップを実行する。テンプレート照合モジュール205は、受信された画像を各テンプレートと照合することから、スコアを決定する。スコアが、「best_score」よりも高い場合、テンプレート照合モジュール205は、「best_score」の値をそのスコアになるように設定し、「best_fill_percentage」の値を満たされた容積のパーセンテージになるように設定するプロセスの終りに、テンプレート照合モジュール205は、「best_fill_percentage」の値を返す。
リモートオブジェクトの例示的な画像勾配および輪郭
ここで図10Aを参照すると、それは、実施形態に従った、コンテナの例示的な受信された画像1000を示している。コンテナは、影1004を有する屋根1008を有する。浮き屋根コンテナの屋根1008が、上がりきっているとき(満杯のコンテナ)、一致する理想化された画像は、図9における画像924として上で示された、グレーピクセル1012(値0を有するピクセル)によって取り囲まれた(すべてのピクセルが値1を有する)白い円である。このテンプレートは、同じスコアを有するいずれの白い領域とも一致する。フォールスポジティブを回避するために、受信された画像1000からの勾配情報が、テンプレート照合モジュール205によって取り入れられてよい。
図10Bは、実施形態に従った、図10Aの受信された画像1000のための例示的な画像勾配1020を示している。画像解析モジュール204は、受信された画像1000の画像勾配1020を獲得するために、受信された画像1000に対して、図2を参照して上で説明されたような、エッジ解析を実行してよい。画像勾配1020は、画像1000における強度または色の方向変化を表す。画像解析モジュール204は、各ピクセルにおける単一の値として、画像勾配1020を導出してよい。各画像点において、勾配は、最大の可能な強度増加を示す。図10Bにおける縁1024は、画像1000における強度または色の変化であって、図10Aにおける背景1012から影1004への変化を表す。図10Bにおける縁1028は、画像1000における強度または色の変化であって、図10Aにおける影1004から屋根1008への変化を表す。図10Bにおける縁1032は、画像1000における強度または色の変化であって、図10Aにおける屋根1008から背景1012への変化を表す。
図10Cは、実施形態に従った、理想化された画像テンプレート内の関心オブジェクト(コンテナ)の上縁1044の例示的な輪郭1040を示している。画像解析モジュール204は、理想化された画像におけるコンテナの上縁1044の輪郭1040を獲得するために、理想化された画像に対してエッジ解析を実行してよい。例えば、画像解析モジュール204は、輪郭1040内の縁1044上の望ましくないスプリアス点を除去するために、エッジ細線化を実行してよい。画像解析モジュール204は、理想化された画像が(例えば、メディアンフィルタ、ガウシアンフィルタなどを使用して)ノイズについてフィルタリングされ、(図2を参照して上で説明されたように)縁1044を検出するために、エッジオペレータが適用された後、および適切な閾値を使用して、縁1044が平滑化された後、エッジ細線化を実行してよい。これは、実施形態においては、すべての望ましくない点を除去し、1ピクセル幅のエッジ要素という結果となる。
テンプレート照合モジュール205は、受信された画像1000内のコンテナの満たされた容積を決定するために、画像勾配1020のピクセルと上縁1044の輪郭1040のピクセルとの間のドット積を実行してよい。このプロセスの利益および利点は、鮮明で細いエッジが、テンプレート照合において、より大きい効率性をもたらすことである。(影の)弧および円(例えば、上縁)を検出するために、ハフ変換を使用することは、より大きい正確性という結果となる。
図10Dは、実施形態に従った、理想化された画像テンプレート内のコンテナの内表面上の影の例示的な輪郭1060を示している。画像解析モジュール204は、コンテナの内表面上の影の輪郭1060を獲得するために、理想化された画像に対してエッジ解析を実行してよい。図10Dにおいては、縁1064は、理想化された画像における強度または色の変化であって、背景から内表面上の影への変化を表す。縁1068は、理想化された画像における強度または色の変化であって、内表面上の影から屋根への変化を表す。テンプレート照合モジュール205は、受信された画像1000内のコンテナの満たされた容積を決定するために、画像勾配1020のピクセルと影の輪郭1060のピクセルとの間のドット積を実行してよい。
いくつかの例示的な実施形態においては、応答マップを形成するために、3つの畳み込みが実行され、足し合わされてよい。第1の畳み込みは、受信された画像1000と、図9における理想化された画像テンプレート、例えば、画像912との間のものである。第2の畳み込みは、画像勾配1020と、上縁の輪郭1040との間のものである。第3の畳み込みは、画像勾配1020と、影の輪郭1060との間のものである。結果として得られる3つの応答マップは、合算されてよく、画像の中心から指定された半径内において最大の応答を有するロケーションが、最終的なテンプレートマッチスコアとして決定されてよい。上述の手順は、関心オブジェクトの幾何形状が知られており、そのほとんどが知られている少数のパラメータによって特徴付けされる、任意の状況に対して一般化されてよい。その場合、未知のパラメータは、可能な値にわたってスイープし、テンプレートを生成し、それらを入力画像と照合することによって、決定されることができる。
例示的なマシンアーキテクチャ
図11は、マシン可読媒体から本明細書においてプロセスとして説明された命令を読み、それらを少なくとも1つのプロセッサ(またはコントローラ)において実行することができる例示的なマシンのコンポーネントを示すブロック図である。具体的には、図11は、コンピュータシステム1100の例示的な形態におけるマシンの図式表現を示している。コンピュータシステム1100は、本明細書において説明された方法(またはプロセス)のうちのいずれか1つまたは複数をマシンに実行させるための命令1124(例えば、プログラムコードまたはソフトウェア)を実行するために使用されることができる。代替的実施形態においては、マシンは、スタンドアロン装置として、または他のマシンに接続する接続された(例えば、ネットワーク接続された)装置として動作する。ネットワーク接続された配置においては、マシンは、サーバ−クライアントネットワーク環境におけるサーバマシンもしくはクライアントマシンの立場で、またはピアツーピア(もしくは分散)ネットワーク環境におけるピアマシンとして動作してよい。命令は、例えば、図1、図2、および図4ないし図6に関して、本明細書において説明されたコンポーネントおよび/またはプロセスの機能性に対応することが留意される。命令は、図3Aないし図3B、図7、図9、および図10Aないし図10Dに示される結果をもたらすことと関連付けられたプロセスに対応してもよい。
マシンは、サーバコンピュータ、クライアントコンピュータ、パーソナルコンピュータ(PC)、タブレットPC、セットトップボックス(STB)、スマートフォン、モノのインターネット(IoT)電化製品、ネットワークルータ、スイッチもしくはブリッジ、またはそのマシンによって取られるアクションを指定する命令1124を(順次もしくは他の方法で)実行することが可能な任意のマシンであってよい。さらに、単一のマシンだけが示されているが、「マシン」という用語は、本明細書において説明された方法のいずれか1つまたは複数を実行するための命令1124を個々にまたは共同で実行するマシンの任意の集まりを含むとも解釈されるものとする。
例示的なコンピュータシステム1100は、1つまたは複数の処理ユニット(一般にプロセッサ1102)を含む。プロセッサ1102は、例えば、中央処理ユニット(CPU)、グラフィカル処理ユニット(GPU)、デジタル信号プロセッサ(DSP)、コントローラ、状態機械。1つもしくは複数の特定用途向け集積回路(ASIC)、1つもしくは複数の無線周波数集積回路(RFIC)、またはこれらの任意の組み合わせである。コンピュータシステム1100は、メインメモリ1104も含む。コンピュータシステムは、ストレージユニット1116を含んでよい。プロセッサ1102、メモリ1104、およびストレージユニット1116は、バス1108を介して通信する。
加えて、コンピュータシステム1100は、静的メモリ1106と、(例えば、プラズマディスプレイパネル(PDP)、液晶ディスプレイ(LCD)、またはプロジェクタを駆動するための)ディスプレイドライバ1110とを含むことができる。コンピュータシステム1100は、やはりバス1108を介して通信するように構成された、英数字入力装置1112(例えば、キーボード)と、カーソル制御装置1114(例えば、マウス、トラックボール、ジョイスティック、運動センサ、または他のポインティング機器)と、信号生成装置1118(例えば、スピーカ)と、ネットワークインターフェース装置1120とを含んでもよい。
ストレージユニット1116は、本明細書において説明された方法または機能のうちのいずれか1つまたは複数を具現する命令1124(例えば、ソフトウェア)が記憶された、マシン可読媒体1122を含む。命令1124は、コンピュータシステム1100によるそれらの実行中は、完全にまたは少なくとも一部は、メインメモリ1104内に、またはプロセッサ1102内に(例えば、プロセッサのキャッシュメモリ内に)存在してもよく、メインメモリ1104およびプロセッサ1102も、マシン可読媒体を構成する。命令1124は、ネットワークインターフェース装置1120を介して、ネットワーク1126上において送信または受信されてよい。
マシン可読媒体1122は、例示的な実施形態においては、単一の媒体であるように示されているが、「マシン可読媒体」という用語は、命令1124を記憶することができる単一の媒体または複数の媒体(例えば、集中化もしくは分散データベース、または関連付けられたキャッシュおよびサーバ)を含むと解釈されるべきである。「マシン可読媒体」という用語は、また、マシンによって実行するための命令1124であって、本明細書において開示された方法のうちのいずれか1つまたは複数をマシンに実行させる命令1124を記憶することが可能な任意の媒体を含むと解釈されるものとする。「マシン可読媒体」という用語は、限定されることなく、ソリッドステートメモリ、光媒体、および磁気媒体の形態を取る、データリポジトリを含む。いくつかの例示的な実施形態においては、コンピュータシステムのコアコンポーネントは、プロセッサ1102、メモリ1104、およびバス1108を除くコンポーネントを無視してよく、他の実施形態においては、ストレージユニット1116および/またはネットワークインターフェース装置1120を含んでもよい。
追加の検討事項
開示されるようなリモートコンテナ解析システムは、ピクセルのクラスタをリモートコンテナのデジタル表現に、また各リモートコンテナについては、そのリモートコンテナの屋根、内表面、および満たされた容積のデジタル表現に変換することを含む、利益および利点を提供する。システムの他の利点は、空中画像のより高速な処理、より少ない電力消費、リモートコンテナ検出におけるより短い待ち時間、ネットワーク上において送信されるより少ないデータを含む。
本明細書全体にわたって、複数の実例は、単数の実例として説明されるコンポーネント、動作、または構造を実施してよい。1つまたは複数の方法の個々の動作は、別々の動作として示され、説明されるが、個々の動作のうちの1つまたは複数は、同時に実行されてよく、示された順序で動作が実行されることは、まったく必要ではない。例示的な構成において別々のコンポーネントとして提示される構造および機能性は、組み合わされた構造またはコンポーネントとして実施されてよい。同様に、単一のコンポーネントとして提示される構造および機能性は、別々のコンポーネントとして実施されてよい。これらおよび他の変形、変更、追加、および改善は、本明細書における主題の範囲内に包含される。
本明細書においては、ある実施形態は、例えば、図1、図2、図4、図5、図6、および図11を用いて示され、説明されたような、ロジックまたは数々のコンポーネント、モジュール、もしくはメカニズムを含むものとして説明される。モジュールは、ソフトウェアモジュール(例えば、マシン可読媒体上において具現されたコード)、またはハードウェアモジュールを構成してよい。ハードウェアモジュールは、ある動作を実行することが可能な有形なユニットであり、ある方式で構成または配置されてよい。例示的な実施形態においては、1つもしくは複数のコンピュータシステム(例えば、スタンドアロン、クライアントもしくはサーバコンピュータシステム)、またはコンピュータシステムの1つもしくは複数のハードウェアモジュール(例えば、プロセッサもしくはプロセッサのグループ)は、ソフトウェア(例えば、アプリケーションまたはアプリケーションの一部)によって、本明細書において説明されるようなある動作を実行するように動作するハードウェアモジュールとして構成されてよい。
様々な実施形態においては、ハードウェアモジュールは、機械的または電子的に実施されてよい。例えば、ハードウェアモジュールは、(例えば、フィールドプログラマブルゲートアレイ(FPGA)または特定用途向け集積回路(ASIC)などの専用プロセッサのように)ある動作を実行するように永続的に構成された、専用回路またはロジックを含んでよい。ハードウェアモジュールは、ある動作を実行するようにソフトウェアによって一時的に構成された(例えば、汎用プロセッサまたは他のプログラマブルプロセッサ内に包含されるような)プログラマブルロジックまたは回路を含んでもよい。ハードウェアモジュールを専用かつ永続的に構成された回路で機械的に実施するか、それとも(例えば、ソフトウェアによって構成される)一時的に構成された回路で実施するかについての決定は、コストおよび時間を考慮することによって行われてよい。
本明細書において説明される例示的な方法の様々な動作は、関連する動作を実行するように(例えば、ソフトウェアによって)一時的に構成された、または永続的に構成された1つまたは複数のプロセッサ、例えば、プロセッサ1102によって、少なくとも一部は実行されてよい。一時的に構成されるか、それとも永続的に構成されるかにかかわらず、そのようなプロセッサは、1つまたは複数の動作または機能を実行するように動作する、プロセッサ実施されるモジュールを構成してよい。本明細書において言及されるモジュールは、いくつかの例示的な実施形態においては、プロセッサ実施されるモジュールを含んでよい。
1つまたは複数のプロセッサは、「クラウドコンピューティング」環境において、または「サービス型ソフトウェア」(SaaS)として、関連する動作の実行をサポートするように動作してもよい。例えば、少なくともいくつかの動作は、(プロセッサを含むマシンの例としての)コンピュータのグループによって実行されてよく、これらの動作は、ネットワーク(例えば、インターネット)を介して、および1つまたは複数の適切なインターフェース(例えば、アプリケーションプログラミングインターフェース(API))を介してアクセス可能である。
ある動作の実行は、単一のマシン内に存在するばかりでなく、多数のマシンにわたって配置されもする、1つまたは複数のプロセッサの間に分散されてよい。いくつかの例示的な実施形態においては、1つまたは複数のプロセッサまたはプロセッサ実施されるモジュールは、単一の地理的ロケーションに(例えば、自宅環境、オフィス環境、またはサーバファーム内に)配置されてよい。他の例示的な実施形態においては、1つまたは複数のプロセッサまたはプロセッサ実施されるモジュールは、多数の地理的ロケーションにわたって分散されてよい。
本明細書のいくつかの部分は、マシンメモリ(例えば、コンピュータメモリ)内にビットまたはバイナリデジタル信号として記憶されたデータに対する操作のアルゴリズムまたはシンボリック表現に関して提示される。これらのアルゴリズムまたはシンボリック表現は、自分の仕事の内容を他の当業者に伝えるために、データ処理分野の当業者によって使用される技法の例である。本明細書において使用される場合、「アルゴリズム」は、所望の結果をもたらす自己矛盾のない動作のシーケンスまたは類似の処理である。この文脈においては、アルゴリズムおよび動作は、物理的量の物理的操作を含む。必ずではないが、一般に、そのような量は、マシンによって記憶され、アクセスされ、転送され、組み合わされ、比較され、または他の方法で操作されることが可能な電気的信号、磁気的信号、または光学的信号の形態を取ってよい。主に共通使用の理由で、「データ」、「コンテンツ」、「ビット」、「値」、「要素」、「シンボル」、「文字」、「項」、「数」、または「数詞」などの語を使用して、そのような信号を参照することが時には便利である。しかしながら、これらの語は、便利なラベルであるにすぎず、適切な物理的量と関連付けられるべきである。
他に別段の指摘がない限り、「処理する」、「計算する」、「算出する」、「決定する」、「提示する」、または「表示する」などの語を使用する本明細書における説明は、1つまたは複数のメモリ(例えば、揮発性メモリ、不揮発性メモリ、もしくはそれらの組み合わせ)、レジスタ、または情報を受信し、記憶し、送信し、もしくは表示する他のマシンコンポーネント内の物理的(例えば、電子的、磁気的、または光学的)量として表されるデータを操作または変換するマシン(例えば、コンピュータ)のアクションまたはプロセスに言及してよい。
本明細書において使用される場合、「一実施形態」または「実施形態」に対する言及は、実施形態に関連して説明された特定の要素、特徴、構造、または特性が、少なくとも1つの実施形態に含まれることを意味する。本明細書の様々な場所における「一実施形態においては」という句の出現は、必ずしもすべてが同じ実施形態に言及しているわけではない。
いくつかの実施形態は、「結合される」および「接続される」という表現ならびにそれらの派生形を使用して説明されることがある。例えば、いくつかの実施形態は、2つ以上の要素が物理的または電気的に直接接触していることを示すために、「結合される」という語を使用して説明されることがある。しかしながら、「結合される」という語は、2つ以上の要素が互いに直接接触していないが、それでもなお互いに協力または対話することを意味してもよい。実施形態は、これに関連して限定されない。
本明細書において使用される場合、「comprises(含む)」、「comprising(含む)」、「includes(含む)」、「including(含む)」、「has(有する)」、「having(有する)」という語またはそれらの他の任意の変形は、非排他的な包含をカバーすることが意図されている。例えば、要素のリストを含むプロセス、方法、物品、または装置は、必ずしもそれらの要素だけに限定されず、明示的に列挙されていない、またはそのようなプロセス、方法、物品、もしくは装置に本来的でない他の要素を含んでよい。反対のことが明示的に述べられない限り、「または」は、包含的論理和であり、排他的論理和ではない。例えば、AまたはBという条件は、以下のうちのいずれか1つ、すなわち、Aが真(または存在する)かつBが偽(または存在しない)、Aが偽(または存在しない)かつBが真(または存在する)、およびAとBの両方が真(または存在する)のうちのいずれか1つによって満たされる。
加えて、「a」または「an」の使用が、本明細書における実施形態の要素およびコンポーネントを説明するために利用される。これは、特許請求される本発明に一般的意味を与えるために、便宜的に行われるにすぎない。この説明は、1つまたは少なくとも1つを含むと読まれるべきであり、他のことを意味していることが明白でない限り、単数形は複数形も含む。
本開示を読んだとき、当業者は、本明細書において開示された原理を通して、低解像度画像からリモートコンテナの満たされた容積を識別および決定するためのシステムおよびプロセスについての、さらなる追加の代替的な構造的および機能的設計について理解する。したがって、特定の実施形態および応用例が示され、説明されたが、開示された実施形態は、本明細書において開示された通りの構成およびコンポーネントに限定されないことが理解されるべきである。本明細書において開示される方法および装置の配置、動作、および細部において、当業者に明らかな様々な変更、変化、および変形が、添付の特許請求の範囲において確定される主旨および範囲から逸脱することなく施されてよい。

Claims (15)

  1. 機械学習モデルによって、関心オブジェクトの画像を使用して、前記関心オブジェクトの前記画像内に存在する雲被覆の量を検出するステップであって、前記機械学習モデルは、前記雲被覆に対応する特徴を背景特徴から区別するように構成される、該ステップと、
    前記関心オブジェクトの前記画像内に存在する雲被覆の前記量が雲検出閾値よりも少ないことに応答して、前記関心オブジェクトの理想化された画像を生成するステップであって、各理想化された画像は、前記関心オブジェクトの異なる満たされた容積に対応する、該ステップと、
    前記関心オブジェクトの満たされた容積を決定するために、前記関心オブジェクトの前記画像を各理想化された画像と照合するステップと、
    前記関心オブジェクトの前記決定された満たされた容積に対応する情報をユーザ装置に送信するステップと
    を含むことを特徴とする方法。
  2. 地理的領域のラベル付けされた画像を含むトレーニングセットを作成するステップであって、前記地理的領域の前記ラベル付けされた画像は、異なる量の雲被覆を含む、該ステップと、
    前記ラベル付けされていない画像内に存在する前記雲被覆に対応する前記ラベル付けされていない画像内の特徴を、前記ラベル付けされていない画像内に存在する背景特徴から区別することによって、ラベル付けされていない画像内に存在する雲被覆の量を検出するように、前記トレーニングセットに基づいて、前記機械学習モデルを構成するステップと
    をさらに含むことを特徴とする請求項1に記載の方法。
  3. 前記関心オブジェクトの前記画像から特徴ベクトルを抽出するステップであって、前記特徴ベクトルは、前記関心オブジェクトの前記画像内のピクセルの属性を表す特徴を含む、該ステップをさらに含み、前記関心オブジェクトの前記画像内に存在する雲被覆の前記量を検出する前記ステップは、前記特徴ベクトルを前記機械学習モデルに送信するステップを含むことを特徴とする請求項1に記載の方法。
  4. 画像を処理するための方法であって、
    機械学習モデルによって、関心オブジェクトの画像を使用して、前記関心オブジェクトの前記画像内に存在する雲被覆の量を検出するステップと、
    前記関心オブジェクトの前記画像内に存在する雲被覆の前記量が閾値よりも少ないことに応答して、前記関心オブジェクトの満たされた容積を決定するステップと
    を含むことを特徴とする方法。
  5. 地理的領域のラベル付けされた画像を含むトレーニングセットを生成するステップであって、前記地理的領域の前記ラベル付けされた画像は、異なる量の雲被覆を含む、該ステップと、
    前記ラベル付けされていない画像内に存在する前記雲被覆に対応する前記ラベル付けされていない画像内の特徴を、前記ラベル付けされていない画像内に存在する背景特徴から区別することによって、ラベル付けされていない画像内に存在する雲被覆の量を検出するように、前記トレーニングセットに基づいて、前記機械学習モデルを構成するステップと
    をさらに含むことを特徴とする請求項4に記載の方法。
  6. 前記関心オブジェクトの前記画像から特徴ベクトルを抽出するステップであって、前記特徴ベクトルは、前記関心オブジェクトの前記画像内のピクセルの属性を表す特徴を含む、該ステップをさらに含み、前記関心オブジェクトの前記画像内に存在する雲被覆の前記量を検出する前記ステップは、前記特徴ベクトルを前記機械学習モデルに送信するステップを含むことを特徴とする請求項4に記載の方法。
  7. 前記関心オブジェクトの前記満たされた容積を決定する前記ステップは、
    前記関心オブジェクトの理想化された画像を生成するステップであって、各理想化された画像は、前記関心オブジェクトの異なる満たされた容積に対応する、該ステップと、
    前記関心オブジェクトの前記満たされた容積を決定するために、前記関心オブジェクトの前記画像を各理想化された画像と照合するステップと
    を含むことを特徴とする請求項4に記載の方法。
  8. 前記理想化された画像内の前記関心オブジェクトの影および内表面に対応するピクセルを負の値になるように設定することと、
    前記理想化された画像内の前記関心オブジェクトの屋根に対応するピクセルを正の値になるように設定することと
    を行うことによって、各理想化された画像をリスケールするステップをさらに含むことを特徴とする請求項7に記載の方法。
  9. 各理想化された画像を生成する前記ステップは、
    パラメータを使用して、前記関心オブジェクトの上縁に対応する第1の円を生成するステップと、
    前記パラメータを使用して、前記関心オブジェクトの内表面上の影の弧に対応する第2の円を生成するステップと、
    前記パラメータを使用して、前記関心オブジェクトの屋根に対応する第3の円を生成するステップと、
    前記3つの円に関して畳み込みを実行することによって、前記理想化された画像を合成するステップと
    を含むことを特徴とする請求項7に記載の方法。
  10. 前記機械学習モデルは、
    前記画像内の特徴の幾何学的属性を決定することであって、前記幾何学的属性は、前記画像内の前記特徴の形状を示す、該決定することと、
    前記特徴の前記幾何学的属性が1つまたは複数の線形輪郭を示すことに応答して、雲被覆である前記特徴の分類の尤度値をある量だけ減少させることと
    を行うようにさらに構成されたことを特徴とする請求項4に記載の方法。
  11. 前記機械学習モデルは、
    前記画像内の特徴の幾何学的属性を決定することであって、前記幾何学的属性は、前記画像内の前記特徴の形状を示す、該決定することと、
    前記特徴の前記幾何学的属性が規則的な形状を示すことに応答して、前記関心オブジェクトである前記特徴の分類の尤度値をある量だけ増加させることと
    を行うようにさらに構成されたことを特徴とする請求項4に記載の方法。
  12. 前記機械学習モデルは、
    前記画像内の特徴の質感属性を決定することであって、前記質感属性は、前記特徴の隣接ピクセルのピクセル値の変化を示す、決定することと、
    前記特徴の隣接ピクセルのピクセル値の前記変化を示す前記特徴の前記質感属性が閾値を下回ることに応答して、雲被覆である前記特徴の分類の尤度値をある量だけ増加させることと
    を行うようにさらに構成されたことを特徴とする請求項4に記載の方法。
  13. 前記閾値は、
    複数のサンプル画像にアクセスすることであって、各サンプル画像は、関心オブジェクトの画像であり、各サンプル画像は、ある量の雲被覆を含み、各サンプル画像は、前記サンプル画像内の雲被覆の前記量と、前記画像内の前記関心オブジェクトの満たされた容積とを示す、1つまたは複数のラベルを含む、アクセスすることと、
    前記複数のサンプル画像の各々について、前記関心オブジェクトの前記満たされた容積が、前記サンプル画像のラベルで示されるような、前記関心オブジェクトの前記満たされた容積の閾値範囲内にあると決定される、前記複数のサンプル画像のセットを決定することと、
    前記複数のサンプル画像の前記セットのその他の画像の前記1つまたは複数のラベルで示される雲被覆の前記量と比較して、雲被覆の最大量を示すラベルを有する前記複数のサンプル画像の前記セット内のサンプル画像を識別することと、
    閾値として、前記サンプル画像の雲被覆の前記最大量を選択することと
    を行うことによって選択されることを特徴とする請求項4に記載の方法。
  14. 前記関心オブジェクトの前記理想化された画像を生成するステップは、
    前記関心オブジェクトの前記画像を捕獲した空中撮像装置の方位角に少なくとも基づいて、前記関心オブジェクトの前記理想化された画像を生成するステップ
    をさらに含むことを特徴とする請求項13に記載の方法。
  15. プロセッサによって実行可能な命令を含む非一時的コンピュータ可読記憶媒体であって、前記命令は、前記プロセッサによって実行されたときに、請求項1乃至14に記載の方法を前記プロセッサに実施させることを特徴とする非一時的コンピュータ可読記憶媒体。
JP2019076582A 2018-04-12 2019-04-12 地理的地域内のコンテナのリモート決定 Pending JP2019185787A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/952,112 US10217236B2 (en) 2016-04-08 2018-04-12 Remote determination of containers in geographical region
US15/952,112 2018-04-12

Publications (1)

Publication Number Publication Date
JP2019185787A true JP2019185787A (ja) 2019-10-24

Family

ID=66175222

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019076582A Pending JP2019185787A (ja) 2018-04-12 2019-04-12 地理的地域内のコンテナのリモート決定

Country Status (3)

Country Link
EP (1) EP3553700A3 (ja)
JP (1) JP2019185787A (ja)
SG (1) SG10201903314WA (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022065504A1 (ja) * 2020-09-28 2022-03-31 LeapMind株式会社 認識処理実行プログラム及び認識処理実行装置
DE112020004869T5 (de) 2019-10-09 2022-06-30 Ihi Corporation Radialverdichter

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110807783B (zh) * 2019-10-28 2023-07-18 衢州学院 一种面向无彩色长视频的高效视场区域分割方法及装置
CN112270278A (zh) * 2020-11-02 2021-01-26 重庆邮电大学 一种基于关键点的蓝顶房检测方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004240547A (ja) * 2003-02-04 2004-08-26 Hitachi Software Eng Co Ltd 画像処理プログラム
CN103954269A (zh) * 2014-04-29 2014-07-30 航天东方红卫星有限公司 一种卫星避云观测方法
WO2017176487A1 (en) * 2016-04-08 2017-10-12 Orbital Insight, Inc. Remote determination of quantity stored in containers in geographical region
US20170308750A1 (en) * 2015-01-30 2017-10-26 AgriSight, Inc. System and method for field variance determination

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10217236B2 (en) * 2016-04-08 2019-02-26 Orbital Insight, Inc. Remote determination of containers in geographical region

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004240547A (ja) * 2003-02-04 2004-08-26 Hitachi Software Eng Co Ltd 画像処理プログラム
CN103954269A (zh) * 2014-04-29 2014-07-30 航天东方红卫星有限公司 一种卫星避云观测方法
US20170308750A1 (en) * 2015-01-30 2017-10-26 AgriSight, Inc. System and method for field variance determination
WO2017176487A1 (en) * 2016-04-08 2017-10-12 Orbital Insight, Inc. Remote determination of quantity stored in containers in geographical region

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
XIE, FENGYING ET AL.: ""Multilevel Cloud Detection in Remote Sensing Images Based on Deep Learning"", IEEE JOURNAL OF SELECTED TOPICS IN APPLIED EARTH OBSERVATIONS AND REMOTE SENSING, vol. 10, no. 8, JPN6023009855, 2017, pages 3631 - 3640, XP055617778, ISSN: 0005011522, DOI: 10.1109/JSTARS.2017.2686488 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112020004869T5 (de) 2019-10-09 2022-06-30 Ihi Corporation Radialverdichter
WO2022065504A1 (ja) * 2020-09-28 2022-03-31 LeapMind株式会社 認識処理実行プログラム及び認識処理実行装置

Also Published As

Publication number Publication date
SG10201903314WA (en) 2019-11-28
EP3553700A2 (en) 2019-10-16
EP3553700A3 (en) 2019-11-06

Similar Documents

Publication Publication Date Title
US10607362B2 (en) Remote determination of containers in geographical region
US10319107B2 (en) Remote determination of quantity stored in containers in geographical region
CN111795704B (zh) 一种视觉点云地图的构建方法、装置
US11436437B2 (en) Three-dimension (3D) assisted personalized home object detection
Li et al. Deep learning-based object detection techniques for remote sensing images: A survey
Qin et al. 3D change detection–approaches and applications
CN109598241B (zh) 基于Faster R-CNN的卫星图像海上舰船识别方法
CN109409263B (zh) 一种基于Siamese卷积网络的遥感影像城市地物变化检测方法
JP2019185787A (ja) 地理的地域内のコンテナのリモート決定
Zhang et al. Semi-automatic road tracking by template matching and distance transformation in urban areas
CN105493078B (zh) 彩色草图图像搜索
Jiao et al. A survey of road feature extraction methods from raster maps
US20220044072A1 (en) Systems and methods for aligning vectors to an image
Liu et al. Review of CNN in aerial image processing
Zhang et al. Automatic extraction of building geometries based on centroid clustering and contour analysis on oblique images taken by unmanned aerial vehicles
Koc-San et al. A model-based approach for automatic building database updating from high-resolution space imagery
CN116246161A (zh) 领域知识引导下的遥感图像目标精细类型识别方法及装置
CN115565072A (zh) 一种道路垃圾识别和定位方法、装置、电子设备及介质
Porzi et al. An automatic image-to-DEM alignment approach for annotating mountains pictures on a smartphone
Kong et al. A Mountain Summit Recognition Method Based on Improved Faster R‐CNN
Dasari et al. Integrated approaches for road extraction and de-noising in satellite imagery using probability neural networks
Lee Deep Convolutional Neural Network Based Single Tree Detection Using Volumetric Module From Airborne Lidar Data
Ballim Detecting informal settlements from high resolution imagery using an object-based image approach
AYENEW Towards Large Scale Façade Parsing: A Deep Learning Pipeline Using Mask R-CNN
Jung et al. PruNeRF: Segment-Centric Dataset Pruning via 3D Spatial Consistency

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220325

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230314

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230602

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20231107