JP2018072316A - ジオアーク(geoarc)を使用したビークルの二次元位置の特定 - Google Patents
ジオアーク(geoarc)を使用したビークルの二次元位置の特定 Download PDFInfo
- Publication number
- JP2018072316A JP2018072316A JP2017131832A JP2017131832A JP2018072316A JP 2018072316 A JP2018072316 A JP 2018072316A JP 2017131832 A JP2017131832 A JP 2017131832A JP 2017131832 A JP2017131832 A JP 2017131832A JP 2018072316 A JP2018072316 A JP 2018072316A
- Authority
- JP
- Japan
- Prior art keywords
- geoarc
- voxel
- vehicle
- features
- angle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000004807 localization Effects 0.000 title description 54
- 238000000034 method Methods 0.000 claims description 168
- 238000012545 processing Methods 0.000 claims description 106
- 238000005259 measurement Methods 0.000 abstract description 11
- 238000004590 computer program Methods 0.000 description 45
- 238000004891 communication Methods 0.000 description 37
- 230000008569 process Effects 0.000 description 35
- 238000010586 diagram Methods 0.000 description 27
- 230000006870 function Effects 0.000 description 25
- 230000008901 benefit Effects 0.000 description 8
- 238000012360 testing method Methods 0.000 description 8
- 230000003287 optical effect Effects 0.000 description 7
- 230000002085 persistent effect Effects 0.000 description 7
- 230000002776 aggregation Effects 0.000 description 5
- 238000004220 aggregation Methods 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 4
- 230000001131 transforming effect Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000003491 array Methods 0.000 description 3
- 230000007423 decrease Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 239000000835 fiber Substances 0.000 description 3
- 238000005192 partition Methods 0.000 description 3
- 239000000047 product Substances 0.000 description 3
- 230000000644 propagated effect Effects 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000009365 direct transmission Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000010006 flight Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000033001 locomotion Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
- 238000012876 topography Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S15/00—Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
- G01S15/02—Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems using reflection of acoustic waves
- G01S15/06—Systems determining the position data of a target
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/10—Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
- G06T7/344—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Remote Sensing (AREA)
- Computer Graphics (AREA)
- Radar, Positioning & Navigation (AREA)
- Acoustics & Sound (AREA)
- Computer Networks & Wireless Communication (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
- Navigation (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Description
全ての目的において、以下の関連特許:「Image Registration of Multimodal Data Using 3D−Geoarcs」に対し2014年10月7日にYuri Owechko氏に発行された米国特許第8855442号明細書全体が本書に組み込まれる。
物理的表面構成のセンサ画像と、物理的表面構成の基準表現とを関連付けするジオアークを使用して、画像センサを有するビークルの位置を探す、または位置を特定するためのシステム及び方法の様々な実施形態を以下に説明し、関連の図面に示す。特別の定めのない限り、ビークル位置特定システム、及び/又はその様々な構成要素は、本書で説明され、例示され、かつ/又は本書に組み込まれた、構造体、構成要素、機能、及び/又は変形例のうちの少なくとも1つを包含しうるが、それらを包含することが必要な訳ではない。さらに、本教示に関連して本書に記載され、例示され、及び/または組み込まれた、構造体、構成要素、機能、及び/または変形例は、他のビークル位置探索システムに含まれ得るが、それらに含まれることが必要というわけではない。様々な実施形態の下記の説明は、本質的に単なる例示であり、本開示、その応用または用途を限定することを意図するものではない。加えて、実施形態によって提供される利点は、後述のように、本質的に例示的であり、すべての実施形態が同じ利点または同程度の利点を提供するわけではない。
本書で使用するジオアークは、物理的表面構成が地理的な性質のものであるか否かに関わらず、決定された画角と、物理的表面構成の基準表現内の選択された地物のペアを関連付けする数学モデルを指すものである。本書で使用される例示のジオアークは、空間内の2つの点を共通の画角または画角範囲で見た点の軌跡を表す、表面又は体積を有する自己交差またはスピンドルトーラスである。
下記の節では、例示的な空間的位置特定システム及び/又は方法の選択された態様が記載される。これらの節の実施例は、例示を目的としており、本開示の範囲全体を限定するものと解釈すべきではない。各節は、1つ以上の個々の発明、及び/または、状況から得られるあるいは関連する情報、機能、及び/または構造体を含み得る。
ジオアーク位置特定システム(GALS)において具現化されうる空間的な位置特定を行う方法のこの実施例1では、画像を使用して、画像内の検出された地物間に見られる角度を使用して、たとえばカメラ等の画像センサを有するビークルの位置を見つけることができる。この角度は、たとえば画像内の地物の位置に対する視野等のカメラのパラメータで決定する。画像内の2つの地物間の距離は、2つの地物間に見られる角度と直接の関係がある。マッピングされた地物のペアに測定された角度を割り当てることで、ワールド座標系内の可能性のあるカメラの(x、y、z)座標位置が、図1に示すように、自己交差、またはスピンドルトーラス100の表面に限定される。トーラス100は、物理的表面構成106の少なくとも一部の基準表現内の識別された2つの識別された地物102、104の位置から生成される。基準表現は、物理的表面構成の記憶された基準マップまたはモデル、あるいは物理的表面構成の一部に記憶されうる、又は基準表現は、物理的表面構成、又は物理的表面構成の一部の記憶された基準画像でありうる。この実施例では、基準表現に含まれる物理的表面構成106の一部、及び物理的表面構成106の一部のセンサ画像は、第1の地物102を形成する角を有する建築物108を含む。建築物108は、第2の地物104を有する例えば別の建築物又は広い土地等の構造体110に支持される。上記物理的構造体は、共通の物理的構造体の構成要素であってもなくてもよい。
図2に、スピンドルトーラスの形態のジオアーク200の第2の実施例を示す。ジオアーク200は、センサ画像、及び基面208に配置された、たとえば地球の表面等の物理的表面構成206の少なくとも一部の基準表現内の識別された2つの地物202、204の位置から生成される。この状況は、空中プラットフォーム、または基面208から周知の高さHだけ上にある他のビークル211に配置されたカメラ210に対応する。ジオアーク200は、地物202、204の間の線の中心点に基点212を有する座標系によって画定される。このトーラスベースの座標系では、x´軸は地物202、204の間の線上にあり、y´軸は基面208において水平にx´軸に対して垂直に延び、z´軸は基面から垂直に離間して延びる。
例えばセンサ114又はカメラ112、210、306又は412等の画像センサを有するビークル116等のビークルの空間的位置を決定する方法600の一例を図6に示す。図6は、例示的な方法における空間的位置特定システムの一実施形態によって実施される工程を示すフロー図であり、本方法の完全なプロセス又はすべてのステップを列挙しているわけではない。方法600の様々なステップを後述し、図6に示すが、ステップは必ずしもすべて実行する必要はなく、場合によっては、図示した順序とは異なる順序で実行されることもある。本方法600は、特に、ビークルの位置を特定する他の技術が利用可能でないときに有用である。
Sloc=Nc=mv(mv−1)/2
の値を有し、Ncは、基準表現のピクセルにおいて重複するジオアークの数であり、mvは、カメラ画像300内の検出された有効な地物302、304の数であり、例えば基準マップ402にあり、正確に割り当てられた測定された地物のペアの角度θを有する地物のペアの1つである地物404、406である。ランダムな位置424においてNcジオアークが偶然重複する確率は、ジオアークの面積の分数の積である。
上記式において、L2はL×Lマップの面積であり、Anはジオアークnの面積である。Pcは、Ncとともに急速に減少し、位置特定信号SlocはNcとともに直線的に、また有効な地物の数とともに二次的に増加する。
幾つかの実施例では、マップ地物データベースを区分にセグメント化することにより、計算負荷が削減され、マルチコアプロセッサを使用することにより効率的な平行化が可能になる。図7に、例えばカメラ306、412等の画像センサを有する、例えばビークル116、411等のビークルの空間的な位置特定を行う、全体的に600で示す空間的な位置特定を行う方法600の一例として、GALS方法700の一例を示す。図7は、例示的な方法の空間的位置特定システムの一実施形態によって実施される工程を説明するフロー図であり、本方法の完全なプロセス又はすべてのステップを列挙しているわけではない。方法700の様々なステップが後述され、図7に示されているが、ステップは必ずしもすべて実行される必要がある訳ではなく、場合によっては、図示した順序とは異なる順序で実行されることもある。方法600と同様に、ビークルの位置を特定する他の技術が利用可能でないときに、方法700が有用である。
この実施例は、体積要素(ボクセル)の三次元空間において定義される基準表現を使用する例示的な空間的位置特定システム及び方法である(図1及び10参照)。図10は、例示的な方法の空間的位置特定システムの一実施形態によって実施される工程を説明するフロー図であり、本方法の完全なプロセス又はすべてのステップを列挙しているわけではない。方法1000の様々なステップを後述し、図10に示したが、ステップは必ずしもすべて実施される必要がある訳ではなく、場合によっては、図示した順序とは異なる順序で実施されることもある。GPS又は他の位置特定システムが利用可能でないときに、この方法及び対応する空間的位置特定システムを使用することができる。
この実施例は、体積要素(ボクセル)の三次元空間で定義される基準表現と、プロセスにおける不確実性を表す厚さを有するジオアークとを使用する、例示的な空間的位置特定システム及び方法である(図1、10、11及び12参照)。
Sloc=Nc=mv(mv−1)/2
の値を有することになり、上記式において、mvは、カメラ画像内の有効な検出された地物の数、例えば、三次元マップ内にあり、正確に割り当てられた測定された地物のペアの角度を有する地物のペアの1つである地物の数である。ランダムな位置においてNc三次元ジオアークが偶然重複する確率は、三次元ジオアークの体積の分数の積である。
上記式において、L3はL×L×L基準マップの体積であり、Vnは三次元ジオアークnの体積である。Pcは、Ncとともに急速に減少し、位置特定信号SlocはNcとともに直線的に、また有効な地物の数とともに二次的に増加する。三次元ジオアークシステム及び方法はしたがって、地物の検出、マッチング、及び角度の割り当てにおいて大幅な誤差があるときに、信頼性の高い結果を生む。したがって、ほんのわずかの三次元ジオアークが有効である場合、上記誤差に起因して、位置特定信号Slocがノイズ信号Snoiseを上回るため、許容範囲である。
回転行列は、以下の通りである。
次に、結果として得られた(x´、y´、z´)座標系の点に適用される内外試験を適用することができる。
この実施例は、物理的表面構成の基準表現の一例である地物基準マップを生成する工程の一例である(図13参照)。図13は、例示的な方法の空間的位置特定システムの一実施形態で実施される工程を示すフロー図であり、本方法の完全なプロセス又はすべてのステップを列挙しているわけではない。方法1300の様々なステップが後述され、図13に示されているが、ステップは必ずしもすべて実行される必要がある訳ではなく、場合によっては、図示した順序とは異なる順序で実施されることもある。
この実施例は、三次元座標空間に位置する物理的表面構成に対して、ビークルの空間的な位置特定を行うための例示の方法である(図14参照)。図14は、例示的な方法の空間的位置特定システムの一実施形態で実施される工程を示すフロー図であり、本方法の完全なプロセス又はすべてのステップを列挙しているわけではない。方法1400の様々なステップが後述され、図14に示されているが、ステップは必ずしも全て実行する必要がある訳ではなく、場合によっては、図示された順序とは異なる順序で実施することもある。
図15に示すように、この実施例は、本開示の態様に係るデータ処理システム1500である。この実施例では、データ処理システム1500は、空間的位置特定システム1501及び関連方法の態様を実装するのに適切な例示的なデータ処理システムである。より具体的には、幾つかの実施例では、データ処理システム(例えば、スマートフォン、タブレット、パーソナルコンピュータ)の実施形態であるデバイスは、上述の方法の幾つか、あるいは全てを実施しうる。例えば、ビークルは、常駐カメラ112によって取得された画像を使用して、ビークルの位置を決定するための常駐データ処理システムを有しうる。
図16に示したように、この実施例はネットワーク、コンピュータネットワーク、ネットワークシステム、分散ネットワークとも称される、一般的なネットワークデータ処理システム1600であり、この実施例の態様は、空間的位置特定システムの一または複数の例示的な実施形態に含まれうる。例えば、上述したように、サーバデータ処理システム内のコンピュータ可読記憶媒体に記憶されているプログラムコードは、ネットワークを介してサーバからデータ処理システム1600にダウンロードされうる。あるいは、データ処理システム1600´は、画像センサを有するビークルに常駐しうる。図16は1つの実行態様の例示として提供されるものであり、異なる実施形態が実行される環境について、いかなる限定をも示唆することを意図していないことを理解されたい。図示されている環境に多数の修正を行うことが可能である。
図17は、位置を取得しているビークル1704に対する、一又は複数の位置を探しているビークル1702の位置を特定するためのビークル群位置特定システム1700の一実施形態を示すブロック図である。位置を取得しているビークル1704は、空間的位置特定システム1706を含む。空間的位置特定システム1706は、上述した方法論を使用する空間的位置特定システム1501、1601の一例であってよく、この場合、空間的位置特定システム1706は、画像センサ1710から物理的表面構成1708の画像を受信するように構成されている。物理的表面構成は例えば、これも上述した物理的表面1712であってよい。任意選択的に、ビークル1704の位置を特定する他の技術、例えばGPSを使用することも可能である。
この実施例は、物理的表面構成に対するビークルの空間的位置を特定する例示的な方法である(図18参照)。図18は、例示的な方法の空間的位置特定システムの一実施形態で実施される工程を示すフロー図であり、本方法の完全なプロセス又はすべてのステップを列挙しているわけではない。方法1800の様々なステップが後述され、図18に示されているが、ステップは必ずしもすべて実施される必要がある訳ではなく、場合によっては、図示した順序とは異なる順序で実施されることもある。
この節では、方法、システム、及び装置のさらなる態様及び特徴を説明するが、これらは、限定されずに一連の段落として提示され、一連の段落の一部または全部は、明確性及び効率性のために英数字で指定され得る。これらの段落の各々は、一又は複数の他の段落と、及び/又は任意の適した方法における、関連出願参照により組み込まれる資料を含む本出願の他の部分からの開示と、組み合わせることができる。以下の段落の幾つかは、明確に他の段落に言及し、更に他の段落を限定することにより、非限定的に、好適な組み合わせの幾つかの例を提供するものである。
物理的表面構成から既知の距離だけ離隔した位置からの前記物理的表面構成の一部の画像を、ビークルによって支持されたセンサから取得することと、
前記取得された画像内の地物を識別することと、
前記取得された画像内の識別された地物を、前記物理的表面構成の一部の基準表現内の識別された地物と関連づけすることと、
前記基準表現内の対応する識別された地物のペアを有する前記取得された画像内の複数の地物のペアを選択することと、
前記取得された画像内の各選択された地物のペアに対して、
前記センサからの前記地物のペア間の画角を決定することと、
前記決定された画角と、前記基準表現内の前記選択された地物のペアとを関連付けする三次元ジオアークを生成することと、
前記物理的表面構成の一部から前記既知の距離だけ離間して配置された前記ジオアークの選択部分を決定することと、
前記選択された地物のペアに対する前記ジオアークの選択部分が重複する位置を識別することとを含む方法。
物理的表面構成から既知の距離だけ離隔した位置から、物理的表面構成の一部の画像を生成するように構成されたセンサと、
センサに通信可能に接続されたデータ処理システムとを備え、データ処理システムは、
物理的表面構成の一部の基準表現と、基準表現内の識別された地物を記憶し、
取得された画像内の地物を識別し、
取得された画像内の識別された地物を、基準表現内の識別された地物と関連づけし、
基準表現内の対応する識別された地物のペアを有する、取得された画像内の複数の地物のペアを選択し、
取得された画像内の各選択された地物のペアに対し、
センサからの地物のペア間の画角を決定し、
決定された画角と、基準表現内の選択された地物のペアとを関連付けする三次元ジオアークを生成し、
物理的表面構成の一部から既知の距離だけ離間して配置されたジオアークの選択部分を決定し、
選択された地物のペアに対するジオアークの選択部分が重複する位置を識別するように構成されている、ビークル。
コンピュータプログラム製品で具現化されるコンピュータ可読プログラム命令を有する少なくとも1つのコンピュータ可読記憶媒体を備え、コンピュータ可読プログラム命令は、プロセッサによって実行されたときに、プロセッサを、
物理的表面構成の一部の基準表現と、基準表現内の識別された地物とを記憶し、
物理的表面構成から既知の距離だけ離隔した位置から、ビークルによって支持されたセンサによって生成された、物理的表面構成の一部の画像を受信して記憶し、
受信した画像内の地物を識別し、
取得された画像内の識別された地物を、基準表現内の識別された地物に関連付けし、
基準表現内の対応する識別された地物のペアを有する受信した画像内の複数の地物のペアを選択し、
受信した画像内の各選択された地物のペアに対して、
センサからの地物のペア間の画角を決定し、
決定された画角と、基準表現内の選択された地物のペアとを関連付けする三次元ジオアークを生成し、
物理的表面構成の一部から既知の距離だけ離間して配置されたジオアークの選択部分を決定し、
選択された地物のペアに対するジオアークの選択部分が重複する位置を識別するように構成する、コンピュータプログラム製品。
物理的表面構成から離隔した位置からの物理的表面構成の一部の画像を、ビークルによって支持されたセンサから取得することと、
取得された画像内の地物を識別することと、
取得した画像内の識別された地物を、物理的表面構成の一部の、体積要素(ボクセル)の三次元空間において定義される三次元基準表現内の識別された地物と関連づけることと、
基準表現内の対応する識別された地物のペアを有する、取得された画像内の複数の地物のペアを選択することと、
取得された画像内の各選択された地物のペアに対して、
センサからの地物のペア間の画角を決定することと、
決定された画角と、基準表現内の選択された地物のペアとを関連付けする三次元ジオアークを生成することと、
生成されたジオアークに含まれるボクセルを識別することと、
各識別されたボクセルに対し、ボクセルが含まれる生成されたジオアークの数を集計することと、
識別された一又は複数のどのボクセルが、最も数多いジオアーク内に含まれているかを決定することとを含む方法。
物理的表面構成から離隔した位置から物理的表面構成の一部の画像を生成するように構成されたセンサと、
センサに通信可能に接続されたデータ処理システムと
を備え、前記データ処理システムは、
既知の距離だけ物理的表面構成から離隔した位置からの物理的表面構成の一部の画像をセンサから取得し、
取得した画像内の地物を識別し、
取得した画像内の識別された地物を、物理的表面構成の一部の、体積要素(ボクセル)の三次元空間内に定義された三次元基準表現内の識別された地物と関連づけし、
基準表現内の対応する識別された地物のペアを有する、取得した画像内の複数の地物のペアを選択するように構成され、
取得した画像内の各選択された地物のペアに対し、
センサからの地物のペア間の画角を決定し、
決定された画角と基準表現内の選択された地物のペアとを関連付けする三次元ジオアークを生成し、
生成されたジオアーク内に含まれるボクセルを識別し、
各識別されたボクセルに対し、ボクセルが含まれる生成されたジオアークの数を集計し、
識別された一又は複数のどのボクセルが、最も数多いジオアーク内に含まれているかを決定するように構成されている、ビークル。
コンピュータプログラム製品で具現化されるコンピュータ可読プログラム命令を有する少なくとも1つのコンピュータ可読記憶媒体を備え、コンピュータ可読プログラム命令は、プロセッサによって実行されたときに、プロセッサを、
物理的表面構成から離隔した位置からの物理的表面構成の一部の画像を、ビークルによって支持されたセンサから取得し、
取得された画像内の地物を識別し、
取得した画像内の識別された地物を、物理的表面構成の一部の、体積要素(ボクセル)の三次元空間において定義される三次元基準表現内の識別された地物と関連づけし、
基準表現内の対応する識別された地物のペアを有する、取得された画像内の複数の地物のペアを選択し、
取得された画像内の各選択された地物のペアに対して、
センサからの地物のペア間の画角を決定し、
決定された画角と基準表現内の選択された地物のペアとを関連付けする三次元ジオアークを生成し、
生成されたジオアークに含まれるボクセルを識別し、
各識別されたボクセルに対し、ボクセルが含まれる生成されたジオアークの数を集計し、
識別された一又は複数のどのボクセルが、最も数多いジオアーク内に含まれているかを決定するように構成する、コンピュータプログラム製品。
物理的表面構成から離隔した位置からの物理的表面構成の一部の画像を、ビークル上に支持されたセンサから取得することと、
取得された画像内の地物を識別することと、
取得した画像内の識別された地物を、物理的表面構成の一部の、体積要素(ボクセル)の三次元空間において定義される三次元基準表現内の識別された地物と関連づけることと、
基準表現内の対応する識別された地物のペアを有する、取得された画像内の複数の地物のペアを選択することと、
取得された画像内の各選択された地物のペアに対して、
センサからの地物のペア間の画角を決定することと、
決定された画角と、基準表現内の選択された地物のペアとを関連付けする三次元ジオアークを生成することと、
生成されたジオアークに含まれるボクセルを識別することと、
各識別されたボクセルに対し、ボクセルが含まれる生成されたジオアークの数を集計することと、
識別された一又は複数のどのボクセルが最も数多いジオアーク内に含まれるかを決定することとを含む方法。
物理的表面構成から離隔した位置から物理的表面構成の一部の画像を生成するように構成されたセンサと、
センサに通信可能に接続されたデータ処理システムと
を備え、前記データ処理システムは、
既知の距離だけ物理的表面構成から離隔した位置からの物理的表面構成の一部の画像をセンサから取得し、
取得した画像内の地物を識別し、
取得した画像内の識別された地物を、物理的表面構成の一部の、体積要素(ボクセル)の三次元空間内に定義された三次元基準表現内の識別された地物と関連づけし、
基準表現内の対応する識別された地物のペアを有する、取得した画像内の複数の地物のペアを選択するように構成され、
取得した画像内の各選択された地物のペアに対し、
センサからの地物のペア間の画角を決定し、
決定された画角と基準表現内の選択された地物のペアとを関連付けする三次元ジオアークを生成し、
生成されたジオアーク内に含まれるボクセルを識別し、
各識別されたボクセルに対し、ボクセルが含まれる生成されたジオアークの数を集計し、
識別された一又は複数のどのボクセルが、最も数多いジオアーク内に含まれているかを決定するように構成されている、ビークル。
コンピュータプログラム製品で具現化されるコンピュータ可読プログラム命令を有する少なくとも1つのコンピュータ可読記憶媒体を備え、コンピュータ可読プログラム命令は、プロセッサによって実行されたときに、プロセッサに、
物理的表面構成から離隔した位置からの物理的表面構成の一部の画像を、ビークルによって支持されたセンサから取得し、
取得された画像内の地物を識別し、
取得した画像内の識別された地物を、物理的表面構成の一部の、体積要素(ボクセル)の三次元空間において定義される三次元基準表現内の識別された地物と関連づけし、
基準表現内の対応する識別された地物のペアを有する、取得された画像内の複数の地物のペアを選択し、
取得された画像内の各選択された地物のペアに対し、
センサからの地物のペア間の画角を決定し、
決定された画角と、基準表現内の選択された地物のペアとを関連付けする三次元ジオアークを生成し、
生成されたジオアークに含まれるボクセルを識別し、
各識別されたボクセルに対し、ボクセルが含まれる生成されたジオアークの数を集計し、
識別された一又は複数のどのボクセルが、最も数多いジオアーク内に含まれているかを決定するように構成する、コンピュータプログラム製品。
本書に記載された空間的位置特定システム、方法、及び装置の種々の実施形態は、画像センサと支持しているビークルの位置を特定するための周知の解決法よりも優れた幾つかの利点を提供するものである。本書に記載された空間的位置特定システム、方法、及び装置の実施形態は、受動的なカメラベースの方法を使用しているが、既存の受動的なカメラの方法とは異なり、三次元モデルの推定、一連の地物に対する高い精度の一致の検索、画像のゆがみ、又はシーン内のオブジェクトの認識を必要としない。代わりに、例えば画像内のエッジ、角、ピーク等の単純な地物間の相対角度のみが測定され、検出された地物のうちの小さい部分集合を、例えば二次元又は三次元オブジェクト又はシーン等の物理的表面構成に対して、正確な二次元又は三次元空間的及び地球の位置特定のためのマッピングされた地物のデータベースとマッチさせる必要があるだけである。空間的位置特定システム、方法、及び装置の特性により、画像又は一連の地物をマップとマッチさせようと試みる既存の画像ベースの方法よりもさらに正確で強固、及び効率的なものとなる。したがって、本書に記載される例示的な実施形態は、GPSに対応していないデバイス、あるいはGPSが利用可能でない位置にあるデバイスに特に有用である。しかしながら、本書で説明されているすべての実施形態が、同じ利点または同一程度の利点を提供する訳ではない。
上述の開示は、個別の有用性を備えた複数の個々の発明を包括しうる。これらの発明の各々は、その好適な形態(複数可)で開示されているが、本書で開示され例示されているそれらの具体的な実施形態は、数多くの変形例が可能であることから、限定的な意味で捉えるべきものではない。本書で使用されている限り、セクション見出しは構成上の目的のものに過ぎず、なんら本発明の請求の範囲を特徴付けるものではない。本発明の主題は、本書で開示されている様々な要素、特徴、機能、及び/または特性の、新規かつ非自明な組み合わせ及び部分的組み合わせのすべてを含む。下記の特許請求の範囲は、新規かつ非自明と見なされる、ある組み合わせ及び部分的組み合わせを特に指し示すものである。特徴、機能、要素、及び/または特性のその他の組み合わせ及び部分的組み合わせにおいて具現化される発明は、この出願または関連出願からの優先権を主張する出願において特許請求され得る。こうした特許請求の範囲はまた、異なる発明を対象とするか、または同一の発明を対象とするかに関わらず、且つ、出願当初の特許請求の範囲よりも広いか、狭いか、等しいか、またはそれと異なるかに関わらず、本開示の発明の主題の中に含まれると見なされる。
Claims (15)
- 空間的位置を特定する方法であって、
物理的表面構成から離隔した位置からの前記物理的表面構成の一部の画像を、ビークル上に支持されたセンサから取得することと、
前記取得された画像内の地物を識別することと、
前記取得された画像内の識別された地物を、前記物理的表面構成の一部の、体積要素(ボクセル)の三次元空間において定義される三次元基準表現内の識別された地物と関連づけすることと、
前記基準表現内の対応する識別された地物のペアを有する、前記取得された画像内の複数の地物のペアを選択することと、
前記取得された画像内の各選択された地物のペアに対して、
前記センサからの前記地物のペア間の画角を決定することと、
前記決定された画角と、前記基準表現内の前記選択された地物のペアとを関連付けする三次元ジオアークを生成することと、
前記生成されたジオアークに含まれるボクセルを識別することと、
各識別されたボクセルに対し、前記ボクセルが含まれる前記生成されたジオアークの数を集計することと、
識別された一又は複数のどのボクセルが、最も数多いジオアーク内に含まれているかを決定することとを含む方法。 - 前記センサからの前記地物のペア間の画角を決定することは、前記センサからの前記地物のペア間の画角の範囲であって、高画角と低画角との間に広がる前記画角の範囲を決定することを含み、三次元ジオアークを生成することは、高画角に基づいて内側ジオアーク表面を生成することと、低画角に基づいて外側ジオアーク表面を生成することとを含む、請求項1に記載の方法。
- 前記生成されたジオアークに含まれるボクセルを識別することは、どのボクセルが、前記外側ジオアーク表面及び前記内側ジオアーク表面によって囲まれた空間の体積内にあるかを決定することを含む、請求項2に記載の方法。
- 前記三次元空間は、第1の座標原点を有する第1の座標系によって定義され、前記決定された画角と前記基準表現内の前記選択された地物のペアとを関連付けする三次元ジオアークを生成することは、前記第1の座標系に前記三次元ジオアークを生成することを含み、前記生成されたジオアークに含まれるボクセルを識別することは、前記ジオアークの座標を、前記関連の識別された地物のペア間の中心にあるそれぞれの座標原点を有するそれぞれの座標系に変換することと、前記ボクセルの座標を前記それぞれの座標系に変換することとを含む、請求項1から3のいずれか一項に記載の方法。
- 前記生成されたジオアークに含まれるボクセルを識別することは、各変換されたボクセルが、前記変換された内側ジオアーク表面の半径と前記変換された外側ジオアーク表面の半径との間にある前記それぞれの座標原点からある距離に配置されているかを決定することを含む、請求項4に記載の方法。
- 前記生成されたジオアークに含まれるボクセルを識別することは、前記三次元空間の一部を選択することと、前記ボクセルが前記生成されたジオアーク内に含まれるかを、前記三次元空間の選択部分内の各ボクセルに対して決定することとを含む、請求項1から5のいずれか一項に記載の方法。
- 前記生成されたジオアークに前記ボクセルが含まれるかを各ボクセルに対して決定することは、前記三次元空間の前記ボクセルに対してボクセルサイズを選択することと、前記ボクセルが前記生成されたジオアークに含まれるかを、前記選択されたボクセルサイズの各ボクセルに対して決定することとを含む、請求項1から6のいずれか一項に記載の方法。
- 前記生成されたジオアークに前記ボクセルが含まれるかを各ボクセルに対して決定することは、前記三次元空間を複数の個別部分に分割することと、前記それぞれの個別部分内の前記ボクセルが前記生成されたジオアークに含まれるかを、前記複数の個別部分の複数の各々に対して同時に識別することとを含む、請求項1から7のいずれか一項に記載の方法。
- ビークルであって、
物理的表面構成から離隔した位置から前記物理的表面構成の一部の画像を生成するように構成されたセンサと、
前記センサに通信可能に接続されたデータ処理システムと
を備え、前記データ処理システムは、
物理的表面構成から離隔した位置からの前記物理的表面構成の一部の画像を、前記センサから取得し、
前記取得された画像内の地物を識別し、
前記取得された画像内の識別された地物を、前記物理的表面構成の一部の、体積要素(ボクセル)の三次元空間において定義された三次元基準表現内の識別された地物と関連づけし、
前記基準表現内の対応する識別された地物のペアを有する、前記取得された画像内の複数の地物のペアを選択するように構成され、
前記取得された画像内の各選択された地物のペアに対し、
前記センサからの前記地物のペア間の画角を決定し、
前記決定された画角と前記基準表現内の前記選択された地物のペアとを関連付けする三次元ジオアークを生成し、
前記生成されたジオアーク内に含まれるボクセルを識別し、
各識別されたボクセルに対し、前記ボクセルが含まれる前記生成されたジオアークの数を集計し、
識別された一又は複数のどのボクセルが、最も数多いジオアーク内に含まれているかを決定するように構成されている、ビークル。 - 前記データ処理システムは更に、前記センサからの前記地物のペア間の画角の範囲であって、高画角と低画角との間に広がる前記画角の範囲を決定し、前記高画角に基づいて内側ジオアーク表面を生成し、また前記低画角に基づいて外側ジオアーク表面を生成するように構成されている、請求項9に記載のビークル。
- 前記データ処理システムは更に、どのボクセルが前記外側ジオアーク表面及び前記内側ジオアーク表面によって囲まれた前記空間の体積内にあるかを決定するように構成されている、請求項10に記載のビークル。
- 前記三次元空間は、第1の座標原点を有する第1の座標系によって定義され、前記データ処理システムは更に、前記第1の座標系に前記三次元ジオアークを生成し、前記ジオアークの座標を、前記関連の識別された地物のペア間の中心にあるそれぞれの座標原点を有するそれぞれの座標系に変換し、前記ボクセルの座標を前記それぞれの座標系に変換するように構成され、任意選択的に、前記データ処理システムは更に、各変換されたボクセルが、前記変換された内側ジオアーク表面の半径と前記変換された外側ジオアーク表面の半径との間にある前記それぞれの座標原点からある距離に配置されているかを決定するように構成されている、請求項9から11のいずれか一項に記載のビークル。
- 前記データ処理システムは更に、前記三次元空間の一部を選択し、前記ボクセルが前記生成されたジオアークに含まれるかを、前記三次元空間の選択部分内の各ボクセルに対して決定するように構成されている、請求項9から12のいずれか一項に記載のビークル。
- 前記データ処理システムは更に、前記三次元空間の前記ボクセルに対してボクセルサイズを選択し、前記ボクセルが前記生成されたジオアークに含まれるかを、前記選択されたサイズの各ボクセルに対して決定するように構成されている、請求項9から13のいずれか一項に記載のビークル。
- 前記データ処理システムは更に、前記三次元空間を複数の個別部分に分割し、前記それぞれの個別部分内の前記ボクセルが前記生成されたジオアーク内に含まれるかを、前記複数の個別部分の複数の各々に対して同時に識別するように構成されている、請求項9から14のいずれか一項に記載のビークル。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/252,145 | 2016-08-30 | ||
US15/252,145 US10013798B2 (en) | 2016-08-30 | 2016-08-30 | 3D vehicle localizing using geoarcs |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018072316A true JP2018072316A (ja) | 2018-05-10 |
JP7057632B2 JP7057632B2 (ja) | 2022-04-20 |
Family
ID=59337420
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017131832A Active JP7057632B2 (ja) | 2016-08-30 | 2017-07-05 | ジオアーク(geoarc)を使用したビークルの二次元位置の特定 |
Country Status (6)
Country | Link |
---|---|
US (2) | US10013798B2 (ja) |
EP (1) | EP3291178B1 (ja) |
JP (1) | JP7057632B2 (ja) |
KR (1) | KR102387679B1 (ja) |
CN (2) | CN116485854A (ja) |
HK (1) | HK1251339A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7072311B1 (ja) * | 2021-07-21 | 2022-05-20 | 株式会社センシンロボティクス | 移動体の移動経路生成方法及びプログラム、管理サーバ、管理システム |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11107276B2 (en) * | 2017-03-23 | 2021-08-31 | Sony Interactive Entertainment Inc. | Scaling voxels in a virtual space |
CN110138519A (zh) * | 2018-02-02 | 2019-08-16 | 索尼公司 | 无线通信***中的装置和方法、计算机可读存储介质 |
US10832045B2 (en) | 2019-01-10 | 2020-11-10 | Microsoft Technology Licensing, Llc | Camera environment mapping |
CN110717935B (zh) * | 2019-08-26 | 2022-05-17 | 北京中科慧眼科技有限公司 | 一种基于图像特征信息的图像匹配方法,装置与*** |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000337887A (ja) * | 1999-05-25 | 2000-12-08 | Mitsubishi Electric Corp | 移動体の自己位置標定装置 |
JP2006234683A (ja) * | 2005-02-25 | 2006-09-07 | National Univ Corp Shizuoka Univ | 測位システム |
JP2008020225A (ja) * | 2006-07-11 | 2008-01-31 | Fujitsu Ltd | 自己位置推定プログラム、自己位置推定方法および自己位置推定装置 |
US20080026733A1 (en) * | 2006-07-27 | 2008-01-31 | Jussi Jaatinen | Method and system for improving positioning accuracy in cellular networks |
JP2013040932A (ja) * | 2011-08-09 | 2013-02-28 | Boeing Co:The | 画像ベースの位置決定 |
JP2013232195A (ja) * | 2012-04-30 | 2013-11-14 | Boeing Co:The | 3DGeoArcを用いた多モードデータの画像登録 |
Family Cites Families (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
IL120136A0 (en) | 1997-02-03 | 1997-06-10 | Yissum Res Dev Co | Synthesizing virtual two dimensional images of three dimensional space from a collection of real two dimensional images |
EP0928460B1 (en) | 1997-07-29 | 2003-01-29 | Philips Electronics N.V. | Method of reconstruction of tridimensional scenes and corresponding reconstruction device and decoding system |
JPH11205648A (ja) | 1998-01-09 | 1999-07-30 | Olympus Optical Co Ltd | 画像合成装置 |
AU4311901A (en) | 1999-12-10 | 2001-06-18 | Michael I. Miller | Method and apparatus for cross modality image registration |
US6819779B1 (en) | 2000-11-22 | 2004-11-16 | Cognex Corporation | Lane detection system and apparatus |
JP4492036B2 (ja) | 2003-04-28 | 2010-06-30 | ソニー株式会社 | 画像認識装置及び方法、並びにロボット装置 |
CN100410622C (zh) * | 2004-05-14 | 2008-08-13 | 佳能株式会社 | 用于获得目标物体的位置和方位的信息处理方法和设备 |
US7580591B2 (en) | 2005-07-01 | 2009-08-25 | The Boeing Company | Method for generating a synthetic perspective image |
EP1862969A1 (en) | 2006-06-02 | 2007-12-05 | Eidgenössische Technische Hochschule Zürich | Method and system for generating a representation of a dynamically changing 3D scene |
JP4196302B2 (ja) | 2006-06-19 | 2008-12-17 | ソニー株式会社 | 情報処理装置および方法、並びにプログラム |
US9123159B2 (en) | 2007-11-30 | 2015-09-01 | Microsoft Technology Licensing, Llc | Interactive geo-positioning of imagery |
US8191828B2 (en) | 2008-05-13 | 2012-06-05 | The Boeing Company | Methods and apparatus for aerial recovery of flying apparatus |
US20090295791A1 (en) | 2008-05-29 | 2009-12-03 | Microsoft Corporation | Three-dimensional environment created from video |
US8224071B2 (en) * | 2009-06-30 | 2012-07-17 | Mitsubishi Electric Research Laboratories, Inc. | Method for registering 3D points with 3D planes |
US8249302B2 (en) * | 2009-06-30 | 2012-08-21 | Mitsubishi Electric Research Laboratories, Inc. | Method for determining a location from images acquired of an environment with an omni-directional camera |
US8511614B2 (en) * | 2010-03-22 | 2013-08-20 | Raytheon Company | Satellite system providing optimal space situational awareness |
US20120019522A1 (en) | 2010-07-25 | 2012-01-26 | Raytheon Company | ENHANCED SITUATIONAL AWARENESS AND TARGETING (eSAT) SYSTEM |
JPWO2012086821A1 (ja) | 2010-12-20 | 2014-06-05 | 日本電気株式会社 | 測位装置、測位方法 |
US8587583B2 (en) * | 2011-01-31 | 2013-11-19 | Microsoft Corporation | Three-dimensional environment reconstruction |
US9319172B2 (en) * | 2011-10-14 | 2016-04-19 | Qualcomm Incorporated | Interference mitigation techniques for air to ground systems |
US9501700B2 (en) | 2012-02-15 | 2016-11-22 | Xactware Solutions, Inc. | System and method for construction estimation using aerial images |
FR2999303B1 (fr) * | 2012-12-12 | 2018-03-30 | Thales | Procede de geo localisation precise d'un capteur d'images embarque a bord d'un aeronef |
CA2902040C (en) | 2013-02-22 | 2019-07-23 | Ohio University | Reduction of sensor captured data streamed to an operator |
US9802693B2 (en) * | 2013-06-14 | 2017-10-31 | The Boeing Company | Control surface calibration system |
US9679227B2 (en) | 2013-08-02 | 2017-06-13 | Xactware Solutions, Inc. | System and method for detecting features in aerial images using disparity mapping and segmentation techniques |
US9704291B2 (en) * | 2013-11-08 | 2017-07-11 | Here Global B.V. | Structure model creation from a three dimensional surface |
JP6248647B2 (ja) | 2014-01-22 | 2017-12-20 | 富士通株式会社 | 画像照合方法、画像処理システム、及びプログラム |
KR102016551B1 (ko) * | 2014-01-24 | 2019-09-02 | 한화디펜스 주식회사 | 위치 추정 장치 및 방법 |
US9327406B1 (en) | 2014-08-19 | 2016-05-03 | Google Inc. | Object segmentation based on detected object-specific visual cues |
CN104463968B (zh) * | 2014-12-22 | 2017-09-05 | 山东鲁能软件技术有限公司 | 基于电网gis三维平台的遥感影像双目立体视觉匹配及三维重建方法 |
-
2016
- 2016-08-30 US US15/252,145 patent/US10013798B2/en active Active
-
2017
- 2017-06-23 EP EP17177603.2A patent/EP3291178B1/en active Active
- 2017-07-05 JP JP2017131832A patent/JP7057632B2/ja active Active
- 2017-08-08 KR KR1020170100118A patent/KR102387679B1/ko active IP Right Grant
- 2017-08-30 CN CN202310460585.4A patent/CN116485854A/zh active Pending
- 2017-08-30 CN CN201710760336.1A patent/CN107798695B/zh active Active
-
2018
- 2018-07-02 US US16/025,960 patent/US10706617B2/en active Active
- 2018-08-20 HK HK18110662.6A patent/HK1251339A1/zh unknown
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000337887A (ja) * | 1999-05-25 | 2000-12-08 | Mitsubishi Electric Corp | 移動体の自己位置標定装置 |
JP2006234683A (ja) * | 2005-02-25 | 2006-09-07 | National Univ Corp Shizuoka Univ | 測位システム |
JP2008020225A (ja) * | 2006-07-11 | 2008-01-31 | Fujitsu Ltd | 自己位置推定プログラム、自己位置推定方法および自己位置推定装置 |
US20080026733A1 (en) * | 2006-07-27 | 2008-01-31 | Jussi Jaatinen | Method and system for improving positioning accuracy in cellular networks |
JP2013040932A (ja) * | 2011-08-09 | 2013-02-28 | Boeing Co:The | 画像ベースの位置決定 |
JP2013232195A (ja) * | 2012-04-30 | 2013-11-14 | Boeing Co:The | 3DGeoArcを用いた多モードデータの画像登録 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7072311B1 (ja) * | 2021-07-21 | 2022-05-20 | 株式会社センシンロボティクス | 移動体の移動経路生成方法及びプログラム、管理サーバ、管理システム |
WO2023002615A1 (ja) * | 2021-07-21 | 2023-01-26 | 株式会社センシンロボティクス | 移動体の移動経路生成方法及びプログラム、管理サーバ、管理システム |
Also Published As
Publication number | Publication date |
---|---|
US10013798B2 (en) | 2018-07-03 |
EP3291178A1 (en) | 2018-03-07 |
CN116485854A (zh) | 2023-07-25 |
US10706617B2 (en) | 2020-07-07 |
CN107798695B (zh) | 2023-05-16 |
KR102387679B1 (ko) | 2022-04-15 |
EP3291178B1 (en) | 2020-05-20 |
US20180061123A1 (en) | 2018-03-01 |
KR20180025186A (ko) | 2018-03-08 |
CN107798695A (zh) | 2018-03-13 |
US20180330541A1 (en) | 2018-11-15 |
JP7057632B2 (ja) | 2022-04-20 |
HK1251339A1 (zh) | 2019-01-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102526542B1 (ko) | 지오아크를 이용한 2차원 운송수단 국소화 | |
US11145073B2 (en) | Computer vision systems and methods for detecting and modeling features of structures in images | |
KR102126724B1 (ko) | 포인트 클라우드 데이터를 복구하기 위한 방법 및 장치 | |
JP7057632B2 (ja) | ジオアーク(geoarc)を使用したビークルの二次元位置の特定 | |
Chen et al. | Probabilistic graphical fusion of LiDAR, GPS, and 3D building maps for urban UAV navigation | |
US10241214B2 (en) | Acceleration of real time computer vision processing on UAVs through GPS attitude estimation | |
CN115685060A (zh) | 一种室内指纹地图的构建方法及相关装置 | |
Shetty | GPS-LiDAR sensor fusion aided by 3D city models for UAVs | |
CN109003295B (zh) | 一种无人机航空影像快速匹配方法 | |
Sulaj et al. | Examples of real-time UAV data processing with cloud computing | |
Liu et al. | Absolute orientation and localization estimation from an omnidirectional image | |
Mirisola et al. | Exploiting Attitude Sensing in Vision‐Based Navigation for an Airship |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200703 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210712 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210803 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211101 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211124 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220221 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220315 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220408 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7057632 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |