JP2019536012A - 可変コントラスト追跡残余を用いる視覚慣性ナビゲーション - Google Patents
可変コントラスト追跡残余を用いる視覚慣性ナビゲーション Download PDFInfo
- Publication number
- JP2019536012A JP2019536012A JP2019520942A JP2019520942A JP2019536012A JP 2019536012 A JP2019536012 A JP 2019536012A JP 2019520942 A JP2019520942 A JP 2019520942A JP 2019520942 A JP2019520942 A JP 2019520942A JP 2019536012 A JP2019536012 A JP 2019536012A
- Authority
- JP
- Japan
- Prior art keywords
- feature
- navigation
- image
- patch
- tracking
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000000007 visual effect Effects 0.000 title claims abstract description 19
- 230000003287 optical effect Effects 0.000 claims abstract description 13
- 238000005206 flow analysis Methods 0.000 claims abstract description 7
- 238000000034 method Methods 0.000 claims description 14
- 238000005259 measurement Methods 0.000 claims description 7
- 238000013500 data storage Methods 0.000 claims description 6
- 230000008859 change Effects 0.000 claims description 5
- 238000004519 manufacturing process Methods 0.000 claims 1
- 238000005316 response function Methods 0.000 description 3
- 230000002950 deficient Effects 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000011524 similarity measure Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 206010034719 Personality change Diseases 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000001429 visible spectrum Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
- G01C21/1656—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with passive imaging devices, e.g. cameras
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0253—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting relative motion information from a plurality of images taken successively, e.g. visual odometry, optical flow
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/027—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising intertial navigation means, e.g. azimuth detector
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/277—Analysis of motion involving stochastic approaches, e.g. using Kalman filters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/62—Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Automation & Control Theory (AREA)
- Aviation & Aerospace Engineering (AREA)
- Electromagnetism (AREA)
- Navigation (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
視覚支援慣性ナビゲーションシステムは、走行車両のためのナビゲーション解を判定する。特徴追跡モジュールは、独特の視覚的特徴に対応する複数の隣接する画像ピクセルを備える所与のナビゲーション画像内の少なくとも1つの画像特徴パッチを検出することと、追跡残余を計算することに基づいて、複数の後続ナビゲーション画像を横断して少なくとも1つの画像特徴パッチに関する特徴軌跡を計算することと、少なくとも1つの特徴パッチの定量化可能特性の変化に伴って経時的に変動する、特徴追跡閾値基準を上回る追跡残余を有する任意の特徴軌跡を除外することとに基づいて、ナビゲーション画像のオプティカルフロー分析を実施する。多状態制約カルマンフィルタは、ナビゲーション画像および除外されない特徴軌跡を分析し、ナビゲーション画像毎に画像センサの推定される位置および配向を特徴付ける、推定される画像センサ姿勢の時系列を生産する。
Description
本出願は、2016年10月26日に出願された米国仮特許出願第62/413,388号に対して優先権を主張する。上記文献は、その全体として参照することによって本明細書において援用される。
(連邦支援の研究または開発に関する陳述)
本発明は、米国陸軍(RDECOM,ACC−APG CERDEC)によって助成された契約番号W56KGU−14−C−00035での政府支援のもとでなされた。米国政府は、本発明に一定の権利を有する。
本発明は、米国陸軍(RDECOM,ACC−APG CERDEC)によって助成された契約番号W56KGU−14−C−00035での政府支援のもとでなされた。米国政府は、本発明に一定の権利を有する。
(技術分野)
本発明は、視覚支援慣性ナビゲーションに関する。
本発明は、視覚支援慣性ナビゲーションに関する。
(背景技術)
オドメトリは、運動センサからのデータを使用して、位置の変化を経時的に推定する。例えば、車輪付きの自律的ロボットは、その車輪に結合される、回転式エンコーダを使用し、車輪の回転を測定し、初期場所から工場の床に沿って走行される距離および方向を推定してもよい。したがって、オドメトリは、開始場所に対して位置および/または配向を推定する。オドメトリシステムの出力は、ナビゲーション解と呼ばれる。
オドメトリは、運動センサからのデータを使用して、位置の変化を経時的に推定する。例えば、車輪付きの自律的ロボットは、その車輪に結合される、回転式エンコーダを使用し、車輪の回転を測定し、初期場所から工場の床に沿って走行される距離および方向を推定してもよい。したがって、オドメトリは、開始場所に対して位置および/または配向を推定する。オドメトリシステムの出力は、ナビゲーション解と呼ばれる。
ビジュアルオドメトリは、1つ以上のカメラを使用して、一連の画像(フレーム)を捕捉し、一連の画像内の特徴の見掛け移動を追跡することによって、現在の位置および/または配向を前の位置および/または配向から推定する。追跡され得る、画像特徴は、特徴がナビゲーション基準フレームに対して固定されたままであると仮定され得、または、基準フレーム内の特徴の運動がモデル化され得る限り、かつ特徴の視覚的属性が画像が捕捉される時間にわたって一定のままであると仮定され得、または、視覚的属性の時間的変化がモデル化され得る限り、明度または色等のいくつかの視覚的属性によって、その個別のローカル背景から区別可能な画像内の点、線、または他の形状を含む。ビジュアルオドメトリは、使用される移動様式のタイプにかかわらず、使用可能である。例えば、ビジュアルオドメトリは、走行される距離を直接に記録することができる、車輪または他のセンサがない航空機によっても使用可能である。ビジュアルオドメトリに関するさらなる背景情報は、Giorgio Grisetti,et al.,“A Tutorial on Graph−Based SLAM,”IEEE Intelligent Transportation Systems Magazine,Vol.2,Issue 4,pp.31−43,1/31/2011において利用可能であり、その文献の全内容は、ここで参照することによって本明細書において援用される。
視覚支援慣性ナビゲーションシステムは、ビジュアルオドメトリの使用を慣性測定と組み合わせ、推定されるナビゲーション解を取得する。例えば、1つのアプローチは、多状態制約カルマンフィルタとして知られるものを使用する。Mourikis,Anastasios I.,and Stergios I.Roumeliotis.“A multi−state constraint Kalman filter for vision−aided inertial navigation.”Proceedings of the IEEE International Conference on Robotics and Automation.IEEE,2007を参照されたい。上記文献は、参照することによってその全体として本明細書において援用される。
(要約)
本発明の実施形態は、走行車両のためのナビゲーション解を判定するためのコンピュータ実装視覚支援慣性ナビゲーションシステムを対象とする。画像センサは、ナビゲーション画像の時系列を生産するために構成される。慣性測定ユニット(IMU)は、慣性ナビゲーション情報の時系列を生成するように構成される。データ記憶メモリは、画像センサおよび慣性測定センサに結合され、ナビゲーションソフトウェア、ナビゲーション画像、慣性ナビゲーション情報、および他のシステム情報を記憶するために構成される。少なくとも1つのハードウェアプロセッサを含むナビゲーションプロセッサは、データ記憶メモリに結合され、ナビゲーションソフトウェアを実行するように構成される。ナビゲーションソフトウェアは、a.独特の視覚的特徴に対応する複数の隣接する画像ピクセルを備える所与のナビゲーション画像内の少なくとも1つの画像特徴パッチを検出することと、b.追跡残余を計算することに基づいて複数の後続ナビゲーション画像を横断して少なくとも1つの画像特徴パッチに関する特徴軌跡を計算することと、c.少なくとも1つの特徴パッチの定量化可能特性の変化に伴って経時的に変動する、特徴追跡閾値基準を上回る追跡残余を有する任意の特徴軌跡を除外することとに基づいて、ナビゲーション画像のオプティカルフロー分析を実施するように構成される、特徴追跡モジュールを含む、種々のソフトウェアモジュールを実装するためのプロセッサ可読命令を含む。多状態制約カルマンフィルタ(MSCKF)は、特徴追跡モジュールに結合され、除外されない特徴軌跡およびIMUからの慣性ナビゲーション情報の両方を分析するように構成される。ストラップダウン慣性積分器は、慣性ナビゲーション情報を分析し、走行車両の変化する場所を表す、推定される慣性ナビゲーション解の時系列を生産するように構成される。ナビゲーション解モジュールは、画像センサ姿勢および推定される慣性ナビゲーション解を分析し、走行車両の変化する場所を表す、システムナビゲーション解出力の時系列を生産するように構成される。
本発明の実施形態は、走行車両のためのナビゲーション解を判定するためのコンピュータ実装視覚支援慣性ナビゲーションシステムを対象とする。画像センサは、ナビゲーション画像の時系列を生産するために構成される。慣性測定ユニット(IMU)は、慣性ナビゲーション情報の時系列を生成するように構成される。データ記憶メモリは、画像センサおよび慣性測定センサに結合され、ナビゲーションソフトウェア、ナビゲーション画像、慣性ナビゲーション情報、および他のシステム情報を記憶するために構成される。少なくとも1つのハードウェアプロセッサを含むナビゲーションプロセッサは、データ記憶メモリに結合され、ナビゲーションソフトウェアを実行するように構成される。ナビゲーションソフトウェアは、a.独特の視覚的特徴に対応する複数の隣接する画像ピクセルを備える所与のナビゲーション画像内の少なくとも1つの画像特徴パッチを検出することと、b.追跡残余を計算することに基づいて複数の後続ナビゲーション画像を横断して少なくとも1つの画像特徴パッチに関する特徴軌跡を計算することと、c.少なくとも1つの特徴パッチの定量化可能特性の変化に伴って経時的に変動する、特徴追跡閾値基準を上回る追跡残余を有する任意の特徴軌跡を除外することとに基づいて、ナビゲーション画像のオプティカルフロー分析を実施するように構成される、特徴追跡モジュールを含む、種々のソフトウェアモジュールを実装するためのプロセッサ可読命令を含む。多状態制約カルマンフィルタ(MSCKF)は、特徴追跡モジュールに結合され、除外されない特徴軌跡およびIMUからの慣性ナビゲーション情報の両方を分析するように構成される。ストラップダウン慣性積分器は、慣性ナビゲーション情報を分析し、走行車両の変化する場所を表す、推定される慣性ナビゲーション解の時系列を生産するように構成される。ナビゲーション解モジュールは、画像センサ姿勢および推定される慣性ナビゲーション解を分析し、走行車両の変化する場所を表す、システムナビゲーション解出力の時系列を生産するように構成される。
さらに具体的実施形態では、少なくとも1つの特徴パッチの定量化可能特性は、少なくとも1つの特徴パッチ内の画像ピクセルに関するピクセルコントラストを含む。特徴追跡閾値基準は、スカラー量×定量化可能特性の時間ベースの導関数の積を含んでもよい。例えば、時間ベースの導関数は、一次平均導関数であってもよい。または、特徴追跡閾値基準は、スカラー量×定量化可能特性の時間ベースの分散の積を含んでもよい。または、特徴追跡閾値基準は、画像雑音および特徴コントラストオフセットのうちの少なくとも1つを考慮した第2のスカラー量との線形結合での、第1のスカラー量×定量化可能特性の時間ベースの分散の積を含んでもよい。
(詳細な説明)
視覚支援慣性ナビゲーションシステムにおけるようなビジュアルオドメトリは、例えば、Lucas−Kanadeアルゴリズムを使用したオプティカルフローの分析を伴う。オプティカルフローは、観察者(カメラ等)と場面との間の相対的運動によって生じる視覚的場面内のオブジェクト、表面、および縁の見掛け運動のパターンである。これは、2次元ベクトルフィールドを伴い、各ベクトルは、第1のフレームから第2のフレームへの点の移動を示す、変位ベクトルである。オプティカルフロー分析は、典型的には、オブジェクトのピクセル強度が連続フレーム間で変化せず、かつ近隣ピクセルが類似運動を有すると仮定する。本発明の実施形態は、多状態制約カルマンフィルタ(MSCKF)配列に実装されるようにLucas−Kanadeオプティカルフロー方法を修正する。
視覚支援慣性ナビゲーションシステムにおけるようなビジュアルオドメトリは、例えば、Lucas−Kanadeアルゴリズムを使用したオプティカルフローの分析を伴う。オプティカルフローは、観察者(カメラ等)と場面との間の相対的運動によって生じる視覚的場面内のオブジェクト、表面、および縁の見掛け運動のパターンである。これは、2次元ベクトルフィールドを伴い、各ベクトルは、第1のフレームから第2のフレームへの点の移動を示す、変位ベクトルである。オプティカルフロー分析は、典型的には、オブジェクトのピクセル強度が連続フレーム間で変化せず、かつ近隣ピクセルが類似運動を有すると仮定する。本発明の実施形態は、多状態制約カルマンフィルタ(MSCKF)配列に実装されるようにLucas−Kanadeオプティカルフロー方法を修正する。
図1は、本発明のある実施形態による、視覚支援慣性ナビゲーションシステム内の種々の機能ブロックを示す。単眼カメラ等の画像センサ101が、ナビゲーション画像の時系列を生産するために構成される。画像センサ101の他の非限定的具体的実施例は、高分解能前方視赤外線(FLIR)画像センサ、デュアルモードレーザ、電荷結合素子(CCD−TV)可視スペクトルテレビカメラ、レーザスポットトラッカ、およびレーザマーカを含む。典型的用途におけるビデオカメラ等の画像センサ101は、走行車両に対して動的に照準化可能であり、目的地(または標的)に関して空または地上を走査し、次いで、車両が操縦される間、目的地を視野内に維持し得る。カメラ等の画像センサ101は、光学軸を有し得、それに沿って、ナビゲーション画像が視野内の場面を表す。光学軸が画像センサ101から延在する方向は、画像センサの体勢に依存し、これは、例えば、3つの相互に直交する軸(x、y、およびz)を中心とした画像センサ101の回転として測定され得る。用語「センサ姿勢」または「カメラ姿勢」は、グローバルフレーム内の画像センサ101の位置および体勢を意味する。したがって、車両が空間内で走行するにつれて、画像センサ姿勢は、変化し、その結果、画像センサの体勢が一定のままである場合でも、画像センサ101によって捕捉された画像も変化する。
データ記憶メモリ103は、ナビゲーションソフトウェア、ナビゲーション画像、慣性ナビゲーション情報、および他のシステム情報を記憶するために構成される。ナビゲーションプロセッサ100は、データ記憶メモリ103に結合された少なくとも1つのハードウェアプロセッサを含み、ナビゲーションソフトウェアを実行して種々のシステムコンポーネントを実装するように構成される。これは、可変コントラスト特徴追跡を伴う、多状態制約カルマンフィルタ(MSCKF)を使用して、ナビゲーション画像のオプティカルフロー分析を実施することと、慣性ナビゲーション情報を分析することと、走行車両の変化する場所を表す、システムナビゲーション解出力の時系列を生産することとを含み、その全ては、下記により詳細に議論される。
画像センサ101からのナビゲーション画像から開始して、第1のナビゲーション画像内のピクセルは、座標I(x,y,t)によって定義され、これは、ある時間dt後に撮影された次のナビゲーション画像内では、距離(dx,dy)分を移動している。したがって、それらのピクセルは、同一であるため、その強度が変化しないと仮定すると、I(x,y,t)=I(x+dx,y+dy,t+dt)となる。右側のテイラー級数近似を求め、共通項を除去し、dt:fxu+fyv+ft=0で除算すると、以下となる。
これは、オプティカルフロー方程式として知られる。画像勾配fxおよびfyが、見出され得、ftは、時間に沿った勾配である。しかし、(u,v)は、未知であり、2つの未知の変数を伴う、本1つの方程式は、可解ではない。
Lucas−Kanade法は、画像特徴内の全ての近隣ピクセルが類似運動を有するであろうという仮定に基づく。したがって、3×3画像特徴パッチが、画像内の所与の点の周囲で得られると、パッチ内の9つの点は全て、同一運動を有するであろう。これらの9つの点(fx,fy,ft)に関する座標は、2つの未知の変数を伴う9つの方程式を解法することによって見出され得る。これは、優決定系であり、より便宜的解が、例えば、以下の最小2乗適合法を介して、求められ得る。
Lucas−Kanadeオプティカルフローの1つの具体的実装は、OpenCVにおいて記載される。
(docs.opencv.org/3.2.0/d7/d8b/tutorial_py_lucas_kanade.html(参照することによってその全体として本明細書に組み込まれる)参照)。
OpenCVバージョンのLucas Kanade特徴トラッカは、ユーザ規定閾値を超えるその追跡残余によって失敗と見なされる任意の軌跡を排除することができる。これは、可視光画像上では良好に機能すると考えられる。しかしながら、長波長赤外線(LWIR)画像では、最も有用な特徴は、連続画像間のわずかかつ不可避な不整合さえ高残余を生産するほど非常に高コントラストを有する一方、あまり有用ではない低コントラスト特徴間の合致失敗は、低残余を生産する。したがって、LWIR画像では、高残余は、不良軌跡を確実に示すものではなく、不良軌跡を検出するように閾値を超え得ない。
本発明の実施形態は、修正されたLucas Kanade特徴トラッカを実装し、ナビゲーション画像のオプティカルフロー分析を実施するように構成される、特徴追跡検出器106を含む。より具体的には、画像特徴パッチは、強度、色、およびテクスチャに起因して、その中間囲繞物に一意の画像パターンである。特徴追跡検出器106は、各ナビゲーション画像内の全ての点特徴を検索する。ブロブおよび角(2つ以上の縁の交差点)等の点特徴は、特に、それらがナビゲーション画像内に正確に位置し得るため、有用である。点特徴検出器は、Harris、Shi−Tomasi、Moravec、およびFAST検出器等の角検出器と、SIFT、SURF、およびCENSURE検出器等のブロブ検出器とを含む。特徴追跡検出器106は、特徴応答関数をナビゲーション画像全体に適用する。使用される関数の具体的タイプは、特徴検出器を区別する、1つの要素である(すなわち、Harris検出器は、角応答関数を使用する一方、SIFT検出器は、ガウシアンの差分検出器を使用する)。特徴追跡検出器106は、次いで、特徴応答関数の全ての極小値または最大値を識別する。これらの点は、検出された特徴である。特徴追跡検出器106は、他のナビゲーション画像からも記述子に合致され得るように、記述子を各特徴を囲繞する領域、例えば、ピクセル強度に割り当てる。
特徴追跡検出器106は、独特の視覚的特徴に対応する、複数の隣接する画像ピクセルを含む、所与のナビゲーション画像内の少なくとも1つの画像特徴パッチを検出する。ナビゲーション画像間の特徴を合致させるために、特徴追跡検出器106は、具体的には、いくつかの種類の類似性測定値(すなわち、差分2乗和または正規化された相互相関)を使用して、1つの画像からの全ての特徴記述子と第2の画像からの全ての特徴記述子を比較してもよい。画像記述子のタイプは、類似性測定値の選択に影響を及ぼす。特徴合致のための別のオプションは、1つの画像内の全ての特徴を検索し、次いで、他の画像内のそれらの特徴を検索することである。本「検出後追跡」方法は、フレーム間の運動および外観の変化が小さいとき、好ましくあり得る。単一特徴に対応する全ての合致のセットは、画像特徴パッチ(特徴軌跡とも称される)と呼ばれるものである。特徴追跡検出器106は、追跡残余を計算することに基づいて、後続ナビゲーション画像を横断して画像特徴パッチに関する特徴軌跡を計算し、少なくとも1つの特徴パッチの定量化可能特性の変化に伴って経時的に変動する、特徴追跡閾値基準を上回る追跡残余を有する任意の特徴軌跡を除外する。
多状態制約カルマンフィルタ(MSCKF)104は、ナビゲーション画像および除外されない特徴軌跡を分析し、ナビゲーション画像毎に画像センサの推定される位置および配向を特徴付ける、推定される画像センサ姿勢の時系列を生産するように構成される。MSCKF104は、同時に、少なくとも3つの直近のナビゲーション画像のスライディングウィンドウに関して画像センサ姿勢を推定するように構成される。各新しい画像は、ウィンドウに進入し、ある時間にわたってそこに留まり、最終的に、より新しい画像のための空間を空けるために押し出される。
慣性測定ユニット(IMU)102(例えば、1つ以上の加速度計、ジャイロスコープ等)は、慣性ナビゲーション情報の時系列を生成するように構成される、センサである。ストラップダウン積分器107は、慣性センサ102からの慣性ナビゲーション情報を分析し、走行車両の変化する場所を表す、推定される慣性ナビゲーション解の時系列を生産するように構成される。より具体的には、IMU102は、具体的力、角度率、ある場合には、走行車両を囲繞する磁場を測定および報告する。IMU102は、加速度計信号に基づいて、車両の本加速と、1つ以上のジャイロスコープ信号に基づいて、ピッチ、ロール、およびヨー等の回転属性の変化とを検出する。ストラップダウン積分器107からの推定される慣性ナビゲーション解は、前のまたは初期位置および体勢に対して車両の位置および体勢の定期的推定値を表し、これは、デッドレコニングとして知られるプロセスである。
ナビゲーション解モジュール105は、画像センサ姿勢および推定される慣性ナビゲーション解を分析し、走行車両の変化する場所を表す、システムナビゲーション解出力の時系列を生産するように構成される。より具体的には、ナビゲーション解モジュール105は、姿勢グラフソルバとして、図2に示されるような姿勢グラフ形態におけるシステムナビゲーション解出力を生産するように構成されてもよい。各ノードは、ナビゲーション画像を捕捉した画像センサ姿勢(位置および配向)を表す。対のノードは、接続される対のノード間の空間制約、例えば、ノード間の画像センサ101の変位および回転を表す、縁によって接続される。本空間制約は、6自由度(6DoF)変換と称される。
ナビゲーション解モジュール105内に実装される姿勢グラフソルバは、Georgia Institute of Technoloyにおいて開発されたBSDライセンス付与C++ライブラリである、GTSAMツールボックス(Georgia Tech Smoothing and Mapping)を含んでもよい。MSCKF104が、各ナビゲーション画像を終了して、その最良かつ最終画像センサ姿勢を報告するにつれて、ナビゲーション解モジュール105は、最良かつ最終姿勢を含有する姿勢グラフノードを作成し、2つのノードにおける姿勢間の変換を含有するリンクによって、新しいかつ前のノードに接続する。
本発明のいくつかの実施形態は、カメラに加え、付加的または異なるセンサを含む。これらのセンサは、MSCKF推定を強化するために使用されてもよい。随意に、または代替として、これらのセンサは、第6の自由度に関するスケールの欠如を補償するために使用されてもよい。例えば、いくつかの実施形態は、センサモダリティをCERDECのGPS非対応ナビゲーションセンサ種および/または歩数計に追加するために、速度計を含み、独立した視覚的慣性および歩数計測フィルタの出力を組み合わせるのではなく、歩数計測、視覚、およびストラップダウンナビゲーションを緊密に結合することから、ナビゲーション正確度改良の評価を可能にする。
実施形態の側面は、各ブロックの全部または一部もしくはブロックの組み合わせのフローチャートおよび/またはブロック図、機能、動作、決定等を参照して説明され得るが、組み合わせられる、別個の動作に分離される、または他の順序で実施されてもよい。各ブロックの全部または一部もしくはブロックの組み合わせは、コンピュータプログラム命令(ソフトウェア等)、ハードウェア(組み合わせ論理、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、または他のハードウェア等)、ファームウェア、またはそれらの組み合わせとして実装されてもよい。実施形態は、メモリ内に記憶される命令を実行する、またはそれによって制御される、プロセッサによって実装されてもよい。メモリは、制御ソフトウェアまたは他の命令およびデータを記憶するために好適なランダムアクセスメモリ(RAM)、読取専用メモリ(ROM)、フラッシュメモリ、または任意の他のメモリ、もしくはそれらの組み合わせであってもよい。本発明の機能を定義する命令は限定ではないが、有形非書込可能記憶媒体(例えば、ROM等のコンピュータ内の読取専用メモリデバイス、またはCD−ROMまたはDVDディスク等のコンピュータI/Oアタッチメントによって読取可能なデバイス)上に恒久的に記憶される情報、有形書込可能記憶媒体(例えば、フロッピーディスク、リムーバブルフラッシュメモリ、およびハードドライブ)上に改変可能に記憶される情報、または有線または無線コンピュータネットワークを含む通信媒体を通してコンピュータに伝達される情報を含む、多くの形態において、プロセッサに送達されてもよい。
具体的パラメータ値が、本発明の範囲内において開示される実施形態に関連して列挙され得るが、パラメータの全ての値は、異なる用途に好適な広範囲にわたって変動し得る。文脈において別様に示されない限り、または当業者によって理解されるであろうように、「約」等の用語は、±20%以内を意味する。
請求項を含む、本明細書で使用されるように、アイテムのリストと併用される、用語「および/または」は、リスト内のアイテムのうちの1つ以上、すなわち、リスト内のアイテムのうちの少なくとも1つであり、必ずしも、リスト内の全てのアイテムを意味しない。請求項を含む、本明細書で使用されるように、アイテムのリストと併用される、用語「または」は、リスト内のアイテムのうちの1つ以上、すなわち、リスト内のアイテムのうちの少なくとも1つであり、必ずしも、リスト内の全てのアイテムを意味しない。「または」は、「排他的または」を意味しない。
本発明は、上記に説明される例示的実施形態を通して説明されるが、図示される実施形態の修正および変形例が、本明細書に開示される本発明の概念から逸脱することなく行われてもよい。さらに、開示される側面またはその一部は、上記に列挙されていない、および/または明示的に請求されていない、方法において組み合わせられてもよい。本明細書に開示される実施形態は、本明細書に具体的に開示されない任意の要素が不在の状態で好適に実践されてもよい。故に、本発明は、開示される実施形態に限定されると見なされるべきではない。
Claims (12)
- 走行車両のためのナビゲーション解を判定するためのコンピュータ実装視覚支援慣性ナビゲーションシステムであって、前記システムは、
ナビゲーション画像の時系列を生産するために構成された画像センサと、
慣性ナビゲーション情報の時系列を生成するように構成された慣性測定ユニット(IMU)センサと、
前記画像センサおよび前記慣性測定センサに結合され、ナビゲーションソフトウェア、前記ナビゲーション画像、前記慣性ナビゲーション情報、および他のシステム情報を記憶するために構成されている、データ記憶メモリと、
前記データ記憶メモリに結合された少なくとも1つのハードウェアプロセッサを含み、前記ナビゲーションソフトウェアを実行するように構成されている、ナビゲーションプロセッサであって、前記ナビゲーションソフトウェアは、
特徴追跡モジュールであって、前記特徴追跡モジュールは、
a.独特の視覚的特徴に対応する複数の隣接する画像ピクセルを備える所与のナビゲーション画像内の少なくとも1つの画像特徴パッチを検出することと、
b.追跡残余を計算することに基づいて、複数の後続ナビゲーション画像を横断して前記少なくとも1つの画像特徴パッチに関する特徴軌跡を計算することと、
c.前記少なくとも1つの特徴パッチの定量化可能特性の変化に伴って経時的に変動する、特徴追跡閾値基準を上回る追跡残余を有する任意の特徴軌跡を除外することと
に基づいて、前記ナビゲーション画像のオプティカルフロー分析を実施するように構成されている、特徴追跡モジュールと、
前記特徴追跡モジュールに結合され、前記ナビゲーション画像および前記除外されない特徴軌跡を分析し、ナビゲーション画像毎に前記画像センサの推定される位置および配向を特徴付ける、推定される画像センサ姿勢の時系列を生産するように構成されている、多状態制約カルマンフィルタ(MSCKF)と、
前記IMUからの前記慣性ナビゲーション情報を統合し、前記走行車両の変化する場所を表す、推定される慣性ナビゲーション解の時系列を生産するように構成されている、ストラップダウン積分器と、
前記画像センサ姿勢および前記推定される慣性ナビゲーション解を分析し、前記走行車両の変化する場所を表す、システムナビゲーション解出力の時系列を生産するように構成されている、ナビゲーション解モジュールと
を実装するためのプロセッサ可読命令を含む、ナビゲーションプロセッサと
を備える、システム。 - 前記少なくとも1つの特徴パッチの前記定量化可能特性は、前記少なくとも1つの特徴パッチ内の画像ピクセルに関するピクセルコントラストを含む、請求項1に記載のシステム。
- 前記特徴追跡閾値基準は、スカラー量×前記定量化可能特性の時間ベースの導関数の積を含む、請求項1に記載のシステム。
- 前記時間ベースの導関数は、一次平均導関数である、請求項3に記載のシステム。
- 前記特徴追跡閾値基準は、スカラー量×前記定量化可能特性の時間ベースの分散の積を含む、請求項1に記載のシステム。
- 前記特徴追跡閾値基準は、画像雑音および特徴コントラストオフセットのうちの少なくとも1つを考慮した第2のスカラー量との線形結合での、第1のスカラー量×前記定量化可能特性の時間ベースの分散の積を含む、請求項1に記載のシステム。
- 走行車両のためのナビゲーション解を判定するために視覚支援ナビゲーションを実施するための、少なくとも1つのハードウェア実装コンピュータプロセッサを採用するコンピュータ実装方法であって、前記方法は、
ナビゲーション画像の時系列を画像センサから生産することと、
慣性ナビゲーション情報の時系列を慣性測定センサから生成することと、
前記少なくとも1つのハードウェアプロセッサを動作させ、
a)独特の視覚的特徴に対応する複数の隣接する画像ピクセルを備える所与のナビゲーション画像内の少なくとも1つの画像特徴パッチを検出することと、
b)追跡残余を計算することに基づいて、複数の後続ナビゲーション画像を横断して前記少なくとも1つの画像特徴パッチに関する特徴軌跡を計算することと、
c)前記少なくとも1つの特徴パッチの定量化可能特性の変化に伴って経時的に変動する、特徴追跡閾値基準を上回る追跡残余を有する任意の特徴軌跡を除外することと
に基づいて、前記ナビゲーション画像のオプティカルフロー分析を実施することと、
多状態制約カルマンフィルタ(MSCKF)を用いて前記ナビゲーション画像および前記除外されない特徴軌跡を分析し、ナビゲーション画像毎に前記画像センサの推定される位置および配向を特徴付ける、推定される画像センサ姿勢の時系列を生産することと、
前記慣性ナビゲーション情報を分析し、前記走行車両の変化する場所を表す、推定される慣性ナビゲーション解の時系列を生産することと、
前記画像センサ姿勢および前記推定される慣性ナビゲーション解を分析し、前記走行車両の変化する場所を表す、システムナビゲーション解出力の時系列を生産することと
を行うためのナビゲーションソフトウェアプログラム命令を実行することと
を含む、方法。 - 前記少なくとも1つの特徴パッチ内の前記定量化可能特性は、前記少なくとも1つの特徴パッチ内の画像ピクセルに関するピクセルコントラストを含む、請求項7に記載の方法。
- 前記特徴追跡閾値基準は、スカラー量×前記定量化可能特性の時間ベースの導関数の積を含む、請求項7に記載の方法。
- 前記時間ベースの導関数は、一次平均導関数である、請求項9に記載の方法。
- 前記特徴追跡閾値基準は、スカラー量×前記定量化可能特性の時間ベースの分散の積を含む、請求項7に記載の方法。
- 前記特徴追跡閾値基準は、画像雑音および特徴コントラストオフセットのうちの少なくとも1つを考慮した第2のスカラー量との線形結合での、第1のスカラー量×前記定量化可能特性の時間ベースの分散の積を含む、請求項7に記載の方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662413388P | 2016-10-26 | 2016-10-26 | |
US62/413,388 | 2016-10-26 | ||
PCT/US2017/058410 WO2018081348A1 (en) | 2016-10-26 | 2017-10-26 | Vision-inertial navigation with variable contrast tracking residual |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019536012A true JP2019536012A (ja) | 2019-12-12 |
Family
ID=61970145
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019520942A Pending JP2019536012A (ja) | 2016-10-26 | 2017-10-26 | 可変コントラスト追跡残余を用いる視覚慣性ナビゲーション |
Country Status (4)
Country | Link |
---|---|
US (1) | US20180112985A1 (ja) |
EP (1) | EP3532869A4 (ja) |
JP (1) | JP2019536012A (ja) |
WO (1) | WO2018081348A1 (ja) |
Families Citing this family (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018182524A1 (en) * | 2017-03-29 | 2018-10-04 | Agency For Science, Technology And Research | Real time robust localization via visual inertial odometry |
EP3474230B1 (en) * | 2017-10-18 | 2020-07-22 | Tata Consultancy Services Limited | Systems and methods for edge points based monocular visual slam |
US11940277B2 (en) * | 2018-05-29 | 2024-03-26 | Regents Of The University Of Minnesota | Vision-aided inertial navigation system for ground vehicle localization |
CN108717712B (zh) * | 2018-05-29 | 2021-09-03 | 东北大学 | 一种基于地平面假设的视觉惯导slam方法 |
CN108871365B (zh) * | 2018-07-06 | 2020-10-20 | 哈尔滨工业大学 | 一种航向约束下的状态估计方法及*** |
GB2579415B (en) * | 2018-11-30 | 2021-11-10 | Thales Holdings Uk Plc | Method and apparatus for determining a position of a vehicle |
CN109540126B (zh) * | 2018-12-03 | 2020-06-30 | 哈尔滨工业大学 | 一种基于光流法的惯性视觉组合导航方法 |
CN111316286A (zh) * | 2019-03-27 | 2020-06-19 | 深圳市大疆创新科技有限公司 | 轨迹预测方法及装置、存储介质、驾驶***与车辆 |
CN110211151B (zh) * | 2019-04-29 | 2021-09-21 | 华为技术有限公司 | 一种运动物体的追踪方法和装置 |
US10694148B1 (en) | 2019-05-13 | 2020-06-23 | The Boeing Company | Image-based navigation using quality-assured line-of-sight measurements |
CN110751123B (zh) * | 2019-06-25 | 2022-12-23 | 北京机械设备研究所 | 一种单目视觉惯性里程计***及方法 |
CN110428452B (zh) * | 2019-07-11 | 2022-03-25 | 北京达佳互联信息技术有限公司 | 非静态场景点的检测方法、装置、电子设备及存储介质 |
CN110319772B (zh) * | 2019-07-12 | 2020-12-15 | 上海电力大学 | 基于无人机的视觉大跨度测距方法 |
CN110296702A (zh) * | 2019-07-30 | 2019-10-01 | 清华大学 | 视觉传感器与惯导紧耦合的位姿估计方法及装置 |
CN110455309B (zh) * | 2019-08-27 | 2021-03-16 | 清华大学 | 具备在线时间校准的基于msckf的视觉惯性里程计 |
CN110716541B (zh) * | 2019-10-08 | 2023-03-10 | 西北工业大学 | 一种基于虚拟光轴的捷联导引头自抗扰非线性控制方法 |
CN111024067B (zh) * | 2019-12-17 | 2021-09-28 | 国汽(北京)智能网联汽车研究院有限公司 | 一种信息处理方法、装置、设备及计算机存储介质 |
CN111678514B (zh) * | 2020-06-09 | 2023-03-28 | 电子科技大学 | 一种基于载体运动条件约束和单轴旋转调制的车载自主导航方法 |
CN112033400B (zh) * | 2020-09-10 | 2023-07-18 | 西安科技大学 | 一种基于捷联惯导与视觉组合的煤矿移动机器人智能定位方法及*** |
CN112907629B (zh) * | 2021-02-08 | 2024-07-16 | 浙江商汤科技开发有限公司 | 图像特征的跟踪方法、装置、计算机设备及存储介质 |
US11815356B2 (en) * | 2021-02-18 | 2023-11-14 | Trimble Inc. | Range image aided INS |
US11874116B2 (en) | 2021-02-18 | 2024-01-16 | Trimble Inc. | Range image aided inertial navigation system (INS) with map based localization |
CN114459472B (zh) * | 2022-02-15 | 2023-07-04 | 上海海事大学 | 一种容积卡尔曼滤波器和离散灰色模型的组合导航方法 |
CN117128951B (zh) * | 2023-10-27 | 2024-02-02 | 中国科学院国家授时中心 | 适用于自动驾驶农机的多传感器融合导航定位***及方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS60107517A (ja) * | 1983-11-16 | 1985-06-13 | Tamagawa Seiki Kk | ストラツプダウン慣性装置 |
JP2002532770A (ja) * | 1998-11-20 | 2002-10-02 | ジオメトリックス インコーポレイテッド | 映像に関連してカメラポーズを決定する方法及びシステム |
JP2009074861A (ja) * | 2007-09-19 | 2009-04-09 | Toyota Central R&D Labs Inc | 移動量計測装置及び位置計測装置 |
JP2016070674A (ja) * | 2014-09-26 | 2016-05-09 | 富士通株式会社 | 3次元座標算出装置、3次元座標算出方法および3次元座標算出プログラム |
US20160305784A1 (en) * | 2015-04-17 | 2016-10-20 | Regents Of The University Of Minnesota | Iterative kalman smoother for robust 3d localization for vision-aided inertial navigation |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8174568B2 (en) * | 2006-12-01 | 2012-05-08 | Sri International | Unified framework for precise vision-aided navigation |
US20140341465A1 (en) * | 2013-05-16 | 2014-11-20 | The Regents Of The University Of California | Real-time pose estimation system using inertial and feature measurements |
-
2017
- 2017-10-26 EP EP17864287.2A patent/EP3532869A4/en not_active Withdrawn
- 2017-10-26 JP JP2019520942A patent/JP2019536012A/ja active Pending
- 2017-10-26 US US15/794,168 patent/US20180112985A1/en not_active Abandoned
- 2017-10-26 WO PCT/US2017/058410 patent/WO2018081348A1/en unknown
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS60107517A (ja) * | 1983-11-16 | 1985-06-13 | Tamagawa Seiki Kk | ストラツプダウン慣性装置 |
JP2002532770A (ja) * | 1998-11-20 | 2002-10-02 | ジオメトリックス インコーポレイテッド | 映像に関連してカメラポーズを決定する方法及びシステム |
JP2009074861A (ja) * | 2007-09-19 | 2009-04-09 | Toyota Central R&D Labs Inc | 移動量計測装置及び位置計測装置 |
JP2016070674A (ja) * | 2014-09-26 | 2016-05-09 | 富士通株式会社 | 3次元座標算出装置、3次元座標算出方法および3次元座標算出プログラム |
US20160305784A1 (en) * | 2015-04-17 | 2016-10-20 | Regents Of The University Of Minnesota | Iterative kalman smoother for robust 3d localization for vision-aided inertial navigation |
Also Published As
Publication number | Publication date |
---|---|
WO2018081348A1 (en) | 2018-05-03 |
US20180112985A1 (en) | 2018-04-26 |
EP3532869A4 (en) | 2020-06-24 |
EP3532869A1 (en) | 2019-09-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2019536012A (ja) | 可変コントラスト追跡残余を用いる視覚慣性ナビゲーション | |
Alkendi et al. | State of the art in vision-based localization techniques for autonomous navigation systems | |
US10838427B2 (en) | Vision-aided inertial navigation with loop closure | |
Konolige et al. | Large-scale visual odometry for rough terrain | |
Chen et al. | Robust SLAM system based on monocular vision and LiDAR for robotic urban search and rescue | |
US9864927B2 (en) | Method of detecting structural parts of a scene | |
Panahandeh et al. | Vision-aided inertial navigation based on ground plane feature detection | |
Hu et al. | A sliding-window visual-IMU odometer based on tri-focal tensor geometry | |
Michot et al. | Bi-objective bundle adjustment with application to multi-sensor slam | |
Li et al. | Review of vision-based Simultaneous Localization and Mapping | |
Nilsson et al. | Reliable vehicle pose estimation using vision and a single-track model | |
Fischer et al. | Stereo vision-based localization for hexapod walking robots operating in rough terrains | |
Alliez et al. | Real-time multi-SLAM system for agent localization and 3D mapping in dynamic scenarios | |
Chiu et al. | Precise vision-aided aerial navigation | |
Beauvisage et al. | Robust multispectral visual-inertial navigation with visual odometry failure recovery | |
Yuan et al. | ROW-SLAM: Under-canopy cornfield semantic SLAM | |
Hong et al. | Visual inertial odometry using coupled nonlinear optimization | |
Ling et al. | RGB-D inertial odometry for indoor robot via keyframe-based nonlinear optimization | |
He et al. | Towards robust visual-inertial odometry with multiple non-overlapping monocular cameras | |
Zhang et al. | Visual odometry based on random finite set statistics in urban environment | |
Beauvisage et al. | Multimodal visual-inertial odometry for navigation in cold and low contrast environment | |
Li-Chee-Ming et al. | Augmenting visp’s 3d model-based tracker with rgb-d slam for 3d pose estimation in indoor environments | |
Zhang et al. | Feature regions segmentation based RGB-D visual odometry in dynamic environment | |
Frosi et al. | D3VIL-SLAM: 3D Visual Inertial LiDAR SLAM for Outdoor Environments | |
Bayer et al. | On construction of a reliable ground truth for evaluation of visual slam algorithms |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190617 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200624 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200626 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20210324 |