JP2021119477A - コンピュータビジョンシステムにおけるストラクチャフロムモーション(SfM)処理のための方法 - Google Patents

コンピュータビジョンシステムにおけるストラクチャフロムモーション(SfM)処理のための方法 Download PDF

Info

Publication number
JP2021119477A
JP2021119477A JP2021065159A JP2021065159A JP2021119477A JP 2021119477 A JP2021119477 A JP 2021119477A JP 2021065159 A JP2021065159 A JP 2021065159A JP 2021065159 A JP2021065159 A JP 2021065159A JP 2021119477 A JP2021119477 A JP 2021119477A
Authority
JP
Japan
Prior art keywords
point
cloud
points
threshold
frames
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021065159A
Other languages
English (en)
Other versions
JP7222582B2 (ja
Inventor
ナゴリ ソエブ
Nagori Soyeb
ナゴリ ソエブ
マシュー マヌ
Mathew Manu
マシュー マヌ
ラマナスプール ヴィスァナス プラシャンス
Ramanathpur Viswanath Prashanth
ラマナスプール ヴィスァナス プラシャンス
クマル ポッダル ディーパク
Kumar Poddar Deepak
クマル ポッダル ディーパク
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Texas Instruments Inc
Original Assignee
Texas Instruments Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Texas Instruments Inc filed Critical Texas Instruments Inc
Publication of JP2021119477A publication Critical patent/JP2021119477A/ja
Application granted granted Critical
Publication of JP7222582B2 publication Critical patent/JP7222582B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】コンピュータビジョンシステムにおけるリアルタイムのストラクチャフロムモーション(SfM)処理のための方法及びシステムを提供する。【解決手段】3D点クラウドを生成するための方法は、単眼カメラにより捕捉された複数の連続フレームにおける点の推定される2次元(2D)ロケーションの複数のトラックを受け取ることと、複数のトラックの各トラックに対して(410)3次元(3D)点のクラウドを生成すること(408)を含む。3D点のクラウドを生成することは、トラックにおける2Dロケーションに基づいて、3D点の推定されるロケーションを三角測量すること(400)と、3D点の対角のサイズ(404)と3D点の投影誤差(402)とが、3D点が包含のために充分にロバストであることを示すとき(406)、クラウドにおける3D点を含むことと、を含む。【選択図】図4

Description

本願は、概してコンピュータビジョンシステムに関し、更に特定して言えば、コンピュータビジョンシステムにおけるストラクチャフロムモーション(structure from motion)に関連する。
人間によるオペレーション誤差を低減するために、先進運転支援システム(ADAS)と称される新たな部類の埋め込みセーフティーシステムが、自動車に導入されてきている。このようなシステムは、後方カメラ、電子安定性制御、及びビジョンベースの歩行者検出システムなどの機能性を提供し得る。これらのシステムの多くは、単眼カメラを用い、一つ又は複数のカメラの視野におけるオブジェクトを検出するためにコンピュータビジョン処理に依存する。ストラクチャフロムモーション(SfM)処理は、単眼カメラにより捕捉された二次元画像から3次元環境を理解するために、このようなシステムにおける重要なオペレーションである。
記載される例は、コンピュータビジョンシステムにおけるリアルタイムのストラクチャフロムモーション(SfM)処理のための方法及びシステムを含む。一つの態様において、コンピュータビジョンシステムにおけるストラクチャフロムモーション処理のための方法が、単眼カメラにより捕捉された連続フレームにおける点の推定される2次元(2D)ロケーションのトラックを受け取ること、及び、トラックの各々に対して、3次元(3D)点のクラウドを生成することを含む。3D点のクラウドは、トラックにおける2Dロケーションに基づいて3D点の推定されるロケーションを三角測量すること、及び、3D点の対角(subtended angle)のサイズと3D点の投影誤差とが、3D点が包含のために充分にロバストであることを示すとき、クラウドにおいて3D点を含むことにより生成される。3D点が充分にロバストであるか否かを判定するため、対角のサイズと投影誤差とが、漸進的に小さいそれぞれの閾値の一対又は複数対に対してテストされる。閾値の一対は、角度サイズ閾値及び投影誤差閾値で構成される。
一つの態様において、コンピュータビジョンシステムにおけるストラクチャフロムモーション処理のための方法が、単眼カメラにより捕捉された連続フレームに基づいて3次元(3D)点のクラウドを生成すること、及び、このクラウドを3D点の前のクラウドとマージして、3D点の最終クラウドを生成することを含む。前のクラウドにおける各3D点に対して、最終クラウドにおいて3D点を含むべきか否かを判定することが、連続フレームにおける直近フレームとそれらのフレームにおける次の直近フレームとの間の点対応を実施して、3D点に対応する次の直近フレームにおける第2の2次元(2D)点に対応する直近フレームにおける第1の2D点を位置特定することを試みることと、第1の2D点が位置特定される場合に、第1の2D点に対するエピポーラ線、及び第2の2D点に対するエピポーラ線を演算することと、それぞれのエピポーラ線までの第1の2D点及び第2の2D点の、最終クラウドベースのユークリッド距離における3D点を含む又は含まないこととを含む。
一つの態様において、コンピュータビジョンシステムにおけるストラクチャフロムモーション処理のための方法が、単眼カメラにより捕捉されたN個の連続フレームにおける点の推定される2次元(2D)ロケーションのトラックを受け取ること、及びトラックの各々に対応する3次元(3D)点を推定することにより3D点クラウドを演算することを含む。N個の連続フレームにおける2つの直近フレームのスライディングウィンドウが、トラックにおける2Dロケーションを推定するための点対応に用いられ、各トラックは最大N個の2Dロケーションを含み、ここで、N>2である。
単眼カメラベースのオートモーティブセーフティー応用例に用いるために構成される、例示のマルチプロセッサシステムオンチップ(SOC)のハイレベルブロック図である。
図1の例示のSOCに対して実装される例示のリアルタイムのストラクチャフロムモーション(SfM)再構築パイプラインを介するデータフローを図示する図である。
図2のSfM再構築パイプラインにおけるスライディングウィンドウ処理を図示する例である。
図2のSfM再構築パイプラインにおいて3D点クラウドを生成するための方法のフローチャートである。
推定された3D点に対する角度を図示する例である。
点クラウドにおいて3D点が繰り越されるべきかを判定するための方法のフローチャートである。
一貫性を保つため、種々の図面における同様の要素は同様の参照符号で示している。
上述したように、ストラクチャフロムモーション(SfM)処理は、多くのカメラベースの埋め込みセーフティーシステムにおいて実施されるコンピュータビジョン処理における重要なオペレーションである。従来のSfMアプローチの多くは、画像が種々のビューポイントから及び場合によっては異なるカメラによって取得される画像収集からの3次元(3D)再構築に向けられる。マイクロソフトフォトツーリズム、及びコーネル大学において開発されたバンドラーが、このSfMアプローチの2つの例である。このようなSfMアプローチは、360度3次元(3D)再構築に向けられ、典型的に、リアルタイムの再構築に用いるのには適していない。オートモーティブセーフティーシステムでは、画像(フレーム)はリアルタイムで生成され、用いられる如何なるSfMアプローチも、リアルタイムで画像を処理する必要がある。例示の実施例は、単眼カメラから画像を受け取るコンピュータビジョンシステムにおいてリアルタイムのSfM処理を提供する。本明細書に記載されるリアルタイムSfM処理は、オートモーティブ応用例のために想定され得る3D環境の制約を利用する。
図1は、単眼カメラベースのADASにおいて用いるために構成される、例示のマルチプロセッサシステムオンチップ(SOC)100のハイレベルブロック図である。少なくとも一つの例において、SOC100は、テキサス・インスツルメンツ社から入手可能なTDA3X SOCの一実施例である。本説明は、SOC100の構成要素の高レベルの説明を含む。例示の構成要素のより詳細な説明は、インド バンガロールにおける2015年12月16〜19日の高性能コンピューティングに関する2015 IEEE第22回国際会議の議事録、456〜463頁、M.Modyらの「TIのTDA3Xプラットフォームに関する高性能前方カメラADAS応用例」、及び、2014年10月のテキサス・インスツルメンツ、SPRT704A、「先進運転支援システム(ADAS)テクニカルブリーフのためのTDA3x SOCプロセッサ」1〜6頁にあり、これらは参照のため本願に組み込まれている。
M. Mody, et al., "High Performance Front Camera ADAS Applications on TI’s TDA3X Platform", Proceedings of 2015 IEEE 22nd International Conference on High Performance Computing, December 16−19, 2015, Bangalore, India, pp.456−463 "TDA3x SOC Processors for Advanced Driver Assist System (ADAS) Technical Brief", Texas Instruments, SPRT704A, October, 2014, pp. 1−6
SOC100は、デュアル汎用プロセッサ(GPP)102、デュアルデジタルシグナルプロセッサ(DSP)104、及び、高速相互接続122を介して結合されるビジョンプロセッサ106を含む。SOC100は更に、ダイレクトメモリアクセス(DMA)構成要素108、ディスプレイ管理構成要素114に結合されるカメラ捕捉構成要素110、オンチップランダムアクセス(RAM)メモリ116、及び種々の入力/出力(FO)周辺機器120を含み、すべて、相互接続122を介してプロセッサに結合される。また、SOC100は、オートモーティブセーフティー要件に準拠し得るようにするためセーフティー関連機能性を含むセーフティー構成要素118を含む。このような機能性は、データのCRC(巡回冗長検査)のためのサポート、ドリフト検出のためのクロックコンパレータ、誤差シグナリング、窓付きのウォッチドッグタイマー、並びに、損傷及び欠陥に対するSOCの自己テストを含み得る。本明細書に記載するようなリアルタイムSfMを実装するソフトウェアは、メモリ116にストアされ得、SOC100の一つ又は複数のプログラマブルプロセッサに対して実行し得る。
図2は、図1の例示のSOC100に対して実装されるコンピュータビジョンシステムの一部として実装されるようなリアルタイムSfM再構築パイプラインの一実施例を介するデータフローを示す図である。SfM再構築パイプラインは、各入力フレームが受け取られた後、3D点クラウドを生成する。高レベルにおいて、SfM再構築パイプラインは、連続フレームにわたって特徴点(interest point)の2次元(2D)ロケーションを検出及び追跡し、特徴点に対応するトラック(tracks)における2Dロケーションをストアする。そのため、トラックは、時間にわたる特徴点の2Dフレーム座標のシーケンスである。3D点クラウドを生成するためにトラックの各々に対して三角測量が実施され、3D点クラウドは、その後、最終3D点クラウドを生成するために用いられる。
また、パイプラインは、図3に図示するようにスライディングウィンドウ様式で動作する。ウィンドウはN個のフレームを含み、N個のフレームは、予め処理されたN−1個のフレーム及び現在のフレームである。本願においてより詳細に説明されるように、各出力点クラウドは、現在のウィンドウにおけるフレームに基づく。更に、3D点を推定するために実施される三角測量は、各特徴点に対して現在のスライディングウィンドウにおけるN個のフレームにおいて、最大、N個の2Dロケーションを用いる。任意の適切な値のNが用いられ得、Nの値は、点クラウド品質(Nの値が増大するにつれて品質が増大する)と、演算複雑性、性能、及びメモリサイズなどの考慮との間のトレードオフとして選ばれ得る。説明し易くするため、以降の記載においてN=6が想定される。
図2を参照すると、フレームが単眼カメラ124から捕捉構成要素110を介して受信される度に、フレーム、即ち、特徴点を検出するためのフレーム(t)、に対して特徴点検出200が実施される。フレーム(t)及び検出された特徴点が、メモリ201にストアされる。例えば、メモリ201は、図1のオンチップRAM116であり得る。キーポイント又はフィーチャー(feature)と称されることもある特徴点の検出200が、特徴点検出のための任意の適切な手法を用いて実施され得る。また、例えば、特徴点検出は、Harrisコーナー検出又はFAST(features from accelerated test)検出に基づき得る。Harrisコーナー検出は、英国マンチェスターにおける1988年の第4回アルビー・ビジョン・コンファレンスの議事録、147〜151頁、C.Harris及びM.Stephensの「コンバインド・コーナー・アンド・エッジ・ディテクター」において記載されている。FASTは、オーストリア グラーツにおける2006年5月7〜13日の第9回ヨーロピアン・コンファレンス・オン・コンピュータビジョンの議事録、Vol.1、430〜443頁、E.Rosten及びT.Drummondの「高速コーナー検出のためのマシンラーニング」に記載されている。
C. Harris and M. Stephens, "A Combined Corner and Edge Detector", Proceedings of Fourth Alvey Vision Conference, Manchester, UK, PP. 147−151, 1988 E. Rosten and T. Drummond, "Machine Learning for High Speed Corner Detection", Proceedings of 9th European Conference on Computer Vision, Vol. 1, Graz, Austria, May 7−13, 2006, pp. 430−443
フレーム(t)において特徴点が検出された後、現在のフレーム(t)と前のフレーム(t−1)との間の点対応202が実施される。概して、点対応は、前のフレーム(t−1)において見つかった特徴点と、現在のトラックの各々とを、現在のフレーム(t)にマッチングさせる。後者の場合、現在のトラックにおける最新の2D点が点対応に用いられる。トラックにおける最新の2D点は、点対応がフレーム(t−1)とフレーム(t−2)との間で実施されたとき、フレーム(t−1)において見つかった2D点である。また、現在のトラックがメモリ201にストアされる。前のフレーム(t−1)において検出された特徴点に対する対応が、現在のフレーム(t)において見つからなかった場合、その特徴点は削除される。また、既存の或るトラックに対する対応が、現在のフレーム(t)において見つからなかった場合、そのトラックは削除される。光学フロー手法など、点対応のための任意の適切な手法が用いられ得る。例えば、幾つかの適切な光学フロー手法が、1994年のインターナショナル・ジャーナル・オブ・コンピュータビジョン、Vol.12、No.1、43〜77頁、J.Barronらの「光学フロー手法の性能」において説明されている。
J. Barron, et al., "Performance of Optical Flow Techniques", International Journal of Computer Vision, Vol. 12, No. 1, pp. 43−77, 1994
その後、前のフレーム(t−1)と現在のフレーム(t)との間の点対応を検証するため、対応検証204が実施される。検証を実施するため、現在のフレーム(t)と前のフレーム(t−1)との間の対応する特徴点に基づいて、カメラ基本行列が演算される。基本行列を演算するための任意の適切な手法が用いられ得る。例示の手法の一つが、2016年5月14日付けでhttps://en.wikipedia.org/wiki/Eight−point_algorithmからアクセス可能な、ウィキペディア、「8点アルゴリズム」に記載されている。その後、基本行列は、点対応の品質を評価するため、即ち、点対応を検証するために用いられる。点対応を検証するための基本行列の利用は既知であり、そのため、本願において更なる説明はしない。
"Eight−point Algorithm", Wikipedia.org/wiki/Eight−point_algorithm on May 14, 2016
特徴点に対して点対応が有効でない場合、その特徴点は削除される。そうでない場合、特徴点の2Dロケーションとフレーム(t)における対応する点の2Dロケーションとを含む新たなトラックが形成される。また、既存の或るトラックに対する点対応が有効である場合、対応する点の2Dロケーションがトラックに付加される。そうでない場合、そのトラックは削除される。また、フレーム(t)において検出された特徴点がプルーニングされる(pruned)。従って、フレーム(t)において検出される特徴点は、現在のトラックにおける任意の2Dロケーションに非常に近い又はそれと正確に同じ座標を有し、検出された特徴点は削除される。
トラックにおける2Dロケーションの数は、スライディングウィンドウにおけるフレームの数によって制限される。即ち、任意の所与のトラックが、最大6つの点座標、即ち、前の5フレームからの5座標、及び現在のフレームからの座標、を有し得る。フレーム(t)が処理されるとき既に6つの座標がトラックにある場合、最も古い座標がトラックから削除され、フレーム(t)からの座標が付加される。
その後、カメラ姿勢(pose)演算206が実施される。カメラ姿勢は、回転、即ち、ロール、ピッチ、及びヨーでつくられる6つの自由度と、ワールドに対するカメラの3D並進とで構成される。カメラ姿勢演算206の出力は、3つの回転度ベクトル及び3つの並進度ベクトルである。ワールドにおけるn個の3D点のセットと或るフレームにおけるそれらの対応する2D投影が与えられている場合に、較正されたカメラの姿勢を推定する課題は、パースペクティブ・エヌ・ポイント(PnP)と称される。回転及び並進の形式のカメラの姿勢は、n個の3D点のセット及びそれらの対応する2D画像投影が与えられる場合に見つけることができる。2012年7月のIEEEトランザクションズ・オン・パターン・アナリシス・アンド・マシン・インテリジェンス、Vol.34、Issue7、1444〜1450頁、S.Liらの「パースペクティブ・エヌ・ポイントの課題に対するロバストなO(n)解決策」に記載される手法など、任意の適切なPnP解決手法が用いられ得る。
S. Li, et al., "A Robust O(n) Solution to the Perspective−n−Point Problem", IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 34, Issue 7, July, 2012, pp. 1444−1450
PnP手法は、SfM再構築パイプラインを介して前の反復において生成された点クラウドを必要とする。スタートアップ時に又は前の反復において点クラウドを生成することができなかった後にパイプラインにおいてフレーム処理された第1の対では、用いるために利用可能な点クラウドがない。幾つかの実施例において、このような状況における姿勢推定に、特異値分解(SVD)手法が用いられる。SVD手法への入力は、2つのフレーム、2つのフレーム間の特徴点対応、及び基本行列である。後続の反復において、点クラウドが利用可能であり、PnP手法を用いて姿勢推定が実施される。任意の適切なSVDベースの手法が用いられ得る。例示の手法の一つは、1989年11月/12月のIEEEトランザクションズ・オン・システムズ、マン・アンド・サイバネティクス、Vol.19、Issue6、1426〜1446頁、R.Haralickらの「対応するポイントデータからの姿勢推定」に記載されている。
R. Haralick, et al., "Pose Estimatin from Corresponding Point Data", IEEE Transactions on Systems, Man, and Cybernetics, Vol. 19, Issue 6, pp. 1426−1446, November/December 1989
その後、現在のスライディングウィンドウにおけるフレームに対応する点クラウドを生成するために、三角測量演算208が実施される。図4は、3D点クラウドを生成するために、三角測量演算208によって実施される方法のフローチャートである。各トラック410に対して、トラックにおける2D位置に対応する3D位置を見つけるために三角測量400が実施される。上述したように、トラックは、現在のスライディングウィンドウにおける二つ又はそれ以上の連続フレームにおける特徴点の位置を記録する。三角測量400は、トラックにおける2D座標を用いて、現在の推定されたカメラ姿勢及び現在の基本行列に基づいて対応する3D位置を見つける。スライディングウィンドウサイズが6フレームであるので、特徴点に対するトラックは、最大6つの2D座標を有し得る。
任意の適切な三角測量手法が用いられ得る。例えば、幾つかの適切な手法が、1997年11月のコンピュータビジョン・アンド・イメージ・アンダースタンディング Vol.68、No.2、146〜157頁、R.Hartley及びP.Sturmの「三角測量」において説明されており(本願において「Hartley」と称する)、これは参照のため本願に組み込まれている。幾つかの実施例において、「Hartley」に記載されるような反復最小二乗手法が用いられる。「Hartley」は、2つのフレームを用いる三角測量を記載しているが、「Hartley」における手法は、2つより多いフレームに拡張し得る。
R. Hartley and P. Sturm, "Triangulation", Computer Vision and Image Understanding, Vol. 68, No. 2, pp. 146−157, November, 1997
トラックに対応する3D点が推定された後、3D位置を推定するために用いられる2つの2D点のフレーム内に3D点が再投影され(402)、各2D点に対する再投影誤差が判定される(402)。概して、再投影誤差は、投影される2D点と対応する測定された2D点との間のユークリッド距離に対応する幾何学的誤差である。再投影誤差は、3D点の推定が、測定された2D点の真の投影をどの程度緊密に再生成するかを定量化する。理想的には、再投影誤差はゼロであり、非ゼロ値が三角測量における誤差を示す。そのため、再投影誤差は、3D点のロバスト性を指し得る。
また、3D点の対角が判定される(404)。図5は、推定される3D点に対する対角を図示する例である。この例では、特徴点のためのトラックは、3つの連続フレームの各々におけるロケーションに対応する3つの2D点を含む。対角は、3D点に対する左光線及び右光線の交差により形成される。左光線は、光学的中央とフレームNにおける測定された2D点ロケーションとを通過し、右光線は、光学的中央とフレームN+2における測定された2D点ロケーションとを通過する。より小さな角度が三角測量の品質に悪影響を与え得るので、対角のサイズは3D点のロバスト性を示し得る。
再び図4を参照すると、3D点をプルーニングするべきかについて、即ち、点クラウドにおいて3D点を含むべきかについて判定(406)が成される。この判定は、3D点を推定するために三角測量された2D点の再投影誤差に、及び、推定された3D点の対角のサイズに基づく。概して、角度サイズと再投影誤差の和とが、それぞれの経験的に判定される閾値と比較され、比較の結果は、3D点が点クラウドにおいて含むために充分にロバストであるか否かを判定するために用いられる。
多くのビジョン応用例において、プルーニングのためには、単一の対角閾値及び単一の投影誤差閾値で充分である。しかし、オートモーティブ応用例において、特に、前方搭載カメラを用いる応用例において、単一の閾値を用いることは問題がある。車両が直線で前方に動いているとき、車の前方のオブジェクトに対応する点の対角は非常に小さくなり得る。この効果は、対象のオブジェクトに対応する点が光学的中央近くにあるとき、一層顕著である。光学的中央におけるオブジェクトをロバストに検出することは、このようなオブジェクトに当たることを避けるためのアクションを取るために重要である。テストにより、このようなオートモーティブ応用例は、角度閾値を0.25度に設定すると、3D点の密度が下げる光学的中央近くの多く過ぎる3D点をプルーニングし、角度閾値を0.125度に設定すると充分なプルーニングを提供せず、余りに多くの粗悪に再構成された3D点を保持することが示されている。光学的中央近くの3D点の良好な密度と粗悪に再構成された3D点のプルーニングとの両方をもたらすために、単一の角度閾値は存在しない。
幾つかの実施例において、対角閾値のための単一の値及び投影誤差閾値のための単一の値を用いるのではなく、投影誤差及び対角値が、対角のサイズがより大きいときプルーニング判定においてより多くの再投影誤差が許容され、対角のサイズが一層小さいときプルーニング判定においてより少ない投影誤差が許容されるように選ばれた、漸進的に小さいそれぞれの閾値の複数の対に対してテストされる。漸進的に小さい閾値の利用は、そうでない場合に、より小さな対角及び許容可能な投影誤差を有するロバストな3D点がプルーニングされないことを確実にする。
表1の例示の擬似コードは、プルーニングに対するこのアプローチを図示する。この例示の擬似コードでは、subtendeAngleは、対角のサイズであり、projectionErrorは、2つの2D点の再投影誤差の和であり、angleThは、ベース角度サイズ閾値であり、projectionErrThは、ベース投影誤差閾値であり、kx、x=1、2、3、4は、angleTH及びprojectionErrThを低減するために用いられるスケールファクタである。対角サイズ又は投影誤差がそれぞれの閾値比較テストで失敗する場合、ベース閾値は、次により大きなスケールファクタにより低減され、閾値比較テストが再び試みられる。スケールファクタの全てが試みられて失敗した場合、3D点がプルーニングされる。ベース角度サイズ閾値、ベース投影誤差閾値、及び、スケールファクタに対して、任意の適切な値が用いられ得る。幾つかの実施例において、これらの値は経験的に判定される。また、より多い又はより少ないスケールファクタが用いられる実施例が可能である。
Figure 2021119477
再び図2を参照すると、三角測量演算208の後、最終3D点クラウド生成210が実施される。最終3D点クラウドは、三角測量演算208により出力された3D点クラウドを、前のスライディングウィンドウに対して生成された3D点クラウドとマージすることによって生成される。現在の点クラウドにおける新たな点は、前の点クラウドにおける一層古い点に対応するオブジェクトを遮る新たなオブジェクトに対応し得るので、これら2つの点クラウドの単純なマージは問題となる。これらの点が新たなオブジェクトを表さないので、このような一層古い点は最終点クラウドに繰り越されるべきではない。
幾つかの実施例において、2つの点クラウドがマージされる前に、前の3D点クラウドにおける3D点が、その3D点が最終3D点クラウドに繰り越されるべきか否かを判定するために、基本行列関係テストを用いてテストされた。図6は、3D点が繰り越されるべきか否かを判定するための例示の方法のフローチャートである。最初に、3D点に対応するトラックから、前の3D点クラウドにおける3D点に対応する前のフレーム(t−1)における2D点が判定される(600)。その後、前のフレーム(t−1)における2D点に対応する2D点が、点対応を用いて現在のフレーム(t)において見つけられる(602)。点対応のために、上述した手法など、任意の適切な手法が用いられ得る。点対応が、現在のフレーム(t)において有効な対応する点を見つけない場合(604)、前の3D点クラウドから3D点が取り除かれ(612)、ある場合、次の3D点を用いて処理が継続する(614)。
有効な対応する点が見つかった場合(604)、3D点が繰り越されるべきかを判定するために、基本行列関係テストが適用される(606〜610)。より具体的には、2D点に対応するエピポーラ線が、基本行列を用いて演算される(606)。従って、xが前のフレーム(t−1)における2D点である場合、x’は、現在のフレーム(t)における対応する2D点であり、Fは基本行列であり、1’=Fxは、xに対応するエピポーラ線であり、1=FTx’は、x’に対応するエピポーラ線である。その後、対応するエピポーラ線までの各2D点のユークリッド距離が演算される(608)。その後、3D点が繰り越されるべきかを判定するため、ユークリッド距離の和が閾値と比較される(610)。和が充分に小さい場合、即ち閾値以下である場合、3D点が繰り越される。そうでない場合、3D点は、前の点クラウドから取り除かれる(612)。いずれの場合も、ある場合、次の3D点を用いて処理が継続する(614)。任意の適切な値が閾値に用いられ得る。その値は経験的に判定され得る。
他の実施例
PnP解決手法を用いてカメラ姿勢推定が演算される例示の実施例を説明してきた。少なくとも一つの例示の実施例において、PnP解決手法を用いて見つけられる姿勢推定を高めるために慣性計測ユニット(IMU)が用いられ、又はIMUがカメラ姿勢推定を置換する。
別の例において、特徴点検出が実施される実施例を本明細書において説明してきた。少なくとも一つの例示の実施例において、特徴点検出は実施されず、フレームにおける全ての画素(点)に対して点対応が実施される。
少なくとも一つの例示の実施例において、カメラ姿勢推定及び三角測量の連携最適化のため、バンドル調整のための適切な技法がSfM再構築パイプラインに付加される。
別の例において、SfM再構築パイプラインにおいて実施される処理が、マルチプロセッサSOCにおいてプロセッサに対して実行されるソフトウェア命令として実装される実施例を本明細書において説明してきた。SfM再構築パイプラインの機能性は、ソフトウェア、ファームウェア、及びハードウェアの任意の適切な組み合わせとして実装され得る。例えば、機能性の幾つかが、一つ又は複数のハードウェアアクセラレータ、特定用途向け集積回路(ASIC)、及び/又は、フィールドプログラマブルゲートアレイ(FPGA)において実装され得る。
別の例において、前の点クラウド及び現在の点クラウドをマージする前に、繰り越されるべきでない任意の3D点を取り除くために、前の点クラウドにおける全ての3Dに対して繰り越し処理が実施される実施例を本明細書において説明してきた。更に別の例において、2つの点クラウドがマージされるので、本明細書に記載される繰り越し判定規準が、前の点クラウドにおける点に適用される。
別の例において、本明細書においてオートモーティブセーフティーシステムを参照して実施例を説明してきた。例示の実施例は、産業応用例、ロボット工学、及びコンシューマ応用例(例えば、バキュームクリーナー及びドローン)など、同様の環境的制約を有する他のコンピュータビジョン応用例に対しても可能である。
方法の工程は、本明細書において連続的に提示及び記載され得るが、図示され、本明細書に記載された一つ又は複数の工程が、同時に実施され得、組み合わされ得、及び/又は、図示した及び/又は本明細書に記載された順とは異なる順で実施され得る。従って、実施例は図面に示される及び/又は本明細書に記載される工程の特定の順に限定されない。
本記載において、「結合」という用語およびその派生語は、間接的、直接的、光学的、及び/又はワイヤレス電気的接続を意味する。例えば、第1のデバイスが第2のデバイスに結合する場合、この接続は、直接的な電気的接続を介するもの、他のデバイス及び接続を介した間接的電気的接続を介するもの、光学的電気的接続を介するもの、及び/又はワイヤレス電気的接続を介するものであり得る。
本発明の特許請求の範囲内で、説明した例示の実施例に変形が成され得、他の実施例が可能である。

Claims (20)

  1. コンピュータビジョンシステムにおけるストラクチャフロムモーション処理のための方法であって、
    単眼カメラにより捕捉された複数の連続フレームにおける点の推定される2次元(2D)ロケーションの複数のトラックを受け取ること、及び
    前記複数のトラックの各トラックに対して、3次元(3D)点のクラウドを生成すること、
    を含み、
    前記3D点のクラウドを生成することが、
    前記トラックにおける前記2Dロケーションに基づいて、3D点の推定されるロケーションを三角測量することと、
    前記3D点の対角(subtended angle)のサイズと前記3D点の投影誤差とが、前記3D点が包含のために充分にロバストであることを示すとき、前記クラウドにおいて前記3D点を含むことと、
    によって、前記3D点のクラウドを生成し、
    前記3D点が充分にロバストであるか否かを判定するため、前記対角の前記サイズ及び前記投影誤差が、漸進的に小さいそれぞれの閾値の複数の対の一つ又は複数に対してテストされ、一対の閾値が、角度サイズ閾値と投影誤差閾値とで構成される、方法。
  2. 請求項1に記載の方法であって、
    閾値の前記複数の対の初期閾値対が、ベース角度サイズ閾値及びベース投影誤差閾値を含み、対応する所定の漸進的に大きいスケールファクタを、前記ベース角度サイズ閾値及び前記ベース投影誤差閾値に適用することによって、前記漸進的に小さいそれぞれの閾値の他の対における閾値が決定される、方法。
  3. 請求項2に記載の方法であって、
    漸進的に小さいそれぞれの閾値の前記対が、漸進的に小さいそれぞれの閾値の5対であり、前記漸進的に大きいスケールファクタが、2、4、8、及び16である、方法。
  4. 請求項1に記載の方法であって、
    N個の連続フレームのスライディングウィンドウにおける2つの直近フレームが、前記複数のトラックにおける前記2Dロケーションを推定するための点対応に用いられ、各トラックが最大N個の2Dロケーションを含み、前記複数の連続フレームにおけるフレームの数がNであり、N>2である、方法。
  5. 請求項4に記載の方法であって、
    N=6である、方法。
  6. 請求項1に記載の方法であって、更に、
    3D点の最終クラウドを生成するために、前記クラウドを3D点の前のクラウドとマージすることを含み、
    前記前のクラウドにおける各3D点に対して、前記最終クラウドにおいて前記3D点を含むべきか否かを判定することが、
    前記複数の連続フレームにおける直近フレームと前記複数のフレームにおける次の直近フレームとの間の点対応を実施して、前記3D点に対応する前記次の直近フレームにおける第2の2D点に対応する前記直近フレームにおける第1の2D点を位置特定することを試みることと、
    前記第1の2D点が位置特定される場合に、前記第1の2D点に対するエピポーラ線、及び前記第2の2D点に対するエピポーラ線を演算することと、
    前記第1の2D点及び前記第2の2D点の、それぞれのエピポーラ線までの前記最終クラウドベースのユークリッド距離における前記3D点を含む又は含まないことと、
    を含む、方法。
  7. 請求項1に記載の方法であって、
    前記点が特徴点である、方法。
  8. 請求項1に記載の方法であって、
    前記コンピュータビジョンシステムが、オートモーティブセーフティーシステムの一部である、方法。
  9. コンピュータビジョンシステムにおけるストラクチャフロムモーション処理のための方法であって、
    単眼カメラにより捕捉された複数の連続フレームに基づいて、3次元(3D)点のクラウドを生成すること、
    3D点の最終クラウドを生成するため、前記クラウドを3D点の前のクラウドとマージすること、及び
    前記前のクラウドにおける各3D点に対して、前記最終クラウドにおいて前記3D点を含むべきか否かを判定すること、
    を含み、
    前記判定することが、
    前記複数の連続フレームにおける直近フレームと前記複数のフレームにおける次の直近フレームとの間の点対応を実施して、前記3D点に対応する前記次の直近フレームにおける第2の2D点に対応する前記直近フレームにおける第1の2D点を位置特定することを試みることと、
    前記第1の2D点が位置特定される場合に、前記第1の2D点に対するエピポーラ線、及び前記第2の2D点に対するエピポーラ線を演算することと、
    前記第1の2D点及び前記第2の2D点の、それぞれのエピポーラ線までの前記最終クラウドベースのユークリッド距離における前記3D点を含む又は含まないことと、
    を含む、方法。
  10. 請求項9に記載の方法であって、
    3D点のクラウドを生成することが、
    前記複数の連続フレームにおける点の推定される2Dロケーションの複数のトラックを受け取ること、及び
    前記複数のトラックの各トラックに対応する3D点を推定することにより前記3D点のクラウドを演算すること、
    を含み、
    N個の連続フレームのスライディングウィンドウにおける2つの直近フレームが、前記トラックにおける前記2Dロケーションを推定するための点対応に用いられ、各トラックが最大N個の2Dロケーションを含み、前記複数のフレームにおけるフレームの数がNであり、N>2である、方法。
  11. 請求項10に記載の方法であって、
    N=6である、方法。
  12. 請求項9に記載の方法であって、
    3D点のクラウドを生成することが、
    前記複数の連続フレームにおける点の推定された2次元(2D)ロケーションの複数のトラックを受け取ること、及び
    前記複数のトラックの各トラックに対して、3次元(3D)点のクラウドを生成すること、
    を含み、
    前記3D点のクラウドを生成することが、
    前記トラックにおける前記2Dロケーションに基づいて、3次元(3D)点の推定されたロケーションを三角測量することと、
    前記3D点の対角のサイズと前記3D点の投影誤差とが、前記3D点が包含のために充分にロバストであることを示すとき、前記クラウドにおける前記3D点を含むことと、
    によって、前記3D点のクラウドを生成し、
    前記3D点が充分にロバストであるか否かを判定するため、前記対角のサイズ及び前記投影誤差が、漸進的に小さいそれぞれの閾値の複数の対の一つ又は複数に対してテストされ、一対の閾値が、角度サイズ閾値と投影誤差閾値とで構成される、方法。
  13. 請求項12に記載の方法であって、
    閾値の前記複数の対の初期閾値の対が、ベース角度サイズ閾値及びベース投影誤差閾値を含み、対応する所定の漸進的に大きいスケールファクタを、前記ベース角度サイズ閾値及び前記ベース投影誤差閾値に適用することによって、前記漸進的に小さいそれぞれの閾値の他の対における閾値が決定される、方法。
  14. 請求項13に記載の方法であって、
    漸進的に小さいそれぞれの閾値の前記対が、漸進的に小さいそれぞれの閾値の5対であり、前記漸進的に大きいスケールファクタが、2、4、8、及び16である、方法。
  15. コンピュータビジョンシステムにおけるストラクチャフロムモーション処理のための方法であって、
    単眼カメラにより捕捉されたN個の連続フレームにおける点の推定された2次元(2D)ロケーションの複数のトラックを受け取ること、及び
    前記複数のトラックの各トラックに対応する3D点を推定することにより、3次元(3D)点クラウドを演算すること、
    を含み、
    N個の連続フレームのスライディングウィンドウにおける2つの直近フレームが、前記トラックにおける前記2Dロケーションを推定するための点対応に用いられ、各トラックが最大N個の2Dロケーションを含み、N>2である、方法。
  16. 請求項15に記載の方法であって、
    N=6である、方法。
  17. 請求項15に記載の方法であって、更に、
    最終3D点クラウドを生成するため、前記3D点クラウドを前の3D点クラウドとマージすること、及び
    前記前のクラウドにおける各3D点に対して、前記最終3D点クラウドにおいて前記3D点を含むべきか否かを判定すること、
    を含み、
    前記3D点を含むべきか否かを判定することが、
    前記複数の連続フレームにおける直近フレームと前記複数のフレームにおける次の直近フレームとの間の点対応を実施して、前記3D点に対応する前記次の直近フレームにおける第2の2D点に対応する前記直近フレームにおける第1の2D点を位置特定することを試みることと、
    前記第1の2D点が位置特定される場合に、前記第1の2D点に対するエピポーラ線、及び前記第2の2D点に対するエピポーラ線を演算することと、
    前記第1の2D点及び前記第2の2D点の、それぞれのエピポーラ線までの前記最終クラウドベースのユークリッド距離における前記3D点を含む又は含まないことと、
    を含む、方法。
  18. 請求項15に記載の方法であって、
    3D点クラウドを生成することが、
    前記複数のトラックの各トラックに対して、前記3D点クラウドを生成することを含み、
    前記3D点クラウドを生成することが、
    前記トラックにおける前記2Dロケーションに基づいて、3次元(3D)点の推定されたロケーションを三角測量することと、
    前記3D点の対角のサイズと前記3D点の投影誤差とが、前記3D点が包含のために充分にロバストであることを示すとき、前記3D点クラウドにおいて前記3D点を含むことと、
    によって、前記3D点クラウドを生成し、
    前記3D点が充分にロバストであるか否かを判定するため、前記対角のサイズ及び前記投影誤差が、漸進的に小さいそれぞれの閾値の複数の対の一つ又は複数に対してテストされ、一対の閾値が、角度サイズ閾値と投影誤差閾値とで構成される、方法。
  19. 請求項18に記載の方法であって、
    閾値の前記複数の対の初期閾値対が、ベース角度サイズ閾値及びベース投影誤差閾値を含み、対応する所定の漸進的に大きいスケールファクタを、前記ベース角度サイズ閾値及び前記ベース投影誤差閾値に適用することによって、前記漸進的に小さいそれぞれの閾値の他の対の閾値が決定される、方法。
  20. 請求項19に記載の方法であって、
    漸進的に小さいそれぞれの閾値の前記対が、漸進的に小さいそれぞれの閾値の5対であり、前記漸進的に大きいスケールファクタが、2、4、8、及び16である、方法。

JP2021065159A 2015-12-29 2021-04-07 コンピュータビジョンシステムにおけるストラクチャフロムモーション(SfM)処理のための方法 Active JP7222582B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
IN7029CH2015 2015-12-29
IN7029/CHE/2015 2015-12-29
US15/197,749 2016-06-29
US15/197,749 US10186024B2 (en) 2015-12-29 2016-06-29 Method and system for real time structure from motion in a computer vision system
JP2018534727A JP6931152B2 (ja) 2015-12-29 2016-12-29 コンピュータビジョンシステムにおけるストラクチャフロムモーション(SfM)処理のための方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018534727A Division JP6931152B2 (ja) 2015-12-29 2016-12-29 コンピュータビジョンシステムにおけるストラクチャフロムモーション(SfM)処理のための方法

Publications (2)

Publication Number Publication Date
JP2021119477A true JP2021119477A (ja) 2021-08-12
JP7222582B2 JP7222582B2 (ja) 2023-02-15

Family

ID=59086680

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018534727A Active JP6931152B2 (ja) 2015-12-29 2016-12-29 コンピュータビジョンシステムにおけるストラクチャフロムモーション(SfM)処理のための方法
JP2021065159A Active JP7222582B2 (ja) 2015-12-29 2021-04-07 コンピュータビジョンシステムにおけるストラクチャフロムモーション(SfM)処理のための方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2018534727A Active JP6931152B2 (ja) 2015-12-29 2016-12-29 コンピュータビジョンシステムにおけるストラクチャフロムモーション(SfM)処理のための方法

Country Status (5)

Country Link
US (1) US10186024B2 (ja)
EP (1) EP3398166B1 (ja)
JP (2) JP6931152B2 (ja)
CN (1) CN108352071B (ja)
WO (1) WO2017127220A1 (ja)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109325978B (zh) * 2017-07-31 2022-04-05 深圳市腾讯计算机***有限公司 增强现实显示的方法、姿态信息的确定方法及装置
CN109521756B (zh) * 2017-09-18 2022-03-08 阿波罗智能技术(北京)有限公司 用于无人驾驶车辆的障碍物运动信息生成方法和装置
CN108109169B (zh) * 2017-12-12 2021-12-14 深圳市神州云海智能科技有限公司 一种基于矩形标识的位姿估计方法、装置及机器人
GB201804194D0 (en) * 2018-03-15 2018-05-02 Blue Vision Labs Uk Ltd Urban Environmrnt labeling
US10878282B2 (en) * 2018-10-15 2020-12-29 Tusimple, Inc. Segmentation processing of image data for LiDAR-based vehicle tracking system and method
US11157090B2 (en) * 2018-10-26 2021-10-26 Magic Leap, Inc. Ambient electromagnetic distortion correction for electromagnetic tracking
CN109556616A (zh) * 2018-11-09 2019-04-02 同济大学 一种基于视觉标记的自动建图机器人建图修整方法
CN109870106A (zh) * 2019-02-14 2019-06-11 南京邮电大学 一种基于无人机图片的建筑物体积测量方法
US11122102B2 (en) * 2019-07-03 2021-09-14 Lg Electronics Inc. Point cloud data transmission apparatus, point cloud data transmission method, point cloud data reception apparatus and point cloud data reception method
US10909392B1 (en) * 2019-12-27 2021-02-02 Lyft, Inc. Systems and methods for computer-based labeling of sensor data captured by a vehicle
EP4047935A4 (en) * 2020-01-09 2022-12-14 LG Electronics Inc. POINT CLOUD DATA TRANSMITTING DEVICE, POINT CLOUD DATA TRANSMITTING METHOD, POINT CLOUD DATA RECEIVING DEVICE AND POINT CLOUD DATA RECEIVING METHOD
WO2021141233A1 (ko) * 2020-01-10 2021-07-15 엘지전자 주식회사 포인트 클라우드 데이터 송신 장치, 포인트 클라우드 데이터 송신 방법, 포인트 클라우드 데이터 수신 장치 및 포인트 클라우드 데이터 수신 방법
US11823408B2 (en) * 2020-03-13 2023-11-21 Oregon State University Apparatus and method to quantify maize seed phenotypes
US11430142B2 (en) * 2020-04-28 2022-08-30 Snap Inc. Photometric-based 3D object modeling
CN115769583A (zh) * 2020-06-19 2023-03-07 Lg电子株式会社 点云数据发送装置、点云数据发送方法、点云数据接收装置和点云数据接收方法
CN115918093A (zh) 2020-06-21 2023-04-04 Lg电子株式会社 点云数据发送设备、点云数据发送方法、点云数据接收设备和点云数据接收方法
WO2021261897A1 (ko) * 2020-06-23 2021-12-30 엘지전자 주식회사 포인트 클라우드 데이터 송신 장치, 포인트 클라우드 데이터 송신 방법, 포인트 클라우드 데이터 수신 장치 및 포인트 클라우드 데이터 수신 방법
CN111967342B (zh) * 2020-07-27 2024-04-12 杭州易现先进科技有限公司 平面参数设置的方法、装置、电子装置和存储介质
KR20220146892A (ko) * 2021-04-26 2022-11-02 현대자동차주식회사 Mmp를 이용한 adas 검사 시스템 및 그 방법
US20220397917A1 (en) * 2021-06-11 2022-12-15 Netdrones, Inc. Systems and methods for 3d model based drone flight planning and control

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007256029A (ja) * 2006-03-23 2007-10-04 Denso It Laboratory Inc ステレオ画像処理装置
US20140139635A1 (en) * 2012-09-17 2014-05-22 Nec Laboratories America, Inc. Real-time monocular structure from motion

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7397970B2 (en) * 2004-12-07 2008-07-08 Lockheed Martin Corporation Automatic scene correlation and identification
KR101195942B1 (ko) * 2006-03-20 2012-10-29 삼성전자주식회사 카메라 보정 방법 및 이를 이용한 3차원 물체 재구성 방법
US8442307B1 (en) 2011-05-04 2013-05-14 Google Inc. Appearance augmented 3-D point clouds for trajectory and camera localization
US8798357B2 (en) 2012-07-09 2014-08-05 Microsoft Corporation Image-based localization
US8818133B2 (en) * 2012-07-11 2014-08-26 Raytheon Company Point cloud construction with unposed camera
US20140037189A1 (en) 2012-08-02 2014-02-06 Qualcomm Incorporated Fast 3-D point cloud generation on mobile devices

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007256029A (ja) * 2006-03-23 2007-10-04 Denso It Laboratory Inc ステレオ画像処理装置
US20140139635A1 (en) * 2012-09-17 2014-05-22 Nec Laboratories America, Inc. Real-time monocular structure from motion

Also Published As

Publication number Publication date
JP2019502210A (ja) 2019-01-24
EP3398166B1 (en) 2021-12-01
US20170186177A1 (en) 2017-06-29
EP3398166A4 (en) 2019-06-26
US10186024B2 (en) 2019-01-22
WO2017127220A1 (en) 2017-07-27
EP3398166A1 (en) 2018-11-07
JP6931152B2 (ja) 2021-09-01
CN108352071B (zh) 2022-05-13
CN108352071A (zh) 2018-07-31
JP7222582B2 (ja) 2023-02-15

Similar Documents

Publication Publication Date Title
JP7222582B2 (ja) コンピュータビジョンシステムにおけるストラクチャフロムモーション(SfM)処理のための方法
US11763568B2 (en) Ground plane estimation in a computer vision system
JP6107081B2 (ja) 画像処理装置、画像処理方法及びプログラム
Vasconcelos et al. A minimal solution for the extrinsic calibration of a camera and a laser-rangefinder
Esquivel et al. Calibration of a multi-camera rig from non-overlapping views
CN109300159A (zh) 位置检测方法、装置、设备、存储介质及车辆
CN104204721B (zh) 单个相机距离估计
Ortin et al. Indoor robot motion based on monocular images
US11407363B2 (en) Method for calculating a tow hitch position
CN111127422A (zh) 图像标注方法、装置、***及主机
JP2014032666A (ja) 周囲状況に対するカメラの姿勢を求めるための方法
CN110349212B (zh) 即时定位与地图构建的优化方法及装置、介质和电子设备
Zhang et al. Depth sensing beyond lidar range
CN112907620B (zh) 相机位姿的估计方法、装置、可读存储介质及电子设备
Fathi et al. Multistep explicit stereo camera calibration approach to improve Euclidean accuracy of large-scale 3D reconstruction
CN112819860A (zh) 视觉惯性***初始化方法及装置、介质和电子设备
US10460453B2 (en) Feature point identification in sparse optical flow based tracking in a computer vision system
KR20150119770A (ko) 카메라를 사용한 3차원 좌표 측정 장치 및 방법
WO2013173383A1 (en) Methods and apparatus for processing image streams
CN118115662A (zh) 一种三维分层重构方法、***、电子设备及介质
Chen et al. Extrinsic Camera Calibration by using a Nonuniform Subdivision Accumulator and Orthogonal Vanishing Points
CN115526817A (zh) 三角立体相机视觉定位***、方法及终端
Shekar Structure-from-Motion and RGBD Depth Fusion
WO2023117066A1 (en) Sensor apparatus with multiple sensors for moving agent
Spek et al. A compact parametric solution to depth sensor calibration

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210426

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210426

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220530

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220629

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220929

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20221128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230130

R150 Certificate of patent or registration of utility model

Ref document number: 7222582

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150