JP5832341B2 - 動画処理装置、動画処理方法および動画処理用のプログラム - Google Patents

動画処理装置、動画処理方法および動画処理用のプログラム Download PDF

Info

Publication number
JP5832341B2
JP5832341B2 JP2012053450A JP2012053450A JP5832341B2 JP 5832341 B2 JP5832341 B2 JP 5832341B2 JP 2012053450 A JP2012053450 A JP 2012053450A JP 2012053450 A JP2012053450 A JP 2012053450A JP 5832341 B2 JP5832341 B2 JP 5832341B2
Authority
JP
Japan
Prior art keywords
frame
coordinates
coordinate
feature points
calculation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012053450A
Other languages
English (en)
Other versions
JP2013186816A (ja
Inventor
暢之 深谷
暢之 深谷
哲治 穴井
哲治 穴井
高地 伸夫
伸夫 高地
大谷 仁志
仁志 大谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Topcon Corp
Original Assignee
Topcon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Topcon Corp filed Critical Topcon Corp
Priority to JP2012053450A priority Critical patent/JP5832341B2/ja
Priority to US13/791,144 priority patent/US9171225B2/en
Publication of JP2013186816A publication Critical patent/JP2013186816A/ja
Application granted granted Critical
Publication of JP5832341B2 publication Critical patent/JP5832341B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Description

本発明は、動画の画像データを処理する技術に関する。
例えば、刻々と変化する移動体の位置情報をGPS(Global Positioning System)のデータから動的に取得し、その結果を得るシステムが実用化されている。しかしながら、この技術ではGPS衛星からのデータを常時精度良く得られるとは限らない。特に、高い建築物がある市街地での移動、トンネル内での移動、山岳地帯や森林地帯での移動、悪天候下での移動といった場合、この問題が顕在化する。このため、メートルオーダー以下での位置精度の検出が要求されるような場合、GPSだけに依存した位置検出技術では、精度が不足であり、GPSの情報が得られない環境やGPSからの情報の精度が低下した場合に、何らかの方法で刻々と変化する位置情報を精度よく得る方法が必要とされる。ところで、写真測量の原理を用いて、時間的に変化する位置の検出を動画像に基づいて行う技術が知られている(例えば、特許文献1参照)。この技術によれば、GPSの情報が途切れた場合に、動画像の解析から動的に変化するカメラの位置を演算により、逐次求めることができる。
しかしながら、動画像からカメラの位置や測定対象物の位置を求める方法は、誤差が発生する傾向がある。すなわち、動画像からカメラの位置や測定対象物の位置を求める方法では、基本的に第n番目のフレーム画像から得た測定対象物の特徴点と、第n+1番目のフレーム画像から得た測定対象物の特徴点との対応関係を算出し、刻々と撮影位置の変化に合わせて、測定対象物の特徴点を追跡してゆく処理が行われる。この処理の過程において、時間軸上で隣接するフレーム画像間で引き継がれる測定対象物の特徴点の追跡精度の誤差が徐々に累積する。
この問題に対処する技術として、例えば、非特許文献2、特許文献3、特許文献4に開示されたものがある。非特許文献2に記載の発明は、推定された三次元位置を画像上へ投影した座標と画像上で検出された座標との誤差(再投影誤差)、および、GPS測位値によって定義される位置誤差を同時に最小化するものである。特許文献3に記載の発明は、ビデオ映像から求めたカメラの位置および三軸回転位置を示すカメラベクトル(CV)データと、移動体の位置計測データと、を基準時刻によって時刻同期させ、同一時間軸で比較し、相互に補完補正するものである。特許文献4に記載された発明は、算出した外部標定要素を、画像の撮影タイミングと外部から与えられる撮影位置および/または撮影姿勢の取得タイミングとの差に基づいて修正する処理を繰り返すことで誤差を軽減するものである。
特開2007−171048号公報 情報処理学会論文誌Vol.0、No.13、横地裕次著、p1−11 特開2006−250917号公報 特開2010−14443号公報
従来の技術は、誤差を最小化しようとする技術であるが、徐々に算出誤差が増大する問題は依然としてあり、その点で改善が求められている。このような背景において、本発明は、動画像を処理する技術において、フレーム間で引き継がれる測定対象物の特徴点の追跡精度の低下を効果的に低減する技術の提供を目的とする。
請求項1に記載の発明は、測定対象物に対して相対的に移動する撮影部によって連続的に撮影された当該測定対象物の動画像を取得する動画像取得部と、前記動画像に含まれる複数のフレーム画像のそれぞれから複数の特徴点を抽出する特徴点抽出部と、前記複数のフレーム画像中における前記複数の特徴点の対応関係を追跡する特徴点追跡部と、前記対応関係が特定された複数の特徴点の実空間座標の算出を行う実空間座標算出部と、前記複数の特徴点の実空間座標を特定の位置から撮影したフレーム画像に逆投影し第1の逆投影座標および第2の逆投影座標を算出する逆投影座標算出部と、前記第1の逆投影座標および前記第2の逆投影座標に基づいて、前記特徴点追跡部が誤追跡した誤追跡点の検出を行う誤追跡点検出部とを備え、前記第1の逆投影座標の算出に用いた前記特定の位置は、前記複数の特徴点の実空間座標と、前記特定の位置から撮影したフレーム画像中における前記複数の特徴点の画像座標とに基づく第1の方法により算出され、前記第2の逆投影座標の算出に用いた前記特定の位置は、前記第1の方法と異なる方法、または前記第1の逆投影座標の場合と異なる系統の条件を用いた前記第1の方法により得られたものであることを特徴とする動画処理装置である。
ここで、動画像は、時間軸上で次々に連続的に取得された複数のフレーム画像により構成される。実空間座標は、測定対象物が存在する空間の座標であり、一般に3次元座標により記述される。特徴点は、測定対象物の粗さ、凹凸、エッジ等の視覚的に他の部分と区別でき、特徴がある部分として捉えることができる点である。例えば、線状の縁の部分は、線状に特徴点が分布した部分として捉えられる。特徴点は複数取得され、特徴点の分布により、測定対象物の3次元形状が表現される。特徴点をより細かく取得すれば、測定対象物の3次元的な描写はより細かく、高精度となる。誤追跡された特徴点というのは、異なるフレーム間において対応関係の特定に誤りがある特徴点のことをいう。例えば、第1のフレームと第2のフレームの間における特徴点の対応関係の特定(特徴点の追跡)において、本来対応関係にあるはずの特徴点同士が関連付けられず、本来は異なる特徴点であるもの同士が同一の特徴点として誤って対応付けられた場合、この誤って対応付けられた特徴点が誤追跡点となる。
第1の方法と異なる方法というのは、第1の方法と手順が異なる方法、あるいは第1の方法と異なる計測手段等を用いて第1の方法と同種のデータを得る方法のことをいう。例えば、第1の方法として、
(ステップ1)
(n−2)フレーム目および(n−1)フレーム目のフレーム画像に基づく測定対象物の特徴点の3次元座標の算出
(ステップ2)
該算出した特徴点の3次元座標とnフレーム目のフレーム画像とに基づくnフレーム目の撮影部の位置の座標の算出
を採用した場合を考える。この場合、第1の方法と異なる方法として、上記と異なる演算の方法(例えば、他の標定方法)によるnフレーム目の撮影部の位置の座標の算出、あるいはGPSを用いたnフレーム目の撮影部の位置の座標の取得といった場合が挙げられる。
第1の逆投影座標の場合と異なる系統の条件というのは、用いる条件(例えば初期条件のパラメータ)の出処として、異なる手法や異なる計測装置を用いる場合をいう。この場合の例としては、例えば第1の方法として、上記(ステップ1)→(ステップ2)の手順を採用した場合において、測定対象物の特徴点の3次元座標の算出に用いる初期条件の取得を、撮影した画像中の基準点を用いる場合(第1の系統の条件を採用)とGPS情報に基づく場合(第2の系統の条件を採用)の例を挙げることができる。なお、誤差や不確定要素が全く存在しない理想的な場合には、異なる系統の条件は一致する。
本発明によれば、移動しながら撮影される複数のフレーム間における特徴点の誤追跡点、つまり、間違えて特徴点を追跡し、異なるフレーム間で誤った対応関係とされた特徴点が高い精度で検出される。
一般に、測定対象物(撮影の対象物)の特徴点の実空間座標の値の算出の精度は、撮影部の位置(カメラの位置)、演算に用いる撮影部の姿勢(カメラの向き)の精度の影響を大きく受ける。すなわち、測定対象物の特徴点の座標の算出値は、原理的に撮影部の僅かな姿勢(向き)の違い、および位置の違いに大きな影響を受ける。また、この影響は、全ての特徴点に一様に及ぶものではなく、この影響を受け易い特徴点もあれば、この影響を受け難い特徴点もある。そしてこの影響の程度も撮影部の位置と姿勢によって異なる。
特に、誤追跡された特徴点は、トラッキング点(算出で求めた点)が実際の位置からずれているので、上述した撮影部の位置および姿勢の僅かな違いの影響が顕著に現れる。また、この誤追跡点の算出の精度に現れる影響の程度も撮影部の位置および姿勢のデータの違いを敏感に受ける。
本発明では、誤追跡点の検出を、特定の位置から撮影したフレーム画像に測定対象物の特徴点の3次元座標を逆投影することで得た逆投影座標を用いて行う。この逆投影座標は、当該フレーム画像に逆投影された当該特徴点の投影点の当該フレーム画像中における画像座標である。本発明では、この逆投影座標を得る際に利用される撮影部の特定の位置を得る過程において、異なる方法または方法は同じであるが異なる条件を利用する。上述したように、測定対象物の特徴点の算出位置精度は、撮影部の位置および姿勢の僅かな違いの影響を顕著に受ける。そこで、本発明では、測定対象物の特徴点に基づく撮影部の位置の特定に際して、異なる方法または方法は同じであるが異なる条件を利用することで、一方の処理で誤追跡点と判定されなかった特徴点が、他方の処理で誤追跡点と判定される確率を増大させ、誤追跡点の検出漏れを低減する。言い換えると、本発明の手法を採用しない場合に比較して誤追跡点の検出の精度を高める。
本発明は、動画像を撮影する側の位置情報を得る技術に利用できるのは勿論であるが、測定対象物側の位置情報を得る技術に利用することもできる。例えば、移動する移動体から風景を撮影し、その風景の三次元データを得る技術に利用することもできる。
請求項2に記載の発明は、請求項1に記載の発明において、前記誤追跡点検出部は、前記第1の逆投影座標と前記フレーム画像中の特徴点の位置との差、および前記第2の逆投影座標と前記フレーム画像中の特徴点の位置との差に基づいて前記誤追跡点の検出を行うことを特徴とする。
実空間中における特徴点の特定(その3次元座標の算出)が正確でない場合、その特徴点の実画像(フレーム画像)に逆投影された状態における位置(逆投影座標中における位置)と、実画像中の位置がずれる可能性が高い。請求項2に記載の発明では、このことを利用して、逆投影座標を用いての誤追跡点の検出が行われる。
請求項3に記載の発明は、請求項1または2に記載の発明において、前記誤追跡点検出部は、前記第1の逆投影座標と前記フレーム画像中の特徴点の位置との差が予め定められた値を超えた場合、および前記第2の逆投影座標と前記フレーム画像中の特徴点の位置との差が予め定められた値を超えた場合の少なくとも一方が成立した場合に該当する特徴点を誤追跡点として除去することを特徴とする。
請求項3に記載の発明によれば、第1の逆投影座標を用いた場合に検出された誤追跡点と、第2の逆投影座標を用いた場合に検出された誤追跡点の両方(つまりor条件)を、除去の対象とすることで、一方の逆投影座標では検出されず他方の逆投影座標で検出される誤追跡点の除去を行うことができる。この方法によれば、誤追跡点の検出漏れが抑えられ、誤追跡点が除去されず、後々の演算で誤差が徐々に増大する不都合の発生が抑えられる。
請求項4に記載の発明は、請求項1〜3のいずれか一項に記載の発明において、前記第2の逆投影座標の算出に用いた前記特定の位置ではなく、前記第1の逆投影座標の算出に用いた前記特定の位置が前記撮影部の位置として出力されることを特徴とする。
請求項4に記載の発明によれば、一方の処理における測定対象物の3次元座標のデータを次々と引継ぎ、他方の処理は後追跡された特徴点を効率よく検出するためにのみ用い、そのデータは、次のサイクルに引き継がない。この態様では、第2の逆投影座標の算出に用いたデータは、後の処理に引き継がれず、処理のサイクルが繰り返される毎にリフレッシュされる。このため、第2の逆投影座標の算出に係る処理において、何らかの理由により仮に誤差が生じても、それが徐々に累積さてゆく問題が生じない。
請求項5に記載の発明は、請求項1〜4のいずれか一項に記載の発明において、前記特徴点抽出部は、前記誤追跡点が検出された領域から再度の特徴点の抽出を行うことを特徴とする。誤追跡点が除去されると、後の処理に引き継がれる特徴点の数が減少する。特徴点の数が減少すると、演算の精度が低下する可能性が増大する。そこで請求項5に記載の発明では、誤追跡点が検出された領域から再度の特徴点の抽出を行うことで後の処理における特徴点の数を確保し、演算精度の低下を防止する。
請求項6に記載の発明は、請求項1〜5のいずれか一項に記載の発明において、前記第2の逆投影座標の算出に用いた前記特定の位置は、前記第1の逆投影座標の場合と異なる系統の条件を用いた前記第1の方法により得られたものであり、前記異なる系統の条件は、前記第1の方法の演算条件として与えられる撮影部の位置と姿勢の一方または両方に係る条件であることを特徴とする。
同じ演算の方法を用いた場合における逆投影座標を用いた誤追跡点の検出において、その結果に最も敏感に影響するのは、撮影部の位置と姿勢に係る初期条件の値である。請求項6に記載の発明では、この演算結果に最も敏感に影響する撮影部の位置および姿勢の初期値の少なくとも一方を異なる系統のものとすることで、誤追跡点が少なくとも一方の逆投影座標で検出される傾向をより顕著にし、より高い精度で誤追跡点の検出が行われるようにする。
請求項7に記載の発明は、請求項1〜6のいずれか一項に記載の発明において、前記第1の逆投影座標と前記第2の逆投影座標とが異なる種類の動画像に基づいて得られることを特徴とする。異なる種類の動画像を用いることで、誤追跡点が少なくとも一方の逆投影座標で検出される傾向がより顕著になる。
請求項8に記載の発明は、請求項7に記載の発明において、前記異なる種類の動画像が立体の動画像と立体でない動画像の組み合わせ、または複数のフレーム画像により構成される動画像と3次元点群画像の組み合わせであることを特徴とする。
請求項9に記載の発明は、請求項1〜5のいずれか一項に記載の発明において、少なくとも2フレームのフレーム画像における前記特徴点の座標と前記撮影部の撮影速度とから前記撮影部の相対移動速度を算出する移動速度算出部と、前記移動速度算出部で算出した前記相対移動速度を利用して前記撮影部の位置データを算出する位置算出部とを更に備え、当該位置算出部により、前記第1の方法と異なる方法により得られる前記第2の逆投影座標の算出に用いた前記特定の位置の算出が行われることを特徴とする。
請求項10に記載の発明は、請求項1〜5のいずれか一項に記載の発明において、少なくとも2フレームの画像それぞれに対応する前記撮影部の位置データから前記撮影部の変位量を算出する変位量算出部と、前記変位量算出部で算出した前記撮影部の変位量を利用して前記撮影部の位置データを算出する位置算出部とを更に備え、当該位置算出部により、前記第1の方法と異なる方法により得られる前記第2の逆投影座標の算出に用いた前記特定の位置の算出が行われることを特徴とする。
請求項11に記載の発明は、測定対象物に対して相対的に移動する撮影部によって連続的に撮影された当該測定対象物の動画像を取得する動画像取得ステップと、前記動画像に含まれる複数のフレーム画像のそれぞれから複数の特徴点を抽出する特徴点抽出ステップと、前記複数のフレーム画像中における前記複数の特徴点の対応関係を追跡する特徴点追跡ステップと、前記対応関係が特定された複数の特徴点の実空間座標の算出を行う実空間座標算出ステップと、前記複数の特徴点の実空間座標を特定の位置から撮影したフレーム画像に逆投影し第1の逆投影座標および第2の逆投影座標を算出する逆投影座標算出ステップと、前記第1の逆投影座標および前記第2の逆投影座標に基づいて、前記特徴点追跡部が誤追跡した誤追跡点の検出を行う誤追跡点検出ステップとを有し、前記第1の逆投影座標の算出に用いた前記特定の位置は、前記複数の特徴点の実空間座標と、前記特定の位置から撮影したフレーム画像中における前記複数の特徴点の画像座標とに基づく第1の方法により算出され、前記第2の逆投影座標の算出に用いた前記特定の位置は、前記第1の方法と異なる方法、または前記第1の逆投影座標の算出の場合と異なる系統の条件を用いた前記第1の方法により得られたものであることを特徴とする動画処理方法である。
請求項12に記載の発明は、コンピュータに読み取られて実行される動画処理用のプログラムであって、コンピュータを測定対象物に対して相対的に移動する撮影部によって連続的に撮影された当該測定対象物の動画像を取得する動画像取得手段と、前記動画像に含まれる複数のフレーム画像のそれぞれから複数の特徴点を抽出する特徴点抽出手段と、前記複数のフレーム画像中における前記複数の特徴点の対応関係を追跡する特徴点追跡手段と、前記対応関係が特定された複数の特徴点の実空間座標の算出を行う実空間座標算出手段と、前記複数の特徴点の実空間座標を特定の位置から撮影したフレーム画像に逆投影し第1の逆投影座標および第2の逆投影座標を算出する逆投影座標算出手段と、前記第1の逆投影座標および前記第2の逆投影座標に基づいて、前記特徴点追跡部が誤追跡した誤追跡点の検出を行う誤追跡点検出手段ととして機能させ、前記第1の逆投影座標の算出に用いた前記特定の位置は、前記複数の特徴点の実空間座標と、前記特定の位置から撮影したフレーム画像中における前記複数の特徴点の画像座標とに基づく第1の方法により算出され、前記第2の逆投影座標の算出に用いた前記特定の位置は、前記第1の方法と異なる方法、または前記第1の逆投影座標の場合と異なる系統の条件を用いた前記第1の方法により得られたものであることを特徴とする動画処理用のプログラムである。
本発明によれば、動画像を処理する技術において、フレーム間で引き継がれる測定対象物の特徴点の追跡精度の低下を効果的に低減する技術が提供される。
実施形態の概念図である。 実施形態における動画処理装置のブロック図である。 実施形態における処理の手順の一例を示すフローチャートである。 テンプレートマッチングの原理を説明する説明図である。 移動するカメラと測定対象物の特徴点の関係を示すイメージ図である。 前方交会法を説明する説明図である。 後方交会法を説明する説明図である。 相互標定を説明する説明図である。 逆投影座標を説明するイメージ図である。 実施形態における他の処理の手順の一例を示すフローチャートである。 実施形態における他の処理の手順の一例を示すフローチャートである。 実施形態における他の処理の手順の一例を示すフローチャートである。 実施形態における他の処理の手順の一例を示すフローチャートである。 実施形態における他の処理の手順の一例を示すフローチャートである。
1.第1の実施形態
(構成)
図1には、移動体10が示されている。移動体10は、例えば乗用車である。ここでは、移動体10として乗用車の例を示すが、移動体はそれに限定されるものではない。移動体10は、動画処理装置100、GPS受信機200、姿勢計測装置300、カメラ400を備えている。
動画処理装置100は、カメラ400が撮影した路面500の動画の画像データに基づいて、移動しつつある移動体10の刻々と変化する位置を算出する。GPS受信機200は、位置取得手段の一例であり、公知のGPS(Global Positioning System)を利用し、移動体の位置情報を取得する。姿勢計測装置300は、カメラ400の姿勢を計測するもので、慣性計測装置やジャイロスコープなどの姿勢センサ、加速度計、角速度計、角加速度計、傾斜計等の一部または複数を備えている。
カメラ400は、撮影部の一例であり、特定の周波数でフレーム画像を連続的に撮影する動画像撮影手段である。この例において、カメラ400は一台である。またカメラ400は、移動体10を構成するフレームに固定されており、移動体10の車体に対して向き(光軸)は固定されている。
図2には、動画処理装置100のブロック図が示されている。動画処理装置100は、コンピュータとして機能する装置であり、図示しないがCPU、RAM、ROM、各種インターフェース機能を有している。例えば、汎用のコンピュータを用いて動画処理装置100を構成することも可能である。勿論、専用のハードウェアにより動画処理装置100の一部または全部を構成することも可能である。動画処理装置100を動かすためのプログラムは、動画処理装置100内のデータ記憶領域に記憶されており、適当な記憶領域に読み出されて動画処理装置100内のCPUにより実行される。
動画処理装置100は、動画取得部101、外部標定要素取得部102、特徴点抽出部103、特徴点追跡部104、特徴点座標算出部105、不整合点除去部106、外部標定要素算出部(カメラ位置算出部)107、バンドル調整部108、逆投影座標算出部109、誤追跡点検出部110、誤追跡点除去部111を備えている。これらの機能部は、ソフトウェア的に構成されており、以下に説明する機能を有している。なお、符号112〜115の機能部は、本実施形態では利用しない(後述する実施形態のところで説明する)。
動画取得部101は、カメラ400が撮影した動画像のデータを受け付ける。外部標定要素取得部102は、カメラ400の外部標定要素(位置および姿勢のデータ)を取得する。例えば、外部標定要素取得部102は、カメラ400が撮影した画像のデータに基づいて外部標定要素を取得する。また、外部標定要素取得部102は、GPS受信機200および姿勢計測装置300からの出力に基づいて外部標定要素を取得する。この場合、外部標定要素取得部102は、カメラ400からの位置情報を取得する位置取得手段および姿勢計測装置300からのカメラ400の姿勢に係るデータを取得する姿勢取得手段として機能する。また、外部標定要素取得部102は、外部から与えられる情報に基づく外部標定要素を取得する機能を有する。この外部から与えられる情報としては、路面上の標識、路面上や道路上に設けられた光学ビーコンや電波ビーコン等から得られる情報が含まれる。
特徴点抽出部103は、動画取得部101が取得した動画を構成するフレーム画像の中から、撮影対象物の特徴点をソフトウェア処理により抽出する。特徴点の抽出には、ソーベル、ラプラシアン、プリューウィット、ロバーツなどの微分フィルタを用いる。
特徴点追跡部104は、異なるフレーム画像間における特徴点の対応関係を求め、異なるフレーム画像間における対応する特徴点の追跡を行う。特徴点の追跡は、一方の画像で抽出された特徴点に対応する対応点を他方の画像内で探索することで行われる。対応点の探索には、残差逐次検定法(Sequential Similarity Detection Algorithm Method:SSDA)、正規化相関法、方向符号照合法(Orientation Code Matching:OCM)などのテンプレートマッチングが用いられる。
特徴点座標算出部105は、前方交会法を用いて、測定対象物の撮影画像から抽出した特徴点の三次元座標を算出する。前方交会法とは、既知の2点以上から未知点へ向かう方向を観測して、それらの方向線の交点として未知点の位置の座標を定める方法である。
不整合特徴点除去部106は、測定対象物である路面500上に存在しないと見なされる特徴点を除去する。すなわち、この例においては、測定対象物は路面500であり、特徴点は、路面500の表面にあると見なせる。したがって、特徴点の3次元座標の高さ方向の座標はある範囲に制限される。そこで、高さ方向における特徴点の3次元座標を、閾値を用いて判定し、高さ方向における特定の範囲から外れている特徴点を路面500から離れた位置として誤検出された特徴点とみなし、それを不整合特徴点として除去する。この処理が不整合特徴点除去部107において行われる。なお、判定に用いる閾値は、予め実験的に求めておいたものを利用する。
外部標定要素算出部107は、後方交会法あるいは相互標定法に基づいて、外部標定要素(カメラ400の位置、姿勢)を算出する。後方交会法とは、未知点から3つ以上の既知点へ向かう方向を観測して、それらの方向線の交点として未知点の位置を定める方法である。後方交会法としては、単写真標定、DLT法(Direct Liner Transformation Method)が挙げられる。外部標定要素算出部107により、移動体10の移動に従って刻々と変化するカメラ400の位置(移動体10の位置)の情報が得られる。この意味で、外部標定要素算出部107は、カメラ位置算出部として機能する。
バンドル調整部108は、バンドル調整を行う。バンドル調整は、異なる撮影位置で撮影された複数のフレーム画像を用いてカメラ400の位置および姿勢の算出を行う際に、算出の精度を高めるために行われる最適化処理である。バンドル調整の詳細については後述する。逆投影座標算出部109は、ある特定のカメラ400の位置から撮影したフレーム画像に、撮影対象の特徴点の座標を逆投影して逆投影点を得、その逆投影点の座標(逆投影座標)を算出する。逆投影座標を算出するための処理の詳細については後述する。
誤追跡点検出部110は、逆投影座標算出部109が算出した逆投影座標を利用して、特徴点追跡部104が誤追跡した特徴点を検出する。誤追跡点を検出する手順の詳細については後述する。誤追跡点除去部111は、誤追跡点検出部110が検出した誤追跡点を、特徴点として捉えているデータ群の中から除去する。
(処理の一例)
以下、動画処理装置100を用いて、移動中の移動体10の位置情報を算出する処理の手順の一例を説明する。図3は、動画処理装置100において行われる処理の手順の一例を示すフローチャートである。図3のフローチャートを実行するためのプログラムは、動画処理装置100が備える適当なメモリ領域に格納され、動画処理装置100が備えるCPUによって実行される。なお、図3のフローチャートを実行するためのプログラムを外部の適当な記憶媒体に格納し、そこから動画処理装置100に提供される形態も可能である。この点は、後述する図10〜図14に示すフローチャートを実行するプログラムにおいても同じである。
図3に示す処理が開始されると、まず、動画像取得部101によって、カメラ400が撮影した動画像の画像データが取得される(ステップS101)。動画像は、カメラ400と対象物(この場合は、路面500)とが少しずつ相対的に移動していく過程において撮影された複数の連続する画像(この画像の一つ一つをフレーム画像という)で構成される。動画像取得部101は、時系列的に得られる複数のフレーム画像をリアルタイムに順次取得する。
動画像のデータを取得した後、2系統の処理が並列的に行われる。勿論、一方の系統の処理の一部を行った後で他方の処理の一部を行う、といった手順であってもよいし、CPUを2つ利用し、リアルタイムに並列処理を行っても良い。図3には、処理系統1と処理系統2が記載されている。処理系統1は、路面500に対して移動するカメラ400の位置を刻々と算出する処理である。処理系統2は、処理系統1の処理が繰り返し行われてゆく過程において、追跡されつつ受け継がれる測定対象物(路面500)の特徴点の誤追跡点(異常点)を検出し、処理系統1の処理の精度の低下を抑えるために行なわれる。図3に示すフローでは、処理系統1と処理系統2は、基本的に同じ処理の手順を踏むが、初期値として用いるパラメータの出処が異なっている。以下、処理系統1を主に説明し、副次的に処理系統2を説明する。なお、図3のフローチャートにおいて、左右の対応する位置にある処理は、図2の同じ機能部によって実行される。例えば、処理系統1のステップ104の処理と処理系統2のステップS104’は、図2の特徴点追跡部104において実行される。
動画像のデータを取得後、処理系統1では、初期化処理が行われる(ステップS102)。ステップS102では、カメラ400の位置と姿勢の初期値が取得される。この処理は、外部標定要素取得部102において行われる。この処理では、位置が明確に判っている基準点が撮影された画像からカメラ400の内部標定要素と外部標定要素の初期値の算出が行われる。以下、この初期値の取得に係る処理の詳細を説明する。
まず、測定対象となる実空間に基準点を設置し、この基準点の実空間における三次元座標をトータルステーションやGPSを用いて計測する。あるいは、実空間における3次元座標が既知である基準点を用意する。次に、その基準点をカメラ400で撮影し、基準点の三次元座標とフレーム画像中における画像座標とに基づいて、後方交会法によってカメラの内部標定要素と外部標定要素の初期値を算出する。
別な方法として、トータルステーションやGPSを用いて、複数の撮影位置の三次元座標値を与え、複数の撮影位置で撮影されたステレオ画像から、外部標定要素の初期値を求めるようにしてもよい。更に別な方法として、トータルステーションやGPSを用いず、間の距離が既知である複数の基準点が描かれた基準板を移動しながら、複数枚の画像を撮影し、基準点が撮影された複数枚の画像から、基準点の画像座標を算出し、相互標定などを用いてカメラ400の位置、姿勢の初期値を得る方法を用いてもよい(ただし、この場合、得られる座標系はローカル座標系となる)。なお、後方交会法、相互標定の具体的な演算の詳細については後述する。
処理系統1のステップS102に対応する処理系統2の処理(ステップS102’)でもステップS102と同様の処理が行われ、カメラ400の位置および姿勢のデータが得られる。
処理系統1に戻り、ステップS102の後、取得した動画像のフレーム画像から特徴点の抽出を行う(ステップS103)。ここでは、1フレーム目、2フレーム目、3フレーム目の最低3フレームのフレーム画像のそれぞれから、特徴点を抽出する。この処理は、図2における特徴点抽出部103において行われる。特徴点の検出には、モラベック、ラプラシアン、ソーベルなどのフィルタが用いられる。また、ステップS103と同様の処理が、処理系統2においても行われる(ステップS103’)。
特徴点を抽出したら、異なるフレーム画像間において、対応する特徴点を特定し、その追跡を行う(ステップS104)。ここでは、1フレーム目、2フレーム目、3フレーム目における特徴点の対応関係が特定される。この処理は、特徴点追跡部104において行われる。この処理は、処理系統2においても行われる(ステップS104’)。なお、異なるフレーム画像中における特徴点の対応関係を特定するための情報は、各フレーム画像内に埋め込まれる。
この例において、特徴点の追跡には、テンプレートマッチングが用いられる。テンプレートマッチングとしては、残差逐次検定法(SSDA:Sequential Similarity Detection Algorithm)、相互相関係数法などが挙げられる。以下、テンプレートマッチングの一例を説明する。テンプレートマッチングは、2つの座標系における画像の座標データを相互に比較し、両者の相関関係により、2つの画像の対応関係を求める方法である。テンプレートマッチングでは、2つの視点それぞれから見た画像の特徴点の対応関係が求められる。図4は、テンプレートマッチングの原理を説明する説明図である。この方法では、図示するように、N×N画素のテンプレート画像を、それよりも大きいM×M画素の入力画像内の探索範囲(M−N+1)上で動かし、下記数1で示される相互相関関数C(a,b)が最大となるような(つまり相関の程度が最大となるような)テンプレート画像の左上位置を求める。
Figure 0005832341
上記の処理は、一方の画像の倍率を変えながら、また回転させながら行われる。そして、相関関係が最大となった条件で、両画像の一致する領域が求まり、更にこの領域における特徴点を抽出することで、対応点の検出が行われる。
テンプレートマッチングを用いることで、比較する2つの画像の一致する部分が特定でき、2つの画像の対応関係を知ることができる。この方法では、2つ画像の相関関係が最大となるように両者の相対的な位置関係が定められる。2つの画像の相関関係は、両画像の特徴点によって決まる。
ステップS104によって特徴点の追跡を行った後、複数のフレーム画像、この場合でいうと、1フレーム目のフレーム画像と2フレーム目のフレーム画像において対応する特徴点の3次元座標の算出が行われる(ステップS105)。この処理は、図2の特徴点座標算出部105において行われる。
この例では、時間差を置いて異なる位置から取得された2つのフレーム画像(1フレーム目のフレーム画像と2フレーム目のフレーム画像)をステレオペア画像として用い、三角測量の原理により、2つのフレーム画像中で対応関係が特定された特徴点の3次元座標の算出が行われる。図5は、この様子を示すイメージ図である。図5に示すように、1フレーム目の撮影時に比較して、2フレーム目の撮影時には、図の右の方向にカメラ400は移動している。従って、同時ではないが、僅かな時間差をおいて、×印で示される測定対象物の複数の特徴点を、異なる2つの位置および方向から撮影した2つのフレーム画像が得られる。ここで、1フレーム目におけるカメラ400の位置と姿勢、更に2フレーム目におけるカメラ400の位置と姿勢は、ステップS102(ステップS102’)において取得され既知であるので、立体写真測量の原理から特徴点の3次元座標を求めることができる。これが、ここで説明する特徴点座標算出部105において行われる処理の基本原理である。
以下、この処理の詳細な手順の一例を説明する。ここでは、前方交会法を用いて、1フレーム目のフレーム画像と2フレーム目のフレーム画像の中で対応関係が特定された特徴点の3次元座標の算出を行う。なお、以下においては、処理系統1のステップS105における処理を説明するが、ステップS105’における処理の内容も同じである。
図6は、前方交会法を説明する説明図である。前方交会法とは、既知の2点(O,O)上から未知点Pへ向かう方向を観測して、それらの方向線の交点として未知点Pの位置を求める方法である。図6において、対象空間の座標系をO−XYZとする。ここで、1フレーム目のフレーム画像のカメラの投影中心Oの座標(X01,Y01,Z01)およびカメラ座標軸の傾き(ω,φ,κ)と、2フレーム目のフレーム画像のカメラの投影中心Oの座標(X02,Y02,Z02)およびカメラ座標軸の傾き(姿勢)(ω,φ,κ)は、ステップS102において既に取得され既知である。また、内部標定要素(焦点距離、主点位置、レンズ歪係数)も既知である。
ここで、1フレーム目のフレーム画像上の特徴点p(x,y)と、これに対応する2フレーム目のフレーム画像上の特徴点p(x,y)は、それぞれのフレーム画像から得られる。したがって、対象空間の未知点となる特徴点Pの3次元座標(X,Y,Z)は、光線Oと光線Oの交点として定まる。ただし、実際には誤差があり、2本の光線が正確に交わらないため、最小二乗法によって交点位置を求める。具体的には、2本の共線条件式(数2)を立てる。これに既知の外部標定要素、内部標定要素、対応点の画像座標を代入する。
Figure 0005832341
さらに、この共線条件式に未知点Pの近似値(X’,Y’,Z’)に補正量を加えたもの(X’+ΔX,Y’+ΔY,Z’+ΔZ)を代入する。そして、近似値回りにテーラー展開して線形化し、最小二乗法により補正量を求める。求めた補正量によって近似値を補正し、同様の操作を繰り返し、収束解を求める。この操作によって、特徴点の三次元座標P(X,Y,Z)が求められる。この計算をすべて特徴点について行い、1フレーム目のフレーム画像と2フレーム目のフレーム画像の中で対応関係が特定された複数の特徴点の3次元座標の算出が行われる。以上がステップS105で行われる処理の内容の詳細な一例である。また、同様な処理が、ステップS105’においても行われる。
ステップS105の後、閾値を用いて路面500上から離れた高さ位置にある特徴点を異常点として検出し、それを除去する(ステップS106)。この処理は、不整合特徴点除去部106において行われる。この処理は、処理系統2においても行われる(ステップS106’)。なお、このステップS106とステップS106’は省略可能である。
ステップS106の後、測定対象物の特徴点の3次元座標に基づいて、3フレーム目におけるカメラ400の外部標定要素の算出を行う(ステップS107)。この処理によって、3フレーム目におけるカメラ400の位置と姿勢が求められる。この処理は、外部標定要素算出部107において行われる。ここでは、後方交会法を用いてカメラ400の外部標定要素の算出が行われる。
以下、ステップS107で行われる演算の詳細な一例を説明する。図7は、後方交会法を説明する説明図である。後方交会法とは、未知点Oから3つ以上の既知点P、P、Pへ向かう方向を観測して、それらの方向線の交点として未知点Oの位置を求める方法である。ここでは、ステップS105において求めた測定対象物の特徴点の3次元座標を図7の基準点P、P、Pとし、それを基にして、後方交会法によって3フレーム目におけるカメラ400の外部標定要素(X,Y,Z,ω,φ,κ)を算出する。後方交会法としては、単写真標定、DLT法、相互標定がある。
まず、単写真標定を用いて3フレーム目におけるカメラ400の外部標定要素(X,Y,Z,ω,φ,κ)を算出する場合を、図7を参照して説明する。単写真標定は、1枚の写真の中に写された基準点に成り立つ共線条件を用いて、写真を撮影したカメラの位置O(X,Y,Z)およびカメラの姿勢(ω,φ,κ)を求める手法である。共線条件とは、投影中心O、写真像(p,p,p)および測定対象点(この場合は特徴点)(Op,Op,Op)が、一直線上にあるという条件である。ここで、カメラの位置O(X,Y,Z)とカメラの姿勢(ω,φ,κ)は外部標定要素である。
まず、カメラ座標系をx,y,z、写真座標系x,y、測定対象物の座標系である基準座標系X,Y,Zとする。カメラを各座標軸の正方向に対して左回りにそれぞれω,φ,κだけ順次回転させた向きで撮影が行われたものとする。そして、4点の画像座標(図7では3点のみ記載)と対応する基準点の三次元座標を下記数3に示す2次の射影変換式に代入し、観測方程式を立ててパラメ−タb1〜b8を求める。
Figure 0005832341
そして、数3のパラメータb1〜b8を用いて、以下の数4から外部標定要素(X,Y,Z,ω,φ,κ)を求める。ここで、(X,Y,Z)は3フレーム目におけるカメラ400の位置を示す座標であり、(ω,φ,κ)は、その位置におけるカメラ400の姿勢(向き)である。
Figure 0005832341
以上のようにして、測定対象物(路面500)の特徴点の3次元座標に基づいて、3フレーム目におけるカメラ400の3次元位置の座標と姿勢(向き)が単写真標定を用いて算出される。
次に、DLT法によって、測定対象物(路面500)の特徴点の3次元座標に基づく3フレーム目におけるカメラ400の位置と姿勢を算出する手順について説明する。DLT法は、写真座標と対象空間の三次元座標との関係を3次の射影変換式で近似したものである。DLT法の基本式は以下の数5となる。なお、DLT法の詳細については、「村井俊治:解析写真測量、p46−51、p149−155」等に記載されている。
Figure 0005832341
数5の式の分母を消去すると、数6の線形式を導き出せる。
Figure 0005832341
さらに、数6を変形すると、以下の数5となる。
Figure 0005832341
数7に6点以上の基準点の三次元座標を代入し、最小二乗法を用いて解くと、写真座標と対象点座標との関係を決定するL〜L11の11個の未知変量を取得できる。なお、L〜L11には、外部標定要素が含まれる。
次に、相互標定法による外部標定要素の算出について説明する。相互標定は、既知点がなくとも相対的な外部標定要素が求められる方法である。また、既知点があれば、絶対標定を行うことで、絶対座標を求めることができる。
図8は、相互標定を説明する説明図である。相互標定は、左右2枚の画像における6点以上の対応点によって外部標定要素を求める。相互標定では、投影中心OとOと基準点Pを結ぶ2本の光線が同一平面内になければならいという共面条件を用いる。以下の数8に、共面条件式を示す。なお、ここで例えば左画像が2フレーム目のフレーム画像に当たり、右画像が3フレーム目のフレーム画像に当たる。
Figure 0005832341
図8に示すように、モデル座標系の原点を左側の投影中心Oにとり、右側の投影中心Oを結ぶ線をX軸にとるようにする。縮尺は、基線長を単位長さとする。このとき、求めるパラメータは、左側のカメラのZ軸の回転角κ、Y軸の回転角φ、右側のカメラのZ軸の回転角κ、Y軸の回転角φ、X軸の回転角ωの5つの回転角となる。この場合、左側のカメラのX軸の回転角ωは0なので、考慮する必要はない。このような条件にすると、数8の共面条件式は数9のようになり、この式を解けば各パラメータが求められる。
Figure 0005832341
ここで、モデル座標系XYZとカメラ座標系xycの間には、次の数10に示すような座標変換の関係式が成り立つ。
Figure 0005832341
これらの式を用いて、次の手順により、未知パラメータ(外部標定要素)を求める。
(1)未知パラメータ(κ,φ,κ,φ,ω)の初期近似値は通常0とする。
(2)数8の共面条件式を近似値のまわりにテーラー展開し、線形化したときの微分係数の値を数9により求め、観測方程式をたてる。
(3)最小二乗法をあてはめ、近似値に対する補正量を求める。
(4)近似値を補正する。
(5)補正された近似値を用いて、(1)〜(4)までの操作を収束するまで繰り返す。
相互標定が収束した場合、さらに接続標定が行われる。接続標定とは、各モデル間の傾き、縮尺を統一して同一座標系とする処理である。この処理を行った場合、以下の数11で表される接続較差を算出する。算出した結果、ΔZおよびΔDが、所定値(例えば、0.0005(1/2000))以下であれば、接続標定が正常に行われたと判定する。
Figure 0005832341
上記相互標定により、3フレーム目におけるカメラ400の位置および姿勢が求められる。その後、バンドル調整を行っても良い(ステップS108,S108’)。バンドル調整は、バンドル調整部108において行われる。バンドル調整により、測定対象物の特徴点、フレーム画像上の点、投影中心の3点を結ぶ光束(バンドル)が同一直線上になければならないという共線条件に基づき、各画像の光束1本毎に観測方程式を立て、最小二乗法によって同時調整が行われ、3フレーム目におけるカメラ400の外部標定要素および測定対象物の特徴点の三次元座標の最適化が図られる。バンドル調整は、前述した数2の共線条件式を用いる。また、数2における各パラメータには、下記数12の関係がある。
Figure 0005832341
バンドル調整は、逐次近似解法を用いる。具体的には、基準点や特徴点の三次元座標、外部標定要素の真値を、各々の近似値(X’,Y’,Z’)、(X’,Y’,Z’,ω’,φ’,κ’)に補正量を加えたもの(X’+ΔX,Y’+ΔY,Z’+ΔZ)、(X’+ΔX,Y’+ΔY,Z’+ΔZ,ω’+Δω,φ’+Δφ,κ’+Δκ)とし、基準点や特徴点に対応する画像座標の真値を、計測値(x’,y’)に誤差を加えたもの(x’+dx,y’+dy)とする。そして、補正量を加えた近似値と、誤差を含む計測値とを、1つまたは複数の画像の共線条件式(数2)に代入し、近似値回りにテーラー展開して線形化し、最小二乗法により補正量を求める。求めた補正量によって近似値を補正し、同様の操作を繰り返し、収束解を求める。ポスト処理として、数十枚〜全部の画像を使ってバンドル調整を行っても良い。
下記の数13は、レンズが放射方向の歪みを有する場合の内部標定要素の補正モデルである。数13によって、内部標定要素も同時に調整することができる。いわゆる、セルフキャリブレーション付きバンドル調整である。なお、Δx、Δyは、内部標定要素(焦点距離、主点位置、レンズ歪係数)の補正項を表す。
Figure 0005832341
次に、処理系統2のステップS107’において行われる処理について説明する。ステップS107’では、処理系等1と異なる出処の条件を用いての3フレーム目における外部標定要素の算出が行われる。ここでは、3フレーム目のカメラ400の姿勢に係るデータを姿勢計測装置300から得、それと1フレーム目および2フレーム目のフレーム画像から得られた測定対象物の複数の特徴点の3次元座標とに基づき、3フレーム目におけるカメラ400の位置の算出を行う。
ステップS107’では、単写真法、DLT法、相互標定のいずれかを用いる。単写真法の場合、数4に記載の(ω,φ,κ)に姿勢計測装置300で得た値を代入し、3フレーム目におけるカメラ400の位置を算出する。DLT法の場合は、L〜L11に(ω,φ,κ)の要素が含まれているので、姿勢計測装置300で得た値を基にL〜L11を求め、3フレーム目におけるカメラ400の位置を算出する。相互標定の場合、数9の(κ,φ)、(κ,φ、ω)に姿勢計測装置300からの値(2フレーム目撮影時の姿勢と3フレーム目撮影時の姿勢)を代入し、3フレーム目におけるカメラ400の位置を算出する。
なお、処理系統1で行われたのと同様なバンドル調整を、処理系統2においても行っても良い。(ステップS108’)。ステップS108後、ステップS109に進む。ステップS109では、ステップS105で求めた特徴点の3次元座標をステップS107で求めた3フレーム目のカメラ位置を用いて3フレーム目のフレーム画像(実画像)に逆投影し、逆投影点を得、更にこの逆投影点の座標(逆投影座標)の算出を行う。この処理は、逆投影座標算出部109において行われる。
図9は、ステップS109の処理の内容を説明するイメージ図である。この処理では、ステップS107で求められ、この時点で既知となっている3フレーム目におけるカメラ400の位置と測定対象物との間に3フレーム目のフレーム画像を仮想的に配置し、上記カメラ位置を基準として、この3フレーム目のフレーム画像に実空間上の特徴点を逆投影し、逆投影された投影点の座標(逆投影座標)を求める。ここで、ステップS103において、1フレーム目〜3フレーム目までのフレーム画像中における特徴点が抽出され、その対応関係もステップS104によって求められ、更にステップS107において、3フレーム目におけるカメラ400の外部標定要素(位置と姿勢)が得られているので、上記の逆投影座標の算出に係る処理は、ソフトウェア的な処理により実行することができる。
この逆投影座標を算出する処理では、1および2フレーム目のフレーム画像に基づいて算出された実空間における測定対象物の複数の特徴点の3次元座標のそれぞれと、3フレーム目のカメラ400の位置とを直線で結び、この直線と3フレーム目のフレーム画像(実画像)面との交点を実空間中の特徴点の逆投影点とする処理が行われる。この様子が、図9に概念的に示されている。このステップS109と同様の処理は、ステップS109’においても行われる。
ステップS109における逆投影座標の算出を行った後、3フレーム目のフレーム画像上の特徴点(実画像の特徴点)と、実空間からの特徴点の投影点(逆投影点)とを比較し、処理系統1における異常点(異常点1と表記)を検出する(ステップS110)。すなわち、投影の対象となるフレーム画像の縮尺が適切に調整されていれば、理想的には、フレーム画像上における特徴点の位置と実空間からの特徴点の投影点(逆投影点)の位置とは一致する。しかしながら、多様な要因で誤差が生じ、フレーム画像上における特徴点の位置と実空間からの特徴点の投影点の位置との間にずれが生じる(勿論、ズレが生じない場合もある)。ステップS110では、閾値を利用してこのズレを検出する。なお、判定に用いる閾値は、予め実験的に求めておいたものを利用する。
図9には、破線で囲ったAの部分において、実空間上の特徴点の当該フレーム画像への投影点(逆投影点)と当該フレーム画像中の特徴点の画像座標とが目だってずれている状態が誇張して示されている。このズレは以下の理由により生じる。まず、フレーム画像中における特徴点の画像座標は、実写した画像中の位置であるので、レンズ系の歪み、特徴点の抽出処理における誤差、データ化に際してのノイズの影響等があるにしてもその誤差は相対的に極めて小さい。他方において、実空間中における特徴点の3次元座標は、上記の誤差要因に加えて、更にステップS104の処理における誤差、ステップS105の演算における誤差、ステップS107の演算における誤差が加わる。特に、ステップS105とステップS107の演算は近似計算を含むので、誤差への影響が大きい。
このような理由により、僅かな誤差要因が原因で、図9の符号Aの部分に示すような目に見える誤差が生じる。この逆投影座標に表れる誤差は、演算の過程で発生する誤差が累積するので、その程度が顕在化(強調化)されたものとなる。この傾向は、図3の処理系統2のステップS110’においても同じである。なお、ステップS110’で検出される異常点は、ステップS110で検出された異常点と区別するために異常点2と表記されている。
そして、一般に異常点1と異常点2とは、必ずしも一致しない。これは以下の理由による。前述したように、ステップS107(ステップS107’も同じ)では、例えば数2に示されているように、その算出結果は、カメラ400の姿勢を示すパラメータの影響を大きく受ける。
ここで、図3の処理系統1と処理系統2とでは、外部標定要素の算出を行うステップS107(S107’)において、初期値として利用したカメラ400の姿勢に係るデータの出処が異なっている。この違いがステップS107およびステップS107’における演算に影響を与え、それは図9の符号Aの部分に示すマッチング誤差に影響を与える。具体的にいうと、処理系統1では、ステップS110において、異常値として検出された特徴点が、処理系統2では、ステップS110’において、異常値として検出されず、またその逆のパターンが発生する。仮に、ステップS107とS107’の内容が同じであり、両ステップで同じ由来の外部標定要素を用いた場合には、この違いは発生しない。
ステップS110の後、異常点1と異常点2を追跡が適切でなかった特徴点(誤追跡点)として除去する。なお、当然のことであるが、異常点1と異常点2で一致するものがあっても構わない。
ステップS111の段階で、処理系統2は一旦終了する。そして、処理系統1は、ステップS111からステップS112に進む。ステップS112以下では、基本的にステップ102〜ステップS111の処理が繰り返される。この繰り返しが次々に行われることで、(n+1)フレーム目、(n+2)フレーム目、(n+3)フレーム目(n:自然数)を対象とした処理により、(n+3)フレーム目におけるカメラ400の外部標定要素の算出が逐次行われる。そして、動的に変化するカメラ400の外部標定要素の算出が刻々と行われ、カメラ400の位置の変化(移動体10の位置の変化)に係るデータの算出が行われる。
この処理系統1の各サイクルにおけるステップS107に対応する処理で算出されるカメラ400の位置(移動体10の位置)に係るデータが、動画処理装置100から外部に逐次出力され、それが例えば、移動体10の図示しないナビゲーションシステムに入力される。そして、この入力に基づき、図示しないナビゲーションシステムは、ディスプレイ表示された地図情報にカメラ400(移動体10)の刻々と変化する位置情報を表示する。勿論、動画処理装置100から出力されるカメラ400(移動体10)の位置情報を他の目的で利用することもできる。
この技術によれば、GPSからの情報が途切れても、あるいはGPSからの情報の精度が低下しても、刻々と変化する移動体10の位置情報を追跡することができる。あるいは、GPS情報が得られない環境における移動体10の位置情報を追跡することができる。
以下、ステップS112以下で行われる処理について説明する。ステップS112では、2フレーム目と3フレーム目におけるカメラ400の外部標定要素(カメラの位置と姿勢)が外部標定要素取得部102において取得される。ここで、2フレーム目における外部標定要素は、初期値としてステップS102において与えられており、3フレーム目における外部標定要素は、ステップS107において演算により求められている。
例えば、2順目の処理サイクルのステップS112の処理においては、その時点で(n−1)=3フレーム目、および(n−2)=2フレーム目の外部標定要素は既知であるので、それが外部標定要素取得部102によって取得される。そして、3順目の処理サイクルでは、ステップS112に対応する処理において、その時点で既知である(n−1)=4フレーム目および(n−2)=3フレーム目の外部標定要素が取得される(4フレーム目の外部標定要素は、2順目のステップS107に対応する処理で算出されている)。こうして、nフレーム目の外部標定要素の算出を行うサイクルにおけるステップS112に対応する処理において、(n−1)フレーム目および(n−2)目の外部標定要素の取得が行われる。
また、ステップS112の後に行われるステップS103に対応する処理(図示せず)において、処理の対象とするフレーム画像中から新たな特徴点の抽出が行われるが、この際に前回のサイクルにおける処理で誤追跡点が除去され、密度が低下した領域で特徴点の再抽出が行われる。この特徴点の再抽出は、特徴点抽出部103において行われる。例えば、ステップS112の次に、4フレーム目のフレーム画像を対象とした新たな特徴点の抽出が行われる。この時点において、2フレーム目と3フレーム目の特徴点は既知であるが、ステップS111において、誤追跡点が除去されているので、その数は低下している。そこで、2フレーム目と3フレーム目を対象として、特徴点の密度が低下した領域を対象として、再度の特徴点抽出の処理を行い、減った分の特徴点を補う処理を行う。具体的にいうと、特徴点抽出部103は、既に特徴点の抽出が行われているフレーム画像を対象に、そのフレーム画像を複数に区分けし、その区分けされた領域における特徴点の密度を数え、その値が閾値を下回った場合に、該当する領域において特徴点の再抽出を行う。こうすることで、特徴点の減少による演算の精度の低下を抑えることができる。
また、ステップS112の後に行われるステップS103およびステップS104に対応する処理では、3フレーム目とその前の2フレーム目のフレーム画像中において新たに現れた特徴点の抽出および追跡が行われる。例えば、1フレーム目では現れておらず、2フレーム目と3フレーム目において新たに現れた特徴点の抽出が行われ、更にそれらの対応関係が特定される処理が行われる。また、ステップS112の後に行われるステップS104に対応する処理では、上述した特徴点の密度が低下した領域から抽出された特徴点の追跡が行われる。そして、ステップS105以下の処理に対応する処理が繰り返される。
以下、2フレーム目と3フレーム目において新たに現れ、抽出および追跡がされた特徴点、および再抽出された特徴点の3次元座標を算出する手順の例を説明する。この場合、図6における左側の座標Оが2フレーム目のカメラ位置となり、右側の座標Оが3フレーム目のカメラ位置となる。ここで、2フレーム目のフレーム画像のカメラの投影中心Oの座標(X01,Y01,Z01)およびカメラ座標軸の傾き(ω,φ,κ)は、既にステップS102において取得され既知である。また、3フレーム目のフレーム画像のカメラの投影中心Oの座標(X02,Y02,Z02)およびカメラ座標軸の傾き(姿勢)(ω,φ,κ)は、ステップS107において既に算出され既知である。また、内部標定要素(焦点距離、主点位置、レンズ歪係数)も既知である。また、2フレーム目のフレーム画像中における画像座標pと3フレーム目のフレーム画像中における画像座標pは、各フレーム画像から求めることができる。したがって、2フレーム目と3フレーム目において新たに現れ、抽出および追跡がされた特徴点、および再抽出された特徴点の3次元座標Pを求めることができる。これは、3順目以降の処理サイクルにおいても同じである。
すなわち、4フレーム目以降における特徴点の3次元座標を算出する手順では、図6における左側の座標Оが(n−2)フレーム目のカメラ位置となり、右側の座標Оが(n−1)フレーム目のカメラ位置となる。ここで、(n−2)フレーム目のフレーム画像のカメラの投影中心Oの座標(X01,Y01,Z01)およびカメラ座標軸の傾き(ω,φ,κ)、および(n−1)フレーム目のフレーム画像のカメラの投影中心Oの座標(X02,Y02,Z02)およびカメラ座標軸の傾き(姿勢)(ω,φ,κ)は、既知である。また、内部標定要素(焦点距離、主点位置、レンズ歪係数)も既知である。また、(n−2)フレーム目のフレーム画像中における画像座標pと(n−1)フレーム目のフレーム画像中における画像座標pは、各フレーム画像から求めることができる。したがって、(n−2)フレーム目と(n−1)フレーム目における特徴点の3次元座標Pを求めることができる。
ステップS112の後に行われるステップS107に対応する2サイクル目の処理では、後方交会法によって4フレーム目におけるカメラ400の外部標定要素(位置と姿勢)を算出する。後方交会法としては、単写真標定、DLT法、相互標定があり、その何れを使用してもよい。以下、相互標定を利用して4フレーム目におけるカメラ400の外部標定要素(位置と姿勢)を算出する場合の例を説明する。
この場合、数8〜数11および図8に示す相互標定によって、4フレーム目におけるカメラ400の外部標定要素(カメラ400の位置と姿勢)の算出が行われる。相互標定は、左右2枚の画像における6点以上の対応点によって外部標定要素を求める方法である。この際、例えば左画像が3フレーム目のフレーム画像に当たり、右画像が4フレーム目のフレーム画像に当たる。ここで、3フレーム目の外部標定要素は既知であり、複数ある特徴点の3次元座標も既知である。また、2つのフレーム画像中における特徴点の画像座標は、それぞれのフレーム画像から得ることができる。よって、未知数となる4フレーム目の外部標定要素(カメラ400の位置と姿勢)を算出することができる。これは、3順目以降の処理サイクル(例えば、5フレーム目や6フレーム目におけるカメラ400の外部標定要素の算出の場合)においても同じである。
例えば、4フレーム目以降におけるカメラ400の外部標定要素(カメラ400の位置と姿勢)の算出を図8の相互標定により行う場合、例えば左画像が(n−1)フレーム目のフレーム画像に当たり、右画像がnフレーム目のフレーム画像に当たる。ここで、(n−1)フレーム目の外部標定要素は既知であり、複数ある特徴点の3次元座標も既知である。また、2つのフレーム画像中における特徴点の画像座標は、それぞれのフレーム画像から得ることができる。よって、未知数となるnフレーム目の外部標定要素(カメラ400の位置と姿勢)を算出することができる。
また、4フレーム目以降における第nフレーム目における逆投影点を算出する処理では、(n−2)フレーム目および(n−1)フレーム目のフレーム画像およびそれ以前のフレームに基づいて算出された実空間における測定対象物の複数の特徴点の3次元座標のそれぞれと、nフレーム目のカメラ400の位置とを直線で結び、この直線とnフレーム目のフレーム画像(実画像)面との交点を実空間中の特徴点の逆投影点とする処理が行われる。
また、処理系統2は、ステップS110’で一旦処理が終了し、新たにステップS112’以下の処理が開始される。ステップS112’以降は、対象とするフレームが1フレーム先に進んだ形となり、ステップS102’以下の処理が繰り返される。
処理系等2における2サイクル目以降の処理におけるステップS107’に対応する処理も単写真法、DLT法、相互標定のいずれかを用いる。単写真法の場合、数4に記載の(ω,φ,κ)に姿勢計測装置300で得た値を代入し、nフレーム目におけるカメラ400の位置を算出する。DLT法の場合は、L〜L11に(ω,φ,κ)の要素が含まれているので、姿勢計測装置300で得た値を基にL〜L11を求め、nフレーム目におけるカメラ400の位置を算出する。相互標定の場合、数9の(κ,φ)、(κ,φ、ω)に姿勢計測装置300からの値((n−1)フレーム目撮影時の姿勢とnフレーム目撮影時の姿勢)を代入し、nフレーム目におけるカメラ400の位置を算出する。これは、3順目以降の処理サイクル(例えば、5フレーム目や6フレーム目におけるステップS107’に対応する処理)においても同じである。その他、ステップS112’以降における個々の処理についての留意点は、上述した処理系統1におけるものと同じである。
以上述べたように、本実施形態では、測定対象物の特徴点の3次元座標を特定の位置から撮影したフレーム画像に逆投影し、この逆投影された特徴点と当該フレーム画像における特徴点の画像座標を比較し、マッチングしない、つまり位置が整合しない特徴点を、複数フレーム間で誤追跡された特徴点として除去する。この際、逆投影点の座標(逆投影座標)を得るに至る演算における条件を異なる系統から得た2系統の処理を行い、2つ処理系等で得られた逆投影座標それぞれにおいて上述した誤追跡点の検出を行う。そして、少なくとも一方の処理で検出された誤追跡点を除去し、誤追跡点が後の処理に引き継がれないようにする。
(優位性)
以上述べた手法によれば、外部標定要素の由来の違いに起因して、2系統の処理で異なる誤追跡点が検出され、誤追跡点の検出漏れが抑えられる。このため、誤追跡点がフレーム間で受け継がれることによるカメラ400の位置検出の精度の低下が抑えられる。
すなわち、図3の処理では、1および2フレーム目の外部標定要素が処理系統1と処理系統2とで異なる系統から与えられ、この異なる系統の演算条件に基づいて、(1)各処理系統において測定対象物の特徴点の3次元座標の算出→(2)算出した特徴点の3次元座標に基づく3フレーム目におけるカメラ位置の算出、(3)算出した3フレーム目のカメラ位置を用いた逆投影座標の算出が行われる。ここで、ステップS107とS107’における演算条件の違いに起因してステップS110とS110’における異常点(誤追跡点)の検出結果が異なる傾向、言い換えると処理系統1では検出されなかったが処理系統2では検出される傾向および処理系統2では検出されなかったが処理系統1では検出される傾向が生じる。このため、誤追跡点の検出漏れが抑えられる。
そしてこの処理では、処理系統2における逆投影座標の算出に用いた特定の位置(3フレーム目のカメラ位置)ではなく、処理系統1における逆投影座標の算出に用いた特定の位置(3フレーム目のカメラ位置)がカメラ400の位置として動画処理装置100から外部に出力される。言い換えると、誤追跡点の検出に利用される処理系統2の処理は、1サイクル毎に終了し、次のサイクルにデータを引き継がない。このため、処理系統2においてデータを次々と引き継ぐことによる誤差の増大が生じない。つまり、何らかの要因により、処理系統2で誤差が生じたとしても、次の処理サイクルでは、新たな初期データの取得が行われ、当該誤差が生じた処理の過程における誤差要因が利用されないので、処理系統2において誤差が徐々に累積されてゆく問題が生じない。
2.第2の実施形態
本実施形態では、処理系統2における逆投影座標の算出に必要な3フレーム目のカメラ400の位置の算出を処理系統1と異なる手法によって行う。具体的には、処理系統2のステップS107’において行われる3フレーム目におけるカメラ400の位置の算出を、それ以前におけるカメラ400の位置と速度に基づいて行う。なお、本実施形態で示す方法は、測定対象物が路面のように、カメラと測定対象物との間の位置関係が既知である場合に適用可能である。
この場合、図2のブロック図に、カメラ400の移動速度の算出を行うカメラ速度算出部112、およびカメラ400の速度からカメラ400の位置の算出を行う(カメラの速度を利用したカメラ位置算出部)113が追加される。図10に処理の手順の一例を示す。図10において、図3と同じ符号の部分における処理の内容は、図3の場合と同じである。これは、実施形態3以下の場合も同じである。
この処理では、処理系統2における処理において、以下の処理が行われる。まず、ステップS101の後、ステップS102と同様な初期化処理により2フレーム目のカメラ400の位置および姿勢を取得する(ステップS201)。なお、ステップS201における2フレーム目のカメラ400の姿勢に係るデータを姿勢計測装置300から得ても良い。ステップS201の後、2フレーム目のフレーム画像(2フレーム画像)および3フレーム目のフレーム画像(3フレーム画像)から、測定対象物の特徴点の抽出を行い(ステップS202)、次いでこれら2つのフレーム画像の間で対応する特徴点の特定(特徴点の追跡)を行う(ステップS104’)。
その後、2フレーム目の撮影時と3フレーム目の撮影時の間におけるカメラ400(移動体10)の速度の算出を行う(ステップS203)。具体的には、まず、カメラ400の位置、姿勢、路面500からの距離を利用して特徴点の画像座標を空間座標(X,Y)(X,Y)に変換する。次いで、速度Vを下記の数14から算出する。
Figure 0005832341
次に、2フレーム目のカメラ400の位置および2〜3フレーム間のカメラ400の速度Vに基づいて、3フレーム目におけるカメラ400の位置を算出する(ステップS204)。その後、第1の実施形態の場合と同様の手順(ステップS109’およびステップS110’)を行う。なお、この際におけるステップS109’およびステップS110’の処理に用いられる特徴点の3次元座標は、ステップS105において求められたものを利用する。なお、4フレーム目以降におけるステップS203に対応する処理では、(n−1)フレーム〜nフレーム間の速度を上記と同様の手法により算出し、同様の演算を行う。なお、処理系等2の2順目以降のサイクルにおける最初の処理(ステップS205)では、nフレーム目におけるカメラ400の姿勢のデータを姿勢計測装置300から得、カメラ400の位置のデータは処理系等1で算出した値(図10の場合でいうと、ステップS107で算出した値)を採用する。
この形態の場合、ステップS110’における異常点2を得るための処理系等2における演算の方法自体が、処理系統1と異なるので、第1の実施形態の場合と同様の理由により、処理系統1と処理系統2で異なる異常点の検出が行われる可能性が高くなる。そのため、処理系統1のみを行う場合に比較して、特徴点の誤追跡点の検出漏れが抑えられる。
図10に示す処理のステップS201において、カメラ400の位置のデータをステップ102と別の系統(例えばGPS受信機200)から得ても良い。また、ステップS201において、カメラ400の姿勢に係るデータを姿勢計測装置300から取得し、カメラ400の位置のデータをGPS受信機200から得ても良い。
また、ステップS205において、カメラ400の姿勢に係るデータおよび位置に係るデータとして、処理系等1で算出した値(図10の場合でいうと、ステップS107で算出した外部標定要素)を採用してもよい。この場合、演算に利用する外部標定要素は、処理系等1と処理系等2とで同じであるが、ステップ110に至る演算の手法と、S110’に至る演算の手法が互いに異なるので、処理系統1と処理系統2で異なる異常点の検出が行われる可能性が高くなる効果が得られる。
3.第3の実施形態
本実施形態では、処理系統2における逆投影座標の算出に必要な3フレーム目のカメラ400の位置の算出を処理系統1と異なる手法によって行う。具体的には、処理系統2のステップS107’において行われる3フレーム目におけるカメラ400の位置の算出を、それ以前におけるカメラ400の変位の状態に基づいて行う。
この場合、図2のブロック図にフレーム間変位量算出部114と、フレーム間変位量算出部114が算出したフレーム間の変位量から次フレームにおけるカメラ400の位置の算出を行う(変位量を利用したカメラ位置算出部)115が追加される。この形態における処理の手順の一例を図11に示す。この処理では、処理系統2におけるステップS102’の後、ステップS102’で取得したカメラ400の位置および姿勢に基づいて、1フレーム目と2フレーム目との間におけるカメラ400(移動体10)の変位量の算出が行われる(ステップS301)。
次に、カメラ400が、ステップS102’で取得した2フレーム目の姿勢を維持した状態で、ステップS301で算出した変位量で引き続き変位するものと推定し、3フレーム目におけるカメラ400の位置を算出する(ステップS302)。その後、第1の実施形態の場合と同様の手順(ステップS109’およびステップS110’)を行う。なお、この際におけるステップS109’およびステップS110’の処理に用いられる特徴点の3次元座標は、ステップS105において求められたものを利用する。
変位量の算出をGPS受信機200からのGPS情報および姿勢計測装置300の計測値に基づいて行うことも可能である。また、画像解析とGPS情報および姿勢計測装置300の計測値を組み合わせて変位量の算出を行うことも可能である。なお、4フレーム目以降における第nフレーム目におけるカメラ400の移動量の算出は、(n−2)フレーム目のカメラ位置と(n−1)フレーム目におけるカメラ位置に基づいて行えばよい。なお、ステップS102’におけるカメラの位置および姿勢に係る初期値はGPS受信機200や姿勢計測装置300から得ても良い。
4.第4の実施形態
この例では、処理系統2における初期値として、カメラ400の位置をGPSから得、カメラ400の姿勢を姿勢計測装置300から得る。この形態における処理の手順の一例を図12に示す。この処理では、処理系統2の初め(ステップS401)において、1フレーム目と2フレーム目におけるカメラ400の位置をGPS受信機200から取得し、当該2つのフレームにおけるカメラ400の姿勢を姿勢計測装置300から取得する(ステップS401)。また、2順目以降の処理サイクルのステップS112’に対応する処理においても(n−1)フレーム目とnフレーム目のカメラ400の位置をGPS受信機200から、カメラ400の姿勢を姿勢計測装置300から取得する。他の処理は、図3に示す場合と同じである。
5.第5の実施形態
この例では、カメラ400として異なる視点から2つの動画像を撮影するステレオカメラを用いる。図13に処理の手順の一例を説明する。この例の場合、図2に示す構成は、図2に関連して説明した機能に加えて、スレレオペア画像を対象とした処理を行なう。なお、ステレオカメラを構成する左右のカメラの相対位置と姿勢の関係は、設定値として既知であるとする。
この例では、まずカメラ400からステレオペア動画像のデータを取得する(ステップS501)。このステレオペア動画像は、右画像取得用のカメラからの動画像と、左画像取得用のカメラからの動画像とにより構成される。ここで、左右の動画像は、時系列を追って連続して撮影された複数のフレーム画像により構成されている。
ステップS501の後、処理系統1では、右動画像は用いず、左動画像のみを対象にステップS102以下の処理を行う。処理系統1の処理は、第1の実施形態の場合と同じである。なお、処理系統1では、ステレオペア画像の一方を利用すれば事足りるのであり、左動画像を用いず、右動画画像を用いて処理を行うことも可能である。
処理系統2では、まず第1の実施形態の場合と同様にステップ102’を行い、次いでステップS501で取得したステレオペア動画像の中の2フレーム目の左右のステレオペア画像のそれぞれから特徴点の抽出を行う(ステップS502)。次いで、2フレーム目における左右のステレオ画像から抽出した特徴点の対応関係を特定する(ステップS503)。
ここで、ステレオカメラを構成する左右のカメラの位置関係と姿勢の関係は既知であるので、ステップ105’において、図6に示す原理を用い、ステップS503で特定した特徴点の3次元座標の算出が行われる。そして以後、第1の実施形態の場合と同様なステップ106’以下の処理が行われる。
なお、ステップS107’およびステップS110’においては、左カメラが撮影した左フレーム画像を用いた処理を行う。この際、ステップS107’において、左カメラの外部標定要素が算出され、ステップS110’における投影は、左カメラの位置に向かって行われる。なお、処理系統1で右カメラの画像が採用される場合、処理系統2のステップS107’およびステップS110’は、右カメラを対象として処理を行う。
図13の処理において、処理系統1においてステレオペア画像を用いた処理を行っても良い。この場合、測定対象物の特徴点の抽出を2フレーム目のステレオペアフレーム画像から行う(ステップS103に対応)。次に、この左右のステレオペアフレーム画像から得られた特徴点の対応関係を求める(ステップS104に対応)。そして、当該ステレオペア画像間で対応関係が求まった特徴点の3次元座標を図6に示す原理により算出する(ステップS105に対応)。後は、図13の場合と同じである。
図13の処理において、処理系統1においてステレオペア画像を用いた処理を行い、処理系統2において、連続的に撮影される単画像を用いた処理を行っても良い。すなわち、図13における処理系統1と処理系統2で利用する動画の種類を交換した形態で処理を行っても良い。この場合も異なる手法を用いることに起因して、一方で検出され他方で検出されなかった誤追跡点の検出が行われる可能性が増大し、誤検出点の検出漏れが抑えられる。なお、ステップS102’におけるカメラの位置および姿勢に係る初期値はGPS受信機200や姿勢計測装置300から得ても良い。
6.第6の実施形態
この形態では、処理系統2における3フレーム目のカメラの位置と姿勢のデータを、特徴点を用いた演算によるものではなく、GPS装置200と姿勢計測装置300から直接得る。この態様における処理の手順の一例を図14に示す。この処理では、処理系統2において、ステップ601が実行され、処理系統1とは別に3フレーム目におけるカメラ400の位置と姿勢がGPS装置200および姿勢計測装置300から取得される。なお、ステップS109’で利用される測定対象物の特徴点の3次元座標は、ステップS105で算出されたものが利用される。
7.第7の実施形態
図3の処理系統2における測定対象物の特徴点の3次元座標を取得する方法として、レーザースキャナを用いてもよい。レーザースキャナは、測定対象物にレーザー光を照射し、その反射光を受光することで、レーザースキャナの設置位置(視点)から測定点までの距離、方位、仰角(または俯角)の情報を取得し、これらの情報に基づき、測定点の三次元位置座標に係る情報を算出する機能を有する。また、レーザースキャナは、測定点からの反射光の強度、色、色相、彩度等に関する情報を取得する。レーザースキャナはこれらの情報に基づき、三次元座標値を含む点群位置データを算出する。
図3の処理系統2における測定対象物の3次元座標の取得を、レーザースキャナを用いて行う場合、カメラ位置の算出にレーザースキャナから得た測定対象物の3次元座標のデータを利用し、逆投影座標の算出には、カメラが撮影した画像から得た測定対象物の特徴点を利用する。この場合も異なる系統から得たパラメータを用いての逆投影座標の算出が行われるので、処理系統1と処理系統2における特徴点の誤追跡点の検出の結果が異なる傾向が生じる。
(その他)
図3に示す処理において、カメラ400の向きを示すデータは共通の出所から得、位置データを異なる系統から得る処理とすることも可能である。図3のステップS102とステップS102’におけるカメラの姿勢に係る初期値を姿勢計測装置300から得ても良い。実施形態では、測定対象物が路面500であるが、測定対象物は路面に限定されず、移動体から撮影可能で、且つ、特徴点の抽出およびその3次元座標の算出が可能なものであれば、何でも良い。例えば、測定対象物の他の例として、移動体から見える景観等を挙げることができる。
実施形態では、カメラの位置(移動体の位置)の測定が主題であるので、演算の対象となる範囲から外れた過去の測定対象物の3次元位置データを記録する必要はない。しかしながら、実施形態の構成を、動画を構成するフレーム画像に写る撮影対象物の3次元点群位置データを得る手段に利用することもできる。この場合、動画の撮影に従って徐々に生じる外部標定要素の精度の低下(劣化)を抑えることができ、取得した測定対象物(例えば景観等)の3次元座標の精度の低下が抑えられる。また、明細書中で例示した実施形態の複数を組み合わせて実施することも可能である。
実施形態では、本流となる処理系統1と誤追跡点の検出用の処理系統2との2系統の処理の流れを利用する場合を説明したが、誤追跡点の検出用の処理系統を更に増やしても良い。例えば、図3の処理系統1および2に加えて、図10〜図14の処理系統2の1または複数を実行し、誤追跡点の検出を行う処理を更に増やしても良い。この場合、各処理の流れにおいて誤追跡点と検出された特徴点を全て除去し、その結果を本流の処理である処理系統1の処理に引き継ぐ形とする。
ところで、GPSを用いた位置の測定は、理想的な状況であれば、かなりの精度を期待することができる。しかしながら、色々な要因(環境や天候)により、常に高い精度で位置情報が得られるとは限らない。この場合、GPSの精度が低い期間は、本明細書中の実施形態の一つを用いての位置の計測を行い、そして高い精度のGPS情報が得られた時点で、位置データの取得をGPSに切り替える。更に、GPS情報が途切れた際(あるいはその精度が低下した際)に、GPSから得られた信頼できる位置データを初期値として実施形態の一つを用いての位置の計測に切り替える。こうすることで、GPSと補完しながら、リアルタイムに高い精度での移動体の位置の検出が可能となる。
また、外部から与えられる情報に基づいてカメラ400の位置(車両10の位置)を特定する手段として、GPS以外に(あるいはGPSに加えて)道路沿いや路面に設けられた光ビーコンや電波ビーコンの情報から得られる位置情報を利用することもできる。
実施形態では、移動体として道路上を走る車両を一例として挙げたが、移動する場所は道路に限定されない。例えば、工事用車両や道路でない場所を走行する車両に本発明を適用することができる。また、移動体は、車両に限定されず、船舶、航空機、移動可能なロボット等であってもよい。
本発明は、動画像の処理に用いることができる。
10…移動体、500…路面。

Claims (12)

  1. 測定対象物に対して相対的に移動する撮影部によって連続的に撮影された当該測定対象物の動画像を取得する動画像取得部と、
    前記動画像に含まれる複数のフレーム画像のそれぞれから複数の特徴点を抽出する特徴点抽出部と、
    前記複数のフレーム画像中における前記複数の特徴点の対応関係を追跡する特徴点追跡部と、
    前記対応関係が特定された複数の特徴点の実空間座標の算出を行う実空間座標算出部と、
    前記複数の特徴点の実空間座標を特定の位置から撮影したフレーム画像に逆投影し第1の逆投影座標および第2の逆投影座標を算出する逆投影座標算出部と、
    前記第1の逆投影座標および前記第2の逆投影座標に基づいて、前記特徴点追跡部が誤追跡した誤追跡点の検出を行う誤追跡点検出部と
    を備え、
    前記第1の逆投影座標の算出に用いた前記特定の位置は、前記複数の特徴点の実空間座標と、前記特定の位置から撮影したフレーム画像中における前記複数の特徴点の画像座標とに基づく第1の方法により算出され、
    前記第2の逆投影座標の算出に用いた前記特定の位置は、前記第1の方法と異なる方法、または前記第1の逆投影座標の場合と異なる系統の条件を用いた前記第1の方法により得られたものであることを特徴とする動画処理装置。
  2. 前記誤追跡点検出部は、
    前記第1の逆投影座標と前記フレーム画像中の特徴点の位置との差、および前記第2の逆投影座標と前記フレーム画像中の特徴点の位置との差に基づいて前記誤追跡点の検出を行うことを特徴とする請求項1に記載の動画処理装置。
  3. 前記誤追跡点検出部は、
    前記第1の逆投影座標と前記フレーム画像中の特徴点の位置との差が予め定められた値を超えた場合、および前記第2の逆投影座標と前記フレーム画像中の特徴点の位置との差が予め定められた値を超えた場合の少なくとも一方が成立した場合に該当する特徴点を誤追跡点として除去することを特徴とする請求項1または2に記載の動画処理装置。
  4. 前記第2の逆投影座標の算出に用いた前記特定の位置ではなく、前記第1の逆投影座標の算出に用いた前記特定の位置が前記撮影部の位置として出力されることを特徴とする請求項1〜3のいずれか一項に記載の動画処理装置。
  5. 前記特徴点抽出部は、前記誤追跡点が検出された領域から再度の特徴点の抽出を行うことを特徴とする請求項1〜4のいずれか一項に記載の動画処理装置。
  6. 前記第2の逆投影座標の算出に用いた前記特定の位置は、前記第1の逆投影座標の場合と異なる系統の条件を用いた前記第1の方法により得られたものであり、
    前記異なる系統の条件は、前記第1の方法の演算条件として与えられる撮影部の位置と姿勢の一方または両方に係る条件であることを特徴とする請求項1〜5のいずれか一項に記載の動画処理装置。
  7. 前記第1の逆投影座標と前記第2の逆投影座標とが異なる種類の動画像に基づいて得られることを特徴とする請求項1〜6のいずれか一項に記載の動画処理装置。
  8. 前記異なる種類の動画像が立体の動画像と立体でない動画像の組み合わせ、または複数のフレーム画像により構成される動画像と3次元点群画像の組み合わせであることを特徴とする請求項7に記載の動画処理装置。
  9. 少なくとも2フレームのフレーム画像における前記特徴点の座標と前記撮影部の撮影速度とから前記撮影部の相対移動速度を算出する移動速度算出部と、
    前記移動速度算出部で算出した前記相対移動速度を利用して前記撮影部の位置データを算出する位置算出部と
    を更に備え、
    当該位置算出部により、前記第1の方法と異なる方法により得られる前記第2の逆投影座標の算出に用いた前記特定の位置の算出が行われることを特徴とする請求項1〜5のいずれか一項に記載の動画処理装置。
  10. 少なくとも2フレームの画像それぞれに対応する前記撮影部の位置データから前記撮影部の変位量を算出する変位量算出部と、
    前記変位量算出部で算出した前記撮影部の変位量を利用して前記撮影部の位置データを算出する位置算出部と
    を更に備え、
    当該位置算出部により、前記第1の方法と異なる方法により得られる前記第2の逆投影座標の算出に用いた前記特定の位置の算出が行われることを特徴とする請求項1〜5のいずれか一項に記載の動画処理装置。
  11. 測定対象物に対して相対的に移動する撮影部によって連続的に撮影された当該測定対象物の動画像を取得する動画像取得ステップと、
    前記動画像に含まれる複数のフレーム画像のそれぞれから複数の特徴点を抽出する特徴点抽出ステップと、
    前記複数のフレーム画像中における前記複数の特徴点の対応関係を追跡する特徴点追跡ステップと、
    前記対応関係が特定された複数の特徴点の実空間座標の算出を行う実空間座標算出ステップと、
    前記複数の特徴点の実空間座標を特定の位置から撮影したフレーム画像に逆投影し第1の逆投影座標および第2の逆投影座標を算出する逆投影座標算出ステップと、
    前記第1の逆投影座標および前記第2の逆投影座標に基づいて、前記特徴点追跡部が誤追跡した誤追跡点の検出を行う誤追跡点検出ステップと
    を有し、
    前記第1の逆投影座標の算出に用いた前記特定の位置は、前記複数の特徴点の実空間座標と、前記特定の位置から撮影したフレーム画像中における前記複数の特徴点の画像座標とに基づく第1の方法により算出され、
    前記第2の逆投影座標の算出に用いた前記特定の位置は、前記第1の方法と異なる方法、または前記第1の逆投影座標の算出の場合と異なる系統の条件を用いた前記第1の方法により得られたものであることを特徴とする動画処理方法。
  12. コンピュータに読み取られて実行される動画処理用のプログラムであって、
    コンピュータを
    測定対象物に対して相対的に移動する撮影部によって連続的に撮影された当該測定対象物の動画像を取得する動画像取得手段と、
    前記動画像に含まれる複数のフレーム画像のそれぞれから複数の特徴点を抽出する特徴点抽出手段と、
    前記複数のフレーム画像中における前記複数の特徴点の対応関係を追跡する特徴点追跡手段と、
    前記対応関係が特定された複数の特徴点の実空間座標の算出を行う実空間座標算出手段と、
    前記複数の特徴点の実空間座標を特定の位置から撮影したフレーム画像に逆投影し第1の逆投影座標および第2の逆投影座標を算出する逆投影座標算出手段と、
    前記第1の逆投影座標および前記第2の逆投影座標に基づいて、前記特徴点追跡部が誤追跡した誤追跡点の検出を行う誤追跡点検出手段と
    として機能させ、
    前記第1の逆投影座標の算出に用いた前記特定の位置は、前記複数の特徴点の実空間座標と、前記特定の位置から撮影したフレーム画像中における前記複数の特徴点の画像座標とに基づく第1の方法により算出され、
    前記第2の逆投影座標の算出に用いた前記特定の位置は、前記第1の方法と異なる方法、または前記第1の逆投影座標の場合と異なる系統の条件を用いた前記第1の方法により得られたものであることを特徴とする動画処理用のプログラム。
JP2012053450A 2012-03-09 2012-03-09 動画処理装置、動画処理方法および動画処理用のプログラム Active JP5832341B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012053450A JP5832341B2 (ja) 2012-03-09 2012-03-09 動画処理装置、動画処理方法および動画処理用のプログラム
US13/791,144 US9171225B2 (en) 2012-03-09 2013-03-08 Device, method, and recording medium for detecting and removing mistracked points in visual odometry systems

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012053450A JP5832341B2 (ja) 2012-03-09 2012-03-09 動画処理装置、動画処理方法および動画処理用のプログラム

Publications (2)

Publication Number Publication Date
JP2013186816A JP2013186816A (ja) 2013-09-19
JP5832341B2 true JP5832341B2 (ja) 2015-12-16

Family

ID=49114180

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012053450A Active JP5832341B2 (ja) 2012-03-09 2012-03-09 動画処理装置、動画処理方法および動画処理用のプログラム

Country Status (2)

Country Link
US (1) US9171225B2 (ja)
JP (1) JP5832341B2 (ja)

Families Citing this family (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102077498B1 (ko) * 2013-05-13 2020-02-17 한국전자통신연구원 상호 기하 관계가 고정된 카메라 군의 이동 경로 추출 장치 및 방법
DE102013012930A1 (de) * 2013-08-02 2015-02-05 Connaught Electronics Ltd. Verfahren zum Bestimmen eines aktuellen Abstands und/oder einer aktuellen Geschwindigkeit eines Zielobjekts anhand eines Referenzpunkts in einem Kamerabild, Kamerasystem und Kraftfahrzeug
CN104657940B (zh) * 2013-11-22 2019-03-15 中兴通讯股份有限公司 畸变图像校正复原与分析报警的方法和装置
US10576907B2 (en) * 2014-05-13 2020-03-03 Gse Technologies, Llc Remote scanning and detection apparatus and method
US11959749B2 (en) * 2014-06-20 2024-04-16 Profound Positioning Inc. Mobile mapping system
JP6369898B2 (ja) * 2014-08-07 2018-08-08 日産自動車株式会社 自己位置算出装置及び自己位置算出方法
JP6442193B2 (ja) 2014-08-26 2018-12-19 株式会社トプコン 点群位置データ処理装置、点群位置データ処理システム、点群位置データ処理方法およびプログラム
JP2016057108A (ja) 2014-09-08 2016-04-21 株式会社トプコン 演算装置、演算システム、演算方法およびプログラム
JP6460700B2 (ja) 2014-09-26 2019-01-30 株式会社トプコン トンネルの内壁の欠陥の有無の診断を行う方法およびトンネルの内壁の欠陥の有無の診断を行うプログラム
US9569693B2 (en) * 2014-12-31 2017-02-14 Here Global B.V. Method and apparatus for object identification and location correlation based on received images
JP6510247B2 (ja) 2015-01-27 2019-05-08 株式会社トプコン 測量データ処理装置、測量データ処理方法およびプログラム
WO2016207934A1 (ja) * 2015-06-22 2016-12-29 株式会社日立製作所 特徴点選出装置、移動状態計測装置、移動状態計測システム、作業機械、車両
JP6484512B2 (ja) 2015-06-26 2019-03-13 株式会社トプコン レーザスキャナ制御装置、レーザスキャナ制御方法およびレーザスキャナ制御用プログラム
JP6499047B2 (ja) * 2015-09-17 2019-04-10 株式会社東芝 計測装置、方法及びプログラム
US9648303B1 (en) * 2015-12-15 2017-05-09 Disney Enterprises, Inc. Systems and methods for facilitating three-dimensional reconstruction of scenes from videos
JP6541590B2 (ja) 2016-02-03 2019-07-10 クラリオン株式会社 カメラキャリブレーション装置
JP2018032253A (ja) * 2016-08-25 2018-03-01 クラリオン株式会社 キャリブレーション装置、キャリブレーション方法、キャリブレーションプログラム
KR102479253B1 (ko) * 2016-11-10 2022-12-19 현대자동차주식회사 차량용 카메라 영상 기반 공차 보정 방법
US11231711B2 (en) 2017-01-22 2022-01-25 Sichuan Golden Ridge Intelligence Science & Technology Co., Ltd. Systems and methods for surrounding information acquisition and feedback for intelligent wheelchairs
JP6910820B2 (ja) 2017-03-02 2021-07-28 株式会社トプコン 点群データ処理装置、点群データ処理方法、点群データ処理用プログラム
JP6854164B2 (ja) * 2017-03-22 2021-04-07 株式会社トプコン 測量データ処理装置、測量データ処理方法、測量データ処理システムおよび測量データ処理用プログラム
JP6854195B2 (ja) 2017-06-09 2021-04-07 株式会社トプコン 画像処理装置、画像処理方法および画像処理用プログラム
WO2018229550A1 (en) * 2017-06-16 2018-12-20 Nauto Global Limited System and method for adverse vehicle event determination
US10740612B2 (en) * 2017-07-20 2020-08-11 International Business Machines Corporation Location determination
JP7011908B2 (ja) * 2017-08-29 2022-01-27 株式会社トプコン 光学情報処理装置、光学情報処理方法および光学情報処理用プログラム
JP7037302B2 (ja) 2017-09-06 2022-03-16 株式会社トプコン 測量データ処理装置、測量データ処理方法および測量データ処理用プログラム
CN109559330B (zh) * 2017-09-25 2021-09-10 北京金山云网络技术有限公司 运动目标的视觉跟踪方法、装置、电子设备及存储介质
JP6918672B2 (ja) 2017-10-11 2021-08-11 株式会社日立システムズ 劣化診断システム
CN107742305A (zh) * 2017-10-17 2018-02-27 张家港全智电子科技有限公司 一种基于时空约束的轨迹提取方法
JP2019100995A (ja) 2017-12-08 2019-06-24 株式会社トプコン 測量画像表示制御装置、測量画像表示制御方法および測量画像表示制御用プログラム
JP7043283B2 (ja) 2018-02-14 2022-03-29 株式会社トプコン 無人航空機の設置台、測量方法、測量装置、測量システムおよびプログラム
KR101991094B1 (ko) * 2018-04-23 2019-06-19 주식회사 울프슨랩 거리 측정 방법, 거리 측정 장치, 컴퓨터 프로그램 및 기록매체
JP7163085B2 (ja) 2018-07-06 2022-10-31 株式会社トプコン 測量方法、測量装置およびプログラム
US10877155B2 (en) 2018-09-25 2020-12-29 Topcon Corporation Survey data processing device, survey data processing method, and survey data processing program
TWI728469B (zh) * 2018-09-27 2021-05-21 台灣塔奇恩科技股份有限公司 移動載具之教導路徑模組
JP7303658B2 (ja) 2019-04-24 2023-07-05 株式会社トプコン 赤外線写真画像の処理方法、赤外線写真画像の処理装置、および赤外線写真画像の処理用プログラム
JP7242431B2 (ja) 2019-05-31 2023-03-20 公益財団法人かずさDna研究所 三次元計測装置、三次元計測方法および三次元計測用プログラム
WO2021008712A1 (en) * 2019-07-18 2021-01-21 Toyota Motor Europe Method for calculating information relative to a relative speed between an object and a camera
JP7300930B2 (ja) 2019-08-26 2023-06-30 株式会社トプコン 測量データ処理装置、測量データ処理方法および測量データ処理用プログラム
CN110766717B (zh) * 2019-09-02 2022-06-24 广东天波信息技术股份有限公司 一种基于图像识别的跟随服务方法及装置
JP7313998B2 (ja) 2019-09-18 2023-07-25 株式会社トプコン 測量データ処理装置、測量データ処理方法および測量データ処理用プログラム
EP3933690A1 (en) * 2020-06-30 2022-01-05 Sick IVP AB Generation of a second object model based on a first object model for use in object matching
JP2022023592A (ja) 2020-07-27 2022-02-08 株式会社トプコン 測量システム、測量方法および測量用プログラム
CN112037261A (zh) * 2020-09-03 2020-12-04 北京华捷艾米科技有限公司 一种图像动态特征去除方法及装置
CN114627153A (zh) * 2022-02-21 2022-06-14 湖北科峰智能传动股份有限公司 一种自动剥虾机的龙虾定位坐标补偿方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4767578B2 (ja) 2005-02-14 2011-09-07 株式会社岩根研究所 高精度cv演算装置と、この高精度cv演算装置を備えたcv方式三次元地図生成装置及びcv方式航法装置
JP4966542B2 (ja) 2005-12-22 2012-07-04 株式会社トプコン 位置データ補間方法及び位置測定装置
JP4874693B2 (ja) * 2006-04-06 2012-02-15 株式会社トプコン 画像処理装置及びその処理方法
JP5027746B2 (ja) 2008-07-01 2012-09-19 株式会社トプコン 位置測定方法、位置測定装置、およびプログラム
EP2309225A4 (en) 2008-07-01 2014-10-15 Topcon Corp POSITION MEASUREMENT METHOD, POSITION MEASUREMENT DEVICE AND PROGRAM
US8700324B2 (en) * 2010-08-25 2014-04-15 Caterpillar Inc. Machine navigation system having integrity checking
US8761439B1 (en) * 2011-08-24 2014-06-24 Sri International Method and apparatus for generating three-dimensional pose using monocular visual sensor and inertial measurement unit

Also Published As

Publication number Publication date
JP2013186816A (ja) 2013-09-19
US9171225B2 (en) 2015-10-27
US20130236107A1 (en) 2013-09-12

Similar Documents

Publication Publication Date Title
JP5832341B2 (ja) 動画処理装置、動画処理方法および動画処理用のプログラム
CN109993113B (zh) 一种基于rgb-d和imu信息融合的位姿估计方法
CN108171733B (zh) 使两个或更多个三维3d点云配准的方法
JP5992184B2 (ja) 画像データ処理装置、画像データ処理方法および画像データ処理用のプログラム
JP4889351B2 (ja) 画像処理装置及びその処理方法
US11830216B2 (en) Information processing apparatus, information processing method, and storage medium
JP5027747B2 (ja) 位置測定方法、位置測定装置、およびプログラム
JP5362189B2 (ja) 画像処理装置及びその処理方法
CN112219087A (zh) 位姿预测方法、地图构建方法、可移动平台及存储介质
JP5618569B2 (ja) 位置姿勢推定装置及びその方法
US9998660B2 (en) Method of panoramic 3D mosaicing of a scene
CN112785702A (zh) 一种基于2d激光雷达和双目相机紧耦合的slam方法
JP5027746B2 (ja) 位置測定方法、位置測定装置、およびプログラム
US8059887B2 (en) System and method for providing mobile range sensing
WO2010001940A1 (ja) 位置測定方法、位置測定装置、およびプログラム
US20100045701A1 (en) Automatic mapping of augmented reality fiducials
US20060227211A1 (en) Method and apparatus for measuring position and orientation
JP2012118666A (ja) 三次元地図自動生成装置
US20130094706A1 (en) Information processing apparatus and processing method thereof
EP3155369B1 (en) System and method for measuring a displacement of a mobile platform
JP6061770B2 (ja) カメラ姿勢推定装置及びそのプログラム
JP6860620B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP6922348B2 (ja) 情報処理装置、方法、及びプログラム
CN115371673A (zh) 一种未知环境中基于Bundle Adjustment的双目相机目标定位方法
JP3842988B2 (ja) 両眼立体視によって物体の3次元情報を計測する画像処理装置およびその方法又は計測のプログラムを記録した記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150107

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150930

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151006

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151027

R150 Certificate of patent or registration of utility model

Ref document number: 5832341

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250