JP2009237848A - 情報処理装置、および画像処理方法、並びにコンピュータ・プログラム - Google Patents

情報処理装置、および画像処理方法、並びにコンピュータ・プログラム Download PDF

Info

Publication number
JP2009237848A
JP2009237848A JP2008082451A JP2008082451A JP2009237848A JP 2009237848 A JP2009237848 A JP 2009237848A JP 2008082451 A JP2008082451 A JP 2008082451A JP 2008082451 A JP2008082451 A JP 2008082451A JP 2009237848 A JP2009237848 A JP 2009237848A
Authority
JP
Japan
Prior art keywords
image
evaluation value
feature point
dimensional data
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008082451A
Other languages
English (en)
Other versions
JP5012615B2 (ja
Inventor
Kenichiro Oi
堅一郎 多井
Lei Zhang
雷 張
Takayuki Ashigahara
隆之 芦ヶ原
Steven Goodman
ステフェン グットマン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2008082451A priority Critical patent/JP5012615B2/ja
Publication of JP2009237848A publication Critical patent/JP2009237848A/ja
Application granted granted Critical
Publication of JP5012615B2 publication Critical patent/JP5012615B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

【課題】3次元データの生成に最適な画像の評価および選択を行い、精度の高い3次元データを生成する構成を実現する。
【解決手段】入力画像から選択した選択画像が3次元データの生成に適切な画像であるか否かを判定するために、(a)前記選択画像に含まれる3次元位置の推定された特徴点数、(b)選択画像に含まれる対応特徴点の推定3次元位置と各画像フレームの特徴点位置とを結ぶ光線同士の交差角、(c)参照画像のカメラモデルフィッティング誤差、これら(a)〜(c)の少なくともいずれかを評価値として算出し、これらの評価値が規定条件を満足する場合に、選択画像が3次元データの生成に適切な画像であると判定してSFMやEKF SLAMなどの3次元データ生成処理を実行する構成としたので、精度の高い3次元データの生成を実現することが可能となる。
【選択図】図8

Description

本発明は、情報処理装置、および画像処理方法、並びにコンピュータ・プログラムに関する。さらに詳細には、カメラ撮影画像を利用した3次元マップ(3D map)生成において、最適な画像フレームの選択を行うことで精度の高い特徴点位置の算出や高精度な3次元マップ生成を可能とした情報処理装置、および画像処理方法、並びにコンピュータ・プログラムに関する。
カメラの撮影画像を解析して撮影画像に含まれるオブジェクトの3次元位置を求める処理が様々な分野で利用されている。例えばカメラを備えたロボットなどのエージェント(移動体)が、カメラの撮影画像を解析して移動環境を観測し、観測状況に応じてエージェント周囲の環境を把握しながら移動を行う処理や、撮影画像に基づいて周囲環境の地図(環境地図)を作成する環境マップ構築処理に利用される。非特許文献1には、特徴点位置の追跡を全フレームで行い、全フレームのデータが得られた後、バッチ処理により特徴点の位置とカメラ位置を算出する方法を開示している。
3次元マップ(3D map)の生成処理シーケンスの一例について図1を参照して説明する。まず、ステップS11においてカメラによって画像を撮影する。例えばカメラを保持したユーザやロボットなどが移動しながら周りの画像を連続的に撮影する。
ステップS12において取得画像の解析によって、画像に含まれる特徴点の位置情報などが含まれる疎な3次元情報を構築する。この処理においては、SLAM(simultaneous localization and mapping)やSFM(Structure from Motion)などの処理が適用される。SLAMは、カメラから入力する画像内の特徴点の位置と、カメラの位置姿勢を併せて検出する処理である。SFMは、例えば複数の異なる位置から撮影した画像を利用して画像内に含まれる特徴点(Landmark)の対応を解析する処理などである。
さらに、ステップS13では、ステップS12において求めたカメラの軌跡情報や画像内の特徴点情報などを利用して詳細な3次元情報である密な3次元情報である3次元マップを生成する。
ステップS12のSFMやSLAM処理において画像内の特徴点の解析を正確に実行することが、最終的な3次元情報の精度を高めることになる。このステップS12では、画像フレームに含まれる特徴点情報とカメラ軌跡情報を取得する処理が行われる。この詳細処理例を図2に示す。
まず、ステップS21においてカメラから複数の撮影画像を入力し、フレーム間の一致する特徴点を利用して、カメラの位置を算出するフレームマッチング処理を行う。入力画像は、例えば移動するカメラが撮影した動画像の複数の画像フレーム、すなわち異なる位置から撮影した複数の画像であり、同一のオブジェクトが複数フレームに撮影されている。ステップS21では、複数の画像フレームから対応する特徴点を検出し、これらの情報を利用してカメラの位置を計算する。
ステップS22では、フレームスティッチ処理(Frame Stitch)を実行する。この処理は、ステップS21で検出した情報を利用して各画像の特徴点(Landmark)の3次元位置を推定して、複数の画像データ内の複数の特徴点位置に基づいて画像フレームを接合して各特徴点の3次元位置を反映したデータを生成する処理である。
ステップS23では、バンドル調整処理(Bundle Adjustment)を実行する。このバンドル調整処理は、異なる位置から撮影した複数の画像に含まれる対応する特徴点の3次元位置を1つの位置に収束させる処理である。各撮影画像のカメラ位置情報と、各カメラ位置において撮影された画像に含まれる対応する特徴点の情報を利用して、特徴点の最も確からしい3次元位置を算出する処理である。この処理のためには、基本的には、2つ以上の異なる位置から撮影した画像フレームが必要となる。
例えば、図3に示すように、3つの異なる位置からの撮影画像11〜13を利用し、その撮影画像中から検出した特徴点21〜23を利用して、特徴点の3次元位置を求める。複数の画像に含まれる特徴点中、対応する特徴点の位置は図3に示す特徴点21のように、各画像の撮影ポイントから特徴点21を結ぶ線(Bundle)が1つの特徴点21位置において交わるはずである。
しかし、カメラの位置や特徴点の画像内の位置情報などは必ずしも正確に算出されず様々な要因による誤差が含まれる。従って、このような誤差を取り除く必要がある。具体的には1つの対応する特徴点の3次元位置とカメラ位置とを結ぶ線が、その1つの特徴点において交わるように補正する。すなわち算出済みのカメラ位置や特徴点位置を修正する処理が必要となる。この処理がバンドル調整処理(Bundle Adjustment)として実行され、この調整処理によって修正された特徴点位置情報やカメラ位置情報を利用してより精度の高い3次元情報を生成することが可能となる。
このような処理において、正確な3次元情報を生成するためには、
複数の撮影画像から十分な数の対応特徴点を取得すること、
撮影方向の異なる複数の画像に対応特徴点が含まれていること、
対応特徴点の情報から誤差の少ない正確な特徴点位置情報が算出できること、
など、解析対象とする画像フレームの選択が重要な要素となる。3次元画像解析の専門家であれば、このような条件を満足する画像を直感的に判断して適切な画像を選択することができるが、通常のユーザは、自分の撮影した多数の画像フレームから適切な画像を選択することは難しい。
"Shape and motion from image streams under orthography: a factorization method",C.Tomasi and T.Kanade,International Journal of Computer Vision, Volume 9, Number 2, pp.137−154,(1992).
本発明は、例えば上述のような問題点に鑑みてなされたものであり、例えばビデオカメラで撮影された動画像を構成する多数の画像フレームから3次元情報を生成するために適切な画像フレームを予め設定したアルゴリズムに従って選択し、選択した画像を利用して特徴点位置の算出など処理を行うことで精度の高い3次元情報の生成を行う情報処理装置、および画像処理方法、並びにコンピュータ・プログラムを提供することを目的とする。
また、本発明は、正確な3次元情報の生成を実現するための画像選択に適用可能な画像の評価処理を行う情報処理装置、および画像処理方法、並びにコンピュータ・プログラムを提供することを目的とする。
本発明の第1の側面は、
画像に含まれる画素の3次元位置を算出する情報処理装置であり、
入力画像から複数画像を選択画像として選択する画像選択部と、
前記選択画像が3次元データの生成に適切な画像であるか否かを判定するための評価値を算出する評価値算出部と、
前記評価値算出部の算出した評価値に基づいて、前記選択画像が3次元データの生成に適切な画像であるか否かを判定する評価値判定部を有し、
前記評価値算出部は、
(a1)前記選択画像に含まれる3次元位置の推定された特徴点数
(b1)前記選択画像に含まれる対応特徴点の推定3次元位置と各画像フレームの特徴点位置とを結ぶ光線同士の交差角、
(c1)参照画像のカメラモデルフィッティング誤差
上記(a1)〜(c1)の少なくともいずれかを評価値として算出し、
前記評価値判定部は、
上記(a1)〜(c1)の少なくともいずれかの値を予め設定した閾値と比較して、前記選択画像が3次元データの生成に適切な画像であるか否かを判定する構成であり、
(a2)前記選択画像に含まれる3次元位置の推定された特徴点数が規定閾値(Tha)以上であること、
(b2)前記選択画像に含まれる対応特徴点の推定3次元位置と各画像フレームの特徴点位置とを結ぶ光線同士の交差角が規定閾値(Thb)以上であること、
(c2)参照画像のカメラモデルフィッティング誤差が規定閾値(Thc)以下であること、
上記(a2)〜(c2)の少なくともいずれかの条件を満足する場合に、前記選択画像が3次元データの生成に適切な画像であると判定することを特徴とする情報処理装置にある。
さらに、本発明の情報処理装置の一実施態様において、前記評価値算出部は、前記(a1)〜(c1)のすべてを評価値として算出し、前記評価値判定部は、前記(a2)〜(c2)のすべての条件を満足する場合に、前記選択画像が3次元データの生成に適切な画像であると判定することを特徴とする。
さらに、本発明の情報処理装置の一実施態様において、前記評価値算出部は、前記評価値中、光線同士の交差角については、複数の対応特徴点および画像フレームを適用して算出した複数の交差角の中央値を算出する構成であり、前記評価値判定部は、前記中央値が規定閾値(Thb)以上であることを満足する場合に、前記選択画像が3次元データの生成に適切な画像であると判定することを特徴とする。
さらに、本発明の情報処理装置の一実施態様において、前記情報処理装置は、前記選択画像の解析により、画像に含まれる特徴点の3次元位置およびカメラの位置姿勢情報を含む環境認識結果を生成する環境認識部を有し、前記評価値算出部は、前記環境認識結果に含まれる情報を適用して前記評価値を算出することを特徴とする。
さらに、本発明の情報処理装置の一実施態様において、前記情報処理装置は、前記環境認識結果を検証するための参照画像を選択する参照画像選択部を有し、前記参照画像選択部は、参照画像候補と、前記選択画像に共通に含まれる対応特徴点の1画像座標系内での距離が規定閾値以上であるとの条件を満足する画像を参照画像として選択する構成であり、前記評価値算出部は、前記参照画像選択部において選択された参照画像を適用して前記評価値を算出することを特徴とする。
さらに、本発明の情報処理装置の一実施態様において、前記情報処理装置は、前記選択画像の解析により、画像に含まれる特徴点軌跡を求める特徴点追跡部を有し、前記評価値算出部は、前記特徴点軌跡を適用して前記評価値を算出することを特徴とする。
さらに、本発明の情報処理装置の一実施態様において、前記入力画像選択部は、選択フレーム間隔に対応する変数[T]と、最初の選択フレームに対応する変数[F]を設定および更新して、異なる画像の選択処理を行う構成であり、前記評価値判定部において、前記選択画像が3次元データの生成に適切な画像でないと判定された場合に、前記変数[T]または[F]の少なくともいずれかの変数の更新を実行して新たな画像選択を実行することを特徴とする。
さらに、本発明の情報処理装置の一実施態様において、前記入力画像選択部は、前記評価値判定部における選択画像の評価態様に応じて、予め規定した変数更新アルゴリズムに従って、前記変数[T]または[F]の少なくともいずれかの変数の更新を実行して新たな画像選択を実行することを特徴とする。
さらに、本発明の情報処理装置の一実施態様において、前記情報処理装置は、さらに、前記評価値判定部が3次元データの生成に適切な画像であると判定した選択画像を適用したSFM(Structure from Motion)処理と、該SFM処理による生成情報を初期情報として利用した拡張カルマンフィルタ(EKF)を適用した処理により3次元データ生成を実行する構成を有することを特徴とする。
さらに、本発明の第2の側面は、
情報処理装置において、画像に含まれる画素の3次元位置を算出するために適用する画像の選択処理を実行する画像処理方法であり、
画像選択部が、入力画像から複数画像を選択画像として選択する画像選択ステップと、
評価値算出部が、前記選択画像が3次元データの生成に適切な画像であるか否かを判定するための評価値を算出する評価値算出ステップと、
評価値判定部が、前記評価値算出ステップにおいて算出した評価値に基づいて、前記選択画像が3次元データの生成に適切な画像であるか否かを判定する評価値判定ステップを有し、
前記評価値算出ステップは、
(a1)前記選択画像に含まれる3次元位置の推定された特徴点数
(b1)前記選択画像に含まれる対応特徴点の推定3次元位置と各画像フレームの特徴点位置とを結ぶ光線同士の交差角、
(c1)参照画像のカメラモデルフィッティング誤差
上記(a1)〜(c1)の少なくともいずれかを評価値として算出するステップであり、
前記評価値判定ステップは、
上記(a1)〜(c1)の少なくともいずれかの値を予め設定した閾値と比較して、前記選択画像が3次元データの生成に適切な画像であるか否かを判定するステップであり、
(a2)前記選択画像に含まれる3次元位置の推定された特徴点数が規定閾値(Tha)以上であること、
(b2)前記選択画像に含まれる対応特徴点の推定3次元位置と各画像フレームの特徴点位置とを結ぶ光線同士の交差角が規定閾値(Thb)以上であること、
(c2)参照画像のカメラモデルフィッティング誤差が規定閾値(Thc)以下であること、
上記(a2)〜(c2)の少なくともいずれかの条件を満足する場合に、前記選択画像が3次元データの生成に適切な画像であると判定するステップであることを特徴とする画像処理方法にある。
さらに、本発明の画像処理方法の一実施態様において、前記評価値算出ステップは、前記(a1)〜(c1)のすべてを評価値として算出するステップであり、前記評価値判定ステップは、前記(a2)〜(c2)のすべての条件を満足する場合に、前記選択画像が3次元データの生成に適切な画像であると判定するステップであることを特徴とする。
さらに、本発明の画像処理方法の一実施態様において、前記評価値算出ステップは、前記評価値中、光線同士の交差角については、複数の対応特徴点および画像フレームを適用して算出した複数の交差角の中央値を算出するステップであり、前記評価値判定ステップは、前記中央値が規定閾値(Thb)以上であることを満足する場合に、前記選択画像が3次元データの生成に適切な画像であると判定するステップであることを特徴とする。
さらに、本発明の画像処理方法の一実施態様において、前記画像処理方法は、さらに、環境認識部が、前記選択画像の解析により、画像に含まれる特徴点の3次元位置およびカメラの位置姿勢情報を含む環境認識結果を生成する環境認識ステップを有し、前記評価値算出ステップは、前記環境認識結果に含まれる情報を適用して前記評価値を算出するステップであることを特徴とする。
さらに、本発明の画像処理方法の一実施態様において、前記画像処理方法は、さらに、参照画像選択部が、前記環境認識結果を検証するための参照画像を選択する参照画像選択ステップを有し、前記参照画像選択ステップは、参照画像候補と、前記選択画像に共通に含まれる対応特徴点の1画像座標系内での距離が規定閾値以上であるとの条件を満足する画像を参照画像として選択するステップであり、前記評価値算出ステップは、前記参照画像選択ステップにおいて選択された参照画像を適用して前記評価値を算出するステップであることを特徴とする。
さらに、本発明の画像処理方法の一実施態様において、前記画像処理方法は、さらに、特徴点追跡部が、前記選択画像の解析により、画像に含まれる特徴点軌跡を求める特徴点追跡ステップを有し、前記評価値算出ステップは、前記特徴点軌跡を適用して前記評価値を算出するステップであることを特徴とする。
さらに、本発明の画像処理方法の一実施態様において、前記入力画像選択ステップは、選択フレーム間隔に対応する変数[T]と、最初の選択フレームに対応する変数[F]を設定および更新して、異なる画像の選択処理を行うステップであり、前記評価値判定ステップにおいて、前記選択画像が3次元データの生成に適切な画像でないと判定された場合に、前記変数[T]または[F]の少なくともいずれかの変数の更新を実行して新たな画像選択を実行するステップであることを特徴とする。
さらに、本発明の画像処理方法の一実施態様において、前記入力画像選択ステップは、前記評価値判定ステップにおける選択画像の評価態様に応じて、予め規定した変数更新アルゴリズムに従って、前記変数[T]または[F]の少なくともいずれかの変数の更新を実行して新たな画像選択を実行するステップであることを特徴とする。
さらに、本発明の画像処理方法の一実施態様において、前記画像処理方法は、さらに、3次元データ生成部が、前記評価値判定ステップにおいて3次元データの生成に適切な画像であると判定した選択画像を適用したSFM(Structure from Motion)処理と、該SFM処理による生成情報を初期情報として利用した拡張カルマンフィルタ(EKF)を適用した処理により3次元データ生成を実行するステップを有することを特徴とする。
さらに、本発明の第3の側面は、
情報処理装置において、画像に含まれる画素の3次元位置を算出するために適用する画像の選択処理を実行させるコンピュータ・プログラムであり、
画像選択部に、入力画像から複数画像を選択画像として選択させる画像選択ステップと、
評価値算出部に、前記選択画像が3次元データの生成に適切な画像であるか否かを判定するための評価値を算出させる評価値算出ステップと、
評価値判定部に、前記評価値算出ステップにおいて算出した評価値に基づいて、前記選択画像が3次元データの生成に適切な画像であるか否かを判定させる評価値判定ステップを有し、
前記評価値算出ステップは、
(a1)前記選択画像に含まれる3次元位置の推定された特徴点数
(b1)前記選択画像に含まれる対応特徴点の推定3次元位置と各画像フレームの特徴点位置とを結ぶ光線同士の交差角、
(c1)参照画像のカメラモデルフィッティング誤差
上記(a1)〜(c1)の少なくともいずれかを評価値として算出させるステップであり、
前記評価値判定ステップは、
上記(a1)〜(c1)の少なくともいずれかの値を予め設定した閾値と比較して、前記選択画像が3次元データの生成に適切な画像であるか否かを判定するステップであり、
(a2)前記選択画像に含まれる3次元位置の推定された特徴点数が規定閾値(Tha)以上であること、
(b2)前記選択画像に含まれる対応特徴点の推定3次元位置と各画像フレームの特徴点位置とを結ぶ光線同士の交差角が規定閾値(Thb)以上であること、
(c2)参照画像のカメラモデルフィッティング誤差が規定閾値(Thc)以下であること、
上記(a2)〜(c2)の少なくともいずれかの条件を満足する場合に、前記選択画像が3次元データの生成に適切な画像であると判定させるステップであることを特徴とするコンピュータ・プログラムにある。
なお、本発明のコンピュータ・プログラムは、例えば、様々なプログラム・コードを実行可能な汎用コンピュータ・システムに対して、コンピュータ可読な形式で提供する記憶媒体、通信媒体によって提供可能なコンピュータ・プログラムである。このようなプログラムをコンピュータ可読な形式で提供することにより、コンピュータ・システム上でプログラムに応じた処理が実現される。
本発明のさらに他の目的、特徴や利点は、後述する本発明の実施例や添付する図面に基づくより詳細な説明によって明らかになるであろう。なお、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
本発明の一実施例の構成によれば、入力画像から選択した選択画像が3次元データの生成に適切な画像であるか否かを判定するために、(a)前記選択画像に含まれる3次元位置の推定された特徴点数、(b)選択画像に含まれる対応特徴点の推定3次元位置と各画像フレームの特徴点位置とを結ぶ光線同士の交差角、(c)参照画像のカメラモデルフィッティング誤差、これら(a)〜(c)の少なくともいずれかを評価値として算出し、これらの評価値が規定条件を満足する場合に、選択画像が3次元データの生成に適切な画像であると判定してSFMやEKF SLAMなどの3次元データ生成処理を実行する構成としたので、精度の高い3次元データの生成を実現することが可能となる。
以下、図面を参照しながら本発明の実施形態に係る情報処理装置、および画像処理方法、並びにコンピュータ・プログラムの詳細について説明する。
本発明の概要について、図4を参照して説明する。本発明の情報処理装置120は、例えば移動するユーザ101の保持するカメラ102の撮影画像、例えば動画像を構成する画像を入力し、その入力画像の解析を実行して撮影画像に含まれる様々なオブジェクトからなる3次元画像情報103を生成する。
情報処理装置120は、先に図1を参照して説明した処理と同様、取得画像の解析によって、画像に含まれる特徴点の位置情報などが含まれる疎な3次元マップ131を、SLAM(simultaneous localization and mapping)やSFM(Structure from Motion)などの処理を適用して生成し、さらに、カメラの軌跡情報や画像内の特徴点情報などを利用して詳細な3次元情報である密な3次元マップ132を生成する。
先に説明したように、SLAMは、カメラから入力する画像内の特徴点の位置と、カメラの位置姿勢を併せて検出する処理である。SFMは、例えば複数の異なる位置から撮影した画像を利用して画像内に含まれる特徴点(Landmark)の対応を解析する処理などである。
疎な3次元マップ131は特徴点の3次元位置情報を持つ。この情報の生成処理シーケンスの従来例については、図2のフローチャートを参照して説明したが、本発明の情報処理装置120においては、図2に示すフローと異なった処理により特徴点の3次元位置の取得を行う。
本発明の一実施例の特徴点の3次元位置およびカメラの位置姿勢情報の取得シーケンスについて、図5に示すフローチャートを参照して説明する。
特徴点の3次元位置情報およびカメラの位置姿勢情報の取得処理は、以下の処理シーケンスで実行する。
ステップS101:初期情報取得処理(SFM)
ステップS102:拡張カルマンフィルタを適用したカメラ位置姿勢及び特徴点3次元位置情報取得処理(EKF SLAM)
ステップS103:バンドル調整処理(Bundle Adjustment)
本発明の一実施例の特徴点の3次元位置情報およびカメラの位置姿勢情報の取得処理の基本的流れは、このように、
「初期情報取得処理(SFM)」
→「拡張カルマンフィルタを適用したカメラ位置姿勢及び特徴点3次元位置情報取得処理(EKF SLAM)」
→「バンドル調整処理(Bundle Adjustment)」
このような処理シーケンスである。
ステップS101の初期情報取得処理(SFM)は、例えば複数の異なる位置から撮影した画像を利用して画像内に含まれる特徴点(Landmark)の対応を解析するSFM(Structure from Motion)処理によって行われるが、この処理は、例えばカメラから入力する最初の数フレームの入力画像のみを適用して実行する。この処理によって得られた情報をステップS102において実行する拡張カルマンフィルタを適用したカメラ位置姿勢及び特徴点3次元位置情報取得処理(EKF SLAM)のイニシャライズ情報として利用する。
EKF SLAMに適用するイニシャライズ情報が得られた後は、その後の入力画像に対しては、SFMを実行することなく、EKF SLAMを実行して、特徴点位置情報と各画像を撮影したカメラの位置姿勢情報を取得する。
具体的な処理例について図6を参照して説明する。図6(a)に示すカメラによって取得される画像フレームに含まれる被写体の特徴点の位置情報とカメラの軌跡を求めるとする。なお、図6(a)には、カメラによって取得される画像フレームを一定間隔で示している。
本発明の情報処理装置は、特徴点の3次元位置情報の解析対象とする画像フレームのすべてではなく、最初の数フレーム(図6に示すフレームT1までの入力フレーム)から後述する画像選択処理アルゴリズムによって選択した画像フレームを、図5に示すステップS101の初期情報取得処理(SFM)の処理対象フレームとする。この複数の選択画像フレームを対象とした初期情報取得処理(SFM)によって、3次元マップとカメラフレームの軌跡情報が、次のステップS102において実行する「EKF SLAM」の初期化情報(Initialize Data)として利用される。
フレームT1までの複数の先行する選択画像フレームによって得られた3次元マップとカメラフレームの軌跡情報が初期情報となり、この初期情報を用いて「EKF SLAM」の初期化を行い、「EKF SLAM」の処理を行う。すなわち、先行画像フレームから取得した特徴点位置情報を初期画像フレームに対する状態情報として設定し、後続画像フレームに対する拡張カルマンフィルタ(EKF)を適用した処理により、後続フレーム中の特徴点の3次元位置情報を取得する。
ステップS101の初期情報取得処理(SFM)は、前述したように複数の異なる位置から撮影した画像を利用して画像内に含まれる特徴点(Landmark)の対応を解析するSFM(Structure from Motion)処理によって行われ、この処理結果が、ステップS102において実行する「EKF SLAM」の初期化情報(Initialize Data)として利用されることになる。従って、SFM処理の精度が、最終的に生成する3次元データの精度に大きく影響することになる。
SFMにおいては、例えば、
複数の撮影画像から十分な数の対応特徴点を取得すること、
撮影方向の異なる複数の画像に対応特徴点が含まれていること、
対応特徴点の情報から誤差の少ない正確な特徴点位置情報が算出できること、
など、解析対象とする画像フレームの選択が重要な要素となる。3次元画像解析の専門家であれば、このような条件を満足する画像を直感的に判断して適切な画像を選択することができるが、通常のユーザは、自分の撮影した多数の画像フレームから適切な画像を選択することは難しい。
本発明の情報処理装置では、このSFMにおける適切な画像選択を自動的に実行して、かつSFMの処理結果の評価を実行して、「EKF SLAM」の初期化情報として適切な情報を生成してEKF SLAMを実行することで精度の高い3次元データを生成することを可能としている。図7以下を参照して、この画像選択処理および評価処理の詳細について説明する。
図7は、本発明の情報処理装置の構成要素の一部、すなわち、SFMなど3次元情報の生成に適用するために最適な画像フレームの選択処理、画像選択のための画像評価処理を行う構成を示している。図7に示すように、情報処理装置は、カメラ312の撮影した映像データ313を入力する入力画像選択部301、環境認識部302、参照画像選択部304、さらに、特徴点追跡部303、評価値算出部305、評価値判定部306を有する。
なお、図7に示す処理を実行する本発明の構成においては、以下の制約がある。
・映像データ(画像フレーム)313を撮影するカメラ312はピンホールカメラモデルに近似可能
・カメラ312の内部パラメータは既知
・映像の撮影中においては、カメラ内部パラメータの変化はない
・静止環境311をカメラ312で記録した映像データ313を予め用意してある(撮影処理時にリアルタイム処理を行うのではなく、撮影済みの映像データ313に対するオフライン処理を行う)
・映像データ313のフレーム間毎の時間的間隔は同一である。
・映像データ313は時間的に連続したデータである(急に別のシーンに移ることはない)
また、本例では計算で扱うことの出来る映像フレーム数は、メモリ・計算量の制約上、N(例えばN=5、NはN>1を満たせばよい)とする。
なお、静止環境311とは、カメラの撮影する画像中に移動する物体が含まれないことを意味しているが、移動物体が含まれていてもその他の静止オブジェクトについての3次元位置の算出は可能であり、カメラ312によって撮影される対象すべてが静止していることが必須ではない。3次元位置の算出対象が静止していればよい。カメラ312は移動して映像を撮影し様々な角度からの画像を撮影する。
また、以下に説明する実施例では、カメラ撮影データを記憶部に蓄積し、記憶部に蓄積した画像を処理するオフライン処理を前提としているが、処理速度の速いプロセッサなど、所定の処理能力を備えた装置であれば、カメラ撮影に並行して画像選択および3次元データの生成を行うオンライン処理構成も可能である。
以下、図7以下を参照して、精度の高い3次元データの生成を可能とする画像選択処理の詳細について説明する。図7に示す構成によって、SFMなど3次元データの生成に適用する画像選択処理や画像評価処理が実行される。この処理シーケンスについて図8に示すフローチャートを参照して説明する。まずステップS301において、入力画像選択部301が映像データ313から入力フレームを選択する。選択する方法の一例として、本例では変数[T]と変数[F]を用いる。
変数[T]と変数[F]は、以下の変数である。
T:選択フレーム間隔に対応する変数、
F:最初の選択フレームに対応する変数、
図9に示すように、最初のフレームから数えてF番目のフレームから未来方向にTフレーム間隔でNフレームを選択して採用する。前述したように、Nは、メモリ・計算量の制約などによって決定すればよくN>1を満たせばよい。例えばN=5である。
図9に示すように、選択フレームは、[F,F+T,F+2T,F+3T,・・・,F+(N−1)×T]の各フレームである。なお、選択フレーム間隔に対応する変数[T]は初期値が1で、最初の選択フレームに対応する変数[F]は初期値が0(最初のフレームの番号、1スタートの場合は1)として設定し、その設定において画像評価を実行して、3次元データの生成に適切であるか否かを判定する評価値を算出し、評価値が規定に満たない場合は、変数を変更して、新たな画像フレームのセットを設定して、再度評価することになる。変数Tと変数Fは、ユーザが逐次、設定、更新するか、あるいは、評価結果に応じて更新態様を決定して自動更新する構成としてもよい。この処理については後段で詳細に説明する。
図8に示すフローのステップS302では、環境認識部302が、入力画像選択部301で選択した画像、すなわち、例えば図9に示すフレーム[F,F+T,F+2T,F+3T,・・・,F+(N−1)×T]の各フレームを入力して、静止環境311の構造とカメラ312の各映像フレームの位置・姿勢を計算する。環境認識部302の実行する処理は、従来から公知の処理として実行可能である。例えば、文献[1][Yi Ma,Stefano Soatto,Jana Kosecha and S.Shankar Sastry,"An Invitation to 3−D Vision",Springer(2006).]のChapter11に記載の方法を適用することができる。
ステップS302の環境認識部302の処理で生成した結果は環境認識結果314として、情報処理装置内の記憶部に一旦保持される。環境認識結果314には以下の情報が保持されている。但し、特徴量は特徴点同士の比較(トラッキング)が可能な特徴量であれば、特に指定はない。スケール・回転に頑強な特徴量表現であることが望ましい。
・Nフレーム分のカメラの位置と姿勢
・各特徴点の3次元位置
・各特徴点の特徴量(特徴点追跡に利用)
・各特徴点に対するNフレーム分の画像内位置(軌跡)
次に、ステップS303において、特徴点追跡部303による特徴点追跡処理を実行する。ステップS301において入力画像選択部301が選択した画像、すなわち、例えば図9に示すフレーム[F,F+T,F+2T,F+3T,・・・,F+(N−1)×T]の各フレームを入力して、共通する特徴点を追跡して特徴点の軌跡を求める。この処理は、環境認識結果にある対応特徴点のトラッキングを行う処理であり、公知の処理、具体的には、前述の文献[1]の11章に記載の方法を用いることが可能である。
次に、ステップS304において、参照画像選択部304は、環境認識で用いた画像とは別に、環境認識結果を検証するために利用する参照画像を選択する。参照画像は、映像データ313を構成する1つの画像フレームを選択する処理であり、選択方法としては、例えば単純に、最終的な処理フレーム[F+(N−1)×Tフレーム]の[N×T]フレーム前の画像を選択するといった処理が可能である。しかし、この方法では、カメラが長時間動いていない場合に遭遇したとき、参照画像としてふさわしくない。特徴点位置の撮影方向に変化のない画像を参照画像として選択してしまう恐れがある。
そのため、本処理例では、ステップS303の特徴点追跡部303の処理結果として得られる特徴点追跡結果を利用して、参照画像の特徴点の画像内位置が、環境認識部302で用いた特徴点軌跡に対してどの程度離れているか検証し、充分離れているフレームを、参照画像として選択する。
ステップS304において実行する参照画像選択処理の詳細シーケンスについて、図10に示すフローチャートを参照して説明する。まず、ステップS351において、処理対象とする映像フレーム313から、任意の1フレームを参照画像候補として選択する。次にステップS352において、特徴点追跡部303において、ステップS351で選択した参照画像候補としての1フレームに対し、環境認識結果にある対応特徴点のトラッキングを行う。特徴点追跡処理は前述したように公知の処理を適用する。具体的には、前述の文献[1]の11章に記載の方法を用いることが可能である。
次にステップS353において、ステップS352で追跡した特徴点位置群と、環境認識結果314において算出されている特徴点位置群との間の距離を計算する。計算式は以下に示す式(数式1)を適用する。
但し、上記式において、
distは特徴点追跡部303で追跡した特徴点位置群と環境認識部302で算出した特徴点位置群との間の距離、
iは、特徴点番号、
tは、フレーム番号、
はiに関する中央値を出力する関数、
はtに関する最小値を出力する関数、
itは、環境認識部302で用いたi番目の特徴点のフレームtでの画像内の位置、
m_refは前述のi番目の特徴点に対応する参照画像内の位置を示す。
なお、図11に1つの参照画像候補321と、入力画像選択部301が選択した画像フレーム322に対して、上記式(数式1)を適用して距離を算出した場合の処理例を示している。1つの参照画像候補321と、入力画像選択部301が選択した画像フレーム322にはそれぞれ対応特徴点331,341,342が存在し、入力画像選択部301が選択した画像フレーム322の特徴点の軌跡が図11の下段に示すように特徴点軌跡351として求められ、この軌跡情報を利用して、参照画像上の特徴点352の位置との特徴点間距離353を算出する。
次に、ステップS354において、ステップS353で上記式(数式1)を用いて算出した選択フレームの特徴点群と参照画像候補の特徴点との特徴点間距離が予め設定した規定閾値以上であり、さらに特徴点の数が予め定めた閾値以上であるか否かを判定し、閾値以上であれば、参照画像として適切であると判定して参照画像の選択処理を終了し、もし閾値以上でない場合はステップS351に戻り、他の画像を参照画像候補として選択して、ステップS352以下の処理を実行する。このようにして、図8に示すフローのステップS304において参照画像の選択処理が実行される。
次に、図8に示すフローのステップS305では、評価値算出部305が、ステップS301において選択した画像フレームの評価を行う。すなわち、選択フレームが3次元画像の生成に適当であるか否かの評価を実行する。具体的には、例えば、図5のフローに示すステップS101の処理として実行するSFM(Structure from Motion)処理に適用する画像フレームとして適切であるか、さらに、その画像フレームを用いたSFM処理結果が、図5のステップS102の処理として実行する拡張カルマンフィルタを適用したカメラ位置姿勢及び特徴点3次元位置情報取得処理(EKF SLAM)に適用する初期情報として適切であるか否かを判定するための評価値を算出する。
本例では評価値として、
(a)環境認識部302で用いた特徴点の数
(b)光線同士の交差角(図12参照)の中央値
(c)参照画像のカメラモデルフィッティング誤差
これらの3種類の値を評価値として用いる。
以下、上記の(a)〜(c)それぞれの値について説明する。
(a)環境認識部で用いた特徴点の数
環境認識部302で用いた特徴点の数は、環境認識部302において3次元位置を推定した特徴点の数である。
精度の高い3次元データを生成するためには特徴点の数は多いほど3次元データの精度を高めることが可能となる、従って、特徴点数は多いほど評価値が高くなる。
(b)光線同士の交差角の中央値
次に、光線同士の交差角の中央値について説明する。まず、「光線同士の交差角」の定義について図12を参照して説明する。図12に示すようなある2つの画像フレーム371,372のカメラ位置・姿勢と、その2つのフレーム371,372から見える1点の特徴点381があるとする。「光線同士の交差角」は、図12に示すように、2つのカメラ位置において撮影した2つの画像フレーム371,372から特徴点381を結ぶ光線が交差する角度φである。
この交差角[φ]が大きければ大きいほど、フレーム間の視差が大きくとれていることになる。特徴点の3次元位置を高精度に算出するためには、より大きな視差を持つフレームに対応する特徴点が存在することが重要な要素となる。
交差角[φ]を求める式としては、以下に示す式(数式2)を用いる。
但し、上記式において、
wは特徴点の位置、
はp番目のフレームのカメラ位置(焦点位置)、
‖ ‖はノルム、
はベクトル同士の内積、
を表し、
関数acosは逆コサイン関数である。
次に上記式(数式2)によって算出した交差角[φ]を用いて、「光線同士の交差角の中央値」を求める。まず、Nフレームから2フレームを1ペアとする組を[]組用意する。例えば、pフレームとqフレームがありそれぞれのフレームではi番目の特徴点が写っているものとする。それぞれの組に対して、i番目の特徴点の「光線同士の交差角の中央値」を求める。そして、全ての特徴点に対して以上の処理を行い、「光線同士の交差角」の中央値を「光線同士の交差角の中央値」とする。
数式として示すと、以下に示す式(数式3)によって、光線同士の交差角の中央値[angle]を算出する。
但し、上記式中、
は、もしあるフレームペアの少なくとも片方のフレームにi番目の特徴点がないとしたときは、採用しない。
前述したように、特徴点の3次元位置を高精度に算出するためには、より大きな視差を持つフレームに対応する特徴点が存在することが重要な要素となる。従って、光線同士の交差角の中央値[angle]が大きいほど、評価値が高くなる。
(c)参照画像のカメラモデルフィッティング誤差
次に、参照画像のカメラモデルフィッティング誤差について説明する。
環境認識部302による処理によって得られた特徴点の3次元位置と、参照画像から得られる画像内特徴点位置の双方(特徴点の3次元位置・参照画像での画像内特徴点位置)が正しいならば、ピンホールカメラモデルに従って、図13に示すように参照画像フレーム390を通る全ての光線(参照画像フレーム390上の特徴点位置と、特徴点391a〜fを結ぶ線)は1点で交差する。この交差点は、参照画像フレーム390の焦点392である。
ピンホールカメラモデルについて、図14、図15を参照して説明する。ピンホールカメラモデルにおいて、特徴点の画像フレーム中の位置は下式(数式4)によって計算することができる。
上記式の意味について、図14、図15を参照して説明する。上記式は、カメラの撮影画像410に含まれるオブジェクト411の点(m)のカメラ像平面の画素位置412、すなわち、カメラ座標系によって表現されている位置と、世界座標系におけるオブジェクト400の3次元位置(M)401との対応関係を示す式である。
カメラ像平面の画素位置412はカメラ座標系によって表現されている。カメラ座標系は、カメラの焦点を原点Cとして、像平面がXc,Ycの二次元平面、奥行きをZcとした座標系であり、カメラの動きによって原点Cは移動する。
一方、オブジェクト400の3次元位置(M)401は、カメラの動きによって移動しない原点Oを有するXYZ三軸からなる世界座標系によって示される。この異なる座標系でのオブジェクトの位置の対応関係を示す式が上述のピンホールカメラモデルとして定義される。
この式に含まれる値は、図15に示すように、
λ:正規化パラメータ
A:カメラ内部パラメータ、
Cw:カメラ位置、
Rw:カメラ回転行列、
を意味している。
さらに、
は、同次座標系で表現されたカメラの像平面上の位置である。
λは、正規化パラメータであり、
の第3項を満足させるための値である。
なお、カメラ内部パラメータAには、以下の値が含まれる。
f:焦点距離
θ:画像軸の直交性(理想値は90°)
ku:縦軸のスケール(3次元位置のスケールから二次元画像のスケールへの変換)
kv:横軸のスケール(3次元位置のスケールから二次元画像のスケールへの変換)
(u0,v0):画像中心位置
このように、世界座標系にある特徴点は位置[M]で表現される。また、カメラは位置[Cw]と姿勢(回転行列)Rwで表現される。カメラの焦点位置・画像中心等はカメラ内部パラメータ[A]で表現される。これらのパラメータから、「世界座標系にある特徴点」から「カメラの像平面上」に射影されるそれぞれの位置の関係式が、上述した式(数式4)によって表現することができる。
また、カメラの位置・姿勢を回転行列Rwと並進ベクトルで表現した場合は、以下に示す式(数式5)のようになる。但し、並進ベクトルとカメラ位置との関係は式(数式6)で表される。
本発明の一実施例における「参照画像のカメラモデルフィッティング誤差」の算出処理具体例について図16を参照して説明する。
「参照画像のカメラモデルフィッティング誤差」の算出処理は、以下の2つの処理によって行われる。
(処理1)ピンホールカメラモデルを元に参照画像のカメラ位置・姿勢を求める処理、
(処理2)得られたカメラ位置・姿勢を元に各特徴点を像平面に再射影し、再射影した点とトラッキング点(観測点)との誤差を計算する処理、
まず、図16(a)を参照して、
(処理1)ピンホールカメラモデルを元に参照画像のカメラ位置・姿勢を求める処理、
について説明する。図16(a)は、先に説明した図13と同様の図である。参照画像フレーム390を撮影したカメラの位置・姿勢を求める。
カメラの位置・姿勢を求める数式は、以下の式(数式7)である。
但し、
は、i番目の特徴点の3次元位置、
は、下式(数式8)によって算出される値である。ただし、mは、特徴点の参照画像における位置、行列Aは先に説明した式(数式4)に記載の内部パラメータを示す。
また、
は、3行3列の単位行列、
0は3行1列の零ベクトル、
はn行1列の零ベクトル(左辺の行列の大きさに依存)、
,r,rは、参照画像フレームの姿勢を表す下式に示される回転行列の列ベクトルR、
tは、参照画像フレームの並進ベクトルである。
なお、A,R,tは、先に図14、図15を参照して説明した「ピンホールカメラモデル」における値A,R,tに対応する値である。
上述したカメラの位置・姿勢を求める数式(数式7)は、様々な求め方がある。解法の1例として、数式(数式7)を、
上記式のような表現としたとき、
行列B・Bの最小固有値に対応する固有ベクトルがqであるという設定で解を求めることができる。
但し、r,r,rは回転行列の列ベクトルでノルムが1になるように、qの各成分のスケールを算出後補正する必要がある。以上の処理により、上記式(数式7)を適用して参照画像のカメラ位置・姿勢が求めることができる。
次に、図16(b)と図17を参照して、
(処理2)得られたカメラ位置・姿勢を元に各特徴点を像平面に再射影し、再射影した点とトラッキング点(観測点)との誤差を計算する処理、
この処理について説明する。
まず、上述の(処理1)によって、推定したカメラ位置・姿勢を元に各特徴点を像平面500に再射影する。図16(b)、図17に示すように再射影点501が設定される。さらに、特徴点追跡部303の処理によって取得される特徴点の特徴点3次元位置トラッキング点(観測点)502を像平面500に設定する。これらの2つの点の距離を再投影誤差(reprojection error)[ε]として算出する。iは特徴点の識別番号であり、各特徴点についての再投影誤差[ε]をそれぞれ算出する。
上記式(数式7)を適用して算出したカメラ位置・姿勢の誤差を測るために、再投影誤差(reprojection error)[ε]を計算する。再投影誤差[ε]は、以下に示す式(数式9)(数式10)を適用して算出する。
但し、
はトラッキングで得られた特徴点の画像内位置、
式(数式9)中の、
は、再射影点であり、上記式(数式10)を用いて求める。
なお、上記の式(数式10)は、先に図14、図15を参照して説明したピンホールカメラモデルに基づく式であり、式中のパラメータは、図14、図15を参照して説明したパラメータに相当する。
上記式(数式9)で得られる各特徴点(i=1,2,・・・)に対応する複数の再投影誤差[ε]の中央値を「参照画像のカメラモデルフィッティング誤差」とする。
参照画像のカメラモデルフィッティング誤差を[reproj_error]として、数式で表すと、以下の式(数式11)によって示される。
なお、参照画像のカメラモデルフィッティング誤差として、中央値を用いる理由は、特徴点追跡ミスなどによる遊離値、すなわちエラー測定値などを排除するためである。
上記式(数式11)によって示される「参照画像のカメラモデルフィッティング誤差」は小さい程、評価値が高くなる。
評価値算出部305は、図8に示すフローチャートのステップS305において、上述したように、
(a)環境認識部302で用いた特徴点の数
(b)光線同士の交差角(図12参照)の中央値
(c)参照画像のカメラモデルフィッティング誤差
これらの3種類の値を評価値として算出する。
すなわち、ステップS301において選択した画像フレームが3次元データの生成に適切であるか。具体的には例えば図5のステップS101の処理として実行するSFM(Structure from Motion)処理に適用する画像フレームとして適切であるか、さらに、その画像フレームを用いたSFM処理結果が、図5のステップS102の処理として実行する拡張カルマンフィルタを適用したカメラ位置姿勢及び特徴点3次元位置情報取得処理(EKF SLAM)に適用する初期情報として適切であるか否かを判定するための評価値として、上記(a)〜(c)の3種類の評価値を算出する。
なお、上記(a)〜(c)の各評価値は以下の設定となる。
(a)環境認識部302で用いた特徴点の数は大きいほど高い評価値、
(b)光線同士の交差角(図12参照)の中央値は大きいほど高い評価値、
(c)参照画像のカメラモデルフィッティング誤差は小さいほど高い評価値、
このような設定となる。
次に、図8に示すフローチャートのステップS306において、評価値判定部306が、上記の3種類の評価値に基づいて、ステップS301において選択した画像フレームが、3次元データの生成処理、例えばSFM(Structure from Motion)処理やEKF SLAM処理に適用する画像フレームとして適切であるか否かを判定する。
ステップS306の評価値判定処理は、例えば以下のように実行される。
(a)環境認識部302で用いた特徴点の数が予め設定した閾値[Tha]以上であれば適切、閾値[Tha]未満であれば不適切、
(b)光線同士の交差角(図12参照)の中央値が予め設定した閾値[Thb]以上であれば適切、閾値[Thb]未満であれば不適切、
(c)参照画像のカメラモデルフィッティング誤差が予め設定した閾値[Thc]以下であれば適切、閾値[Thc]より大きい場合は不適切、
このような判定を行う。なお、閾値はカメラの画角や環境中の特徴点の数、要求される精度などに依存するものであり、例えばユーザ設定によって適宜変更してよい。
上記(a)〜(c)のすべてが適切であれば、選択画像フレームは適正な評価値を有すると判定し、ステップS301において選択した画像フレームが3次元データの生成に適用される。具体的には、例えば図5のステップS101の処理として実行するSFM(Structure from Motion)処理やその後のEKF SLAM処理に適用する画像フレームとして適切であると判定して処理を終了する。
上記(a)〜(c)のいずれかが不適切と判定された場合は、ステップS301において選択した画像フレームが3次元データの生成、具体的には、SFM(Structure from Motion)処理やEKF SLAM処理に適用する画像フレームとして適切でないと判定して、ステップS301に戻り、さらに異なる画像フレームの選択処理を実行して、ステップS302以下の処理を実行する。
なお、上記処理例では、図8に示すフローチャートのステップS306において、上述した(a)〜(c)すべての評価値が、規定閾値に基づく判定で適切であると判定された場合にステップS306の判定をYesの判定とし、その場合にはステップS301において選択した画像フレームを3次元データの生成処理に適用する画像フレームとする設定として説明したが、例えば(a)〜(c)中の少なくとも2つまたは1つが適正であると判定された場合には、ステップS306の判定をYesの判定として、ステップS301において選択した画像フレームを3次元データの生成に適用するフレームとするといった処理構成とするという設定としてもよい。すなわち閾値や評価値に基づく判定基準は、状況に応じて変更可能な要素である。
本発明の情報処理装置は、図7の構成を有し、図8に示すフローチャートを参照して説明した処理に従って選択した画像フレームを用いて3次元データの生成を行う。
具体的には、例えば図5のフローチャートに示すステップS101のSFM(Structure from Motion)処理を実行し、その処理結果をステップS102の「EKF SLAM」の初期化情報(Initialize Data)として利用する。
図8に示すフローに従って選択された画像は、
(a)特徴点の数が予め設定した閾値[Tha]以上、
(b)光線同士の交差角(図12参照)の中央値が予め設定した閾値[Thb]以上、
(c)参照画像のカメラモデルフィッティング誤差が予め設定した閾値[Thc]以下、
このような条件を満足する画像フレームによって構成されることになり、これらの画像フレームを用いたSFM処理によって、精度の高い特徴点の3次元位置情報の取得が可能となり、その後の「EKF SLAM」においても精度の高い3次元データの生成が可能となる。
すなわち情報処理装置の3次元データ生成部が、評価値判定部において3次元データの生成に適切な画像であると判定した選択画像を適用したSFM(Structure from Motion)処理を実行し、さらにSFM処理による生成情報を初期情報として利用した拡張カルマンフィルタ(EKF)を適用した処理により3次元データ生成を実行する。
なお、図8に示すフローでは、ステップS306の判定においてNoの判定が得られた場合、ステップS301に戻り、新たな画像フレームの選択を行うことになり、この画像選択処理では、先に図9を参照して説明したように、最初のフレームから数えてF番目のフレームから未来方向にTフレーム間隔でNフレームを選択して採用する設定[F,F+T,F+2T,F+3T,・・・,F+(N−1)×T]として、
選択フレーム間隔に対応する変数[T]の初期値=1、
最初の選択フレームに対応する変数[F]の初期値=0、
この初期値を、まず選択して、満足する評価値が得られず、ステップS306に戻った場合に、変数を変更して新たな画像フレームのセットを選択する。
この場合、変数[T]を1,2,・・・と変更する処理、変数[F]を0,1,2・・・と変更する処理をそれぞれシーケンシャルに実行する設定としてもよいが、評価値の状況に応じて、最適な変数[T],[F]の変更処理を行うことが可能である。この変数変更処理シーケンスについて図18に示すフローチャートを参照して説明する。
図18に示すフローチャートは、
(1)評価値判定処理
(2)画像選択用変数設定処理
これらの2つの処理部分によって構成される。(1)評価値判定処理は、図8のフローチャート中のステップS306の評価値判定ステップについて、
(a)環境認識部302で用いた特徴点の数
(b)光線同士の交差角(図12参照)の中央値
(c)参照画像のカメラモデルフィッティング誤差
これらの各評価値各々についての判定処理を区分して記載したフローに相当する。(2)画像選択用変数設定処理は、(1)評価値判定処理の処理結果に応じて、
選択フレーム間隔に対応する変数[T]、
最初の選択フレームに対応する変数[F]、
これらの変数をどのように変更するかを決定するための処理である。なお、この図18に示す(2)画像選択用変数設定処理は、図7に示す構成の入力画像選択部301において実行する。
図18に示すフローの各ステップについて説明する。ステップS501〜S503は、それぞれ、先に説明した図8のフローチャート中のステップS306の評価値判定処理に相当し、それぞれ、
(a)特徴点の数が予め設定した閾値[Tha]以上、
(b)光線同士の交差角(図12参照)の中央値が予め設定した閾値[Thb]以上、
(c)参照画像のカメラモデルフィッティング誤差が予め設定した閾値[Thc]以下、
これらの判定を行うステップである。すべてがYesの判定が得られれば、ステップS504に進み、その時点で選択された画像フレーム、すなわち、図8に示すステップS301において選択した画像フレームのセットが、図5のフローチャートに示すステップS101のSFM(Structure from Motion)処理に適用するフレームとして選択される。
ステップS501〜S503のいずれかの判定がNoとなった場合には、図18の(2)画像選択用変数設定処理に進み、先に図9を参照して説明した変数、すなわち、
選択フレーム間隔に対応する変数[T]、
最初の選択フレームに対応する変数[F]、
これらの変数を新たに設定する処理が行われる。
ステップS501において、
特徴点の数が予め設定した閾値[Tha]以上でないと判定されると、ステップS511に進み、選択フレーム間隔に対応する変数[T]の設定値が1より大きい設定であるか否かを判定する。選択フレーム間隔[T]=1の場合は、図18に示すように(1)のルートに進み、ステップS514において、最初の選択フレームに対応する変数[F]を[F+1]とする変数更新を行う。
以下、図18に示すルート(1)〜(5)各々の変数更新処理について説明する。
ルート(1)
これは、フレーム間隔[T]が[1]と最小値であるのに、特徴点数が少ない状態である。
この状態は、
「特徴のない環境を撮影している」、
「カメラ移動が余りにも速すぎてフレーム間の重畳領域がない」、
これらの状態であることが考えられる。
この場合は、ステップS514において、最初の選択フレームに対応する変数[F]を[F+1]とする変数更新を実行して、ステップS517に進み、現在の選択フレーム[F]の次のフレーム[F+1]から、画像フレームを選択する。この場合は、フレーム間隔[T]は更新しない。
ステップS511において、選択フレーム間隔に対応する変数[T]の設定値が1より大きいと判定された場合、すなわち、選択フレーム間隔[T]>1の場合は、図18に示すようにステップS512に進み、選択フレーム間隔[T]を[T−1]として、さらに、ステップS513において、ステップS502と同様の判定処理、すなわち、(b)光線同士の交差角(図12参照)の中央値が予め設定した閾値[Thb]以上であるか否かを判定する。なお、この判定処理は、評価値判定部306において実行する。
ステップS513において、(b)光線同士の交差角(図12参照)の中央値が予め設定した閾値[Thb]以上でないと判定した場合は、図18に示すようにルート(2)に進み、ステップS514において、最初の選択フレームに対応する変数[F]を[F+1]とする変数更新を行ってステップS517に進み、更新した変数[F],[T]に従った新たな画像選択を行う。
このルート(2)の処理について説明する。
このルート(2)の場合は、特徴点数が少なく、かつ光線の交差角が小さい状態である。
この状態は、
「特徴のない環境を撮影している」
この状態であると想定される。
この場合は、フレーム間隔[T]を1つデクリメント[T−1]するとともに、現在の選択フレーム[F]の次のフレーム[F+1]から、画像フレームを選択する設定とする。
一方、ステップS513において、(b)光線同士の交差角(図12参照)の中央値が予め設定した閾値[Thb]以上であると判定した場合は、図18に示すようにルート(3)に進み、そのままステップS517に進み、更新した変数[T]に従った新たな画像選択を行う。
このルート(3)の処理について説明する。
このルート(3)の場合は、特徴点数が少なく、光線の交差角が大きい状態である。
この状態は、
「サンプリングフレーム[T]の間隔に対し、カメラ移動が速過ぎてフレーム間の重畳領域が少ない」
このような場合であることが想定される。
この場合は、フレーム間隔[T]を1つデクリメント[T−1]して画像フレームの選択を行う。最初の選択フレームに対応する変数[F]は変更しない。
図18に示すルート(4)は、ステップS501の判定がYes、ステップS502の判定がNoの場合である。この場合は、ステップS515に進み、フレーム間隔[T]を1つインクリメント[T+1]して、ステップS517に進み、新たな画像選択を行う。変数[F]は変更しない。
このルート(4)の処理について説明する。
このルート(4)の場合は、特徴点数は十分であるが光線の交差角が小さい状態である。
この状態は、
「サンプリングフレーム[T]の間隔に対し、カメラ移動が遅い」
このような場合であることが想定される。
この場合は、フレーム間隔[T]を1つインクリメント[T+1]して、変数[F]は変更せずに新たな画像フレームの選択を行う。
図18に示すルート(5)は、ステップS501の判定がYes、ステップS502の判定がYes、ステップS503の判定がNoの場合である。この場合は、ステップS516に進み、最初の選択フレームに対応する変数[F]を1つインクリメント[F+1]して、ステップS517に進み、新たな画像選択を行う。変数[T]は変更しない。
このルート(5)の処理について説明する。
このルート(5)の場合は、特徴点数は十分であり、光線の交差角も十分大きいが、ピンホールカメラ誤差が大きい状態である。
この状態は、
3次元位置推定が特異解に陥った、
トラッキング失敗
これらの可能性がある。
この場合は、フレーム間隔[T]については変更せず、現在の選択フレーム[F]の次のフレーム[F+1]から、画像フレームを選択する設定とする。
なお、図18に示すルート(6)の場合は、
(a)特徴点の数が予め設定した閾値[Tha]以上、
(b)光線同士の交差角(図12参照)の中央値が予め設定した閾値[Thb]以上、
(c)参照画像のカメラモデルフィッティング誤差が予め設定した閾値[Thc]以下、
これらのすべての条件が満足された場合であり、全ての条件を満たしているので、この時点で選択した画像フレームを処理フレームとして決定すればよい。
この図18に示すフローに従って、
選択フレーム間隔に対応する変数[T]、
最初の選択フレームに対応する変数[F]、
これらの変数を更新して、画像選択を実行することで、効率的に評価値の高い画像フレームを選択することが可能となる。
なお、先に図7を参照して説明したように、本発明に係る情報処理装置は、静止環境311をカメラ312で記録した映像データ313を予め用意し、オフライン処理として、SFMやEKF SLAMに適用する画像フレームの選択処理を実行してSFMやEKF SLAMを実行するものとして説明したが、情報処理装置の処理能力が十分に高く、処理が高速に実行できる装置であれば、オフラインではなく、撮影処理に追随して画像選択、SFM、EKF SLAMを実行するオンライン処理を行う構成としてもよい。
例えば、カメラによって撮影された画像フレーム中、最初の数フレーム分だけ映像データとして記憶部に保存して、図8に示す画像選択処理を記憶部に格納された画像データを利用して実行し、さらに評価値の高い選択画像を利用してSFMやEKF SLAMを高速(例えば1/30秒より速い速度)で実行する。このような処理構成とすれば、カメラの撮影速度に追随して処理を行うことが可能である。
以上、特定の実施例を参照しながら、本発明について詳解してきた。しかしながら、本発明の要旨を逸脱しない範囲で当業者が実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本発明の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。
また、明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させるか、あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。例えば、プログラムは記録媒体に予め記録しておくことができる。記録媒体からコンピュータにインストールする他、LAN(Local Area Network)、インターネットといったネットワークを介してプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。
なお、明細書に記載された各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。また、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
以上、説明したように、本発明の一実施例の構成によれば、入力画像から選択した選択画像が3次元データの生成に適切な画像であるか否かを判定するために、(a)前記選択画像に含まれる3次元位置の推定された特徴点数、(b)選択画像に含まれる対応特徴点の推定3次元位置と各画像フレームの特徴点位置とを結ぶ光線同士の交差角、(c)参照画像のカメラモデルフィッティング誤差、これら(a)〜(c)の少なくともいずれかを評価値として算出し、これらの評価値が規定条件を満足する場合に、選択画像が3次元データの生成に適切な画像であると判定してSFMやEKF SLAMなどの3次元データ生成処理を実行する構成としたので、精度の高い3次元データの生成を実現することが可能となる。
3次元マップ(3D map)の生成処理シーケンスの一例について説明するフローチャートを示す図である。 画像フレームに含まれる特徴点情報とカメラ軌跡情報を取得する処理シーケンスの一例について説明するフローチャートを示す図である。 バンドル調整処理(Bundle Adjustment)の一例について説明する図である。 本発明の処理の概要について説明する図である。 本発明の一実施例に従った処理のシーケンスについて説明するフローチャートを示す図である。 本発明の一実施例に従った3次元情報生成処理のシーケンスについて説明する図である。 本発明の一実施例に従った情報処理装置の画像選択を行うための構成および画像選択処理について説明する図である。 本発明の一実施例に従った画像選択処理のシーケンスについて説明するフローチャートを示す図である。 本発明の一実施例に従った画像選択処理の態様および画像選択処理に用いる変数について説明する図である。 図8に示すフロー中のステップS304において実行する参照画像選択処理の詳細シーケンスについて説明するフローチャートを示す図である。 1つの参照画像候補と、入力画像選択部が選択した画像フレームを用いた追跡特徴点位置群と、環境認識結果として算出されている特徴点位置群との間の距離について説明する図である。 光線同士の交差角について説明する図である。 参照画像フレームを通る全ての光線(参照画像フレーム上の特徴点位置と、特徴点を結ぶ線)が1点で交差することについて説明する図である。 ピンホールカメラモデル、すなわちカメラ座標系によって表現されている位置と、世界座標系におけるオブジェクトの3次元位置との対応関係を示す式の意味について説明する図である。 ピンホールカメラモデル、すなわちカメラ座標系によって表現されている位置と、世界座標系におけるオブジェクトの3次元位置との対応関係を示す式の意味について説明する図である。 本発明の一実施例における「参照画像のカメラモデルフィッティング誤差」の算出処理具体例について説明する図である。 本発明の一実施例における「参照画像のカメラモデルフィッティング誤差」の算出処理具体例について説明する図である。 本発明の一実施例に係る情報処理装置の実行する画像選択における変数更新処理シーケンスについて説明するフローチャートを示す図である。
符号の説明
11〜13 撮影画像
21〜23 特徴点
101 ユーザ
102 カメラ
103 3次元画像情報
120 情報処理装置
131 疎な3次元マップ
132 密な3次元マップ
301 入力画像選択部
302 環境認識部
303 特徴点追跡部
304 参照画像選択部
305 評価値算出部
306 評価値判定部
311 静止環境
312 カメラ
313 映像データ
314 環境認識結果
321 参照画像候補
322 画像フレーム
331,341,342 特徴点
351 特徴点軌跡
352 特徴点
353 距離
371,372 画像フレーム
381 特徴点
390 参照画像フレーム
391 特徴点
392 焦点
500 像平面
501 再射影点
502 3次元位置トラッキング点(観測点)

Claims (19)

  1. 画像に含まれる画素の3次元位置を算出する情報処理装置であり、
    入力画像から複数画像を選択画像として選択する画像選択部と、
    前記選択画像が3次元データの生成に適切な画像であるか否かを判定するための評価値を算出する評価値算出部と、
    前記評価値算出部の算出した評価値に基づいて、前記選択画像が3次元データの生成に適切な画像であるか否かを判定する評価値判定部を有し、
    前記評価値算出部は、
    (a1)前記選択画像に含まれる3次元位置の推定された特徴点数
    (b1)前記選択画像に含まれる対応特徴点の推定3次元位置と各画像フレームの特徴点位置とを結ぶ光線同士の交差角、
    (c1)参照画像のカメラモデルフィッティング誤差
    上記(a1)〜(c1)の少なくともいずれかを評価値として算出し、
    前記評価値判定部は、
    上記(a1)〜(c1)の少なくともいずれかの値を予め設定した閾値と比較して、前記選択画像が3次元データの生成に適切な画像であるか否かを判定する構成であり、
    (a2)前記選択画像に含まれる3次元位置の推定された特徴点数が規定閾値(Tha)以上であること、
    (b2)前記選択画像に含まれる対応特徴点の推定3次元位置と各画像フレームの特徴点位置とを結ぶ光線同士の交差角が規定閾値(Thb)以上であること、
    (c2)参照画像のカメラモデルフィッティング誤差が規定閾値(Thc)以下であること、
    上記(a2)〜(c2)の少なくともいずれかの条件を満足する場合に、前記選択画像が3次元データの生成に適切な画像であると判定することを特徴とする情報処理装置。
  2. 前記評価値算出部は、
    前記(a1)〜(c1)のすべてを評価値として算出し、
    前記評価値判定部は、
    前記(a2)〜(c2)のすべての条件を満足する場合に、前記選択画像が3次元データの生成に適切な画像であると判定することを特徴とする請求項1に記載の情報処理装置。
  3. 前記評価値算出部は、
    前記評価値中、光線同士の交差角については、複数の対応特徴点および画像フレームを適用して算出した複数の交差角の中央値を算出する構成であり、
    前記評価値判定部は、
    前記中央値が規定閾値(Thb)以上であることを満足する場合に、前記選択画像が3次元データの生成に適切な画像であると判定することを特徴とする請求項1または2に記載の情報処理装置。
  4. 前記情報処理装置は、
    前記選択画像の解析により、画像に含まれる特徴点の3次元位置およびカメラの位置姿勢情報を含む環境認識結果を生成する環境認識部を有し、
    前記評価値算出部は、前記環境認識結果に含まれる情報を適用して前記評価値を算出することを特徴とする請求項1または2に記載の情報処理装置。
  5. 前記情報処理装置は、
    前記環境認識結果を検証するための参照画像を選択する参照画像選択部を有し、
    前記参照画像選択部は、参照画像候補と、前記選択画像に共通に含まれる対応特徴点の1画像座標系内での距離が規定閾値以上であるとの条件を満足する画像を参照画像として選択する構成であり、
    前記評価値算出部は、前記参照画像選択部において選択された参照画像を適用して前記評価値を算出することを特徴とする請求項4に記載の情報処理装置。
  6. 前記情報処理装置は、
    前記選択画像の解析により、画像に含まれる特徴点軌跡を求める特徴点追跡部を有し、
    前記評価値算出部は、前記特徴点軌跡を適用して前記評価値を算出することを特徴とする請求項1または2に記載の情報処理装置。
  7. 前記入力画像選択部は、
    選択フレーム間隔に対応する変数[T]と、最初の選択フレームに対応する変数[F]を設定および更新して、異なる画像の選択処理を行う構成であり、
    前記評価値判定部において、前記選択画像が3次元データの生成に適切な画像でないと判定された場合に、前記変数[T]または[F]の少なくともいずれかの変数の更新を実行して新たな画像選択を実行することを特徴とする請求項1または2に記載の情報処理装置。
  8. 前記入力画像選択部は、
    前記評価値判定部における選択画像の評価態様に応じて、予め規定した変数更新アルゴリズムに従って、前記変数[T]または[F]の少なくともいずれかの変数の更新を実行して新たな画像選択を実行することを特徴とする請求項7に記載の情報処理装置。
  9. 前記情報処理装置は、さらに、
    前記評価値判定部が3次元データの生成に適切な画像であると判定した選択画像を適用したSFM(Structure from Motion)処理と、該SFM処理による生成情報を初期情報として利用した拡張カルマンフィルタ(EKF)を適用した処理により3次元データ生成を実行する構成を有することを特徴とする請求項1〜8いずれかに記載の情報処理装置。
  10. 情報処理装置において、画像に含まれる画素の3次元位置を算出するために適用する画像の選択処理を実行する画像処理方法であり、
    画像選択部が、入力画像から複数画像を選択画像として選択する画像選択ステップと、
    評価値算出部が、前記選択画像が3次元データの生成に適切な画像であるか否かを判定するための評価値を算出する評価値算出ステップと、
    評価値判定部が、前記評価値算出ステップにおいて算出した評価値に基づいて、前記選択画像が3次元データの生成に適切な画像であるか否かを判定する評価値判定ステップを有し、
    前記評価値算出ステップは、
    (a1)前記選択画像に含まれる3次元位置の推定された特徴点数
    (b1)前記選択画像に含まれる対応特徴点の推定3次元位置と各画像フレームの特徴点位置とを結ぶ光線同士の交差角、
    (c1)参照画像のカメラモデルフィッティング誤差
    上記(a1)〜(c1)の少なくともいずれかを評価値として算出するステップであり、
    前記評価値判定ステップは、
    上記(a1)〜(c1)の少なくともいずれかの値を予め設定した閾値と比較して、前記選択画像が3次元データの生成に適切な画像であるか否かを判定するステップであり、
    (a2)前記選択画像に含まれる3次元位置の推定された特徴点数が規定閾値(Tha)以上であること、
    (b2)前記選択画像に含まれる対応特徴点の推定3次元位置と各画像フレームの特徴点位置とを結ぶ光線同士の交差角が規定閾値(Thb)以上であること、
    (c2)参照画像のカメラモデルフィッティング誤差が規定閾値(Thc)以下であること、
    上記(a2)〜(c2)の少なくともいずれかの条件を満足する場合に、前記選択画像が3次元データの生成に適切な画像であると判定するステップであることを特徴とする画像処理方法。
  11. 前記評価値算出ステップは、
    前記(a1)〜(c1)のすべてを評価値として算出するステップであり、
    前記評価値判定ステップは、
    前記(a2)〜(c2)のすべての条件を満足する場合に、前記選択画像が3次元データの生成に適切な画像であると判定するステップであることを特徴とする請求項10に記載の画像処理方法。
  12. 前記評価値算出ステップは、
    前記評価値中、光線同士の交差角については、複数の対応特徴点および画像フレームを適用して算出した複数の交差角の中央値を算出するステップであり、
    前記評価値判定ステップは、
    前記中央値が規定閾値(Thb)以上であることを満足する場合に、前記選択画像が3次元データの生成に適切な画像であると判定するステップであることを特徴とする請求項10または11に記載の画像処理方法。
  13. 前記画像処理方法は、さらに、
    環境認識部が、前記選択画像の解析により、画像に含まれる特徴点の3次元位置およびカメラの位置姿勢情報を含む環境認識結果を生成する環境認識ステップを有し、
    前記評価値算出ステップは、前記環境認識結果に含まれる情報を適用して前記評価値を算出するステップであることを特徴とする請求項10または11に記載の画像処理方法。
  14. 前記画像処理方法は、さらに、
    参照画像選択部が、前記環境認識結果を検証するための参照画像を選択する参照画像選択ステップを有し、
    前記参照画像選択ステップは、参照画像候補と、前記選択画像に共通に含まれる対応特徴点の1画像座標系内での距離が規定閾値以上であるとの条件を満足する画像を参照画像として選択するステップであり、
    前記評価値算出ステップは、前記参照画像選択ステップにおいて選択された参照画像を適用して前記評価値を算出するステップであることを特徴とする請求項13に記載の画像処理方法。
  15. 前記画像処理方法は、さらに、
    特徴点追跡部が、前記選択画像の解析により、画像に含まれる特徴点軌跡を求める特徴点追跡ステップを有し、
    前記評価値算出ステップは、前記特徴点軌跡を適用して前記評価値を算出するステップであることを特徴とする請求項10または11に記載の画像処理方法。
  16. 前記入力画像選択ステップは、
    選択フレーム間隔に対応する変数[T]と、最初の選択フレームに対応する変数[F]を設定および更新して、異なる画像の選択処理を行うステップであり、
    前記評価値判定ステップにおいて、前記選択画像が3次元データの生成に適切な画像でないと判定された場合に、前記変数[T]または[F]の少なくともいずれかの変数の更新を実行して新たな画像選択を実行するステップであることを特徴とする請求項10または11に記載の画像処理方法。
  17. 前記入力画像選択ステップは、
    前記評価値判定ステップにおける選択画像の評価態様に応じて、予め規定した変数更新アルゴリズムに従って、前記変数[T]または[F]の少なくともいずれかの変数の更新を実行して新たな画像選択を実行するステップであることを特徴とする請求項16に記載の画像処理方法。
  18. 前記画像処理方法は、さらに、
    3次元データ生成部が、前記評価値判定ステップにおいて3次元データの生成に適切な画像であると判定した選択画像を適用したSFM(Structure from Motion)処理と、該SFM処理による生成情報を初期情報として利用した拡張カルマンフィルタ(EKF)を適用した処理により3次元データ生成を実行するステップを有することを特徴とする請求項10〜17いずれかに記載の画像処理方法。
  19. 情報処理装置において、画像に含まれる画素の3次元位置を算出するために適用する画像の選択処理を実行させるコンピュータ・プログラムであり、
    画像選択部に、入力画像から複数画像を選択画像として選択させる画像選択ステップと、
    評価値算出部に、前記選択画像が3次元データの生成に適切な画像であるか否かを判定するための評価値を算出させる評価値算出ステップと、
    評価値判定部に、前記評価値算出ステップにおいて算出した評価値に基づいて、前記選択画像が3次元データの生成に適切な画像であるか否かを判定させる評価値判定ステップを有し、
    前記評価値算出ステップは、
    (a1)前記選択画像に含まれる3次元位置の推定された特徴点数
    (b1)前記選択画像に含まれる対応特徴点の推定3次元位置と各画像フレームの特徴点位置とを結ぶ光線同士の交差角、
    (c1)参照画像のカメラモデルフィッティング誤差
    上記(a1)〜(c1)の少なくともいずれかを評価値として算出させるステップであり、
    前記評価値判定ステップは、
    上記(a1)〜(c1)の少なくともいずれかの値を予め設定した閾値と比較して、前記選択画像が3次元データの生成に適切な画像であるか否かを判定するステップであり、
    (a2)前記選択画像に含まれる3次元位置の推定された特徴点数が規定閾値(Tha)以上であること、
    (b2)前記選択画像に含まれる対応特徴点の推定3次元位置と各画像フレームの特徴点位置とを結ぶ光線同士の交差角が規定閾値(Thb)以上であること、
    (c2)参照画像のカメラモデルフィッティング誤差が規定閾値(Thc)以下であること、
    上記(a2)〜(c2)の少なくともいずれかの条件を満足する場合に、前記選択画像が3次元データの生成に適切な画像であると判定させるステップであることを特徴とするコンピュータ・プログラム。
JP2008082451A 2008-03-27 2008-03-27 情報処理装置、および画像処理方法、並びにコンピュータ・プログラム Expired - Fee Related JP5012615B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008082451A JP5012615B2 (ja) 2008-03-27 2008-03-27 情報処理装置、および画像処理方法、並びにコンピュータ・プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008082451A JP5012615B2 (ja) 2008-03-27 2008-03-27 情報処理装置、および画像処理方法、並びにコンピュータ・プログラム

Publications (2)

Publication Number Publication Date
JP2009237848A true JP2009237848A (ja) 2009-10-15
JP5012615B2 JP5012615B2 (ja) 2012-08-29

Family

ID=41251726

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008082451A Expired - Fee Related JP5012615B2 (ja) 2008-03-27 2008-03-27 情報処理装置、および画像処理方法、並びにコンピュータ・プログラム

Country Status (1)

Country Link
JP (1) JP5012615B2 (ja)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8787614B2 (en) 2010-05-03 2014-07-22 Samsung Electronics Co., Ltd. System and method building a map
CN104699842A (zh) * 2015-03-31 2015-06-10 百度在线网络技术(北京)有限公司 图片展示方法和装置
WO2015134832A1 (en) * 2014-03-06 2015-09-11 Nec Laboratories America, Inc. High accuracy monocular moving object localization
JP2016502712A (ja) * 2012-11-02 2016-01-28 クアルコム,インコーポレイテッド 単眼視覚slamのための高速初期化
CN105333869A (zh) * 2015-11-04 2016-02-17 天津津航计算技术研究所 一种基于自适应ekf的无人侦察机同步定位与构图方法
EP3001384A1 (en) 2014-09-26 2016-03-30 Fujitsu Limited Three-dimensional coordinate computing apparatus, three-dimensional coordinate computing method, and program for three-dimensional coordinate computing
WO2016199605A1 (ja) * 2015-06-12 2016-12-15 ソニー株式会社 画像処理装置および方法、並びにプログラム
JP2017187861A (ja) * 2016-04-01 2017-10-12 キヤノン株式会社 情報処理装置およびその制御方法
JP6478305B1 (ja) * 2018-07-04 2019-03-06 有限会社ネットライズ Slamの手法を応用した矢板の地中位置測定方法とその装置
US10542212B2 (en) 2015-04-06 2020-01-21 Sony Corporation Self-position estimation device and method
US10809053B2 (en) 2014-09-17 2020-10-20 Kabushiki Kaisha Toshiba Movement assisting device, movement assisting method, and computer program product
US10929695B2 (en) 2017-03-28 2021-02-23 Denso Corporation Obstacle detection apparatus
CN112884124A (zh) * 2021-02-24 2021-06-01 中国工商银行股份有限公司 神经网络的训练方法及设备、图像处理方法及设备
JP2021152909A (ja) * 2020-06-05 2021-09-30 ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド オフラインマップの生成方法、生成装置、電子機器及び記憶媒体

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7140368B2 (ja) 2018-06-08 2022-09-21 株式会社ソミックマネージメントホールディングス ボールジョイントのベアリングシート及びボールジョイント

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006252275A (ja) * 2005-03-11 2006-09-21 Japan Science & Technology Agency カメラ運動及び物体形状の復元システム
JP2007327938A (ja) * 2006-05-10 2007-12-20 Topcon Corp 画像処理装置及びその処理方法
JP2008002980A (ja) * 2006-06-23 2008-01-10 Canon Inc 情報処理方法および装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006252275A (ja) * 2005-03-11 2006-09-21 Japan Science & Technology Agency カメラ運動及び物体形状の復元システム
JP2007327938A (ja) * 2006-05-10 2007-12-20 Topcon Corp 画像処理装置及びその処理方法
JP2008002980A (ja) * 2006-06-23 2008-01-10 Canon Inc 情報処理方法および装置

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8787614B2 (en) 2010-05-03 2014-07-22 Samsung Electronics Co., Ltd. System and method building a map
JP2016502712A (ja) * 2012-11-02 2016-01-28 クアルコム,インコーポレイテッド 単眼視覚slamのための高速初期化
WO2015134832A1 (en) * 2014-03-06 2015-09-11 Nec Laboratories America, Inc. High accuracy monocular moving object localization
US10809053B2 (en) 2014-09-17 2020-10-20 Kabushiki Kaisha Toshiba Movement assisting device, movement assisting method, and computer program product
EP3001384A1 (en) 2014-09-26 2016-03-30 Fujitsu Limited Three-dimensional coordinate computing apparatus, three-dimensional coordinate computing method, and program for three-dimensional coordinate computing
US9892516B2 (en) 2014-09-26 2018-02-13 Fujitsu Limited Three-dimensional coordinate computing apparatus, three-dimensional coordinate computing method, and non-transitory computer readable recording medium having therein program for three-dimensional coordinate computing
US10410397B2 (en) 2015-03-31 2019-09-10 Baidu Online Network Technology (Beijing) Co., Ltd. Picture presentation method and apparatus
KR101820349B1 (ko) * 2015-03-31 2018-01-19 바이두 온라인 네트웍 테크놀러지 (베이징) 캄파니 리미티드 화상 표시 방법 및 장치
CN104699842A (zh) * 2015-03-31 2015-06-10 百度在线网络技术(北京)有限公司 图片展示方法和装置
US10542212B2 (en) 2015-04-06 2020-01-21 Sony Corporation Self-position estimation device and method
US10636168B2 (en) 2015-06-12 2020-04-28 Sony Corporation Image processing apparatus, method, and program
WO2016199605A1 (ja) * 2015-06-12 2016-12-15 ソニー株式会社 画像処理装置および方法、並びにプログラム
CN105333869A (zh) * 2015-11-04 2016-02-17 天津津航计算技术研究所 一种基于自适应ekf的无人侦察机同步定位与构图方法
JP2017187861A (ja) * 2016-04-01 2017-10-12 キヤノン株式会社 情報処理装置およびその制御方法
US10929695B2 (en) 2017-03-28 2021-02-23 Denso Corporation Obstacle detection apparatus
JP2020007732A (ja) * 2018-07-04 2020-01-16 有限会社ネットライズ Slamの手法を応用した矢板の地中位置測定方法とその装置
JP6478305B1 (ja) * 2018-07-04 2019-03-06 有限会社ネットライズ Slamの手法を応用した矢板の地中位置測定方法とその装置
JP2021152909A (ja) * 2020-06-05 2021-09-30 ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド オフラインマップの生成方法、生成装置、電子機器及び記憶媒体
JP7104215B2 (ja) 2020-06-05 2022-07-20 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド オフラインマップの生成方法、生成装置、電子機器及び記憶媒体
CN112884124A (zh) * 2021-02-24 2021-06-01 中国工商银行股份有限公司 神经网络的训练方法及设备、图像处理方法及设备

Also Published As

Publication number Publication date
JP5012615B2 (ja) 2012-08-29

Similar Documents

Publication Publication Date Title
JP5012615B2 (ja) 情報処理装置、および画像処理方法、並びにコンピュータ・プログラム
US10755428B2 (en) Apparatuses and methods for machine vision system including creation of a point cloud model and/or three dimensional model
US10948297B2 (en) Simultaneous location and mapping (SLAM) using dual event cameras
Zheng et al. Hybridfusion: Real-time performance capture using a single depth sensor and sparse imus
US10133279B2 (en) Apparatus of updating key frame of mobile robot and method thereof
US10109104B2 (en) Generation of 3D models of an environment
KR102016551B1 (ko) 위치 추정 장치 및 방법
KR101776622B1 (ko) 다이렉트 트래킹을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
US11210804B2 (en) Methods, devices and computer program products for global bundle adjustment of 3D images
US9495761B2 (en) Environment mapping with automatic motion model selection
KR101725060B1 (ko) 그래디언트 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
EP2813082B1 (en) Head pose tracking using a depth camera
KR101776621B1 (ko) 에지 기반 재조정을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
KR100855657B1 (ko) 단안 줌 카메라를 이용한 이동로봇의 자기위치 추정 시스템및 방법
KR20190042187A (ko) 깊이 값을 추정하는 방법 및 장치
Forster et al. Appearance-based active, monocular, dense reconstruction for micro aerial vehicles
JP7116262B2 (ja) 画像深度推定方法および装置、電子機器、ならびに記憶媒体
KR20210058686A (ko) 동시적 위치 추정 및 맵 작성을 구현하는 장치 및 방법
GB2567245A (en) Methods and apparatuses for depth rectification processing
US10061784B2 (en) Method and device for fusing a plurality of uncertain or correlated data
US11145072B2 (en) Methods, devices and computer program products for 3D mapping and pose estimation of 3D images
Das et al. Entropy based keyframe selection for multi-camera visual slam
Pietzsch Planar features for visual slam
JP2022138037A (ja) 情報処理装置、情報処理方法およびプログラム
JP2022011821A (ja) 情報処理装置、情報処理方法、移動ロボット

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110106

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120306

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120416

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120508

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120521

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150615

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150615

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees