JP2009514066A - 「フレーム毎かつピクセル毎コンピュータ映像用カメラフレーム合致モデル生成グラフィックス画像」 - Google Patents

「フレーム毎かつピクセル毎コンピュータ映像用カメラフレーム合致モデル生成グラフィックス画像」 Download PDF

Info

Publication number
JP2009514066A
JP2009514066A JP2008529771A JP2008529771A JP2009514066A JP 2009514066 A JP2009514066 A JP 2009514066A JP 2008529771 A JP2008529771 A JP 2008529771A JP 2008529771 A JP2008529771 A JP 2008529771A JP 2009514066 A JP2009514066 A JP 2009514066A
Authority
JP
Japan
Prior art keywords
frame
camera
region
rendered image
viewing angle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008529771A
Other languages
English (en)
Other versions
JP4909991B2 (ja
Inventor
タパング,カルロス
Original Assignee
タパング,カルロス
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by タパング,カルロス filed Critical タパング,カルロス
Publication of JP2009514066A publication Critical patent/JP2009514066A/ja
Application granted granted Critical
Publication of JP4909991B2 publication Critical patent/JP4909991B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20056Discrete and fast Fourier transform, [DFT, FFT]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Generation (AREA)

Abstract

映像または画像処理では2種の別々の仕事がある。一方で、画像解析および特色認識の困難な仕事があり、他方で入力画像が与えられるカメラの3D世界位置のコンピュータ計算というそれほど困難ではない仕事がある。生態映像では、これらの2種の仕事は一体に絡み合っているので、相互の区別は困難である。
【選択図】 図1

Description

本発明はコンピュータ視野の広がりを前進させる最新技術のコンピュータグラフィックスを利用する。
グラフィックスエンジンは、特にリアルタイムで利用されるファーストパーソンシューターゲームが非常にリアルになってきた。本発明の基本的なアイデアは画像処理にグラフィックスエンジンを利用すること、すなわち、リアルタイムのグラフィックスエンジンによって生成される画像フレームをカメラからのものを合致させることにある。
映像あるいは画像の処理では2種の別個の仕事がある。一方では画像解析および特色認識という困難な仕事があり、他方では入力画像が与えられるカメラの3D世界位置のコンピュータ計算というそれほど困難ではない仕事がある。
生態映像では、これらの2種の仕事は相互に絡み合っており相互に区別するのは困難である。我々は我々の周囲の特色を認識すると同時にこれから三角測量を行ってその世界座標の位置を知覚している。我々は、最初に三角測量する特色を特定しなければ三角測量は不可能に思われると同時に、どこかにその特色が配置されえない限り我々が住む3D世界の特定は本当に不可能である。
すべてではないにしても、その多くの先行技術における映像システムは同一システムの中における両方の仕事を実施する試みといえる。例えば、参照米国特許番号US5,801,970には両方の仕事が含まれ、参照米国特許番号US6,704,621には三角測量だけから構成されるようであるが実際には道路の認識を必要とする。
米国特許番号US5,801,970 米国特許番号US6,704,621
発明の概要
三角測量の仕事が解析と特色認識の仕事とは別にかつ独立したまま本当に実行可能であれば、システムは後者の仕事を実行しないのでコンピュータ計算リソースは半分で済むであろう。グラフィックス処理における現在の進歩を活用して、本発明はカメラ位置の三角測量を通常の場面解析および特色認識無しで可能にする。これには視野内の世界の精確なア・プリオリモデルが利用される。3Dモデルが最新のグラフィックス処理装置を利用してグラフィックス面にレンダリングされる。カメラから入ってくる各フレームはその後、グラフィックス面の多数のレンダリング候補の中から最良の合致候補を求めて検索される。比較するレンダリング画像の計算は、次々と続くフレームをもとにしたカメラ位置および視角の変化のコンピュータ計算ならびに、その後の世界のア・プリオリモデルをレンダリングするための次の可能性のある位置と視角が限定される計算の結果の利用によって小型化される。
先行技術に勝る本発明の主な利点は現実世界の世界モデルへの地図化である。これが最も相応しい用途はロボットのプログラミングである。ア・プリオリ地図によって誘導されると同時にその地図におけるその位置を知るロボットはこのような誘導が行われないものよりもはるかに優れている。これは航行、自動誘導、経路探し、障害回避、関心地点の標的化およびその他のロボットの仕事に優れている。
本発明の詳細説明
図1には本発明の好ましい実施例の図解が示される。世界100の世界のア・プリオリモデルが現在市販されている最新グラフィックスプロセッサー101を利用してレンダリング画像102、103および104にレンダリングされる。該モデルは現実世界110に関する精確ではあるが必ずしも完璧ではないモデルである。本発明の目的はそれぞれ時刻tおよびt+1時点でのフレーム107および108を生成するカメラ309の位置および視角の追跡にある。フレーム107および108は装置への初期リアルタイム入力として利用される。光学流れベクトルはフレーム107および108から最新技術の方法を利用して計算される。先行技術により、これらの光学流れベクトルをもとに精確な進路とカメラ視角が騒音と異常値に耐える方法で派生させることができる。それから、次に可能性のある位置が現在速度(105)から決定される現在位置から一定距離地点において、現在の進路によって定義される進行方向上にある地点周囲に仮定される。可能性のある候補地点Nがグラフックスプロセッサーまたはプロセッサー101によってN候補の画像102、103および104にレンダリングされる。各レンダリング画像はその後、現在のカメラフレームおよび最良合致選定画像(106)と比較される。該選定画像から、カメラの最大限に精確な位置、瞬間速度、視角、およびの角速度もまた該諸候補地点から選定可能である。
動的でフレーム毎の三角測量(あるいは追跡処理)は本発明において図3に示される「フローチャート」の次の諸段階を踏んで実行される。以降の諸段階の説明では、カメラからのすべてのビデオフレーム毎に、比較するためにグラフィックスプロセッサーによってレンダリングされる可能性のあるフレームから仮定される集合がある。この発明では、この比較がコンピュータ計算上最も高価につく。ビデオフレームはレンダリング画像の鉛直方向と水平方向の解像度が両方とも等しい。各フレームおよび各レンダリング画像は図2に示されるように多数のピクセルによって相互に重複しても良い多数の長方形領域に分割される。
1.カメラからのフレーム、ならびにフレームが取り出される時の時刻「t」の瞬間時点の、カメラの既知の絶対世界位置P(t)、視角V(t)、速度ゼロu(t)=0、および角速度ゼロw(t)=0を利用した開始。このフレームにおけるすべての領域(Cs)の個々のの高速フーリエ変換(FFT)の計算および変換の位相要素PFC(a,t)(時刻「t」、領域「a」)における取り出し
2.次フレームの取り出し。すべてのPFC(a,t+1)、時刻「t+1」時点の領域「a」におけるFFTの位相要素の計算。
3.PFC(a,1)およびPFC(a,t+1)間の位相差の計算、その後の位相相関面を得るための位相差マトリックスに関するにFFT逆変換の実行。カメラが「t」から「t+1」までパニングも移動もしない場合には、各領域毎の位相相関面は領域「a」の中心で最大値を示そう。移動するかあるいはパニングする場合には、最大値は各領域の中心以外のどこかに生じよう。位相相関面内の中心から最大値地点までの分岐として定義される各領域OP(a,t+1)毎の光学流れベクトルの計算。(風景領域に移動物体がある場合、各移動物体により位相相関面内に追加頂点が生み出されようが、比較される後続のフレームからの2領域が建物や壁あるいは地面のような静的物体が大勢を占める限りには、これらのその他頂点はカメラ地点および/または視角の変化に対応する頂点よりも低いはずである。)
4.このすべてのOP(a,t+1)をもとにするとともに、絶対地点P(t)、視角V(t)、現在速度u(t)、および現在角速度w(t)を利用して、すべての可能性のある絶対カメラ位置(ベクトルPi(t+1))および時刻t+1時点の視角(単位ベクトルVi(t+1))の変動幅の計算。1986年にMIT出版から出版されたB.K.P.ホーンによる「ロボット視覚」と題する参考書籍の第17章に詳述されるようにOP(a,t+1)から容易に決定される運動進行方向(瞬間的進路)内にあるようにPiが選択されても良い。
5.少数の(例えばN個)可能性のあるカメラ位置Pi(t+1)およびア・プリオリモデルを利用してレンダリングする視角Vi(t+1)の仮定。これによりN個の画像レンダリングMi(a,t+1)が生ずる。各Mi(a,t+1)のFFTの計算および変換PFMi(a,t+1)からの位相要素の取り出し。
6.時刻t+1時点の最良合致カメラフレームは、その各領域のPFC(a,t+1)とのPFMi(a,t+1)の位相差が、考慮されるすべての領域で最も中心に近い最大値を伴う2D図形であるFFTの逆変換となるMiである。これをもとに最良の可能性のある位置P(t+1)および視角V(t+1)もまた選定される。それから、瞬間速度がu(t+1)=P(t+1)-P(t)として瞬間角速度w(t)=V(t+1)-V(t)と一緒に決定される。
7. 前回時刻t時の計算およびフレームは破棄されると同時に、現在時刻をt+1にして、P(t)に対しP(t+1)、V(t)に対しV(t+1)、u(t)に対しu(t+1)、w(t)に対しw(t+1)、およびPFC(a,t)に対しPFC(a,t+1)が上書きコピーされる。段階2に戻る。
カメラの視野は静的エンティティが大勢を占める(移動エンティティによって取り込まれる画像領域がより少なく世界座標に関して静的である)限り、動的三角測量または追跡処理が可能である。カメラフレームとこれによる領域は静的エンティティが大勢を占める限り、位相相関面内の頂点はカメラの運動に一致する。この点は先行技術で十分知られており、英国放送会社(BBC)によって1987年に出版されたG.A.トーマスによる「DATVおよびその他のアプリケーション用のテレビ運動計測」と題する参考論文中に詳述されている通りである。
代替実施例
本発明のある代替実施例では、段階5および6のコンピュータ計算コストはKフレームと同時ににわたり償却されるとともに、生じる補正は将来のフレームまで波及することになる。例えば、参照フレームがすべての5個の各カメラフレーム(K=5)毎に選択される場合には、第1フレームが1つの参照フレームであると同時に、段階5および段階6は第1フレームサンプルから第5サンプル(t+1から,t+5まで)までの時間間隔内で実行可能である。その間に、すべてのその他の段階(段階1から段階4までと段階7)が、すべてのサンプルフレームについてPおよびVに関する非補正値が利用されてすべてのサンプルについて実行される。第5フレームについては、第1フレームにつき最良合致フレームが最終的に選定される時に、誤差補正が施される。同一の誤差補正がPおよびVの5個すべての値に適用されるとともに、t+5によってPおよびVの前回値のすべてが破棄されたので、P(t+5)およびV(t+5)だけが補正を必要とする。
本発明のもう1つの実施例では、段階5および段階6のコンピュータ計算コストが、仮定される各カメラ位置につき1台の複数の低コストのゲーム用グラフィックスプロセッサーの利用によってまかなわれる。
また、もう1つの実施例では、段階5および段階6においてカメラフレームとレンダリング画像との間の位相相関面のコンピュータ計算に代わって、輝度値の差の平方和が代わりに計算されても良い(先行技術で「直接法」といわれる)。最良合致画像は最小平方和の場合のレンダリング画像である。
上記で説明されたものは本発明の好ましい実施例である。しかしながら、本発明の実施は上記で説明された好ましい実施例のものとは別の特定の形態で可能である。例えば、正方形または長方形領域「a」の代わりに、円状領域が代わって採用されても良い。
本発明の通常のアプリケーションはカメラの位置および視角を追跡処理する。しかしながら、当技術の専門家であれば本発明による装置または操作方法は物***置の測定、航行、または自動誘導が必要な任意の筋書きで応用可能であることを理解すると同時に認識しよう。好ましい実施例類は単に例示的なものであり制限的なものとは決して受け取ってはならない、本発明の範囲は上記の説明よりも付録の請求項によって与えられると同時に、請求項の精神内にあてはまるすべての変型例および等価なものがこの中に含まれるものと意図される。
本発明の、現実世界でのカメラの動きがいかに3D世界モデルにおいて追跡させるかを示した実施例の全体図である。 本発明の領域分割されたレンダリング面またはカメラフレームのいずれかの例示図である。 本発明の”本発明の詳細説明”に説明されるアルゴリズムに関する高度レベルのフローチャートである。

Claims (23)

  1. カメラが存在する世界のア・プリオリモデルの創造、カメラからの各素材の未処理ビデオフレームの取り出し、各ビデオフレーム毎の可能性のある該フレーム撮影位置および視角の小集合の仮定、各ビデオフレーム毎の各仮定位置と視角につき1画像のグラフィックスプロセッサーとア・プリオリモデルの頂点データを使用する画像レンダリング処理、該ビデオフレームとの最良合致画像の入手による最善位置および視角の取り出しの各段階が含まれるリアルタイム(エゴモーション)で較正されるカメラの位置および視角の追跡方法
  2. 世界のア・プリオリモデルのレンダリングに利用される低コストグラフィックスプロセッサーが既に先行技術で実現されていると同時に真に迫るグラフィックスコンピュータゲームで利用されている請求項1に記載される方法
  3. 最初のビデオフレームが既知の位置と角度を基にしている請求項2に記載される方法
  4. ビデオフレームとレンダリング画像が同じ解像度であると同時に、両方ともピクセルと0から100%まで重複する長方形あるいは正方形領域に再分割される請求項3に記載される方法
  5. 仮定される位置と視角の集合の計算が前後する2つのフレームを基にした最大確率のカメラの運動ベクトルと視角のコンピュータ計算により制約され、このコンピュータ計算に、相互に独立して処理される現在フレームにおける各領域の高速フーリエ変換(FFT)のコンピュータ計算、その結果のFFTマトリックスの位相要素の取り出しと純位相要素マトリックスの入手、該位相要素マトリックスのメモリへの格納、現在および前回フレームを基にした位相要素マトリックスの利用、現在カメラフレームの各領域と前回カメラフレームの該当領域間の位相差の取り出し、位相相関面となる位相差マトリックスのFFT逆変換のコンピュータ計算、各領域毎の2D光学流れベクトルを形成する各領域の位相相関面における最大値の2D位置の決定、全体領域の光学流れベクトルをもとにしたカメラの最大確率の3D運動ベクトルと視角の計算、の各副次段階が含まれる請求項4に記載される方法
  6. 2D光学流れベクトルを基にした最大確率の3D運動ベクトルおよび視角に関する計算に、参照世界フレームの移動の進路または方向の決定とその後のこれによる次の最大確率位置が存在する進行方向の定義、進路進行方向に沿った次位置候補を決定するための前回速度計算値の利用、計算済み候補地点周囲の地点からの立体的選定を基にした多数の最大確率位置の取り出し、該立体的選定範囲内の地点での最良の次位置を選定するための下り勾配の利用の各副次段階が含まれる請求項5に記載される方法
  7. すべての各ビデオフレームに対する最良の合致レンダリング画像の選定方法に、レンダリング画像の各領域のFFTのコンピュータ計算、各領域のFFTマトリックスからの位相要素の取り出し、現在フレームおよびそのレンダリング画像をもとにしたそれぞれの位相要素マトリックスの利用、現在カメラフレームの各領域とレンダリング画像の当該領域間の位相相関マトリックスを形成する位相差の取り出し、各領域毎の位相相関面となるカメラフレーム領域とレンダリング画像領域との間の位相相関マトリックスのFFT逆変換のコンピュータ計算の各副次段階が含まれるもので、最良合致レンダリング画像が全体領域にわたり合計される光学流れベクトルの最小平方和(ドット積)を有するものである請求項5に記載される方法
  8. すべてのビデオフレームに対する最良合致レンダリング画像の選定方法に、先行技術で「直接法」と呼ばれる次の各副次段階、すなわち、すべてのレンダリング画像毎のレンダリング画像とビデオフレーム間のすべてのピクセル毎のグレーレベルの差分の入手、すべての領域に関する全差分の単純平方和の計算の段階が含まれるもので、該選定レンダリング画像がビデオフレームとの差分の最小平方和の場合のものでなくてはならない請求項5に記載される方法
  9. ア・プリオリモデルが「オートキャド」のような現在市販されている手段を利用して構築される請求項5に記載される方法
  10. ア・プリオリモデルが先行技術の方法を利用してカメラの存在する世界から予め取り出されるビデオフレームの画像処理によって構築される請求項5に記載される方法
  11. ア・プリオリモデルが先行技術方法を利用して運動の予測とリアルタイムで同時平行的にかつそれぞれ別々に構築される請求項5に記載される方法
  12. ビデオカメラおよびその内容が一定のフレーム速度で更新されるそのフレームバッファー、次々続くビデオフレームを基にした光学流れのコンピュータ計算とこの光学流れ解析を基にした多数の試行カメラ位置および視角の仮定用のデジタル処理手段、世界のア・プリオリモデル、カメラがフレームバッファーを更新するのにかかるわずかな時間で世界モデルの複数レンダリングが可能なグラフィックスプロセッサーまたは複数のグラフィックスプロセッサー、世界モデルにおける試行位置と視角に対応するレンダリング面を格納する複数のグラフィックス面または画像バッファー、ならびにビデオフレームバッファーと各レンダリング画像の比較と同時にその後の最良合致レンダリング画像の選定用のデジタル処理手段が含まれることによって最高精度のカメラの瞬間的位置および視角の決定も行うリアルタイム(エゴモーション)でのカメラの位置および視角の追跡装置
  13. 世界のア・プリオリモデルのレンダリングに利用される低コストグラフィックスプロセッサーが既に先行技術で実現されていると同時にリアリスティックなグラフィックスコンピュータゲームで利用されている請求項12に記載される装置
  14. 装置が初期化されてコンピュータ計算が既知の位置、視角、速度および角速度から開始される請求項13に記載される装置
  15. ビデオフレームとレンダリングされる画像が同じ解像度であると同時に両方ともピクセルと0から100%だけ重複する長方形あるいは正方形領域に再分割される請求項14に記載される装置
  16. 仮定される位置および視角の集合計算が互いに前後する2つのフレームを基にしたカメラの最大確率運動ベクトルおよび視角のコンピュータ計算によって制限されるように構成され、このコンピュータ計算に、相互に独立して処理される現在フレームの各領域の高速フーリエ変換(FFT)のコンピュータ計算、結果のFFTマトリックスからの位相要素の取り出しならびに純位相要素マトリックスの入手、この位相要素マトリックスのメモリへの格納、現在および前回フレームを基にした位相要素マトリックスの利用、位相相関マトリックスを形成する現在カメラフレームの各領域と前回カメラフレームの当該領域間の位相差の取り出し、位相相関面となる位相相関マトリックスのFFT逆変換のコンピュータ計算、各領域毎の光学流れベクトルを形成する各領域の位相相関面での最大値の2D位置の決定、すべての領域の光学流れベクトルを基にしたカメラの最大確率3D運動ベクトルおよび視角の計算が含まれる請求項15に記載される装置
  17. 参照世界フレームの移動の進路または方向の決定、その後のこれによる最大確率の次位置にある進行方向の定義、該進路進行方向位置に沿った次候補位置を決定するための前回速度計算の利用、計算候補周辺地点の立体的選定もとにした最大確率の多数の位置の取り出し、該立体選定地点の範囲内の最良次位置を選定するための下り勾配の利用の一連のコンピュータ計算を利用する光学流れベクトルを基に最大確率の3D運動ベクトルと視角の計算を行うよう構成される請求項16に記載される装置
  18. レンダリング画像の各領域のFFTの計算、各領域のFFTマトリックスの位相要素の取り出し、現在フレームおよびレンダリング画像を基にした位相要素マトリックスの利用、位相相関マトリックスを形成する現在カメラフレームの各領域とレンダリング画像の対応領域の間の位相差の取り出し、各領域毎の位相相関面となるカメラフレーム領域とレンダリング画像領域間の位相相関マトリックスのFFTの逆変換の計算の一連のコンピュータ計算を利用して全領域にわたる光学流れベクトルの最小平方和(ドット積)を有するすべてのビデオフレームの最良合致レンダリング画像を選定するよう構成される請求項16に記載される装置
  19. すべてのレンダリング画像毎のレンダリング画像とビデオフレーム間のすべてのピクセルに関するグレーレベルの差分の入手ならびにすべての領域に関するすべての差分の単純平方和の計算の先行技術で「直接法」と呼ばれるコンピュータ計算を介して、すべてのビデオフレームに対する最良合致レンダリング画像の選定を行うよう構成されて、該選定レンダリング画像がビデオフレームの差分の最小平方和のものでなくてはならない請求項16に記載される装置
  20. ア・プリオリモデルが現在市販されているオートキャドのような手段を利用して構築される請求項16に記載される装置
  21. ア・プリオリモデルが先行技術方法を利用するカメラが存在する世界から予め取り出されるビデオフレームの画像処理によって構築される請求項16に記載される装置
  22. ア・プリオリモデルが先行技術方法を利用する運動予測と同時平行的にかつこれとは独立してリアルタイムで構築される請求項16に記載される装置
  23. 請求項6から請求項11までのいずれか一項における方法を実施するコンピュータプログラム製品
JP2008529771A 2005-09-12 2006-09-12 フレーム毎かつピクセル毎コンピュータ映像用カメラフレーム合致モデル生成グラフィックス画像 Expired - Fee Related JP4909991B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US71613905P 2005-09-12 2005-09-12
US60/716,139 2005-09-12
PCT/IB2006/053244 WO2007031947A2 (en) 2005-09-12 2006-09-12 Frame and pixel based matching of model-generated graphics images to camera frames

Publications (2)

Publication Number Publication Date
JP2009514066A true JP2009514066A (ja) 2009-04-02
JP4909991B2 JP4909991B2 (ja) 2012-04-04

Family

ID=37865350

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008529771A Expired - Fee Related JP4909991B2 (ja) 2005-09-12 2006-09-12 フレーム毎かつピクセル毎コンピュータ映像用カメラフレーム合致モデル生成グラフィックス画像

Country Status (8)

Country Link
US (1) US8102390B2 (ja)
EP (1) EP1979874B1 (ja)
JP (1) JP4909991B2 (ja)
CN (1) CN101636748A (ja)
AT (1) ATE531007T1 (ja)
CA (1) CA2622327A1 (ja)
RU (1) RU2008112164A (ja)
WO (1) WO2007031947A2 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI391874B (zh) * 2009-11-24 2013-04-01 Ind Tech Res Inst 地圖建置方法與裝置以及利用該地圖的定位方法
CN102519481B (zh) * 2011-12-29 2013-09-04 中国科学院自动化研究所 一种双目视觉里程计实现方法
US20150201193A1 (en) * 2012-01-10 2015-07-16 Google Inc. Encoding and decoding techniques for remote screen sharing of media content using video source and display parameters
GB201202344D0 (en) 2012-02-10 2012-03-28 Isis Innovation Method of locating a sensor and related apparatus
GB2501466A (en) 2012-04-02 2013-10-30 Univ Oxford Localising transportable apparatus
JP2014225108A (ja) * 2013-05-16 2014-12-04 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
CN104548598B (zh) * 2014-12-31 2017-08-08 北京像素软件科技股份有限公司 一种虚拟现实场景中寻路的方法
US9836118B2 (en) 2015-06-16 2017-12-05 Wilson Steele Method and system for analyzing a movement of a person
RU2636745C1 (ru) * 2016-08-22 2017-11-28 Общество С Ограниченной Ответственностью "Дисикон" Способ и система мониторинга территории с помощью управляемой видеокамеры
RU2663884C1 (ru) * 2017-03-29 2018-08-13 ООО "Ай Ти Ви групп" Способ эмуляции по меньшей мере двух стационарных виртуальных видеокамер при использовании одной поворотной (PTZ) видеокамеры
CN109978787B (zh) * 2019-03-25 2022-03-15 电子科技大学 一种基于生物视觉计算模型的图像处理方法
CN111405251B (zh) * 2020-03-25 2021-03-23 杭州叙简科技股份有限公司 一种支持空间位置位检索的视频存储***及其管理方法
US11651502B2 (en) * 2020-07-22 2023-05-16 Microsoft Technology Licensing, Llc Systems and methods for updating continuous image alignment of separate cameras

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07500470A (ja) * 1992-08-12 1995-01-12 ブリティッシュ・ブロードキャスティング・コーポレーション カメラ画像からのスタジオカメラ位置及び移動の導出
JPH10162147A (ja) * 1996-07-09 1998-06-19 General Electric Co <Ge> 被検体内のカメラ開口の位置と向きを決定する装置
JP2001266140A (ja) * 2000-01-06 2001-09-28 Canon Inc 2次元パターンの変調及び位相判定方法及び装置
JP2005517253A (ja) * 2001-11-02 2005-06-09 サーノフ・コーポレーション 潜入型見張りを提供する方法及び装置

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5975357A (ja) 1982-10-22 1984-04-28 Hitachi Ltd 画像処理装置
US5259040A (en) 1991-10-04 1993-11-02 David Sarnoff Research Center, Inc. Method for determining sensor motion and scene structure and image processing system therefor
US5801970A (en) 1995-12-06 1998-09-01 Martin Marietta Corporation Model-based feature tracking system
US6249616B1 (en) * 1997-05-30 2001-06-19 Enroute, Inc Combining digital images based on three-dimensional relationships between source image data sets
US6047078A (en) 1997-10-03 2000-04-04 Digital Equipment Corporation Method for extracting a three-dimensional model using appearance-based constrained structure from motion
JP3342393B2 (ja) * 1998-03-19 2002-11-05 株式会社コナミコンピュータエンタテインメントジャパン ビデオゲーム装置、コンピュータ読み取り可能な記録媒体
US6307959B1 (en) 1999-07-14 2001-10-23 Sarnoff Corporation Method and apparatus for estimating scene structure and ego-motion from multiple images of a scene using correlation
US6704621B1 (en) 1999-11-26 2004-03-09 Gideon P. Stein System and method for estimating ego-motion of a moving vehicle using successive images recorded along the vehicle's path of motion
US6980690B1 (en) * 2000-01-20 2005-12-27 Canon Kabushiki Kaisha Image processing apparatus
AU2001250802A1 (en) * 2000-03-07 2001-09-17 Sarnoff Corporation Camera pose estimation
US6738099B2 (en) 2001-02-16 2004-05-18 Tektronix, Inc. Robust camera motion estimation for video sequences
US6895103B2 (en) * 2001-06-19 2005-05-17 Eastman Kodak Company Method for automatically locating eyes in an image
US20040052418A1 (en) * 2002-04-05 2004-03-18 Bruno Delean Method and apparatus for probabilistic image analysis
JP3848236B2 (ja) * 2002-10-18 2006-11-22 株式会社東芝 欠陥情報検出感度データの決定方法及び欠陥情報検出感度データの決定装置、欠陥検出装置の管理方法、半導体装置の欠陥検出方法及び半導体装置の欠陥検出装置
WO2004114063A2 (en) * 2003-06-13 2004-12-29 Georgia Tech Research Corporation Data reconstruction using directional interpolation techniques
US7747067B2 (en) * 2003-10-08 2010-06-29 Purdue Research Foundation System and method for three dimensional modeling
GB2411532B (en) * 2004-02-11 2010-04-28 British Broadcasting Corp Position determination
BRPI0514078A (pt) * 2004-08-04 2008-05-27 Intergraph Software Tech Co método de preparação de uma imagem composta com resolução não uniforme
US7379566B2 (en) * 2005-01-07 2008-05-27 Gesturetek, Inc. Optical flow based tilt sensor

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07500470A (ja) * 1992-08-12 1995-01-12 ブリティッシュ・ブロードキャスティング・コーポレーション カメラ画像からのスタジオカメラ位置及び移動の導出
JPH10162147A (ja) * 1996-07-09 1998-06-19 General Electric Co <Ge> 被検体内のカメラ開口の位置と向きを決定する装置
JP2001266140A (ja) * 2000-01-06 2001-09-28 Canon Inc 2次元パターンの変調及び位相判定方法及び装置
JP2005517253A (ja) * 2001-11-02 2005-06-09 サーノフ・コーポレーション 潜入型見張りを提供する方法及び装置

Also Published As

Publication number Publication date
JP4909991B2 (ja) 2012-04-04
WO2007031947A3 (en) 2009-08-27
EP1979874A4 (en) 2010-02-24
CA2622327A1 (en) 2007-03-22
EP1979874A2 (en) 2008-10-15
RU2008112164A (ru) 2009-10-20
WO2007031947A2 (en) 2007-03-22
EP1979874B1 (en) 2011-10-26
CN101636748A (zh) 2010-01-27
ATE531007T1 (de) 2011-11-15
US8102390B2 (en) 2012-01-24
US20100283778A1 (en) 2010-11-11

Similar Documents

Publication Publication Date Title
JP4909991B2 (ja) フレーム毎かつピクセル毎コンピュータ映像用カメラフレーム合致モデル生成グラフィックス画像
US11393173B2 (en) Mobile augmented reality system
US8180107B2 (en) Active coordinated tracking for multi-camera systems
CN111325796A (zh) 用于确定视觉设备的位姿的方法和装置
JP2019075082A (ja) 深度値推定を用いた映像処理方法及び装置
US20030012410A1 (en) Tracking and pose estimation for augmented reality using real features
CN109300143B (zh) 运动向量场的确定方法、装置、设备、存储介质和车辆
JP2011008687A (ja) 画像処理装置
US20070263000A1 (en) Method, Systems And Computer Product For Deriving Three-Dimensional Information Progressively From A Streaming Video Sequence
Okuma et al. Automatic rectification of long image sequences
Placitelli et al. Low-cost augmented reality systems via 3D point cloud sensors
Molina et al. Persistent aerial video registration and fast multi-view mosaicing
Morimoto et al. Detection of independently moving objects in passive video
JPH09245195A (ja) 画像処理方法およびその装置
JP6154759B2 (ja) カメラパラメータ推定装置、カメラパラメータ推定方法及びカメラパラメータ推定プログラム
KR20050013000A (ko) 3차원 정보를 이용한 이동체의 주행 안내장치 및 방법
Liu et al. LSFB: A low-cost and scalable framework for building large-scale localization benchmark
CN111260544A (zh) 数据处理方法及装置、电子设备和计算机存储介质
Huang et al. AR Mapping: Accurate and Efficient Mapping for Augmented Reality
Noirfalise et al. Real-time Registration for Image Moisaicing.
Chu Image deblur for 3d sensing mobile devices
KR20030076906A (ko) 변이 움직임 벡터를 이용한 스테레오 물체 추적 방법 및장치
Zvantsev et al. Digital stabilization of images under conditions of planned movement
Lincoln et al. Dense 3D Mapping Using Volume Reigstration from Monocular View
JP2023106163A (ja) 自己位置推定方法、自己位置推定プログラム及び自己位置推定装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090806

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110421

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110510

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20110715

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20110725

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20110912

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110913

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20110920

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111220

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120116

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150120

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees