JP4195096B2 - 3次元表面形状再構築のための装置 - Google Patents

3次元表面形状再構築のための装置 Download PDF

Info

Publication number
JP4195096B2
JP4195096B2 JP52750898A JP52750898A JP4195096B2 JP 4195096 B2 JP4195096 B2 JP 4195096B2 JP 52750898 A JP52750898 A JP 52750898A JP 52750898 A JP52750898 A JP 52750898A JP 4195096 B2 JP4195096 B2 JP 4195096B2
Authority
JP
Japan
Prior art keywords
texture
surface shape
optical head
views
speckle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP52750898A
Other languages
English (en)
Other versions
JP2001506384A (ja
JP2001506384A5 (ja
Inventor
アルベック,ダン.
ベナディー,メニー.
ルディッヒ,アリエ.
シャロム,タミル.
シャシュア,アムノン.
ヨセフ,ヤール.
ゼルニック,イアン.
Original Assignee
コグニテンス リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by コグニテンス リミテッド filed Critical コグニテンス リミテッド
Publication of JP2001506384A publication Critical patent/JP2001506384A/ja
Publication of JP2001506384A5 publication Critical patent/JP2001506384A5/ja
Application granted granted Critical
Publication of JP4195096B2 publication Critical patent/JP4195096B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/10Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/08Projecting images onto non-planar surfaces, e.g. geodetic screens
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/16Image acquisition using multiple overlapping images; Image stitching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Multimedia (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Laser Beam Processing (AREA)
  • Measurement Of Optical Distance (AREA)

Description

発明の分野
本発明は、3次元(以下“3D”という)表面再構築のための装置および方法に関する。
発明の背景
3D表面再構築に関連する計算方法は、以下の論文、
“Trilinearity of three perspectiveviews and its associated tensor”、ShashuaおよびWerman、ICCV(International Conference on Computer Vision)′95、1995年6月、
“Relative affine structure: canonical model for 3D from 2D geometry and applications”、ShashuaおよびNavab、IEEE Transactions on PAMI,18(9)、1996年9月、
“Algebraic functions for recognition”、A.Shashua、IEEE Transactions on PAMI,17(8)、1995年8月に記載されている。
非接触測定のための最新式の方法の調査は、Tatterson,K.G.の“Laser measurement finds its markets”、Photonics Spectra、1996年10月に記載されている。
本明細書に記載されたすべての文献およびそこに引用されている文献、ならびにイスラエル特許出願第113496号および米国特許出願第08/497224号(その開示は1996年10月31日に発行された国際公開WO96/34365号に対応する)および第08/787345号(その開示は米国特許第5598515号に対応する)の開示は、参照により本明細書に組み込まれる。
スペックル(speckle)計測法およびスペックル干渉計は様々な応用例について知られている。スペックル計測法では、検査または測定するために探求された物体上でスペックルが生成される。注目(interest)物体上でこのように生成されたスペックルは、注目物体の各表面とその上でスペックルを生成するために使用するレーザまたは他の光源との間の角度関係に非常に依存する。スペックル計測法については、Speckle Metrology、Rajpal S.Sirohi(Ed.)、Marcel Dekker,Inc.、1993年に記載されている。
発明の概要
本発明は、新規かつ非常に効率のよい3D表面形状再構築システムを提供しようとするものである。
したがって、本発明の好ましい実施形態により、所与の精度まで物体の表面形状を再構築するための3D表面形状再構築システムが提供され、このシステムは、
物体の少なくとも一部分の少なくとも3つのビュー(view)を生成するように動作可能な3ビュー光学ヘッドと、
物体の第1の部分が見える第1の相対的向きから、物体の第2の部分であって第1の部分とオーバラップする部分が見える少なくとも1つの第2の相対的向きまで、所与の精度未満の精度で物体と光学ヘッドとの相対的向きを変更するように動作可能な機械式マニピュレータと、
光学ヘッドによって生成された第1および第2の部分の3つのビューのうちの少なくとも2つに基づいて、物体の第1および第2の部分の表面形状を再構築するように動作可能なローカル3D表面形状再構築ユニットと、
物体の第1および第2の部分の相対位置を決定するように動作可能な表面形状スティッチユニット(stitching unit)とを含む。
本発明の好ましい実施形態によれば、機械式マニピュレータは、物体を移動するように動作可能な物体マニピュレータを含む。
好ましくは、機械式マニピュレータは、光学ヘッドを移動するように動作可能な光学ヘッドマニピュレータを含む。
本発明の好ましい実施形態によれば、光学ヘッドによって生成された3つのビューは、3D表面形状再構築がそれに基づく2つのビューと、3つのビューのそれぞれの内部の向きと3つのビューの相対的向きとを表すテンソルがそれから計算される第3のビューとを含む。
好ましくは、物体は、
3つのビューのうちの1つで見られる、物体の第1のセクションと、
3つのビューのうちの他のビューで見られる、物体の第2のセクションと、
第1のセクションと第2のセクションに含まれる、物体のオーバラップセクションとを含み、
3D表面形状再構築ユニットは、オーバラップセクションのテクスチャを分析するように動作可能なオーバラップセクション分析器を含む。
本発明の好ましい実施形態によれば、表面形状スティッチユニットは、第1の部分とオーバラップする第2の部分の1セクションのテクスチャを分析し、それにより、第1の部分と第2の部分の相対位置を決定するように動作可能なオーバーラップテクスチャ分析器を含む。
テクスチャは、物体の表面テクスチャまたはテクスチャ付けプロセスによって物体に付着されたテクスチャを含むことができる。
好ましくは、テクスチャは、物体と光学ヘッドとの相対的向きの変動の結果として変化することはない。
本発明の好ましい実施形態によれば、テクスチャ付けプロセスは、物体上にパターンを重ね合わせるための光学プロセスを含む。好ましくは、光学プロセスは、物体上にスペックルパターンを投影することを含む。
好ましくは、テクスチャは物体上に投影される。
本発明の好ましい実施形態によれば、テクスチャは物体上に投影されたスペックルパターンである。
好ましくは、このシステムは、それぞれが物体上にランダムスペックルパターンを投影する、複数のスペックル生成器を含む。
各スペックル生成器は好ましくは、その上にスペックルパターンが生成され、それにより拡散器(diffuser)から物体の一部分上にスペックルパターンを投影するために光が投影される拡散器を含む。
好ましくは、各スペックル生成器は、レンズを介してレーザ光を前記拡散器上に向けるレーザダイオードを含む。
本発明の好ましい実施形態によれば、拡散器はホログラフィ拡散器である。
さらに、本発明の好ましい実施形態により、
結像(imaging)ヘッドと、
結像すべき物体と結像ヘッドとの間の相対位置を変更するための位置決め装置と、
物体上にスペックルパターンを投影する少なくとも1つのスペックル生成器であって、そのスペックルパターンは物体に対して固定され、そこから結像ヘッドによってそれが見られる角度によって変化しない、少なくとも1つのスペックル生成器と、
複数の画像のうちの様々な画像上のスペックルパターンの一部分を付き合わせることにより、それに対する異なる相対位置で結像ヘッドによって見られる通りに物体の複数の画像を結合するための画像結合器とを含む、3次元結像システムが提供される。
また、本発明の好ましい実施形態により、物体の表面形状を再構築するための3D表面形状再構築システムも提供され、このシステムは、
光学ヘッドと、
少なくとも5自由度で物体と光学ヘッドとの相対的向きを変更するように動作可能な機械式マニピュレータであって、
物体を移動するように動作可能な物体マニピュレータと、
光学ヘッドを移動するように動作可能な光学ヘッドマニピュレータとを含む、機械式マニピュレータと、
光学ヘッドによって生成された物体の少なくとも一部分の画像を分析することにより、物体の表面形状を再構築するように動作可能な3D表面形状再構築ユニットとを含む。
好ましくは、機械式マニピュレータは、物体の表面全体が光学ヘッドによって結像されるように物体と光学ヘッドとの複数の相対的向きを提供し、表面形状スティッチユニットは物体の表面全体を再構築するように動作可能である。
さらに、本発明の好ましい実施形態により、物体の表面形状を再構築するための3D表面形状再構築システムが提供され、このシステムは、
物体の表面上に存在する多数の位置を計算するように動作可能な表面位置計算ユニットを含む。
さらに、本発明の好ましい実施形態により、物体の3D表面形状を再構築するための3D表面形状再構築方法が提供され、この方法は、
物体と光学ヘッドとの相対的向きを手動で変更し、対応する複数の光学ヘッド/物体の相対的向きに関する物体の少なくとも一部分の複数の画像を生成するステップと、
複数の画像を分析することにより、物体の3D表面形状を再構築するステップとを含む。
本明細書に示し記載するシステムの好ましい実施形態の特定の利点は、従来システムでは物体の表面の上で高精度走査運動を行うために使用する精密機械要素なしに、このシステムが物体の3D表面形状を正確に再構築できることである。このシステムは、その一部分のみが固定結像装置によって捕捉可能になるようなサイズおよび/または形状を有する物体の再構築に特に適している。
本明細書に示し記載するシステムの好ましい実施形態の他の利点は、どのようなものであっても人間の介入なしに、完全に自動的な表面再構築を行えることである。
本明細書に示し記載するシステムの好ましい実施形態の他の利点は、特に高密度の再構築済み表面ポイントが得られることである。
本発明のロボットは好ましくは、物体を操作するための垂直自由度と、光学ヘッドを操作するための垂直自由度とを含む、6自由度を有する。あるいは、このような垂直自由度のうちの一方だけが得られる場合もある。
【図面の簡単な説明】
本発明は、添付図面に関連して示す以下の詳細な説明から理解されるだろう。
図1は、本発明の好ましい実施形態により構築され、動作可能な3D表面結像再構築システムの簡略半絵半ブロック図である。
図2は、図1のシステムで使用する光学ヘッドの簡略絵図である。
図3は、図1のシステムで使用するテクスチャ生成器の一部を形成する照明モジュールの簡略断面図である。
図4は、図1のシステムを使用して結像可能な典型的な3次元物体を示す図である。
図5は、本発明の好ましい実施形態によりその表面上に投影されるスペックルを有する、図4の3次元物体を示す図である。
図6は、図4および図5の3次元物体に対応し、図1のシステムによって生成される雲状ポイントを示す図である。
図7は、図1のシステムを使用して結像可能な他の典型的な3次元物体を示す図である。
図8は、本発明の好ましい実施形態によりその表面上のテクスチャ上にペイントした図7の3次元物体を示す図である。
図9は、図7および図8の3次元物体に対応し、図1のシステムによって生成される雲状ポイント(a cloud of points)を示す図である。
図10A〜図10Bは、図7の物体のCADモデルを示す図である。
図11は、図7の物体の3次元表現と図11のそのCADモデルとの偏差を示す図である。
図12A〜図12Fは、錐体対応方法(pyramid correspondence method)のシミュレーションである。
図13Aおよび図13Bは、図8のテクスチャを有する図7の物体上の隣接区域の2つの部分的にオーバラップする画像を示す図である。
図14Aおよび図14Bは、図12Aおよび図12Bの画像に対応し、本発明のシステムによって生成される雲状ポイントの一部分を示す図である。
図14Cは、図12Aおよび図12Bの画像の“スティッチ済み”表現を表す、2つの結合した雲状ポイントの組合せを示す図である。
図15は、図1のテンソルベースの3D表面再構築モジュール50のための好ましい操作方法の簡略流れ図である。
図16は、図1の3D表面構造再構築モジュールのためにスケーリングを実行するための好ましい方法の簡略流れ図である。
図17は、ローカル再構築のための好ましい方法の簡略流れ図である。
図18は、1対の部分的にオーバラップするパッチを示す図である。
図19は、好ましいスケーリング物体の写真である。
図20は、図19のスケーリング物体の前段階(precursor)を示す等角投影図である。
図21は、図20の線XXI−XXIに沿って示す断面図である。
例示的な実施形態の詳細説明
本発明は、物体の表面形状を再構築するために動作可能な3次元表面形状再構築システムを提供する。本発明のシステムの特定の特徴は、従来システムでは物体の表面の上で高精度走査運動を行うために使用する精密機械要素なしに、それが物体の3D表面形状を正確に再構築できることである。このシステムは、その一部分のみが固定結像装置によって捕捉可能になるようなサイズおよび/または形状を有する物体の再構築に特に適している。本明細書に示し記載するシステムの他の利点は、どのようなものであっても人間の介入なしに、完全に自動的な表面再構築を行えることである。
図1を参照すると、同図は、本発明の好ましい実施形態により構築され、動作可能な3D表面結像再構築システムの簡略半絵半ブロック図である。
図1のシステムでは、位置決めアセンブリ10は、それぞれが少なくとも2通りの、好ましくは少なくとも3通りの観点から見て、所定のシーケンスで結合すべき注目物体の一部分同士がオーバラップするように注目物体20の一部分と光学ヘッド30とがオーバラップするように、相対的に大きく光学的にテクスチャを付けた注目物体20と光学ヘッド30との相対運動を行うように動作可能である。このような各オーバラップ部分から物体の表面の一部分が再構築され、このように再構築された部分は好ましくはその後、“スティッチ”され、物体の表面全体または表面全体のうち見えた部分または注目部分のいずれかからなる統一再構築が形成される。テクスチャ付き表面は、スティッチに“向きの手がかり”を提供することにより、再構築した個々の表面部分をスティッチして単一の再構築化表面の形成を容易にする。
位置決めアセンブリ10は好ましくは、光学ヘッド30とそれにより結像すべき注目物体20との相対位置決めのために合計6自由度を提供する。
本発明の好ましい実施形態によれば、光学ヘッド30は、マスト33上に取り付けられた取付けアーム34上に選択可能な方式でしかも軸32の周りを回転可能な方式で位置決めされ、マスト33内に定義される垂直軸36に沿って選択可能な方式で上下することができる。マストは、固定ベース42に対して、それぞれ相互に垂直なX軸38およびY軸40に沿って水平に移動することができる。
物体サポートアセンブリ44は、ベース42に対して固定され、垂直軸46に沿って垂直にしかも軸46の周りを回転可能なやり方で注目物体を位置決めする物体サポート45を含む。
電気モータ(図示せず)あるいは他の適当な位置決め駆動装置は、光学ヘッド30および注目物体を前述の6自由度内で互いに対して位置決めするように動作可能である。
本発明の好ましい実施形態によれば、複数のテクスチャ生成器48が物体サポート45に固定され、それにきわめて接近して配置されており、そのテクスチャ生成器は注目物体20上にテクスチャパターンを投影するように動作可能である。本発明の特定の特徴は、光学ヘッド30によるその結像中の間、テクスチャ付きパターンが注目物体に対して精密に固定された関係を維持することである。スケーリング物体50は、後述するように、テンソルベースのスケーリングを実行するために使用することができる。
本発明の他の特定の特徴は、従来技術とは対照的に、構造光ではなく未構造光を使用して物体上にテクスチャを作成し、個々の画像内の対応する特徴を検出しやすくすることである。
光学ヘッド30と注目物体20との相対位置決めの制御は、通常はパーソナルコンピュータ内に実現される捕捉制御ユニット62の一部を形成する動き制御装置60によって行われる。この動き制御装置は、Silicon Graphicsのワークステーションなどのワークステーション66内に実現される経路計画(path planning)モジュール64から出力を受け取る。経路計画モジュール64は、適当なユーザインタフェース67を介してユーザ入力に応答し、その代わりにまたはそれに加えてワークステーション66に供給可能なCADファイル68の出力に応答する。
光学ヘッド30への操作入力は画像捕捉回路70によって供給され、光学ヘッド30からの画像出力は画像捕捉回路70に供給されるが、その画像捕捉回路は、経路計画モジュール64から入力を受け取り、ワークステーション66内に実現されるテンソルベースの3D表面再構築モジュール72に出力を供給する。また、モジュール72は、CADファイル68から入力を受け取り、注目物体を表す雲状ポイント(cloud of points)または雲状ポイントとCADファイル68との比較の結果を供給する。
また、照明制御回路76も、経路計画モジュール64から入力を受け取り、テクスチャ生成器48に出力を供給する。
本明細書では、“光学テクスチャ”という用語は、表面の不均一な光学特性を意味するために使用する。光学テクスチャは、表面上に光学パターンを投影することにより、光学手段によって生成することができ、あるいは表面粗さまたは表面の色の変化などの表面特性による場合もある。
次に図2を参照すると、同図は、本発明の好ましい実施形態により構築され、動作可能な光学ヘッドの好ましい実施形態を示している。この光学ヘッドは、その上に複数のカメラ104が取り付けられたシャシ102を含み、そのカメラは通常は3つであり、好ましくはすべて共通の点に焦点が合っている。カメラ104はそれぞれ、CCDカメラなど、適当なタイプの電子カメラにすることができる。
本発明の好ましい実施形態によれば、シャシ102上には、カメラ104によって見ている注目物体の諸領域上に補助テクスチャを投影するためのプロジェクタ106も取り付けられている。プロジェクタは、その構成のために、テクスチャ生成器90によって設けた投影テクスチャが欠落している物体の諸領域を見ることが望ましい場合に有用である。
また、本発明の好ましい実施形態により、照明ランプ108も設けられている。このランプは、通常、テクスチャ生成器90によって生成されたテクスチャを使用して画像の自動“スティッチ”が行われるシステムの自動動作中には使用しないが、手動経路計画モードでシステムを操作するためには有用である。
次に図3を参照すると、同図は、図1のシステムで使用するテクスチャ生成器の一部を形成する照明モジュール120の簡略断面図である。通常、各テクスチャ生成器90は複数の照明モジュール120を使用し、その照明モジュールはそれぞれ、注目物体上に固定ランダムテクスチャパターンを投影するように動作可能である。
ただし、注目物体上のランダムテクスチャパターンの位置がそれに対して固定されるように、テクスチャ生成器90は注目物体に対して固定されていることに留意されたい。通常、注目物体の所与の領域は、複数のテクスチャ生成器90からその上にテクスチャパターンがすでに投影されている可能性がある。このため、広い照明到達範囲角度が得られ、様々な表面の向きをより適切に照らすことになる。さらに、テクスチャパターンのランダム性のため、これは本発明のシステムの動作に干渉または影響することはない。
各照明モジュール120は、通常、機械的取付けハウジング122を含み、その一方の端部には単一モードレーザダイオード124が設けられ、もう一方の端部にはホログラフィ拡散器126が設けられている。レーザダイオード124とホログラフィ拡散器126の中間には集束レンズ128が配置されている。レーザダイオード出力がホログラフィ拡散器126に衝突すると、拡散器は注目物体上に投影されるスペックルを生成し、したがって、ランダムパターンでその物体を効果的に“ペイント”する。光学ヘッド30によってその物体を見ている間に照明モジュール120と注目物体との相対運動は実際にはまったく発生せず、したがって、ランダムパターンは注目物体上の基準パターンとして機能することができ、高精度でその別々の画像の“スティッチ”を可能にすることは重要なことである。
注目物体上に投影された個々のパターンスポットの平均サイズは、レーザダイオード124および拡散器126に対するレンズ128の光学パワーおよび位置によって決定することができる。注目物体上での投影の成角およびその強度分布の制御を可能にするので、ホログラフィ拡散器を使用することが好ましい。また、それにより、テクスチャパターンは空間周波数が変動するパターンで構成することができる。
図12A〜図12Fに関連して後述するように、周波数が変動するパターン成分を使用すると、最初に低周波パターンを使用して“対応プロセス”を行い、高周波パターンを使用してより高精度へと進化することができる。
スペックル生成拡散器を使用することは本発明の特定の特徴である。このような拡散器は、結像技法に基づく既存のテクスチャ投影システムとは対照的に、微細パターンと大きい被写界深度を提供しながらその上にスペックルを投影すべき注目物体から比較的短距離のところで使用することができる。
好ましくは、スペックル生成拡散器は2次元ランダム回折格子である。本発明の好ましい実施形態によれば、この拡散器は、所望の全体パターン構成を提供するホログラフィ光成形拡散器である。たとえば、ホログラフィ光成形拡散器は、矩形の全体スペックルパターンを提供するために使用することができる。
このようにスペックルを使用するのは、注目物体上にレーザビームが直接衝突するとスペックルがその上に生成される従来技術のスペックル計測法とは区別するためである。従来技術では、それから使用される角度の関数として変化するスペックルパターンを生成する。本発明では、スペックルパターンはそれから見られる角度に対して不変でなければならない。
次に図15を参照すると、同図は、図1のテンソルベースの3D表面再構築モジュール50のための好ましい操作方法を記載したものである。図15の方法は、本発明の好ましい実施形態により物体の3D表面構造を再構築するように動作可能であり、以下のステージを含む。
ステージ604: それに沿って物体の結像器(imager)が前進する結像経路を生成する。通常、画像がスティッチされる順序は結像経路に基づくものである。
ステージ610: テンソルデータを生成することにより、3D表面構造再構築プロセスのためのスケーリングを行う。
ステージ620: 注目物体を結像する。
ステージ630: ローカル3D表面構造再構築
ステージ640: 再構築したローカル3D表面構造をスティッチし、注目物体のための完全実際表面構造を形成する。
ステージ640で生成された完全実際表面構造は、別々にまたは組み合わせて実施可能なステージ650〜720の応用例を含みかつそれに限定されない幅広いの種類の応用例で有用である。このような応用例について次に説明する。
ステージ650: 注目物体の実際の表面構造を所望の表面構造と比較する。通常、所望の表面構造はCADモデルによって定義され、この比較プロセスは、実際の構造と所望の構造を位置合わせし、各再構築化ポイントとCAD表面との距離を計算することによって行われる。この距離は本明細書では“再構築化ポイントの偏差”ともいう。
あるいは、所望の表面構造は“金製部品”によって定義され、図15のプロセスは金製部品と、その金製部品に類似させるべき注目物体について、別々に行われる。結果として得られる2つの雲状ポイントは位置合わせされ、次に、1つの雲内の各個々のポイントについて以下のステップを実行することによって比較される。
a.個々のポイントに最も近い、他の雲内の所定の数のポイント(通常は3〜6つのポイント)を選択する。
b.これらのポイントに近い、平面などの幾何表面を生成する。
c.この幾何表面から個々のポイントまでの距離を計算する。この距離は本明細書では“個々の再構築化ポイントの偏差”ともいう。
目視検査を使用する応用例では、各再構築化ポイントは好ましくはその偏差に基づいて着色されている。たとえば、濃い色調は偏差が大きいポイントを意味し、淡い色調は偏差が小さいポイントを意味する。あるいは、異なる色を使用して、異なる範囲の偏差を示すこともできる。
ステージ650は、実際の生産出力に基づいて金型またはその他の製造工具を補正する工具補正応用例(ステージ660)、品質管理応用例(ステージ670)などの応用例の前段階である。
あるいは、たとえば、ステージ680〜720の応用例のうちの1つが対象になる場合、ステージ650は省略することができる。
ステージ680は、スティッチステージ640の出力に基づいて、物体のCAD表面のCADモデルを生成する。このプロセスは、ミシガン州アナーバーのImage Ware Corp.から販売されているSurfacerなどの市販の適当な工具を使用して実施することができる。
このステージは、CADモデルを使用して、たとえば、青写真を作成し、それに基づいて製造することにより、リバースエンジニアリングを行った物体の複製を製造する、リバースエンジニアリング応用例(ステージ690)などの応用例の前段階である。他の応用例は、設計プロセス中にその粘土モデルなど、物体の物理的モデルが設計者によって作成される、設計改良である。物理的粘土モデルのCADモデルを生成して分析し、その分析の結果を使用して物体の設計を改良する。
スティッチステージ640の出力は、米国カリフォルニア州バレンシアの3DSystems Inc.が製造したSLA−190モデルなどの適当な高速プロトタイプマシンを使用する高速プロトタイプ手順用の入力として使用することができる。高速プロトタイプは、潜在的な製品のプロトタイプの高速生成や、娯楽産業、観光業界、記念品産業、たとえば、顧客の上半身などの目新しい商品の生成など、幅広い種類の分野で有用である。
ステージ714では、ステージ640で生成した雲状ポイントに着色する。雲内の各ポイントに割り当てられる色は、注目実際の物体内のそのポイントに対応する位置の元の色である。好ましくは、従来の表面補間は、連続着色表面を生成するためにすべてのポイントについて行われる。適当な表面補間技法については、1981〜1982年に発行されたW.E.L.GrimsonによるMITPressの書籍に記載されている。
結果として得られる着色雲は、たとえば、マルチメディア応用例、教育ソフト、コンピュータ化されたカタログ、コンピュータゲームまたはビデオゲームに挿入するために、リアルな3Dグラフィックモデルとして表示することができる。着色雲は、その自然のテクスチャを使用して表示することができ、あるいは金属的テクスチャなどの人為的効果を発生するように変更することができる。着色雲は、3Dアニメーション映画または従来の映画の特殊効果などの娯楽目的のためにアニメーション化する(ステップ720)ことができる。ステージ604〜640のそれぞれについて次に説明する。
ステージ604: 経路計画
このステージは、通常、図1の経路計画モジュール80によって行われる。経路計画モジュール80は好ましくは、以下の3つの出力を生成する。
出力1: 測定中の物体の一部分に対応する1組の“パッチ”。各パッチは、前記一部分のオーバラップ画像のトリプレットと、そこからロボットが画像トリプレットを生成した位置とを含む。
出力2: 複数のパッチ対のシーケンス。第1のパッチ対を除く各パッチ対内の2つのパッチは、2つの画像トリプレット内の対応する画像のうちの1つ、2つまたは好ましくは3つすべてがオーバラップするという意味でオーバラップする。第1の対のパッチは、左側の宛先パッチと、“スティッチ”操作を使用して同じシーケンス内の残りのパッチにより宛先パッチにスティッチするための右側のソースパッチとを含む。
セット内の各パッチは、少なくとも1つのシーケンス内のソースパッチとして現れなければならない。
出力3: スティッチ操作によって各隣接対のパッチ間の変換がすでに計算されていることを特徴とする、複数のパッチのシーケンス。これによって、一連の変換シーケンスが生成される。このシーケンス内の最後のパッチは、その変換シーケンスの複合変換を計算することにより、そのシーケンスの第1のパッチに変換することができる。
経路計画モジュール80によって実行される経路計画プロセスは、以下の3つのステップを含む。
ステップ810−−出力1のタイリングおよび生成
ステップ820−−スティッチグラフを作成する
ステップ830−−スティッチグラフを走査し、経路自体を含む出力1〜3を生成する
上記の各ステップについて次に説明する。
ステップ810−−タイリング: 経路計画モジュール80は好ましくは、測定すべき物体の一部分をいっしょにカバーするオーバラップ画像のシーケンスを作成するために、結像すべき物体のオーバラップ部分を選択するようユーザにプロンプト指示する対話型ソフトウェアモジュールを含む。次にユーザは、作成したすべてのシーケンスがこのプロセスの終わりに接続されるように、自分が作成した隣接シーケンスを接続する。ロボット目視位置およびその実行順序は、出力1を生成するこのステップで定義される。
オーバラップする隣接物体部分の画像対のリストを獲得する方法はいくつか可能である。検査すべき物体のCADモデル70が存在する場合、“CADモデル使用可能”モードで動作する経路計画モジュール80は好ましくは、経路をCADモデルに重ね合わせ、どちらの画像対が隣接しオーバラップする物体部分に関係するかを決定するように動作可能である。いずれのCADモデル70も存在しない場合、“CADモデル使用不能”モードで動作する経路計画モジュールは好ましくは、物体が結像されたロボット位置を記録し、したがって、どちらの画像対が隣接しオーバラップする物体部分に関係するかを決定することができる。結像が手動で行われる場合、人間のオペレータは好ましくは、どちらの画像対が隣接しオーバラップする物体部分に関係するかに関する手動入力を行えるように動作可能である。
ステップ820−−スティッチグラフを作成する:
本明細書で“スティッチグラフ”と呼ばれるグラフを作成するが、そのグラフでは、各ノードが一連の部分オーバラップ画像トリプレットであり、ノードvにおける少なくとも1つのパッチがノードuにおける少なくとも1つのパッチに部分的にオーバラップする場合にグラフの1対のノードvおよびuが1つの辺によって接続されている。
ステップ830−−スティッチグラフを走査し、経路自体を含む出力1〜3を生成する:
ステップ820で生成したスティッチグラフを系統的に走査して、未処理(すなわち、隣接するものにまだスティッチされていない)画像シーケンスを求める。好ましくは幅優先検索(breadth−first search)などの適当な検索方式を使用することができる。求めた第1の未処理シーケンス内の第1の画像トリプレット(“パッチ”)は“ベース”という。そのシーケンス内のすべてのパッチはベースにスティッチされる。求めた各後続未処理シーケンスは、すでに処理された隣接するもの(すなわち、辺によってそのシーケンスに接続されたノード)にスティッチされる。このプロセスの出力は以下のものを含む。
それぞれがシーケンス内の各パッチとベースとの間のスティッチを記述する、出力2の複数の線と、
出力2の上記のフォーマットを使用する場合に2つのシーケンス間のスティッチを記述する、出力2の単一の線と、
出力3の上記のフォーマットを使用する場合の出力3の単一の線である。この線は、現行シーケンスからベースの座標系への変換の計算を記述するものである。
ステージ610: テンソルデータを生成することによる3D表面構造再構築プロセスの較正
ステージ610は、図16に示すように、以下のステップを含む。
a.ステップ700: スケーリング物体を結像する−−スケーリング物体の2D画像のトリプレットを生成する。このトリプレットは、スケーリング物体の本質的に同じ部分の3つのビューを含む。スケーリング物体は、テクスチャが付けられ、複数(通常は、少なくとも5つ)の既知のポイントフィーチャを含むことを特徴とする。“既知のポイントフィーチャ”という用語は、コーナーまたは円の中心など、手動または自動のいずれかで容易に識別可能であり、既知の(x,y,z)位置に発生するポイントフィーチャである。好ましいスケーリング物体については図19〜図21に示す。
具体的には、図19は、好ましいスケーリング物体の写真である。図示の通り、図19は、2通りの高度レベル、すなわち、高レベルと低レベルにある複数の精密に製造した穴を含む。通常、この穴は、高レベル穴と低レベル穴が交互に“チェッカーボード”のフォーマット状に並んでいるグリッドとして配置される。スケーリング物体の表面は、表面の高度を高レベルから低レベルに低減し、通常は隣接低レベル穴が検出される直前に低レベルに達するように、各高レベル穴の周りに形成された複数のほぼ円錐形の部分を含む。
図20は、図19のスケーリング物体の前段階を示す等角投影図であり、それらを接続する表面なしに2通りのレベルの穴のみを示している。図21は、図20の線XXI−XXIに沿って示す断面図である。
b.ステップ710: ステップ760に関連して後述するように、画像トリプレットの第1の画像内の“コーナー”表面ポイントを求める。第1の画像内の各“コーナー”表面ポイントごとに、残りの2つのスケーリング画像内の対応する位置を識別する。スケーリング物体が不連続表面を有する場合、ポイントフィーチャ検出が行われる。あるいは、連続するか否かにかかわらず、スケーリング物体内の対応する位置を手動で識別することもできる。ステップ(b)の出力は、1組の対応する位置のトリプレットであり、通常は少なくとも7つのトリプレットである。対応する位置は必ずしも既知のポイントフィーチャではない。
c.ステップ720: ステップ(b)の出力を使用して、テンソルを作成する。対応する位置のトリプレットからテンソルを作成するための好ましい方法については、同時係属の米国特許出願第08/497224号に記載されている。
d.ステップ730: ステップ(a)で生成された3つのビューのそれぞれにおける既知のポイントフィーチャの位置を識別し、それにより、対応する位置の複数のトリプレット、通常は対応する位置の少なくとも5つのトリプレットをを生成する。特定の既知のポイントフィーチャの2D位置からなる各トリプレットをそのポイントフィーチャの既知の3D位置に関連付ける。
ポイントフィーチャの既知の3D位置は外部に供給される。ステップ(d)は手動で実行することもできる。
ステップ(d)の出力は、それぞれ少なくとも5つの既知のポイントフィーチャに関する少なくとも5つの情報ユニットであり、各情報ユニットは、ステップ(a)で生成された3つのスケーリングビューのそれぞれにおけるそのポイントフィーチャの3D位置とそのポイントフィーチャの2D位置とを含む。
あるいは、一方がテクスチャ付きであり、もう一方が複数の既知のポイントフィーチャを含む、2つのスケーリング物体を使用することができる。ステップ(b)および(c)は、テクスチャ付きの第1のスケーリング物体について実行される。ステップ(d)は、複数の既知のポイントフィーチャを含む第2のスケーリング物体について実行される。第1のスケーリング物体は、たとえば、注目物体そのものにすることができる。第2のスケーリング物体は、連続表面または不連続表面のいずれかを有する場合がある。カメラのトリプレット間の固定した同じ向きを使用して、2つのスケーリング物体のそれぞれについて2D画像のトリプレットが生成される。
e.ステップ740: スケーリングデータの一部が通常はステップ(c)で計算したテンソルの識別コードになるので本明細書では“テンソルデータ”ともいうスケーリングデータを生成するために、ステップ(d)の出力とステップ(c)で生成されたテンソルとを使用する。ステップ740を実行するための好ましい方法については、同時係属の米国特許出願第08/497224号および第08/787345号と、米国特許第5598515号に記載されている。テンソルデータは好ましくは、テンソル自体は別として、投影座標からユークリッド座標への変換、基本マトリックス、エピポールを含む。
ステージ620: 注目物体の結像
ステージ620は以下のステップfを含む。
f.ステップ750: 注目物体の結像−−物体の表面の少なくとも一部分の2D画像の複数のトリプレットを生成する。各トリプレットは、物体の表面の本質的に同じ一部分の3つのビューを含む。
複数のトリプレットは通常、注目区域全体をカバーし、隣接トリプレット同士のオーバラップが発生する。たとえば、物体の表面全体が対象になる場合、トリプレットは通常、表面全体をカバーし、オーバラップが発生する。
ステージ610および620用に各トリプレットの画像を生成するには、3台のカメラが本質的に同じ区域を結像するように、ベース上に固定して取り付けられた“写真”出力を備えた3台のディジタルカメラなど、相互の向きが一定の従来のカメラの可動トリプレットを使用することができる。1つまたは複数のスケーリング物体を結像し、注目物体を結像するために、相互の向きが同じカメラを使用する。カメラトリプレットの可動性は、物体の一連のオーバラップ部分が結像されるように、ベースとカメラを携帯して物体の周りを移動し、物体を繰り返し結像する人間のオペレータによってもたらされる場合もある。物体に光学的にテクスチャが付けられていない場合、たとえば、物体に手動でスペックルを付けることによって、光学テクスチャが人工的に施される。人間のオペレータは、自分の動きを監視し、どのトリプレットがオーバラップするかを手動で記録する。
本発明の一実施形態で使用する“写真”ファイルフォーマット出力については後述する。
あるいは、ステップ(a)および(b)用の画像トリプレットは、物体に光学的にテクスチャが付けられていない場合に光学テクスチャ付けサブシステムを含む、本明細書に示し記載する結像装置を使用することによって得られる。
ステップ(f)では、カメラの固定した相互の向きは、スケーリングステップ(a)で使用するカメラの相互の向きと同じである。ステップ(f)で使用する各カメラの焦点距離および口径はステップ(a)で使用する同じカメラの焦点距離および口径と同じである。
あるいは、ステージ620およびすべての後続ステージでは、2D画像のトリプレットは、それぞれが物体の表面の同じ部分の2つのビューのみを含む、2D画像の対で置き換えることができる。
ステージ630: ローカル3D表面構造再構築
ローカル再構築−−各画像トリプレットごとに、すなわち、注目物体の特定の部分の3つの画像ごとに、その物体部分の3D表面構造を再構築する。
図17に示すように、ステージ630は、各画像トリプレットごとに以下のステップを実行することを含む。
g.ステップ760: 画像トリプレット内の1つの画像における“コーナー”表面ポイントを求める。
h.ステップ770: 画像トリプレット内の残りの2つの画像における対応するポイントを求める。
i.ステップ780: 投影再構築により3D表面ポイントを計算する。
j.ステップ790: 3D表面ポイントをユークリッド座標にマッピングする。
単一の画像トリプレットについて、上記の4つのステップを次に説明する。
g.ステップ760: 画像トリプレット内の1つの画像における“コーナー”表面ポイントを求める−−
本明細書では“良好なポイント”ともいうコーナーポイントは、表面の3つの次元のうちの複数に沿って勾配の変化が発生している表面位置である。
ステップ760“良好なポイントを求める”を実行するための好ましい方法については後述する。
h.ステップ770: 画像トリプレット内の残りの2つの画像における対応するポイントを求める−−このステップを実行するための好ましい方法については以下の“対応の記述”で説明する。この方法は、各画像を平滑化し、デシメートするために使用する錐体を構築することを含む。図12Aに示す画像に錐体構築プロセスを適用し、それにより、5レベル錐体を生成した結果のシミュレーションを図12B〜図12Fに示すが、これらの図は錐体の第1〜第5レベルを示す図である。
ステップ(i)および(j)を実行するための好ましい方法については、イスラエル特許出願第113496号と、同時係属の米国特許出願第08/497224号および第08/787345号と、米国特許第5598515号に記載されている。
ステップ(j)の出力は、ユークリッド座標で表した1組の3D表面ポイントである。
任意選択で、以下の“測定ノイズを除去するための方法”で説明するように、域外の3D表面ポイントを取り除くために、上記の方法によって生成された3D表面ポイントを分析する。
ステージ640: 再構築したローカル3D表面構造をスティッチし、注目物体のための完全実際表面構造を形成する
スティッチプロセスへの入力は、経路計画モジュールからの出力2および3である。図18に示す1対の部分オーバラップパッチについてスティッチプロセスを実行するための方法については、以下の“2Dスティッチ”に詳述する。
一般に、スティッチプロセスは、以下の2つのステップを含む。
ステップj−−出力2に指定された画像の各対ごとに、その対内の第1および第2の画像トリプレットからそれぞれ再構築した第1の表面部分と第2の表面部分との回転かつ並進3D変換を計算する。
ステップk−−それぞれの表面部分についてステップ(j)で計算した変換を操作することにより、再構築した表面部分を位置合わせして単一平面を形成する。
ステップ(j)は好ましくは、各画像トリプレット内に結像した物体の部分同士の近似空間関係を識別する外部入力を頼りにする。この入力は、図1の経路計画モジュール80によって供給されるかまたはロボット10の実際の動きに関する情報を含む場合があり、その情報はロボットのエンコーダによって生成され、かつ/あるいはオーバラップする隣接物体部分の画像に発生する特徴を識別することにより地理的関係を識別する人間のオペレータが生成した情報を含む場合もある。あるいは、空間関係に関する外部入力はまったく供給されない。
ステップk−−前述のように、ステップkは、それぞれの表面部分についてステップ(j)で計算した変換を操作することにより、再構築した表面部分を位置合わせして単一平面を形成することを含む。
ステージ650: 注目物体の実際の表面構造を所望の表面構造と比較する
l.実際の表面構造を所望の表面構造に位置合わせする−−このプロセス用の座標変換は好ましくは、その上に注目物体20(図1)が設置され、物体のCADモデルに対するその3D位置が分かっているベース(図示せず)に接続された、少なくとも3つの好ましくは球形の位置合せ物体(図示せず)を結像することによって生成される。位置合せ物体が球形である場合、その位置はその中心の位置によって決定される。この位置合せ物体は、米国特許出願第08/497224号に記載されている方法を使用して再構築され、その物体の残りの部分に“スティッチ”される。球形再構築の座標系とCADモデルの座標系との変換は、Gene H.ColubおよびCharles F.Van LoanによるMatrix Computationsの第2版の582ページ(John Hopkins University Press、1989年)に記載されている方法などの既知の方法を使用して計算される。この変換は、実際の表面構造と所望の表面構造を位置合わせするように機能する。
m.実際の表面構造と所望の表面構造との偏差を識別する−−好ましくは、このステップは以下のように実行される。物体の各再構築化ポイントごとに、CADモデルにおける最も近いかまたはほぼ最も近いパッチを求め、反復ニュートン−ラフソン手順により、“最も近いポイント”すなわち現行の再構築化ポイントに最も近いかまたはほぼ最も近いパッチ上のポイントを求める。最も近いポイントと再構築化ポイントとの距離を計算する。好ましくは、求めた偏差は、色分け、たとえば、様々な範囲内の距離を表すための様々な色の使用によって表示される。
ステージ650は、ステージ610〜640の出力用として可能な唯一の応用例であることに留意されたい。あるいは、たとえば、ステージ610〜640の出力はリバースエンジニアリングに使用することができる。
また、本発明のソフトウェア構成要素は、望ましい場合、ROM(読取り専用メモリ)の形で実現できることに留意されたい。ソフトウェア構成要素は一般に、望ましい場合、従来の技法を使用してハードウェアで実現される。
図4〜図14Cに関連して、本発明の動作について一般的に説明する。
図4は、図1のシステムを使用して結像可能な典型的な3次元物体を示している。この場合、3次元物体は自動車のスケールモデルであり、光学ヘッド30によって一度にその全体が見えるほど十分小さいものである。図5は、本発明の好ましい実施形態によりその表面上に投影されるスペックルを有する、図4の3次元物体を示している。
本発明のシステムは、図4および図5の3次元物体に対応する雲状ポイントを生成するように動作可能である。この雲状ポイントについては図6に示す。この組上ポイントは、図4および図5の物体の3次元表現である。
図7は、図1のシステムを使用して結像可能な他の典型的な3次元物体を示している。この3次元物体は、たとえば、車両のバンパーであり、大きすぎて光学ヘッド30によってその全体を見ることができない。図8は、本発明の好ましい実施形態によりその表面上のテクスチャ上にペイントした図7の3次元物体を示している。このペイント済みテクスチャは、本発明の好ましい実施形態により提供される投影スペックルテクスチャパターンのシミュレーションとして提示される。
図9は、図7および図8の3次元物体に対応し、図1のシステムによって生成される雲状ポイントを示している。
本発明の好ましい実施形態によれば、図1のシステムは、図9の雲状ポイントを同じ物体用の対応するCADファイルと比較するように動作可能である。図7の物体の典型的なCADモデルは、図10A(ワイヤフレーム)および図10B(立体モデル)に示されており、その物体用のCADファイルを表している。
図11は、図7の物体の3次元表現と図10A〜図10BのそのCADモデルとの偏差を示す図である。
図12A〜図12Fは、ステップ770の対応ポイント検出プロセスの一部を形成する錐体構築プロセスのシミュレーションである。
図13Aおよび図13Bは、図8のテクスチャを有する図7の物体上の隣接区域の2つの部分的にオーバラップする画像である。
図14Aおよび図14Bは、図12Aおよび図12Bの画像に対応し、本発明のシステムによって生成される雲状ポイントの一部分である。
図14Cは、図12Aおよび図12Bの画像の“スティッチ済み”表現を表す、2つの結合した雲状ポイントの組合せである。
明瞭にするために別々の実施形態に関連して説明した本発明の様々な特徴は、単一の実施形態において組み合わせて提供することもできることに留意されたい。これに対して、簡潔にするために単一の実施形態に関連して説明した本発明の様々な特徴は、別々にまたは特定の補助的組合せにおいて提供することもできる。
対応の記述
問題: 3D物体の2つの画像の場合、その2つの画像間のピクセル対ピクセルの対応(一致)を求める。
解法: 粗大から微細へ(階層的に)実現したローカル移動の5×5領域の平方和階差(SSD:Sum of Squares Difference)の1次テイラー展開に基づく微分法を使用する。f(x,y)およびg(x,y)は2つの画像を示し、fx(x,y)およびfy(x,y)はx,yにおけるfの勾配の成分を示すものとする。オーバラップする小さい領域(たとえば、5×5のウィンドウ)内のx,yについて
Figure 0004195096
が最小になるようにu,vが最適変換である場合、以下の微分方程式
ufx+vfy+(f-g)=0 (1)
は、すべての位置x,yで成り立たなければならない。式(1)は、
Figure 0004195096
を計算することにより、u,vについて最小にすることができ、式中、ft=f−gである。式(1)中のu,vはMz=tという線形系の式の解であり、式中、“M”はマトリックス
Figure 0004195096
“z”はベクトル
Figure 0004195096
“t”はベクトル
Figure 0004195096
である。u,vの最適化は、周囲のk×kのウィンドウを使用するすべてのピクセルに適用される(ただし、“k”は好ましくは5に対応するが、他の値を使用することもできる)。すべてのx,y位置でu,vが求められると、すなわち、変位フィールドu(x,y)およびv(x,y)が得られると、変位フィールドを使用して画像fおよびgを位置合わせし(“ゆがませ”)、プロセスを繰り返す(それにより、ニュートン−ラフソン反復最適化を実行し、fとgとのSSDを最適化するu,vを求めることになる)。
パフォーマンスを改善するため、特に大きい画像変位に沿って、粗大から微細へ反復を適用する。これは、各画像をそれぞれが周波数範囲(低周波から高周波へ)を表す一連の画像に分割することによって行うことができる。その場合、k×kのウィンドウのサイズは、低周波の場合は増加し、高周波の場合は減少する。同様に、画像を平滑化しデシメートして、反転錐体を作成することができる。この錐体の低い方のレベルは高周波成分を表し、高い方のレベル(より小さい画像)は低周波成分を表す。反復は、錐体の最高レベル(画像の最も粗大な表現)から始まり、その詳細レベルにとって最適の変位フィールドを生成する。次に変位レベルを増幅し、錐体内の1レベル下のレベル(より詳細なレベルを表す)に適用し、そのレベルにとって最適の変位フィールドをもう一度生成するために反復を続行する。このプロセスは、錐体の最低レベルに到達するまで続行する。
遠距離対応(Far−Correspondence)の記述
問題: 3D物体の2つの画像の場合、画像空間内のオーバラップの量を求める、すなわち、その2つの画像間のオーバラップ画像情報を位置合わせする水平変換および垂直変換の大きさu,vを求める。
解法: 2つの画像の平方和階差(SSD)の1次テイラー展開に基づく微分法を使用する。f(x,y)およびg(x,y)は2つの画像を示し、fx(x,y)およびfy(x,y)はx,yにおけるfの勾配の成分を示すものとする。オーバラップ領域内のx,yについて
Figure 0004195096
が最小になるようにu,vが最適変換である場合、以下の微分方程式
ufx+vfy+(f-g)=0 (2)
は、すべての位置x,yで成り立たなければならない。式(2)は、
Figure 0004195096
を計算することにより、u,vについて最小にすることができ、式中、ft=f−gである。式(2)中のu,vはMz=tという線形系の式の解であり、式中、“M”はマトリックス
Figure 0004195096
“z”はベクトル
Figure 0004195096
“t”はベクトル
Figure 0004195096
である。この最適化基準を反復することにより、ニュートン−ラフソン反復最適化を実行し、fとgとのSSDを最適化するu,vを求めることになる。
良好なポイントを求める
問題: 1つの画像の場合、他の画像内の良好な一致を有する可能性のあるポイント、すなわち、そのローカル強度分布が“コーナー”に類似するポイントの位置(x,y位置)を求める。
解法: そのローカル強度変動が非常に低い(平らな強度プロファイル)かまたはそのローカル変動が直線の形状になっているポイントを消去することが好ましい。f(x,y)はその画像の強度マップを示し、fx(x,y)およびfy(x,y)はx,yにおけるfの勾配の成分を示すものとする。成分
Figure 0004195096
を有するポイントx,yについて2×2のマトリックスMが定義され、その総和がそのポイント周辺のローカル領域におけるものである場合、そのポイントが“良好なポイント”である場合のみ、マトリックスMの階数は値2である。階数2の基準は、マトリックスMの2つの固有値の相対規模を検討することによって実施される。固有値同士の割合が1に近く、小さい方の固有値の値がオペレータによって設定可能な所定のしきい値を上回る場合、そのポイントは“良好”と見なされる。この基準は好ましくはfのすべてのポイントx,yについて実施され、その基準を満たすポイントだけが良好なポイントと見なされる。
2次元スティッチ
問題: 2組の画像が存在すると想定する。第1の組の画像、すなわち、画像A0、A1、A2はある場面のパッチAに対応し、第2の組の画像、すなわち、画像B0、B1、B2はある場面のパッチBに対応する。さらに、パッチAとBがその場面で少なくともある程度はオーバラップすると想定する。両方の組の画像が同じカメラ構成で取られた場合、再構築プロセスでこれらの画像に同じ3線テンソルを適用して、その場面内の3D再構築ポイントを求めることができる(前述のイスラエル特許出願第113496号および米国特許出願第08/497224号(その開示は1996年10月31日に発行された国際公開WO96/34365号に対応する)を参照のこと)。すなわち、{pi,p’i,p”iiがそれぞれ第1の組の画像A0、A1、A2内の対応ポイントである場合、しかも、{qj,q’j,q”jjがそれぞれ第2の組の画像B0、B1、B2内の対応ポイントである場合、どのような3つ組{pi,p’i,p”iiについても同じ3線テンソルを使用して、その場面内の3D再構築化ポイントPiを求めることができ、同様にどのような3つ組{qj,q’j,q”jjについてもその場面内の3D再構築化ポイントQiを求めることができる。その目的は、画像A0、A1、A2、B0、B1、B2を使用して、3D再構築化ポイント{Piiを3D再構築化ポイント{Qjjに位置合わせすることである。
解法: 第1のステップは、第1の組の第1の画像A0と第2の組の第1の画像B0との稠密な対応を決定することである。特に、画像A0内のポイントであって、パッチAおよびBの共通部分に現れる任意のポイントpiの場合、対応対{pi,qi}が得られる。この第1のステップを実行するための好ましい方法は、以下のステップを含む。
(a)前述の“遠距離対応の記述”の方法を使用して優性変換を求める。
(b)前述の“対応の記述”の方法を使用して残りの変位を求める。
iを求めた後、前述の“対応の記述”の方法を使用して画像B1およびB2内のq’iおよびq”iを求める。画像A0内のポイントpiがパッチA内のポイントPiに対応する場合、トリプレット{qi,q’i,q”i}は同じポイントPiに対応する。
その後、3DポイントQiを再構築するために3線テンソルを適用する。ただし、独立した2組の3Dポイントが存在した最初の状況とは異なり、現在では、実際には2通りの座標系、すなわち、第1の組の画像A0、A1、A2を記録するために使用したカメラ構成に関連する第1の座標系と、第2の組の画像B0、B1、B2を記録するために使用したカメラ構成に関連する第2の座標系において同じ組の3Dポイントを表す2組の3Dポイントが存在し、第1の座標系を第2の座標系に関連付けるための変換を求めることが望ましいことに留意されたい。特に、2組の3Dポイント{Piiおよび{Qjjの場合、
Figure 0004195096
を最小にする回転“R”と並進(translation)“t”を含む変換が生成される。その操作では並進“t”を消去することができる。というのは、回転“R”を求めた後、適切な並進は単にQ′−RP′にすぎず、P′がポイント{Piiにおける平均であり、Q′がポイント{Qjjにおける平均であることは明白であるからである。また、その平均P′およびQ′を生成した後、新しいポイントの組{Pi−P′}iおよび{Qj−Q′}jを取り入れた場合、これらの組のそれぞれの中心は原点であり、このため、ある組を他の組にマッピングするための最良変換は単に回転のみを必要とする。組{Pi−P′}iと{Qj−Q′}jとの間の回転Rを生成するために既知のアルゴリズムを使用することができ、たとえば、Gene H.GolubおよびCharles F.VanLoanによる“Matrix Computations”(第2版)(Johns Hopkins University Press、1989年)の582ページを参照のこと。
測定ノイズを除去するための方法
問題: 2つの画像間の一致対のリストまたはセットの場合、アウトライアを除去する。
解法: いくつかの例示的な方法がある。
1.3D平滑性の仮定: 一致ポイントを使用し、対応する3Dポイントの3D座標を再構築する。表面形状が平滑でり、曲率が低いと想定した場合、すべてのポイントPについて、隣接ローカル領域内のポイントの2次表面近似を計算する。ローカル2次パッチからポイントPまでの距離が所定のしきい値を上回る場合、Pはアウトライアである。
2.光度特性: 2つの画像内でおそらく一致する各対p,qについて検討する。対応プロセスを実行することにより、pがqをその一致対と“見なす”場合であって、しかも対応プロセスを逆に実行することにより、qもpをその一致対と“見なす”場合、p,qはアウトライアとは見なされない。しかし、対応プロセスを実行することにより、pがqをその一致対と“見なす”が、対応プロセスを逆に実行することにより、qはpをその一致対と“見なさない”場合、p,qはアウトライアと見なされる。
他の方法も使用することができる。
“写真”ファイルフォーマットの記述
以下のデータ構造は、“C”プログラミング言語の構文で写真画像ファイルのフォーマットを記述したものである。
Figure 0004195096
本発明によるシステムは、専用ハードウェアまたは汎用コンピュータシステムあるいはその組合せから全部または一部を構築でき、そのどの部分も適当なプログラムによって制御できることに留意されたい。どのようなプログラムも、全部または一部が従来通りにシステムの一部を含むかまたはシステム上に格納することができ、あるいはネットワークまたはその他の従来通りに情報を転送するためのメカニズムにより全部または一部をシステムに供給することができる。さらに、システムは、システムに直接接続可能かまたはネットワークまたはその他の従来通りに情報を転送するためのメカニズムによりシステムに情報を転送できるオペレータ入力要素(図示せず)を使用してオペレータが供給する情報により操作し、かつ/またはその他の方法で制御できることに留意されたい。
上記の説明は本発明の具体的な実施形態に限定されている。しかし、本発明の利点の一部または全部を達成しながら、本発明の様々な変形および変更が可能であることに留意されたい。本発明の真の精神および範囲に該当する上記その他の変形および変更を含むことが請求の範囲の目的である。
新規であると請求し、米国特許により保護されることを希望するものは、以下の通りである。

Claims (12)

  1. 所与の精度まで光学的にテクスチャを付与された物体の表面形状を再構築するための3D表面形状再構築システムであって、
    少なくとも3つの異なるビューポイントに対応する物体の少なくとも一部分のビューを生成するように動作可能な3ビュー光学ヘッドと、
    物体の第1の部分が見える第1の相対的向きから、物体の第2の部分であって前記第1の部分と前記第2の部分とに含まれる該物体のオーバラップする部分が見える少なくとも1つの第2の相対的向きまで、前記所与の精度未満の精度で物体と光学ヘッドとの相対的向きを変更するように動作可能な機械式マニピュレータと、
    前記光学ヘッドによって生成された前記第1の部分の3つのビューのうちの少なくとも2つに基づいて、物体の前記第1の部分の表面形状を再構築し、前記光学ヘッドによって生成された前記第2の部分の3つのビューのうちの少なくとも2つに基づいて、物体の前記第2の部分の表面形状を再構築するように動作可能なローカル3D表面形状再構築ユニットと、
    前記第1の部分および前記第2の部分の2Dビューに対応する光学的テクスチャを分析し、それにより前記第1の部分および前記第2の部分の対応する2Dビューのオーバラップする部分を特定し、前記第1の部分および前記第2の部分の対応する2Dビューのオーバラップする部分を使用して、それぞれの前記第1および第2の3D表面形状における対応するオーバラップする部分を特定し、それによって前記第1および第2の部分の相対位置を決定することに基づいて前記第1および第2の部分が前記3D表面形状をスティッチできるように動作可能な表面形状スティッチユニットと
    を含むシステム。
  2. 前記機械式マニピュレータが、前記物体および前記光学ヘッドの1つを移動するように動作可能な物体マニピュレータを含む、請求項1に記載のシステム。
  3. 前記光学ヘッドによって生成された前記3つのビューが、3D表面形状再構築が基づく2つのビューと、前記3つのビューの各内部の向きと3つのビューの相対的向きとを表すテンソルが計算される第3のビューとを含む、請求項1に記載のシステム。
  4. 前記物体が、
    前記3つのビューのうちの1つで見られる、物体の第1のセクションと、
    前記3つのビューのうちの他のビューで見られる、物体の第2のセクションと、
    前記第1のセクションと前記第2のセクションに含まれる、物体のオーバラップセクションとを含み、
    前記3D表面形状再構築ユニットが、前記第1の部分にオーバラップする前記第2の部分のセクションのテクスチャを分析し、それにより前記第1および第2の部分の相対位置を決定するように動作可能なオーバラップセクション分析器を含むことを特徴とする請求項1、2または3に記載のシステム。
  5. 前記テクスチャが、前記物体の表面テクスチャおよび前記物体に付着されたテクスチャを含む、請求項4に記載のシステム。
  6. 前記テクスチャが、前記物体上に投影される、請求項5に記載のシステム。
  7. 前記テクスチャが、前記物体上に投影されるスペックルである、請求項6に記載のシステム。
  8. それぞれが物体上にランダムスペックルパターンを投影する、複数のスペックル生成器を含む、請求項6または7に記載のシステム。
  9. 前記スペックル生成器のそれぞれが、その上にスペックルパターンが生成され、それにより拡散器から前記物体の一部分上にスペックルパターンを投影するために光が投影される拡散器を含む、請求項8に記載のシステム。
  10. 前記スペックル生成器のそれぞれが、レンズを介してレーザ光を前記拡散器上に向けるレーザダイオードを含み、前記拡散器がホログラフィ拡散器である、請求項9に記載のシステム。
  11. 前記テクスチャが、物体と光学ヘッドとの相対的向きの変動の結果として変化することがない、請求項4に記載のシステム。
  12. 機械式マニピュレータが、物体の表面全体が光学ヘッドによって結像されるように物体と光学ヘッドとの複数の相対的向きを提供し、前記表面形状スティッチユニットが物体の表面全体を再構築するように動作可能である、請求項1に記載のシステム。
JP52750898A 1996-12-15 1997-12-11 3次元表面形状再構築のための装置 Expired - Fee Related JP4195096B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
IL119831 1996-12-15
IL11983196A IL119831A (en) 1996-12-15 1996-12-15 A device and method for three-dimensional reconstruction of the surface geometry of an object
PCT/IB1997/001649 WO1998027514A2 (en) 1996-12-15 1997-12-11 Apparatus and method for 3-dimensional surface geometry reconstruction

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2007303729A Division JP2008145431A (ja) 1996-12-15 2007-11-22 3次元表面形状再構築のための装置および方法

Publications (3)

Publication Number Publication Date
JP2001506384A JP2001506384A (ja) 2001-05-15
JP2001506384A5 JP2001506384A5 (ja) 2005-08-11
JP4195096B2 true JP4195096B2 (ja) 2008-12-10

Family

ID=11069582

Family Applications (2)

Application Number Title Priority Date Filing Date
JP52750898A Expired - Fee Related JP4195096B2 (ja) 1996-12-15 1997-12-11 3次元表面形状再構築のための装置
JP2007303729A Withdrawn JP2008145431A (ja) 1996-12-15 2007-11-22 3次元表面形状再構築のための装置および方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2007303729A Withdrawn JP2008145431A (ja) 1996-12-15 2007-11-22 3次元表面形状再構築のための装置および方法

Country Status (7)

Country Link
US (2) US6167151A (ja)
EP (1) EP1016029A4 (ja)
JP (2) JP4195096B2 (ja)
AU (1) AU5675898A (ja)
CA (1) CA2274977C (ja)
IL (1) IL119831A (ja)
WO (1) WO1998027514A2 (ja)

Families Citing this family (109)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL119831A (en) * 1996-12-15 2002-12-01 Cognitens Ltd A device and method for three-dimensional reconstruction of the surface geometry of an object
US6201541B1 (en) * 1997-12-11 2001-03-13 Cognitens, Ltd. System and method for “Stitching” a plurality of reconstructions of three-dimensional surface features of object(s) in a scene defined relative to respective coordinate systems to relate them to a common coordinate system
US7065462B2 (en) * 1998-07-24 2006-06-20 Merilab, Inc. Vehicle wheel alignment by rotating vision sensor
DE19902363C2 (de) * 1999-01-21 2001-11-29 Daimler Chrysler Ag Verfahren und Vorrichtung zur digitalen Verarbeitung von Computergraphiken in Form von mittels optischen Meßsystemen gewonnenen dreidimensionalen Datenfeldern
US6744914B1 (en) 2000-04-28 2004-06-01 Orametrix, Inc. Method and system for generating a three-dimensional object
US6771809B1 (en) 2000-04-28 2004-08-03 Orametrix, Inc. Method and system for registering data
US6413084B1 (en) 2000-04-28 2002-07-02 Ora Metrix, Inc. Method and system of scanning
US6532299B1 (en) 2000-04-28 2003-03-11 Orametrix, Inc. System and method for mapping a surface
US6744932B1 (en) 2000-04-28 2004-06-01 Orametrix, Inc. System and method for mapping a surface
US7068836B1 (en) 2000-04-28 2006-06-27 Orametrix, Inc. System and method for mapping a surface
US7068825B2 (en) * 1999-03-08 2006-06-27 Orametrix, Inc. Scanning system and calibration method for capturing precise three-dimensional information of objects
US6728423B1 (en) 2000-04-28 2004-04-27 Orametrix, Inc. System and method for mapping a surface
WO2001001118A1 (en) * 1999-06-24 2001-01-04 Koninklijke Philips Electronics N.V. Illumination module
CA2377881A1 (en) * 1999-06-28 2001-01-04 Cognitens, Ltd. Aligning a locally-reconstructed three-dimensional object to a global coordinate system
GB0000672D0 (en) * 2000-01-13 2000-03-08 Atlas Ward Structures Limited Method of designing a structural element
FR2807163B1 (fr) * 2000-03-30 2002-06-28 Cybernetix Procede et dispositif de controle stereoscopique 3d d'objets utilisables pour la determination du taux de collet de betteraves et pour l'analyse de leur forme
US7027642B2 (en) * 2000-04-28 2006-04-11 Orametrix, Inc. Methods for registration of three-dimensional frames to create three-dimensional virtual models of objects
WO2001084479A1 (en) * 2000-04-28 2001-11-08 Orametirix, Inc. Method and system for scanning a surface and generating a three-dimensional object
US7471821B2 (en) * 2000-04-28 2008-12-30 Orametrix, Inc. Method and apparatus for registering a known digital object to scanned 3-D model
US7353188B2 (en) * 2000-06-30 2008-04-01 Lg Electronics Product selling system and method for operating the same
US6882347B2 (en) * 2000-11-30 2005-04-19 Microsoft Corporation Texture generating apparatus for dynamic interference checking
US20020094134A1 (en) * 2001-01-12 2002-07-18 Nafis Christopher Allen Method and system for placing three-dimensional models
US6801257B2 (en) 2001-01-12 2004-10-05 Cognitens Ltd. Optical three-dimensional digital imaging and mensuration system for industrial applications
US20030046177A1 (en) * 2001-09-05 2003-03-06 Graham Winchester 3-dimensional imaging service
US6522993B1 (en) 2001-09-14 2003-02-18 General Electric Company Method and system for marking surface deviations on a three dimensional surface
TWI220481B (en) * 2002-04-30 2004-08-21 Hon Hai Prec Ind Co Ltd A system and method for automatically inputting measurement data of an object to computer graphic files thereof
US7174033B2 (en) 2002-05-22 2007-02-06 A4Vision Methods and systems for detecting and recognizing an object based on 3D image data
US7257236B2 (en) 2002-05-22 2007-08-14 A4Vision Methods and systems for detecting and recognizing objects in a controlled wide area
US20050033470A1 (en) * 2002-06-06 2005-02-10 The Hong Kong Polytechnic University System and method for the three-dimensional analysis and reconstruction of the surface of a thin flexible material
US6728593B2 (en) 2002-06-06 2004-04-27 The Hong Kong Polytechnic University System for analysis of fabric surface
US7554007B2 (en) 2003-05-22 2009-06-30 Evogene Ltd. Methods of increasing abiotic stress tolerance and/or biomass in plants
AU2005234725B2 (en) 2003-05-22 2012-02-23 Evogene Ltd. Methods of Increasing Abiotic Stress Tolerance and/or Biomass in Plants and Plants Generated Thereby
JP4401727B2 (ja) * 2003-09-30 2010-01-20 キヤノン株式会社 画像表示装置及び方法
JP4667752B2 (ja) * 2004-02-12 2011-04-13 本田技研工業株式会社 板厚測定方法
DE102004007829B4 (de) * 2004-02-18 2007-04-05 Isra Vision Systems Ag Verfahren zur Bestimmung von zu inspizierenden Bereichen
US7262783B2 (en) * 2004-03-03 2007-08-28 Virtual Iris Studios, Inc. System for delivering and enabling interactivity with images
US7542050B2 (en) 2004-03-03 2009-06-02 Virtual Iris Studios, Inc. System for delivering and enabling interactivity with images
JP4794160B2 (ja) * 2004-03-31 2011-10-19 日東電工株式会社 表面形状測定装置および表面形状測定方法
EP1766058A4 (en) 2004-06-14 2008-05-21 Evogene Ltd POLYNUCLEOTIDES AND POLYPEPTIDES INVOLVED IN THE DEVELOPMENT OF PLANT FIBERS AND METHOD OF USE THEREOF
JP3971783B2 (ja) * 2004-07-28 2007-09-05 松下電器産業株式会社 パノラマ画像合成方法および物体検出方法、パノラマ画像合成装置、撮像装置、物体検出装置、並びにパノラマ画像合成プログラム
US7620209B2 (en) * 2004-10-14 2009-11-17 Stevick Glen R Method and apparatus for dynamic space-time imaging system
US7660458B1 (en) * 2004-12-14 2010-02-09 Google Inc. Three-dimensional model construction using unstructured pattern
KR100602594B1 (ko) 2005-06-10 2006-07-19 주식회사 아이너스기술 3차원 측정 데이터의 분석 결과 재계산 시스템 및 방법
FR2889303B1 (fr) * 2005-07-26 2008-07-11 Airbus France Sas Procede de mesure d'une anomalie de forme sur un panneau d'une structure d'aeronef et systeme de mise en oeuvre
US9330324B2 (en) 2005-10-11 2016-05-03 Apple Inc. Error compensation in three-dimensional mapping
CN101288105B (zh) 2005-10-11 2016-05-25 苹果公司 用于物体重现的方法和***
US20110096182A1 (en) * 2009-10-25 2011-04-28 Prime Sense Ltd Error Compensation in Three-Dimensional Mapping
WO2007105205A2 (en) * 2006-03-14 2007-09-20 Prime Sense Ltd. Three-dimensional sensing using speckle patterns
EP2716654A1 (en) 2005-10-24 2014-04-09 Evogene Ltd. Isolated polypeptides, polynucleotides encoding same, transgenic plants expressing same and methods of using same
JP4917615B2 (ja) * 2006-02-27 2012-04-18 プライム センス リミティド スペックルの無相関を使用した距離マッピング(rangemapping)
JP5592070B2 (ja) * 2006-03-14 2014-09-17 プライム センス リミティド 三次元検知のために深度変化させる光照射野
CN101957994B (zh) 2006-03-14 2014-03-19 普莱姆传感有限公司 三维传感的深度变化光场
US7411688B1 (en) 2006-03-17 2008-08-12 Arius3D Inc. Method and system for laser intensity calibration in a three-dimensional multi-color laser scanning system
KR100753536B1 (ko) 2006-05-04 2007-08-30 주식회사 아이너스기술 3차원 역설계 모델링을 위한 원시 모델 데이터로부터 2차원스케치 데이터를 검출하는 방법
US7821513B2 (en) 2006-05-09 2010-10-26 Inus Technology, Inc. System and method for analyzing modeling accuracy while performing reverse engineering with 3D scan data
US7978892B2 (en) * 2006-10-25 2011-07-12 D4D Technologies, Llc 3D photogrammetry using projected patterns
US8229778B2 (en) * 2006-11-16 2012-07-24 International Business Machines Corporation Constructing change plans from component interactions
US8090194B2 (en) 2006-11-21 2012-01-03 Mantis Vision Ltd. 3D geometric modeling and motion capture using both single and dual imaging
WO2008062407A2 (en) 2006-11-21 2008-05-29 Mantisvision Ltd. 3d geometric modeling and 3d video content creation
WO2008087652A2 (en) 2007-01-21 2008-07-24 Prime Sense Ltd. Depth mapping using multi-beam illumination
US8150142B2 (en) * 2007-04-02 2012-04-03 Prime Sense Ltd. Depth mapping using projected patterns
US8493496B2 (en) 2007-04-02 2013-07-23 Primesense Ltd. Depth mapping using projected patterns
WO2008122980A2 (en) 2007-04-09 2008-10-16 Evogene Ltd. Polynucleotides, polypeptides and methods for increasing oil content, growth rate and biomass of plants
US8494252B2 (en) 2007-06-19 2013-07-23 Primesense Ltd. Depth mapping using optical elements having non-uniform focal characteristics
AU2008278654B2 (en) 2007-07-24 2014-06-05 Evogene Ltd. Polynucleotides, polypeptides encoded thereby, and methods of using same for increasing abiotic stress tolerance and/or biomass and/or yield in plants expressing same
DE102007056777B4 (de) * 2007-11-23 2012-02-23 Deutsches Zentrum für Luft- und Raumfahrt e.V. Messverfahren und Messanordnung mit einem stochastischen Punktemuster sowie stochastisches Punktemuster zur Verwendung dabei
CN102187047B (zh) * 2007-12-05 2014-12-17 霍利贝顿能源服务公司 改进井具的设计、制造、性能和/或使用的方法和设备
CN101977928B (zh) * 2007-12-27 2014-12-10 伊沃基因有限公司 用于改进植物的水分利用效率、肥料利用效率、生物/非生物胁迫耐受性、产量和生物量的分离多肽、多核苷酸
CN101959456A (zh) * 2007-12-31 2011-01-26 真实成像有限公司 用于成像数据的配准的***和方法
CN101960489A (zh) * 2007-12-31 2011-01-26 真实成像有限公司 用于分析热图像的方法、设备和***
WO2009089125A2 (en) 2008-01-04 2009-07-16 3M Innovative Properties Company Navigating among images of an object in 3d space
US7996805B2 (en) 2008-01-08 2011-08-09 National Semiconductor Corporation Method of stitching scan flipflops together to form a scan chain with a reduced wire length
US10299686B2 (en) * 2008-03-28 2019-05-28 Real Imaging Ltd. Method apparatus and system for analyzing images
WO2009141824A2 (en) 2008-05-22 2009-11-26 Evogene Ltd. Isolated polynucleotides and polypeptides and methods of using same for increasing plant yield, biomass, growth rate, vigor, oil content, abiotic stress tolerance of plants and nitrogen use efficieny
US8456517B2 (en) 2008-07-09 2013-06-04 Primesense Ltd. Integrated processor for 3D mapping
US8265376B2 (en) * 2008-07-21 2012-09-11 Cognitens Ltd. Method and system for providing a digital model of an object
EP3616504A3 (en) 2008-08-18 2020-04-08 Evogene Ltd. Isolated polypeptides and polynucleotides useful for increasing nitrogen use efficiency, abiotic stress tolerance, yield and biomass in plants
WO2010064249A1 (en) 2008-12-04 2010-06-10 Real Imaging Ltd. Method apparatus and system for determining a thermal signature
US8462207B2 (en) * 2009-02-12 2013-06-11 Primesense Ltd. Depth ranging with Moiré patterns
MX342016B (es) 2009-03-02 2016-09-09 Evogene Ltd Polinucleotidos y polipeptidos aislados, y metodos para usarlos para incrementar el rendimiento de una planta y/o caracteristicas agricolas.
US8786682B2 (en) * 2009-03-05 2014-07-22 Primesense Ltd. Reference image techniques for three-dimensional sensing
US8717417B2 (en) 2009-04-16 2014-05-06 Primesense Ltd. Three-dimensional mapping and imaging
WO2011013079A1 (en) * 2009-07-30 2011-02-03 Primesense Ltd. Depth mapping based on pattern matching and stereoscopic information
US8830227B2 (en) * 2009-12-06 2014-09-09 Primesense Ltd. Depth-based gain control
US20110187878A1 (en) * 2010-02-02 2011-08-04 Primesense Ltd. Synchronization of projected illumination with rolling shutter of image sensor
US8982182B2 (en) 2010-03-01 2015-03-17 Apple Inc. Non-uniform spatial resource allocation for depth mapping
US8649025B2 (en) 2010-03-27 2014-02-11 Micrometric Vision Technologies Methods and apparatus for real-time digitization of three-dimensional scenes
JP5834602B2 (ja) * 2010-08-10 2015-12-24 旭硝子株式会社 回折光学素子及び計測装置
US9098931B2 (en) 2010-08-11 2015-08-04 Apple Inc. Scanning projectors and image capture modules for 3D mapping
WO2012066501A1 (en) 2010-11-19 2012-05-24 Primesense Ltd. Depth mapping using time-coded illumination
US9167138B2 (en) 2010-12-06 2015-10-20 Apple Inc. Pattern projection and imaging using lens arrays
US9030528B2 (en) 2011-04-04 2015-05-12 Apple Inc. Multi-zone imaging sensor and lens array
CN104054109A (zh) * 2012-01-17 2014-09-17 柯尼卡美能达株式会社 图像处理装置、图像处理方法以及图像处理程序
AU2013219966B2 (en) 2012-02-15 2015-04-02 Apple Inc. Scanning depth engine
JP5966467B2 (ja) * 2012-03-15 2016-08-10 株式会社リコー 測距装置
WO2013142819A1 (en) * 2012-03-22 2013-09-26 University Of Notre Dame Du Lac Systems and methods for geometrically mapping two-dimensional images to three-dimensional surfaces
US9972120B2 (en) 2012-03-22 2018-05-15 University Of Notre Dame Du Lac Systems and methods for geometrically mapping two-dimensional images to three-dimensional surfaces
US20130271574A1 (en) * 2012-04-13 2013-10-17 Hunter Engineering Company Method And Apparatus For Contactless Data Acquisition In A Vehicle Service System
US9712746B2 (en) 2013-03-14 2017-07-18 Microsoft Technology Licensing, Llc Image capture and ordering
US20140267587A1 (en) * 2013-03-14 2014-09-18 Microsoft Corporation Panorama packet
US9107578B2 (en) 2013-03-31 2015-08-18 Gyrus Acmi, Inc. Panoramic organ imaging
US10197394B2 (en) 2013-11-06 2019-02-05 Hexagon Metrology (Israel) Ltd. Method and system for analyzing spatial measuring data
US9529857B1 (en) 2014-02-03 2016-12-27 Google Inc. Disambiguation of place geometry
US10643343B2 (en) * 2014-02-05 2020-05-05 Creaform Inc. Structured light matching of a set of curves from three cameras
US10455212B1 (en) * 2014-08-25 2019-10-22 X Development Llc Projected pattern motion/vibration for depth sensing
US9424668B1 (en) 2014-08-28 2016-08-23 Google Inc. Session-based character recognition for document reconstruction
JP6750841B2 (ja) * 2015-06-26 2020-09-02 キヤノン株式会社 検査方法、検査装置、処理装置、プログラム及び記録媒体
RU2606703C1 (ru) * 2015-08-26 2017-01-10 Ирина Александровна Петросова Способ бесконтактного определения рельефа поверхности материалов
US10527711B2 (en) * 2017-07-10 2020-01-07 Aurora Flight Sciences Corporation Laser speckle system and method for an aircraft

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4654872A (en) * 1983-07-25 1987-03-31 Omron Tateisi Electronics Co. System for recognizing three-dimensional objects
DE3642051A1 (de) * 1985-12-10 1987-06-11 Canon Kk Verfahren zur dreidimensionalen informationsverarbeitung und vorrichtung zum erhalten einer dreidimensionalen information ueber ein objekt
US4842411A (en) * 1986-02-06 1989-06-27 Vectron, Inc. Method of automatically measuring the shape of a continuous surface
US5633995A (en) * 1991-06-19 1997-05-27 Martin Marietta Corporation Camera system and methods for extracting 3D model of viewed object
US5377011A (en) * 1991-09-06 1994-12-27 Koch; Stephen K. Scanning system for three-dimensional object digitizing
US5442672A (en) * 1993-03-31 1995-08-15 Bjorkholm; Paul J. Three-dimensional reconstruction based on a limited number of X-ray projections
US5598515A (en) * 1994-01-10 1997-01-28 Gen Tech Corp. System and method for reconstructing surface elements of solid objects in a three-dimensional scene from a plurality of two dimensional images of the scene
IL113496A (en) * 1995-04-25 1999-09-22 Cognitens Ltd Apparatus and method for recreating and manipulating a 3d object based on a 2d projection thereof
CN1198230A (zh) * 1995-04-25 1998-11-04 考格内特恩斯有限公司 根据一3d对象的2d投影再生和处理该对象的设备和方法
IL119831A (en) * 1996-12-15 2002-12-01 Cognitens Ltd A device and method for three-dimensional reconstruction of the surface geometry of an object

Also Published As

Publication number Publication date
WO1998027514A2 (en) 1998-06-25
AU5675898A (en) 1998-07-15
IL119831A0 (en) 1997-03-18
CA2274977C (en) 2008-02-12
US6438263B2 (en) 2002-08-20
EP1016029A2 (en) 2000-07-05
CA2274977A1 (en) 1998-06-25
US6167151A (en) 2000-12-26
EP1016029A4 (en) 2006-05-03
JP2001506384A (ja) 2001-05-15
WO1998027514A3 (en) 1998-10-15
IL119831A (en) 2002-12-01
US20010016063A1 (en) 2001-08-23
JP2008145431A (ja) 2008-06-26

Similar Documents

Publication Publication Date Title
JP4195096B2 (ja) 3次元表面形状再構築のための装置
Li et al. A reverse engineering system for rapid manufacturing of complex objects
US8432435B2 (en) Ray image modeling for fast catadioptric light field rendering
Yamany et al. Free-form surface registration using surface signatures
JP4284664B2 (ja) 三次元形状推定システム及び画像生成システム
AU2019203928B2 (en) Face location detection
US20100328308A1 (en) Three Dimensional Mesh Modeling
JP2008537190A (ja) 赤外線パターンを照射することによる対象物の三次元像の生成
CN115345822A (zh) 一种面向航空复杂零件的面结构光自动化三维检测方法
CN113012293A (zh) 石刻模型构建方法、装置、设备及存储介质
EP1097434A1 (en) Method and system for generating fully-textured 3-d models
JP2009093611A (ja) 三次元オブジェクト認識のためのシステムおよび方法
US20200057778A1 (en) Depth image pose search with a bootstrapped-created database
JP4761670B2 (ja) 動立体モデル生成装置及び方法
US9245375B2 (en) Active lighting for stereo reconstruction of edges
JPH0854219A (ja) 画像処理装置
Ali Reverse engineering of automotive parts applying laser scanning and structured light techniques
JP2008204318A (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP3625624B2 (ja) テクスチャ情報付与方法、テクスチャ情報付与プログラムを記録した媒体およびテクスチャ情報付与装置
Nanya et al. Reconstruction of complete 3D models by voxel integration
JP3630582B2 (ja) 画像処理装置及びその方法
JP2008016054A (ja) 三次元形状推定システム及び画像生成システム
Kasper et al. Semi automatic object modeling for a service robot
Li et al. Three Dimension Scanning using 
 Infrared Coded Light
Nietiedt et al. Occlusion handling in spatio-temporal object-based image sequence matching

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041213

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041213

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20041213

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20041213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070522

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20070821

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20071001

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080408

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080708

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080826

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080925

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111003

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees