JP2005537535A - オブジェクトの3次元電子モデルを生成するシステム - Google Patents

オブジェクトの3次元電子モデルを生成するシステム Download PDF

Info

Publication number
JP2005537535A
JP2005537535A JP2004519656A JP2004519656A JP2005537535A JP 2005537535 A JP2005537535 A JP 2005537535A JP 2004519656 A JP2004519656 A JP 2004519656A JP 2004519656 A JP2004519656 A JP 2004519656A JP 2005537535 A JP2005537535 A JP 2005537535A
Authority
JP
Japan
Prior art keywords
dimensional electronic
texture
scanner
image
generation system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004519656A
Other languages
English (en)
Inventor
マレーク シュトラーセンブルククレーシャク,
フィリップ ハラルド ナーゲル,
Original Assignee
ハーマン ベッカー オートモーティブ システムズ ゲーエムベーハー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ハーマン ベッカー オートモーティブ システムズ ゲーエムベーハー filed Critical ハーマン ベッカー オートモーティブ システムズ ゲーエムベーハー
Publication of JP2005537535A publication Critical patent/JP2005537535A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • G01C15/002Active optical surveying means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/10Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/30Polynomial surface description
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/13Receivers
    • G01S19/14Receivers specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/40Correcting position, velocity or attitude
    • G01S19/41Differential correction, e.g. DGPS [differential GPS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Optimization (AREA)
  • Data Mining & Analysis (AREA)
  • Algebra (AREA)
  • Mathematical Physics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Mathematical Analysis (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • Instructional Devices (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

オブジェクトの3次元電子モデルを開発する画像生成システム(100)は、スキャナ(104)と計算システム(102)とを含む。スキャナは、異なる地理的位置内のオブジェクトに隣接して選択的に位置決めされ得る。スキャナは、スキャナ位置情報およびオブジェクトを表す画像データを計算システムに提供し得る。計算システムは、画像データおよびスキャナ位置情報からオブジェクトの3次元電子モデルを生成し得る。3次元電子モデルは記憶され、他の応用、例えば電子ナビゲーションマップに利用され得る。

Description

(優先権の主張)
本願は米国仮出願第60/395,165号(2002年7月10日出願)の利益を請求するものである。上記出願の開示は本願明細書で参照により援用される。
1.著作権の保護に関する告知
本開示の一部には著作権の保護の対象となる事項が含まれている。本著作権所有者は、特許商標庁の特許ファイルや記録の形で生じるような、本開示の何人が行うファクシミリでの複製に対しても反対するものではない。但し、それ以外についてはすべての著作権を保有するものである。
2.技術分野
本発明は一般にオブジェクトの電子表示物に関し、特に、電子形式で表される3次元オブジェクトのモデルを生成するためのシステムに関する。
(発明の背景)
3.関連する技術
ナビゲーションマップは電子形式で表示することが可能である。ナビゲーションマップのなかには2次元で電子的に表示されるものもある。そのため、ナビゲーションマップのユーザは、ディスプレイ上のある場所へ向けて自分を方向づける際に困難を感じる場合がある。3次元でオブジェクトを表示しているナビゲーションマップは、ユーザが周囲の状況の中にいて観察するようにオブジェクトの表示を行うことにより、上記欠点の解決を図ることが可能となる。
オブジェクトの3次元の電子表示物はデジタルカメラを用いて作成したものであってもよい。アーティストたちは別の技法を使ってオブジェクトの3次元表示を手で作成する。さらに別の技法ではレーザが用いられる。レーザ技術を利用して、オブジェクトからレーザ光を反射して距離の測定が行われる。これらの距離を用いてオブジェクトの形状のマップ化が行われ、電子表示物の形成が可能となる。現行のレーザ技術では、距離は、オブジェクト上にインストールする必要がある金属性ターゲットなどの基準点から測定される。したがって、これらのターゲットはオブジェクトのマルチ走査の中に含まれるものであってもよい。マルチ走査時に、ターゲットを用いて手動による合成を行って3次元表示に変えるようにしてもよい。公知のレーザ技術はオブジェクトの幾何学的形状を生成するにすぎない。
電子ナビゲーションマップでは、複雑なオフィスやショッピングモールなどのような、大きなマルチ構造のオブジェクトの精密な電子表示物によって、自分がいる周囲の位置を認識することが可能となる。ユーザが、観察した周囲の状況と表示オブジェクトとを精密に比較するために、視覚的詳細情報と、大きなオブジェクトのその他の特徴とを必要とする場合もある。不都合なことに、デジタルカメラを用いた電子表示物は、十分な視覚的詳細および特徴を提供できないマルチプル電子画像を手動で合成することを要求する。アーティストによって手動で作成された電子表示物は、不正確であり、時間を消費し、コストがかかり、また不必要にかなりのデータを電子ナビゲーションマップに追加し得る。さらに、レーザを用いた電子表示物は、オブジェクトを走査中にインストールおよび/または維持することの困難な、オブジェクト上の参照点を要求する。そのため、大きなオブジェクトを表す電子モデルを正確かつ効率的に作成することに関連する技術的な問題が存在する。さらに、マルチプル走査の各々をオブジェクトを表す電子モデルに変換する技術に関連する技術的な問題が存在する。
したがって、ナビゲーションマップや、従来技術の欠点を解決するその他のシステムで使用する3次元オブジェクトの電子表示物を生成するためのシステムに対する要望が存在する。
(要約)
本発明は、電子モデルにおける3次元オブジェクトの電子表示物を生成できる画像生成システムを提供する。オブジェクトの3次元電子モデルは、ナビゲーションマップといった用途に利用され得る。このようなオブジェクトは、例えば、事務所の建物、病院、住宅、橋、像、植生、および/また、他の自然もしくは人工のランドマークを含み得る。
画像生成システムは、スキャナ、計算システムを含む。スキャナは、別々の走査を実行するオブジェクトの周りの異なる地理的位置に位置し得る。走査の各々の間に収集されたデータは、計算システムに提供され得る。走査データを用いて、計算システムは、3次元電子モデルを生成し得る。3次元電子モデルは、オブジェクトを視覚的に表す縮尺され、色付けされ、テクスチャライズされたモデルであり得る。
スキャナは、ポイントスキャナ、カラースキャナ、および位置システムを含み得る。ポイントスキャナは、オブジェクトの幾何学的形状を表す幾何学的な点を決定するために用いられ得る。カラースキャナは、ポイントスキャナと同期して動作することにより、オブジェクトのカラーを表す色点を決定し得る。位置システムは、ナビゲーション座標(例えば、緯度および経度)、スキャナの高さ、傾斜および方向の形で位置情報を決定し得る。
各々のスキャナからの幾何学的な点は、色点、位置情報は、3次元電子画像を形成するように関連付けられ得る。3次元電子画像の各々内で、幾何学的な点は、表面もしくはラインを形成するために結合され得る。加えて、3次元電子画像は、3次元電子モデルを形成するために位置情報を用いる計算システムによって合成され得る。互いの3次元電子画像の変換および回転の操作は、合成処理中に実行され得る。従って、任意の形状および/または任意のサイズのオブジェクトは、走査され得て、個々のスキャンは、合成されることにより、オブジェクトの幾何学的形状である3次元電子モデルを形成する。
計算システムは、また3次元電子モデルの表面をテクスチャライズする。テクスチャライズ化は、オブジェクトの1つ以上の表面で視覚的感知されるフィーチャの電子表示物を3次元電子モデルに加えることを伴う。テクスチャライズする処理プロセスは、ソーステクスチャとしてオブジェクトの電子写真といったイメージファイルを識別することを伴う。ソーステクスチャは、一意の識別子を割り当てられて、ライブラリに保存され得る。加えて、ソーステクスチャは、1つ以上の3次元電子モデルに関連付けられ得る。さらに、ソーステクスチャは、複合テクスチャを形成するために用いられ得る。
ソーステクチャは、少なくともソーステクスチャの一部を形成するために変換され得る。ソーステクスチャの変換は、ソーステクスチャの一意の識別子を含む変換処理手順を創作することを伴う。変換処理手順は、3次元電子モデルの1つ以上の表面に関連付けられ得る。3次元オブジェクトが表示されるとき、変換処理手順は、ソーステクスチャから複合テクスチャを生成するために実行され得る。従って、ソーステクスチャおよび変換処理手順だけが、3次元電子モデルの表面に関連付けされる必要がある。
本発明のその他のシステム、方法、特徴および利点は、以下の図と詳細な説明をチェックするとき、当業者には明らかであり、明らかになる。この説明に含まれるすべての上記のような追加のシステム、方法、特徴および利点は本発明の範囲内に含まれ、さらに、以下の請求項によってこれらを保護しようとするものである。
本発明は以下の図面と説明とを参照することにより良く理解することができる。図内の構成要素は必ずしも縮尺に合っているとはかぎらない。代わりに、本発明の原理の説明時に強調が行われている。さらに、図では、同じ参照番号は異なる図を通してずっと対応する部分を示すものとする。
(好ましい実施形態についての詳細な説明)
本発明は、オブジェクトを表すテクスチャライズされた3次元電子モデルの開発が可能な画像生成システムを提供するものである。電子モデルは、生成されるとすぐに、ナビゲーションマップを含む多くのアプリケーションで使用することができる。“電子表示物”、“電子形式”、“電子モデル”および“電子画像”という用語は、データファイルなどの、キャプチャされ、操作され、記憶され、視覚的に表示されるデジタルデータの任意の6つの形式を含むものと広く解釈することが望ましい。
図1は画像生成システム100の一例を示すブロック図である。画像生成システム100はスキャナ104と通信する計算システム102を備える。計算システム102は、命令の実行、計算、データの記憶、データの検索、および、スキャナ104との通信の実行が可能な任意の装置であってもよい。
計算システム102は、ハンドヘルドコンピュータ、ラップトップコンピュータ、デスクトップ型コンピュータ、サーバコンピュータ、メインフレームなどの形で利用可能な特徴と、機能と、能力とを備えるものであってもよい。例えば、計算システム102は、少なくとも1つのプロセッサ、少なくとも一つのユーザインタフェース少なくとも1つのデータ記憶装置、少なくとも1つの通信用インタフェース、などを備えたものであってもよい。例示の計算システム102はサイト計算システム106と実験室計算システム108とを備えるものである。サイト計算システム106と実験室計算システム108との間での通信は、1または2以上のネットワークを介して無線通信路、有線通信路および/または光通信路を用いることもできる。上記とは別に、電子メモリデバイスなどのメモリ記憶装置を介してサイト計算システム106と実験室計算システム108との間でデータ転送を行うことも可能である。計算システム102とスキャナ104との間で同様の通信技術を利用することもできる。
2つの別個のシステムとして、サイト計算システムと実験室計算システム106と108を例示したが、単一の計算システムまたは3つまたはそれ以上の計算システムを用いることも可能である。さらに、サイト計算システム106および実験室計算システム108において、マルチスタンドアロン型の協働処理を行う計算システムを提示することも可能である。
スキャナ104は、測位システム112、ポイントスキャナ114およびカラースキャナ116であってもよい。測位システム112はスキャナ104の物理的位置決めを行う任意のシステムであってもよい。スキャナ位置情報はスキャナ104の地理上の位置、勾配および向きを含むようにしてもよい。例示の測位システム112は衛星による測位システム120および勾配方向センサ122を備える。
衛星による測位システム120は三角測量技術による処理によって、スキャナ104の地理上の位置を決定する任意の測位システムであってもよい。例えば、測位システム112は、全地球測位システム(GPS)、ディファレンシャル全地球測位システム(DGPS)あるいは全地球軌道ナビゲーション衛星システム(GLONASS)であってもよい。地理上の位置はナビゲーション座標(緯度と経度など)で決定することも可能である。さらに、衛星による測位システム120によってスキャナ104の平均海面からの高度を決定することも可能である。
勾配方向センサ122は上記平均海面とスキャナ104の面方向の検出が可能な任意のセンサであってもよい。例えば、勾配方向センサ122は、磁針の北に基づいて北、南などのスキャナ104の面方向を示す電気信号を出力する少なくとも1つの電子センサを備えることも可能である。さらに、勾配方向センサ122は、例えば、重力に基づいてスキャナ104のピッチとロールを示す電気信号を出力するセンサを備えることも可能である。
ポイントスキャナ114は、オブジェクトの幾何学的3次元電子画像のポイントクラウド表示を展開するためにオブジェクトの測定が可能な任意の装置であってもよい。例えば、ポイントスキャナ114は、オブジェクト上の異なる点に選択的に向けられるレーザ光を備えるものであってもよい。反射されたレーザ光に基づいて、スキャナ104と点との間の距離を決定することも可能である。この距離を用いてオブジェクトの表面上の点を表す幾何学的な点データを生成することも可能である。レーザスキャナの一例として、オーストリアのRieglレーザ計測システムGmbH社により製造されたLMS−Zシリーズの地上用3Dスキャナがある。
ポイントスキャナ114に含まれるプロセッサはポイントクラウドを形成する幾何学的な点を決定し、記録することも可能である。例えば、オブジェクト上の各々の点とスキャナ104との間の距離を用いてポイントクラウドを決定することも可能である。測定された距離に基づく点記録用ソフトウェアの例として、RiSCANソフトウェアがあり、このソフトウェアはオーストリアのRieglレーザ計測システムGmbH社から入手することができる。
カラースキャナ116はオブジェクトの色を表すパラメータを検知することが可能な任意の装置であってもよい。カラースキャナ116はオブジェクトに対して光ビームを選択的に指向することも可能である。オブジェクトからのビーム光の反射に基づいて、カラーパラメータを決定してもよい。検出されたパラメータは、ピクセルと呼ばれることもある色点であってもよい。ポイントスキャナ114内のプロセッサは色点を決定し、記録することも可能である。
ポイントスキャナ114を用いて収集された幾何学的な点の形での画像データはオブジェクトの幾何学的形状を表わすことができる。カラースキャナ116を用いて収集された色点(すなわちピクセル)の形の画像データはオブジェクトのカラーを表わすことが可能となる。本願明細書で使用されているように、“画像データ”という用語は幾何学的な点と色点との組み合わせを意味するものである。
ポイントスキャナ114とカラースキャナ116とは同期作動して画像データを収集する2つの独立した走査装置であってもよい。幾何学的な点は走査範囲内の色点と関連づけることも可能である。例えば、ポイントスキャナ114は、カラースキャナ116が出射したレーザ光から5センチメートル離れた光ビームを出射することができる。カラースキャナ116はオブジェクトの所定領域の範囲内のカラー“ライン”を走査するラインセンサであってもよい。個々のカラーラインは、カラースキャナ116によりオブジェクト上へ投影される所定の幅の縦に延伸された光ビームの幅と長さとによって画定される。例えば、カラーセンサは、所定の幅と高さの垂直方向または水平方向の矩形領域である所定領域の範囲内を走査することができる。この矩形領域は、矩形領域全体が完全に走査されてしまうまで、連続的に走査されるさらに狭い縦に延伸するカラー領域(カラーラインなど)に分割することも可能である。カラーラインの測定値は、色点を含む色点データの検出の結果得られる。
色点を検出する時間は幾何学的な点の検出時間よりも長くすることができる。したがって、走査中に、カラースキャナ116はラインセンサとして働いて、ある時間の間、オブジェクト上の所定領域内の色点(ピクセル)ラインを検出することができる。同じ時間中に、ポイントスキャナ114は同じ領域内の個々の幾何学的な点を検出することができる。次いで、計算システム102は所定領域で検出した色点ラインを同じ所定領域で検出した幾何学的な点と関連づけて、画像データを形成することができる。
上記とは別に、カラースキャナ116は所定領域を走査して、所定数の色点を収集することができる。同時に、ポイントスキャナ114は同じ領域で所定数の幾何学的な点を検出することができる。カラースキャナ116による所定領域の走査のほうが長い時間をかけることができるため、より少数の色点がキャプチャされて、より多数の幾何学的な点との関連づけを行うことができる。後程論じるように、色点間の空隙を塗りつぶすこともできる。ポイントスキャナ114とカラースキャナ116の処理を同期させることにより、計算システム102はオブジェクトの走査画像をキャプチャすることができる。
動作中、ビルなどの走査対象オブジェクトに隣接する第1の地理上の位置にスキャナ104を配置することができる。“走査する”または“走査される”という用語は、スキャナ104の地理上の再配置を行うことなく所定時間中にスキャナ104が収集するオブジェクトおよび/またはスキャナ104と関連する任意のデータを含むものと広く解釈することが望ましい。“複数の走査”という用語は、データを収集するスキャナ104の異なる空間的位置を意味する。
走査中、スキャナ104のナビゲーション座標、勾配、および向きを測位システム112によって決定し、計算システム102へ出力することができる。ナビゲーション座標の決定は、走査中複数の異なる基準位置をとることも可能である。この基準位置を用いて平均基準位置を算出することができる。次いで、基準位置のナビゲーション座標を用いてスキャナ104の地理上の位置を記述することができる。
さらに、ポイントスキャナ114はオブジェクトを走査し、ポイントクラウドの形で幾何学的な点データを生成することができる。同時に、カラースキャナ116はオブジェクトを走査し、色点データを生成することができる。幾何学的な点データと色点データとは画像データとして計算システム102により同期してキャプチャすることができる。したがって、計算システム102によって少なくとも1つの幾何学的な点を少なくとも1つの色点と関連づけることができる。
計算システム102は、衛星による測位システム120と勾配方向センサ122とにより出力されたデータを、ポイントスキャナ114とカラースキャナ116とによって出力された画像データと関連づけることができる。この走査の結果、幾何学的3次元カラー電子画像を展開することができる。スキャナ104の向き、勾配、地理上の位置をこの3次元電子画像と関連づけることができる。本願明細書で使用されているように、“3次元電子画像”という用語は、画像データ(幾何学的な点および/または色点)と、単一の走査中に収集された位置情報とに基づくオブジェクトの表示を意味するものである。第1の地理上の位置での走査の終了に続いて、第2の地理上の位置へスキャナ104を地理的に再配置し、走査処理を繰り返すことができる。
図2は、オブジェクト204の周辺のスキャナ104(図1)の複数の地理上の位置202を示す1例である。図示の例ではオブジェクト204はビルである。地理上の位置202(したがって異なる走査)の数は、走査中のオブジェクトの幾何学的形状に基づいて決定することができる。十分な走査を行うことにより、毎回の走査中にスキャナ104が収集した幾何学的な点データと色点データとのオーバーラップ部分が得られる。
図2で、三角形206上の点を表す3つの地理上の位置が走査対象位置として特定される。三角形206の範囲内にオブジェクト204の境界を完全に取り囲むように三角形206のサイズが定められる。オブジェクト204の形状および/または異なる表面に基づいて、3回の走査を行うことができる。しかし、オブジェクトの表面全体を精密にキャプチャするために追加の走査を必要とする場合もある。ポイントスキャナ114がレーザスキャナである場合、スキャナ104の視野方向内に存在しないオブジェクト204の表面領域は単なる3回の走査では表わすことができない場合がある。したがって、オブジェクトの種々の特徴の視野方向にスキャナ104の空間的位置決めを行ってもよく、さらに、追加走査の視野方向にスキャナ104の空間的位置決めを行ってもよい。
オブジェクトを表す3次元電子モデルの生成に必要な走査回数(3次元電子画像の数など)は、オブジェクトの対称性に基づいて最小限にとどめるようにしてもよい。オブジェクトの表面の走査を行う代わりに、左右対称部分を含むオブジェクトを電子的に再現するようにしてもよい。すなわち、オブジェクトの走査済みの部分が、オブジェクトの未走査部分に関して左右対称であれば、未走査部分の走査を回避することが可能となる。走査を行う代わりに、上記走査済みの部分を鏡映して、未走査部分を表わすようにすることができる。
図3は、スキャナ104を用いて走査できるオブジェクトの種々の例を示す。第1のオブジェクト302は回転により左右対称オブジェクトである。回転により左右対称となる領域を持つオブジェクトの例には、テレビ塔、給水塔などを含めることができる。オブジェクトが回転により左右対称となる場合、2または3回以上の走査に基づいて3次元モデル化を行うことができる。第2のオブジェクト304は、4回またはそれ以上の回数の走査を用いて3次元電子モデル化を行うことができるような4つの左右対称領域を有するオブジェクトである。第3のオブジェクト306は軸線308に沿って左右対称である。したがって、軸線308の一方またはそれ以上の側部だけに沿って走査を行うことができる。
オブジェクトのすべての走査がキャプチャされると、図1の計算システム102は個別の走査を合成してオブジェクトを表わす3次元電子モデルを形成することができる。本願明細書で使用されているように、“3次元電子モデル”という用語は2または3以上の3次元電子画像の合成を意味する。個別走査の組み合わせ(3次元電子画像)は、各々の走査の最中のスキャナ104の地理上の位置に基づくようにしてもよい。それに応じて、スキャナ104の地理上の位置、並びに、相互に関連するピッチ、ロール、向きおよび高度を用いて、各々の3次元電子画像の適切な変換量と回転量とを決定することができる。
電子形式での3次元幾何学モデルの生成に続いて、計算システム102を用いてモデルの表面をテクスチャライズすることができる。テキスチャリゼーションには、オブジェクトの視覚的外観に基づいて1または2以上のソーステクスチャを特定するステップが含まれる。ソーステクスチャを用いて変換処理手順を形成して、1または2以上のソーステクスチャを変換して、複合テクスチャにすることができる。これらの複合テクスチャはオブジェクトの1または2以上の異なる表面を表わすことができる。変換処理手順は3次元電子モデルの範囲内の1または2以上の表面と関連づけることができる。モデルが表示された時点でソーステクスチャから複合テクスチャを形成してもよい。
オブジェクトを表すコンピュータ生成画像が望まれる任意のアプリケーションで、完全な、色付けされ、テクスチャライズされた3次元電子モデルを利用することができる。例えば、オブジェクトがビルやランドマークである場合、ナビゲーションマップの範囲内のオブジェクト表示用ナビゲーションソフトウェアやその他のアプリケーションへ対応するモデルをエクスポートすることができる。別の例では、地域の区画用および観光事業用として都市がこれらのオブジェクトを利用することも可能である。さらに、無線サービスプロバイダは信号経路、混信、オブジェクトの高度などを3次元電子モデルから特定することができる。
画像生成システム100は効率のよいかつ費用対効果の良い方法を提供して、オブジェクトの3次元電子モデルを形成する。個々の3次元電子画像を手で作成することなく、画像生成システム100によって、モデル化済みオブジェクトを精密に縮尺し、色付けし、テクスチャライズすることができる。さらに、画像生成システム100を用いて個々の3次元電子画像を合成して、3次元電子モデルを形成することも可能である。モデルが電子形式であるため、精密で、リアルな3次元電子モデルが所望される他の任意のアプリケーションへもデータのエクスポート/インポートを行うことが可能となる。
図4は図1に示す画像生成システム100の処理を例示するプロセスフローチャートを示す。ブロック402で走査対象オブジェクトを特定する。ブロック404でオブジェクトに隣接する第1の位置にスキャナ104の位置決めを行う。ブロック406で、ポイントスキャナ114とカラースキャナ116とが同期作動して、オブジェクトを走査する。ポイントスキャナ114により出力される幾何学的な点データと、カラースキャナ116により出力される色点データとは、ブロック408で画像データとして収集され、記憶される。
ブロック410で、衛星による測位システム120によって測定が行われ、スキャナ104の地理上の位置が記録される。ブロック412で、勾配方向センサ122による測定が行われ、スキャナ104のピッチ、ロールおよび向きが記録される。ブロック414で位置情報が記憶される。ブロック416で、オブジェクトの走査済み表面を表わす3次元電子画像であるポイントクラウドが走査から展開される。ブロック418で、幾何学的な点データが色点データと関連づけられて、3次元電子画像の色づけが行われる。ブロック420でポイントクラウドは位置決め情報と関連づけられる。
ブロック422で、追加走査を行うべきかどうかが判定される。追加走査を行うべきである場合、ブロック424で別の地理上の位置へスキャナを移動させることができ、処理はブロック406へ戻って、データをキャプチャし、別の3次元電子画像が展開される。追加走査が必要でない場合、上記位置情報を用いて各々の3次元電子画像から得られる画像データが組み合わされ、ブロック426でオブジェクトの3次元電子モデルが開発される。ブロック428で、オブジェクト上に存在する実際のテクスチャに基づいて、1または2以上のソーステクスチャが選択される。ソーステクスチャを用いて、複合テクスチャと、対応する変換処理手順とがブロック430で展開される。ブロック432で、ソーステクスチャと変換処理手順(複合テクスチャなど)とは3次元電子モデルの1または2以上の表面と関連づけられる。この3次元電子モデルは、ブロック434でデータファイルとして利用可能である。
図6は、サイト計算システム106と実験室計算システム108とを備えた計算システム102の一例を示すさらに詳細なブロック図である。サイト計算システム106の例には、通信モジュール602、メモリモジュール604、プロセッサモジュール606およびユーザーインタフェースモジュール608が含まれる。さらに、サイト計算システム106は予備の位置合わせモジュール610を備えるものであってもよい。別の例では、大小様々な数のモジュールを用いてサイト計算システム106の機能を例示することができる。
通信モジュール602は、スキャナ104(図1)との通信および実験室計算システム108との通信を行うことが可能な装置であってもよい。さらに、通信モジュール602は、スキャナ104(図1)と関連する入出力(I/O)機能を提供するデータ収集機能を備えたものであってもよい。このI/O機能は、入出力チャネル、通信ポート、信号変換、フィルタリング、バッファリング、通信、光通信および/または他の任意のI/O関連機能を備えることができる。信号入出力の例には、アナログ信号、デジタル信号、並びに、RS422、TCP/IP、ブルートゥース、802.11、SMS、独自プロトコル、およびその他の任意の通信プロトコルなどの通信プロトコルが含まれる。
メモリモジュール604は、データを記憶し、検索することができるメモリデバイスあるいは媒体であってもよい。例えば、メモリモジュール604は、フラッシュメモリ、ランダムアクセスメモリ(RAMおよび/またはハードドライブ、光ディスクなどのような磁気メモリなどの電子メモリを備えるものであってもよい。メモリモジュール604に記憶され、メモリモジュール604からアクセスされたデータは走査画像および他のスキャナ関連データを含むようにしてもよい。さらに、画像生成システム100(図1)の範囲内のモジュールの機能および処理と関連するコンピュータコード/ソフトウェアなどの処理命令は記憶とアクセスとを行うことができる。したがって、メモリモジュール604に記憶された命令とデータとは、サイト計算システム106内の別のモジュールの機能上および処理上の協働作業を行うことができる。単一のモジュールとして示されてはいるが、メモリモジュール604はマルチメモリモジュールを備えたものであってもよい。これらのマルチメモリモジュールは画像生成システム100の別のモジュールをサポートすることも可能である。
プロセッサ606は、通信モジュール602、メモリモジュール604、ユーザーインタフェースモジュール608および予備の位置合わせモジュール610とインタフェースすることが可能な任意の制御ユニットまたはコンピュータベースの装置であってもよい。通信モジュール602とのインタフェースを行うステップは、入力信号および/またはデータを受け取り、送出信号および/またはデータの生成を目的とするステップを含むようにしてもよい。メモリモジュール604とのインタフェースを行うステップは、メモリモジュール604に記憶された命令を実行して、画像生成システム100(図1)の処理と関連して、メモリモジュール604の範囲内で、データを生成し、記憶し、操作しおよび/または抽出するステップを含むようにしてもよい。プロセッサ606は、サイト計算システム106の処理を調整し、通信モジュール602、メモリモジュール604、ユーザーインタフェースモジュール608および予備の位置合わせモジュール610の間でデータの交換を行うものであってもよい。
ユーザーインタフェースモジュール608は、機能サポート用ボタン、表示画面、タッチスクリーン、インジケータ、トランスデューサおよび/または画像生成システム100(図1)にユーザ用インタフェースを提供する任意のメカニズムを備えることも可能である。さらに、ユーザーインタフェースモジュール608は、3次元電子画像の目に見える描画、幾何学的な点、色点、3次元電子モデル、位置情報、および、画像生成システムが収集した他の任意のデータを提供することができる。ユーザーインタフェースモジュール608の処理は、プロセッサ606による実行命令と、ユーザから得た入力とに基づくようにしてもよい。
予備の位置合わせモジュール610は、ユーザーインタフェースモジュール608を用いて協働処理を行って、プロセッサ606が実行する命令に基づいて走査を表示し、走査処理を行ってもよい。走査処理の実行は、異なる走査の各々と関連づけられた3次元電子画像の移動と回転とをユーザが手動で行うステップを含むようにしてもよい。ポイントクラウドの移動と回転とを行って、ポイントクラウドを一体としてフィットさせ、3次元電子画像から得られる予備用3次元電子モデルの形成してもよい。
個々の走査処理を結合して、3次元電子モデルを形成するプロセスは“位置合わせ”と呼ばれる。この場合、位置合わせはオンサイトで手動で行ってもよく、したがって、“予備の位置合わせ”または“一時的位置合わせ”と呼ばれる場合もある。ユーザによる走査処理の操作が、オブジェクトの走査を行うサイトで行われるため、ユーザは、異なる3次元電子画像を合成する際、視覚によって予備用3次元電子モデルを実際のオブジェクトと比較することができる。
さらに、予備の位置合わせモジュール610は走査の自動化操作を行って予備の3次元電子モデルを形成することができる。自動化操作は、ポイントクラウドと、走査の各々から得られる位置情報とを利用して、予備用3次元電子モデルの形成を図るステップを含むようにしてもよい。自動化操作に続いて、前述したように、ユーザは種々のポイントクラウドをさらに手動で操作することも可能である。操作が終了したとき、実験室計算システム108へ予備用3次元電子モデルを提供することができる。
上記とは別に、操作を行わずに実験室計算システム108に対して走査を行ってもよい。サイト計算システム106に関する走査処理操作を行わない場合、予備の位置合わせモジュール610を省いてもよい。それに応じて、収集されたままの走査画像を送信したり、或いは、さらなる処理を行うために実験室計算システム108へ上記走査結果を出力したりすることも可能である。
図6に示す実験室計算システム108の例は、通信モジュール622、メモリモジュール624、プロセッサモジュール626およびユーザーインタフェースモジュール628を備えるものである。さらに、実験室計算システム108は、走査合成用モジュール630と、幾何学モデル化モジュール632と、テクスチャライジングモジュール634とを備えるものであってもよい。別の例では、大小様々な数のモジュールを用いて実験室計算システム108の機能を例示することができる。
通信モジュール622、メモリモジュール624、プロセッサモジュール626およびユーザーインタフェースモジュール628は、サイト計算システム106に含まれる前述した通信モジュール602、メモリモジュール604、プロセッサモジュール606およびユーザーインタフェースモジュール608と類似したものであってもよい。プロセッサモジュール626は、メモリモジュール624を備える別のモジュールに記憶された命令を実行することにより、実験室計算システム108の処理全体を制御することも可能である。さらに、プロセッサモジュール626は、通信モジュール622、メモリモジュール624、ユーザーインタフェースモジュール628、走査合成用モジュール630、幾何学モデルモジュール632とテクスチャライジングモジュール634の協働処理を可能にするものであってもよい。
実験室計算システム108は“正確な位置合わせ”と呼ばれる位置合わせプロセスを行うことも可能である。個々の3次元電子画像のポイントクラウド内の幾何学的な点が走査合成用モジュール630により結合されるとき、正確な位置合わせが行われる。さらに、結合済みポイントクラウドを一体として正確にフィットさせて、幾何学モデルモジュール632を用いて最終3次元電子モデルを形成することができる。
予備の位置合わせが行われたとき、実験室計算システム108によって3つの技法のうちのいずれかを用いて、正確な位置合わせを実施することができる。第1の技法では、個々の電子3次元画像を表す個々のポイントクラウドを合成して、個々のポイントクラウドのすべての画像データを含むモデルポイントクラウドを形成することができる。ポイントクラウドと位置合わせを行う操作は、異なる走査の範囲内の一致する幾何学的な点を特定するステップを含むようにしてもよい。種々のポイントクラウドが位置合わせされ、合成されて、モデルポイントクラウドが形成されるとすぐに、モデルポイントクラウドの範囲内の表面を決定することが可能となる。
プロセッサ626により実行される命令は、モデルポイントクラウドの範囲内の幾何学的な点を結合して、表面を表わすことができる。走査合成用モジュール630によって幾何学的な点から表面を決定してもよい。表面の決定は、ポイントクラウドの範囲内の囲繞する幾何学的な点と関連して幾何学的な点を分析するステップを含むようにしてもよい。
少なくとも2つの幾何学的な点を含む表面をまず特定することができる。この特定された表面と別の幾何学的な点との間の所定の距離を用いて、この幾何学的な点が特定された表面の一部であるかどうかを判定することができる。例えば、表面と幾何学的な点との間で法線ベクトルを特定してもよい。幾何学的な点が、5センチメートルなど所定の距離の範囲内にあれば、表面と再計算された表面とに幾何学的な点を割り当てることができる。相互の所定の距離の範囲内の幾何学的な点のすべては、表面の一部として含まれるものと考えてもよい。幾何学的な点がマルチ表面の所定の距離の範囲内にあれば、この幾何学的な点はオブジェクトのコーナーまたはエッジであってもよく、したがって、マルチ表面の各々にこの幾何学的な点を割り当ててもよい。モデルポイントクラウドの範囲内に表面が決定されるとすぐに、結合済みポイントクラウドを一体として正確にフィットさせて、幾何学モデルのモジュール632を用いて最終3次元電子モデルを形成することができる。さらに、テクスチャを表面と関連づけることができる。
第2の技法では、表面は個々のポイントクラウドの形で個々に決定される。前述したように、ポイントクラウドの形の幾何学的な点に基づいて、表面を決定してもよい。表面が特定されるとすぐに、この表面とテクスチャとを関連づけることができる。次いで、ポイントクラウドの合成が可能となる。この技法でのポイントクラウドの合成は、個々のポイントクラウド内の個々の幾何学的な点の代わりに、表面および/またはテクスチャに基づくようにしてもよい。ポイントクラウドが合成されるすぐに、結合済みポイントクラウドを一体として正確にフィットさせて、幾何学モデルモジュール632を用いて最終3次元電子モデルを形成することができる。
第3の技法では、表面は、個々のポイントクラウドの中で幾何学的な点から個々に決定される。表面が決定されるとすぐに、個々の表面のアウトラインが決定される。個々の表面のアウトラインは、3次元電子画像の各々を描くフレームワークを形成する。次いで、個々の走査のフレームワークを合成して、フレームワークモデルを形成するようにしてもよい。フレームワークの合成は、種々のポイントクラウドからの表面のアウトラインのアラインメントに基づくようにしてもよい。ポイントクラウドが結合されるとすぐに、結合済みポイントクラウドを一体として正確にフィットさせて、幾何学モデルモジュール632を用いて最終3次元電子モデルを形成することができる。さらに、テクスチャを表面と関連づけることができる。
予備の位置合わせが行われていないとき、正確な位置合わせは、個々のポイントクラウド内の色点と幾何学的な点とを結合して、ラインを形成するステップを含むようにしてもよい。走査合成用モジュール630内の命令によって色点と幾何学的な点とを結合することができる。幾何学的な点と色点とを用いて表された3次元電子画像から、1または2以上のラインを用いて表された同じ3次元電子画像へのポイントクラウドの変換を行うことができる。このようにして、選択された数の幾何学的な点が単一の1本のラインに変換される。
ラインの各々は、アウトラインデータで表されるラインであってもよい。アウトラインデータによって、データ操作機能において著しく大きな効率を得ることが可能となる。というのは、単一ラインによって、ポイントクラウド内の比較的多数の幾何学的な点と色点とを置き換えることが可能となるからである。例えば、ポイントクラウドが、ビルであるオブジェクトを表わす場合、走査合成用モジュール630は、3次元電子画像からビルの断面のラインを生成する命令を実行することができる。したがって、個々の走査用としてアウトラインデータファイルを生成することができる。
図7は、家屋であるオブジェクトの走査から展開された3次元電子画像702の一例である。アウトラインデータファイルを生成するために、走査のポイントクラウドから展開された3次元電子画像702はサブイメージ704に分割することができる。例えば、3次元電子画像702は、個々に1メートル厚のサブイメージ704に分割することができる。
サブイメージ704への分割には、ポイントクラウドをセグメントに“スライスする”ステップが含まれる。これらの“スライス”は垂直方向のもの、水平方向のもの、傾斜したものなどであってもよい。サブイメージ704の各々の範囲内で、単一の1本のラインであるライン706を展開することができる。ライン706は、サブイメージ(ポイントクラウドのセグメントなど)を表す。図7の例では、ライン706の第1の部分708はこの家屋の第1の壁を形成するポイントクラウドの部分を表わすことができる。ライン706の第2の部分710は屋根の第1の片側部分を表わすことができる。さらに、ビルなどのオブジェクトを水平方向に仕切って、部分的フロア平面712であるサブイメージに変えることができる。同様に、部分的フロア平面712は1つのラインに展開することも可能である。サブイメージの形成が可能なアプリケーションの一例として、サイラ・テクノロジ社(カリフォルニア州サンラモン)から入手可能なサイクルワンソフトウェアがある。
ラインにより表される個々のサブイメージをアウトラインデータファイルに記憶し、幾何学モデルモジュール632(図6)へこのサブイメージを入力してもよい。例えば、アウトラインデータファイルの各々は、dxfや.dwgファイルであってもよい。個々のサブイメージを描くポイントクラウドの個々の部分の複雑さとサイズとがラインにまで縮小しているため、3次元電子画像に関連する必要なデータ記憶容量と、データ転送容量と、処理パワーとの減少が可能となる。さらに、各々の走査からのラインの操作によって3次元電子モデルの形成が単純化される。
図6の幾何学モデルモジュール632は、3次元電子画像の正確な合成により、走査の正確な位置合わせを終了させ、3次元電子モデルの開発命令を含むようにしてもよい。さらに、幾何学モデルモジュール632は、幾何学的関連データを走査データに追加して、3次元電子モデルの開発を行うことも可能である。幾何学モデルモジュール632の一例には、Graphisoft(登録商標)US社(マサチューセッツ州、ニュートン)から入手可能なArchiCAD(登録商標)ソフトウェアが含まれる。
個々の3次元電子画像内の走査合成用モジュール630により特定される表面は、幾何学モデルモジュール632により組み立てられて、3次元電子モデルに変えられたものであってもよい。上記とは別に、3次元電子画像の各々が、ラインの形の幾何学的サブイメージにまで縮小されたものである場合、幾何学モデル化用モジュール632によりこれらのラインを同様に組み立てて、3次元電子モデルの形成を図ることも可能である。サイト計算システム106から予備用3次元電子モデルを入力する場合、幾何学モデルモジュール632を用いて正確な位置合わせ中に3次元電子画像をさらに操作して、最終3次元電子モデルの形成を図ることができる。幾何学モデルモジュール632により行われる正確な位置合わせの部分は、種々のポイントクラウドのさらに詳細な処理を行って、種々の3次元電子画像を一括してさらに精密にフィットさせて、幾何学画像に変換するステップを含むようにしてもよい。
さらに精密に3次元電子画像を一体としてフィットさせる詳細な処理を行って、3次元電子モデルを形成するステップは、自動化により行ってもよいし、手動により行ってもよいし、あるいは手動と自動との何らかの組み合わせにより行ってもよい。この詳細な処理中の3次元電子画像の操作と合成は、3次元電子画像の位置および/または回転を変更して、3次元電子画像を一体として正確にフィットさせるようにする命令を含むようにしてもよい。測位システム112により決定された位置情報に基づいて相互に関連して3次元電子画像の操作を行ってもよい。3次元電子画像がラインに分割された場合、幾何学モデルモジュール632を用いてサブイメージを表すラインを合成して、操作することも可能である。
3次元電子画像の操作と合成は、一体に近接している第1の3次元電子画像のポイントクラウドの範囲内の幾何学的な点(表面を形成する点など)を特定し、第1の3次元電子画像内の幾何学的な点と、第2の3次元電子画像内の幾何学的な点との間の距離を測定するステップを含むようにしてもよい。ガウスベースの計算法などの反復処理を用いて、第2の3次元電子画像内の幾何学的な点と類似している第1の3次元電子画像内の幾何学的な点を特定することができる。
異なる3次元電子画像内の同様の幾何学的な点の間での誤差に基づいて、誤差が最少化されるまで操作と再計算の反復を行うことができる。この誤差は、異なる3次元電子画像の隣接する幾何学的な点間のすべての2乗距離の加重を含む2乗誤差最小化法に基づいて決定してもよい。ポイントクラウドがサブイメージに分割された場合、ライン間の距離を用いてラインの操作と合成とを同様に行うことができる。
また、幾何学モデルモジュール632によって正確な位置合わせ中にカラーを操作して、3次元電子モデルを生成することも可能である。色点は幾何学的な点と同期して収集してもよい。したがって、3次元電子画像内の幾何学的な点と色点とを関連づけることが可能となる。例えば、1つの色点は9個の幾何学的な点と関連づけることが可能であり、したがって、幾何学的な点の間で色点の補間が可能となる。
上記とは別に、カラーが幾何学的な点と同期して収集されない場合、ストレッチングとスキューイングとを利用して、幾何学的な点と関連づけることができる。例えば、電子的に表されたオブジェクトのカラー用として写真を用いる場合、写真のカラーのストレッチングとスキューイングとを行って、幾何学的表面を幾何学的な点またはラインとフィットさせることができる。
動作中、個々の3次元電子画像を合成した方法についての変換および回転情報を利用して、幾何学的な点に対してカラー・ピクセルを対応づけることができる。異なる走査時の同じ領域から得られるカラーの違いは。対応画像の画像比較、対応ピクセルのピクセル比較、あるいは、異なる走査間でのこのような違いを分析するその他の任意の画像処理技術などの画像処理技術を利用する幾何学モデルモジュール632により分析される。さらに、ナビゲーション座標を利用して、異なる個々の走査処理中の太陽光線の角度(例えば陰影など)の差を決定することも可能である。さらに、色点間の表面色の空隙を塗りつぶすことができる。この空隙の塗りつぶしは例えば、ラスタ化処理によって、囲繞する色を補間することにより完成することができる。
3次元電子画像の表面を分画して複数の三角形に変えることにより、幾何学モデルモジュール632によってラスタ化処理を行うことができる。表面の範囲内の幾何学的な点を選択的に接続することにより、これらの三角形をオーバーラップしないようにし、上記三角形を形成して、点三角形の形成を図るようにしてもよい。幾何学的な点間のラインは個々の点三角形の3辺を描くことができる。さらに、境界三角形を形成することができる。
表面の周縁の周りにある幾何学的な点と境界との間でこれらの境界三角形を形成することができる。この境界を形成して、表面の外縁部の周りの表面を囲繞することができる。幾何学的な点を用いて上記境界三角形を形成して、個々の境界三角形の3辺のうちの2辺が、幾何学的な点から境界へ延伸するように図ることができる。境界三角形の各々の第3の辺は境界により形成することができる。
表面と関連づけられる色点を用いて、各々の三角形の範囲内の既存の色点のシェーディングを形成することができる。これらの既存の色点間の各々の三角形内に新たな色点を追加することによりシェーディングを形成することができる。追加される新たな色点の数は、表面に所望する詳細情報(分解能)の量に基づくようにしてもよい。
新たな色点の決定は、既存の色点間のカラー・スペクトルの範囲内で移動することによりカラー・ブレンディングに基づくようにしてもよい。カラー・ブレンディングは、既存の色点間の補間と、種々の既存の色点からの新たな色点の距離の差および/または既存の色点間のカラー・スペクトルの範囲内で移動する他の任意のカラー進化技術により実行することができる。ラスタ化の結果、各々の三角形により画定される表面領域のシェーディングは同じ状態のままにすることが可能であり、カラーに対してわずかな調整を行うことが可能であり、および/または、著しく異なるカラーを施すようにすることが可能である。個々の三角形は、任意の数のカラーまたは個々の三角形内の既存の色点および/または近接する三角形内の既存の色点に相応するカラー変動を含むようにしてもよい。
幾何学モデルモジュール632は3次元電子モデルを編成して、所定の構造に変えることも可能である。幾何学モデルモジュール632を用いてモデル化したオブジェクトの電子表示物の構造を層に分画することができる。3次元電子モデルからなるこれらの層は、単純な層である第1の層、構造層である第2の層、位置層である第3の層、ライブラリ層である第4の層、および、画像層である第5の層を含むことができる。上記単純な層は、走査済みのオブジェクトを表す3次元の幾何学的構造を含むようにしてもよい。この構造層は、直線、曲線、スプライン、点、テキスト情報、コメントおよび3次元電子モデルの構成プロセス中に利用したその他の任意の作成関連情報などのコンポーネントを含むようにしてもよい。
位置層には、走査データが収集されたときのスキャナ104の位置に関連する情報が含まれる。位置層情報はサイトの平面スケッチとマークした位置とを含むようにしてもよい。このマーク位置は、地理上の座標、並びに、走査中に位置システム112(図1)により得られる勾配と高度とを提供することができる。情報はサイトの平面スケッチの範囲内に表示することができる。
サイトの平面スケッチは、3次元電子モデルと同じ縮尺、位置および向きに合わせた表示可能な実例であってもよい。北のような所定の方向からの分散はサイトの平面スケッチで特定することができる。このサイトの平面スケッチは3次元電子モデルの表示を行うことも可能である。サイトの平面スケッチ内の3次元の電子モデルの向きは、オブジェクトの北方向がディスプレイの上縁部に隣接するようにすることができる。
ライブラリ層は命令とデータの形でライブラリ要素を含むようにしてもよい。ライブラリ要素を構成して、モデル化処理で利用し、モデル化されたオブジェクトの種々の態様を表わすようにすることができる。ライブラリ層は、ソーステクスチャを変換して複合テクスチャを形成する変換処理手順を含むことも可能である。画像層はオプションの層であってもよい。オブジェクトの写真を撮影した場合、画像層は、写真撮影時の撮影者の地理上の位置、並びに、撮影者の氏名などの一意の識別子のスケッチを含むようにしてもよい。
3次元電子モデルを用いてモデル化した個々のオブジェクトの幾何学的構造のモデルサイズは、均等なサイズに合わせて縮尺を行うことができる。オブジェクトは、複数のポリゴンを持つモデルによって所定の縮尺で幾何学的に表わすことができる。オブジェクトを表わす選択されたポリゴンの数は、所望の分解能、ハードウェア上の制限あるいはパフォーマンスや表示に影響を与えるその他の任意の考慮事項に基づいて選択することができる。例えば、10個の異なる電子モデルをディスプレイに1秒で描画することを望み、グラフィックプロセッサに1秒で10,000個のポリゴンを描画する制限がある場合、3次元電子モデルでは1000個のポリゴンまでオブジェクトの幾何学的形状を表わすことができる。ポリゴンの各々は、n個の頂点を含むものであってもよい(但しn>2)。
3次元電子モデルの構造は専ら1または2以上の平面から構成することができる。壁、天井、屋根などのような各々の平面は、ゼロの深さ(厚さ)を持つものであってもよい。色点が幾何学的な点と同期してキャプチャされなかった場合、3次元電子モデル内の平面の特徴的表面は所定のカラーで示すことができる。このカラーは、一般に、レンガ=赤、草木=緑などのような表示されたマテリアルに似たカラーであってもよい。さらに、ドア、窓、色付けされた建物外面の模様などの種々の平面の表面上の特徴の視覚表示はモデル化されていない。オブジェクトの表面上の特徴の表示は3次元電子モデルにテクスチャを追加することにより実現することができる。
3次元電子モデルを形成する3次元電子画像はオーバーラップしたものとして視覚的に表されるべきではない。したがって、平面の辺並びにモデルの範囲内で互いに接触する外側の辺は閉じられることが望ましい。すなわち、3次元電子モデルの視覚的表示は、視覚的に感知される実際のオブジェクトの中に存在しない孔、斜線あるいはその他の割れ目をいずれも含まないようにすることが望ましい。さらに、3次元電子モデルのボリュームコンポーネントは閉じられる。例えば、オブジェクトがビルである場合、典型的3次元電子モデルの一階は閉じたアウトラインを持つようにすることも可能である。
幾何学モデルモジュール632は高さ補正を含むようにしてもよい。3次元電子モデルの範囲内で高さ補正を適用して、傾斜と別の勾配とをシミュレートすることも可能である。ディスプレイ上のオブジェクトを表すグラフィック画像を平面上に投影してもよい。平面は地面、駐車場、通りなどのような残りの表面を表わすことも可能である。斜面を形成するために残りの表面が傾斜している場合、高さ補正を適用することも可能である。
図8は、丘陵の斜面などの斜面806上に配置されるオブジェクト804を表す3次元電子画像802の一例を示すものである。例示のオブジェクト804はビルである。走査対象のかなりの傾斜面上に位置するオブジェクトは、斜面を考慮にいれない3次元電子モデルを結果として生じる場合がある。すなわち、このオブジェクトは一部分が抜け落ちて表されているように見える場合がある。
幾何学モデルモジュール632は、表されたオブジェクト804の幾何学的形状の顕著な違いを伴うことなく、標高(elevation)を変化させることによりモデルの外側の辺を“均等化”しないようにすることができる。図示の例では、オブジェクト804のアウトラインには一階808が含まれる。一階808はアーキトレーブブロック810構造用の基礎部分を提供して、高度の変動を補正することができる。アーキトレーブブロック810は一階806から生成することも可能である。オブジェクト804をフィットさせるアーキトレーブブロック810の調整は調整点(Zmin)に基づくようにしてもよい。
図9は、3次元電子画像902の別の例を示す図である。3次元電子画像902にはストリート面904とブリッジ906の表示が含まれる。ストリート面904とブリッジ906との間の推移は、フローティングとして表わすことができる。“フローティング”という用語はストリート面904とブリッジ906との間の角関係を意味する。図示の例では、互いにフランク(flank)する角度は約6レベルまで異なるものであってもよい。
図6に例示のテクスチャライジングモジュール634は、3次元電子モデルの1または2以上の表面を対象とする1または2以上のテクスチャの生成命令を含むテクスチャライジングシステムである。3次元電子画像の表面用または他の任意の形式のオブジェクトの電子表示物用のテクスチャライジングシステムを用いてテクスチャを生成することも可能である。したがって、テクスチャライジングシステムを用いて形成されるテクスチャは、3次元電子画像および/または前述したように生成されるモデルの表面の表示に限定されるものではない。さらに、テクスチャライジングシステムは画像生成システムの前述した例での処理に限定されるものではない。代わりに、テクスチャライジングシステムは、スタンドアロン型システムであってもよいし、あるいは、電子画像の出力が可能な任意のシステムと協働して処理を行うものであってもよい。
テクスチャライジングモジュール634は新たなテクスチャの生成命令を含むようにしてもよい。この新たなテクスチャは既存のテクスチャの変更および/または合成により生成することも可能である。テクスチャライジングモジュール634は、複数のユーザがアクセス可能なテクスチャ・ライブラリをサポートする命令を含むようにしてもよい。テクスチャ・ライブラリ内のテクスチャを用いて、ビルなどのオブジェクトの3次元電子モデルをテクスチャライズすることができる。
図示の例では、テクスチャモジュール634は、テクスチャ高速生成用画像生成システム100の当該部分であってもよい。このテクスチャモジュール634の機能として、既存のテクスチャ(ソーステクスチャ)に基づいて、新たなテクスチャや調整済みテクスチャ(複合テクスチャ)の生成が可能であるという点が挙げられる。例えば、ビルのユニークな部分をソーステクスチャとして含む写真や画像からとることも可能である。ソーステクスチャ、異なるソーステクスチャおよび/または1または2以上のソーステクスチャの変換によりビルの種々の部分のテクスチャを表して、複合テクスチャを形成することも可能である。
したがって、写真や画像からとられるおそらく数百の異なるテクスチャの生成が減ることにより、コンピュータメモリとテクスチャのキャプチャ時のおよび/または生成時のかなりの費用の発生を避けることが可能となる。これといった特徴のないおよび/または魅力のないものとなる可能性がある単純な汎用的テクスチャへ戻ることなくこの節減を実現することが可能となる。ソーステクスチャの合成のほとんど無限の可能性によって、過度のメモリを費やすことなく3次元電子モデルに適合される望ましい複合テクスチャの生成が可能となる。すなわち、複合テクスチャの画像の代わりに、複合テクスチャの生成処理手順を記憶することができる。上記とは別に、複合テクスチャ自体を記憶することができる。
図10は、図6に例示のテクスチャライジングモジュール634の範囲内での命令を示すさらに詳細なブロック図の例である。テクスチャライジングモジュール634は、テクスチャエンジン1002、ライブラリコンポーネント1004およびグラフィックユーザインタフェース(GUI)コンポーネント1006を備える。別の例では、テクスチャライジングモジュール634の機能を表わすために大小様々な数のエンジンとコンポーネントを示すことができる。さらに、別の例では、テクスチャライジングモジュール634は、実験室計算システム108の外部で、および、実験室計算システム108から独立に動作することができる。
C++、ビジュアルベーシック、UNIX(登録商標)、Java(登録商標)、あるいは他の任意のソースコード言語でテクスチャライジングモジュール634内の命令を開発することも可能である。テクスチャライジングモジュール634の開発は、マイクロソフト(登録商標)社のビジュアルスタジオ、Borland社から出されているJビルダ、Borland社から出されているC++ビルダあるいは他の任意の開発用ツールを用いて行うことができる。別の例では、別の形式、フォーマットおよび/またはツールを用いてテクスチャライジングモジュール634内の命令を開発することができる。
テクスチャエンジン1002は、テクスチャライジングモジュール634の操作機能全体を出力する命令を備えることができる。さらに、テクスチャエンジン1002は、協働処理並びにライブラリコンポーネント1004とグラフィックユーザインタフェース・コンポーネント1006との制御を調整することも可能である。テクスチャエンジン1002によって、テクスチャライジングモジュール634は、ウィンドウズ(登録商標)9x、NT、2000およびXPのようなプラットフォームおよびネットワークアクセスの有無を問わずその他の任意のプラットフォームを処理することが可能となる。これに応じて、1つの例では、テクスチャライジングモジュール634のユーザインタフェースは、“ウィンドウズ(登録商標)様の”ルックアンドフィールを備えることができる。建築家、設計者などのようなユーザによる処理用としてテクスチャライジングモジュール634の設計を行うことが可能であり、したがって、ソフトウェア開発者の専門的知識を必要とせずに処理を行うことが可能となる。さらに、テクスチャライジングモジュール634は、訓練されていないユーザが誤って開始した有害なイベントから保護を行うセーフガード機能を装備することも可能である。
ライブラリコンポーネント1004はテクスチャ・ライブラリを表わし、テクスチャ・ライブラリ内のテクスチャライジングモジュール634の基本要素であるテクスチャを分類することができる。ライブラリコンポーネント1004の例はソーステクスチャカテゴリ1008と複合テクスチャカテゴリ1010とを備え、これら2つのカテゴリは分類できるテクスチャの種別を示すものである。別の例では、大小様々な数のカテゴリでテクスチャの種別を分類することができる。さらに、ライブラリコンポーネント1004はテクスチャディレクトリ1012を含むようにしてもよい。
本願明細書で使用されているように、“単数のテクスチャ”または“複数のテクスチャ”という用語は、オブジェクトの1または2以上の表面上で視覚的に感知される実際の色および/または特徴のリアルな表示を意味するものである。したがって、電子の形でオブジェクトの表面に貼り付けられる“テクスチャ”は、実際のオブジェクトを見ているとき、視覚的に感知されるオブジェクトの表面上の特徴をほとんど複製するものである。例えば、ビルの表面のテクスチャは、窓、彫刻、鋳物、手摺り、穴、積み煉瓦、こけら板、などを含むようにしてもよい。このテクスチャは、塗りたての表面、日陰の表面および/または陽の当たる表面を表わすものであってもよいし、同様に、反射光、表面上へ投影された光画像を表わすものであってもよい。このようにして、テクスチャを用いて、構造的特徴、芸術的特徴、照明およびオブジェクトの1または2以上の表面上に存在するその他の任意の視覚的特徴の複製あるいはほとんどの再現をあたかも実際のオブジェクトが観察されるかのように行うことができる。
ソーステクスチャカテゴリ1008には、少なくとも1つのソーステクスチャが含まれる。ソーステクスチャは、ソーステクスチャのカテゴリ1008に記憶することができる電子形式の画像である。画像は、ビットマップ、JPEG、TIF、DWGのような画像ファイルの形であってもよいし、あるいは、人、オブジェクト、あるいは他の任意の視覚的に感知される主題の光学的描写を示すその他の任意の電子形式であってもよい。画像の電子形式の範囲内に存在するピクセルは、画像のテクスチャを表わす赤、緑、青および透明なものであってもよい。例えば、ソーステクスチャは、デジタルカメラで撮影したデジタル写真から作成したものであってもよい。ソーステクスチャの1例として、ビルの建物外面のビットマップ画像がある。
複合テクスチャカテゴリ1010には複合テクスチャが含まれる。複合テクスチャは1または2以上のソーステクスチャから構成される。これらの複合テクスチャは、複合テクスチャカテゴリ1010の範囲内で変換処理手順を用いて表される。これらの変換処理手順は複合テクスチャカテゴリ1010に記憶することも可能である。変換処理手順は操作命令および/または合成命令を出力し、これらの命令は、ソーステクスチャカテゴリ1008内の1または2以上のソーステクスチャに適用されて、1または2以上の複合テクスチャを形成する。したがって、これらの複合テクスチャには、複合テクスチャを構成する元となるソーステクスチャの参照符号が含まれる。
変換処理手順に基づく1または2以上のソーステクスチャの変換は、1または2以上のソーステクスチャに対して行われる1または2以上の画像処理を含むようにしてもよい。これらの画像処理は、例えば、クリッピング、色付け、回転、鏡映、反復、縮尺、位置決め、ソート、および/または1または2以上のソーステクスチャの他の任意のグラフ関連操作を含むようにしてもよい。
図11は、ソーステクスチャ1102を用いて複合テクスチャ1100を構成する例示の変換処理手順の範囲内での個々の画像処理の結果を示す図である。ソーステクスチャ1102は、ブロック1104で変換処理手順によって特定される。ブロック1106で変換処理手順によってクリッピングが適用される。というのは、ソーステクスチャ1102の一部分のみを必要とするからである。ブロック1108で、1または2以上のカラーでソーステクスチャを多重層化することにより、変換処理手順による色付けが施される。ブロック1110で変換処理手順によってソーステクスチャ1102は回転される。図示の例では、ソーステクスチャ1102はほとんど90度のステップで回転され、その結果回転されたソーステクスチャ1102と新たな外接矩形との間の空間は透明な色で塗りつぶされる。別の例では、回転ステップは上記回転ステップよりも大きくてもよいし、小さくてもよい。
ブロック1112で、ソーステクスチャ1102はX軸とY軸上で鏡映される。ソーステクスチャ1102は、ブロック1114でX軸線とY軸線とに沿って複数回反復される。これらの反復されたソーステクスチャ1102は切れ目なく連続したものであってもよい。上記とは別に、反復された各ソーステクスチャ1102の間で透明な色で塗りつぶされる空隙を画定することができる。ブロック1116で、反復されるソーステクスチャ1102の縮尺がX軸とY軸に沿って行われる。フィルタリングなしでこの縮尺を行うことができる。上記とは別に、双一次フィルタリングあるいは他の任意の縮尺やフィルタリング技術を用いて縮尺を行ってもよい。
変換済みソーステクスチャ1102はアラインメントとソーティングとにより位置決めされ、ブロック1118で複合テクスチャ1100の少なくとも一部を形成することができる。これに応じて、マルチ変換済みソーステクスチャ1102の位置合わせを行って、複合テクスチャ1100を作成することができる。マルチ変換済みソーステクスチャ1102は、互いに切れ目のない連続したアラインメントを行うことができる。上記とは別に、2または3以上の変換済みソーステクスチャ1102のアラインメントを行ってオーバーラップさせることができる。オーバーラップするソーステクスチャ1102が存在する場合、変換処理手順の一部としてオーバーラップの順序を指定することができる。このオーバーラップの順序によって、複合テクスチャ1100を形成するために変換済みソーステクスチャ1102が置かれている特別の順序が提供される。
複合テクスチャ1100は、最初、黒で塗りつぶすことができ、および/または、完全に透明なテクスチャにすることができる。所定の論理式に従って複合テクスチャ1100の範囲内でソーステクスチャ1102の変換と位置決めとを行うことができる。例えば、ソーステクスチャ1102の変換用論理式は以下のようなものとすることができる:R0=R0*(1−A1)+R1*A1 G0=G0*(1−A1)+G1*A1 式 I B0=B0*(1−A1)+B1*A1 A0=A0*(1−A1)+A1
但し、R0、G0、B0、A0は、複合テクスチャ1100の色(R=赤、G=緑、B=青)および透明度(A)であり、R1、G1、B1、A1はソーステクスチャ1102の色と透明度である。本例では、ソーステクスチャ1102の色と透明度は約0.0〜1.0の範囲内にある。
図10で、テクスチャディレクトリ1012はテクスチャライジングモジュール634用のツリー構造を与えることができる。テクスチャディレクトリ1012のツリー構造は識別子を分類することができる。テクスチャライジングモジュール634の範囲内のディレクトリは、テクスチャディレクトリ1012の範囲内の一意のディレクトリ識別子を用いて呼び出すことができる。一意のディレクトリ識別子は特定のディレクトリに対応する一意の数字および/または文字の組み合わせとすることができる。さらに、各々のディレクトリの範囲内で、少なくとも1つのソーステクスチャ用としておよび/または少なくとも1つの複合テクスチャ用として一意のテクスチャ識別子を指定することができる。一意のテクスチャ識別子は、テクスチャを一意に特定する数字および/または文字の任意の組み合わせとすることができる。ディレクトリを作成するとき、ソーステクスチャを記憶するとき、あるいは、変換処理手順を用いて複合テクスチャを形成するとき、一意のディレクトリ識別子とテクスチャ識別子とを割り当てることも可能である。
図12はテクスチャディレクトリ1012の一例である。例示のテクスチャディレクトリ1012には、少なくとも1つの一意のディレクトリ1202と、少なくとも1つの一意のテクスチャ1204とが含まれる。ディレクトリ1202には、識別子フィールド1206、名称フィールド1208、クリエータフィールド1210、日付/時刻フィールド1212および記述フィールド1214の形で属性が含まれる。別の例では、任意の種別を示す大小様々な数のフィールドをディレクトリ1202の中に含むものであってもよく、それによってテクスチャディレクトリ1012の記述と管理とが可能となる。
識別子フィールド1206は、一意の構成で数字および/または文字で表わされる一意のディレクトリ識別子を含むようにしてもよい。ディレクトリを作成するとき、一意のディレクトリ識別子を生成することができる。ディレクトリ識別子はディレクトリ1202を一意に識別し、変わることはない。名称フィールド1208は“屋根頂部”などのディレクトリ1202を記述するタームであってもよい。クリエータフィールド1210はディレクトリを作成したユーザの氏名を含むようにしてもよい。日付/時刻フィールド1212は、ディレクトリ1202が作成された日付と時刻を含むフィールドであってもよい。記述フィールド1214は、ディレクトリ1202の内容について簡単に説明することができる。
テクスチャ1204は、テクスチャの特定と管理とを可能にする属性を含むようにしてもよい。図示の例では、テクスチャ1204には、識別子フィールド1206、名称フィールド1208、クリエータフィールド1210、日付/時刻フィールド1212および記述フィールド1214が含まれる。これらのフィールドは、ディレクトリ1202の場合と同様であるが、ディレクトリに関連するものではなく、テクスチャに関連するフィールドである。テクスチャ1204は、画像フィールド1216とテクスチャフィールド1218とを含むようにしてもよい。別の例では、大小様々な数の種別フィールドを含むようにしてもよい。
画像フィールド1216の範囲内で、ビットマップファイル(*.bmp)などの画像ファイルの名称を特定することも可能である。この特定された画像ファイルはオブジェクト用ソーステクスチャであってもよい。画像ファイルは識別子フィールド1206で一意のテクスチャ識別子と関連づけられた一意のテクスチャ1204であってもよい。上記とは別に、画像フィールド1216はブランクであってもよいし、テクスチャフィールド1218は、変換の1または2以上のソーステクスチャを呼び出して、1または2以上の複合テクスチャを形成する複合テクスチャカテゴリの中に変換処理手順の一意の識別子を含むようにしてもよい。
テクスチャディレクトリ1012(図10)の一例は、一意のディレクトリ識別子00000000(無符号の長いゼロ)を持つライブラリコンポーネント1004のルートディレクトリを含むようにしてもよい。テクスチャディレクトリ1012の下に他のディレクトリ1202とテクスチャ1204を形成することができる。小さなライブラリの1例を表1に示す。
Figure 2005537535
(表1)
図10で、グラフィックユーザインタフェース(GUI)コンポーネント1006は、テクスチャ選択コンポーネント1014、ソーステクスチャ処理コンポーネント1016および複合テクスチャ構成コンポーネント1018を含むようにしてもよい。GUIコンポーネント1006は、ウィンドウズ(登録商標)API、マイクロソフト(登録商標)ファウンデーション1クラス、リナックスから得られるKDE、WindRiver(登録商標)から得られるZincTM、あるいは他の任意のGUI関連ソフトウェアなどのソフトウェアを用いて実現可能である。別の例では、GUIコンポーネント1006の機能を示す追加のより少数のコンポーネントを含むようにしてもよい。
テクスチャ選択コンポーネント1014はテクスチャの選択命令を含むようにしてもよい。例えば、選択はライブラリコンポーネント1004からのテクスチャの抽出またはライブラリコンポーネント1004内へのテクスチャの挿入を含むようにしてもよい。テクスチャの選択は選択画面を用いて行うことができる。この選択画面は、ディレクトリ1012のツリー構造からのテクスチャの選択に基づいてテクスチャを選択する機能を与えることができる。さらに、選択画面は、前述したテクスチャ属性の1または2以上のサーチに基づいてブールサーチなどのテクスチャを選択する機能を与えることができる。テクスチャ属性検索エンジンはテクスチャ選択コンポーネント1014の一部であってもよい。
図13は選択表示1300の1例を示すものである。選択表示1300は、サーチモード1302である第1のモードとライブラリモード1304である第2のモードとを備える。サーチモード1302を選択すると、ユーザは検索タームエントリ1306に1または2以上の検索タームを入力し、サーチフィールドセレクタ1308であるプルダウンメニューから1または2以上のサーチフィールドを選択することができる。サーチ結果は結果ウインドウ1310に表示することができる。図示の例では、検索ターム“黒い教会”を用いて“テキスト”タイプのサーチを行うことによって、サーチ中に特定された関連するテキストと共に“窓1”と“屋根2”という名称で結果ウインドウ1310に2つのテクスチャが示された。結果ウインドウ1310から得られるテクスチャのうちの1つを選択する際に、サムビュー1312にテクスチャの小さな縮尺画像を表示することができる。このサムビュー1312から、例えば、選択されたテクスチャをドラッグし、ドロップし、あるいはダブルクリックして、複合テクスチャに追加することができる。
ライブラリ選択1304が行われると、ツリー構造のウインドウ1314のテクスチャディレクトリ1012(図10)内のテクスチャツリー構造を表示することができる。ユーザはスクロールを行い、さらに、ツリー構造ウインドウ1314内のツリー構造部分のオープンとクローズとを行うことができる。ツリー構造ウインドウ1314からテクスチャのうちの1つを選択することにより、サムビュー1312でテクスチャの小さな縮尺画像を表示することができる。
また図10では、ソーステクスチャ処理コンポーネント1016は、ソーステクスチャの変換の表示と構成とをサポートする命令を出力して、複合テクスチャを構成することができる。さらに詳細に言えば、ソーステクスチャ処理コンポーネント1016はソーステクスチャのクリッピング、色付け、回転および鏡映を行うことができる。ソーステクスチャの操作表示を用いて、変換処理手順のこの部分の準備を形成することができる。
図14はソーステクスチャの操作表示1400の一例である。ソーステクスチャの操作表示1400は作業領域1402とソーステクスチャ選択スペース1404とを備える。作業領域1402はソーステクスチャ選択スペース1404から選択されたソーステクスチャを表示することができる。ソーステクスチャ選択スペース1404は、個々に異なるソーステクスチャの1または2以上の画像をサムビュー1406に表示することができる。ソーステクスチャ選択スペース1404に表示されるソーステクスチャは、テクスチャ選択コンポーネント1014(図10)を用いて選択されたソーステクスチャであってもよい。
作業領域1402に示されている現在選択されているソーステクスチャを操作してソーステクスチャの変換を行うことができる。操作は、選択したソーステクスチャと関連するクリッピング矩形1408を設定するステップを含むようにしてもよい。作業領域1402の範囲内でのソーステクスチャ全体またはソーステクスチャの選択部分の拡大(ズームなど)とスクロールとを行って、ユーザがクリッピング矩形1408を正確に設定できるようにすることが可能となる。クリッピング用矩形1408を用いて、作業領域1402の範囲内でのソーステクスチャのクリッピング操作、回転操作および鏡映操作を行うことができる。ソーステクスチャ選択スペース1404内のサムビュー1406に表示されたテクスチャは、相対ポインティングデバイスまたは絶対ポインティングデバイスを用いて選択結果のドラッグ&ドロップ処理またはダブルクリックを行うことにより作業領域1402へ移動させることも可能である。
作業領域1402はツールバー1410を備えることも可能である。ツールバー1410はソーステクスチャの変換を行う選択ボタン(OP1〜OPnとして特定される)を備えることができる。ソーステクスチャの変換中行うことができる種々の操作処理用として選択ボタンを指定してもよい。例えば、ソーステクスチャのクリッピング、色付け、回転および鏡映の各操作をサポートするように選択ボタンを指定することができる。別の例では、特定のキーボードエントリや音声コマンドなどの種々の操作機能を作業領域1402の範囲内で呼び出す別の形の簡単なアクセスコマンドを採用してもよい。
ソーステクスチャに対して行われる個々の変換操作をソース変換処理手順の一部としてソーステクスチャ処理コンポーネント1016によりキャプチャし、記憶することも可能である。個々のソーステクスチャに対するソース変換処理手順を変換済みソーステクスチャと関連づけることも可能である。これに応じて、変換済みソーステクスチャを利用して複合テクスチャを形成する際、上記関連するソース変換処理手順を、複合テクスチャの形成に用いる変換処理手順の一部にしてもよい。
上記ソース変換処理手順は1組の実行可能な命令であってもよい。このソース変換処理手順の中にソーステクスチャの一意のIDを含めることも可能である。したがって、変換済みの画像ではなく、ソース変換処理手順を記憶し、この処理手順にアクセスして、変換された画像を生成できることになる。プロセッサ626は、ソース変換処理手順で命令を実行することにより画像を再現してもよい。
また図10では、複合テクスチャ構成コンポーネント1018は、ユーザが1または2以上のソーステクスチャから複合テクスチャを形成できるようにする命令を出すことが可能である。ソーステクスチャのうちの1または2以上のソーステクスチャの変換を行うことにより複合テクスチャを形成することができる。複合テクスチャの形成表示を用いて複合テクスチャの形成を達成することができる。
図15は複合テクスチャの形成表示1500の1例である。複合テクスチャが複合テクスチャの形成表示1500の例に描かれている。複合テクスチャ構成コンポーネント1018(図10)を用いて、複合テクスチャ全体または選択部分のズームとスクロールとを行うことができる。さらに、1または2以上のソーステクスチャの選択と構成とを通じて複合テクスチャ構成コンポーネント1018内の命令を開始して、複合テクスチャの形成を図ることができる。ソーステクスチャの選択と構成はソーステクスチャの変換を含むようにしてもよい。変換済みソーステクスチャは複合テクスチャの形成表示1500の際に実行される命令によってロック/ロック解除を行うことができる。所望の状態に変換済みソーステクスチャをロックして、偶然変更されるのを防ぐようにすることも可能である。
複合テクスチャ構成コンポーネント1018(図10)の範囲内の命令によって、ソーステクスチャの反復、縮尺、位置決めおよびソーティング変換をサポートするようにしてもよい。複合テクスチャ構成コンポーネント1018は、複素変換処理手順の一部として変換処理の各々をキャプチャし、記憶するようにしてもよい。複素変換処理手順は、ソーステクスチャの一意のテクスチャ識別子と、ソーステクスチャの変換を実行する命令とを同様に含むことも可能である。上記とは別に、ソーステクスチャと関連づけられるソース変換処理手順(必要な場合には)を後ろに付加することにより、複素変換処理手順を複合テクスチャと関連づけることができる。別の代替例では、追加の変換処理手順として複素変換処理手順を複合テクスチャと関連づけることができる。
複合テクスチャ構成コンポーネント1018(図10)を用いる変換の実行は、クリッピング用矩形1408(図14)および/またはソーステクスチャ外接矩形1502を利用する複合テクスチャの編集ステップを含むようにしてもよい。ソーステクスチャ外接矩形1502を用いて変換の縮尺と位置決めの実行並びに対応する複素変換処理手順の作成を行うことができる。例示されているソーステクスチャ外接矩形1502の例と共に、コーナーの点1504と中心点1506が含まれる。水平線と垂直線とがコーナーの点1504と中心点1506との間で延伸して、ソース外接矩形1502のサイズを画定する。コーナーの点1504または中心点1506のクリックとドラッグとを行うことにより、コーナーの点1504と中心点1506とを用いてソース外接矩形1502のサイズ調整を行うことができる。ソース外接矩形1502は、互いに接触するように隣接して配置されているテクスチャの操作処理の自動化を行うことも可能である。
複合テクスチャ構成コンポーネント1018(図10)により反復とソーティングの変換処理手順を行うことができる。ツールバー1410の選択ボタンまたは複合テクスチャの形成表示1500と関連づけられる他の何らかの機能により反復変換処理手順の制御を行うことができる。反復されるソーステクスチャ間の空隙のサイズは複合テクスチャ構成コンポーネント1018を用いて変更することができる。さらに、どのソーステクスチャを第1に描くかを指示するソーティング変換処理手順は複合テクスチャ構成コンポーネント1018を用いて設定/変更を行うことができる。
デジタルカメラや他の画像キャプチャ装置で撮影された写真などの背景画像を下地にすることにより複合テクスチャをさらにサポートすることも可能である。背景画像を複合テクスチャと混在させずに背景に示すようにしてもよい。例えば、走査対象のビルを表わす複合テクスチャの背景に、隣接して位置するビルの前面側の画像を追えることができる。複合テクスチャを基準として上記背景画像の相対的縮尺と位置決めを同様に行うことができる。さらに、背景画像に対する複素変換処理手順を作成することも可能である。
複合テクスチャの終了時に、ソース変換処理手順と複素変換処理手順とを組み合わせて、1つの変換処理手順を形成することも可能である。この変換処理手順の中に、複合テクスチャの形成に用いるすべてのソーステクスチャ用の一意のテクスチャ識別子を含めてもよい。さらに、変換処理手順は、ソーステクスチャの選択的操作を行って複合テクスチャを形成する論理命令を含むようにしてもよい。したがって、画像ファイルの形で実際の複合テクスチャを記憶する代わりに、対応する変換処理手順を一意のテクスチャ識別子に割り当て、この対応する変換処理手順をテクスチャディレクトリ1012(図10)の中で類別してもよい。
図16は、選択表示1300、ソーステクスチャの操作表示1400および複合テクスチャの形成表示1500を含むテクスチャメーカ表示1600の一例である。したがって、ソーステクスチャを特定し、変換し、操作して、単一の表示を用いて複合テクスチャを形成するようにしてもよい。別の例では、テクスチャメーカ表示1600を別様に構成したり、前述した表示の別の何らかの組み合わせを行ったりしてもよい。
前述したテクスチャ関連処理の他に、テクスチャライジングモジュール634(図6)内の命令から追加機能を利用できるようにしてもよい。この追加機能は表示メニューやその他のユーザインタフェースから利用できるようにすることも可能である。このような機能は新たな複合テクスチャを作成する能力を含むようにしてもよい。新たな複合テクスチャの作成は、サイズ、変換処理手順およびその他の任意のテクスチャ関連情報などのテクスチャに関連するプロパティの選択ステップを含むようにしてもよい。さらに、既存の複合テクスチャの関連するプロパティのいくつかまたはすべてを利用する既存の複合テクスチャのコピーから新たなソーステクスチャを作成することも可能である。画像の形で複合テクスチャを作成する変換処理手順の実行に続いて、ソーステクスチャとして画像を記憶することも可能である。
テクスチャライジングモジュール634の範囲内の機能はサイズの編集機能、変換処理手順および/またはテクスチャと関連づけられる他の任意の情報も含むようにしてもよい。他の情報が、例えば3次元電子モデルの前述した層内の情報を含むようにしてもよい。サイズおよびその他のプロパティはいつでも編集が可能である。追加機能はセーブ/ロード操作の実行機能、お気に入り選択機能、ツールチップおよびヘルプメニューを備えることも可能である。
テクスチャライジングモジュール634は、クライアント/サーバアーキテクチャの範囲内にテクスチャとライブラリ構造との同期をサポートする命令を含むようにしてもよい。テクスチャライジングモジュール634は、サーバコンピュータ上でおよび任意の台数のクライアントコンピュータ上でも処理を行うことが可能である。クライアントコンピュータのうちの1つのコンピュータを用いて、ユーザがサーバにアクセスすることも可能である。
マルチバージョンのテクスチャ構造またはライブラリ構造の作成を防止する任意の技法を用いて、ライブラリコンポーネント1004でテクスチャとライブラリ構造の保守管理を行うことも可能である。2人のユーザによってテクスチャ構造またはライブラリ構造の同時修正を行うとき、マルチバージョンを作成するようにしてもよい。マルチバージョンを避ける技法の一例にはシングルユーザ処理が含まれる。シングルユーザ処理を用いて、一人のユーザが1または2以上のテクスチャおよび/またはライブラリ構造の一部を修正しているとき、シングルユーザが修正を終了するまで、ライブラリコンポーネント1004内の命令によって別のユーザの1または2以上のテクスチャおよび/またはライブラリの一部へのアクセスを拒否するようにしてもよい。
上記とは別に、同期処理を実行してもよい。ライブラリコンポーネント1004内の命令によって、テクスチャライジングモジュール634内での種々のユーザの作業同期を調整するようにしてもよい。複数のユーザがテクスチャを作成し、利用するとき、ユーザはサーバを介して互いに同期をとるようにしてもよい。
ライブラリモジュール1004(図10)内のユーザのクライアントコンピュータのローカルテクスチャ・ライブラリに個々のユーザの作業内容をローカルに記憶することも可能である。サーバは、すべてのユーザの作業内容をマスタテクスチャ・ライブラリ内に記憶する機能を持つライブラリモジュール1004を備えることも可能である。ユーザ/クライアントはクライアントコンピュータを使用してサーバと接続することができ、双方のライブラリ(マスタライブラリとローカルライブラリ)の同期が可能となる。次いで、ユーザはサーバから切断を行うことが可能となる。これによって定常な接続は存在しなくなる。本願明細書で使用されているように、“接続”という用語は、(ユーザパスワード方式などの)ログイン手続きを用いて、インターネットおよび/またはLANなどのような公衆アクセス可能なネットワークを介して、TCP/IPプロトコルを利用するネットワークなどの媒体を介してクライアントがサーバと通信を確立することを意味する。接続を形成するためのパラメータはお気に入りメニューの一部であってもよい。
同期処理中に、個々のディレクトリおよびテクスチャと関連づけられた一意の識別子と、日付/時刻とを利用することができる。一意の識別子を用いてテクスチャディレクトリのどの部分がローカルライブラリとマスタライブラリの中で同じであるかを検出することができる。さらに、日付/時刻を用いて、どのテクスチャおよび/またはディレクトリの方がより新しいものであるかを決定することができる。
例えば、マスタライブラリとローカルライブラリの双方は表2.10に示す情報を提供することができる。
Figure 2005537535
(表2)
次いで、第1のユーザはローカルライブラリに対する修正を行う。この修正には、一意の識別子“8E1BC531”を持つ新たなテクスチャの作成ステップが含まれ、“1238426D”として一意的に特定される既存のテクスチャの位置が変更され、さらに、表3に描かれているように“9B476CE8”と一意的に特定される別の既存のテクスチャの記述が変更される。
Figure 2005537535
(表3)
一方、マスタライブラリは第2のユーザによりすでに更新されている。第2のユーザ2は、“175FC4EA”と一意的に特定される新たなテクスチャを持つテクスチャディレクトリを更新し、さらに、表4に例示のように“9B476CE8”として特定されるテクスチャも修正した。“9B476CE8”として特定されるテクスチャには記述に対する変更は含まれないが、代わりに、ディレクトリ位置とテクスチャの構成とが含まれる。
Figure 2005537535
(表4)
第1のユーザがサーバとの接続を形成し、第1のユーザのローカルライブラリをマスタライブラリと同期させたとき、結果として生じるライブラリの変化が表5に示されている。詳細には、“8E1BC531”として特定される新規作成テクスチャが指定のディレクトリ位置に新しく追加される。さらに、“1238426D”として特定されるテクスチャは指定のディレクトリ位置へ移される。さらに、“9B476CE8”として特定されるテクスチャ(第1および第2のユーザの双方により変更されるテクスチャ)が第2のユーザが指定したディレクトリ位置に配置される。テクスチャ“9B476CE8”には、第1のユーザが行うテクスチャの構成の変更および第2のユーザが変更する新たな記述が含まれる。したがって、“9B476CE8”として特定されるテクスチャは双方の更新が混在したものとなる。
Figure 2005537535
(表5)
“9B476CE8”として特定されるテクスチャに対する複数のユーザによる更新はテクスチャライジングモジュール634により自動的に行うことができる。上記とは別に、同期処理の際、テクスチャライジングモジュール634は、第1のユーザが修正したバージョンの方がさらに最新のものであると決定することができる。さらに、テクスチャライジングモジュール634は、第1のユーザが修正したバージョンで、ディレクトリ位置とテクスチャの構成とが異なるものであることを決定することができる。さらに、テクスチャライジングモジュール634は、第1のユーザが修正したバージョンにおいて、第1のユーザがディレクトリ位置と構成とを変更しなかったことを決定するようにしてもよい。所定の条件に基づいて、テクスチャライジングモジュール634は、“9B476CE8”として特定されるテクスチャと関連づけられる不整合属性(テクスチャ、名称とディレクトリ位置)の各々に対して不整合フラグをセットしてもよい。さらに、テクスチャライジングモジュール634は第1のユーザからの命令を要求する対話ボックスを生成することも可能である。
対話ボックスは不整合属性を示し、どの属性を“9B476CE8”として特定するテクスチャと関連づけた状態にしておくべきかを決定するように第1のユーザに要求することが可能となる。この時、第1のユーザは正しい属性を選択することができる。上記とは別に、第1のユーザは、同期処理を打ち切って、“9B476CE8”として特定されるテクスチャの二重化などの別の何らかのアクションを行って、別の一意のテクスチャ識別子を提供するようにしてもよい。ディレクトリに関しても同様のアクションを行うようにしてもよい。しかし、不整合ディレクトリの場合、テクスチャ名と、記述と、ディレクトリ位置のみを不整合の基礎とすることも可能である。
個々のテクスチャに対する識別子の一意性を保証するために、サーバは、同期処理中、個々のユーザに1グループの未使用識別子を割り当ててもよい。このグループは所定数の一意の識別子を含むようにしてもよい。上記所定数の一意の識別子は、例えば、データを記憶するために割り当てられたメモリに基づくようにしてもよい。例えば、識別子のアドレス空間が32ビットであれば、グループのサイズは1024ビットまたはそれ以上にしてもよい。
サーバ上で作動しているテクスチャライジングモジュール634内の命令はネットワーク通信機能とサーバ管理者機能とを含むようにしてもよい。通信機能には、ユーザがクライアントコンピュータを操作してネットワークを介して接続するのを待ちながら、サーバがある特定のTCP/IPポート上で“リスニング”を行うステップが含まれる。サーバはバックグラウンドで作動していてもよく、システムトレイにアイコンを備えるようにしてもよい。アイコンのダブルクリックなどでコマンドを入力することにより、サーバ管理者は新たなライブラリを作成したり、テクスチャのロード/セーブ/バックアップ、インポートおよび/またはエクスポートを行ったり、ネットワーク通信に関連するパラメータを選択したり、ユーザ名とパスワードとを管理したりする機能を構成用対話ボックスに設けるようにしてもよい。サーバは識別子グループファイルで1グループの一意の識別子のエクスポートを行うようにしてもよい。クライアントコンピュータを使用するユーザが、ネットワークへのアクセスを行うことなく、識別子グループファイルをインポートして、クライアントコンピュータのローカルライブラリの範囲内に当該ユーザが作成したテクスチャ用の一意の識別子を提供するようにしてもよい。
図17は、図1と図6に示す画像生成システム100により3次元電子モデルを形成する3次元電子画像の処理を示す部分フローチャートである。オブジェクトの走査が終了し、走査情報(3次元電子画像、関連位置情報、など)がサイト計算システム106のメモリモジュール604に記憶されると、処理はブロック1702から始まる。ブロック1704で、サイト計算システム106は、予備の位置合わせモジュール610を備えているかどうかを判定する。サイトが予備の位置合わせモジュールを備えていれば、1706で、ユーザは手動操作または自動操作を選択して走査ブロックを合成するようにしてもよい。手動操作を選択した場合、ユーザは、ブロック1708で、オブジェクトを表示しながら個々に3次元電子画像の移動と、回転とを行うことができる。ブロック1710で、ユーザは、3次元電子画像から予備用3次元電子モデルを手動で形成して、表示されているオブジェクトのマッチングを行うことができる。操作が終了したとき、ブロック1712で予備用3次元電子モデルを実験室計算システム108へ出力することができる。
ブロック1706で、自動操作を選択した場合、ブロック1716で、予備の位置合わせモジュール610内の命令を実行して、位置情報を利用し、3次元電子画像の合成と操作とを行うことができる。ブロック1718で、予備用3次元電子モデルの形成が可能となる。ブロック1720で、ユーザは追加の手動操作を希望するかどうかを決定することができる。手動操作を希望するのであれば、ブロック1708へ戻る。手動操作を希望しなければ、処理はブロック1712へ進み、予備用3次元電子モデルが実験室計算システム108へ出力される。
図18のブロック1726で、予備用3次元電子モデルを形成する3次元電子画像に対して手動操作および/または自動操作(正確な位置合わせ)をさらに行って、走査位置間のフィットの改善が行われる。正確な位置合わせが第1の技法を含む場合、ブロック1728で、3次元電子画像のポイントクラウドが合成されて、幾何学的な点の比較を行うことによりによりモデルポイントクラウドが形成される。モデルポイントクラウドは3次元電子モデルを表わす。ブロック1730で、3次元電子モデル(モデルポイントクラウド)の表面が決定される。ブロック1732でカラー操作を行うことができる。
正確な位置合わせが第2の技法を含む場合、各々の3次元電子画像(ポイントクラウド)の表面がブロック1734で決定される。ブロック1736で、テクスチャが各々の3次元電子画像の表面に貼り付けられる。ブロック1738で、3次元電子画像を結合して、表面および/またはテクスチャに基づいて3次元電子モデルが形成される。ブロック1732でカラー操作を行うことができる。
正確な位置合わせが第3の技法を含む場合、ブロック1740で各々の3次元電子画像の表面が決定される。ブロック1742で個々の表面のアウトラインが決定される。3次元電子画像が結合され、ブロック1744でアウトラインに基づいて3次元電子モデルのフレームワークが形成される。ブロック1732でカラー操作を行うことができる。
ブロック1748で、走査済みオブジェクトが傾斜した残りの表面上にセットされたかどうかが判定される。残りの表面が傾斜面であれば、ブロック1750で高さ補正が適用される。ブロック1752で最終3次元電子モデルが決定される。残りの表面が傾斜していなければ、ブロック1748で、処理はブロック1752へ進み、最終3次元電子モデルが決定される。
図17のブロック1704を再び参照すると、予備の位置合わせモジュール610が使用されなかったり、利用できなかったりする場合、個々の走査から得られる情報は、ブロック1760で実験室計算システム108へ個々に提供される。ブロック1762で、ポイントクラウドを用いて表された各々の3次元電子画像は走査合成用モジュール630によりサブイメージに分割される。ブロック1764で、サブイメージを表すラインが各々のサブイメージ用として展開される。ブロック1766で、アウトラインデータファイルにこれらのラインを個々に記憶する。次いで、ブロック1768で、アウトラインデータファイルを組み合わせ、操作して3次元電子モデルを形成する。次いで、処理は図18のブロック1730へ戻り、3次元電子モデルの形成を終了する。
図19は、図6、8、10に例示のテクスチャライジングモジュール634を用いて3次元電子モデルをテクスチャライズする処理プロセスを示す部分フローチャートである。処理はブロック1902から始まり、3次元電子モデルの作成のために走査されるオブジェクト上に存在する1または2以上のテクスチャを表す少なくとも1つの画像ファイルがキャプチャおよび/または生成される。ブロック1904で、1または2以上のディレクトリが作成され、テクスチャディレクトリ1012内の一意の識別子によって特定される。ブロック1906で追加の属性がディレクトリに付け加えられる。ブロック1908で、キャプチャ/生成された画像ファイルを用いてソーステクスチャが形成される。ブロック1910で、ソーステクスチャカテゴリ1008内で一意の識別子を用いて個々のソーステクスチャが類別される。ブロック1912で、追加の属性がソーステクスチャに付け加えられる。
ブロック1914で、第1のモードまたは第2のモードを用いてソーステクスチャを特定し、選択する。第1のモード(サーチモード)が選択された場合、ブロック1916で検索タームを入力し、サーチフィールドを選択する。ブロック1918で、結果ウインドウ1310を用いてサーチ結果を表示する。ブロック1920で、3次元電子モデル上で使用できるような表示ソーステクスチャの範囲内で利用可能なソーステクスチャが存在するかどうかが判定される。利用可能なソーステクスチャがなければ、ブロック1922で、ソーステクスチャの別のサーチを行うべきかどうかが判定される。追加のサーチをすべきでなければ、処理はブロック1902へ戻り、追加の画像ファイルのキャプチャおよび/または生成が行われる。
追加のサーチを行うべきであれば、処理はブロック1914へ戻り、選択モードが選択される。ブロック1920で、利用可能な表示ソーステクスチャが存在すれば、ブロック1924でソーステクスチャがサーチ結果から選択され、サムビュー1312の形で表示される。ブロック1914で第2のモード(ライブラリモード)が選択された場合、ブロック1926でテクスチャディレクトリ1012の範囲内のツリー構造がツリー構造のウインドウ1314に表示される。ブロック1928で、ユーザはツリー構造をサーチすることも可能であり、処理はブロック1920へ戻り、1または2以上の利用可能なソーステクスチャがディスプレイから特定される。
図20で、ソーステクスチャを変換すべきかどうかがブロック1930で判定される。ソーステクスチャを変換すべきであれば、ブロック1932で、ソーステクスチャの操作表示1400を用いてソーステクスチャに対する変換処理を実行する。ブロック1934で、実行済みの変換処理をキャプチャし、ソース変換処理手順の一部とする。ブロック1936で、ソーステクスチャに対する追加の変換操作を行うべきかどうかが判定される。追加の変換を行うべきであれば処理はブロック1932へ戻る。ソーステクスチャの追加の変換を希望するのでなければ、ブロック1938で、複合テクスチャの形成表示1500の範囲内で変換済みソーステクスチャの位置決めを行って、複合テクスチャの少なくとも一部を形成するようにしてもよい。ブロック1940で、ソース変換処理手順を複合テクスチャと関連づけることができる。ブロック1942で、一意の識別子を複合テクスチャに割り当てて、複合テクスチャカテゴリ1010内で複合テクスチャの類別を行うことができる。ブロック1944で、別の属性を複合テクスチャに追加してもよい。
図21で、複合テクスチャの範囲内で変換済みソーステクスチャと関連する変換を所望するかどうかがブロック1946で判定される。所望するのであれば、ブロック1948で、複合テクスチャの範囲内の変換済みソーステクスチャがさらに変換される。ブロック1950で、複合テクスチャで実行した変換処理をキャプチャし、複素変換処理手順の一部とする。ブロック1952で複素変換処理手順を複合テクスチャと関連づける。
ブロック1954で、変換済みソーステクスチャと関連する追加の変換操作を複合テクスチャの範囲内で実行すべきかどうかが判定される。追加の変換を所望する場合、処理はブロック1948へ戻り、追加の変換操作の実行とキャプチャとが行われる。ソーステクスチャの追加の変換を所望しない場合、複合テクスチャの形成に追加ソーステクスチャが必要かどうかがブロック1956で判定される。追加ソーステクスチャが必要であれば、処理は図19のブロック1914へ戻り、別のソーステクスチャの特定と選択とが行われる。追加ソーステクスチャが必要でなければ、ブロック1958で、複合テクスチャを3次元電子モデルの1または2以上の表面と関連づけることができる。
ブロック1960で、テクスチャライズを行うのに3次元電子モデルの追加表面が必要かどうかが判定される。テクスチャライズを行うのに追加の表面が必要であれば、ブロック1962で3次元電子モデルおよび関連するテキスチャリゼーションが記憶される。ブロック1964で、3次元電子モデルを表すファイルはエクスポート用として利用可能となる。ブロック1960で、テクスチャライズ対象の追加表面が存在する場合、処理は、図19のブロック1914へ戻り、追加のソーステクスチャが選択される。
ブロック1946で、複合テクスチャの変換を所望しなければ、処理はブロック1956へ進み、追加ソーステクスチャが必要かどうかの判定が行われる。図20のブロック1930で、選択したソーステクスチャを変換するために複合テクスチャを変換しないことを所望する場合、複合テクスチャ内でソーステクスチャの位置決めを行うべきかどうかがブロック1966で判定される。複合テクスチャ内でソーステクスチャの位置決めを行うべきであれば、処理はブロック1938へ進む。複合テクスチャ内でソーステクスチャの位置決めを行わないことが望ましければ、ブロック1968でソーステクスチャは3次元電子モデルの1または2以上の表面と関連づけられ、処理はブロック1960へ進み、追加の表面をテクスチャライズする必要があるかどうかが判定される。
以上説明した画像生成システム100によって、テクスチャライズされ、色付けされた幾何学モデルの3次元の電子表示物の生成が可能となる。この3次元電子モデルは、1または2以上のビルなどの、ほとんど実際のオブジェクトの電子的複製とすることができる。画像生成システム100によりオブジェクトの走査を行って、3次元電子画像の作成を行うことができる。オブジェクトの電子幾何学的表示とカラーの双方を複数の走査の各々の走査で収集することができる。走査を合成して、各々の走査中に収集した位置データを用いて3次元電子モデルを形成することも可能である。画像生成システム100により3次元モデルの幾何学的表面をテクスチャライズすることによって、電子画像の表示が実際のオブジェクトの物理的表示と類似したものとなるようにすることも可能である。
本発明の種々の実施形態について説明したが、本発明の範囲に属するさらに多くの実施形態および実施構成が可能であることは当業者には明らかであろう。したがって、添付の請求項および上記請求項の均等物に照らして考慮する場合を除いて本発明は限定を受けるべきものではない。
図1は画像生成システムのブロック図である。 図2の画像生成システムに含まれるスキャナにより占められるオブジェクト周辺の走査位置の1例である。 図3は、図1の画像生成システムを用いて走査可能な種々のオブジェクトの1例である。 図4は図1の画像生成システムの処理を示すフローチャート例である。 図5は図4の例示フローチャートの第2の部分である。 図6は図1の画像生成システムに含まれる計算システムのブロック図である。 図7は図1の画像生成システムを用いて開発された電子3次元画像の一例である。 図8は、図1の画像生成システムを用いて開発された電子3次元画像の別の例である。 図9は図1の画像生成システムを用いて開発された3次元電子画像のさらに別の例である。 図10は図6の計算システムの中に含まれるテクスチャライジングモジュールのブロック図である。 図11は、図10のテクスチャライジングモジュールを用いる図10のグラフィック画像処理操作の一例である。 図12は図10のテクスチャライジングモジュール内のテクスチャディレクトリの例である。 図13は図10のテクスチャライジングモジュールを用いて生成されるテクスチャ選択表示例である。 図14は図10のテクスチャライジングモジュールを用いて生成されるソーステクスチャの操作表示の一例である。 図15は図10のテクスチャライジングモジュールを用いて生成される複合テクスチャの形成表示例である。 図16は図10のテクスチャライジングモジュールを用いて生成されるテクスチャメーカ表示の一例である。 図17は、図1の画像生成システム内での図6の計算システムの処理を示す例示フローチャートである。 図18は図17の例示フローチャートの第2の部分である。 図19は図6のテクスチャライジングモジュールの処理を示す例示フローチャートである。 図20は図19の例示フローチャートの第2の部分である。 図21は図19の例示フローチャートの第3の部分である。

Claims (59)

  1. オブジェクトの3次元電子モデルを開発する画像生成システムであって、
    オブジェクトを走査し、スキャナ位置情報および該オブジェクトを表す画像データを提供するように動作可能なスキャナと、
    該スキャナと通信する計算システムであって、該画像データおよび該スキャナ位置情報の関数として該オブジェクトの3次元電子モデルを生成するように動作可能な計算システムと
    を備える、画像生成システム。
  2. 前記スキャナは、前記スキャナ位置情報を提供するように動作可能な衛星測位システムおよび勾配方向センサを含む、請求項1に記載の画像生成システム。
  3. 前記勾配方向センサは、前記スキャナのピッチ、ロールおよび方向を提供するように動作可能である、請求項2に記載の画像生成システム。
  4. 前記スキャナは、前記オブジェクトの幾何学的形状を表す幾何学的な点データを提供するように動作可能なレーザスキャナを含む、請求項1に記載の画像生成システム。
  5. 前記スキャナは、ポイントスキャナおよびカラースキャナを含み、該ポイントスキャナおよび該カラースキャナは、前記オブジェクトの幾何学的形状および色を表わす画像データを同期して提供するように動作可能である、請求項1に記載の画像生成システム。
  6. 前記スキャナは、前記オブジェクトの前記幾何学的形状を表す幾何学的な点データを収集するように動作可能なポイントスキャナ、前記オブジェクトの前記色を表す色点データを収集するように動作可能なカラースキャナ、および前記スキャナ位置情報を収集するように動作可能な位置システムを含む、請求項1に記載の画像生成システム。
  7. 前記計算システムは、前記色点データ、前記幾何学的な点データ、および前記スキャナ位置情報を関連づけることにより、前記オブジェクトの1つの走査のみを表す3次元電子画像を形成するように動作可能である、請求項6に記載の画像生成システム。
  8. 前記計算システムは、前記スキャナ位置情報の関数として複数の3次元電子画像を選択的に合成することにより、3次元電子モデルを生成するように動作可能である、請求項7に記載の画像生成システム。
  9. オブジェクトの3次元電子モデルを開発する画像生成システムであって、
    複数のそれぞれの地理的位置からの該オブジェクトの複数のそれぞれの走査の関数として、オブジェクトを表す複数のポイントクラウドを生成するように動作可能なポイントスキャナと、
    該ポイントスキャナと同期して動作するカラースキャナであって、該複数のポイントクラウドの各々の該オブジェクトの色を表す色点データを生成するように動作可能なカラースキャナと、
    該複数の地理的位置の各々のために、該ポイントスキャナおよびカラースキャナの位置情報を提供するように動作可能な位置システムと、
    該複数のポイントクラウド、該色点データ、および該位置情報の関数として3次元電子モデルを開発するように動作可能な計算システムと
    を備える、画像生成システム。
  10. 前記カラースキャナは、前記オブジェクトの所定領域内のカラーラインを測定するように動作可能なラインセンサであり、同時に前記ポイントスキャナは、該同一の所定領域内の複数の点からの距離を測定するように動作可能である、請求項9に記載の画像生成システム。
  11. 前記複数のポイントクラウドの各々は前記ポイントスキャナによって生成された幾何学的な点データを含み、前記計算システムは前記色点データおよび該幾何学的な点データを画像データとしてキャプチャするように動作可能である、請求項9に記載の画像生成システム。
  12. 前記幾何学的な点データは幾何学的な点を含み、前記色点データは色点を含み、該色点は、前記ポイントクラウド内の該幾何学的な点に関連づけられる、請求項11に記載の画像生成システム。
  13. 前記計算システムはサイト計算システムおよび実験室計算システムを含み、該サイト計算システムは予備の位置合わせを実行することにより予備の3次元電子モデルを形成するように動作可能であり、該実験室計算システムは該予備の3次元電子モデルの正確な位置合わせを実行することにより最終3次元電子モデルを形成するように動作可能である、請求項9に記載の画像生成システム。
  14. 前記計算システムは走査合成用モジュールおよび幾何学モデル化モジュールを含み、該走査合成用モジュールは前記複数のポイントクラウドの各々を該幾何学モデル化モジュールにエクスポート可能な複数のラインに変換するように動作可能であり、該幾何学モデル化モジュールは該複数のラインから前記3次元電子モデルを形成するように動作可能である、請求項9に記載の画像生成システム。
  15. 前記計算システムは、各々が前記走査の1つに関数として開発される複数の3次元電子画像を開発するように動作可能であり、該複数の3次元電子画像の各々は前記走査の1つの関数として開発され、該複数の3次元電子画像は前記3次元電子モデルを形成するために選択的に合成される、請求項9に記載の画像生成システム。
  16. 前記計算システムは、前記3次元電子画像の各々の表面の複数の三角形への分画、および該複数の三角形の各々の内部の色点データ間のカラー・ブレンディングによって、該3次元電子画像の各々の表面内の色の空隙を塗りつぶすように動作可能である、請求項15に記載の画像生成システム。
  17. 前記3次元電子モデルは、単純層、構造層、位置層、およびライブラリ層を含む、請求項9に記載の画像生成システム。
  18. オブジェクトの3次元電子モデルを開発する画像生成システムであって、
    オブジェクトを走査する手段であって、該オブジェクトを走査する手段の位置情報および該オブジェクトを表す画像データを決定するように動作可能な走査手段と、
    該走査手段と通信する計算システムであって、該画像データおよび該位置情報の関数として該オブジェクトの3次元電子モデルを生成するように動作可能な計算システムと
    を備える、画像生成システム。
  19. 前記走査手段はナビゲーション座標を決定する手段と、該走査手段の勾配、方向および高度を決定する手段とを含む、請求項18に記載の画像生成システム。
  20. 前記計算システムは、前記ナビゲーション座標、前記勾配、前記方向、および前記高度の関数として、前記3次元電子モデルを幾何学的に組み立てる手段を含む、請求項19に記載の画像生成システム。
  21. 前記計算システムは、前記画像データに含まれる複数の幾何学的な点を結合することにより前記3次元電子画像を生成する手段を含む、請求項18に記載の画像生成システム。
  22. 前記計算システムは、前記3次元電子画像を操作する手段を含む、請求項21に記載の画像生成システム。
  23. 前記計算システムは、前記3次元電子画像を合成することにより前記3次元電子モデルを形成する手段を含む、請求項21に記載の画像生成システム。
  24. 前記計算システムは、前記3次元電子モデルの表面をテクスチャライズする手段を含む、請求項18に記載の画像生成システム。
  25. オブジェクトの3次元電子モデルを開発する画像生成システムであって、
    該画像生成システムは計算システムを備え、
    該計算システムは、
    複数のポイントクラウドを、オブジェクトを表す3次元電子モデルに組み立てる手段と、
    該3次元電子モデルの複数の表面を生成する手段と、
    該複数の表面をテクスチャライズする手段と、
    該3次元電子モデルをテクスチャライズされた表面を用いて視覚的に描写する手段とを有する、画像生成システム。
  26. 前記計算システムはオブジェクトの複数の走査をキャプチャする手段をさらに有し、
    該複数の走査の各々は、前記複数のポイントクラウドの各々を形成する複数の幾何学的な点を含む、請求項25に記載の画像生成システム。
  27. 前記計算システムは、前記複数の幾何学的な点の各々に関連づけて色を前記複数のポイントクラウドの各々に適用する手段をさらに有する、請求項25に記載の画像生成システム。
  28. 前記オブジェクトを走査することにより、該オブジェクトを表す前記ポイントクラウドを開発する手段をさらに備える、請求項25に記載の画像生成システム。
  29. オブジェクトの3次元電子モデルを開発する画像生成システムであって、
    メモリデバイスと、
    各々がオブジェクトの走査中にキャプチャされる画像データおよび位置情報を含む複数の3次元電子画像を記憶するための、該メモリデバイス内の命令と、
    該複数の3次元電子画像の各々の画像データ内に含まれる複数の幾何学的な点を結合するための、該メモリデバイス内の命令と、
    該位置情報の関数として3次元電子モデルを形成するために、該3次元電子画像を合成するための、該メモリデバイス内の命令と
    を備える、画像生成システム。
  30. 前記3次元電子モデルをテクスチャライズするための、該メモリデバイス内の命令をさらに備える、請求項29に記載の画像生成システム。
  31. 前記幾何学的な点を結合するための前記メモリデバイス内の命令は、前記複数の3次元電子画像の各々内に表面を形成するための、該メモリデバイス内の命令を含む、請求項29に記載の画像生成システム。
  32. 前記幾何学的な点を結合するための前記メモリデバイス内の命令は、前記複数の3次元電子画像の各々をサブ画像に分割するための、該メモリデバイス内の命令を含む、請求項29に記載の画像生成システム。
  33. 前記幾何学的な点を結合するための前記メモリデバイス内の命令は、各々が前記サブ画像の1つを表す複数のラインを開発するための、該メモリデバイス内の命令を含む、請求項32に記載の画像生成システム。
  34. 前記3次元電子画像を合成するための前記メモリデバイス内の命令は、前記複数のラインを互に位置決めするための、該メモリデバイス内の命令を含む、請求項33に記載の画像生成システム。
  35. 前記3次元電子画像を合成するための前記メモリデバイス内の命令は、前記複数の3次元電子画像を互いに操作するための、該メモリデバイス内の命令を含む、請求項29に記載の画像生成システム。
  36. オブジェクトを表す3次元電子モデルを開発する方法であって、
    複数の地理的位置の各々の位置内においてオブジェクトの走査を実行するステップと、
    各走査中に画像データおよび位置情報を収集するステップと、
    該走査中に収集された画像データおよび位置情報から、各走査を表す3次元電子画像を開発するステップと、
    該オブジェクトを表す3次元電子モデルを形成するために、該位置情報の関数として複数の3次元電子を合成するステップと
    を包含する、方法。
  37. 前記走査を実行するステップは、前記オブジェクトの幾何学的形状を表す幾何学的な点を決定するステップを包含する、請求項36に記載の方法。
  38. 前記走査を実行するステップは、1つの領域内において幾何学的な点を決定する間に、同一領域内のカラーライン内の色点データを決定するステップを包含する、請求項36に記載の方法。
  39. 前記画像データおよび位置情報を収集するステップは、幾何学的な点データおよび色点データを同期して収集するステップを包含する、請求項36に記載の方法。
  40. 前記画像データおよび位置情報を収集するステップは、前記走査の実行に使用されるスキャナのナビゲーション座標、面方向、ピッチ、ロールおよび高さを決定するステップを包含する、請求項36に記載の方法。
  41. 前記複数の3次元電子画像を合成するステップは、前記画像データと前記位置情報とを関連づけるステップを包含する、請求項36に記載の方法。
  42. 前記複数の3次元電子画像を合成するステップは、該3次元電子画像の少なくとも一部を互いに操作するステップを包含する、請求項36に記載の方法。
  43. 前記オブジェクトのテクスチャの関数として、ソーステクスチャを選択するステップと、該ソーステクスチャから複合テクスチャを創作するために変換処理手順を開発するステップと、該変換処理手順を前記3次元電子モデルの表面と関連づけるステップとをさらに包含する、請求項36に記載の方法。
  44. 前記オブジェクトは対称的部分を含み、
    前記3次元電子画像を開発するステップは、該オブジェクトの走査済み部分からの前記画像データを該オブジェクトの該対称的部分に鏡映するステップを包含する、請求項36に記載の方法。
  45. オブジェクトを表す3次元電子モデルを開発する方法であって、
    各々がポイントクラウド内の複数の幾何学的な点によって表される複数の3次元電子画像をそれぞれ開発するために、スキャナを用いて複数の位置からオブジェクトを走査するステップと、
    該3次元電子画像の1つを複数のサブ画像内に位置決めするステップと、
    該複数の幾何学的な点をそれぞれの該サブ画像を示す複数のラインに変換するステップと、
    3次元電子モデルを開発するために、該ラインを合成するステップと
    を包含する、方法。
  46. 前記複数の幾何学的な点を変換するステップは、前記サブ画像を示す複数のラインをアウトラインデータファイルとして記憶するステップを包含する、請求項45に記載の方法。
  47. 前記オブジェクトを走査するステップは、複数の位置から走査することにより、複数のそれぞれのポイントクラウドを生成するステップを包含する、請求項45に記載の方法。
  48. 前記合成するステップは、前記複数のラインを互いに操作することによって、互いに正確にフィットさせるステップを包含する、請求項45に記載の方法。
  49. 前記合成するステップは、1つのラインと他のライン間の距離の誤差を最小化するステップを包含する、請求項45に記載の方法。
  50. 前記オブジェクトに残留する残りの面が傾斜している場合、高さを補償するステップをさらに包含する、請求項45に記載の方法。
  51. ラスタ化によって前記3次元電子モデル内の色の空隙を塗りつぶすステップをさらに包含する、請求項45に記載の方法。
  52. 前記3次元電子画像の各々の表面を複数の三角形へ分画し、該複数の三角形の各々の内部のカラー・ブレンディングすることによって、色の空隙を塗りつぶすステップをさらに包含する、請求項45に記載の方法。
  53. オブジェクトを表す3次元電子モデルを開発する方法であって、
    オブジェクトの複数の走査をキャプチャするステップであって、該走査の各々は、3次元電子画像を表す画像データと、各走査がキャプチャされた位置を示す位置情報とを含む、ステップと、
    該走査を合成することによって、該位置情報の関数として該オブジェクトの3次元電子モデルを形成するステップと、
    ソーステクスチャの関数として該3次元電子モデルをテクスチャライズするステップと
    を包含する、方法。
  54. 前記テクスチャライズするステップは、テクスチャを前記3次元電子モデルの表面と関連づけるステップを包含する、請求項53に記載の方法。
  55. 前記テクスチャライズするステップは、ソーステクスチャを選択するステップと、複合テクスチャを形成するために該ソーステクスチャを変換するための変換処理手順を創作するステップと、該変換処理手順を前記3次元電子モデルの表面と関連づけるステップとを包含する、請求項53に記載の方法。
  56. 前記3次元電子モデルを複数の層を含む構造に編成するステップをさらに包含する、請求項53に記載の方法。
  57. 前記テクスチャライズするステップは、ソーステクスチャのライブラリを検索するステップと、ソーステクスチャを変換することによって前記3次元電子モデルの表面のための複合テクスチャを形成するステップと、該複合テクスチャを形成するために変換処理手順を該ライブラリに記憶するステップとを包含する、請求項53に記載の方法。
  58. 前記3次元電子モデルをデータファイルとして記憶するステップをさらに包含する、請求項53に記載の方法。
  59. 前記データファイルにアクセスすることにより前記3次元電子モデルを電子マップ内に表示するステップをさらに包含する、請求項58に記載の方法。
JP2004519656A 2002-07-10 2003-06-30 オブジェクトの3次元電子モデルを生成するシステム Pending JP2005537535A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US39516502P 2002-07-10 2002-07-10
PCT/US2003/020225 WO2004006181A2 (en) 2002-07-10 2003-06-30 System for generating three-dimensional electronic models of objects

Publications (1)

Publication Number Publication Date
JP2005537535A true JP2005537535A (ja) 2005-12-08

Family

ID=30115826

Family Applications (4)

Application Number Title Priority Date Filing Date
JP2004519656A Pending JP2005537535A (ja) 2002-07-10 2003-06-30 オブジェクトの3次元電子モデルを生成するシステム
JP2004519655A Withdrawn JP2005532631A (ja) 2002-07-10 2003-06-30 オブジェクトの電子表示物のテクスチャライジング用システム
JP2008183229A Expired - Fee Related JP4685905B2 (ja) 2002-07-10 2008-07-14 オブジェクトの電子表示物のテクスチャライジング用システム
JP2010164363A Expired - Lifetime JP5105643B2 (ja) 2002-07-10 2010-07-21 オブジェクトの電子表示物のテクスチャライジング用システム

Family Applications After (3)

Application Number Title Priority Date Filing Date
JP2004519655A Withdrawn JP2005532631A (ja) 2002-07-10 2003-06-30 オブジェクトの電子表示物のテクスチャライジング用システム
JP2008183229A Expired - Fee Related JP4685905B2 (ja) 2002-07-10 2008-07-14 オブジェクトの電子表示物のテクスチャライジング用システム
JP2010164363A Expired - Lifetime JP5105643B2 (ja) 2002-07-10 2010-07-21 オブジェクトの電子表示物のテクスチャライジング用システム

Country Status (8)

Country Link
US (3) US7643669B2 (ja)
EP (2) EP1520268A4 (ja)
JP (4) JP2005537535A (ja)
KR (2) KR100656238B1 (ja)
CN (2) CN100578525C (ja)
AU (2) AU2003245715A1 (ja)
CA (2) CA2489200C (ja)
WO (2) WO2004006180A2 (ja)

Families Citing this family (134)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7756721B1 (en) * 1997-03-14 2010-07-13 Best Doctors, Inc. Health care management system
EP1520268A4 (en) * 2002-07-10 2009-05-20 Harman Becker Automotive Sys SYSTEM FOR TEXTURING ELECTRONIC REPRESENTATIONS OF OBJECTS
EP1662228A1 (en) 2004-11-19 2006-05-31 Harman Becker Automotive Systems GmbH Scanning of three-dimensional objects
KR20070008658A (ko) * 2004-04-29 2007-01-17 코닌클리케 필립스 일렉트로닉스 엔.브이. 이미지 처리 장치 및 방법
CA2567631A1 (en) * 2004-06-08 2005-12-22 Three-B International Limited Displaying graphical textures
DE102004030876A1 (de) * 2004-06-25 2006-02-02 Grüntjens, Norbert Verfahren zum Erzeugen einer realistischen Darstellung
CN1866264A (zh) * 2005-05-21 2006-11-22 华为技术有限公司 一种移动游戏的场景生成方法及***
US7705863B2 (en) * 2005-11-15 2010-04-27 Honeywell International Inc. Systems and methods for rendering building spaces
US8494805B2 (en) 2005-11-28 2013-07-23 Orthosensor Method and system for assessing orthopedic alignment using tracking sensors
US8000926B2 (en) * 2005-11-28 2011-08-16 Orthosensor Method and system for positional measurement using ultrasonic sensing
US8098544B2 (en) 2005-11-29 2012-01-17 Orthosensor, Inc. Method and system for enhancing accuracy in ultrasonic alignment
US8814810B2 (en) * 2005-12-01 2014-08-26 Orthosensor Inc. Orthopedic method and system for mapping an anatomical pivot point
US8864686B2 (en) * 2005-12-01 2014-10-21 Orthosensor Inc. Virtual mapping of an anatomical pivot point and alignment therewith
US8421642B1 (en) 2006-08-24 2013-04-16 Navisense System and method for sensorized user interface
US8638296B1 (en) 2006-09-05 2014-01-28 Jason McIntosh Method and machine for navigation system calibration
JP5073256B2 (ja) * 2006-09-22 2012-11-14 株式会社トプコン 位置測定装置及び位置測定方法及び位置測定プログラム
JP5057734B2 (ja) 2006-09-25 2012-10-24 株式会社トプコン 測量方法及び測量システム及び測量データ処理プログラム
EP1912176B1 (en) * 2006-10-09 2009-01-07 Harman Becker Automotive Systems GmbH Realistic height representation of streets in digital maps
WO2008044913A1 (en) * 2006-10-13 2008-04-17 Tele Atlas B.V. System for and method of processing laser scan samples and digital photographic images relating to building façade
EP2503475A1 (de) * 2006-12-19 2012-09-26 Swisscom AG Verfahren und Vorrichtung für den selektiven Zugriff auf Datenelemente einer Datensammlung
PE20120627A1 (es) * 2006-12-20 2012-05-26 Scanalyse Pty Ltd Sistema para la medicion del desplazamiento de una superficie relativa a una base de referencia
CN101617197B (zh) 2007-02-16 2011-06-22 三菱电机株式会社 测量装置、测量方法及地物识别装置
US8190400B1 (en) * 2007-03-16 2012-05-29 The Mathworks, Inc. Thin client graphical presentation and manipulation application
US20080275732A1 (en) * 2007-05-01 2008-11-06 Best Doctors, Inc. Using patterns of medical treatment codes to determine when further medical expertise is called for
US8224098B2 (en) * 2007-06-15 2012-07-17 Microsoft Corporation Façade rendering system
US20090027417A1 (en) * 2007-07-24 2009-01-29 Horsfall Joseph B Method and apparatus for registration and overlay of sensor imagery onto synthetic terrain
CN101387506B (zh) * 2007-09-14 2010-11-10 鸿富锦精密工业(深圳)有限公司 点云最优对齐方法
JP2011505610A (ja) * 2007-11-07 2011-02-24 テレ アトラス ベスローテン フエンノートシャップ 画像センサデータに距離センサデータをマッピングする方法及び装置
US8531472B2 (en) 2007-12-03 2013-09-10 Pictometry International Corp. Systems and methods for rapid three-dimensional modeling with real façade texture
US9189083B2 (en) 2008-03-18 2015-11-17 Orthosensor Inc. Method and system for media presentation during operative workflow
US9892485B2 (en) * 2008-04-08 2018-02-13 Disney Enterprises, Inc. System and method for mesh distance based geometry deformation
WO2009131361A2 (ko) * 2008-04-22 2009-10-29 팅크웨어(주) 3차원 지도 서비스에서의 지도 데이터 편집 장치 및 방법
WO2009131277A1 (en) * 2008-04-24 2009-10-29 Thinkware Systems Corporation System and method for displaying three-dimensional map using template modeling
US8737721B2 (en) * 2008-05-07 2014-05-27 Microsoft Corporation Procedural authoring
KR100888155B1 (ko) * 2008-05-14 2009-03-10 팅크웨어(주) 텍스처 맵핑을 이용하여 3차원 지도를 표시하는 시스템 및방법
US7778788B2 (en) * 2008-05-29 2010-08-17 United Technologies Corporation Scanner based optical inspection system
US7987262B2 (en) * 2008-11-19 2011-07-26 Accenture Global Services Limited Cloud computing assessment tool
CN101750030B (zh) * 2008-12-17 2012-11-21 鸿富锦精密工业(深圳)有限公司 曲面检测***及方法
JP5688876B2 (ja) * 2008-12-25 2015-03-25 株式会社トプコン レーザスキャナ測定システムの較正方法
US20100262508A1 (en) * 2009-04-10 2010-10-14 Will Volnak Method and system for an online library marketplace
CN101871767B (zh) * 2009-04-25 2012-05-30 鸿富锦精密工业(深圳)有限公司 零件形位公差检测***及方法
WO2010138568A2 (en) * 2009-05-28 2010-12-02 Kent Displays Incorporated Writing tablet information recording device
US8355541B2 (en) * 2009-07-14 2013-01-15 Empire Technology Development Llc Texture sensing
US9582919B2 (en) * 2009-10-09 2017-02-28 Microsoft Technology Licensing, Llc Automatic run-time identification of textures
US8872823B2 (en) * 2009-10-09 2014-10-28 Microsoft Corporation Automatic real-time shader modification for texture fetch instrumentation
US9330494B2 (en) * 2009-10-26 2016-05-03 Pictometry International Corp. Method for the automatic material classification and texture simulation for 3D models
AU2015275308B2 (en) * 2009-10-26 2018-03-08 Pictometry International Corp. A method for automatic material classification and texture simulation for 3d models
WO2011079241A1 (en) * 2009-12-23 2011-06-30 Tomtom International Bv Method of generating building facade data for a geospatial database for a mobile device
US9011448B2 (en) * 2009-12-31 2015-04-21 Orthosensor Inc. Orthopedic navigation system with sensorized devices
CN102713980A (zh) * 2010-02-01 2012-10-03 英特尔公司 从地理参考图像提取及映射三维特征
WO2011114382A1 (en) * 2010-03-19 2011-09-22 Hitachi, Ltd. Virtual file system and hierarchical storage management for cloud computing containing different underlying file systems
AU2011251967B2 (en) 2010-05-12 2013-07-11 Leica Geosystems Ag Surveying instrument
JP5912234B2 (ja) 2010-07-16 2016-04-27 株式会社トプコン 測定装置
JP5698480B2 (ja) 2010-09-02 2015-04-08 株式会社トプコン 測定方法及び測定装置
JP5653715B2 (ja) 2010-10-27 2015-01-14 株式会社トプコン レーザ測量機
US8939369B2 (en) 2011-01-24 2015-01-27 Datalogic ADC, Inc. Exception detection and handling in automated optical code reading systems
JP5753409B2 (ja) 2011-03-07 2015-07-22 株式会社トプコン パノラマ画像作成方法及び3次元レーザスキャナ
US9151608B2 (en) 2011-03-31 2015-10-06 Francis Ruben Malka Apparatus, tool, and method for modifying a portion of a floor plan based on measurements made by one or more sensors
US9569771B2 (en) 2011-04-29 2017-02-14 Stephen Lesavich Method and system for storage and retrieval of blockchain blocks using galois fields
US9361479B2 (en) 2011-04-29 2016-06-07 Stephen Lesavich Method and system for electronic content storage and retrieval using Galois fields and geometric shapes on cloud computing networks
JP5887715B2 (ja) * 2011-05-23 2016-03-16 セイコーエプソン株式会社 画像処理装置および画像処理方法
EP2719160A2 (en) * 2011-06-06 2014-04-16 3Shape A/S Dual-resolution 3d scanner
JP4855547B1 (ja) * 2011-06-30 2012-01-18 日本ジタン株式会社 定形体群の立体配置状況解析方法
US8994726B1 (en) 2011-12-30 2015-03-31 Google Inc. Systems and methods for preparing a model of an environment for display
US8994725B1 (en) * 2011-12-30 2015-03-31 Google Inc. Systems and methods for generating a model of an environment
US9501700B2 (en) 2012-02-15 2016-11-22 Xactware Solutions, Inc. System and method for construction estimation using aerial images
DE102013102286A1 (de) * 2012-07-03 2014-01-09 Zoller & Fröhlich GmbH Verfahren und Vorrichtung zum Auswerten von Laserscans
US10002227B2 (en) * 2012-09-18 2018-06-19 Think Surgical, Inc. System and method for registration in orthopaedic applications
DE102012109481A1 (de) * 2012-10-05 2014-04-10 Faro Technologies, Inc. Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
US10067231B2 (en) 2012-10-05 2018-09-04 Faro Technologies, Inc. Registration calculation of three-dimensional scanner data performed between scans based on measurements by two-dimensional scanner
US10674135B2 (en) 2012-10-17 2020-06-02 DotProduct LLC Handheld portable optical scanner and method of using
US9332243B2 (en) * 2012-10-17 2016-05-03 DotProduct LLC Handheld portable optical scanner and method of using
EP2787321B1 (de) * 2013-04-05 2015-09-16 Leica Geosystems AG Oberflächenbestimmung für Objekte mittels geodätisch genauem Einzelpunktbestimmen und Scannen
EP2787322B1 (de) * 2013-04-05 2017-10-04 Leica Geosystems AG Geodätisches Referenzieren von Punktwolken
US9651525B2 (en) 2013-06-27 2017-05-16 TecScan Systems Inc. Method and apparatus for scanning an object
AU2014295972B2 (en) 2013-08-02 2018-10-11 Xactware Solutions, Inc. System and method for detecting features in aerial images using disparity mapping and segmentation techniques
DE102013017500B3 (de) 2013-10-17 2015-04-02 Faro Technologies, Inc. Verfahren und Vorrichtung zum optischen Abtasten und Vermessen einer Szene
US10203399B2 (en) 2013-11-12 2019-02-12 Big Sky Financial Corporation Methods and apparatus for array based LiDAR systems with reduced interference
US9911205B1 (en) * 2014-03-14 2018-03-06 Google Llc Visual continuity for arbitrary length stipple patterns
DE102014104712B4 (de) * 2014-04-02 2020-07-30 Faro Technologies, Inc. Registrierung einer in Cluster zerfallenden Szene mit visualisierten Clustern
DE102014104713A1 (de) 2014-04-02 2015-10-08 Faro Technologies, Inc. Registrierung einer in Cluster zerfallenden Szene mit Paaren von Scans
US9360554B2 (en) 2014-04-11 2016-06-07 Facet Technology Corp. Methods and apparatus for object detection and identification in a multiple detector lidar array
DE102014110992A1 (de) 2014-08-01 2016-02-04 Faro Technologies Inc. Registrierung einer in Cluster zerfallenden Szene mit Standortverfolgung
JP6305912B2 (ja) * 2014-12-17 2018-04-04 株式会社ジオ技術研究所 テクスチャ生成システム
DE202016008719U1 (de) 2015-02-13 2019-03-12 Zoller + Fröhlich GmbH Scananordnung zum Scannen eines Objektes
US9665989B1 (en) * 2015-02-17 2017-05-30 Google Inc. Feature agnostic geometric alignment
US10036801B2 (en) 2015-03-05 2018-07-31 Big Sky Financial Corporation Methods and apparatus for increased precision and improved range in a multiple detector LiDAR array
US10175360B2 (en) 2015-03-31 2019-01-08 Faro Technologies, Inc. Mobile three-dimensional measuring instrument
EP3257026B1 (en) * 2015-06-04 2020-11-18 Hewlett-Packard Development Company, L.P. Generating three dimensional models
WO2016197251A1 (en) * 2015-06-11 2016-12-15 Queen's University At Kingston Automated mobile geotechnical mapping
EP3329211A4 (en) * 2015-07-31 2019-03-06 Hewlett-Packard Development Company, L.P. ROTARY PLATEAU DEVICE FOR 3D SCANNING
JP6574845B2 (ja) * 2015-10-01 2019-09-11 富士フイルム株式会社 図面作成装置及び図面作成方法
US9905040B2 (en) 2016-02-08 2018-02-27 Apple Inc. Texture sampling techniques
US9866816B2 (en) 2016-03-03 2018-01-09 4D Intellectual Properties, Llc Methods and apparatus for an active pulsed 4D camera for image acquisition and analysis
EP3427008B1 (en) 2016-03-11 2022-09-07 Kaarta, Inc. Laser scanner with real-time, online ego-motion estimation
US11573325B2 (en) * 2016-03-11 2023-02-07 Kaarta, Inc. Systems and methods for improvements in scanning and mapping
CN105957133B (zh) 2016-05-10 2018-06-05 网易(杭州)网络有限公司 一种加载贴图的方法和装置
CA3024573C (en) * 2016-05-19 2021-05-04 Vermeer Manufacturing Company Bale detection and classification using stereo cameras
CN106067185A (zh) * 2016-05-27 2016-11-02 美屋三六五(天津)科技有限公司 一种三维模型处理方法及装置
CN106056666B (zh) * 2016-05-27 2019-03-29 美屋三六五(天津)科技有限公司 一种三维模型处理方法及***
CN106067184A (zh) * 2016-05-27 2016-11-02 美屋三六五(天津)科技有限公司 一种三维模型处理方法及装置
CN106023322A (zh) * 2016-05-27 2016-10-12 美屋三六五(天津)科技有限公司 一种三维模型处理方法及装置
US10120075B2 (en) 2016-08-19 2018-11-06 Faro Technologies, Inc. Using a two-dimensional scanner to speed registration of three-dimensional scan data
US10380749B2 (en) 2016-09-26 2019-08-13 Faro Technologies, Inc. Device and method for indoor mobile mapping of an environment
US10282854B2 (en) 2016-10-12 2019-05-07 Faro Technologies, Inc. Two-dimensional mapping system and method of operation
US11040491B2 (en) * 2016-10-19 2021-06-22 Shapeways, Inc. Systems and methods for identifying three-dimensional printed objects
EP3330924A1 (en) * 2016-12-01 2018-06-06 Thomson Licensing Method for 3d reconstruction of an environment of a mobile device, corresponding computer program product and device
US10824773B2 (en) 2017-03-28 2020-11-03 Faro Technologies, Inc. System and method of scanning an environment and generating two dimensional images of the environment
CN108664177B (zh) * 2017-03-29 2021-11-12 上海耕岩智能科技有限公司 一种基于指纹识别开启应用的方法和装置
CN108664850B (zh) * 2017-03-30 2021-07-13 展讯通信(上海)有限公司 人脸姿态的分类方法及装置
CN107463398B (zh) * 2017-07-21 2018-08-17 腾讯科技(深圳)有限公司 游戏渲染方法、装置、存储设备及终端
WO2019099605A1 (en) 2017-11-17 2019-05-23 Kaarta, Inc. Methods and systems for geo-referencing mapping systems
US10928196B2 (en) 2017-12-28 2021-02-23 Topcon Positioning Systems, Inc. Vision laser receiver
KR102178835B1 (ko) * 2018-03-28 2020-11-13 (주)로딕스 3차원 객체 표면 복원을 위한 데이터 관리 장치 및 그 방법
WO2019195270A1 (en) 2018-04-03 2019-10-10 Kaarta, Inc. Methods and systems for real or near real-time point cloud map data confidence evaluation
US11055532B2 (en) 2018-05-02 2021-07-06 Faro Technologies, Inc. System and method of representing and tracking time-based information in two-dimensional building documentation
CN108765566A (zh) * 2018-05-21 2018-11-06 瞪羚实训(北京)科技有限公司 图像处理方法和装置、存储介质、3d建模***和方法
WO2020009826A1 (en) * 2018-07-05 2020-01-09 Kaarta, Inc. Methods and systems for auto-leveling of point clouds and 3d models
GB2571382B (en) 2018-07-27 2020-02-19 Sony Interactive Entertainment Inc A parallel method of flood filing, and apparatus
MX2021003384A (es) * 2018-10-02 2021-05-27 Panasonic Ip Corp America Metodo de codificacion de datos tridimensionales, metodo de decodificacion de datos tridimensionales, dispositivo de codificacion de datos tridimensionales y dispositivo de decodificacion de datos tridimensionales.
US11775700B2 (en) * 2018-10-04 2023-10-03 Insurance Services Office, Inc. Computer vision systems and methods for identifying anomalies in building models
CN109300189A (zh) * 2018-10-26 2019-02-01 五维智能信息科技(北京)有限公司 一种物体三维模型构建方法与装置
US11024050B2 (en) 2018-11-05 2021-06-01 Faro Technologies, Inc. System and method of scanning an environment
US10909686B2 (en) * 2018-11-28 2021-02-02 International Business Machines Corporation Identifying and extracting a sub-image in a document image file
US11486701B2 (en) 2019-02-06 2022-11-01 Faro Technologies, Inc. System and method for performing a real-time wall detection
TWI731400B (zh) * 2019-08-30 2021-06-21 潤弘精密工程事業股份有限公司 建築資訊模型資料處理方法及系統
US10891766B1 (en) * 2019-09-04 2021-01-12 Google Llc Artistic representation of digital data
US11094113B2 (en) 2019-12-04 2021-08-17 Geomni, Inc. Systems and methods for modeling structures using point clouds derived from stereoscopic image pairs
US11501478B2 (en) 2020-08-17 2022-11-15 Faro Technologies, Inc. System and method of automatic room segmentation for two-dimensional laser floorplans
US20220244833A1 (en) * 2021-01-22 2022-08-04 Primitive LLC Interactive 3d roof model
US11717967B2 (en) 2021-03-04 2023-08-08 TecScan Systems Inc. System and method for scanning an object using an array of ultrasonic transducers
EP4202760A1 (de) 2021-12-21 2023-06-28 dSPACE GmbH Computerimplementiertes verfahren zum erstellen einer dreidimensionalen simulationsumgebung
CN114858087A (zh) * 2022-03-25 2022-08-05 先临三维科技股份有限公司 用于三维扫描仪的移动计算模组、三维扫描方法和装置
US20240069203A1 (en) * 2022-08-31 2024-02-29 Faro Technologies, Inc. Global optimization methods for mobile coordinate scanners

Family Cites Families (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0378095A (ja) 1989-08-21 1991-04-03 Daikin Ind Ltd エッジ強調ポリゴンぬりつぶし方法およびその装置
US5194969A (en) 1990-12-04 1993-03-16 Pixar Method for borderless mapping of texture images
US5471572A (en) * 1993-07-09 1995-11-28 Silicon Graphics, Inc. System and method for adding detail to texture imagery in computer generated interactive graphics
US5566073A (en) * 1994-07-11 1996-10-15 Margolin; Jed Pilot aid using a synthetic environment
US5802361A (en) * 1994-09-30 1998-09-01 Apple Computer, Inc. Method and system for searching graphic images and videos
JP3541855B2 (ja) 1994-12-01 2004-07-14 朝日航洋株式会社 3次元データ抽出方法及び装置
JPH0997344A (ja) * 1995-09-29 1997-04-08 Fujitsu Ltd テクスチャ生成方法およびテクスチャ生成システム
JPH09102029A (ja) 1995-10-09 1997-04-15 Oki Electric Ind Co Ltd 地形データ補間装置
JPH09138870A (ja) * 1995-11-15 1997-05-27 Canon Inc 画像処理装置及び方法
US6285373B1 (en) * 1996-03-29 2001-09-04 3Dlabs Inc. Ltd. Method and apparatus for texture transmission and storage
US5988862A (en) * 1996-04-24 1999-11-23 Cyra Technologies, Inc. Integrated system for quickly and accurately imaging and modeling three dimensional objects
JPH1091760A (ja) 1996-09-13 1998-04-10 Oki Electric Ind Co Ltd 3次元地形出力方法、3次元地形出力装置及び記録媒体
DE19801801C2 (de) 1997-01-20 2000-06-29 Nissan Motor Navigationssystem und Speichermedium für das Speichern dafür verwendeter Betriebsprogramme
JP3503385B2 (ja) 1997-01-20 2004-03-02 日産自動車株式会社 ナビゲーションシステム及びそれに用いるナビゲーションプログラムを記憶した媒体
JPH10275246A (ja) 1997-03-31 1998-10-13 Intec:Kk 三次元コンピュータグラフィックシステム
US20020154132A1 (en) * 1997-07-30 2002-10-24 Alain M. Dumesny Texture mapping 3d graphic objects
JP3162664B2 (ja) 1997-10-09 2001-05-08 株式会社シーエスケイ 3次元都市景観情報の作成方法および装置
US6522336B1 (en) * 1997-10-31 2003-02-18 Hewlett-Packard Company Three-dimensional graphics rendering apparatus and method
JP3971003B2 (ja) 1997-12-17 2007-09-05 株式会社コナミデジタルエンタテインメント 画像作成装置
JP3672739B2 (ja) 1998-06-29 2005-07-20 富士通株式会社 テクスチャ画像生成装置
US6480538B1 (en) * 1998-07-08 2002-11-12 Koninklijke Philips Electronics N.V. Low bandwidth encoding scheme for video transmission
US6600553B1 (en) * 1998-11-03 2003-07-29 National Institute Of Science And Technology U.S. Dept Of Commerce Three degree-of-freedom telescoping geometry scanner
JP3614709B2 (ja) 1999-05-20 2005-01-26 日本電信電話株式会社 景観画像インデクス方法、装置および景観画像インデクスプログラムを記録した記録媒体
JP2001043394A (ja) 1999-08-03 2001-02-16 Dainippon Printing Co Ltd 画像表示方法および装置
DE19948544A1 (de) * 1999-10-08 2001-05-10 Gta Geoinformatik Gmbh Vorrichtung und Verfahren zur terrestrischen digitalen Photogrammetrie mittels einer Orientierungsplattform
JP4438971B2 (ja) 1999-10-20 2010-03-24 グンゼ株式会社 データ立体化装置及びデータ立体化プログラムを記録したコンピュータ読み取り可能な記録媒体
JP4372283B2 (ja) 1999-10-20 2009-11-25 グンゼ株式会社 デザイン支援装置及びデザイン支援プログラムを記録したコンピュータ読み取り可能な記録媒体
FI112402B (fi) 1999-10-28 2003-11-28 Diware Oy Menetelmä puustotunnusten määrittämiseksi sekä tietokoneohjelma menetelmän suorittamiseksi
US6466162B2 (en) * 2000-02-16 2002-10-15 Bertho Boman System and method for measuring distance between two objects
US7728848B2 (en) * 2000-03-28 2010-06-01 DG FastChannel, Inc. Tools for 3D mesh and texture manipulation
US20010048443A1 (en) * 2000-04-17 2001-12-06 Jeffrey Burrell Method and system for changing the display of one texture to another in a computer graphics system
JP3384557B2 (ja) 2000-05-18 2003-03-10 国際航業株式会社 3次元地形図作成方法及びシステム並びに記録媒体
US6664529B2 (en) 2000-07-19 2003-12-16 Utah State University 3D multispectral lidar
JP4487400B2 (ja) * 2000-09-08 2010-06-23 ソニー株式会社 画像変形装置及びその画像変形方法
JP3823724B2 (ja) 2000-12-14 2006-09-20 日本電気株式会社 3次元空中遊覧改良サーバ、その方法、及び記録媒体
EP1520268A4 (en) * 2002-07-10 2009-05-20 Harman Becker Automotive Sys SYSTEM FOR TEXTURING ELECTRONIC REPRESENTATIONS OF OBJECTS

Also Published As

Publication number Publication date
CA2489200A1 (en) 2004-01-15
US20060152522A1 (en) 2006-07-13
AU2003245713A1 (en) 2004-01-23
US20060188143A1 (en) 2006-08-24
CA2489364C (en) 2010-06-01
EP1556823A4 (en) 2010-12-08
AU2003245715A1 (en) 2004-01-23
JP2009003943A (ja) 2009-01-08
KR20050019833A (ko) 2005-03-03
JP5105643B2 (ja) 2012-12-26
KR100660351B1 (ko) 2006-12-21
WO2004006180A3 (en) 2004-03-18
AU2003245713A8 (en) 2004-01-23
KR20050018986A (ko) 2005-02-28
CN1669045A (zh) 2005-09-14
KR100656238B1 (ko) 2006-12-11
US7561165B2 (en) 2009-07-14
EP1556823A2 (en) 2005-07-27
EP1520268A2 (en) 2005-04-06
WO2004006180A2 (en) 2004-01-15
CN1669069A (zh) 2005-09-14
JP4685905B2 (ja) 2011-05-18
CA2489364A1 (en) 2004-01-15
EP1556823B1 (en) 2020-01-01
AU2003245715A8 (en) 2004-01-23
WO2004006181A3 (en) 2004-04-01
CN1669069B (zh) 2010-05-05
JP2011018346A (ja) 2011-01-27
WO2004006181A2 (en) 2004-01-15
US7689032B2 (en) 2010-03-30
JP2005532631A (ja) 2005-10-27
CN100578525C (zh) 2010-01-06
US20060110026A1 (en) 2006-05-25
CA2489200C (en) 2013-06-25
US7643669B2 (en) 2010-01-05
EP1520268A4 (en) 2009-05-20

Similar Documents

Publication Publication Date Title
JP5105643B2 (ja) オブジェクトの電子表示物のテクスチャライジング用システム
Kadobayashi et al. Comparison and evaluation of laser scanning and photogrammetry and their combined use for digital recording of cultural heritage
Cosmas et al. 3D MURALE: A multimedia system for archaeology
Hanke et al. Architectural photogrammetry: Basic theory, procedures, tools
US10740870B2 (en) Creating a floor plan from images in spherical format
CN105678701A (zh) 一种基于多视角影像与激光扫描的考古发掘探方序列三维可视化方法
Bolkas et al. Creating a virtual reality environment with a fusion of sUAS and TLS point-clouds
Grussenmeyer et al. 4.1 ARCHITECTURAL PHOTOGRAMMETRY
Rüther et al. Challenges in heritage documentation with terrestrial laser scanning
Ragia et al. Precise photorealistic visualization for restoration of historic buildings based on tacheometry data
US10529055B1 (en) Compensating for camera pose in a spherical image
Lerma et al. Three‐Dimensional city model visualisation for real‐time guided museum tours
Karsli et al. Building 3D photo-texture model integrated with GIS for architectural heritage conservation
Cosmas et al. A novel multimedia system for archaeology
Bitelli et al. Close-range Photogrammetry, virtual reality and their integration in Archaeology
Simonetto et al. Valorisation of Cultural Heritage Through Virtual Visit and Augmented Reality: The Case of the Abbey of Epau (France)
Ab et al. Three Dimensional Modelling of Building using Faro Laser Scanner And AUTOCAD 2011 Software
Wendt et al. Image-based modelling of architectural sites: the iWitness approach
Green et al. A distributed universal 3d cyberworld for archaeological research and education
Leberl Models and visualizations in a virtual habitat
Colombo et al. New Experiences, Remarks and Prospects: Building Reconstruction and Texturing

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080307

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080403

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080801

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20080811

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20080905

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20091007

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20091014