JP6290922B2 - 現実環境における現実対象物上のデジタル情報を投影するための方法およびシステム - Google Patents

現実環境における現実対象物上のデジタル情報を投影するための方法およびシステム Download PDF

Info

Publication number
JP6290922B2
JP6290922B2 JP2015549997A JP2015549997A JP6290922B2 JP 6290922 B2 JP6290922 B2 JP 6290922B2 JP 2015549997 A JP2015549997 A JP 2015549997A JP 2015549997 A JP2015549997 A JP 2015549997A JP 6290922 B2 JP6290922 B2 JP 6290922B2
Authority
JP
Japan
Prior art keywords
real object
camera
visible light
light projector
depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015549997A
Other languages
English (en)
Other versions
JP2016509394A (ja
Inventor
マイヤー ペーター
マイヤー ペーター
ベンハイマン セリム
ベンハイマン セリム
クルツ ダニエル
クルツ ダニエル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Metaio GmbH
Original Assignee
Metaio GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Metaio GmbH filed Critical Metaio GmbH
Publication of JP2016509394A publication Critical patent/JP2016509394A/ja
Application granted granted Critical
Publication of JP6290922B2 publication Critical patent/JP6290922B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3185Geometric adjustment, e.g. keystone or convergence
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/15Processing image signals for colour aspects of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/257Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/11Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Projection Apparatus (AREA)
  • Processing Or Creating Images (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Description

本発明は、現実環境における現実対象物上のデジタル情報を投影するための方法およびシステムに関する。さらに、本発明は、コンピュータシステム上実行しているとき、方法を実行するためのソフトウェア・コード部を構成するコンピュータプログラムに関する。
拡張現実感(以下、「AR」と略す)システムは、コンピュータで生成されたデジタル情報によって、現実環境を直接的に視覚的に拡張することによって、現実環境を一層高めることができる。例えば、そういったデジタル情報は、現実環境の視覚的印象を増強するための仮想的情報である。典型的アプリケーションは、良く知られているように、例えば、非特許文献1において参照されるように、いわゆるプロジェクタ・ベースのAR、投影AR、空間ARがある。デジタル情報は、対象物、テキスト、図画、ビデオ、またはそれらのコンビネーションのような、あらゆるタイプの視覚的に知覚できるデータであり得る。現実環境の直接の拡張は、コンピュータで生成されたデジタル情報を、現実環境の現実対象物の表面上に向けて投影することによって、実現することができる。
投影ARは、例えば非特許文献2に記載されたような建築デザイン用試作品、例えば特許文献1に記載されたように自動車製造、例えば非特許文献3に記載されたように新規のコンピュータユーザインタフェース開発用ユービキタスコンピュータ処理、非特許文献4に記載されたような情報表示、また非特許文献5に記載されたような靴のデザインのように、多くのアプリケーションを持っている。
投影された視覚的デジタル情報と、現実環境に拡張される現実対象物との間の所望の配置を得るため、現実対象物と、デジタル情報を投影するプロジェクタとの間の空間変換が知られる必要がある。このために、較正処理が、投影AR系を構築するために挑戦するステップである2D−2D、2D−3Dまたは3D−3D相関性に基づいた空間変換を評価することを頻繁に実行される。一般的にそういった較正処理のためにカメラが要望される。
多くの較正法がこれまで、プロジェクタと現実対象物との間の空間変換を計算するために開発され、提案されてきた。例えば、特許文献1においてJundtらは、カメラとプロジェクタを用いた自動車表面上の自動車についての視覚的データを表示する方法を提案している。カメラとプロジェクタは、それらを一度較正処理し、カメラにより得られた視覚的データの処理から計算された、プロジェクタからの−自動車の外部(すなわち、相対的空間位置と方向)と推定するため、固く結合されるべきである。カメラは、自動車とカメラとの間の空間変換を評価するために、自動車に取り付けられた視覚的マーカを検出する。この方法において、プロジェクタと自動車との空間変換は決定される。アプローチの課題は、自動車の座標系に関係するマーカの位置と方向が、事前に測定されることである。
非特許文献5に記載されている、拡張3Dは、プロジェクタに固く取り付けられたカメラセンサに基づいて一群のマーカを追跡する、商業的な投影ARシステムである。これら2つの開発システムは、いくつかの限界を持っている。その較正は、独立した実体によって監視されることができない。カメラとプロジェクタとの間の付加的較正処理は、頻繁に実行される必要がある。この処理は、平坦な面や類似のものと仮定する必要がない任意の対象物に実行されることができない。さらに、視覚的マーカ自身は、前もって付加的エラー原因を誘導する自動車とともに登録される必要がある。
非特許文献2においてRaskarらは、建築デザイン支援用の投影ARシステムを開発した。彼らは、投影された画像が幾何学的に配置されていることを確認するため、複数プロジェクタ用較正法を提案している。彼らのシステムは、物理的モデル(現実対象物)を視覚的に配列するため、投影画像テクスチャ座標を手動で調整することを要求する。
非特許文献5においてKurzらは、カメラと固く結合されたレーザポインタの使用に基づいて、プロジェクタと室内の物理的背景(すなわち現実対象物)空間変換を構築するための較正方法を提示している。カメラとレーザシステムは、カメラとレーザの動作が室内環境を走査し、室内環境でプロジェクタを較正するための制御できるような、上下左右回転可能なロボット装置に搭載される。しかしながら、上下左右回転可能なロボット装置は高価で、カメラとレーザシステムの制御動作は実現することが困難である。これは、主にシステムが、上下左右回転可能なユニットに関するカメラ位置と方向を供給する、上下左右回転可能なカメラの非常に精密なハンド−アイ キャリブレーション(hand−eye calibration)を要求することに起因する。また、レーザで環境をサンプリングすることは、単に時間当たり1点が走査されるから、多くの時間を取る。
非特許文献6においてFuchらは、視覚化においてレーザが使用される深度情報を集めるためのプロジェクタからのパターン投影の使用を提案している。彼らは、現実対象物上の仮想情報を投影することはぜず、むしろヘッドマウントディスプレイを用いる。
非特許文献8においてLimは 複数のプロジェクタと一台のカメラを光景再構築のために採用する。それらは、カメラと各プロジェクタとの間の既知の変換に基づいて複数のプロジェクタと空間関係を較正する。較正の間は、それらはそれらが興味の任意の対象物上の投影によって較正することができないことを意味する、ボード上の投影を要求する。それらは、興味の対象物の座標系において、較正データと変換を評価することができるための追加の較正を必要とする。非特許文献8の目標は、環境の再構築することである。プロジェクタと現実対象物との間の空間変換を算出するためのいかなる較正法も提案しない。
プロジェクタと現実対象物との空間関係を較正し、投影ARアプリケーションやシステムにおけるプロジェクタの内部パラメータを較正するため、すべての従来法は、複雑な処理かつ/または高価なハードウェア設備を要求する。これは、投影ARアプリケーションまたはシステムの有用性と効率が明確に低下する。
独国特許公開第102010013420号明細書 米国特許第8172407号明細書 米国特許第8150152号明細書 米国特許第7433024号明細書
Sanni Siltanen,Theory and application of marker-based augmented reality. Espoo 2012.VTT Science 3.http://www.vtt.fi/inf/pdf/science/2012/S3.pdf Raskar, Ramesh, Greg Welch, and Wei-Chao Chen. "Tablet-top spatially-augmented reality:bringing physical models to life with projected imagery."Augmented Reality, 1999.(IWAR’99) Proceedings. 2nd IEE and ACM Internatipnal Workshop on.IEEE,1999. Rekimoto, Jun, and Masanori Saitoh."Augmented surface:a spatially continuous work space for hybrid computing enviroments." Proceedings of SIGCHI conference on Human factors in computing systems: the CHI is the limit.ACM,1999. Kurz, D.,Haentsch, F.,Grosse, M.,Schiewe, A., and Bimber, O., Laser-Pointer Tracking in Projector-Augmented Archtectural Environments, In Proc. IEEE and ACM International Symposium on Mixed and Augmented Reality (ISMAR2007),pp.19-26,Nara,Japan,2007 Extend3D(from Website 9.12.2012http://www.extend3d.de/en/solutions/design/) Fuchs, Henry, et al."Augmented reality visualization for laparoscopic surgery."Medical Image Computing and Computer-Assisted Interventation-MICCAI’98(1998):934-943. Andreas Kolb, Erhardt Barth, Reinhard Koch, Rasmus Larsen: Time-of-Flight Sensors in Computer Graphics. Eurographics 2009. O. Bimber and R. Raskar. Spatial Augmented Reality: Merging real and virtual worlds.A K Petera LTD,2005. J.Shotton,A.Fitzgibbon,M.Cook,T. Sharp,M,Finocchio,R.Moore,A.Kipman,A.Blake:Real-Time Human Pose Pecongnition in Parts from Single Depth Images.Retrieved fromhttp://rearch.microsoft.com/pubs/145347/BodyPartRecongnition.pdf 17.12.2012. Szymon Rusunkiewicz, Marc Levoy, Efficient Variants of the ICP Algorithm.Third International Conference on 3D Digital Imaging and Modeling BIMBER, O.,WETZSTEIN, G., EMMERLING, A., AND NITSCHKE, C.Enableing view-dependent stereoscopic projection in real environments. In Proc.IEEE and ACM Int. Symposium on Mixed and Augmented Reality.2005 M. Koertgen, G. Park, M. Novotni, R. Klein: 3D Shape Matching with 3D Shape Contexts. Retrieved from http://cg.tuwien.ac.at/hostings/cescg/CESCG2003/MKoertgen/paper.pdf,27.12.2012
上記の事情に鑑み、本発明の目的は、高価なハードウェア設備なしに、そして長い較正処理を実行する必要なしに、現実対象物上に正確にデジタル情報を投影する、投影ARシステムを可能にする方法とシステムを開発することを提供することである。
1つの態様によれば、現実環境においてデジタル情報を投影し、現実対象物または現実対象物の一部の上にデジタル情報を可視光プロジェクタで構成し、カメラを使って投影されたデジタル画像を伴った現実対象物の少なくとも1つの画像を取り込み、カメラと一緒に登録された深度センサを供給し、現実対象物または現実対象物の一部の深度データを取り込む深度センサ、可視光プロジェクタと少なくとも1つの画像と深度データに基づく画像現実対象物との間の空間変換を計算する方法が供給される。
もう1つの態様によれば、現実環境において現実対象物上にデジタル情報を投影し、デジタル情報の投影に適合された可視光プロジェクタを構成し、投影されたデジタル情報を伴った現実対象物の少なくとも1つの画像を捕捉するために適合されたカメラ、カメラと一緒に登録され、現実対象物または現実対象物の一部の深度を捕捉するために適合した深度センサ、可視光プロジェクタと少なくとも1つの画像と深度データに基づいた現実対象物の間の空間変換を計算するための手順を決めた処理をするユニットのためのシステムを供給する。
特別な実施形態に拠れば、好適な実施例において、方法は、RGB−Dカメラシステムと現実対象物と既知の3Dモデルに基づいた現実対象物との間の空間変換を推定する工程と、プロジェクタの内部パラメータとプロジェクタとプロジェクタを用いる現実対象物または現実対象物の一部の表面上の1つまたはそれ以上の視覚的パターンを投影する工程に基づいた現実対象物との間の空間変換を計算する工程と、および、RGB−Dカメラシステムを使用して投影された視覚的パターンについての距離画像を取り込む工程とを備える。
実施形態に拠れば、方法はさらに、深度データを使用したデジタル情報の深度を推定する工程を備える。
特に、方法は、さらに深度データと少なくとも1つの画像を用いたデジタル情報の3次元位置を推定する工程を備える。
好適な実施形態において、深度センサとカメラは、深度センサとカメラが相互に関係される(たとえば、それらの間に既知の変換を有する)サブシステムを形成するため結合され、その方法は、さらに、深度センサとカメラと現実対象物のサブシステム間の空間変換を計算するステップを含む。
例えば、深度センサとカメラと現実対象物の間の空間変換を計算することが、現実対象物または現実対象物の一部の3次元幾何学モデル、および1つまたはそれ以上の画像から現実対象物または現実対象物の一部の3次元記述、および深度センサとカメラのサブシステムによって取り込まれた現実対象物の深度データに基づいている。
特に、方法は、現実対象物または現実対象物の一部の3次元幾何学モデルを使用するデジタル情報の深度、および深度センサのサブシステムとカメラと第2深度データを得る現実対象物との間で計算された空間変換を推定する工程を備える。
実施例に拠れば、方法はさらに 少なくとも1つの視覚的パターンを深度センサとカメラを使用する現実対象物の表面上にデジタル情報として投影するステップを含む。
実施例に拠れば、方法はさらに、可視光プロジェクタと深度センサとカメラのサブシステムとの間の空間変換を計算する工程と、可視光プロジェクタの内部パラメータを計算または供給する工程と、可視光プロジェクタと、可視光プロジェクタと深度センサとカメラのサブシステムとの間の空間変換に基づいた現実対象物との間の空間変換、深度センサのサブシステムとカメラと現実対象物の間の空間変換、および好適には可視光プロジェクタの内部パラメータを計算または供給するステップを備える。
もう1つの実施例に拠れば、方法はさらに、深度センサとカメラのサブシステムの座標系から、深度センサとカメラと現実対象物のサブシステムとの間の空間変換に基づいた対象物の対象物座標系に投影された視覚的パターンの深度データを変換し、可視光プロジェクタの内部パラメータを計算または供給する工程と、可視光プロジェクタと変換された深度データに基づいた現実対象物との間の空間変換を計算する工程と、および好適には可視光プロジェクタの内部パラメータを計算するステップを備える。
例えば、深度センサとカメラのサブシステムは、(深度センサに表すDを伴う)RGB(RGB=Red/Green/Blue)カメラであるカメラを伴ったRGB−Dカメラシステムである。
特に、深度センサは、可視光プロジェクタに依存することなしに、現実対象物または現実対象物の一部の深度データを取り込む。
実施形態に拠れば、第3深度データは、深度センサおよびカメラによるサブシステムと可視光プロジェクタと可視光の内部パラメータとの間の空間変換を使用して生成され、かつカメラの画像から抽出された、現実対象物上にデジタル情報の項目を投影する。
例えば、深度センサによって取り込まれた深度データは、ここでは次のように第1深度データとして呼ばれ、かつ方法はさらに、第1深度データ、第2深度データそして第3深度データの任意の組み合わせ間の違いを計算するステップを備える。
実施形態に拠れば、もし、可視光プロジェクタの現実対象物までの所定の距離が、到達され、または行き過ぎと決定されるならば、較正することの必要、または自動的に較正手続を開始することについてユーザに知らせる工程を有する。
もう1つの実施形態に拠れば、可視光プロジェクタを使用して可視光プロジェクタの現実対象物までの距離は、現実対象物上に視覚的情報として表示される。
実施形態に拠れば、方法は、深度センサとカメラのサブシステムを使って現実対象物を追跡するステップを備える。
例えば、1つまたはそれ以上の視覚的マーカが追跡支援するため現実環境に付加される。
好適な実施形態においては、反復的最近点(ICPとして知られる)アルゴリズムは、より詳細は以下において好ましいように、深度センサの位置の初期化をするために使用される。
実施形態に拠れば、可視光プロジェクタの位置データは、フォーカスまたはズームまたは輝度のようなプロジェクタの特定のパラメータをセットするために使用される。
特に、可視光プロジェクタの輝度は、もし、プロジェクタが現実対象物と接近したならば小さくしても良い。
特に、可視光プロジェクタのズームは、視野を減少し近づくとき、さらに動き去るときに、プロジェクタの視野を増加する。
さらにまた実施例に拠れば、方法はさらに、ユーザによって接触を認識するため深度センサとカメラのサブシステムを使用して現実対象物の表面上のユーザによる相互作用のステップを備える。
もう1つの態様に拠れば、本発明はまた、デジタルコンピュータシステムの初期メモリにロードされるように適合されたコンピュータプログラム製品と関係し、ステップと特徴が上述のように記述され、前記製品が前記コンピュータ上で実行されるときに実行されるソフトウェア・コード部を構成する。さらに、本発明はまた、ハードウェアロジック上で、部分的に実施されることができ、ここで記述された方法を実行するために配列され、プログラムされた論理回路と関係しても良い。
本発明によるシステムの実施例に拠れば、カメラと深度センサは共通の筐体に収められる。
好適には、カメラと深度センサはRGB−Dカメラの機能的ユニットである。
特に実施形態において、可視光プロジェクタ、カメラと深度センサは、携帯型または頭部装着型装置の一部である。
好適な実施形態においては、カメラは可視光カメラ、好ましくはRGBカメラ、そして深度センサは赤外線プロジェクタと赤外線カメラを含む。
実施形態に拠れば、可視光プロジェクタ、カメラと深度センサは、可視光プロジェクタがカメラと深度センサから、隔離することまたは熱減衰材料によって分離される、共通の筐体に収められる。
もう1つの実施形態に拠れば、可視光プロジェクタ、カメラと深度センサは、筐体の基板がカーボンファイバーラミネートで作られた、共通の筐体に収められる。
さらなる実施形態に拠れば、システムは、最新の較正の温度と現在の温度の差がしきい値を超過する、または、システムの自己較正を自動的に実行する場合、システムの新しい較正の必要についてユーザに通知する較正手段を含む。
例えば、可視光プロジェクタは、通気孔、ズーム光学系、焦点可変レンズの少なくとも1つを含んでいる。
実施態様に拠れば、システムはさらに、好ましくは、赤外線プロジェクタは深度センサの一部として使用される赤外線プロジェクタ、を含む:通気孔、ズーム光学系、焦点可変レンズの少なくとも1つの次の要素を含まない。
それについて本発明と実施形態は、以下の図に参照され記載されている。
本発明の態様による、RGB−Dカメラと可視光プロジェクタは互いに固く結合していない例示のシステム設備を示す図である。 図1Aによる、本発明の面により使用された座標系の追加の視覚化を伴った、システム設備を示す図である。 本発明の面による、RGB−Dカメラシステムと可視光プロジェクタは互いに固く結合するもう1つの例示のシステム設備を示す図である。 本発明の実施例による方法のフローチャートダイヤグラムを示す図である。 本発明のもう1つの実施例による方法のフローチャートダイヤグラムを示す図である。 可視光プロジェクタと、本発明の一態様により使用されることができるRGB−Dカメラシステムを含む、例示のハンドヘルド装置を示す図である。 可視光プロジェクタと、本発明の一態様により使用されることができるRGB−Dカメラシステムを含む、例示のヘッドマウント装置を示す図である。 本発明の一態様による有利なハードウェア設備を示す図である。 本発明の一態様による方法に関連して使用されるICPアルゴリズムの例示のフローチャートダイヤグラムを示す図である。
本発明の一態様と実施形態についての次の記述において、そこに示される任意の特別な態様に本発明を限定することなく、本発明を説明するために単に例示するシステム設備としての手段である、図1Aおよび1Bによるシステム設備が、主に参照される。一般的に、本発明の一態様によるシステム設備は、現実環境において現実対象物の上にデジタル情報を投影することができる。示された例において、現実対象物は自動車11、しかしながら、任意の現実対象物またはそれについての一部が使用されても良い。システムは、現実環境において、自動車11、または現実対象物の一部のような現実対象物上にデジタル情報を投影することに適合される可視光プロジェクタ15、投影されたデジタル情報を伴う現実対象物11の少なくともひとつの画像を取り込むことに適合するカメラ12(特に、RGBカメラまたは、ここでは以下に述べる他のタイプのような可視光カメラ)、そして、カメラ12に登録され、現実対象物11または現実対象物11の一部の深度データを取り込むことに適合された、深度センサ(提示の例における、赤外線カメラ13と赤外線プロジェクタ14を構成する)を含む。深度センサとして赤外線プロジェクタと赤外線カメラを使用することは、赤外線が照射され、当業者に知られた赤外線カメラによって取り込まれて現実対象物の深度データを測定することに対する技術である。他の深度センシング技術もまた使用されても良い。
可視光カメラ12と深度センサ13、14は、カメラ12と、カメラと深度センサが相互に関係し、すなわちそれらとの間の既知の空間変換によって相互に関係する深度センサ13、14のサブシステム16を形成する。例えば、サブシステム16は、以下で詳細に記述されるような、RGB−Dカメラである。システムはさらに、特に、可視光プロジェクタ15と、カメラ12によって取り込まれた少なくとも1つの画像と深度センサ13、14によって測定された深度データに基づいた現実対象物11との間に空間変換を計算し、そのために必要とされる任意の他の変換を計算し、より詳細は以下にここで記述したような計算することに対して手順を決められた処理ユニットを含む。処理ユニット17は、典型的にコンパクトに使用されるような任意の適合処理ユニットであっても、また、パーソナルコンピュータまたは他の処理ユニットまたはロジックCPUのような、そういったアプリケーションのための分散したコンピュータシステムであってもよい。
提示の本発明の好適な実施例に拠れば、コンピュータで生成されたデジタル(またここでは仮想と呼ばれる)情報は、現実対象物の既知の3次元モデルとプロジェクタ15の内部パラメータを計算することに基づいた、RGB−Dカメラシステム16と現実対象物11との間の空間変換、およびプロジェクタ15とプロジェクタ15から現実対象物11または現実対象物11の一部上に投影されたデジタル情報(好ましくは1つまたはそれ以上の仮想パターン)に基づいた現実対象物11との間の空間変換、およびRGB−Dカメラシステムによって取り込まれた、投影されたデジタル情報(例えば、視覚的パターン)の距離画像を推定することによって、可視光プロジェクタ15を使用した現実環境における、現実対象物11の提示のケースにおいて、現実対象物の表面上に投影される。
本発明の一態様に拠れば、現実環境においてデジタル情報を現実対象物上に投影し、特に較正において、デジタル情報を現実対象物または現実対象物の一部の上に投影する可視光プロジェクタと現実対象物または現実対象物の一部との間の空間変換を計算することについての方法が提案されている。空間関係または空間変換は、いかに対象物が、平行移動と回転によって他のもう1つの対象物との関係において3次元空間中に位置しているかを明確にする。RGB−Dカメラシステムは、現実環境または現実環境の一部のRGB−D画像を取り込むことができる取り込み装置である。RGB−D画像は、距離画像(すなわち、画像において取り込まれた現実対象物に関係付けられた深度データ)を伴ったRGB画像である。距離画像に代わって、システムはまた、カメラ座標系に関係する3次元モデルを供給することができる。提案された本発明は、深度データを付加的に供給する画像フォーマット(色またはグレイスケール)を供給するどんなカメラにでも容易に一般化することができる。それは、RGBフォーマットにおけるカラー画像を供給する取り込みシステムに制限されない。それは、また任意のカラーフォーマットとモノクローム画像に対しても応用される。有利な実施形態において、可視光カメラは、高いダイナミックレンジまたは、例えばカメラに青色のみ見される、所定の光波への反応制限するフィルタを備えたカメラであることができる。いわゆるRGB−Dシステムは、環境における一群の物理的ポイントの深度情報および一群の光学的設定情報を供給するために搭載され、共に較正される装置の任意の組み合わせであることができる。
現実環境は、1つまたはそれ以上の現実対象物で構成する。現実対象物は、世界において物理的に存在する任意の対象物、例えば、自動車、樹木、建物、人間または石のようなものであることができる。
プロジェクタは、画像(すなわち、視覚的デジタル情報)を、現実対象物または現実対象物の一部の物理的表面上に投影する光学装置である。視覚的デジタル(または仮想)情報は、対象物、特に3次元対象物、テキスト、図面、ビデオ、ユーザインタフェース要素(例えば、ボタン)またはそれらの組み合わせのような、視覚的に知覚できるデータについての任意のタイプであることができる。
現実対象物の3次元モデルは、現実対象物の3次元幾何学形状を記述する。幾何学形状は、1つまたはそれ以上の、形状、対称性、幾何学サイズや構造に限定されず含んでいる属性を記述する。
プロジェクタと現実対象物の間の空間的な関係を較正することについての問題は、プロジェクタと現実対象物との間の並進と方向を含む変換を決定することである。
次において、図1Aおよび1Bに示されるような例示の背景が与えられ、それは、フローチャートのような本発明に基づいた方法の実施形態を示す図3に参照される。
現実対象物11または現実対象物11の一部の3次元記述(例えば、表面上に位置された点雲の形式において)は、RGB−Dカメラシステム16(図3中のステップ31)によって取り込まれた深度データからの現実対象物または現実対象物の一部についての距離画像に基づいて構築される。現実対象物11の3次元記述は、RGB−Dカメラ座標系102(図1B)構築される。RGB−Dカメラシステム16と現実対象物11との間の空間変換104は、RGB−Dカメラシステム102において表現され再構築された点雲と、現実対象物の座標系101において表現された現実対象物11(ステップ32で供給される)の既知の3Dモデルの点雲との間の最良の幾何学的マッチ(match)を発見することによって数値的に推定されることができる。これは、熟練した人に当然知られていて、詳細を後述する、反復最近接点(ICP)アルゴリズムを使用することによって達成されることができる。他の方法は、非特許文献12に記載されたような、トポロジー、曲がり、または形状に基づいた、両方のモデルの特定の特徴とマッチングすることに基づくことができる。現実対象物の既知の3次元モデル点雲は、光線を投げることを通して3次元モデルをサンプリングすることによって得ることができる、例えば、それは、また、3角法によって3次元モデルをサンプリングし、そして、RGB−Dカメラシステムと現実対象物との間の空間変換を推定するために点と面の距離に基づいてICPアルゴリズムを採用することは可能である(図3中のステップ33)。技術における当業者にそれが明白であるため、既知の現実対象物3Dモデルは、また、数学的記述形式、例えば、スプライン(SPLINE)またはNURBSで供給されることができる。
プロジェクタ15は、視覚的パターンまたは既知の幾何学配置パターンを現実対象物11または現実対象物11の一部の表面上に投影する(図3中のステップ35)。視覚的パターンは、点、線、多重点、多重線、格子、円、十字線、太いストライプ、2値コードパターン、グレーコードパターン、カラーコードストライプ、そしてランダムテクスチャのような可変形状であることができる。RGB−Dカメラ座標系102によって投影された視覚的パターンの3次元位置は、RGB−Dカメラシステム(図3中のステップ36)によって取り込まれた距離画像から直接的に得ることができる。代替の実施形態において、投影された視覚的パターンの3次元モデル位置は、RGB−Dカメラシステムと現実対象物との間の空間変換104が推定された後、現実対象物の3次元モデルから検索されることができる。
プロジェクタ15の内部パラメータと同様にプロジェクタ15とRGB−Dカメラシステム16との間の空間変換106は、プロジェクタ座標系103における視覚的パターンの2次元座標に基づいて計算され、RGB−Dカメラ座標系102(図3中のステップ37)における視覚的パターンの3次元座標系と対応することができる。プロジェクタの内部パラメータが知られている場合、それらは、再推定される代わりに使用されることができる。内部パラメータは、可視光プロジェクタと深度センサとカメラのサブシステムとの間の空間変換を推定するために通常使用される。一度空間変換が決定されたら、内部パラメータは、現実対象物における情報の視覚化のステップにおいて使用されるだけでよい。
投影されたパターンの3次元の位置が距離画像から得られた場合において、現実対象物とRGB−Dカメラシステムとの間の空間変換104を計算すること、およびプロジェクタとRGB−Dカメラシステムとの間の空間変換106を計算することが並列に実行されることができることについて記述された手続は、留意されるべきである。
最終的に、プロジェクタ15と現実対象物11との間の空間変換105は、現実対象物11とRGB−Dカメラシステム16との間の推定された空間変換104、およびプロジェクタ15とRGB−Dカメラシステム16との間に推定された空間変換106(図3中のステップ38)に基づいて計算される。
さらに、提示の本発明は、プロジェクタ15とRGB−Dカメラシステムが、固く結合すること、または、プロジェクタ15とRGB−Dカメラシステム16(図1Aを参照)の間の事前に知られた空間変換を持つことを要求しない。これは、特許文献1および非特許文献5に記載されたような従来技術に対する提示の本発明の有用性と柔軟性を増加する。特に、RGB−Dカメラシステムは、構成が容易で物理的構造が容易に変化せず、可動部品または光学部品を有さない小さくて経済的なシステムとして使用されるから、したがって較正は通常変化しない。一方、プロジェクタは、可動光学系をしばしば備え付けており、温度において大きな変化を示す。それらはまた、しばしば大きな筐体、湿気のある光学系および通気孔を有する。すべてのこれらの特性は、とても明るいかつ高品位な画像を表示することにおいてそれらを強くするが、それらを持続的に較正することを困難にさせる。
本発明に基づいた方法のもう1つ実施形態は、図4に図示される。ステップ41−46は、図3の実施形態で参照により上に記載されたようにステップ31−36に相当する。上述のように、RGB−Dカメラシステム16と現実対象物11との間の登録が決定され、そして、現実対象物11の上に視覚的パターンを投影することは、プロジェクタ座標系103とRGB−Dカメラ座標系102との間の2次元−3次元の対応へと導く。
ステップ47において、これらの対応についての3次元座標は、ICPアルゴリズムを使った決定された変換を使って、RGB−Dカメラ座標系102から対象物座標系101に変換される。最後に、プロジェクタ15と現実対象物11(そしてプロジェクタの光学的に内部パラメータ)との間の空間変換は、ステップ48においてプロジェクタ15と対象物座標系101との間の2次元−3次元対応に基づいて計算される。
RGB−Dカメラシステムの可能な実施例:
RGB−Dカメラシステムは、飛行時間型カメラシステムであることができる。非特許文献7においてKolbらは、時間飛行型カメラセンサと応用における技術情勢についての概要を与えている。RGB−Dカメラシステム16は、また、RGBカメラ12、赤外線カメラ13および赤外線プロジェクタ14(図1Aを参照)を使用して構築することができる。RGB−Dカメラ12、赤外線カメラ13および赤外線プロジェクタ14は、典型的に固く結合され、そしてそれら空間関係は既知である。これによって、RGBカメラ、赤外線カメラおよび赤外線プロジェクタは、RGB−Dカメラ座標系102として命名される、共通の座標系において定義されることができる。有利に、3つのセンサは、1つの共通パーツ上に、例えば金属の固体ブロックまたはカーボン・ファイバ・ラミネート部品に、すべてしっかりと固定される。
非特許文献2、5に記載されたようないくつかの方法は、カメラとプロジェクタとの間の空間関係を較正することが開発された。共通の方法は、プロジェクタに既知の幾何学図形を持ったパターンを物理表面上に投影させること、そしてカメラが投影されたパターンを取り込むことである。これは、プロジェクタ座標系とカメラ座標系との間の対応を構築することができ、したがって、プロジェクタとカメラとの間の変換は推定することができる。
赤外線プロジェクタと赤外線カメラはともに、現実対象物または現実対象物の一部の距離画像を提供することができる。このため、赤外線プロジェクタは、既知の幾何学図形を持ったパターンを現実対象物上に投影し、そして、赤外線カメラは、投影されたパターンの画像を取り込む。投影されたパターンの画像から、現実対象物の距離画像は生成されることができる。RGBカメラ、赤外線カメラおよび赤外線プロジェクタが、共通のRGB−Dカメラ座標系において較正されたから、RGB−D画像は、距離画像とRGBカメラのRGB画像からを得られることができる。
マイクロソフトからの知られたKinectシステム、またはAsusからのXtion ProのようなRGB−Dカメラシステム、赤外線カメラおよび赤外線プロジェクタを使用することに基づいて、いくつか商業的に利用できるRGB−Dカメラシステムが存在する。これらのシステムは、いつでもすぐ買える安価な消耗品の例である。US8150142B2およびUS7433024は、のRGB−Dセンサの可能な実施の詳細な方法を記載する。
本発明において深度センサの有利なバージョンは、双方向的フレームレート(例えば5フレーム/秒より高い)で距離画像を配信することができることである。
ICPアルゴリズム実施可能:
反復的最近接点(ICP)(たとえば、非特許文献10に記載されている)は、3次元点群によってしばしば表現される2つの部分的に重複する3次元モデルを空間的に登録するためアルゴリズムである。アルゴリズムの目的は、他のもので登録されるため1つのモデルを変換する、6つのDoF(DoF:自由度)剛体変換(3次元回転および3次元並進を備えること)を見付けることである、例えば、次に記載される図8を参照:
参照モデルR(ステップ81)、現在のモデルC(ステップ82)、そして、CとR(ステップ83)との間の変換の初期推定を与えられ、方法は、初期に供給された初期推定を用いて、C(ステップ84)を初期に変換する。最も単純な場合に留意し、初期推定は、アイデンティティ変換であることができる。今日、反復的方法は、モデルRおよびC(ステップ85)からサンプル点R´およびC´を選択して、点についてのこれら2つの集合の間のマッチを定める(ステップ86)。最も単純な場合、C´における点に対して対応をマッチすることは、R´において最も近い点を決定することである。サブシーケンスステップ(ステップ87)において、ウェイト(weights)は、全てのマッチに対して計算されることである。これの最も単純な実施形態は、全てのマッチに等しいウェイトを割り当てることであることに留意してください。誤差、例えば、のマッチする点の間での距離についてのルートミーンスクウェアを割り当ての後(ステップ88)、変換は見付られ、この誤差を最小化する。
出口基準(ステップ810)は、見付られた解がさらなるの反復の中で再検討されるべきかどうかを決定する。もしそうならば、モデルRおよびCからサンプル点R´および点C´を選択することによって、次の反復開始の前に、Cは見付られた変換で変換される(ステップ811)。さもないと、累積された変換、すなわち、反復アプローチの期間にCに適用された全ての変換、およびステップ89で見付られた最後の変換についての累積は、CをRに位置合わせを行う最後の変換として返される(ステップ812)。
潜在的な追加的使用:
距離画像を生成することができる深度センサを有する事は、追加の利点を持っている。1つの利点は、現実対象物の仮想モデル(すなわち、コンピュータ支援された設計(CAD)モデル)と現実対象物の実際の幾何学形状との間の食い違いを見付けるために異なる測定方法についての実施形態であることができる。ICPアルゴリズムは、部分的エラーまたは2つの3次元モデルとの間の違いを扱うことができるから、アルゴリズムは、大部分の場合において、部分的に異なる仮想モデルを深度センサから来る深度データに位置合わせすることができる。そして、その差は、例えば1つのモデルの頂点または点と他のモデルの最も近い頂点または点との間において計算されることができる。異なる距離に異なる色を割り当て、プロジェクタは、それらの仮想3次元モデルとの違いに基づいて、現実対象物の一部に彩色をすることができる。
もう1つの利点は、現実対象物とのタッチ相互作用についてのさらなる実施形態であることができる。技術情勢(例えば非特許文献9)から、技術は、深度データから人体ジェスチャを検索することが知られている。人体追跡は、システムのユーザの大まかな頭部位置を検索するために使用されることができる。この頭部位置は、可視光プロジェクタの視点を持つユーザを仮定することよりも、表示された仮想データをより現実的に見て、現実対象物に良好に位置合わせされるように再調整することに使われることができる。表現技術についてこれ以上のことが、非特許文献11において見出される。
人体追跡はまた、ユーザの手の位置を検索するため、または、現実対象物に近くに存在するユーザの最も近い人体の部分を検索するために使用されることができる。システムは、現実対象物からの所定の閾値(例えば、10cm)より近いと仮定する、任意の人体部分またはただの手を、考えられるマウス位置がプロジェクタの内部パラメータに基づいて2次元座標に投影された3次元モデルの最も近い3次元ポイントに対応するマウスクリックまたはマウスイベント(mouse−event)があることを理解することができる。この情報を使用して、それを結合して、または、知られた技術を用いて3次元モデルの下位の部分を直接的に特定することによって、ユーザ相互作用の全ての種類は、起動されることができる。例えば、仮想のポストイットが、この位置に3次元モデルに添付されることができ、または一部は動きを与えられ、またはハイライトが当れられることができる。
接触−相互作用の態様に対し有利な付加は、ユーザが現実対象物を接触するときに、容量センサを使用することによって、または電流を測定することによって、ユーザが現実対象物を接触することを検出することである。容量センシング回路は、現実対象物に接続されることができ、それが現実世界の対象物の容量において変化を検出するとき入力信号を処理ユニットに供給する。大地から現実対象物を絶縁し、現実対象物を高い電圧(高抵抗によって)に接続し、そして、ユーザが現実対象を触ったとき誘起する電流を測定することは、選択的な実施形態であることができる。深度センサデータは、現実対象物がタッチされた位置を推測するために評価されることができる。
2012年12月17日を検索されたウィキペディアは、容量センシング回路を実施することについての次の可能な方法を提供した(http://en.wikipedia.org/wiki/Capacitive_sensing):
“容量は、発振器の周波数を制御する、またはAC信号の結合すること(または減衰)のレベルを変化させるために、それを使用することによって、通常間接的に測定される。単純な容量メータの設計は、しばしば緩和発振器に基づいている。センスされるべき容量は、発振器RC回路またはLC回路の部分を形成する。基本的に技術は、既知の回路を用いて、未知の容量をチャージすることによって動作する。(容量のための状態方程式は、i=Cdv/dt。これは、容量が、容量素子を横切る電圧の変化レートによって割られた電流と等しいことを意味する。)容量は、しきい値電圧(緩和発振器の)に達するに要求されるチャージ時間を測定することによって、または等価的に発振器の周波数を測定することによって、計算されることができる。これらの両方とも、発振回路のRC(またはLC)時定数に比例する。容量測定における誤差の第1の原因は、浮遊容量(stray capacitance)であり、警戒されないならば、おおよそ10pFと10nFの間を行き来する可能性がある。浮遊容量は、容量信号をシールド(ハイ・インピーダンス)すること、そして接地リファレンスに(低インピーダンス)シールドを接続することによって相対的に定常値に保持されることができる。また、浮遊容量の望まない効果を最小限にするために、可能な限りセンサ電極の近傍になるようにセンシングエレクトロニクスを配置するという良い実地経験がある。もう1つの測定技術は、容量分割素子を介して固定周波数の交流電圧を印加することである。これは、既知の値と他の未知の値の2つの容量素子を直列で構成する。出力信号は、一方の容量素子を介して取り出される。未知の容量素子の値は、交流電圧計によって測定されることができるような、出力/入力の信号振幅の比率と等しい、容量の比率から見付ることができる。”
ユーザタッチは、また、ユーザ位置を測定することなしに使用され、そして可能な内容のワークフローにおいて次のステップを単純に起動することができる。例えば、システムは最初に、現実の自動車上に仮想エンジンを表示し、そして自動車をタッチした後、システムはギアボックスの構造を表示するように切り替える。
深度センサの範囲を拡張し、またはシステムのユーザのより多くに対応するために、第2の深度センサは、第1の深度センサに対して固定された空間関係で搭載されることができる。その2つの深度センサは、順次にまたは単に需要上において起動されることができる。
特許文献1および非特許文献5に記載されたような方法を比較すると、提示の本発明は、可視光プロジェクタとRGB−Dカメラシステムとの間の固く結合することを要求しないし、そして、現実対象物にしっかりと添付された視覚的マーカまたはテクスチャ前景を必要としない。よって、提示の方法は、現実対象物と可視光プロジェクタとの間の空間変換を計算することの較正手続、そしてプロジェクタの内部パラメータを推定することを単純化する。さらに、視覚的マーカと現実対象物との間のマーカ対象物の較正は、マーカ対象物較正によって引き起こされるエラーを除去する、特許文献1および非特許文献5に記載されたような方法と比較される提示の方法において要求されない。
ロボット装置に、現実対象物を走査するためにカメラに取り付けられたポインタを動かすという要求をする、非特許文献5に記載されたような方法と比較して、本発明は、好ましくはRGB−Dカメラシステムに基づいた、異なる思想を採用する。本発明は、非特許文献5に記載されたような方法と比較して、較正の時間を低減することができる。さらに、現実対象物とRGB−Dカメラシステムとの間の空間変換を計算すること、およびプロジェクタとRGB−Dカメラシステムとの間の空間変換を計算することの2つが記載された手続は、並列に実行されることができるから、本発明はさらに、較正のスピードアップが可能である。有利なことに、RGB−Dカメラシステムは、10Hz以上のフレームレートで画素について50倍より高い解像度の距離画像を供給することができる。
現実対象物または現実対象物の一部のさらなる距離画像は、可視光プロジェクタとRGB−DカメラシステムのRGB画像を使用して投影し、取り込むことによって生成されることができる。この距離画像は、RGB−Dカメラシステムから供給される距離画像と同一であるべきである。RGB−Dカメラシステムが現実対象物に関して固定されると仮定することは、プロジェクタが、プロジェクタと現実対象物との間の空間関係の較正後、現実対象物またはRGB−Dカメラシステムから離れる時にはいつでも、その2つの距離画像は、異なるし、システムは較正されるべきである。
次に、それは、図2に基づいたシステムのもう1つの実施形態に参照される。図1に基づいたシステムと同様に、RGBカメラ22、赤外線カメラ23と赤外線プロジェクタによって形成された深度センサと一緒にRGB−Dカメラシステム26、現実対象物21の上にデジタル情報を投影する可視光プロジェクタ25が供給される。RGB−Dカメラシステム26とプロジェクタ25との間の相対的変換が固定されていることを仮定して(図2を参照)、とプロジェクタ25と現実対象物21の間の空間関係の較正の後、現実対象物21の動きを検出することが可能である。プロジェクタ25と現実対象物21との間の空間関係は、そのような動きが検出されるや否や再較正されるべきである。
検出は、次のように実現されることができる。可視光プロジェクタに視覚的パターンを現実対象物の最表面上に投影させ、そしてRGB−Dカメラシステムに投影されたパターンを取り込ませ、その際、投影されたパターンの画像位置が所望の位置に存在するか否かをチェックする。所望の画像位置は、プロジェクタから放出された視覚的パターンの光線と、現実対象物とプロジェクタとの間の較正された空間関係に基づいた現実対象物の3次元モデルとの間の交点を計算することによって推定されることができる。交点の3次元位置は、現実対象物座標系において表現されることができる。所望の画像位置は、現実対象物とRGB−Dカメラシステムとの間で較正された空間関係に基づいたRGB−Dカメラシステムの画像座標系の中への交点の再投影である。
その検出は、またRGB−Dカメラシステムから得られる距離画像に基づいて実現されることができる。もし、直近得られた距離画像が、RGB−Dカメラシステムからの較正で取り込まれた距離画像と相違するならば、較正後の現実対象物の動きが存在する可能性がある。
RGB−Dカメラシステム26とプロジェクタ25との間の相対的変換が固定されていることを仮定すると(図2を参照)、プロジェクタと現実対象物との間の空間関係の較正の後、RGB−Dカメラシステムは、初期化で使用されるような、コンピュータ視覚化法またはICPを使用して現実対象物の動きを追跡することができ、プロジェクタと現実対象物との間の空間関係は、適宜に更新されることができる。さらに、可視光プロジェクタのシステムパラメータは、追跡によりRGB−Dカメラシステムに対する現実対象物の位置に基づいて、適宜に調整されることができる。例えば、プロジェクタが現実対象物により近いとき、その輝度は低下させる。
較正後に現実対象物に視覚的マーカを加えることは、RGB−Dカメラシステムを使用して現実対象物の確実な追跡をすることができる。
RGB−Dカメラシステムの提示の較正されたシステムとプロジェクタは、さらにタッチを見るためにRGB−Dカメラシステムからの距離画像を使用することによって現実対象物の最表面上におけるユーザの相互作用を検出することを支援することができる。
本発明の有利点は、較正後、2つの独立な深度データの発生源が存在することである。そのため、投影ARシステム、および、RGB−Dカメラシステムからのもの、可視光プロジェクタとRGBカメラのRGB画像の使用することからのものという、現実対象物に関する深度データの2組を比較することによるARプロジェクタシステムおよびその較正についての質を推定することが可能である。プロジェクタとRGBカメラのRGB画像を使用することから供給される深度データは、現実対象物の物理的表面上にプロジェクタに既知の幾何学形状をもつ視覚的パターンを投影させること、およびRGBカメラに投影パターンのRGB画像を取り込ませることによって実現されることができる。利用可能な内部と外部データを持つことは、2つのモデルが登録されることができ、例えば、プロジェクタからRGB−Dモデルへ再構築された点についての平均距離のような質の測定が、返されることができる。
較正の質をチェックすることについてのもう1つ可能な方法は、検出可能な可視光情報を現実対象物上に投影することである。可視光カメラの内部パラメータ、可視光プロジェクタの内部パラメータ、および現実対象物と可視光カメラへの可視光プロジェクタの空間関係に基づいて、検出可能な可視光は、可視光カメラ画像における所定位置を持つことを期待されることができる。可視光カメラの内部パラメータは、事前の較正手続きから既知である。検出可能な可視光情報の期待される位置とその現実の位置との間の距離は、品質処理として画素中に返されることができる。代わりに、その違いは、現実対象物の上に数学的に投影され、そしてミリメートルに変換されることができる。
本発明の一態様に基づいて、可視光カメラと深度センサは、特にRGB−Dカメラシステムとして記載されるような機能的ユニットである、共通の筐体に収納される。可視光プロジェクタ、深度センサ、および可視光カメラを含むシステムは、また携帯型または頭部装着型装置を形成するため最小化された方法において実施されることができる。
潜在的な実施形態は、それぞれ図5、6および7に示される。可視光プロジェクタおよびRGB−Dカメラシステムは、最小化されれば、携帯型または頭部装着型装置として形成されることができる。図5に示される、プロジェクタとRGB−Dカメラシステムを構成する例示の携帯型または頭部装着型装置50は、ハンドル51、可視光プロジェクタ55およびRGB−Dカメラシステムを含んでも良い。RGB−Dカメラシステムは、さらに、赤外線プロジェクタ52、赤外線カメラ53およびRGBカメラ54を含んでも良い。
可視光プロジェクタと図6に示されるRGB−Dカメラシステムを構成する、例示の頭部装着型装置60は、据え付け部61、可視光プロジェクタ65およびRGB−Dカメラシステムを含んでよい。RGB−Dカメラシステムは、さらに赤外線プロジェクタ62、赤外線カメラ63およびRGBカメラ64を含んでよい。据え付け部61は、ヘッドマウント装置と投影されたデジタル情報をユーザの目66で知覚するユーザの頭との間の固い据え付けを支持することができる。
本発明の一態様に基づいたシステムについてのもう1つの有利なハードウェア設備は、図7に示される。通常調整が難しい可視光プロジェクタ、およびRGB−Dカメラシステムは、共通の筐体内に結合されているが、同時に機能的には分離されている。この実施形態において、赤外線プロジェクタ74、可視光カメラ75および赤外線カメラ76を備える、RGB−Dカメラシステムの要素は、固体構造要素に取り付けられることによって、それらの空間的関係は、輸送中の動きまたは衝撃さえに対して強固であるべきである。少なくとも可視光カメラ75の1つの、赤外線プロジェクタ74および赤外線カメラ76は、可能な実施形態において、固定された焦点光学系を備えている。較正困難な可視光プロジェクタは、緩衝器、ズーム、焦点機構を含んでよい複雑な光学系71を含む。それは、高エネルギー光源79と空間光変調器78を持っている。高エネルギー光源のため、可視光プロジェクタは、それがターンオンされた後(拡張温度指示器またはセンサ72によって示される)、温度域において大きな変化を持つ。構造要素のサイズにおけるその変化がシステム要素の空間的関係を変える可能性があるから、温度域における大きな変化は、較正逸脱の主要原因である。
したがって、可視光プロジェクタとRGB−Dカメラシステムは、この実施形態においては、絶縁することまたは熱緩衝材73によって分離されている。有利には、筐体のベース板70−1は、カーボン・ファイバー・ラミネートで製造され、RGB−Dカメラシステムと可視光プロジェクタはベース板70−1上にしっかり固着され、筐体の側面壁70−2に固着されていない。筐体は、少なくとも1つの新鮮な空気の供給または熱い空気の排出70−3を利点として持つことができる。システムは、少なくともひとつの温度センサ72を利点として持つことができる。システムは、最新の調整と現時点との温度差が与えられたしきい値を超えるような場合、新しい較正の必要についてユーザに通知することができる。選択的に、システムは自動的に自己較正を実行することができる。

Claims (56)

  1. 現実環境内の現実対象物上にデジタル情報を投影する方法であって、
    可視光プロジェクタを用いて現実対象物の少なくとも一部の上にデジタル情報を投影する工程と、
    カメラを使用して前記現実対象物及び前記投影されたデジタル情報の少なくとも1つの画像を取り込む工程と、
    前記カメラとともに登録された深度センサによって、前記現実対象物の少なくとも一部の深度データを取り込む工程と、
    前記少なくとも1つの画像内の前記投影されたデジタル情報、および前記投影されたデジタル情報に対応する前記現実対象物の少なくとも一部の前記深度データに基づいて、前記可視光プロジェクタと前記現実対象物との間の空間変換を計算する工程と、
    を具備することを特徴とする現実環境内の現実対象物上にデジタル情報を投影する方法。
  2. さらに、前記深度データを使用して前記デジタル情報の深度を推定する工程を具備する請求項1に記載の方法。
  3. 前記深度データおよび少なくとも1つの画像を使用して前記デジタル情報の3次元位置を推定する工程を具備する請求項1または2に記載の方法。
  4. 前記深度センサおよび前記カメラは、前記深度センサおよび前記カメラが相互に関係されるように、サブシステム内に構成されており、
    前記方法は、前記サブシステムと前記現実対象物との間の空間変換を計算する工程をさらに含む、請求項1に記載の方法。
  5. 前記サブシステムと前記現実対象物との間の空間変換を計算する工程が、前記現実対象物の少なくとも一部の3次元幾何学モデルと、前記カメラによって取り込まれた1つまたはそれ以上の画像からの前記現実対象物の少なくとも一部の3次元記述、または前記深度センサによって取り込まれた前記現実対象物の深度データのいずれかとに基づいている請求項4に記載の方法。
  6. さらに、前記現実対象物の少なくとも一部の3次元幾何学モデル、および前記サブシステムと前記現実対象物との間の計算された空間変換を使用して、前記デジタル情報の深度を推定することによって第2の深度データを取得する工程を具備する請求項4に記載の方法。
  7. さらに、前記可視光プロジェクタを使用して前記デジタル情報として少なくとも1つの視覚パターンを前記現実対象物の表面上に投影する工程と、
    前記深度センサおよび前記カメラを使用して前記投影された視覚パターンの深度データを取り込む工程と、を含む請求項1に記載の方法。
  8. さらに、前記可視光プロジェクタと前記サブシステムとの間の空間変換を計算する工程と、
    前記可視光プロジェクタの内部パラメータを計算または供給する工程と、
    前記可視光プロジェクタと前記サブシステムとの間の前記空間変換、および前記サブシステムと前記現実対象物との間の前記空間変換に基づいて、前記可視光プロジェクタと前記現実対象物との間の前記空間変換を計算する工程とを具備する請求項4に記載の方法。
  9. さらに、前記サブシステムと前記現実対象物との間の前記空間変換に基づいて、前記サブシステムの座標系から、前記現実対象物の対象物座標系に前記投影された視覚パターンの前記深度データを変換する工程と、
    前記可視光プロジェクタの内部パラメータを計算または供給する工程と、
    前記変換された深度データに基づいて、前記可視光プロジェクタと前記現実対象物との間の前記空間変換を計算する工程とを具備する請求項4に記載の方法。
  10. 前記サブシステムはRGB−Dカメラシステムであり、前記カメラはRGBカメラである、請求項4に記載の方法。
  11. 前記深度センサは、前記可視光プロジェクタに頼ることなく、前記現実対象物または前記現実対象物の一部の深度データを取り込む請求項1に記載の方法。
  12. 前記サブシステムと前記可視光プロジェクタとの間の空間変換、ならびに前記可視光プロジェクタの内部パラメータを使用して、第3の深度データが創出され、
    前記カメラの少なくとも1つの画像から抽出されたデジタル情報の項目を前記現実対象物上に投影する請求項6に記載の方法。
  13. 前記深度センサは、第1の深度データである前記深度データを取り込み、前記方法はさらに前記第1の深度データ、前記第2の深度データおよび前記第3の深度データの任意の組み合わせ間の差を計算する工程を具備する請求項12に記載の方法。
  14. 前記現実対象物までの前記可視光プロジェクタの所定距離が、前記現実対象物まで到達されるまたは超過されることが判定された場合、較正を行う必要についてユーザに通知し、または自動的に較正手続きを開始する請求項1に記載の方法。
  15. 前記現実対象物までの前記可視光プロジェクタの所定距離が、前記可視光プロジェクタを使用して前記現実対象物の上に視覚情報として表示される請求項1に記載の方法。
  16. さらに、前記深度センサおよび前記カメラを有する前記サブシステムを使用して、前記現実対象物を追跡する工程を具備する請求項4に記載の方法。
  17. 前記追跡ための1つまたはそれ以上の視覚マーカが前記現実環境に加えられる請求項16に記載の方法。
  18. 前記深度センサの姿勢を初期化するために反復最近接点アルゴリズムが使用される請求項1に記載の方法。
  19. 前記可視光プロジェクタの姿勢データは、前記可視光プロジェクタの特定のパラメータをセットするのに使用される請求項1に記載の方法。
  20. 前記可視光プロジェクタの前記特定のパラメータは、フォーカス、ズーム、輝度の1つ又はそれ以上を含む、請求項19に記載の方法。
  21. 前記可視光プロジェクタが前記現実対象物に接近した場合、前記可視光プロジェクタの輝度が小さくなる請求項1に記載の方法。
  22. さらに、ユーザによる接触を認識するために前記深度センサおよび前記カメラを有する前記サブシステムを使用して、前記現実対象物の最表面上の前記ユーザによって相互作用する工程を具備する請求項4に記載の方法。
  23. 現実環境において現実対象物上にデジタル情報を投影するためのシステムであって、
    現実環境において現実対象物の少なくとも一部の上にデジタル情報を投影するために適合された可視光プロジェクタと、
    前記投影されたデジタル情報を伴う前記現実対象物の少なくとも1つの画像を取り込むために適応されたカメラと、
    前記カメラと共に登録され、前記現実対象物の少なくとも一部の深度データを取り込むために適合された深度センサと、
    前記少なくとも1つの画像内の前記投影されたデジタル情報、および前記投影されたデジタル情報に対応する前記現実対象物の少なくとも一部の前記深度データに基づいて、前記可視光プロジェクタと前記現実対象物との間の空間変換を計算するように構成された処理ユニットと、
    を具備することを特徴とするシステム。
  24. 前記カメラおよび前記深度センサは共通の筐体の中に収納されている請求項23に記載のシステム。
  25. 前記カメラおよび前記深度センサはRGB-Dカメラシステムの機能的ユニットである請求項23または24に記載のシステム。
  26. 前記可視光プロジェクタ、前記カメラおよび前記深度センサは、ハンドヘルドまたはヘッドマウントデバイスの一部である請求項23に記載のシステム。
  27. 前記カメラは、可視光カメラを含み、
    前記深度センサは、赤外線プロジェクタおよび赤外線カメラを含む請求項23に記載のシステム。
  28. 可視光カメラはRGBカメラである請求項27に記載のシステム。
  29. 前記可視光プロジェクタ、前記カメラおよび前記深度センサは、共通の筐体の中に収納され、前記可視光プロジェクタは、隔離または熱緩衝をする材料によって前記カメラおよび前記深度センサから分離されている、請求項23に記載のシステム。
  30. 前記可視光プロジェクタ、前記カメラおよび前記深度センサは、共通の筐体の中に収納され、前記筐体の基板がカーボン・ファイバー・ラミネートでできている、請求項23に記載のシステム。
  31. さらに、最新の較正に係る温度と現在の温度との間の温度差がしきい値を超えた場合、前記システムの新たな較正のための必要性についてユーザに通知する較正手段、または自動的にシステムの自己較正を実行する較正手段を含んでいる請求項23に記載のシステム。
  32. 前記可視光プロジェクタは、通気孔、ズーム光学系、可変フォーカスレンズの少なくとも1つを含んでいる請求項23に記載のシステム。
  33. さらに赤外線プロジェクタを含み、前記赤外線プロジェクタは、通気孔、ズーム光学系、可変フォーカスレンズの少なくとも1つを含まない請求項23に記載のシステム。
  34. 前記赤外線プロジェクタは、前記深度センサの一部として使用される請求項33に記載のシステム。
  35. 現実環境において現実対象物上にデジタル情報を投影する装置であって、
    可視光プロジェクタで、現実対象物の少なくとも一部の上にデジタル情報を投影する手段と、
    カメラを使用して、前記投影されたデジタル情報を伴う前記現実対象物の少なくとも1つの画像を取り込む手段と、
    前記カメラと共に登録され、前記現実対象物または前記現実対象物の少なくとも一部の深度データを取り込む深度センサを提供する手段と、
    前記少なくとも1つの画像内の前記投影されたデジタル情報、および前記投影されたデジタル情報に対応する前記現実対象物の少なくとも一部の前記深度データに基づいて、前記可視光プロジェクタと前記現実対象物との間の空間変換を計算する手段と、を具備する装置。
  36. さらに、前記深度データを使用して前記デジタル情報の深度を推定する手段を具備する請求項35に記載の装置。
  37. さらに、前記深度データおよび少なくとも1つの画像を使用して前記デジタル情報の3次元位置を推定する手段を具備する請求項35または36に記載の装置。
  38. 前記深度センサおよび前記カメラは、前記深度センサおよび前記カメラが相互に関係されるように、サブシステム内に構成されており、
    前記サブシステムと前記現実対象物との間の空間変換を計算する手段をさらに含む、請求項35に記載の装置。
  39. 深度センサおよびカメラを有する前記サブシステムと前記現実対象物との間の空間変換を計算することは、前記現実対象物の少なくとも一部の3次元幾何学モデルと、前記カメラによって取り込まれた1つまたはそれ以上の画像からの前記現実対象物の少なくとも一部の3次元記述、または前記深度センサによって取り込まれた前記現実対象物の深度データのいずれかとに基づいている請求項38に記載の装置。
  40. さらに、第2の深度データを取得するために、前記現実対象物の少なくとも一部の3次元幾何学モデル、および深度センサおよびカメラを有する前記サブシステムと前記現実対象物との間の計算された空間変換を使用して、前記デジタル情報の深度を推定する手段を具備する請求項38に記載の装置。
  41. さらに、前記可視光プロジェクタを使用して前記デジタル情報として少なくとも1つの視覚パターンを前記現実対象物の表面上に投影する手段と、
    前記深度センサおよび前記カメラを使用して前記投影された視覚パターンの深度データを取り込む手段と、を具備する請求項35に記載の装置。
  42. さらに、前記可視光プロジェクタと前記サブシステムとの間の空間変換を計算する手段と、
    前記可視光プロジェクタの内部パラメータを計算または供給する手段と、
    前記可視光プロジェクタと前記サブシステムとの間の前記空間変換、および前記サブシステムと前記現実対象物との間の前記空間変換に基づいて、前記可視光プロジェクタと前記現実対象物との間の前記空間変換を計算する手段と、を具備する請求項38に記載の装置。
  43. さらに、前記サブシステムと前記現実対象物との間の前記空間変換に基づいて、前記サブシステムの座標系から、前記現実対象物の対象物座標系に前記投影された視覚パターンの前記深度データを変換する手段と、
    前記可視光プロジェクタの内部パラメータを計算または供給する手段と、
    前記変換された深度データに基づいて、前記可視光プロジェクタと前記現実対象物との間の前記空間変換を計算する手段と、を具備する請求項38に記載の装置。
  44. 前記サブシステムはRGB−Dカメラシステムであり、前記カメラはRGBカメラである、請求項38に記載の装置。
  45. 前記深度センサは、前記可視光プロジェクタに頼ることなく、前記現実対象物または前記現実対象物の一部の深度データを取り込む請求項35に記載の装置。
  46. 前記サブシステムと前記可視光プロジェクタとの間の空間変換、および前記可視光プロジェクタの内部パラメータを使用して、第3の深度データが創出され、
    前記カメラの少なくとも1つの画像から抽出されたデジタル情報の項目を前記現実対象物上に投影する請求項40に記載の装置。
  47. 前記深度センサは、第1の深度データである前記深度データを取り込み、
    前記装置は、さらに、前記第1の深度データ、前記第2の深度データおよび前記第3の深度データの任意の組み合わせ間の差を計算する手段を具備する請求項46に記載の装置。
  48. 前記現実対象物までの前記可視光プロジェクタの所定距離が、前記現実対象物まで到達されるまたは超過されることが判定された場合、較正を行う必要についてユーザに通知し、または自動的に較正手続きを開始する請求項35に記載の装置。
  49. 前記現実対象物までの前記可視光プロジェクタの所定距離が、前記可視光プロジェクタを使用して前記現実対象物の上に視覚情報として表示される請求項35に記載の装置。
  50. さらに、前記深度センサおよび前記カメラを有する前記サブシステムを使用して、前記現実対象物を追跡する手段を具備する請求項38に記載の装置。
  51. 前記追跡ための1つまたはそれ以上の視覚マーカが前記現実環境に加えられる請求項50に記載の装置。
  52. 前記深度センサの姿勢を初期化するために反復最近接点アルゴリズムが使用される請求項35に記載の装置。
  53. 前記可視光プロジェクタの姿勢データは、前記可視光プロジェクタの特定のパラメータをセットするのに使用される請求項35に記載の装置。
  54. 前記可視光プロジェクタの前記特定のパラメータは、フォーカス、ズーム、輝度の1つ又はそれ以上を含む、請求項53に記載の装置。
  55. 前記可視光プロジェクタが前記現実対象物に接近した場合、可視光プロジェクタの輝度が小さくなる請求項35に記載の装置。
  56. さらに、ユーザによる接触を認識するために、前記深度センサおよび前記カメラを有する前記サブシステムを使用して、前記現実対象物の最表面上の前記ユーザによって相互作用する手段を具備する請求項38に記載の装置。
JP2015549997A 2012-12-28 2012-12-28 現実環境における現実対象物上のデジタル情報を投影するための方法およびシステム Active JP6290922B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/EP2012/077060 WO2014101955A1 (en) 2012-12-28 2012-12-28 Method of and system for projecting digital information on a real object in a real environment

Publications (2)

Publication Number Publication Date
JP2016509394A JP2016509394A (ja) 2016-03-24
JP6290922B2 true JP6290922B2 (ja) 2018-03-07

Family

ID=47598775

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015549997A Active JP6290922B2 (ja) 2012-12-28 2012-12-28 現実環境における現実対象物上のデジタル情報を投影するための方法およびシステム

Country Status (5)

Country Link
US (2) US10819962B2 (ja)
EP (1) EP2939423A1 (ja)
JP (1) JP6290922B2 (ja)
CN (1) CN105027562B (ja)
WO (1) WO2014101955A1 (ja)

Families Citing this family (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015016798A2 (en) * 2013-07-31 2015-02-05 Imcom Yazilim Elektronik Sanayi Ltd. Sti. A system for an augmented reality application
WO2015086036A1 (de) * 2013-12-12 2015-06-18 Testo Ag Verfahren zur ortsrichtigen projektion einer markierung auf ein objekt und projektionsvorrichtung
JP6332281B2 (ja) * 2013-12-17 2018-05-30 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
DE102014103010A1 (de) * 2014-03-06 2015-09-10 Skidata Ag Digitalkamera
FR3021784B1 (fr) * 2014-05-27 2017-10-13 European Aeronautic Defence & Space Co Eads France Procede de projection de donnees virtuelles et dispositif permettant cette projection
CN105472358A (zh) * 2014-10-05 2016-04-06 万明 一种关于视频图像处理的智能终端
CN111080690A (zh) * 2014-10-28 2020-04-28 深圳市大疆创新科技有限公司 使用超声波深度感测的rgb-d成像***和方法
CN107111598B (zh) * 2014-12-19 2020-09-15 深圳市大疆创新科技有限公司 使用超声深度感测的光流成像***以及方法
JP6636252B2 (ja) * 2015-03-19 2020-01-29 株式会社メガチップス 投影システム、プロジェクター装置、撮像装置、および、プログラム
US20160316113A1 (en) * 2015-04-27 2016-10-27 Microsoft Technology Licensing, Llc Integrated processing and projection device with object detection
US10306193B2 (en) 2015-04-27 2019-05-28 Microsoft Technology Licensing, Llc Trigger zones for objects in projected surface model
JP6480824B2 (ja) * 2015-07-27 2019-03-13 株式会社日立製作所 距離画像センサのパラメータ調整方法、パラメータ調整装置、およびエレベータシステム
CN105115560B (zh) * 2015-09-16 2019-07-05 北京理工大学 一种船舱舱容的非接触测量方法
US10404962B2 (en) * 2015-09-24 2019-09-03 Intel Corporation Drift correction for camera tracking
US9665936B2 (en) * 2015-09-25 2017-05-30 Siemens Healthcare Gmbh Systems and methods for see-through views of patients
US9633435B2 (en) * 2015-09-25 2017-04-25 Siemens Healthcare Gmbh Calibrating RGB-D sensors to medical image scanners
US9918204B1 (en) * 2015-12-08 2018-03-13 Bentley Systems, Incorporated High accuracy indoor tracking
US20170169612A1 (en) 2015-12-15 2017-06-15 N.S. International, LTD Augmented reality alignment system and method
US20170180652A1 (en) * 2015-12-21 2017-06-22 Jim S. Baca Enhanced imaging
EP3236286B1 (en) * 2016-04-18 2023-01-25 Otis Elevator Company Auto commissioning system and method
JP2017215374A (ja) * 2016-05-30 2017-12-07 パナソニックIpマネジメント株式会社 画像投影システムおよび画像投影方法
US10019837B2 (en) 2016-05-31 2018-07-10 Microsoft Technology Licensing, Llc Visualization alignment for three-dimensional scanning
US10591277B2 (en) * 2016-07-28 2020-03-17 Liberty Reach Inc. Method and system for measuring outermost dimension of a vehicle positioned at an inspection station
US10574909B2 (en) 2016-08-08 2020-02-25 Microsoft Technology Licensing, Llc Hybrid imaging sensor for structured light object capture
GB2553148A (en) * 2016-08-26 2018-02-28 Nctech Ltd Modelling system and method
EP4131172A1 (en) * 2016-09-12 2023-02-08 Dassault Systèmes Deep convolutional neural network for 3d reconstruction of a real object
US10410331B2 (en) * 2016-09-29 2019-09-10 National Technology & Engineering Solutions Of Sandia, Llc Computed tomography object inspection system
US20180114363A1 (en) * 2016-10-25 2018-04-26 Microsoft Technology Licensing, Llc Augmented scanning of 3d models
WO2018095789A1 (en) * 2016-11-22 2018-05-31 Lego A/S System for acquiring a 3d digital representation of a physical object
DE102017202651A1 (de) * 2017-02-20 2018-08-23 Siemens Aktiengesellschaft Vorrichtung und Verfahren zur Kalibrierung mittels projizierter Muster mit virtueller Ebene
DE102017202652A1 (de) * 2017-02-20 2018-08-23 Siemens Aktiengesellschaft Vorrichtung und Verfahren zur Kalibrierung mittels projizierter Muster
WO2018183935A1 (en) 2017-03-31 2018-10-04 Canvas Construction, Inc. Automated drywall painting system and method
US20210117680A1 (en) * 2017-05-10 2021-04-22 Humane, Inc. Wearable multimedia device and cloud computing platform with laser projection system
WO2019060920A1 (en) 2017-09-25 2019-03-28 Canvas Construction, Inc. AUTOMATED WALL FINISHING SYSTEM AND METHOD
CN107730561B (zh) 2017-10-17 2021-07-06 奥比中光科技集团股份有限公司 深度相机温度误差校正方法及***
CN108460803B (zh) * 2018-01-19 2020-12-08 杭州映墨科技有限公司 一种基于棋盘格图案的ar沙盘校准模型计算方法
JP6734583B2 (ja) * 2018-02-23 2020-08-05 株式会社市川工務店 橋梁などの構造物を検査するための画像処理システム、画像処理方法及びプログラム
CN108259869B (zh) * 2018-02-26 2020-08-04 神画科技(深圳)有限公司 一种投影机及其梯形校正的温度补偿方法
JP6856583B2 (ja) 2018-07-25 2021-04-07 ファナック株式会社 センシングシステム、作業システム、拡張現実画像の表示方法、拡張現実画像の記憶方法、およびプログラム
WO2020024575A1 (zh) * 2018-08-01 2020-02-06 Oppo广东移动通信有限公司 图像处理方法和装置、电子设备、计算机可读存储介质
WO2020024576A1 (zh) * 2018-08-01 2020-02-06 Oppo广东移动通信有限公司 摄像头校准方法和装置、电子设备、计算机可读存储介质
JP6930739B2 (ja) * 2018-08-03 2021-09-01 株式会社プレースホルダ キャリブレーションシステム
JP6856590B2 (ja) 2018-08-31 2021-04-07 ファナック株式会社 センシングシステム、作業システム、拡張現実画像の表示方法、およびプログラム
CN111083453B (zh) * 2018-10-18 2023-01-31 中兴通讯股份有限公司 一种投影装置、方法及计算机可读存储介质
US11724404B2 (en) 2019-02-21 2023-08-15 Canvas Construction, Inc. Surface finish quality evaluation system and method
EP3709638B1 (en) * 2019-03-13 2023-08-30 L'oreal System and method for projecting digital content onto user's facial surface
CN112150372B (zh) * 2019-06-28 2024-02-02 深圳创想未来机器人有限公司 一种深度图矫正方法、深度图矫正装置和机器人
CN110990107A (zh) * 2019-12-16 2020-04-10 成都极米科技股份有限公司 阅读辅助方法、装置及电子设备
CN111427331B (zh) * 2020-03-24 2022-03-04 新石器慧通(北京)科技有限公司 无人驾驶车辆的感知信息展示方法、装置和电子设备
JP2021179733A (ja) * 2020-05-12 2021-11-18 Necプラットフォームズ株式会社 装着装置、処理方法、プログラム
JP2021051318A (ja) * 2020-12-03 2021-04-01 パナソニックIpマネジメント株式会社 画像投影システムおよび画像投影方法
US11827203B2 (en) * 2021-01-14 2023-11-28 Ford Global Technologies, Llc Multi-degree-of-freedom pose for vehicle navigation
WO2022190240A1 (ja) * 2021-03-10 2022-09-15 川崎重工業株式会社 作業情報投影システム及び相対情報較正方法

Family Cites Families (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5313234A (en) 1991-07-26 1994-05-17 Sayett Group, Inc. Liquid crystal projector
WO2001054110A1 (en) * 2000-01-18 2001-07-26 The Trustees Of The University Of Pennsylvania Vision-based human computer interface system
JP2001320652A (ja) 2000-05-11 2001-11-16 Nec Corp プロジェクタ装置
JP4042474B2 (ja) * 2001-08-08 2008-02-06 セイコーエプソン株式会社 光学装置、およびプロジェクタ
JP2003270719A (ja) * 2002-03-13 2003-09-25 Osaka Industrial Promotion Organization 投影方法、投影装置、作業支援方法及び作業支援システム
JP4026745B2 (ja) * 2002-03-26 2007-12-26 財団法人大阪産業振興機構 医療用システムおよびその製造方法
AU2003277240A1 (en) * 2002-10-15 2004-06-07 University Of Southern California Augmented virtual environments
JP4016876B2 (ja) 2003-04-23 2007-12-05 セイコーエプソン株式会社 プロジェクタ
JP3951984B2 (ja) * 2003-08-22 2007-08-01 日本電気株式会社 画像投影方法、及び画像投影装置
JP4283632B2 (ja) * 2003-10-16 2009-06-24 日本電信電話株式会社 情報提示装置、情報提示システム、情報提示方法および情報提示プログラム
JP2006031506A (ja) * 2004-07-20 2006-02-02 Brother Ind Ltd 画像入出力装置
US7244029B2 (en) 2004-10-08 2007-07-17 Virtek Vision International Inc. Laser projector having temperature control
WO2007025363A1 (en) * 2005-09-02 2007-03-08 Neptec Apparatus and method for tracking an object
JP4917615B2 (ja) 2006-02-27 2012-04-18 プライム センス リミティド スペックルの無相関を使用した距離マッピング(rangemapping)
EP2071399B1 (en) 2006-10-04 2013-09-11 Nikon Corporation Electronic device, electronic camera, light source device, illuminating device and projector device
DE102008007338B4 (de) 2007-02-06 2011-08-25 Mitsubishi Electric Corp. Keramikpulver für einen Rohling, mehrschichtiges Keramiksubstrat und Verfahren zur Herstellung eines mehrschichtigen Keramiksubstrats
JP2008203490A (ja) 2007-02-20 2008-09-04 Seiko Epson Corp プロジェクタ
US8150142B2 (en) 2007-04-02 2012-04-03 Prime Sense Ltd. Depth mapping using projected patterns
WO2008144370A1 (en) 2007-05-16 2008-11-27 Honda Motor Co., Ltd. Camera-projector duality: multi-projector 3d reconstruction
BRPI0917864A2 (pt) * 2008-08-15 2015-11-24 Univ Brown aparelho e método para estimativa da forma corporal
JP5287066B2 (ja) * 2008-09-12 2013-09-11 セイコーエプソン株式会社 プロジェクタおよびその制御方法
JP2010078974A (ja) 2008-09-26 2010-04-08 Panasonic Corp 投射型表示装置
JP2010243890A (ja) * 2009-04-08 2010-10-28 Seiko Epson Corp プロジェクター、プログラムおよび情報記憶媒体
US8442016B1 (en) * 2009-05-05 2013-05-14 Marvell International Ltd. Co-existance of bluetooth and wireless local area network
JP5567908B2 (ja) * 2009-06-24 2014-08-06 キヤノン株式会社 3次元計測装置、その計測方法及びプログラム
US8355601B2 (en) * 2010-01-15 2013-01-15 Seiko Epson Corporation Real-time geometry aware projection and fast re-calibration
US8405680B1 (en) * 2010-04-19 2013-03-26 YDreams S.A., A Public Limited Liability Company Various methods and apparatuses for achieving augmented reality
KR101657120B1 (ko) * 2010-05-06 2016-09-13 엘지전자 주식회사 이동 단말기 및 이것의 영상 디스플레이 방법
JP2012103113A (ja) * 2010-11-10 2012-05-31 Honda Motor Co Ltd 測定装置、位置測定システム、測定方法、較正方法及びプログラム
JP5609561B2 (ja) 2010-11-10 2014-10-22 ソニー株式会社 投影装置
CN102109745A (zh) 2011-01-21 2011-06-29 鸿富锦精密工业(深圳)有限公司 具有亮度调整功能的投影装置及方法
US9329469B2 (en) 2011-02-17 2016-05-03 Microsoft Technology Licensing, Llc Providing an interactive experience using a 3D depth camera and a 3D projector
US8760499B2 (en) * 2011-04-29 2014-06-24 Austin Russell Three-dimensional imager and projection device
US8570372B2 (en) * 2011-04-29 2013-10-29 Austin Russell Three-dimensional imager and projection device
EP2720114A4 (en) * 2011-06-13 2015-02-25 Citizen Holdings Co Ltd INFORMATION INPUT DEVICE
US9117274B2 (en) * 2011-08-01 2015-08-25 Fuji Xerox Co., Ltd. System and method for interactive markerless paper documents in 3D space with mobile cameras and projectors
US9520072B2 (en) * 2011-09-21 2016-12-13 University Of South Florida Systems and methods for projecting images onto an object
US20130229396A1 (en) * 2012-03-05 2013-09-05 Kenneth J. Huebner Surface aware, object aware, and image aware handheld projector
US9275302B1 (en) * 2012-08-24 2016-03-01 Amazon Technologies, Inc. Object detection and identification
US8855404B2 (en) * 2012-08-27 2014-10-07 The Boeing Company Methods and systems for inspecting a workpiece
US8979271B2 (en) * 2012-09-25 2015-03-17 Google Inc. Facilitation of temperature compensation for contact lens sensors and temperature sensing
US9239627B2 (en) * 2012-11-07 2016-01-19 Panasonic Intellectual Property Corporation Of America SmartLight interaction system
US20140168261A1 (en) * 2012-12-13 2014-06-19 Jeffrey N. Margolis Direct interaction system mixed reality environments

Also Published As

Publication number Publication date
US20150350618A1 (en) 2015-12-03
CN105027562A (zh) 2015-11-04
JP2016509394A (ja) 2016-03-24
CN105027562B (zh) 2019-02-22
US10819962B2 (en) 2020-10-27
US11652965B2 (en) 2023-05-16
WO2014101955A1 (en) 2014-07-03
US20210076014A1 (en) 2021-03-11
EP2939423A1 (en) 2015-11-04

Similar Documents

Publication Publication Date Title
JP6290922B2 (ja) 現実環境における現実対象物上のデジタル情報を投影するための方法およびシステム
KR102255031B1 (ko) 부정합 검출 시스템, 복합 현실 시스템, 프로그램 및 부정합 검출 방법
JP7294396B2 (ja) 画像処理装置、画像処理方法、及びプログラム
KR101954855B1 (ko) 볼륨 내 물체의 심도 맵핑을 위한 광 패턴의 강도 변화의 사용
CN104937635B (zh) 基于模型的多假设目标追踪器
JP5773944B2 (ja) 情報処理装置および情報処理方法
CN106663334B (zh) 通过计算装置执行的方法、移动通信装置和存储介质
Canessa et al. Calibrated depth and color cameras for accurate 3D interaction in a stereoscopic augmented reality environment
JP5587137B2 (ja) 測定装置及び測定方法
JP6723061B2 (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
JP6386768B2 (ja) 人間工学的な人体模型の姿勢を作成し、かつナチュラルユーザインターフェースを用いてコンピュータ支援設計環境を制御すること
JP2018106661A (ja) 不整合検出システム、複合現実システム、プログラム及び不整合検出方法
CN107330974B (zh) 商品展示方法、装置及移动设备
CN112912936A (zh) 混合现实***、程序、移动终端装置和方法
Iwai et al. Shadow removal of projected imagery by occluder shape measurement in a multiple overlapping projection system
TWI454653B (zh) 三維絕對座標偵測系統、互動三維顯示系統以及辨識物體之三維座標的方法
JP2018132319A (ja) 情報処理装置、及び、情報処理装置の制御方法、コンピュータプログラム、記憶媒体
JP7029253B2 (ja) 情報処理装置及びその方法
Hutson et al. JanusVF: Accurate navigation using SCAAT and virtual fiducials
JP2016139396A (ja) ユーザーインターフェイス装置、方法およびプログラム
JP6948363B2 (ja) 情報処理装置、情報処理方法、およびプログラム
KR101904733B1 (ko) 3d 카메라를 이용한 입력 위치 검출 장치
Smith et al. Michael Marner, Bruce H. Thomas
JP2016024728A (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
Bergamasco et al. A practical setup for projection-based augmented maps

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20160422

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160614

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20160624

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20160616

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160725

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20161025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170417

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170718

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180208

R150 Certificate of patent or registration of utility model

Ref document number: 6290922

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250