JP2006146584A - 画像提示方法及び情報処理装置 - Google Patents

画像提示方法及び情報処理装置 Download PDF

Info

Publication number
JP2006146584A
JP2006146584A JP2004336220A JP2004336220A JP2006146584A JP 2006146584 A JP2006146584 A JP 2006146584A JP 2004336220 A JP2004336220 A JP 2004336220A JP 2004336220 A JP2004336220 A JP 2004336220A JP 2006146584 A JP2006146584 A JP 2006146584A
Authority
JP
Japan
Prior art keywords
virtual object
orientation
operation device
condition
instruction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004336220A
Other languages
English (en)
Other versions
JP2006146584A5 (ja
JP4630647B2 (ja
Inventor
Hideo Noro
英生 野呂
Takeshi Kuroki
剛 黒木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2004336220A priority Critical patent/JP4630647B2/ja
Publication of JP2006146584A publication Critical patent/JP2006146584A/ja
Publication of JP2006146584A5 publication Critical patent/JP2006146584A5/ja
Application granted granted Critical
Publication of JP4630647B2 publication Critical patent/JP4630647B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】操作デバイスと仮想物体とを関連付けた際に、両者の位置姿勢の関係が適切になるように仮想物体を配置可能とし、より自然な仮想物体の操作を実現する。
【解決手段】検出された観察者の位置、姿勢に基づいて、該観察者が観察する現実空間に仮想物体を描画するにおいて、現実空間に実在する操作用デバイスの位置、姿勢を検出する。CG配置特徴抽出部410は、仮想物体と操作用デバイスの位置、姿勢を算出し、配置条件算出部412は配置ルール408で設定されている各条件の成立、不成立を算出する。配置条件算出部412の算出結果に基づいて配置判断部409が仮想物体と操作用デバイスとを関連付けるか否かを判定し、関連付けると判定した場合には、仮想物体と操作用デバイスとの間の位置姿勢の関係が配置ルール408に規定された関係となるように、仮想物体の位置姿勢を決定する。座標変換部413はこの決定に従って仮想物体の座標を変換し、CGレンダリング部407が座標変換後の仮想物体を描画する。
【選択図】 図3

Description

本発明は複合現実感システムにおける仮想物体の提示制御に関する。
複合現実感システムとは、現実空間映像と、ユーザの視点位置及び視線方向等に応じて生成される仮想空間映像とを合成することにより得られる合成映像をユーザに提供するものである。複合現実感システムでは、現実空間中に仮想物体が実在しているかのような感覚を観察者に提示することが可能であり、従来の仮想現実感システム(VRシステム)に比べてよりリアルに、実寸感覚を伴った観察が可能である。
複合現実空間内のCG(コンピュータグラフィックス)物体を操作する方法として、現実空間内での位置及び姿勢の6自由度を計測あるいは推定するシステム(ここでは6自由度センサと呼ぶ)を用いて、計測或いは推定された6自由度をCG物体座標系に対応付ける方法がある。このような、計測を実現する6自由度センサとしては、例えばPolhemus社のFastrakシステムを用いることができる。Fastrakシステムは、数センチ角ほどの大きさのレシーバの位置及び姿勢の6自由度を計測できる。この計測値をCG物体の物体座標系に対応付けることにより、当該レシーバの移動や回転につれてCG物体が移動、回転することになる。
このレシーバを操作デバイスに取り付けることにより、操作デバイスによってCG物体を移動する等の操作が可能になる。例えば、指示棒のような操作デバイスにCG物体を関連付けることにより、CG物体を移動させることができる。
特開2004−62758号公報
しかしながら、従来はCG物体と操作デバイスを関連付ける際には、CG物体の姿勢は関連付けが行なわれた時点の状態が維持される。このため、例えば、CG物体をトレイ状の操作デバイスに載せて移動させようとした場合、当該トレイの上でも関連付けした時点のCG物体の姿勢が保たれることになる。従って、例えば、ペンたてに入れてあったペンをトレイに載せても、トレイの上でペンが起立したままとなってしまう。このため、CG物体を現実の物体のように操作、観察することが困難であった。
本発明は上記の課題に鑑みてなされたものであり、操作デバイスと仮想物体とを関連付けた際に、両者の位置姿勢の関係が適切になるように仮想物体を配置可能とし、より自然な仮想物体の操作を実現することを目的とする。
上記の目的を達成するための本発明による画像提示方法は、
検出された観察者の位置、姿勢に基づいて、該観察者が観察する現実空間に仮想物体を描画する画像提示方法であって、
現実空間に実在する操作用デバイスの位置、姿勢を検出する検出工程と、
仮想物体と前記操作用デバイスの位置、姿勢に基づいて、該仮想物体と該操作用デバイスとを関連付けるか否かを判定する判定工程と、
前記判定工程で関連付けると判定された場合に、前記仮想物体と前記操作用デバイスとの間の位置姿勢の関係が予め設定された関係となるように、前記検出工程で検出された位置姿勢に対して該仮想物体の位置姿勢を決定する決定工程と、
前記決定工程で決定された位置姿勢でもって前記仮想物体を描画する描画工程とを備える。
また、上記の目的を達成するための本発明による情報処理装置は以下の構成を備える。即ち、
検出された観察者の位置、姿勢に基づいて、該観察者が観察する現実空間に仮想物体を描画する情報処理装置であって、
現実空間に実在する操作用デバイスの位置、姿勢を検出する検出手段と、
仮想物体と前記操作用デバイスの位置、姿勢に基づいて、該仮想物体と該操作用デバイスとを関連付けるか否かを判定する判定手段と、
前記判定手段で関連付けると判定された場合に、前記仮想物体と前記操作用デバイスとの間の位置姿勢の関係が予め設定された関係となるように、前記検出手段で検出された位置姿勢に対して該仮想物体の位置姿勢を決定する決定手段と、
前記決定手段で決定された位置姿勢でもって前記仮想物体を描画する描画手段とを備える。
本発明によれば、操作デバイスと仮想物体とを関連付けた際に、両者の位置姿勢の関係が適切になるように仮想物体が配置されるので、より自然な仮想物体の操作を実現することを目的とする。
以下の実施形態では、下敷き状の操作デバイスに6自由度センサを取り付けることにより、CG物体をあたかも下敷きの上に載せているかのように操作、観察することを可能にする例を説明する。またねじ回し状の操作デバイスに6自由度センサを取り付けることにより、CGのねじを操作することを可能とする例を説明する。
なお、操作デバイスそのものが下敷き状であったり、ねじ回し状である必要は、必ずしもない。例えば単なるレシーバをそのまま操作デバイスとして用い、下敷き状のものはCGで表示すれば、操作者は下敷き状の操作デバイスとして使用できる。またねじ回しのグリップの部分だけの操作デバイスに軸の部分をCGで表示させれば、操作者にとってはねじ回し状の操作デバイスとして使用できる(図5(a)により後述する)。以下、操作者が操作していると考えているもの−下敷き状の操作デバイスやねじ回し状の操作デバイス−を操作アイテムと呼ぶ。すなわち、操作アイテムは実体としての操作デバイスと視覚的に不足している部分を補うCGとからなるように構成してもよい。
また、以下の実施形態では、所望のタイミングでCG物体を操作アイテムに関連付けたり、その関連を解いたりすることを可能とし、さらに現実味を帯びた体験を実現可能にしている。例えば、棚に入れてあるりんごのCGを下敷き状の操作アイテムに関連付けることにより、りんごを下敷きの上に載せているかのように移動させることができ、さらに机の上でりんごのCGと下敷き状の操作アイテムとの関連を解くことにより、机の上にりんごを置く−すなわち、下敷きを用いてりんごを棚から机まで移動する−ことが実現できる。また部品トレイに載っているねじのCGをねじ回し状の操作アイテムに関連付けることにより、ねじをねじ穴まで移動させることができ、さらにそこで関連を解くことにより、部品トレイに載っているねじをねじ穴に入れる(ねじ締め)という動作を実現できる。
以下、添付の図面を参照して本発明の好適な実施形態について詳細に説明する。
図1は本実施形態による仮想現実感提示システムの構成例を示す図である。100は、頭部装着型映像入出力装置(頭部装着型ディスプレイ、HMD:Head Mounted Displayなどと呼ばれるものであり、以下、HMDと記載する)である。観察者はHMD100を頭部に装着することにより、現実空間と仮想空間を合成した映像を観察することができる。磁気トランスミッタ200は磁場を発生させ、磁気レシーバ201、202は磁気トランスミッタ200が発生させた磁場の変化を計測する。位置・姿勢計測装置205は、磁気トランスミッタ200を制御するとともに、磁気レシーバ201、202からの計測結果に基づいて各磁気レシーバの位置・姿勢を計測する。HMD100には、磁気レシーバ201が取り付けられており、観察者の視点位置、視線方向を算出する。
操作デバイス300は観察者が操作可能な操作アイテムを形成するために用いられるものであり、磁気レシーバ202が組み込まれている。磁気レシーバ202の計測結果に基づいて、位置・姿勢計測装置205は、操作デバイス300の位置・姿勢、すなわち操作アイテムの位置・姿勢を算出することができる。ここでは操作デバイス300には下敷き状の部分が設けられており、CGによる補充を行なうことなく操作アイテムが形成されているものとする。HMD100には、映像表示装置101、映像入力装置102が、それぞれ右目、左目用に1セットづつ、計2セット組み込まれている。
情報処理装置400は、位置・姿勢計測装置205により算出された位置・姿勢情報に基づいてCG映像を生成し、これをHMD100の映像入力装置102より入力した映像に重畳して合成映像を生成し、得られた合成映像を映像表示装置101に向けて出力する。
なお、本実施形態において、6自由度センサとは磁気レシーバ201、202を指し、6自由度センサシステムとは、磁気トランスミッタ200、磁気レシーバ201、202、位置・姿勢計測装置205、および情報処理装置400内部で動作し磁気レシーバ201及び202の位置及び姿勢を得るための不図示のソフトウェア一式を指す。また6自由度センサを区別するため、磁気レシーバ201を視点検出用6自由度センサ、磁気レシーバ202を物体操作用6自由度センサと呼ぶことにする。
次に、本実施形態のHMD100の具体的な構成について図2を参照して説明する。図1にも示されている映像表示装置101は、0.5〜数インチ程度の小型の液晶表示デバイス等で構成されるものである。自由曲面プリズム103は、映像表示装置101の映像を拡大するレンズの役目を果たす。これらの構成により、映像表示装置101に表示された映像は、観察者にとってはたとえば2m先の90インチ相当の映像として提示されることになる。
図1にも示されている映像入力装置102は、CCDカメラ、CMOSカメラなどの撮像デバイスで構成されるものである。撮像系プリズム104は現実空間の光を映像入力装置102に収束させるためのレンズの役目を果たす。この撮像系プリズム104を自由曲面プリズム103の外側に、光軸を一致させるように配置することで、映像入力装置102で入力した映像と、映像表示装置101に表示した映像の視差をなくし、現実空間の映像を違和感なく再現することが可能となる。
次に、図1における情報処理装置400の具体的な構成について、図3を参照して説明する。なお、情報処理装置400は一般的なパーソナルコンピュータやワークステーションにより実現可能であり、図3に示される各部の機能は不図示のCPUが所定の制御プログラムを実行することにより実現されるものである。
映像キャプチャ部401R,Lは、映像入力装置102より入力した映像データを処理装置内にデジタル信号として取り込む。位置・姿勢情報入力部404は位置・姿勢計測装置205より送られるHMD100と物体操作デバイス300の位置・姿勢のデータを情報処理装置400内に取り込む。位置・姿勢算出部405は位置・姿勢入力部404からのデータをもとに、HMD100と物体操作デバイス300の位置を算出する。この算出結果は3DCGデータ406に反映される。なお、3DCGデータ406は例えば情報処理装置400が有するハードディスク或いはRAM等に格納される。3DCGデータ406には、物体操作デバイス300によって直接操作される操作アイテムの3DCGデータ、及び当該操作アイテムによって操作を行おうとするCG物体の3DCGデータが含まれる。更に3DCGデータ406は、操作アイテムの世界座標系での位置・姿勢、HMD100の位置・姿勢等のCG描画に必要なデータも含んでいる。CGレンダリング部407は、3DCGデータ406に基づいて、CGデータを描画すべき位置、大きさ、角度(パース)などを計算し、CG物体等の3DCGデータをレンダリングする。
映像合成部402R,Lは、映像キャプチャ部401R,Lからの映像データと、CGレンダリング部407でレンダリングされたCGを合成し、右目用、左目用の合成画像を生成する。映像生成部403R,Lは、映像合成部402R,Lで生成された右目用、左目用の合成画像を映像信号として映像表示装置101へ送る。
配置ルール408は、CG物体の操作アイテムに対する固定・解放を、「どのタイミングで」「どのように」実行するのかを定めた情報である。配置ルール408は例えば情報処理装置400内のハードディスクやRAM等に格納される。配置判断部409は、配置ルール408に従って、CG物体の配置の判断を行う。配置判断部409による判断結果は座標変換部413に渡される。座標変換部413は、配置判断部409の判断結果、即ち配置ルール408に基づいて3DCGデータ406に対して変更を行う。
配置ルールの条件には、様々な条件が記述される。配置条件算出部412はそれらの条件を満足するか否かを計算する。配置条件算出部412は、条件に応じてシステムに1つ以上存在する。配置条件算出部412の結果が配置判断部409に渡される。配置条件算出部412の入力としては、CG物体の特徴を用いる場合とそれ以外の場合とがある。CG物体の特徴を用いる場合は、CG配置特徴抽出部410を用い、それ以外の場合は配置特徴抽出部411を用いる。
CG配置特徴抽出部410は3DCGデータから特定の特徴を抽出する。なお、複雑な特徴の場合は他のCG配置特徴抽出部410の出力も入力として用いることがある。例えば、所定形状の部品を扱う場合に、当該部品のサイズが必要な場合がある。そこで、「当該部品のサイズ」を算出するCG配置特徴抽出部が必要となる。その部品のサイズがプロパティになっていればそれを読み出すだけで済むが、そうではない場合、面情報からサイズを取得する必要があり、その処理の全て或いはいくつかのステップをまとめて、CG配置特徴抽出部とすることになる。CG配置特徴抽出部410は配置ルール408で宣言されている特徴(例えば、CG物体に対して設定された複数の面の各々の位置姿勢)によりシステムに1つ以上存在する。本実施形態では、CG配置特徴抽出部410は、CG物体のバウンディングボックスの各面の位置、姿勢を算出するとともに、操作デバイス300の下敷き状の面の位置、姿勢も算出する。もちろん、操作アイテムの下敷き状の面はCGで補充されていてもよく、その場合は3DCGデータと操作デバイス300の位置姿勢情報から面の位置姿勢が算出されることになる。配置特徴抽出部411は例えば押しボタンが押されたかどうかといった外部デバイスからの入力や、映像キャプチャ部401で取得した映像に対して画像処理を施した結果といったような情報処理装置400の内部状態を入力とするような場合に用いる。配置特徴抽出部411は配置ルール408の条件により、システムに存在しない場合、1つ存在する場合、あるいは複数存在する場合がある。なお、映像キャプチャ部401で取得した映像に対して画像処理を施した結果といったような情報処理装置400の内部状態を入力とするような場合とは、例えば、以下のような場合である。ZIFソケット(Zero Insertion Force Socket;ICソケットの一種で、ROMライター等の抜き差しが多い機器、最近の多ピンCPU/MPU等の抜き差しに力のかかるもの、力に弱く破損してしまうものを扱う場合に使われる)にICを抜き差しするような場合、レバーがリリース状態でなければICの抜き差しはできまない。従って、ICをCG、ZIFソケットを実物体とする場合、ZIFソケットのレバーがリリース状態なのかロック状態なのかを画像処理によって求め、この結果を用いてCGのICの抜き差しの可否を決定する。
上記構成によるシステムの処理の流れを、図4を使って説明する。磁気トランスミッタ200と磁気レシーバ202のデータを使って、位置・姿勢計測装置205は物体操作デバイス300の現実空間中における位置・姿勢を計測する(ステップS2010)。同様に、磁気トランスミッタ200と磁気レシーバ201のデータを使って、位置・姿勢計測装置205は観察者が装着しているHMD100の現実空間中における位置・姿勢を計測する(S2020)。計測により得られたデータは、位置・姿勢情報入力部404を通して情報処理装置400に取り込まれる。そして、位置・姿勢算出部405において各CGオブジェクトがどのような位置および姿勢で描画されるかが計算され、その結果が3DCGデータ406に反映される(S2030)。
これらの処理と並行して、配置ルールに応じた処理を行い、3DCGデータに反映させる。ここでは例として、下敷き状の操作アイテム(操作デバイス300)を用いて、これをCG物体に近づけた状態で当該操作デバイス300に設けられた押しボタン(不図示)を押すことにより、該CG物体が下敷きの面にぴったりと載るようにすることを考える。まず、以下で説明する処理に使用される面を説明する。
・下敷き面1:下敷き状操作アイテムの表の面
・下敷き面2:下敷き状操作アイテムの裏の面
・物体面1〜6:CG物体の物体座標系における6面体のバウンディングボックスを構成する各面。
本実施形態では、配置ルール408が例えば以下のように設定されているとする(∧は論理積を、¬は否定を表す)。
条件1:押しボタンが押された。
条件2:CG物体の物体座標系が世界座標系内に静止している。
条件3:下敷き面1と物体面1の同一度が他の組み合わせの同一度より高い。
条件4:下敷き面1と物体面2の同一度が他の組み合わせの同一度より高い。
条件5:下敷き面1と物体面3の同一度が他の組み合わせの同一度より高い。
条件6:下敷き面1と物体面4の同一度が他の組み合わせの同一度より高い。
条件7:下敷き面1と物体面5の同一度が他の組み合わせの同一度より高い。
条件8:下敷き面1と物体面6の同一度が他の組み合わせの同一度より高い。
条件9:下敷き面2と物体面1の同一度が他の組み合わせの同一度より高い。
条件10:下敷き面2と物体面2の同一度が他の組み合わせの同一度より高い。
条件11:下敷き面2と物体面3の同一度が他の組み合わせの同一度より高い。
条件12:下敷き面2と物体面4の同一度が他の組み合わせの同一度より高い。
条件13:下敷き面2と物体面5の同一度が他の組み合わせの同一度より高い。
条件14:下敷き面2と物体面6の同一度が他の組み合わせの同一度より高い。
指示1:CG物体の物体座標系を操作アイテムの物体座標系内に静止。
指示2:CG物体の物体座標系を世界座標系内に静止。
指示3:物体面1を下敷き面1上に移動・回転。
指示4:物体面2を下敷き面1上に移動・回転。
指示5:物体面3を下敷き面1上に移動・回転。
指示6:物体面4を下敷き面1上に移動・回転。
指示7:物体面5を下敷き面1上に移動・回転。
指示8:物体面6を下敷き面1上に移動・回転。
指示9:物体面1を下敷き面2上に移動・回転。
指示10:物体面2を下敷き面2上に移動・回転。
指示11:物体面3を下敷き面2上に移動・回転。
指示12:物体面4を下敷き面2上に移動・回転。
指示13:物体面5を下敷き面2上に移動・回転。
指示14:物体面6を下敷き面2上に移動・回転。
(条件1)∧(条件2)∧(条件3)⇒(指示1)∧(指示3)。
(条件1)∧(条件2)∧(条件4)⇒(指示1)∧(指示4)。
(条件1)∧(条件2)∧(条件5)⇒(指示1)∧(指示5)。
(条件1)∧(条件2)∧(条件6)⇒(指示1)∧(指示6)。
(条件1)∧(条件2)∧(条件7)⇒(指示1)∧(指示7)。
(条件1)∧(条件2)∧(条件8)⇒(指示1)∧(指示8)。
(条件1)∧(条件2)∧(条件9)⇒(指示1)∧(指示9)。
(条件1)∧(条件2)∧(条件10)⇒(指示1)∧(指示10)。
(条件1)∧(条件2)∧(条件11)⇒(指示1)∧(指示11)。
(条件1)∧(条件2)∧(条件12)⇒(指示1)∧(指示12)。
(条件1)∧(条件2)∧(条件13)⇒(指示1)∧(指示13)。
(条件1)∧(条件2)∧(条件14)⇒(指示1)∧(指示14)。
(条件1)∧¬(条件2)∧(条件3)⇒(指示2)∧(指示3)。
(条件1)∧¬(条件2)∧(条件4)⇒(指示2)∧(指示4)。
(条件1)∧¬(条件2)∧(条件5)⇒(指示2)∧(指示5)。
(条件1)∧¬(条件2)∧(条件6)⇒(指示2)∧(指示6)。
(条件1)∧¬(条件2)∧(条件7)⇒(指示2)∧(指示7)。
(条件1)∧¬(条件2)∧(条件8)⇒(指示2)∧(指示8)。
(条件1)∧¬(条件2)∧(条件9)⇒(指示2)∧(指示9)。
(条件1)∧¬(条件2)∧(条件10)⇒(指示2)∧(指示10)。
(条件1)∧¬(条件2)∧(条件11)⇒(指示2)∧(指示11)。
(条件1)∧¬(条件2)∧(条件12)⇒(指示2)∧(指示12)。
(条件1)∧¬(条件2)∧(条件13)⇒(指示2)∧(指示13)。
(条件1)∧¬(条件2)∧(条件14)⇒(指示2)∧(指示14)。
ここで面Aと面Bの同一度は、本実施形態ではたとえば以下のように定義される。
・面Aの法線ベクトルと面Bの法線ベクトルの内積≧0の場合⇒同一度を0とする、
・上記以外の場合⇒面Aと面Bの距離の逆数を同一度する。
なお、面Aと面Bの距離とは、例えば面Aと面Bの重心間の距離を用いればよい。
以下、前提条件として条件2が成立している、すなわちCG物体の物体座標系が世界座標系内に静止している場合を例にとって説明する。
CG配置特徴抽出部では3DCGデータ406からCG配置特徴の抽出を行う(S3010)。具体的にはCG物体の物体座標系と世界座標系との関係、下敷き面1、下敷き面2、物体面1、物体面2、物体面3、物体面4、物体面5、物体面6の抽出である。また配置特徴抽出部411では操作アイテムの押しボタンがされたか否かという配置特徴の抽出を行う(S3020)。CG配置特徴抽出部410、配置特徴抽出部411で抽出された特徴は配置条件算出部412によって、条件1の成否、条件2の成否、…、条件14の成否というように配置条件の値(成否を表す)が算出される(S3030)。これら配置条件の値を元に配置判断部409では配置判断を行う(S3040)。その結果、例えば(条件1)∧(条件2)∧(条件3)が成立した場合は、上記のように(指示1)∧(指示3)という指示が配置判断部409から座標変換部413に送られる。そして、3DCGデータ406に対して、指示1、指示3が実行される(S3050)。こうして、CG物体に設定された物体面1と操作アイテムに設定された下敷き面1とを近づけた状態で押しボタンが押されると、座標変換部413は、物体面1と下敷き面1の位置及びそれらの法線方向が一致するように(より厳密には、それらの法線が正反対の向き(法線ベクトルの内積が−1)となるように)CG物体を移動、回転し、その状態で当該CG物体の物体座標系を操作アイテムの物体座標系に内に静止させることにより、両者の関連付けを行なう。
さらに上記の動作と並行して、HMD100の映像入力装置101より現実空間の映像が映像キャプチャ部401を通して情報処理装置400に取り込まれる(S4010)。CGレンダリング部407では3DCGデータ406を使ってCGを描画し、ビデオバッファなどのメモリに展開する(S2040)。この結果、CG物体の物体面1と操作アイテムの下敷き面1(表面)とが一致するようにCG物体が描画される。一方S4010で取り込んだ現実空間の映像データもビデオバッファなどのメモリに展開し(S4020)、映像合成部402において上記S2040で生成したCG映像を重畳する(S5010)。合成された映像は、映像生成部403を経由して、HMD100の映像表示装置101に表示される(S5020)。
上記S2010、S2020、S2030、S2040、S4010、S4020、S5010、S5020の処理を映像表示装置101における映像更新間隔あるいはCG描画2040における更新間隔で繰り返し行うことで、リアルタイムに情報提示を行う。
なお、上記配置ルールの変更により、例えばトレイの面とCGオブジェクトのバウンディングボックスの上面とがいくら近づいても関連付けが実行されないようにしたりするなど、所望の設定を行なうことができる。また、配置ルールとして記述可能としたことにより、そのような設定、変更を容易に行なうことができる。また、6面体で構成されるバウンディングボックスを用いたが、6面体に限らず、任意の多面体を用いることが可能である。なお、上記では、操作アイテムの面とCG物体の面との関連付けにおいて、選択された面と面を一致させることにより両者の姿勢の関係が決定される点を説明した。ここで、操作アイテムの面上のどの位置にCG物体を配置するかは、配置ルールによって決定される。上記実施形態(下敷きの上にCG物体を載せる)において、下敷き面1側にCG物体が配置される場合は、例えば(a)CG物体の重心から下敷き面1に下ろした垂線の足が、下敷き面1の中心点と一致するようにする、(b)CG物体の重心から下敷き面1に下ろした垂線の足の位置は配置後も変化しない、といったような方法が考えられる。また、以下に説明するねじ回しとねじのような場合は、配置位置は1箇所が指定されている。
次に、操作アイテムとしてねじ回し状のものと、CG物体としてねじ状のCGとを用いて、ねじ締めの仮想体験を可能とするMRの提示を説明する。なお、以下では、ねじのCGが3つあり、そのうちの1つを使ってねじ締めを行う仮想体験の場合を例に挙げて説明する。
図5の(a)において、物体操作デバイス501はねじ回しの「にぎり」の部分のみであり、内部に磁気センサ202が内蔵されている。また、物体操作デバイス501には押しボタン502が装備されている。観察者から見るとこの物体操作デバイス501に「軸503」がCGで表示され、ねじ回しの操作アイテムとして扱える。
まず本例における用語の定義を行う。図5の(b)に示されるように、「ねじ」のCGは3つあるものとし、「ねじ1」「ねじ2」「ねじ3」としてそれらを区別する。「ねじ回しの軸」とは操作アイテムのCGの「軸503」、「ねじ回しの先」とはねじ回しの軸503の先端504、「ねじ頭」とはねじのCG510の頭511のことであり、「ねじ回しとねじの距離」とはねじ回しの先とねじ頭の間の距離523である。さらに「ねじ回しの向き」とはねじ回しの軸503に沿って操作デバイス側からねじ回しの先の方に向かう向き521、「ねじの向き」とはねじのCGの軸に沿ってねじ頭から反対側へ向かう向き522である。
本例の配置ルールは例えば以下のように設定されているとする。
条件1:押しボタンが押されている。
条件2:ねじ1の物体座標系は世界座標系内に静止している。、
条件3:ねじ2の物体座標系は世界座標系内に静止している。
条件4:ねじ3の物体座標系は世界座標系内に静止している。
条件5:(条件2)∧(条件3)∧(条件4)。
条件6:ねじ回しとねじ1の距離<一定値。
条件7:ねじ回しとねじ2の距離<一定値。
条件8:ねじ回しとねじ3の距離<一定値。
条件9:ねじ回しとねじ1の距離<ねじ回しとねじ2の距離。
条件10:ねじ回しとねじ2の距離<ねじ回しとねじ3の距離。
条件11:ねじ回しとねじ3の距離<ねじ回しとねじ1の距離。
条件12:(条件6)∧(条件9)∧¬(条件11)。
条件13:(条件7)∧¬(条件9)∧(条件10)。
条件14:(条件8)∧¬(条件10)∧(条件11)。
指示1:ねじ1の物体座標系を操作アイテムの物体座標系内に静止。
指示2:ねじ1の物体座標系を世界座標系内に静止。
指示3:ねじ2の物体座標系を操作アイテムの物体座標系内に静止。
指示4:ねじ2の物体座標系を世界座標系内に静止。
指示5:ねじ3の物体座標系を操作アイテムの物体座標系内に静止。
指示6:ねじ3の物体座標系を世界座標系内に静止。
指示7:ねじ1の向きをねじ回しの向きと一致するように回転。
指示8:ねじ2の向きをねじ回しの向きと一致するように回転。
指示9:ねじ3の向きをねじ回しの向きと一致するように回転。
指示10:ねじ1のねじ頭をねじ回しの先に一致するように移動。
指示11:ねじ2のねじ頭をねじ回しの先に一致するように移動。
指示12:ねじ3のねじ頭をねじ回しの先に一致するように移動。
(条件1)∧(条件5)∧(条件12)⇒(指示1)∧(指示7)∧(指示10)。
(条件1)∧(条件5)∧(条件13)⇒(指示3)∧(指示8)∧(指示11)。
(条件1)∧(条件5)∧(条件14)⇒(指示5)∧(指示9)∧(指示12)。
¬(条件1)⇒(指示2)∧(指示4)∧(指示6)。
上記のような配置ルールを用いると、図6(a)に示すように、操作者はねじ回しの先端504をねじの近くに持っていき、押しボタン502を押すと、図6(b)に示すように、先端504にねじ頭511が最も近い位置にあるねじが、指示10〜12の実行によりねじ回しの先端504にくっつく。このとき、指示7〜9のいずれかの実行により、くっついたねじの向き522がねじ回しの向き521と一致するようにCGが回転する。その後、押しボタン502を押したまま、ねじを締める場所に持っていき、押しボタンを離すことで一連のねじ締め作業の仮想体験ができる(図6の(c)、(d))。
以上のように、上記実施形態によれば、CG物体を下敷き状の操作アイテム上にあたかも現実物体が載っているかのように置いたり、ねじ回し状の操作アイテムにあたかも本物のねじのようにねじのCGを配置したりすることができるという効果があり、現実世界であれば起こりうることを事前に体験すること(仮想体験)が可能となる。
以上、実施形態例を詳述したが、本発明は、例えば、システム、装置、方法、プログラムもしくは記憶媒体等としての実施態様をとることが可能であり、具体的には、複数の機器から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。
尚、本発明は、前述した実施形態の機能を実現するソフトウェアのプログラム(実施形態では図に示すフローチャートに対応したプログラム)を、システムあるいは装置に直接あるいは遠隔から供給し、そのシステムあるいは装置のコンピュータが該供給されたプログラムコードを読み出して実行することによっても達成される場合を含む。
従って、本発明の機能処理をコンピュータで実現するために、該コンピュータにインストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明は、本発明の機能処理を実現するためのコンピュータプログラム自体も含まれる。
その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等の形態であっても良い。
プログラムを供給するための記録媒体としては、例えば、フロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、MO、CD−ROM、CD−R、CD−RW、磁気テープ、不揮発性のメモリカード、ROM、DVD(DVD−ROM,DVD−R)などがある。
その他、プログラムの供給方法としては、クライアントコンピュータのブラウザを用いてインターネットのホームページに接続し、該ホームページから本発明のコンピュータプログラムそのもの、もしくは圧縮され自動インストール機能を含むファイルをハードディスク等の記録媒体にダウンロードすることによっても供給できる。また、本発明のプログラムを構成するプログラムコードを複数のファイルに分割し、それぞれのファイルを異なるホームページからダウンロードすることによっても実現可能である。つまり、本発明の機能処理をコンピュータで実現するためのプログラムファイルを複数のユーザに対してダウンロードさせるWWWサーバも、本発明に含まれるものである。
また、本発明のプログラムを暗号化してCD−ROM等の記憶媒体に格納してユーザに配布し、所定の条件をクリアしたユーザに対し、インターネットを介してホームページから暗号化を解く鍵情報をダウンロードさせ、その鍵情報を使用することにより暗号化されたプログラムを実行してコンピュータにインストールさせて実現することも可能である。
また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される他、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどが、実際の処理の一部または全部を行ない、その処理によっても前述した実施形態の機能が実現され得る。
さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行ない、その処理によっても前述した実施形態の機能が実現される。
実施形態によるシステムの構成例を示す図である。 頭部装着型映像入出力装置の具体的構成を示す図である。 実施形態による情報処理装置の具体的構成を示す図である。 実施形態による画像提示処理の流れを示す図である。 実施形態による操作アイテム及び操作対象に関わる用語を説明する図である。 実施形態による仮想体験を説明する図である。

Claims (11)

  1. 検出された観察者の位置、姿勢に基づいて、該観察者が観察する現実空間に仮想物体を描画する画像提示方法であって、
    現実空間に実在する操作用デバイスの位置、姿勢を検出する検出工程と、
    仮想物体と前記操作用デバイスの位置、姿勢に基づいて、該仮想物体と該操作用デバイスとを関連付けるか否かを判定する判定工程と、
    前記判定工程で関連付けると判定された場合に、前記仮想物体と前記操作用デバイスとの間の位置姿勢の関係が予め設定された関係となるように、前記検出工程で検出された位置姿勢に対して該仮想物体の位置姿勢を決定する決定工程と、
    前記決定工程で決定された位置姿勢でもって前記仮想物体を描画する描画工程とを備えることを特徴とする画像提示方法。
  2. 前記決定工程は、前記仮想物体に関して設定された面と、前記操作用デバイスに関して設定された面とを一致させるように該仮想物体と該操作用デバイスの位置姿勢の関係を決定することを特徴とする請求項1に記載の画像提示方法。
  3. 前記決定工程は、前記仮想物体と前記操作用デバイスとの位置姿勢関係に基づいて、該仮想物体に設定された複数の面と、該操作用デバイスに設定された複数の面のいずれを一致させかを決定することを特徴とする請求項2に記載の画像提示方法。
  4. 前記判定工程は、前記仮想物体に設定された複数の面と前記操作用デバイスに設定された複数の面との位置姿勢関係に基づいて該仮想物体と該操作用デバイスとを関連付けるか否かを判定することを特徴とする請求項1に記載の画像提示方法。
  5. 前記決定工程は、前記仮想物体に関して設定された軸の方向と、前記操作用デバイスに関して設定された軸の方向とを一致させるように該仮想物体と該操作用デバイスの位置姿勢を決定することを特徴とする請求項1に記載の画像提示方法。
  6. 前記決定工程は、前記仮想物体の所定の部位と前記操作用デバイスの所定の部位が一致するように位置関係を決定することを特徴とする請求項5に記載の画像提示方法。
  7. 前記操作用デバイスは、一部が現実物体で構成され、残りの部分がCGによって構成されていることを特徴とする請求項1乃至5のいずれかに記載の画像提示方法。
  8. 前記仮想物体と前記操作用デバイスを関連付ける際の両者の位置姿勢の関係を規定するルールの記述を記憶する記憶手段を用意し、
    前記判定工程は、前記仮想物体と前記操作用デバイスとの間の位置姿勢の関係が前記記憶手段に記憶されたルールの記述によって規定された関係となるように、該操作用デバイスの位置姿勢に対して該仮想物体の位置姿勢を決定することを特徴とする請求項1に記載の画像提示方法。
  9. 検出された観察者の位置、姿勢に基づいて、該観察者が観察する現実空間に仮想物体を描画する情報処理装置であって、
    現実空間に実在する操作用デバイスの位置、姿勢を検出する検出手段と、
    仮想物体と前記操作用デバイスの位置、姿勢に基づいて、該仮想物体と該操作用デバイスとを関連付けるか否かを判定する判定手段と、
    前記判定手段で関連付けると判定された場合に、前記仮想物体と前記操作用デバイスとの間の位置姿勢の関係が予め設定された関係となるように、前記検出手段で検出された位置姿勢に対して該仮想物体の位置姿勢を決定する決定手段と、
    前記決定手段で決定された位置姿勢でもって前記仮想物体を描画する描画手段とを備えることを特徴とする情報処理装置。
  10. 請求項1乃至8のいずれかに記載の画像提示方法をコンピュータに実行させるための制御プログラム。
  11. 請求項1乃至8のいずれかに記載の画像提示方法をコンピュータに実行させるための制御プログラムを格納した記憶媒体。
JP2004336220A 2004-11-19 2004-11-19 画像提示方法及び情報処理装置 Expired - Fee Related JP4630647B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004336220A JP4630647B2 (ja) 2004-11-19 2004-11-19 画像提示方法及び情報処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004336220A JP4630647B2 (ja) 2004-11-19 2004-11-19 画像提示方法及び情報処理装置

Publications (3)

Publication Number Publication Date
JP2006146584A true JP2006146584A (ja) 2006-06-08
JP2006146584A5 JP2006146584A5 (ja) 2008-01-10
JP4630647B2 JP4630647B2 (ja) 2011-02-09

Family

ID=36626196

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004336220A Expired - Fee Related JP4630647B2 (ja) 2004-11-19 2004-11-19 画像提示方法及び情報処理装置

Country Status (1)

Country Link
JP (1) JP4630647B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008040832A (ja) * 2006-08-07 2008-02-21 Canon Inc 複合現実感提示システム及びその制御方法
JP2017529635A (ja) * 2014-06-14 2017-10-05 マジック リープ, インコーポレイテッドMagic Leap,Inc. 仮想および拡張現実を作成する方法およびシステム
JP2020009464A (ja) * 2014-11-21 2020-01-16 キヤノン株式会社 情報処理装置、情報処理方法、およびプログラム
WO2020075232A1 (ja) * 2018-10-10 2020-04-16 株式会社日立製作所 拡張現実による機械的締結部の管理方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
CSNG200300702006, 今本健児,外3名, ""拡張現実感環境における仮想物体操作時のコミュニケーションに関する検討"", 電子情報通信学会技術研究報告, 20020117, Vol.101,No.594, p.31−36, 社団法人電子情報通信学会 *
CSNG200401878002, 綿大介,外2名, ""拡張現実感環境における仮想物体操作のための筒型インタフェース"", 電子情報通信学会技術研究報告, 20030929, Vol.103,No.351, p.5−8, 社団法人電子情報通信学会 *
JPN6010009310, 綿大介,外2名, ""拡張現実感環境における仮想物体操作のための筒型インタフェース"", 電子情報通信学会技術研究報告, 20030929, Vol.103,No.351, p.5−8, 社団法人電子情報通信学会 *
JPN6010027830, 今本健児,外3名, ""拡張現実感環境における仮想物体操作時のコミュニケーションに関する検討"", 電子情報通信学会技術研究報告, 20020117, Vol.101,No.594, p.31−36, 社団法人電子情報通信学会 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008040832A (ja) * 2006-08-07 2008-02-21 Canon Inc 複合現実感提示システム及びその制御方法
JP2017529635A (ja) * 2014-06-14 2017-10-05 マジック リープ, インコーポレイテッドMagic Leap,Inc. 仮想および拡張現実を作成する方法およびシステム
JP2020009464A (ja) * 2014-11-21 2020-01-16 キヤノン株式会社 情報処理装置、情報処理方法、およびプログラム
WO2020075232A1 (ja) * 2018-10-10 2020-04-16 株式会社日立製作所 拡張現実による機械的締結部の管理方法
JPWO2020075232A1 (ja) * 2018-10-10 2021-02-15 株式会社日立製作所 拡張現実による機械的締結部の管理方法
CN113784822A (zh) * 2018-10-10 2021-12-10 株式会社日立制作所 基于增强现实的机械紧固部的管理方法
CN113784822B (zh) * 2018-10-10 2023-09-26 株式会社日立制作所 基于增强现实的机械紧固部的管理方法

Also Published As

Publication number Publication date
JP4630647B2 (ja) 2011-02-09

Similar Documents

Publication Publication Date Title
US7542051B2 (en) Calibration method and apparatus
US8055061B2 (en) Method and apparatus for generating three-dimensional model information
KR102517876B1 (ko) 증강 현실 데이터를 레코딩하기 위한 기술
JP3631151B2 (ja) 情報処理装置、複合現実感提示装置及びその方法並びに記憶媒体
JP5376874B2 (ja) 画像処理プログラムおよび画像処理装置
JP6340017B2 (ja) 被写体と3次元仮想空間をリアルタイムに合成する撮影システム
JP4739002B2 (ja) 画像処理方法、画像処理装置
TWI544447B (zh) 擴增實境的方法及系統
JP5025496B2 (ja) 画像処理装置及び画像処理方法
US20030062675A1 (en) Image experiencing system and information processing method
JP4757115B2 (ja) 画像処理装置、画像処理方法
JP2006302034A (ja) 画像処理方法、画像処理装置
US20030184602A1 (en) Information processing method and apparatus
JP4785662B2 (ja) 情報処理装置、情報処理方法
JP2006318095A (ja) 画像処理方法、画像処理装置
JP2007236602A (ja) 磁気式位置姿勢センサを用いた手指用モーションキャプチャ装置
EP3942389A1 (en) Position based energy minimizing function
JP2009087161A (ja) 画像処理装置、画像処理方法
JP6295296B2 (ja) 複合システム及びターゲットマーカ
CN109844600A (zh) 信息处理设备、信息处理方法和程序
JP4630647B2 (ja) 画像提示方法及び情報処理装置
JP2004234549A (ja) 現実物体モデル作成方法
JP2008040913A (ja) 情報処理方法、情報処理装置
JP2009015648A (ja) 画像処理装置、画像処理方法
WO2023238678A1 (ja) 情報処理装置、コントローラ表示方法およびコンピュータプログラム

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071119

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071119

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20071119

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100222

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100521

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100720

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100820

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100908

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101105

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101115

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131119

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4630647

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees