JP2008040832A - 複合現実感提示システム及びその制御方法 - Google Patents

複合現実感提示システム及びその制御方法 Download PDF

Info

Publication number
JP2008040832A
JP2008040832A JP2006214881A JP2006214881A JP2008040832A JP 2008040832 A JP2008040832 A JP 2008040832A JP 2006214881 A JP2006214881 A JP 2006214881A JP 2006214881 A JP2006214881 A JP 2006214881A JP 2008040832 A JP2008040832 A JP 2008040832A
Authority
JP
Japan
Prior art keywords
virtual object
observer
mixed reality
handler
presentation system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006214881A
Other languages
English (en)
Other versions
JP2008040832A5 (ja
JP4883774B2 (ja
Inventor
Koichiro Wanda
浩一郎 椀田
Toshiichi Oshima
登志一 大島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2006214881A priority Critical patent/JP4883774B2/ja
Priority to US11/782,194 priority patent/US7834893B2/en
Publication of JP2008040832A publication Critical patent/JP2008040832A/ja
Publication of JP2008040832A5 publication Critical patent/JP2008040832A5/ja
Application granted granted Critical
Publication of JP4883774B2 publication Critical patent/JP4883774B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】 複合現実感を体感中であっても、仮想物体を容易に選択、操作可能とする。
【解決手段】 仮想物体を操作するためのハンドラを、仮想物体として表示する。そして、観察者が手で行なったハンドラへの操作を検出し、対応する仮想物体への操作として表示に反映する。観察者の視体積中に示す仮想物体の大きさに応じてハンドラを表示する仮想物体を動的に変更することで、所望の仮想物体を容易に選択することができる。
【選択図】 図1

Description

本発明は、複合現実感提示システム及びその制御方法に関し、特に、複合現実空間の観察者が観察中の仮想物体を操作可能な複合現実感提示システム及びその制御方法に関する。
近年、現実空間と仮想空間とを違和感なく合成表示することにより、観察者に複合現実感(MR:Mixed Reality)を体感させる複合現実感提示システムが盛んに提案されている。これら複合現実感提示システムは、ビデオカメラなどの撮像装置によって撮影した現実空間の画像に、コンピュータグラフィックス(CG)で描画した画像(仮想空間画像)を位置合わせして合成した合成画像を生成する。合成画像を観察者の視点位置に応じて生成し、観察者の眼前に提示することで、観察者に現実空間と仮想空間とが合成された複合現実空間を体感させる。合成画像の提示には、ヘッドマウントディスプレイ(HMD)を代表とする表示装置が用いられる。
このようなシステムにおいて、観察者に違和感なく複合現実感を体感させるには、観察者の視点位置及び姿勢を逐次取得し、その変化に合わせた合成画像を直ちに生成、表示することが重要である。そのため、位置姿勢センサによって計測した観察者の視点位置及び姿勢に基づいて仮想空間中の仮想の視点位置姿勢を設定し、この設定に基づいて仮想物体の画像をCGで描画して、現実空間の画像と位置合わせして合成画像を生成する。
複合現実感提示システムにおいて、観察者は、現実空間にあたかも仮想物体が存在しているかのような合成画像を観察することができる。しかし、一般には、視認中の仮想物体の移動や姿勢の変更、仮想物体そのものの変更といった操作を観察者が行なうことはできない。
特許文献1には、3次元情報会話システムにおいて、ペン状の3次元方向位置指定対象11を用いて画面内の3次元カーソルを操作し、画面内の3次元物体を選択したり、移動したりする構成が開示されている。特許文献1では、画面内の3次元カーソルと、ユーザが操作するペン状の3次元方向位置指定対象11との位置関係が把握しにくく、操作対象の物体を選択しにくいという従来技術の問題点を、3次元カーソルに延長図形を付加することで軽減している。
特許第2558984号公報
しかしながら、特許文献1記載の技術を、HMDを装着した観察者に複合現実感を体感させるシステムに適用しようとした場合、3次元方向位置指定対象11のようなコントローラを別途導入しなければならない。また、HMDを装着している観察者は、特許文献1における操作者と異なり、コントローラを直接視認することができない。そのため、コントローラの位置姿勢と、合成画像中の3次元カーソルの位置姿勢との対応を把握することが非常に困難である。つまり、レーザーポインタ状の入力デバイスの場合、操作の自由度が高すぎるため、所望の仮想物体の選択や、選択した後の仮想物体の移動、再配置するのが難しい。また、複合現実感の体感中にコントローラを操作することは、複合現実感のリアリティを損なうものであり、好ましくない。
本発明はこのような従来技術の問題点に鑑みなされたものであり、複合現実感を体感中であっても、仮想物体を容易に選択、操作可能な複合現実感提示システム及びその制御方法を提供することを目的とする。
上述の目的は、観察者の視点位置姿勢に応じて描画した仮想物体を、現実空間もしくは現実空間の撮像画像と重畳表示することにより、観察者に複合現実感を体験させる複合現実感提示システムの制御方法であって、観察者の視点位置姿勢を計測する計測工程と、計測工程で得られた視点位置姿勢に基づく視体積中に含まれる仮想物体を検出する仮想物体検出工程と、視体積中に含まれる仮想物体のうち、予め定められた表示条件に当てはまる仮想物体の操作用仮想物体を、描画すべき仮想物体に追加する追加工程とを有することを特徴とする複合現実感提示システムの制御方法によって達成される。
また、上述の目的は、観察者の視点位置姿勢に応じて描画した仮想物体を、現実空間もしくは現実空間の撮像画像と重畳表示することにより、観察者に複合現実感を体験させる複合現実感提示システムであって、観察者の視点位置姿勢を計測する計測手段と、計測手段で得られた視点位置姿勢に基づく視体積中に含まれる仮想物体を検出する仮想物体検出手段と、視体積中に含まれる仮想物体のうち、予め定められた表示条件に当てはまる仮想物体の操作用仮想物体を、描画すべき仮想物体に追加する追加手段とを有することを特徴とする複合現実感提示システムによっても達成される。
このような構成により、本発明によれば、複合現実感を体感中であっても、仮想物体を容易に選択、操作可能な複合現実感提示システム及びその制御方法を実現することができる。
以下、図面を参照して、本発明の好適な実施形態を詳細に説明する。
図1は、本発明の第1の実施形態に係る複合現実感提示システムの構成例を示すブロック図である。
図1において、演算処理部100には、CPU101、RAM102、画像生成部103、システムバス104、記憶部105、入力部106、画像取込部107により構成される。演算処理部100は例えばビデオキャプチャ機能を有する市販の汎用コンピュータにより実現することができる。
CPU101は、不図示のROM、RAM102及び記憶部105の1つ以上に格納されたプログラムに基づき、システム全体の処理を制御する。CPU101はシステムバス104により接続され、RAM102、画像生成部103、記憶部105、入力部106、画像取込部107と相互に通信可能である。RAM102は、システムバス104を介して供給される、プログラムコードやプログラムの制御情報、CGデータや計測位置データなどを一時的に保持する。
画像生成部103は、グラフィックスボードなどによって実現され、一般にグラフィックスメモリ(図示せず)を有する。CPU101で実行されるプログラムによって生成された画像情報は、システムバス104を介して画像生成部103の有するグラフィックスメモリに書き込まれる。画像生成部103は、グラフィックスメモリに書き込まれた画像情報を、表示部200の構成に応じた画像信号に変換して表示部200に送出する。グラフィックスメモリは必ずしも画像生成部103が有する必要はなく、RAM102の一部領域をグラフィックスメモリとして利用しても良い。
システムバス104は、演算処理部100を構成する各部を相互通信可能に接続する。
記憶部105は、ハードディスクドライブ等の補助記憶装置によって実現される。記憶部105は、例えば以下のデータを保持する。
・CPU101が実行するプログラムコードやプログラムの制御情報、
・仮想空間のCGオブジェクトデータ(仮想物体データ)、
・HMD300の位置及び姿勢に関するデータ、
・ハンドラ表示の種類や設定値のデータ、
・システムを制御するパラメータ等。
入力部106は、各種の外部機器に対するインターフェースとして機能する。例えば、演算処理部100に接続された外部機器からの信号をデータとして入力し、システムバス104を介して、RAM102にデータを書き込む。また、操作入力部400を通じて入力されるユーザーの指示などを受け付ける。
画像取込部107は、ビデオキャプチャボードなどのように、例えば、動画像信号を入力し、システムバス104を介して、RAM102またはグラフィックスメモリに画像データを書き込む。なお、HMD300が、撮像装置303を持たない光学シースルータイプの場合、画像取込部107は不要である。
表示部200は、例えば、ブラウン管、液晶ディスプレイなどの表示装置であり、本実施形態の複合現実感提示システムのオペレータに対し、システムの動作状況や、HMD300の位置情報、各種設定や操作用のUIなどを表示する。従って、表示部200は通常、HMD300が有する表示部301よりも大型の表示装置である。
HMD300は、本実施形態の複合現実感提示システムにより、複合現実感を体験するユーザ(観察者)が装着する表示装置である。HMD300は、表示部301、計測対象302及び撮像装置303により構成される。本実施形態では、説明及び理解を容易にするため、システムで用いられるHMD300が一台である構成について説明する。しかし、本実施形態の複合現実感提示システムは、複数のHMD300を有していても良い。
また、本実施形態では、HMD300がビデオシースルー型であるものとして説明するが、光学式シースルー型のHMDであってもよい。これらは、現実空間を観察者に提示させる方法が異なる。ビデオシースルー型は撮像装置303で撮影した撮像画像を用いて観察者に現実空間を提示する。光学シースルー型HMDの場合は、ハーフミラー状のディスプレイを透して観察者に視認させる。従って、光学シースルー型HMDの場合、少なくとも観察者に現実空間を提示する目的においては、撮像装置303は不要である。
表示部301は、例えば、LCD等の軽量な表示装置によって実現される。HMD300がステレオタイプの場合、表示部301は右眼用表示装置と左眼用表示装置を有する。表示部301は、画像生成部103から送出される合成画像を観察者の眼前に表示する。
撮像装置303は、例えばビデオカメラであり、HMD300を装着している観察者の視点から観察される現実空間の画像を撮像する。撮像した画像は、画像信号として逐次画像取込部107に送られる。なお、HMD300にステレオ映像を提示する場合、撮像装置303もステレオカメラにより実現される。
計測対象302は、センサ600がHMD300の位置及び姿勢を検出するために必要な計測対象であり、HMD300上に設けられる。
操作入力部400は、例えば、キーボード、マウスなど、コンピュータで用いられる一般的な入力機器である。主に本システムのオペレータが、本システムに対して各種設定や操作等の、主に仮想物体の操作以外の指示を入力するために用いる。
センサ600は、観察者が装着するHMD300に設けられた計測対象302の位置及び姿勢を、HMD300の位置及び姿勢として計測する。センサ制御部500はセンサ600を制御し、計測対象302、および、センサ600により観測データを取得する。センサ制御部500は、観測データをもとに、計測対象302の位置、姿勢情報を算出し、計測値として106入力装置に送信する。
本実施形態において、HMD300の位置姿勢を測定するための構成に特に制限はなく、実際に用いるセンサの方式や構成に応じてセンサ600や計測対象302などを配置することが可能である。以下に、具体的に利用可能なセンサと、その適用方法について例示する。
光学式センサの例として、Northern Digital社の光学式センサOPTOTRAK3020(商品名)を用いる場合、計測対象302は発光装置によって構成され、センサ制御部500の制御により発光する。センサ600は、受光装置によって構成され、計測対象302が発した光を観測する。センサ制御部500は、センサ600の配置データと観測データに基づいて計測対象302の位置、姿勢を算出する。
また、別の光学式センサの例として、3rdTech社の光学式センサHiBall(商品名)を用いる場合、計測対象302は受光装置によって構成され、センサ600は、発光装置によって構成される。センサ600は、センサ制御部500の制御によって発光する。計測対象302はセンサ600の発する光を観測する。センサ制御部500は、計測対象302の観測データとセンサ600の配置データをもとに、計測対象302の位置、姿勢を算出する。
次に、磁気式センサの例として、Polhmus社の磁気センサFastrak(商品名)を用いる場合、計測対象302はレシーバで構成され、センサ600のトランスミッタが発生する磁界を観測し、観測データを生成する。センサ600は、トランスミッタによって構成され、センサ制御部500の制御によって磁界を発生する。センサ制御部500は計測対象302の観測データをもとに、計測対象302の位置、姿勢を算出する。
このようなセンサを用いる以外に、HMD300を撮影した画像を用いてHMD300の位置姿勢を測定することも可能である。例えば、HMD300にマーカを設け、位置姿勢が既知の撮像装置が撮影した画像中のマーカ位置を用いて、HMD300の位置姿勢を算出することができる。この場合、計測対象302をマーカ、センサ600を撮像装置、センサ制御部500を、撮像装置の位置情報と撮像した画像とからHMD300の位置姿勢を算出する画像処理部とする構成として考えられる。
さらに、特にマーカを装着せず、位置姿勢が既知の撮像装置で観察者を撮影した画像の特徴を用いて、HMD300の位置、姿勢を算出してもよい。この場合、計測対象302は観察者となる。
さらに、HMD300が有する撮像装置303が撮影する現実空間中に、3次元位置が既知である複数のマーカを設置し、撮像装置303によって撮像された画像中に含まれるマーカの位置からHMD300の位置姿勢を算出することもできる。また、マーカの代りに現実空間を撮影した画像の特徴(例えば固定された物体の画像など)を用いても、同様にHMD300の位置姿勢を算出することができる。
上述した位置姿勢の測定方法は、適宜組み合わせて利用することも可能である事は言うまでもない。
次に、このような構成を有する本実施形態の複合現実感提示システムにおいて、HMD300を装着し、複合現実感を体感中(以下MR体験中と記載する)の観察者が、仮想物体の操作をどのようにして行なうことが可能であるのかについて説明する。
図2は、仮想物体の一例としてのCGで描かれた車203を、平行移動させるための操作用仮想物体(以下、ハンドラと言う)201を表示した合成画像の例を示す。図2では便宜上、現実空間の画像は示していないが、実際には撮像装置303で撮影した、現実空間の画像に合成されている。
なお、図2において、リンク202は、合成画像によって表される複合現実空間に存在する複数の仮想物体のうち、ハンドラ201の操作対象である仮想物体を示すための表示である。本実施形態において、リンク202はハンドラと操作対象とを接続する直線である。しかし、リンク202はハンドラ201と操作対象となる仮想物体との対応を観察者に明示することが可能であれば、どのような形状であってもよい。
例えば、操作対象となる仮想物体と操作対象とならない仮想物体とが混在し、煩雑になる場合、リンク202は、操作対象となる仮想物体のバウンディングボックス表示や強調表示であってよい。もちろん、直線状のリンク202と、バウンディンングボックス表示等を組み合わせても良い。また、図2において、ハンドラ201は3次元直交座標軸を模した形状を有する。ハンドラ201の形状には特に制限はないが、観察者が操作しやすい形状であることが好ましい。
図4は、本発明の複合現実感提示システムにおける、仮想物体の操作に関する処理を説明するフローチャートである。
S401では、CPU101が、システムの初期化処理を行う。具体的には、例えば、CPU101がCGオブジェクト(仮想物体)データ、ハンドラのCGデータ、プログラムなど、必要なデータを記憶部105からRAM102に読み出す処理が初期化処理に含まれる。
S402において、画像取込部107は、撮像装置303によって撮像された現実空間の画像(現実空間画像)を取り込み、RAM102に書き込む。そして、CPU101は、RAM102から現実空間画像を読み出し、必要に応じて補正処理を行い、画像生成部103が備えるグラフィックスメモリのフレーム・バッファに書き込む。なお、RAM102を介さずに、画像取込部107が取り込んだ画像を画像生成部103のフレーム・バッファに直接書き込むようにしてもよい。なお、撮像装置303を持たない光学シースルー型のHMDを用いる場合には、S402の処理は不要である。
S403において、入力部106は、センサ制御部500の出力する計測値(計測対象302の位置、姿勢)を取得し、CPU101へ与える。CPU101は、計測対象302と観察者の視点位置との相対的な位置関係や、センサ制御部500からの計測値に基づいて、観察者の視点位置姿勢を算出し、RAM102に書き込む。
S404において、CPU101は、仮想物体の操作用ハンドラを表示するか否かを判定する。このステップは、常にハンドラを表示する場合には省略してもよい。本実施形態では、観察者からの指示に応じてハンドラを表示するものとし、このステップでは指示入力の有無に基づいてハンドラ表示の要否を判定する。
上述したように、複合現実感のリアリティを損なわないという観点からすれば、指示用の入力装置を観察者に操作させることは望ましくない。そのため、本実施形態では、観察者のジェスチャー、より具体的には現実空間画像中に含まれる観察者の手のジェスチャーを指示入力として検出する。
CPU101は、現実空間画像から観察者の手の画像領域を特定し、形状やその変化などにより観察者のハンドゼスチャーを認識する。手の画像領域の検出方法に特に制限はない。例えば、特開2003−296759号公報に開示されるような、色情報を用いる方法を適用することができる。
このように、本実施形態では、観察者が特別な入力装置を用いずに、ハンドラの表示の有無を指示できる。そのため、複合現実感のリアリティを損なうことがない。また、観察者が必要な時にのみ、仮想物体を操作するためのハンドラを利用することができる。
ハンドラ表示の指示は、観察者のみならず、システムのオペレータが、操作入力部400を介して与えることも可能である。例えば、観察者がジェスチャーによる指示入力をおこなうのが難しい場合や、不慣れな場合などに、オペレータがハンドラの表示及び消去を指示することが考えられる。
S404において、ハンドラの表示指示がないと判断される場合には、S407に進む。S407では、CPU101が算出した観察者の視点位置姿勢と、初期化処理でRAM102に読み出されているCGオブジェクトデータとを用い、画像生成部103が、観察者の視点位置姿勢から観察される仮想空間の画像を描画する。そして、画像生成部103は、仮想空間の画像をRAM102から読み出した現実空間の画像と重畳合成し、合成画像を生成する。合成画像は画像生成部103により表示部200及びHMD300の表示部301へ供給され、各表示部で表示される。
なお、上述したように、HMD300においてステレオ立体視を実現する場合、現実空間画像は左右一対のステレオ画像として撮像装置303から取り込まれる。そして、視点位置姿勢の算出は右眼、左眼について行い、仮想空間画像の生成、合成画像の生成もそれぞれ右眼用画像、左眼用画像について行なう。HMD300の表示部301が有する右眼用表示デバイスに右眼用画像を、左眼用表示デバイスに左眼用画像を表示させることで、観察者に立体視させることができる。オペレータ用の表示部200においては、例えば右眼用画像と左眼用画像を別ウインドウで表示したり、一方を切り替えて表示することが可能である。以下、説明及び理解を簡潔にするため、特に右眼用画像に関する処理、左眼用画像に関する処理を分けて説明しないが、ステレオ画像を取り扱うシステムに対しても同様の処理が適用可能である点は強調しておく。
S408において、CPU101は、例えば操作入力部400を通じてオペレータから終了指示が入力されなければ、S402に戻って処理を継続する。終了指示が入力された場合、CPU101は処理を終了する。
S404において、CPU101は、ハンドラの表示指示が入力されたと判断されると、S405に進み、観察者の視体積(view volume)に占める仮想物体の大きさに関する情報を算出する。
視体積は通常、観察者の視点位置を頂点とし、頂角を視野角とし、視線方向を高さ方向とする四角錐で表される。そして、視体積内の仮想物体のみを描画する。四角錐の高さ、すなわち、視点位置からどの距離までに存在する仮想物体を描画するかについては、予め定めておく。仮想物体のうち視体積に含まれる部分の体積と、視体積とから、視体積に占める仮想物体の大きさに関する情報として、仮想物体の占める割合を求めることができる。仮想物体と視点との距離、即ち観察者との距離が小さくなると、仮想物体は大きく描画されることになるため、視体積に占める仮想物体の割合は大きくなる。
S405において、視体積中に仮想物体が占める割合の算出には、仮想物体のオブジェクトデータを用いて算出する体積に代えて、近似的な体積を用いても良い。例えば、仮想物体のバウンディングボックス、仮想物体が内接する球、仮想物体を構成するボクセル数などを用いることができる。
また、視体積中の仮想物体の占める割合のほかに、クリッピング平面に占める仮想物体の投影画像の面積や仮想物体の画像の画素数を用いてもよい。より具体的には、画像生成部103が生成する合成画像に含まれる、仮想物体画像の面積や画素数の割合を用いることができる。さらに、仮想物体のポリゴン数、仮想物体と観察者視点の距離、観察者視点と仮想物体の移動速度、仮想物体の色空間内の範囲などを用いることもできる。
S406において、CPU101は、S405で算出された値が、あらかじめ設定された判定条件に当てはまるか否かを判定する。
上述のように、様々な観点から仮想物体の大きさについての情報をS405で算出可能である。そのため、S406における判定条件も、S405において算出する値の種類に応じて異なる数値範囲に設定される。
S406において用いられる判定条件は、通常は、記憶部105に保存され、システムの起動時、または必要なタイミングでRAM102に格納される。また、本実施形態では、ハンドラを表示するかどうかの判定条件を、システム全体に共通した設定値として説明するが、判定条件を観察者ごとに切り替えてもよい。また、複数の判定条件を同じユーザーが切り替えて用いても良い。また、ハンドラ表示を行なうかどうかの判定条件を、観察者が目的とする仮想物体の操作に適切な距離や操作目的を考慮して設定することにより、観察者に適切な操作用ハンドラを表示することが可能となる。
図3は、本実施形態の複合現実感提示システムにおいて利用可能なハンドラ表示の要否判定条件を保存するテーブルの一例を示す図である。
図3に示すように、仮想空間に配置された仮想物体毎に、判定条件としての数値範囲(最小値及び最大値)が規定されている。また、数値範囲に含まれる場合のハンドラ表示動作(表示又は消去)、適用するハンドラの種類及び、ハンドラでどのような操作を許すかについて規定される。
S406において、観察者が仮想物体から離れた位置いるなどして、視体積に占める仮想物体の大きさが図3に示した判定条件に適合しない場合、CPU101は処理をS407へ進める。そして、ハンドラを表示することなく仮想物体のCGのみを描画する。
一方、観察者が仮想物体に近づくにつれ、観察者の視体積に占める仮想物体の大きさが増加する。例えば、仮想物体1が視体積に占める大きさが50(単位はS405で算出する値の種類に応じて異なる)に達すると、CPU101は、処理をS409へ進め、仮想物体1を操作するためのハンドラAを、描画すべきCGオブジェクトとして追加する。
本実施形態においては、仮想物体1が自動車全体であり、仮想物体2以降は仮想物体1の一部であるものとする。この場合、最初に図3の判定条件を満たすようになるのは最も大きな仮想物体1である。従って、仮想物体1についてのハンドラを表示し始める時点では、他の仮想物体についてのハンドラは追加されない。
S410で、CPU101は、ユーザーがハンドラに対して操作を行なったか否かを判定し、操作されていない場合は、処理をS407に進める。S407で、画像生成部103は、S409で追加されたハンドラ及び、ハンドラと仮想物体のリンクを、仮想物体に加えてCGにより描画した仮想空間画像を生成した後、合成画像を生成する。この時、画像生成部103は、観察者の視点位置姿勢に基づき、ハンドラを、観察者の視体積の内部で、操作対象の仮想物体とは重ならず、かつ、観察者の手の届く範囲に存在する仮想物体として表示する。
図5は、仮想物体1に対するハンドラAが表示された状態を示す図である。図2で説明したように、ハンドラA 2011は、直交3次元座標系の座標軸を模した形状を有する。また、ハンドラA 2011と、操作対象の仮想物体1 203との関連を示すリンク2021が合わせて表示される。
また、操作対象となる仮想物体の種類や、観察者との距離などに応じ、可能な操作が異なるハンドラを表示することができる。具体的には、次のようなハンドラを例示できる。・仮想物体をYupの座標系におけるxz平面内で、かつ平行移動のみ可能なハンドラ
・他の仮想物体に接した移動のみ操作可能なハンドラ(例えば、車のサイドミラーの位置変更を、ボディに接した移動のみ許すハンドラ)
・仮想物体の座標系のうち、特定の軸を中心とした回転のみが可能なハンドラ
このように、操作の自由度が高すぎず、ユーザーが行なうであろう規則的な操作を容易にするハンドラを表示することで、仮想物体の操作性を向上させることができる。
本実施形態において、ハンドラ201と仮想物体1 203との対応を示す表示として用いられるリンク202は、直線のCGオブジェクトとして図示している。しかし、上述のように、仮想物体とハンドラとの対応を示すことが可能であれば、どのような形態であってもよい。
また、操作対象となる1つの仮想物体に対し、複数のハンドラの中から所望の操作に適したハンドラをユーザが選択可能に構成することも可能である。例えば表示中のハンドラに対して予め定めた操作が行なわれたことが検出された場合、表示するハンドラの種類を順次切り替えるように構成すればよい。
なお、判定条件を満たしたハンドラは、条件を満たしている限りは、観察者が移動しても、表示が継続される。また、観察者が、別の方向を向いて、仮想物体が視体積外に移動したことにより対応するハンドラが表示されなくなっても、仮想物体が再度視野に入ると、ハンドラが手の届く位置に表示される。このように、あたかもハンドラが体験者についてまわるかのように表示される。
さらに、観察者の移動により、視体積に占める仮想物体の大きさが判定条件の最大値を上回ったり最小値を下回ったりすると、S406の判定に基づいてハンドラは表示されなくなる。例えば、図3の例では、仮想物体1の大きさが100を超えると、仮想物体1を操作するためのハンドラは表示されなくなる。
S406〜S411の処理は視体積中に少なくとも一部が含まれる全ての仮想物体について行なわれる。従って、観察者の移動に応じてハンドラが表示される仮想物体が変化する。図6は、観察者が仮想物体1に近づいたことにより、仮想物体1用のハンドラ2011が消去され、仮想物体2(タイヤ)用のハンドラ2012及び仮想物体3(ドアミラー)用のハンドラ2013が表示されている状態を示す。
また、図7に、仮想物体1〜3用のハンドラは消去され、仮想物体4(ボルト)用のハンドラ2014とそのリンク2024のみが表示されている状態を示す。図7では、仮想物体4が複数(6個)存在するため、各々に対してハンドラ2014及びリンク2024が表示される。
以上のような手順で、観察者が仮想物体を操作するハンドラを観察者に表示し、観察者の仮想物体の操作を容易に行わせることができる。以下、観察者による仮想物体の操作と、それに応じた本システムの処理について説明する。
S409において、図8のように仮想物体2(タイヤ802)用のハンドラ2012が表示されているものとする。
本実施形態において、観察者がハンドラを操作する場合、まず、操作したいハンドラの近傍に自分の手の画像が表示されるように手803を移動させる。そして、ハンドラを掴むような手の形を作り、その状態で手を平行移動させたり、手首をひねったりして、ハンドラを平行移動又は回転移動させる。
上述したように、CPU101は、現実空間画像から観察者の手の画像領域を特定し、手の画像領域の形状や位置の変化などに基づいて、観察者の手の形や動きを認識することができる。
例えば、S410において、CPU101が、ハンドラ2012を操作する形を有する手の画像領域が、矢印の方向(図面右方向)へ移動したことを検出したとする。これにより、CPU101は、ハンドラが操作されたと認識し、S411へ処理を進める。
S411において、CPU101は、ハンドラに対しておこなされた操作(種類及び操作量)に応じ、操作対象である仮想物体とハンドラのCGオブジェクトの位置を変更する。これにより、S407において、画像生成部103が生成する合成画像において、仮想物体の操作が反映される。
例えば、S402〜S411の処理を、合成画像の生成レート(例えば30フレーム/秒)に合わせて実行することで、観察者の操作が合成画像にほぼリアルタイムに反映されることになる。
図9は、仮想物体2を回転操作するためのハンドラが表示されている状態の例を示す。平行移動操作用のハンドラ2012(図8)と、回転操作用のハンドラ201’2は、形状が異なる。このように、操作の種類に応じてハンドラを視覚的に異ならせることで、観察者がハンドラの形状等から、ハンドラの用途を直感的に把握することが可能となる。
手首をひねるジェスチャーにより、ハンドラ201’2を操作することで、操作対象である仮想物体2に対し、手首をひねる方向と量に応じた操作量が適用される。
なお、観察者の手の位置や動きを検出可能な任意の方法を用いてハンドラの操作を検出、認識することが可能である。例えば、磁気センサを具備したハンドグローブなどの機器を操作入力部400に具備し、ハンドラの位置、姿勢と、観察者の手の位置、姿勢からハンドラの操作量を測定することもできる。
以上説明したように、本実施形態によれば、仮想物体を操作するための仮想的な操作手段であるハンドラを操作可能に表示することで、観察者が複合現実感を体感しながら、仮想物体を操作することが可能となる。
さらに、体験者が複数の仮想物体群の中の1つの仮想物体の選択、規則的な操作を容易行なうことが可能となる。また、仮想空間中に含まれる多数の仮想物体のうち、観察者の視体積中に占める大きさが予め定めた範囲に含まれる仮想物体に対してハンドラを表示する。これにより、ハンドラの表示が煩雑にならず、観察者は容易に所望の仮想物体に対応するハンドラを把握できる。また、仮想物体と観察者との距離に応じてハンドラが表示される仮想物体が変化するため、観察者は所望の仮想物体の操作に適した距離に移動するだけで、所望の仮想物体に対応するハンドラを識別できる。
また、観察者の手を用いてハンドラを操作することが可能であるため、仮想物体の操作を行なうための操作手段を別途必要としない。そのため、複合現実感のリアリティを損なわずに仮想物体の操作を行なうことが可能となる。
(他の実施形態)
上述の実施形態では、観察者が一人である場合について説明したが、上述したように本実施形態の複合現実感提示システムでは、複数の観察者に対応することが可能である。複数の観察者が存在する場合、ハンドラの表示条件や種類などを共通としても良いし、観察者毎に異ならせてもよい。
上述の実施形態は、システム或は装置のコンピュータ(或いはCPU、MPU等)によりソフトウェア的に実現することも可能である。
従って、上述の実施形態をコンピュータで実現するために、該コンピュータに供給されるコンピュータプログラム自体も本発明を実現するものである。つまり、上述の実施形態の機能を実現するためのコンピュータプログラム自体も本発明の一つである。
なお、上述の実施形態を実現するためのコンピュータプログラムは、コンピュータで読み取り可能であれば、どのような形態であってもよい。例えば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等で構成することができるが、これらに限るものではない。
上述の実施形態を実現するためのコンピュータプログラムは、記憶媒体又は有線/無線通信によりコンピュータに供給される。プログラムを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、磁気テープ等の磁気記憶媒体、MO、CD、DVD等の光/光磁気記憶媒体、不揮発性の半導体メモリなどがある。
有線/無線通信を用いたコンピュータプログラムの供給方法としては、コンピュータネットワーク上のサーバを利用する方法がある。この場合、本発明を形成するコンピュータプログラムとなりうるデータファイル(プログラムファイル)をサーバに記憶しておく。プログラムファイルとしては、実行形式のものであっても、ソースコードであっても良い。
そして、このサーバにアクセスしたクライアントコンピュータに、プログラムファイルをダウンロードすることによって供給する。この場合、プログラムファイルを複数のセグメントファイルに分割し、セグメントファイルを異なるサーバに分散して配置することも可能である。
つまり、上述の実施形態を実現するためのプログラムファイルをクライアントコンピュータに提供するサーバ装置も本発明の一つである。
上述の実施形態は、システム或は装置のコンピュータ(或いはCPU、MPU等)によりソフトウェア的に実現することも可能である。
従って、上述の実施形態をコンピュータで実現するために、該コンピュータに供給されるコンピュータプログラム自体も本発明を実現するものである。つまり、上述の実施形態の機能を実現するためのコンピュータプログラム自体も本発明の一つである。
なお、上述の実施形態を実現するためのコンピュータプログラムは、コンピュータで読み取り可能であれば、どのような形態であってもよい。例えば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等で構成することができるが、これらに限るものではない。
上述の実施形態を実現するためのコンピュータプログラムは、記憶媒体又は有線/無線通信によりコンピュータに供給される。プログラムを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、磁気テープ等の磁気記憶媒体、MO、CD、DVD等の光/光磁気記憶媒体、不揮発性の半導体メモリなどがある。
有線/無線通信を用いたコンピュータプログラムの供給方法としては、コンピュータネットワーク上のサーバを利用する方法がある。この場合、本発明を形成するコンピュータプログラムとなりうるデータファイル(プログラムファイル)をサーバに記憶しておく。プログラムファイルとしては、実行形式のものであっても、ソースコードであっても良い。
そして、このサーバにアクセスしたクライアントコンピュータに、プログラムファイルをダウンロードすることによって供給する。この場合、プログラムファイルを複数のセグメントファイルに分割し、セグメントファイルを異なるサーバに分散して配置することも可能である。
つまり、上述の実施形態を実現するためのプログラムファイルをクライアントコンピュータに提供するサーバ装置も本発明の一つである。
また、上述の実施形態を実現するためのコンピュータプログラムを暗号化して格納した記憶媒体を配布し、所定の条件を満たしたユーザに、暗号化を解く鍵情報を供給し、ユーザの有するコンピュータへのインストールを許可してもよい。鍵情報は、例えばインターネットを介してホームページからダウンロードさせることによって供給することができる。
また、上述の実施形態を実現するためのコンピュータプログラムは、すでにコンピュータ上で稼働するOSの機能を利用するものであってもよい。
さらに、上述の実施形態を実現するためのコンピュータプログラムは、その一部をコンピュータに装着される拡張ボード等のファームウェアで構成してもよいし、拡張ボード等が備えるCPUで実行するようにしてもよい。
本発明の実施形態に係る複合現実感提示システムの構成例を示すブロック図である。 本発明の実施形態に係る複合現実感提示システムにおいて、仮想物体の一例としてのCGで描かれた車203を、平行移動させるための操作用仮想物体201を表示した合成画像の例を示す図である。 本発明の実施形態に係る複合現実感提示システムにおいて利用可能なハンドラ表示の要否判定条件を保存するテーブルの一例を示す図である。 本発明の複合現実感提示システムにおける、仮想物体の操作に関する処理を説明するフローチャートである。 本発明の実施形態に係る複合現実感提示システムにおけるハンドラの表示例を示す図である。 本発明の実施形態に係る複合現実感提示システムにおけるハンドラの表示例を示す図である。 本発明の実施形態に係る複合現実感提示システムにおけるハンドラの表示例を示す図である。 本発明の実施形態に係る複合現実感提示システムにおけるハンドラの表示例を示す図である。 本発明の実施形態に係る複合現実感提示システムにおけるハンドラの表示例を示す図である。

Claims (9)

  1. 観察者の視点位置姿勢に応じて描画した仮想物体を、現実空間もしくは現実空間の撮像画像と重畳表示することにより、前記観察者に複合現実感を体験させる複合現実感提示システムの制御方法であって、
    前記観察者の視点位置姿勢を計測する計測工程と、
    前記計測工程で得られた視点位置姿勢に基づく視体積中に含まれる仮想物体を検出する仮想物体検出工程と、
    前記視体積中に含まれる仮想物体のうち、予め定められた表示条件に当てはまる仮想物体の操作用仮想物体を、描画すべき仮想物体に追加する追加工程とを有することを特徴とする複合現実感提示システムの制御方法。
  2. 前記表示条件が、前記視体積に占める前記仮想物体の大きさに関する範囲として定められることを特徴とする請求項1記載の複合現実感提示システムの制御方法。
  3. 前記追加工程は、前記予め定められた表示条件に当てはまらなくなった仮想物体に対応する前記操作用仮想物体を前記描画すべき仮想物体から削除することを特徴とする請求項1又は請求項2記載の複合現実感提示システムの制御方法。
  4. 前記追加工程は、前記操作用仮想物体の位置を、対応する仮想物体と重ならず、かつ前記観察者が手で操作できる位置に設定することを特徴とする請求項1乃至請求項3のいずれか1項に記載の複合現実感提示システムの制御方法。
  5. 前記操作用仮想物体に対して前記観察者が行なった操作を検出する操作検出工程と、
    前記操作検出工程で検出された操作が、前記操作用仮想物体に対応する仮想物体の描画結果に反映されるように、当該仮想物体の描画属性を変更する変更工程とをさらに有することを特徴とする請求項1乃至請求項4のいずれか1項に記載の複合現実感提示システムの制御方法。
  6. 前記操作検出工程が、前記観察者の視点位置近傍から撮影された画像中に含まれる前記観察者の手の領域に基づいて前記操作を検出することを特徴とする請求項5記載の複合現実感提示システムの制御方法。
  7. 前記表示条件が、前記仮想物体と主観視点間の距離、主観視点の移動速度、又は、主観視点と仮想物体間の相対速度により定められることを特徴とする請求項1に記載の複合現実感提示システムの制御方法。
  8. 観察者の視点位置姿勢に応じて描画した仮想物体を、現実空間もしくは現実空間の撮像画像と重畳表示することにより、前記観察者に複合現実感を体験させる複合現実感提示システムであって、
    前記観察者の視点位置姿勢を計測する計測手段と、
    前記計測手段で得られた視点位置姿勢に基づく視体積中に含まれる仮想物体を検出する仮想物体検出手段と、
    前記視体積中に含まれる仮想物体のうち、予め定められた表示条件に当てはまる仮想物体の操作用仮想物体を、描画すべき仮想物体に追加する追加手段とを有することを特徴とする複合現実感提示システム。
  9. コンピュータに、請求項1乃至請求項7のいずれか1項に記載の複合現実感提示システムの制御方法を実行させるプログラム。
JP2006214881A 2006-08-07 2006-08-07 情報処理装置及びその制御方法、プログラム Expired - Fee Related JP4883774B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2006214881A JP4883774B2 (ja) 2006-08-07 2006-08-07 情報処理装置及びその制御方法、プログラム
US11/782,194 US7834893B2 (en) 2006-08-07 2007-07-24 Mixed-reality presentation system and control method therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006214881A JP4883774B2 (ja) 2006-08-07 2006-08-07 情報処理装置及びその制御方法、プログラム

Publications (3)

Publication Number Publication Date
JP2008040832A true JP2008040832A (ja) 2008-02-21
JP2008040832A5 JP2008040832A5 (ja) 2009-09-24
JP4883774B2 JP4883774B2 (ja) 2012-02-22

Family

ID=39028675

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006214881A Expired - Fee Related JP4883774B2 (ja) 2006-08-07 2006-08-07 情報処理装置及びその制御方法、プログラム

Country Status (2)

Country Link
US (1) US7834893B2 (ja)
JP (1) JP4883774B2 (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010107072A1 (ja) * 2009-03-18 2010-09-23 ブラザー工業株式会社 ヘッドマウントディスプレイ
JP2011008350A (ja) * 2009-06-23 2011-01-13 Canon Inc 画像処理方法及び画像処理装置
JP2011198150A (ja) * 2010-03-19 2011-10-06 Fujifilm Corp ヘッドマウント型拡張現実映像提示装置及びその仮想表示物操作方法
JP2012048568A (ja) * 2010-08-27 2012-03-08 Canon Inc 情報処理装置及び方法
JP2013105330A (ja) * 2011-11-14 2013-05-30 Konica Minolta Business Technologies Inc 制御処理プログラム、画像表示装置、および画像表示方法
JP2014182719A (ja) * 2013-03-21 2014-09-29 Yasuaki Iwai 仮想現実提示システム、仮想現実提示方法
US9377858B2 (en) 2009-10-27 2016-06-28 Samsung Electronics Co., Ltd. Three-dimensional space interface apparatus and method
JP2016530600A (ja) * 2013-06-18 2016-09-29 マイクロソフト テクノロジー ライセンシング,エルエルシー 多ステップ仮想オブジェクト選択
JP2017004457A (ja) * 2015-06-16 2017-01-05 株式会社ファイン 仮想現実表示システム、仮想現実表示方法及びコンピュータプログラム
JP2017117259A (ja) * 2015-12-25 2017-06-29 キヤノンマーケティングジャパン株式会社 情報処理システム、その制御方法、及びプログラム
JP2018163692A (ja) * 2014-05-13 2018-10-18 ナント・ホールデイングス・アイ・ピー・エル・エル・シー アルベドモデルにより拡張現実コンテンツをレンダリングするシステムおよび方法
JPWO2021166973A1 (ja) * 2020-02-19 2021-08-26

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
NL1035303C2 (nl) * 2008-04-16 2009-10-19 Virtual Proteins B V Interactieve virtuele reality eenheid.
US8090561B1 (en) * 2008-08-14 2012-01-03 Jai Shin System and method for in situ display of a virtual wheel on a wheeled vehicle
KR101520746B1 (ko) * 2009-01-07 2015-05-15 삼성전자주식회사 입력 장치 및 디스플레이 장치
US9256282B2 (en) * 2009-03-20 2016-02-09 Microsoft Technology Licensing, Llc Virtual object manipulation
US8509479B2 (en) 2009-05-29 2013-08-13 Microsoft Corporation Virtual object
US8558759B1 (en) * 2011-07-08 2013-10-15 Google Inc. Hand gestures to signify what is important
JP5832666B2 (ja) * 2011-12-20 2015-12-16 インテル・コーポレーション 複数のデバイスにまたがる拡張現実表現
US9141194B1 (en) 2012-01-04 2015-09-22 Google Inc. Magnetometer-based gesture sensing with a wearable device
JP6099948B2 (ja) * 2012-11-28 2017-03-22 京セラ株式会社 電子機器及び制御プログラム並びに表示制御方法
US9630105B2 (en) * 2013-09-30 2017-04-25 Sony Interactive Entertainment Inc. Camera based safety mechanisms for users of head mounted displays
CN107972491A (zh) * 2013-10-09 2018-05-01 麦格纳覆盖件有限公司 对车窗显示的控制
KR20160024168A (ko) * 2014-08-25 2016-03-04 삼성전자주식회사 전자 장치의 디스플레이 제어 방법 및 전자 장치
CN104407696B (zh) * 2014-11-06 2016-10-05 北京京东尚科信息技术有限公司 移动设备的虚拟球模拟及控制的方法
WO2017090464A1 (ja) * 2015-11-25 2017-06-01 日本精機株式会社 ヘッドアップディスプレイ
DE102015226580A1 (de) * 2015-12-22 2017-06-22 Audi Ag Verfahren zum Betreiben eines Virtual-Reality-Systems und Virtual-Reality-System
US10140776B2 (en) * 2016-06-13 2018-11-27 Microsoft Technology Licensing, Llc Altering properties of rendered objects via control points
EP3324270A1 (en) 2016-11-16 2018-05-23 Thomson Licensing Selection of an object in an augmented reality environment
KR20180058097A (ko) * 2016-11-23 2018-05-31 삼성전자주식회사 이미지를 표시하는 전자 장치 및 그 제어 방법
US20210034318A1 (en) * 2019-07-31 2021-02-04 Vspatial, Inc. Shared volume computing architecture of a virtual reality environment and related systems and methods

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH075978A (ja) * 1993-06-18 1995-01-10 Sony Corp 入力装置
JPH08101758A (ja) * 1994-09-30 1996-04-16 Toshiba Corp 仮想空間内のデータ操作装置
JP2558984B2 (ja) * 1991-03-12 1996-11-27 松下電器産業株式会社 3次元情報会話システム
JP2003296759A (ja) * 2002-03-29 2003-10-17 Canon Inc 情報処理方法および装置
JP2005107963A (ja) * 2003-09-30 2005-04-21 Canon Inc 三次元cg操作方法および装置
JP2005107972A (ja) * 2003-09-30 2005-04-21 Canon Inc 複合現実感提示方法、複合現実感提示装置
JP2006127158A (ja) * 2004-10-28 2006-05-18 Canon Inc 画像処理方法、画像処理装置
JP2006146584A (ja) * 2004-11-19 2006-06-08 Canon Inc 画像提示方法及び情報処理装置

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB8725033D0 (en) * 1987-10-26 1987-12-02 Crosfield Electronics Ltd Interactive image display
US5335557A (en) * 1991-11-26 1994-08-09 Taizo Yasutake Touch sensitive input control device
US5483261A (en) * 1992-02-14 1996-01-09 Itu Research, Inc. Graphical input controller and method with rear screen image detection
US5396590A (en) * 1992-09-17 1995-03-07 Apple Computer, Inc. Non-modal method and apparatus for manipulating graphical objects
US6421048B1 (en) * 1998-07-17 2002-07-16 Sensable Technologies, Inc. Systems and methods for interacting with virtual objects in a haptic virtual reality environment
JP3363837B2 (ja) 1999-06-11 2003-01-08 キヤノン株式会社 ユーザインタフェース装置および情報処理方法
JP2000350865A (ja) 1999-06-11 2000-12-19 Mr System Kenkyusho:Kk 複合現実空間のゲーム装置、その画像処理方法およびプログラム記憶媒体
US6771294B1 (en) * 1999-12-29 2004-08-03 Petri Pulli User interface
JP3363861B2 (ja) 2000-01-13 2003-01-08 キヤノン株式会社 複合現実感提示装置及び複合現実感提示方法並びに記憶媒体
JP3517639B2 (ja) 2000-09-27 2004-04-12 キヤノン株式会社 複合現実感提示装置及びその方法並びに記憶媒体
JP3631151B2 (ja) 2000-11-30 2005-03-23 キヤノン株式会社 情報処理装置、複合現実感提示装置及びその方法並びに記憶媒体
JP2003296757A (ja) 2002-03-29 2003-10-17 Canon Inc 情報処理方法および装置
US20070035562A1 (en) * 2002-09-25 2007-02-15 Azuma Ronald T Method and apparatus for image enhancement
US20040095311A1 (en) * 2002-11-19 2004-05-20 Motorola, Inc. Body-centric virtual interactive apparatus and method
US20060181519A1 (en) * 2005-02-14 2006-08-17 Vernier Frederic D Method and system for manipulating graphical objects displayed on a touch-sensitive display surface using displaced pop-ups
US7773098B2 (en) * 2005-05-11 2010-08-10 Canon Kabushiki Kaisha Virtual reality presentation apparatus and method
CA2621191C (en) * 2005-08-29 2012-12-18 Evryx Technologies, Inc. Interactivity via mobile image recognition

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2558984B2 (ja) * 1991-03-12 1996-11-27 松下電器産業株式会社 3次元情報会話システム
JPH075978A (ja) * 1993-06-18 1995-01-10 Sony Corp 入力装置
JPH08101758A (ja) * 1994-09-30 1996-04-16 Toshiba Corp 仮想空間内のデータ操作装置
JP2003296759A (ja) * 2002-03-29 2003-10-17 Canon Inc 情報処理方法および装置
JP2005107963A (ja) * 2003-09-30 2005-04-21 Canon Inc 三次元cg操作方法および装置
JP2005107972A (ja) * 2003-09-30 2005-04-21 Canon Inc 複合現実感提示方法、複合現実感提示装置
JP2006127158A (ja) * 2004-10-28 2006-05-18 Canon Inc 画像処理方法、画像処理装置
JP2006146584A (ja) * 2004-11-19 2006-06-08 Canon Inc 画像提示方法及び情報処理装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
清川清, 外4名: ""仮想物体の組み立て作業を支援する操作手法"", 情報処理学会研究報告, vol. 第95巻, 第104号, JPN6011048230, 2 November 1995 (1995-11-02), JP, pages 19 - 24, ISSN: 0002082766 *

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010218405A (ja) * 2009-03-18 2010-09-30 Brother Ind Ltd ヘッドマウントディスプレイ
WO2010107072A1 (ja) * 2009-03-18 2010-09-23 ブラザー工業株式会社 ヘッドマウントディスプレイ
JP2011008350A (ja) * 2009-06-23 2011-01-13 Canon Inc 画像処理方法及び画像処理装置
US8994729B2 (en) 2009-06-23 2015-03-31 Canon Kabushiki Kaisha Method for simulating operation of object and apparatus for the same
US9880698B2 (en) 2009-10-27 2018-01-30 Samsung Electronics Co., Ltd. Three-dimensional space interface apparatus and method
US9377858B2 (en) 2009-10-27 2016-06-28 Samsung Electronics Co., Ltd. Three-dimensional space interface apparatus and method
JP2011198150A (ja) * 2010-03-19 2011-10-06 Fujifilm Corp ヘッドマウント型拡張現実映像提示装置及びその仮想表示物操作方法
JP2012048568A (ja) * 2010-08-27 2012-03-08 Canon Inc 情報処理装置及び方法
US9261953B2 (en) 2010-08-27 2016-02-16 Canon Kabushiki Kaisha Information processing apparatus for displaying virtual object and method thereof
JP2013105330A (ja) * 2011-11-14 2013-05-30 Konica Minolta Business Technologies Inc 制御処理プログラム、画像表示装置、および画像表示方法
JP2014182719A (ja) * 2013-03-21 2014-09-29 Yasuaki Iwai 仮想現実提示システム、仮想現実提示方法
JP2016530600A (ja) * 2013-06-18 2016-09-29 マイクロソフト テクノロジー ライセンシング,エルエルシー 多ステップ仮想オブジェクト選択
JP2018163692A (ja) * 2014-05-13 2018-10-18 ナント・ホールデイングス・アイ・ピー・エル・エル・シー アルベドモデルにより拡張現実コンテンツをレンダリングするシステムおよび方法
US10685498B2 (en) 2014-05-13 2020-06-16 Nant Holdings Ip, Llc Augmented reality content rendering via albedo models, systems and methods
US11176754B2 (en) 2014-05-13 2021-11-16 Nant Holdings Ip, Llc Augmented reality content rendering via albedo models, systems and methods
US11710282B2 (en) 2014-05-13 2023-07-25 Nant Holdings Ip, Llc Augmented reality content rendering via Albedo models, systems and methods
JP2017004457A (ja) * 2015-06-16 2017-01-05 株式会社ファイン 仮想現実表示システム、仮想現実表示方法及びコンピュータプログラム
JP2017117259A (ja) * 2015-12-25 2017-06-29 キヤノンマーケティングジャパン株式会社 情報処理システム、その制御方法、及びプログラム
JPWO2021166973A1 (ja) * 2020-02-19 2021-08-26
JP7425178B2 (ja) 2020-02-19 2024-01-30 ファナック株式会社 産業機械の操作システム
US11989841B2 (en) 2020-02-19 2024-05-21 Fanuc Corporation Operation system for industrial machinery

Also Published As

Publication number Publication date
US7834893B2 (en) 2010-11-16
JP4883774B2 (ja) 2012-02-22
US20080030499A1 (en) 2008-02-07

Similar Documents

Publication Publication Date Title
JP4883774B2 (ja) 情報処理装置及びその制御方法、プログラム
US7952594B2 (en) Information processing method, information processing apparatus, and image sensing apparatus
JP4739002B2 (ja) 画像処理方法、画像処理装置
JP4227561B2 (ja) 画像処理方法、画像処理装置
JP4533087B2 (ja) 画像処理方法、画像処理装置
JP4777182B2 (ja) 複合現実感提示装置及びその制御方法、プログラム
EP1404126B1 (en) Video combining apparatus and method
JP4642538B2 (ja) 画像処理方法および画像処理装置
US10007351B2 (en) Three-dimensional user interface device and three-dimensional operation processing method
JP2000102036A (ja) 複合現実感提示システム、複合現実感提示方法、マン・マシーンインタフェース装置、およびマン・マシーンインタフェース方法
JP7182920B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP2009025918A (ja) 画像処理装置、画像処理方法
JP2013029958A (ja) 情報処理装置、情報処理方法、及びプログラム
JP2006285609A (ja) 画像処理方法、画像処理装置
IL294397B1 (en) Creating a new frame using processed and unprocessed content from a previous perspective
US20220172439A1 (en) Head-mounted information processing apparatus and head-mounted display system
JP2016122392A (ja) 情報処理装置、情報処理システム、その制御方法及びプログラム
JP4574323B2 (ja) 画像処理方法、画像処理装置
JP2022058753A (ja) 情報処理装置、情報処理方法及びプログラム
JP2005339266A (ja) 情報処理方法、情報処理装置、撮像装置
JP2008217119A (ja) システム、画像処理装置、画像処理方法
JP2005025563A (ja) 仮想現実感生成方法
JP4217661B2 (ja) 画像処理方法、画像処理装置
JP2005251118A (ja) 画像処理方法、画像処理装置
JP3413145B2 (ja) 仮想空間の編集方法及び仮想空間の編集装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090805

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090805

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110825

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110912

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111202

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111205

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141216

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4883774

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141216

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees