JP2007042073A - 映像提示システム、映像提示方法、該映像提示方法をコンピュータに実行させるためのプログラム、および記憶媒体 - Google Patents

映像提示システム、映像提示方法、該映像提示方法をコンピュータに実行させるためのプログラム、および記憶媒体 Download PDF

Info

Publication number
JP2007042073A
JP2007042073A JP2006162577A JP2006162577A JP2007042073A JP 2007042073 A JP2007042073 A JP 2007042073A JP 2006162577 A JP2006162577 A JP 2006162577A JP 2006162577 A JP2006162577 A JP 2006162577A JP 2007042073 A JP2007042073 A JP 2007042073A
Authority
JP
Japan
Prior art keywords
display device
video
input
virtual space
instruction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006162577A
Other languages
English (en)
Other versions
JP4933164B2 (ja
JP2007042073A5 (ja
Inventor
Sonoko Maeda
その子 前田
Kazuki Takemoto
和樹 武本
Yasuo Katano
康生 片野
Takeshi Kuroki
剛 黒木
Yasuhiro Okuno
泰弘 奥野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2006162577A priority Critical patent/JP4933164B2/ja
Priority to US11/476,462 priority patent/US8139087B2/en
Publication of JP2007042073A publication Critical patent/JP2007042073A/ja
Publication of JP2007042073A5 publication Critical patent/JP2007042073A5/ja
Application granted granted Critical
Publication of JP4933164B2 publication Critical patent/JP4933164B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/024Multi-user, collaborative environment

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Theoretical Computer Science (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Digital Computer Display Output (AREA)
  • Position Input By Displaying (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】第1の表示装置の映像を観測しているユーザが、当該映像を観測しながら、第2の表示装置の映像を見ているユーザから第1の表示装置の映像を観測しているユーザに対して送られた指示を、認識することができる映像提示システムおよび映像提示方法を提供する。
【解決手段】映像提示システムにおいては、入力装置105を介して表示装置104のHMD非装着者からHMD装着者(HMD101の装着者)への指示が入力されると、三次元描画装置102は、HMD101に表示する仮想空間映像を、入力装置104を介して入力されたHMD非装着者からHMD装着者への指示が反映されている映像となるように描画する。この描画されたCG映像は、映像合成装置103において、HMD101の撮像部が撮影した映像と合成された後に、HMD101および表示装置104に送出される。
【選択図】図1

Description

本発明は、ユーザに映像を提示するための第1の表示装置および前記第1の表示装置の
ユーザとは異なるユーザ(指示者)に映像を提示するための第2の表示装置を用いる映像提示システム、映像提示方法、該映像提示方法をコンピュータに実行させるためのプログラム、および記憶媒体に関する。
VR(バーチャルリアリティ)システムは、コンピュータにより作り出された三次元C
G(Computer Graphic)映像をユーザに提示することにより、仮想空間をあたかも現実空
間であるかのように感じさせるシステムである。
また、近年、現実空間の映像に三次元CGアニメーションを合成することにより、現実
空間にはない情報をユーザに提示する技術が開発されており、このような技術は、MR(
Mixed Reality:複合現実感)システムと呼ばれている。このMRシステムは、現実空間
と切り離された状況のみにおいて体験することが可能であった仮想空間と現実空間との共
存を目的とし、仮想空間を増強する技術として注目されている。
仮想空間と現実空間とを共存させるためのシステム(VR/MRシステム)を実現する
代表的な装置として、ヘッドマウントディスプレイ(HMD)がある。VR/MRシステ
ムにおいては、HMDに仮想空間や現実空間を表示することにより、HMDを装着したユ
ーザに対して仮想空間および複合現実空間を提示することができる(例えば特許文献1参
照)。
このようなVR/MRシステムは、HMDを装着したユーザのみに対して仮想空間およ
び複合現実空間を提示する。そのため、HMDを装着するユーザに提示されている仮想空
間/複合現実空間を、HMDを装着していないユーザに対して提示するためには、HMD
に表示されている映像(主観映像)を分配し、別画面に表示する必要がある。
特開2002−159019号公報
HMD装着者が見ている主観映像を、別画面に表示し、HMD非装着者に提示する場面
、HMD非装着者がHMD装着者に対して指示をしたい場面がある。これは、例えば、H
MD非装着者が別画面上の一部分を指し、この部分をさらに詳しく見たいので、HMD装
着者に対して指した部分に近寄って見てほしい、などと指示する場面などである。しかし
、HMD非装着者が別画面の一部を指示しても、HMDに表示される映像には変化が生じ
ないため、HMD装着者は、それを感知することができない。また、HMD装着者が視線
を別画面の方向へ向けてHMD非装着者の指示内容を確認しようとしても、その瞬間に別
画面に表示される画面は変化し、HMD装着者が別画面を見てHMD非装着者の指示内容
を確認することはできない。
また、HMD装着者が見ている主観映像を、別画面に表示し、HMD非装着者に提示す
る場面において、HMD装着者の頭部が揺れると、これに合わせて別画面に表示されてい
る画面が揺れ、HMD非装着者にとっては見づらい画面になることがある。これを避ける
ためには、HMD装着者が頭部を静止させるなどとして視点を固定する必要があり、HM
D装着者に負担を強いることになる。
本発明の目的は、第1の表示装置の映像を観測しているユーザが、当該映像を観測しな
がら、第2の表示装置の映像を見ているユーザから第1の表示装置の映像を観測している
ユーザに対して送られた指示を、認識することができる映像提示システム、映像提示方法、該映像提示方法をコンピュータに実行させるためのプログラム、および記憶媒体を提供することにある。
上記目的を達成するために、本発明の映像提示システムは、位置および姿勢を検出する検出手段を有し、ユーザに映像を提示するための第1の表示装置と、前記ユーザへ指示を出す指示者に映像を提示するための第2の表示装置と、前記第1の表示装置の位置姿勢に対応する視点での仮想空間映像を描画し、該仮想空間映像を前記第1の表示装置および前記第2の表示装置に表示する描画装置と、前記指示者から前記ユーザへの指示を入力するための入力装置とを備え、前記描画装置は、前記入力装置を介して前記指示者から前記ユーザへの指示が入力された場合、前記第1の表示装置に表示する仮想空間映像を、前記入力装置を介して入力された前記指示者から前記ユーザへの指示が反映されている映像となるように描画することを特徴とする。
上記目的を達成するために、本発明の映像提示システムは、位置および姿勢を検出する検出手段を有し、ユーザに映像を提示するための第1の表示装置と、前記第1の表示装置の位置姿勢に対応する視点での仮想空間映像を描画し、該仮想空間映像を前記第1の表示装置に表示する第1の描画装置と、第3者視点の映像を取得するための撮像装置と、前記撮像装置の位置姿勢に対応する視点での仮想空間映像を描画し、該仮想空間映像を生成する第2の描画装置と、前記ユーザへ指示を出す指示者に前記第2の描画装置で生成された仮想空間映像を提示するための第2の表示装置と、前記指示者から前記ユーザへの指示を入力するための入力装置とを備え、前記第1の描画装置は、前記入力装置を介して前記指示者から前記ユーザへの指示が入力された場合、前記第1の表示装置に表示する仮想空間映像を、前記入力装置を介して入力された前記指示者から前記ユーザへの指示が反映されている映像となるように描画することを特徴とする。
上記目的を達成するために、本発明の映像提示システムは、ユーザに映像を提示するための第1の表示装置と、前記第1の表示装置の位置および姿勢を検出する検出手段と、前記ユーザに指示を出す指示者に映像を提示するための第2の表示装置と、前記検出手段により検出した位置姿勢に基づいて仮想空間映像を描画し、該仮想空間映像を前記第1の表示装置および前記第2の表示装置に表示する描画装置と、前記第2の表示装置に表示されている前記仮想空間映像の位置を指示するための入力装置とを備え、前記描画装置は、前記入力装置を介して前記第2の表示装置に表示されている前記仮想空間映像の位置が指示された場合、前記第1の表示装置に表示する仮想空間映像を、前記入力装置を介して入力された前記指示が反映された映像となるように描画することを特徴とする。
上記目的を達成するために、本発明の映像提示システムは、ユーザに映像を提示するための第1の表示装置と、前記第1の表示装置の位置および姿勢を検出する検出手段と、
前記ユーザに指示を出す指示者に映像を提示するための第2の表示装置と、第3者視点の映像を取得するための撮像装置と、前記検出手段により検出した位置姿勢に基づいて仮想空間映像を描画し、該仮想空間映像を前記第1の表示装置に表示する第1の描画装置と、前記撮像装置の位置姿勢に基づいて仮想空間映像を描画し、該仮想空間映像を前記第2の表示装置に表示する第2の描画装置と、前記第2の表示装置に表示されている前記仮想空間映像の位置を指示するための入力装置とを備え、前記第1の描画装置は、前記入力装置を介して前記第2の表示装置に表示されている前記仮想空間映像の位置が指示された場合、前記第1の表示装置に表示する仮想空間映像を、前記入力装置を介して入力された指示が反映された映像となるように描画することを特徴とする。
上記目的を達成するために、本発明の映像提示方法は、位置および姿勢を検出する検出手段を有し、ユーザに映像を提示するための第1の表示装置および前記ユーザに指示を出す指示者に映像を提示するための第2の表示装置を用いる映像提示方法であって、前記第1の表示装置の位置姿勢に対応する視点での仮想空間映像を描画し、該仮想空間映像を前記第1の表示装置および前記第2の表示装置に表示する描画工程と、前記指示者から前記ユーザへの指示を入力するための入力工程とを有し、前記描画工程では、前記入力工程で前記指示者から前記ユーザへの指示が入力された場合、前記第1の表示装置に表示する仮想空間映像を、前記入力工程で入力された前記指示者から前記ユーザへの指示が反映されている映像となるように描画することを特徴とする。
上記目的を達成するために、本発明の映像提示方法は、位置および姿勢を検出する検出手段を有し、ユーザに映像を提示するための第1の表示装置と、前記ユーザへ指示を出す指示者に映像を提示するための第2の表示装置と、第3者視点の映像を取得するための撮像装置とを用いる映像提示方法であって、前記第1の表示装置の位置姿勢に対応する視点での仮想空間映像を描画し、該仮想空間映像を前記第1の表示装置に表示する第1の描画工程と、前記撮像装置の位置姿勢に対応する視点での仮想空間映像を描画し、該仮想空間映像を前記第2の表示装置に表示する第2の描画工程と、前記指示者から前記ユーザへの指示を入力するための入力工程とを有し、前記第1の描画工程では、前記入力工程で前記指示者から前記ユーザへの指示が入力された場合、前記第1の表示装置に表示する仮想空間映像を、前記入力工程で入力された前記指示者から前記ユーザへの指示が反映されている映像となるように描画することを特徴とする。
上記目的を達成するために、本発明の映像提示方法は、ユーザに映像を提示するための第1の表示装置の位置および姿勢を検出する検出ステップと、前記検出ステップにより検出した位置姿勢に基づいて仮想空間映像を描画する描画ステップと、前記仮想空間映像を前記第1の表示装置と、前記ユーザに指示を出す指示者に映像を提示するための第2の表示装置に表示する表示ステップと、前記第2の表示装置に表示されている前記仮想空間映像の位置を指示するための入力ステップとを備え、前記描画ステップは、前記入力ステップにより前記第2の表示装置に表示されている前記仮想空間映像の位置が指示された場合、前記第1の表示装置に表示する仮想空間映像を、前記入力ステップにより入力された前記指示が反映された映像となるように描画することを特徴とする。
上記目的を達成するために、本発明の映像提示方法をコンピュータに実行させるためのプログラムは、位置および姿勢を検出する検出手段を有し、ユーザに映像を提示するための第1の表示装置および前記ユーザに指示を出す指示者に映像を提示するための第2の表示装置を用いる映像提示システムを制御するためのプログラムであって、前記第1の表示装置の位置姿勢に対応する視点での仮想空間映像を描画し、該仮想空間映像を前記第1の表示装置および前記第2の表示装置に表示する描画モジュールと、前記指示者から前記ユーザへの指示を入力するための少なくとも1つの入力モジュールとを有し、前記描画モジュールは、前記入力モジュールにより前記指示者から前記ユーザへの指示が入力された場合、少なくとも、前記第1の表示装置に表示する仮想空間映像を、前記入力モジュールを介して入力された前記指示者から前記ユーザへの指示が反映されている映像となるように描画することを特徴とする。
上記目的を達成するために、本発明の映像提示方法をコンピュータに実行させるためのプログラムは、ユーザに映像を提示するための第1の表示装置の位置および姿勢を検出する検出モジュールと、前記検出モジュールにより検出した位置姿勢に基づいて仮想空間映像を描画する描画モジュールと、前記仮想空間映像を前記第1の表示装置と、前記ユーザに指示を出す指示者に映像を提示するための第2の表示装置に表示する表示モジュールと、前記第2の表示装置に表示されている前記仮想空間映像の位置を指示するための入力モジュールとを備え、前記描画モジュールは、前記入力モジュールにより前記第2の表示装置に表示されている前記仮想空間映像の位置が指示された場合、前記第1の表示装置に表示する仮想空間映像を、前記入力モジュールにより入力された前記指示が反映された映像となるように描画することを特徴とする。
上記目的を達成するために、本発明の記憶媒体は、上記プログラムをコンピュータ読み取り可能に格納したことを特徴とする。
本発明によれば、第1の表示装置の映像を観測しているユーザが、当該映像を観測しな
がら、第2の表示装置の映像を見ているユーザ(指示者)から第1の表示装置の映像を観測しているユーザに対して送られた指示を、認識することができる。
以下、本発明の実施の形態について図面を参照しながら説明する。
(第1の実施の形態)
図1は、本発明の第1の実施の形態に係る映像提示システムの構成を示すブロック図で
ある。
映像提示システムは、図1に示すように、HMD101と、三次元CG描画装置102
と、映像合成装置103と、表示装置104と、入力装置105とを備える。
HMD101は、撮像部、1対の表示部、およびセンサ部(図示せず)を有する。撮像
部は、HMD装着者の視点から見た映像を撮影する。この撮影された映像は、映像合成装
置103に送出される。1対の表示部は、装着者の左右の目の前にそれぞれ配置され、映
像合成装置103から送出された映像を表示する。ここで、左右の表示部には、1つの撮
像部で撮影された同一の映像が表示されようにしてもよいし、また、2つの撮像部でそれ
ぞれ撮影された左右で視差の異なる映像が表示されるようにしてもよい。ここで、左右で
視差の異なる映像を表示する場合、左右の目のそれぞれ用として、2つの三次元CG描画
装置および2つの映像合成装置を設ける必要がある。
センサ部は、HMD101の位置および姿勢を検出し、検出された位置および姿勢を示
す位置姿勢情報を三次元CG描画装置102に送出する。センサ部は、HMD101の位
置および姿勢を検出可能なものであれば、その検出構成は、限定されることはない。例え
ば、センサ部として、磁気センサから構成されるものを用いることができる。また、HM
D101の外部に光学センサを設け、この光学センサの出力によりHMD101の位置お
よび姿勢を検出するようにしてもよい。また、映像合成装置103がHMD101から送
出された映像に基づいてHMD101の位置姿勢を計算することによって、HMD101
の位置および姿勢を検出するようにしてもよい。
三次元CG描画装置102は、内部に仮想世界の情報を保持し、HMD101から送出
される位置姿勢情報に基づいて、HMD101の位置から見える仮想世界のCG映像を描
画し、描画されたCG映像を映像合成装置103に送出する。三次元CG描画装置102
は、例えばコンピュータから構成される。
映像合成装置103は、HMD101から送出された映像と三次元CG描画装置102
から送出されたCG映像を合成し、合成映像を生成する。生成された合成映像は、HMD
101および表示装置104に送出される。なお、HMD101に視差の異なる映像が送
出される場合、表示装置104には、右眼用或は左眼用の映像の何れか一方が表示される
ことになる。映像合成装置103は、例えば映像キャプチャカードを備えたコンピュータ
から構成される。また、この映像合成装置103を構成するコンピュータは、三次元CG
描画装置102を構成するコンピュータと兼ねるようにしてもよい。
表示装置104は、映像合成装置103から送出された合成映像をHMD非装着者に提
示するために、当該合成映像を表示する。表示装置104は、例えば液晶ディスプレイか
ら構成される。
入力装置105は、HMD非装着者がHMD装着に指示するための入力操作を入力し、
この入力操作に応じた入力情報を三次元CG描画装置102に送出する。入力装置105
は、例えば表示装置104の画面上に貼り付けられたタッチパネルなどから構成される。
次に、本映像提示システムの処理について図2を参照しながら説明する。
図2は、図1の映像提示システムの処理手順を示すフローチャートである。図2に示す
フローチャートには、三次元CG描画装置102および映像合成装置103のそれぞれに
より、それぞれの内部に格納されているプログラムに従って実行される手順が含まれてい
る。
まず、本映像提示システムにおいては、まずステップS1において、三次元CG描画装
置102がHMD101の位置姿勢情報を取得する。続いて、ステップS2において、三
次元CG描画装置102は、入力装置105を介して入力されたHMD非装着者による入
力操作に対応する入力情報を受け取る。本実施の形態においては、入力装置105が表示
装置104の画面に付けられたタッチパネルから構成されるので、この入力操作は、HM
D非装着者の手によって表示装置104の画面上の所望の位置に触れることによって行わ
れる。この場合、三次元CG描画装置102は、画面上のHMD非装着者の手が触れた位
置の座標値を取得することになる。
次いで、ステップS3において、三次元CG描画装置102は、内部に保持する仮想世
界の情報およびHMD101から得られたHMD101の位置姿勢情報に基づいて、HM
D101の位置から見た仮想世界のCG映像をHMD101の画面に描画する。また、三
次元CG描画装置102は、入力装置105から得られた座標値に基づいて、その座標値
が示す位置に対応する仮想世界における三次元的な位置を求める。このとき、与えられた
座標値が示す位置に対応する仮想世界における三次元的な位置を求めるための方法として
は、次の通りである。例えば、視点位置を始点とし、得られた座標値の方向に向けて伸び
る仮想の光線を設定し、その光線が仮想世界に存在する物と最初に交差する点を、得られ
た座標値に対応する三次元的な位置として求める方法がある。そして、このようにして求
められた位置にCG映像が描画され、描画されたCG映像は、映像合成装置103に送出
される。
次いで、ステップS4において、映像合成装置103は、HMD101からその撮像部
が撮影した映像を取得し、この取得した映像と三次元CG描画装置102からのCG映像
とを合成する。この合成映像は、HMD101および表示装置104へ送出される。
続くステップS5において、HMD101および表示装置104は、上記合成映像を表
示する。これにより、HMD101の装着者は、HMD101の非装着者が指示した位置
を確認することができる。ここで、HMD101の表示部が左右で視差の異なる映像を表
示している場合、装着者はステレオ視によりポインタオブジェクト601(図6等参照、
詳細は後述する)の位置を三次元的に認識することができる。また、表示装置104を見
ているHMD非装着者は、自分の手で指した位置にオブジェクト例えばポインタオブジェ
クト601(図6等参照。詳細は後述する)が表示されているのを確認することができる
次に、本映像提示システムの表示例について図3〜図7を参照しながら説明する。図3
は、HMD装着者301が仮想の自動車302を観察している状態を示す図である。図4
は、表示装置104の画面401に表示されているHMD装着者の主観映像の一例を示す
図である。図5は、HMD非装着者による入力操作状態の一例を示す図である。図6は、
HMD101に表示される映像の一例を示す図である。図7は、表示装置104に表示される映像の一例を示す図である。
ここでは、図3に示すように、HMD101を装着したHMD装着者301が仮想の自
動車302の観察を行う場合を説明する。この場合、図4に示すように、HMD装着者3
01に提示される主観映像と同じ画像が表示装置104の画面401に表示される。そし
て、HMD非装着者は、画面401を見てHMD装着者に対して指示を出すことができる
例えば、HMD非装着者が表示装置104の画面401を見て、自動車302の所望の
部位を確認したいとき、図5に示すように、HMD非装着者は、画面401に表示されて
いる自動車302の確認したい部位を自分の手501で直接触れる。このHMD非装着者
の手501が触れた位置は、入力装置105を介して、座標値として、三次元CG描画装
置102に入力される(図2のステップS2)。三次元CG描画装置102は、入力装置
105から得られた座標値に基づいて、前述のように、その座標値が示す位置に対応する
仮想世界上の位置を求める。そして、三次元CG描画装置102は、保持する仮想世界の
情報、HMD101から得られたHMD101の位置姿勢情報に基づいて、例えば図6に
示すようなHMD101の位置から見た仮想世界のCG映像を描画する(図2のステップ
S3)。この描画されたCG映像は、仮想世界上の求められた位置にポイントオブジェク
ト601と、ポインタオブジェクト601の位置を始点とする引き出し線602と、引き
出し線602の末端にある注釈文字オブジェクト603とを含む。これらのオブジェクト
を含むCG映像は、映像合成装置103に送出される。
映像合成装置103は、HMD101の撮像部が撮影した映像と三次元CG描画装置1
02からのCG映像とを合成し(図2のステップS4)、この合成映像はHMD101お
よび表示装置104に送出される。
HMD101の表示部には、図6に示す映像が表示される(図2のステップS5)。こ
れにより、HMD装着者301は、上記映像を見て、HMD非装着者が指示する位置を確
認することができる。ここで、HMD101の表示部が左右で視差の異なる映像を表示す
る場合、HMD装着者301は、ステレオ視によりポインタオブジェクト601の位置を
三次元的に認識することができる。また、表示装置104には、図7に示すような映像が
表示される(図2のステップS5)。これにより、HMD非装着者は、自分の手501で
指した位置にポインタオブジェクト601が表示されていることを確認することができる
このように、本実施の形態によれば、HMD装着者が観察する映像を、HMD非装着者
が見ることができ、さらにその映像を観察するHMD装着者に対して指示を送ることがで
きる。さらに、HMD装着者は、視点を動かすことなく、観察する映像から、HMD非装
着者による指示内容を認識することができる。
なお、本実施の形態においては、表示装置104および入力装置105の設置数を1つ
としているが、複数の表示装置および入力装置を設置するようにしてもよい。この場合、
HMD装着者は、それぞれの入力装置で指示された位置が合成されて映像を確認すること
になる。なお、それぞれの表示装置は、対応する入力装置から入力した位置のみを表示し
ても、他の入力装置から入力された位置を合成表示してもよい。更に、これらを切り替え
られるようにしてもよい。
(第2の実施の形態)
次に、本発明の第2の実施の形態について図8〜図12を参照しながら説明する。図8
は、本発明の第2の実施の形態に係る映像提示システムの構成を示すブロック図である。
図9は、図8の映像提示システムの処理手順を示すフローチャートである。図10は、H
MD装着者301が移動して仮想の自動車302に対する観察位置を変更した状態を示す
図である。図11は、表示装置104に表示される映像の一例を示す図である。図12は
、HMD101に表示される映像の一例を示す図である。
本実施の形態は、上記第1の実施の形態に対し、HMD装着者が観察している所望の時
点での映像を静止画としてキャプチャし、キャプチャされた静止画をHMD非装着者が見
ている画面に提示する機能を有する点で異なる。
本実施の形態には、図8に示すように、上記第1の実施の形態の構成に対して、キャプ
チャ決定ボタン801、キャプチャキャンセルボタン802および二次元CG描画装置8
03が追加されている。キャプチャ決定ボタン801は、表示装置104の画面に表示さ
れるタッチキーから構成されており、キャプチャ決定ボタン801が押下されると、キャ
プチャ決定信号が入力装置105に送られる。また、キャプチャ決定ボタン801をハー
ドキーから構成するようにしてもよい。キャプチャキャンセルボタン802は、表示装置
104の画面に表示されるタッチキーから構成されており、キャプチャキャンセルボタン
802が押下されると、キャプチャキャンセル信号が入力装置105に送られる。キャプ
チャキャンセルボタン802は、上記タッチキーに代えて、ハードキーからなるものでも
よい。
キャプチャ決定信号およびキャプチャキャンセル信号は、入力装置105を介して三次
元CG描画装置102および二次元CG描画装置803へ送出される。
二次元CG描画装置803は、入力装置105からの入力に応じた二次元CG映像を描
画するための装置である。また、二次元CG描画装置803は、映像合成装置103から
合成映像を取得し、表示装置104へ送出する。この二次元CG描画装置803は、例え
ばコンピュータから構成される。
次に、本実施の形態の映像提示システムの処理について図9を参照しながら説明する。
本実施の形態においては、上記第1の実施の形態の図2に示す処理に対して、ステップS
10〜S14が加えられており、また、二次元CG描画装置803による処理が加えられ
ている。また、図9中、図2に示すステップと同一のステップには、同一の符号が付され
ている。
本実施の形態においては、図9に示すように、ステップS10で、三次元CG描画装置
102がキャプチャ決定ボタン801、キャプチャキャンセルボタン802の押下の有無
を判定する。ここで、いずれのボタンも押下されていない場合、三次元CG描画装置10
2は、ステップS1へ進む。また、キャプチャ決定ボタン801が押下されている場合、
三次元CG描画装置102は、ステップS11へ進み、キャプチャキャンセルボタン80
2が押下されている場合、ステップS12へ進む。
また、二次元CG描画装置803は、キャプチャ決定ボタン801が押下されている場
合、ステップS31へ進み、キャプチャキャンセルボタン802が押下されている場合、
ステップS32へ進む。
キャプチャ決定ボタン801、キャプチャキャンセルボタン802のいずれのボタンも
押下されていない場合、動作モードがライブモードであるので、三次元CG描画装置10
2がステップS1,S2,S3を実行する。続いて映像合成装置103がステップS4を
実行した後にステップS5へ進む。このステップS5においては、映像合成装置103は
、上記ステップS4において生成された合成映像をHMD101および二次元CG描画装
置803へ送出する。二次元CG描画装置803は、映像合成装置103から送出された
合成映像を受け取ると、ステップS33において、動作モードの判別を行う。ここで、動
作モードがライブモードである場合、ステップS37に進み、二次元CG描画装置803
は、映像合成装置103から送出された合成映像をそのまま表示装置104へ送出し、表
示装置104には、上記合成映像が表示される。このように動作モードがライブモードで
ある場合、上記第1の実施の形態と同様の動作が行われる。
キャプチャ決定ボタン801が押下された場合、ステップS11及びステップS31に
進む。三次元CG描画装置102は、ステップS11において、キャプチャ決定ボタン8
01が押下された時点でのHMD101からの位置姿勢情報に基づいてHMD101の位
置および姿勢を記録するとともに、動作モードをキャプチャモードへ移行させる。二次元
CG描画装置803は、ステップS31において、キャプチャ決定ボタン801が押下さ
れた時点での、映像合成装置103からの合成映像を静止画として記録する。また、二次
元CG描画装置803は、その動作モードをキャプチャモードへ移行する。
次いで、三次元CG描画装置102は、ステップS1において、HMD101の位置姿
勢情報を取得し、続くステップS2において、入力装置105を介して、表示装置104
の表示画面上のHMD非装着者の手が触れた位置の座標値を取得する。そして、三次元C
G描画装置102は、ステップS13において、動作モードの判別を行う。ここでは、動
作モードがキャプチャモードであると判別されるので、三次元CG描画装置102は、ス
テップS14において、三次元CG映像を描画する。この際、仮想世界のCG映像が描画
されるとともに、上記ステップS11において記録されたHMD101の位置および姿勢
を表すためのCG映像が描画される。また、上記ステップS11において記録されたHM
D101の位置および姿勢と上記ステップS2で取得された座標値とに基づいて、ポイン
タオブジェクト、引き出し線、注釈文字オブジェクトなどが描画される。描画されたCG
映像は、映像合成装置103に送出される。
次いで、映像合成装置103は、ステップS4において、HMD101からその撮像部
が撮影した映像を取得し、この取得した映像と三次元CG描画装置102からのCG映像
と合成する。この合成映像は、ステップS5において、HMD101および二次元CG描
画装置803に送出される。これにより、HMD101には、上記合成映像が表示される
また、二次元CG描画装置803は、上記合成画像を受け取ると、ステップS33にお
いて、動作モードの判別を行う。ここでは、動作モードがキャプチャモードであると判別
されるので、二次元CG描画装置803は、ステップS34において、入力装置105を
介してHMD非装着者の入力操作によって得られた座標値を取得する。
次いで、二次元CG描画装置803は、ステップS35において、取得した座標値に基
づいて、ポインタオブジェクト、引き出し線、注釈文字オブジェクトを表す二次元CG映
像を描画する。そして、二次元CG描画装置803は、ステップS36において、上記ス
テップS31で記録された静止画と上記ステップS35で描画された二次元CG映像とを
合成し、その合成映像を表示装置104に送出する。これにより、表示装置104には、
キャプチャされた静止画と二次元CG映像との合成画像が表示される。
キャプチャキャンセルボタン802が押下された場合、三次元CG描画装置102は、
ステップS12において、記録されているHMD101の位置および姿勢をクリアし、動
作モードをライブモードへ移行する。二次元CG描画装置803は、ステップS32にお
いて、その動作モードをライブモードへ移行する。
その後、上述したように、三次元CG描画装置102は、ステップS1,2,3を実行
し、映像合成装置103は、ステップS4,5を実行する。また、二次元CG描画装置8
03は、ステップS37を実行する。
次に、本映像提示システムの表示例について図10〜図12を参照しながら説明する。
ここでは、図10に示すように、HMD装着者301が仮想の自動車302を地点P1
で観察している時点で、表示装置104を見ているHMD非装着者がキャプチャ決定ボタ
ン801を押し、その後HMD装着者が地点P2へ移動した場合を説明する。
具体的には、HMD装着者301が仮想の自動車302を地点P1で観察しているとき
、キャプチャ決定ボタン801が押下されると、表示装置104の画面401には、図1
1に示すような静止画が表示される。この静止画は、地点P1でHMD装着者が見ていた
画面を静止画にしたものである。この画面上で、HMD非装着者が自分の手501で表示
装置104の画面401上の位置を触れると、HMD非装着者が手501で指している位
置には、ポインタオブジェクト1101が描画される。また、ポインタオブジェクト11
01を始点とする引き出し線1102が、その末端には注釈文字オブジェクト1103が
それぞれ描画される。
HMD装着者301が地点P1から地点P2へ移動すると、HMD101の表示部には
、図12に示すような画面604が表示される。ここでは、仮想の自動車302に加えて
、ポインタオブジェクト1201、引き出し線1202、注釈文字オブジェクト1203
が描画されている。ここで、ポインタオブジェクト1201の位置は、HMD非装着者が
指定した位置と、予め記録されているHMD101の位置および姿勢とに基づいて計算さ
れている。そのため、図11のポインタオブジェクト1101と図12のポインタオブジ
ェクト1201は、仮想の自動車302の同じ位置を指し示すことになる。
また、図12に示す画面604には、キャプチャ決定時のHMD101の位置および姿
勢を表すためのCG映像P1が描画されている。このCG映像P1から、HMD装着者は
、表示装置104を見ているHMD非装着者が仮想の自動車302をどのような視点から
見ているのかを知ることができる。
以上より、本実施の形態によれば、表示装置104を見ているHMD非装着者が静止画
を見ながら、HMD装着者に対して指示を出すことができるため、HMD装着者の動きに
伴うHMD101の揺れに起因する画面の揺れに悩まされることがなくなる。また、HM
D装着者は、HMD101の揺れを気にせずに、自由に移動することができるとともに、
移動しながら、表示装置104を見ているHMD装着者の指示を受けることができる。
(第3の実施の形態)
次に、本発明の第3の実施の形態について図13および図14を参照しながら説明する
。図13は、本発明の第3の実施の形態に係る映像提示システムにおいてHMD装着者が
移動して仮想の自動車に対する観察位置を変更した状態を示す図である。図14は、図13の映像提示システムの表示装置に表示される映像の一例を示す図である。
本実施の形態においては、上記第2の実施の形態に対して、三次元CG描画装置102
に対して異なる時間におけるHMD101の位置および姿勢をそれぞれ記録する機能、二
次元CG描画装置803に対して画面を分割表示する機能をそれぞれ設けるとともに、ま
たシステム全体に注釈文字オブジェクトを自由に指定する機能が設けられている。
ここでは、例えば図13に示すように、HMD装着者が地点P11,P12,P13へ
順に移動した際に、地点P11,P12のそれぞれでキャプチャ決定ボタン801が押下
され、その後に、HMD装着者がある地点P13へ移動した場合を説明する。
この場合、表示装置104の画面401には、図14に示すように、各地点P11,P
12での静止画像1401,1402と、HMD装着者が現在見ている映像すなわち動画
像1403とが分割画面として表示される。HMD非装着者は、分割表示されている画面
1401,1402,1403のそれぞれに対して指示を出すことができ、また、表示す
る注釈文字オブジェクトを注釈文字オブジェクト1404,1405のように目的に応じ
て自由に変更することができる。この注釈文字オブジェクトは、予め用意された文字オブ
ジェクトを入力装置105により選択し、またはその都度、入力装置105により入力す
る構成としてもよい。
(第4の実施の形態)
次に、本発明の第4の実施の形態について図15〜図23を参照しながら説明する。図15は、本発明の第4の実施の形態に係る映像提示システムの構成を示すブロック図である。図16は、図15の映像提示システムの処理手順を示すフローチャートである。図17は、図15の映像提示システムにおいて、客観視点カメラ1501及びHMD装着者301が仮想の自動車302の観察を行っている状態を示す図である。図18は、入力操作が行われる前における、表示装置104の画面401に表示される映像の一例である。図19は、入力操作が行われる前における、表示装置1504の画面1801に表示される映像の一例である。図20は、非HMD装着者による入力操作状態を示した図である。図21は、入力操作が行われた後における、表示装置104の画面401に表示される映像の一例である。図22は、入力操作が行われた後における、HMD装着者の主観映像の一例ある。図23は、入力操作後が行われた後における、表示装置1504の画面1801に表示される映像の一例である。
本第4の実施の形態は、上記第1の実施の形態に対し、撮像部をHMD101から客観視点カメラ1501に変更した構成を追加し、非HMD装着者がHMD装着者301の主観映像に対して指示できるのと同様に、客観視点カメラ1501の映像に対しても指示を出すことができる。また、表示する指示オブジェクトはポインタオブジェクト、引き出し線602、注釈文字オブジェクト603に加えて、ポインタオブジェクトまでの線分、指示領域を示す領域オブジェクト等の指示オブジェクトを表示する機能が設けられている。
本第4の実施の形態には、図15に示すように、図1の構成に加えて、客観視点カメラ1501、三次元CG描画装置1502、映像合成装置1503、表示装置1504、入力装置1505、ポインティングデバイス1506が含まれる。なお、本実施形態は、映像合成装置103、1503ごとに表示装置104、1504を用意することに限定されるものではなく、複数の映像合成装置103、1503の入力を切り替えて表示する表示装置を用いても良い。また、画面の切り替えだけではなく、複数の映像合成装置103、1503の入力を画面分割により同時に表示しても良い。客観視点カメラ1501とは、撮像部とセンサ部(図示せず)が付属された装置であり、固定式であっても移動式であっても良い。なお、客観視点カメラについては、MRシステムを実現するために必要なカメラであり、その技術については既に公知であるため、その詳細については省略する。
また、入力装置105への入力情報は、三次元CG描画装置102に送出されると同時に三次元CG描画装置1502へも送出される。同様に、入力装置1505への入力情報は三次元CG描画装置1502へ送出されると同時に三次元CG描画装置102へも送出される。ポインティングデバイス1506はセンサ部(図示せず)が付属された装置であり、センサ部によって検出されたポインティングデバイス1506の位置姿勢情報は、三次元CG描画装置102及び1502へ送出される。
次に、図16のフローチャートを用いて、図15の映像提示システムの処理手順を説明する。
図16に示すフローチャートには、三次元CG描画装置1502および映像合成装置1503のそれぞれにより、それぞれの内部に格納されているプログラムに従って実行される手順が含まれている。
まず、本映像提示システムにおいては、まずステップS41において、三次元CG描画装置102がHMD101及びポインティングデバイス1506の位置姿勢情報を取得する。同様にして、三次元CG描画装置1502が客観視点カメラ1501及びポインティングデバイス1506の位置姿勢情報を取得する。
続いて、ステップS42において、三次元CG描画装置102、1502は、入力装置105を介して入力されたHMD非装着者による入力操作に対応する入力情報を受け取る。本第4の実施の形態においては、入力装置105が表示装置104の画面に付けられたタッチパネルから構成されるので、この入力操作は、HMD非装着者の手によって表示装置104の画面上の所望の位置に触れることによって行われる(図20)。
次いで、ステップS43において、三次元CG描画装置102は、内部に保持する仮想世界の情報およびHMD101から得られたHMD101の位置姿勢情報に基づいて、HMD101の位置から見た仮想世界のCG映像を描画し、映像合成装置103に送出する。同様に、三次元CG描画装置1502は、内部に保持する仮想世界の情報および客観視点カメラ1501から得られた客観視点カメラ1501の位置姿勢情報に基づいて、客観視点カメラ1501の位置から見た仮想世界のCG映像を描画し、映像合成装置1503に送出する。この描画されたCG映像は、仮想世界上の求められた位置にポインタオブジェクトと、ポインタオブジェクトの位置を始点とする引き出し線602と、引き出し線602の末端にある注釈文字オブジェクト603とを含む。また、三次元CG描画装置102、1502は、入力装置105から得られたディスプレイ上の座標値から、その座標値が示す位置に対応する仮想世界における三次元的な位置及び形状をそれぞれ求める。このとき、与えられた座標値が示す位置及び形状を求めるための方法として、例えば以下の方法を用いる。まず、入力装置105で得た座標値から仮想世界における3次元位置を求める。このとき、例えば、視点位置を始点とし、得られた座標値の方向に向けて伸びる仮想の光線を設定し、その仮想光線が仮想世界に存在する物と最初に交差する点を3次元位置とする。この3次元位置を記録し、3次元位置を繋げた軌跡を3次元的な形状として記録する。求められた形状に対して自動車302の仮想モデルの該当領域にテクスチャマッピングが施される。なお、本発明は、自動車302にテクスチャマッピングすることで指示オブジェクトを表示することに限定されるものではなく、単に形状に応じて新たな3次元オブジェクトを生成し、表示してもよい。このとき用いるテクスチャは目的に応じて、パターンや色などを自由に変更することができる。テクスチャマッピングによって生成されたCG映像も同様に、それぞれ映像合成装置103、1503に送出される。さらに、三次元CG描画装置102、1502は、S41で取得したポインティングデバイス1506の位置を開始点として、入力装置105から得られた座標値の一部を終点する線分画像をそれぞれ描画し、この生成されたCG映像を同様に、それぞれ映像合成装置103、1503に送出する。座標値の一部とは、例えば入力開始点または、入力終了点、入力した領域の重心点などが考えられ、目的に応じて変更できる。
次いで、ステップS44において、映像合成装置103は、HMD101からその撮像部が撮影した映像を取得し、この取得した映像と三次元CG描画装置102からのCG映像とを合成する。この合成映像は、表示装置104へ送出される。同様に、映像合成装置1503は、客観視点カメラ1501からその撮像部が撮影した映像を取得し、この取得した映像と三次元CG描画装置1502からのCG映像とを合成する。この合成映像は、表示装置1504へ送出される。
続くステップS45において、表示装置104、1504は、上記合成映像を表示する。これにより、HMD装着者はHMD非装着者が指示した位置を確認することができ、またHMD装着者、HMD非装着者の両者が指示情報(引き出し線602、注釈文字オブジェクト603、軌跡オブジェクト1901、ポインタオブジェクトまでの線分オブジェクト2001)を確認することができる。
上記では、入力装置105を介して入力操作が行われた場合を説明したが、入力装置1505に対して入力操作が行われても良い。この場合にも、入力情報は三次元CG描画装置102、1502の両方に送出される。その後の処理は、上記で説明した処理と同様である。
(第5の実施の形態)
前述の第4の実施の形態では、入力装置105を表示装置104の画面に付けられたタッチパネルとしたが、これに限定されるものではなく、入力装置105をマウス、レーザーポインタなどとしても構わない。例えば、入力装置105がレーザーポインタの場合は、表示装置104の表面に光を検知する装置が備えられ、レーザーが投影された表示装置104上の位置(座標)を入力してもよい。また、複数の発光色の違うレーザーポインタを用いて、複数人で同時にポインティングできるようにしても良い。例えば、表示装置104に備えられた光を検知する装置がレーザーの色の違いを認識し、類似した色でポインタオブジェクトまでの線分オブジェクト2001を描画しても良い。
(第6の実施の形態)
前述の第4の実施の形態では、ステップ43において、指示オブジェクトとして、ポイントオブジェクト、ポイントオブジェクトの位置を始点とする引き出し線602、引き出し線602の末端にある注釈文字オブジェクト603、テクスチャマッピングによって生成されたCG画像及び線分オブジェクト2001のこれら全てが(以下、(ポイントオブジェクト、引き出し線602、注釈文字オブジェクト603を含めて指示オブジェクトと呼ぶ)、表示装置104、1504に表示されるとしたが、これに限定されるものではなく、これらの指示オブジェクトから必要なものだけを選択的に表示させても良い。
(第7の実施の形態)
第7の実施の形態は、客観視点カメラ1501の焦点位置から線分オブジェクト2001が出る場合を示す。
前述の第4の実施の形態では、線分オブジェクト2001の開始点をポインティングデバイス1506としたが(図21)、これに限定されるものではなく、線分オブジェクト2001の開始点をHMD101の撮像部301の焦点位置(図24、25)、あるいは、客観視点カメラ1501(図26、27)の焦点位置としても良い。
(第8の実施の形態)
複数の客観ディスプレイを区別するために色を変えてもよく、第8の実施の形態は、一つの客観ディスプレイに複数の指示オブジェクトの色を変えて指定する場合を示す。
複数の指示者、または複数の入力装置、または複数の表示装置、または複数のHMDあるいは客観カメラが存在する場合に、どこから指示が行われたか、あるいは誰に対して指示を行ったかを区別するために、ステップ43において、生成される指示オブジェクトを、指示者ごとに、または表示装置ごとに、または入力装置ごとに、またはHMD・客観カメラごとに色を変えて生成し、ステップ45において、ステップ43にて生成された色分けされた指示オブジェクトを表示装置に表示してもよい。
上記各実施の形態においては、仮想の自動車の観察を行い、この自動車のデザインを評
価する場合を説明したが、本発明は、他の用途例えばゲームやアミューズメント設備など
のエンタテインメント装置、建築や医療などのシミュレーション装置、メンテナンス作業
のアシスタントなどの業務用アプリケーションにも用いることが可能である。
また、上記各実施の形態において、HMD非装着者の指示により表示されたポインタオブジェクト601等を非表示にする処理は、例えば、次のいずれかを用いればよい。即ち、指示されてから所定の時間が経過した後に非表示にする。HMD非装着者が再度同じ位置の近傍を指示したときに非表示にする。HMD非装着者が、別の新たな位置を指示したときに非表示にする。HMD非装着者が、画面に表示された取消キー等を指示すると非表示にする。HMD装着者が、確認動作、例えば、頭を上下に移動する等を行うことにより非表示にする。
また、本発明の目的は、前述した各実施形態の機能を実現するソフトウエアのプログラ
ムコードを記録した記憶媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU等)が記憶媒体に格納されたプログラムコードを読み出し実行することによっても、達成される。
この場合、記憶媒体から読み出されたプログラムコード自体が前述した各実施形態の機能を実現することになり、そのプログラムコード及び該プログラムコードを記憶した記憶媒体は本発明を構成することになる。
また、プログラムコードを供給するための記憶媒体としては、例えば、フロッピー(登
録商標)ディスク、ハードディスク、光磁気ディスク、CD−ROM、CD−R、CD−RW、DVD−ROM、DVD−RAM、DVD−RW、DVD+RW等の光ディスク、磁気テープ、不揮発性のメモリカード、ROM等を用いることができる。または、プログラムコードを、ネットワークを介してダウンロードしてもよい。
また、コンピュータが読み出したプログラムコードを実行することにより、前述した各実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した各実施形態の機能が実現される場合も含まれる。
さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機
能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた
後、そのプログラムコードの指示に基づき、その拡張機能を拡張ボードや拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した各実施形態の機能が実現される場合も含まれる。
本発明の第1の実施の形態に係る映像提示システムの構成を示すブロック図である。 図1の映像提示システムの処理手順を示すフローチャートである。 HMD装着者301が仮想の自動車302を観察している状態を示す図である。 表示装置104の画面401に表示されているHMD装着者の主観映像の一例を示す図である。 HMD非装着者による入力操作状態の一例を示す図である。 HMD101に表示される映像の一例を示す図である。 表示装置に表示される映像の一例を示す図である。 本発明の第2の実施の形態に係る映像提示システムの構成を示すブロック図である。 図8の映像提示システムの処理手順を示すフローチャートである。 HMD装着者301が移動して仮想の自動車302に対する観察位置を変更した状態を示す図である。 表示装置104に表示される映像の一例を示す図である。 HMD101に表示される映像の一例を示す図である。 本発明の第3の実施の形態に係る映像提示システムにおいてHMD装着者が移動して仮想の自動車に対する観察位置を変更した状態を示す図である。 図13の映像提示システムの表示装置に表示される映像の一例を示す図である。 本発明の第4の実施の形態に係わる映像提示システムの構成を示すブロック図である。 図15の映像提示システムの処理手順を示すフローチャートである。 図15の映像提示システムにおいて、客観視点カメラ1501及びHMD装着者301が仮想の自動車302の観察を行っている状態を示す図である。 入力操作が行われる前における、表示装置104の画面401に表示される映像の一例である。 入力操作が行われる前における、表示装置1504の画面1801に表示される映像の一例である。 非HMD装着者による入力操作状態を示した図である。 入力操作が行われた後における、表示装置104の画面401に表示される映像の一例である。 入力操作が行われた後における、HMD装着者の主観映像の一例ある。 入力操作が行われた後における、表示装置1504の画面1801に表示される映像の一例である。 入力操作が行われた後における、表示装置104の画面401に表示される映像の一例である。 入力操作が行われた後における、表示装置1504の画面1801に表示される映像の一例である。 入力操作が行われた後における、表示装置104の画面401に表示される映像の一例である。 入力操作が行われた後における、表示装置1504の画面1801に表示される映像の一例である。
符号の説明
101 HMD
102 三次元CG描画装置
103 映像合成装置
104 表示装置
105 入力装置
801 キャプチャ決定ボタン
802 キャプチャキャンセルボタン
803 二次元CG描画装置

Claims (28)

  1. 位置および姿勢を検出する検出手段を有し、ユーザに映像を提示するための第1の表示装置と、
    前記ユーザへ指示を出す指示者に映像を提示するための第2の表示装置と、
    前記第1の表示装置の位置姿勢に対応する視点での仮想空間映像を描画し、該仮想空間
    映像を前記第1の表示装置および前記第2の表示装置に表示する描画装置と、
    前記指示者から前記ユーザへの指示を入力するための入力装置とを備え、
    前記描画装置は、前記入力装置を介して前記指示者から前記ユーザへの指示が入力された場合、前記第1の表示装置に表示する仮想空間映像を、前記入力装置を介して入力された前記指示者から前記ユーザへの指示が反映されている映像となるように描画することを特徴とする映像提示システム。
  2. 前記描画装置は、前記入力装置を介して前記指示者から前記ユーザへの指示が入力された場合、前記入力された指示に応じた映像を含む仮想空間映像を描画することを特徴とする請求項1記載の映像提示システム。
  3. 前記描画装置は、前記第1の表示装置に表示されている映像を静止画として取り込むキャプチャ機能部を有し、前記キャプチャ機能部によって取り込まれた静止画を第2の表示装置に表示することを特徴とする請求項1又は2記載の映像提示システム。
  4. 前記描画装置は、前記キャプチャ機能部で取り込まれた静止画を前記第2の表示装置に画面分割して表示することを特徴とする請求項3記載の映像提示システム。
  5. 前記入力装置は、前記第2の表示装置の画面分割されている分割画面毎に指示を入力することを特徴とする請求項4記載の映像提示システム。
  6. 位置および姿勢を検出する検出手段を有し、ユーザに映像を提示するための第1の表示装置と、
    前記第1の表示装置の位置姿勢に対応する視点での仮想空間映像を描画し、該仮想空間映像を前記第1の表示装置に表示する第1の描画装置と、
    第3者視点の映像を取得するための撮像装置と、
    前記撮像装置の位置姿勢に対応する視点での仮想空間映像を描画し、該仮想空間映像を生成する第2の描画装置と、
    前記ユーザへ指示を出す指示者に前記第2の描画装置で生成された仮想空間映像を提示するための第2の表示装置と、
    前記指示者から前記ユーザへの指示を入力するための入力装置とを備え、
    前記第1の描画装置は、前記入力装置を介して前記指示者から前記ユーザへの指示が入力された場合、前記第1の表示装置に表示する仮想空間映像を、前記入力装置を介して入力された前記指示者から前記ユーザへの指示が反映されている映像となるように描画することを特徴とする映像提示システム。
  7. 前記撮像装置は、第3者視点の映像を取得するための固定視点カメラであることを特徴とする請求項6記載の映像提示システム。
  8. 前記第1の表示装置は、前記ユーザの目前に配置されるヘッドマウントディスプレイであることを特徴とする請求項1乃至7のいずれか1項に記載の映像提示システム。
  9. ユーザに映像を提示するための第1の表示装置と、
    前記第1の表示装置の位置および姿勢を検出する検出手段と、
    前記ユーザに指示を出す指示者に映像を提示するための第2の表示装置と、
    前記検出手段により検出した位置姿勢に基づいて仮想空間映像を描画し、該仮想空間映
    像を前記第1の表示装置および前記第2の表示装置に表示する描画装置と、
    前記第2の表示装置に表示されている前記仮想空間映像の位置を指示するための入力装
    置とを備え、
    前記描画装置は、前記入力装置を介して前記第2の表示装置に表示されている前記仮想
    空間映像の位置が指示された場合、前記第1の表示装置に表示する仮想空間映像を、前記
    入力装置を介して入力された前記指示が反映された映像となるように描画することを特徴
    とする映像提示システム。
  10. ユーザに映像を提示するための第1の表示装置と、
    前記第1の表示装置の位置および姿勢を検出する検出手段と、
    前記ユーザに指示を出す指示者に映像を提示するための第2の表示装置と、
    第3者視点の映像を取得するための撮像装置と、
    前記検出手段により検出した位置姿勢に基づいて仮想空間映像を描画し、該仮想空間映像を前記第1の表示装置に表示する第1の描画装置と、
    前記撮像装置の位置姿勢に基づいて仮想空間映像を描画し、該仮想空間映像を前記第2の表示装置に表示する第2の描画装置と、
    前記第2の表示装置に表示されている前記仮想空間映像の位置を指示するための入力装置とを備え、
    前記第1の描画装置は、前記入力装置を介して前記第2の表示装置に表示されている前記仮想空間映像の位置が指示された場合、前記第1の表示装置に表示する仮想空間映像を、前記入力装置を介して入力された指示が反映された映像となるように描画することを特徴とする映像提示システム。
  11. 前記入力装置を介して入力された指示が反映された映像は、前記第2の表示装置における座標に基づいて空間中における3次元位置を特定し、該特定された3次元位置に基づいて指示オブジェクトを表示することを特徴とする請求項10記載の映像提示システム。
  12. 前記3次元位置は、指示対象物体の表面位置であることを特徴とする請求項11記載の映像提示システム。
  13. 前記指示オブジェクトは、前記3次元位置を示すマークとテキストとが合成された映像であることを特徴とする請求項11又は12記載の映像提示システム。
  14. 前記指示オブジェクトは、任意の点を始点とし、前記3次元位置を終点とする直線であることを特徴とする請求項11乃至13のいずれか1項に記載の映像提示システム。
  15. 前記任意の点は、前記撮像装置の焦点位置であることを特徴とする請求項14記載の映像提示システム。
  16. 前記任意の点は、前記ユーザが把持する物体上の一点であることを特徴とする請求項14記載の映像提示システム。
  17. 前記指示オブジェクトは、複数の指示オブジェクトを表示する場合に、状況に応じて色分けすることを特徴とする請求項11乃至16のいずれか1項に記載の映像提示システム。
  18. 前記指示オブジェクトは、前記3次元位置を記録した軌跡に基づいて作成した前記指示対象物体の表面上に描かれる形状であることを特徴とする請求項11乃至17のいずれか1項に記載の映像提示システム。
  19. 位置および姿勢を検出する検出手段を有し、ユーザに映像を提示するための第1の表示
    装置および前記ユーザに指示を出す指示者に映像を提示するための第2の表示装置を用いる映像提示方法であって、
    前記第1の表示装置の位置姿勢に対応する視点での仮想空間映像を描画し、該仮想空間
    映像を前記第1の表示装置および前記第2の表示装置に表示する描画工程と、
    前記指示者から前記ユーザへの指示を入力するための入力工程とを有し、
    前記描画工程では、前記入力工程で前記指示者から前記ユーザへの指示が入力された場合、前記第1の表示装置に表示する仮想空間映像を、前記入力工程で入力された前記指示者から前記ユーザへの指示が反映されている映像となるように描画することを特徴とする映像提示方法。
  20. 前記第1の表示装置に表示されている映像を静止画として取り込むキャプチャ工程と、
    前記キャプチャ工程で取り込まれた静止画を第2の表示装置に表示する静止画表示工程とを有することを特徴とする請求項19記載の映像提示方法。
  21. 前記静止画表示工程において、前記キャプチャ工程で取り込まれた静止画を前記第2の表示装置に画面分割して表示することを特徴とする請求項20記載の映像提示方法。
  22. 前記入力工程において、前記第2の表示装置の画面分割されている分割画面毎に指示を入力することを特徴とする請求項21記載の映像提示方法。
  23. 位置および姿勢を検出する検出手段を有し、ユーザに映像を提示するための第1の表示装置と、
    前記ユーザへ指示を出す指示者に映像を提示するための第2の表示装置と、
    第3者視点の映像を取得するための撮像装置とを用いる映像提示方法であって、
    前記第1の表示装置の位置姿勢に対応する視点での仮想空間映像を描画し、該仮想空間映像を前記第1の表示装置に表示する第1の描画工程と、
    前記撮像装置の位置姿勢に対応する視点での仮想空間映像を描画し、該仮想空間映像を前記第2の表示装置に表示する第2の描画工程と、
    前記指示者から前記ユーザへの指示を入力するための入力工程とを有し、
    前記第1の描画工程では、前記入力工程で前記指示者から前記ユーザへの指示が入力された場合、前記第1の表示装置に表示する仮想空間映像を、前記入力工程で入力された前記指示者から前記ユーザへの指示が反映されている映像となるように描画することを特徴とする映像提示方法。
  24. 前記第1の描画工程では、前記入力工程で前記指示者から前記ユーザへの指示が入力された場合、前記入力された指示に応じた映像を含む仮想空間映像を描画することを特徴とする請求項23記載の映像提示方法。
  25. ユーザに映像を提示するための第1の表示装置の位置および姿勢を検出する検出
    ステップと、
    前記検出ステップにより検出した位置姿勢に基づいて仮想空間映像を描画する描画ステ
    ップと、
    前記仮想空間映像を前記第1の表示装置と、前記ユーザに指示を出す指示者に映像を提示するための第2の表示装置に表示する表示ステップと、
    前記第2の表示装置に表示されている前記仮想空間映像の位置を指示するための入力ス
    テップとを備え、
    前記描画ステップは、前記入力ステップにより前記第2の表示装置に表示されている前
    記仮想空間映像の位置が指示された場合、前記第1の表示装置に表示する仮想空間映像を
    、前記入力ステップにより入力された前記指示が反映された映像となるように描画するこ
    とを特徴とする映像提示方法。
  26. 位置および姿勢を検出する検出手段を有し、ユーザに映像を提示するための第1の表示
    装置および前記ユーザに指示を出す指示者に映像を提示するための第2の表示装置を用いる映像提示システムを制御するためのプログラムであって、
    前記第1の表示装置の位置姿勢に対応する視点での仮想空間映像を描画し、該仮想空間
    映像を前記第1の表示装置および前記第2の表示装置に表示する描画モジュールと、
    前記指示者から前記ユーザへの指示を入力するための少なくとも1つの入力モジュールとを有し、
    前記描画モジュールは、前記入力モジュールにより前記指示者から前記ユーザへの指示が入力された場合、少なくとも、前記第1の表示装置に表示する仮想空間映像を、前記入力モジュールを介して入力された前記指示者から前記ユーザへの指示が反映されている映像となるように描画することを特徴とする映像提示方法をコンピュータに実行させるためのプログラム。
  27. ユーザに映像を提示するための第1の表示装置の位置および姿勢を検出する検出モジュールと、
    前記検出モジュールにより検出した位置姿勢に基づいて仮想空間映像を描画する描画モ
    ジュールと、
    前記仮想空間映像を前記第1の表示装置と、前記ユーザに指示を出す指示者に映像を提示するための第2の表示装置に表示する表示モジュールと、
    前記第2の表示装置に表示されている前記仮想空間映像の位置を指示するための入力モ
    ジュールとを備え、
    前記描画モジュールは、前記入力モジュールにより前記第2の表示装置に表示されてい
    る前記仮想空間映像の位置が指示された場合、前記第1の表示装置に表示する仮想空間映
    像を、前記入力モジュールにより入力された前記指示が反映された映像となるように描画
    することを特徴とする映像提示方法をコンピュータに実行させるためのプログラム。
  28. 請求項26又は27記載のプログラムをコンピュータ読み取り可能に格納したことを
    特徴とする記憶媒体。
JP2006162577A 2005-07-01 2006-06-12 情報処理装置、情報処理方法、プログラムおよび記憶媒体 Expired - Fee Related JP4933164B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2006162577A JP4933164B2 (ja) 2005-07-01 2006-06-12 情報処理装置、情報処理方法、プログラムおよび記憶媒体
US11/476,462 US8139087B2 (en) 2005-07-01 2006-06-28 Image presentation system, image presentation method, program for causing computer to execute the method, and storage medium storing the program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2005193825 2005-07-01
JP2005193825 2005-07-01
JP2006162577A JP4933164B2 (ja) 2005-07-01 2006-06-12 情報処理装置、情報処理方法、プログラムおよび記憶媒体

Publications (3)

Publication Number Publication Date
JP2007042073A true JP2007042073A (ja) 2007-02-15
JP2007042073A5 JP2007042073A5 (ja) 2011-02-03
JP4933164B2 JP4933164B2 (ja) 2012-05-16

Family

ID=37588887

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006162577A Expired - Fee Related JP4933164B2 (ja) 2005-07-01 2006-06-12 情報処理装置、情報処理方法、プログラムおよび記憶媒体

Country Status (2)

Country Link
US (1) US8139087B2 (ja)
JP (1) JP4933164B2 (ja)

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009131131A1 (ja) * 2008-04-25 2009-10-29 シャープ株式会社 表示装置および表示方法
JP2009266036A (ja) * 2008-04-25 2009-11-12 Sharp Corp 表示装置および表示方法
JP2009265438A (ja) * 2008-04-25 2009-11-12 Sharp Corp 表示装置および表示方法
WO2010125868A1 (ja) * 2009-04-28 2010-11-04 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム
JP2011227649A (ja) * 2010-04-19 2011-11-10 Sony Corp 画像処理システム、画像処理装置、画像処理方法及びプログラム
JP2011530852A (ja) * 2008-08-06 2011-12-22 エルジー イノテック カンパニー,リミティド 送信装置、表示装置及び遠隔信号入力システム
JP2013093031A (ja) * 2012-11-16 2013-05-16 Sony Corp 情報処理装置、記憶媒体、情報処理システム、および情報処理方法、並びにプログラム
JP2013521544A (ja) * 2010-03-01 2013-06-10 キィ リー、ムーン 拡張現実のポインティング装置
JP2013175048A (ja) * 2012-02-24 2013-09-05 Nikon Corp 情報表示装置、及び情報表示方法
JP2013182277A (ja) * 2013-03-12 2013-09-12 Toshiba Corp 表示制御装置および表示制御方法
JP2013186773A (ja) * 2012-03-09 2013-09-19 Konica Minolta Inc ユーザー端末装置、画像処理装置、オペレータ端末装置、情報処理システムおよびプログラム
JP2015215745A (ja) * 2014-05-09 2015-12-03 シャープ株式会社 テレコミュニケーションシステム
JP2016152023A (ja) * 2015-02-19 2016-08-22 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
JP2016224810A (ja) * 2015-06-02 2016-12-28 キヤノン株式会社 システム、システムの制御方法
JP2016224517A (ja) * 2015-05-27 2016-12-28 三菱電機株式会社 マルチディスプレイ装置
JP2017010387A (ja) * 2015-06-24 2017-01-12 キヤノン株式会社 システム、複合現実表示装置、情報処理方法及びプログラム
JP2017033154A (ja) * 2015-07-30 2017-02-09 株式会社オプティム 拡張現実システム、および拡張現実方法
JP6106321B1 (ja) * 2016-06-30 2017-03-29 魔法株式会社 電子カタログ
JP2017097691A (ja) * 2015-11-26 2017-06-01 アズビル株式会社 表示装置および方法
JP2017199238A (ja) * 2016-04-28 2017-11-02 株式会社カプコン 仮想空間表示システム
JP2018018315A (ja) * 2016-07-28 2018-02-01 セイコーエプソン株式会社 表示システム、表示装置、情報表示方法、及び、プログラム
JP2019021347A (ja) * 2018-11-07 2019-02-07 株式会社コロプラ ヘッドマウントディスプレイシステム制御プログラム
JP2020035481A (ja) * 2019-11-14 2020-03-05 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
US10642564B2 (en) 2015-09-25 2020-05-05 Seiko Epson Corporation Display system, display device, information display method, and program
JP2021170367A (ja) * 2019-09-09 2021-10-28 キヤノン株式会社 画像処理方法、画像処理システム
WO2022208600A1 (ja) * 2021-03-29 2022-10-06 京セラ株式会社 ウェアラブル端末装置、プログラムおよび表示方法
JP2023522654A (ja) * 2020-05-11 2023-05-31 株式会社ソニー・インタラクティブエンタテインメント 複数のカメラからの合成入力を使用してビデオを生成するための仮想カメラ位置のユーザ選択
WO2023190093A1 (ja) * 2022-03-28 2023-10-05 矢崎総業株式会社 通信システム

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7864159B2 (en) 2005-01-12 2011-01-04 Thinkoptics, Inc. Handheld vision based absolute pointing system
JP4773170B2 (ja) * 2005-09-14 2011-09-14 任天堂株式会社 ゲームプログラムおよびゲームシステム
JP4684147B2 (ja) * 2006-03-28 2011-05-18 任天堂株式会社 傾き算出装置、傾き算出プログラム、ゲーム装置およびゲームプログラム
US8913003B2 (en) * 2006-07-17 2014-12-16 Thinkoptics, Inc. Free-space multi-dimensional absolute pointer using a projection marker system
US8096880B2 (en) * 2006-08-15 2012-01-17 Nintendo Co., Ltd. Systems and methods for reducing jitter associated with a control device
US9176598B2 (en) * 2007-05-08 2015-11-03 Thinkoptics, Inc. Free-space multi-dimensional absolute pointer with improved performance
US8355019B2 (en) * 2007-11-02 2013-01-15 Dimension Technologies, Inc. 3D optical illusions from off-axis displays
JP4712786B2 (ja) * 2007-12-13 2011-06-29 京セラ株式会社 情報処理装置
JP2010033367A (ja) * 2008-07-29 2010-02-12 Canon Inc 情報処理装置及び情報処理方法
JP5158006B2 (ja) * 2009-04-23 2013-03-06 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム
JP5525923B2 (ja) * 2010-06-09 2014-06-18 任天堂株式会社 画像処理プログラム、画像処理装置、画像処理システム、および画像処理方法
JP5640681B2 (ja) 2010-11-11 2014-12-17 ソニー株式会社 情報処理装置、立体視表示方法及びプログラム
JPWO2012081194A1 (ja) * 2010-12-17 2014-05-22 パナソニック株式会社 医療支援装置、医療支援方法および医療支援システム
US9898556B2 (en) 2011-06-20 2018-02-20 Ford Global Technology, Llc Immersive dimensional variation
US9013366B2 (en) * 2011-08-04 2015-04-21 Microsoft Technology Licensing, Llc Display environment for a plurality of display devices
US9691241B1 (en) * 2012-03-14 2017-06-27 Google Inc. Orientation of video based on the orientation of a display
US8922481B1 (en) * 2012-03-16 2014-12-30 Google Inc. Content annotation
US9293118B2 (en) * 2012-03-30 2016-03-22 Sony Corporation Client device
US8988465B2 (en) * 2012-03-30 2015-03-24 Ford Global Technologies, Llc Physical-virtual hybrid representation
US20180048750A1 (en) * 2012-06-15 2018-02-15 Muzik, Llc Audio/video wearable computer system with integrated projector
KR101911803B1 (ko) * 2012-08-10 2018-10-26 삼성전자주식회사 휴대용 단말 장치 및 그 동작 방법
DE102014009303B4 (de) * 2014-06-26 2020-07-23 Audi Ag Verfahren zum Betreiben einer Virtual-Reality-Brille und System mit einer Virtual-Reality-Brille
US9726885B2 (en) 2015-03-31 2017-08-08 Timothy A. Cummings System for virtual display and method of use
DE102015226581B4 (de) * 2015-12-22 2022-03-17 Audi Ag Verfahren zum Betreiben eines Virtual-Reality-Systems und Virtual-Reality-System
US10209785B2 (en) * 2016-02-02 2019-02-19 Microsoft Technology Licensing, Llc Volatility based cursor tethering
DE102016003074A1 (de) 2016-03-12 2017-09-14 Audi Ag Verfahren zum Betreiben eines Virtual-Reality-Systems und Virtual-Reality-System
JP6991768B2 (ja) * 2017-07-28 2022-01-13 キヤノン株式会社 表示制御装置および表示制御方法
DE102018201711B4 (de) 2018-02-05 2020-07-02 Vypii GmbH Anordnung und Verfahren zum Bereitstellen von Informationen bei einer kopftragbaren erweiterte-Realität-Vorrichtung
ES2972869T3 (es) * 2019-02-14 2024-06-17 Braun Gmbh Sistema para evaluar el uso de un producto de consumo móvil manualmente previsto

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1091057A (ja) * 1996-09-17 1998-04-10 Mitsubishi Electric Corp 技術相談支援システム
JP2001109912A (ja) * 1999-10-05 2001-04-20 Canon Inc 画像処理装置、画像処理方法、及び記憶媒体
JP2001195601A (ja) * 2000-01-13 2001-07-19 Mixed Reality Systems Laboratory Inc 複合現実感提示装置及び複合現実感提示方法並びに記憶媒体
JP2002159019A (ja) * 2000-11-16 2002-05-31 Canon Inc 表示制御装置、撮影位置推測装置、表示システム、撮影システム、画像位置決め方法、撮影位置推測方法、及び処理プログラムを記録した記録媒体
JP2002538543A (ja) * 1999-03-02 2002-11-12 シーメンス アクチエンゲゼルシヤフト 強調現実感技術により対話を状況に応じて支援するためのシステム及び方法
JP2003270719A (ja) * 2002-03-13 2003-09-25 Osaka Industrial Promotion Organization 投影方法、投影装置、作業支援方法及び作業支援システム
JP2004194033A (ja) * 2002-12-12 2004-07-08 Canon Inc 立体画像表示システム及び立体ポインタの表示方法
JP2005049996A (ja) * 2003-07-30 2005-02-24 Canon Inc 画像表示方法及び装置
JP2005135161A (ja) * 2003-10-30 2005-05-26 Gifu Prefecture 協調設計システムおよび方法
JP2005251118A (ja) * 2004-03-08 2005-09-15 Canon Inc 画像処理方法、画像処理装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63170780A (ja) * 1986-10-03 1988-07-14 インタランド・コーポレーション 一体化したマルチ・ディスプレイ型のオーバーレイ制御式通信ワークステーション
US6522312B2 (en) * 1997-09-01 2003-02-18 Canon Kabushiki Kaisha Apparatus for presenting mixed reality shared among operators
US6963334B1 (en) * 2000-04-12 2005-11-08 Mediaone Group, Inc. Smart collaborative whiteboard integrated with telephone or IP network
JP4288843B2 (ja) * 2000-10-25 2009-07-01 沖電気工業株式会社 遠隔作業支援システム
US6638223B2 (en) * 2000-12-28 2003-10-28 Ge Medical Systems Global Technology Company, Llc Operator interface for a medical diagnostic imaging device
JP4065507B2 (ja) * 2002-07-31 2008-03-26 キヤノン株式会社 情報提示装置および情報処理方法
US7427996B2 (en) * 2002-10-16 2008-09-23 Canon Kabushiki Kaisha Image processing apparatus and image processing method
JP3984907B2 (ja) * 2002-11-29 2007-10-03 キヤノン株式会社 画像観察システム
SE0203908D0 (sv) * 2002-12-30 2002-12-30 Abb Research Ltd An augmented reality system and method
WO2005103921A2 (en) * 2004-04-15 2005-11-03 Edda Technology, Inc. Interactive 3d data editing via 2d graphical drawing tools
EP1686554A3 (en) * 2005-01-31 2008-06-18 Canon Kabushiki Kaisha Virtual space generating system, image processing apparatus and information processing method
JP4738870B2 (ja) * 2005-04-08 2011-08-03 キヤノン株式会社 情報処理方法、情報処理装置および遠隔複合現実感共有装置

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1091057A (ja) * 1996-09-17 1998-04-10 Mitsubishi Electric Corp 技術相談支援システム
JP2002538543A (ja) * 1999-03-02 2002-11-12 シーメンス アクチエンゲゼルシヤフト 強調現実感技術により対話を状況に応じて支援するためのシステム及び方法
JP2001109912A (ja) * 1999-10-05 2001-04-20 Canon Inc 画像処理装置、画像処理方法、及び記憶媒体
JP2001195601A (ja) * 2000-01-13 2001-07-19 Mixed Reality Systems Laboratory Inc 複合現実感提示装置及び複合現実感提示方法並びに記憶媒体
JP2002159019A (ja) * 2000-11-16 2002-05-31 Canon Inc 表示制御装置、撮影位置推測装置、表示システム、撮影システム、画像位置決め方法、撮影位置推測方法、及び処理プログラムを記録した記録媒体
JP2003270719A (ja) * 2002-03-13 2003-09-25 Osaka Industrial Promotion Organization 投影方法、投影装置、作業支援方法及び作業支援システム
JP2004194033A (ja) * 2002-12-12 2004-07-08 Canon Inc 立体画像表示システム及び立体ポインタの表示方法
JP2005049996A (ja) * 2003-07-30 2005-02-24 Canon Inc 画像表示方法及び装置
JP2005135161A (ja) * 2003-10-30 2005-05-26 Gifu Prefecture 協調設計システムおよび方法
JP2005251118A (ja) * 2004-03-08 2005-09-15 Canon Inc 画像処理方法、画像処理装置

Cited By (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009131131A1 (ja) * 2008-04-25 2009-10-29 シャープ株式会社 表示装置および表示方法
JP2009266036A (ja) * 2008-04-25 2009-11-12 Sharp Corp 表示装置および表示方法
JP2009265438A (ja) * 2008-04-25 2009-11-12 Sharp Corp 表示装置および表示方法
JP2011530852A (ja) * 2008-08-06 2011-12-22 エルジー イノテック カンパニー,リミティド 送信装置、表示装置及び遠隔信号入力システム
WO2010125868A1 (ja) * 2009-04-28 2010-11-04 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム
JP2010257359A (ja) * 2009-04-28 2010-11-11 Sony Corp 情報処理装置、および情報処理方法、並びにプログラム
US9772683B2 (en) 2009-04-28 2017-09-26 Sony Corporation Information processing apparatus to process observable virtual objects
JP2013521544A (ja) * 2010-03-01 2013-06-10 キィ リー、ムーン 拡張現実のポインティング装置
US9524427B2 (en) 2010-04-19 2016-12-20 Sony Corporation Image processing system, image processing apparatus, image processing method, and program
JP2011227649A (ja) * 2010-04-19 2011-11-10 Sony Corp 画像処理システム、画像処理装置、画像処理方法及びプログラム
JP2013175048A (ja) * 2012-02-24 2013-09-05 Nikon Corp 情報表示装置、及び情報表示方法
JP2013186773A (ja) * 2012-03-09 2013-09-19 Konica Minolta Inc ユーザー端末装置、画像処理装置、オペレータ端末装置、情報処理システムおよびプログラム
JP2013093031A (ja) * 2012-11-16 2013-05-16 Sony Corp 情報処理装置、記憶媒体、情報処理システム、および情報処理方法、並びにプログラム
JP2013182277A (ja) * 2013-03-12 2013-09-12 Toshiba Corp 表示制御装置および表示制御方法
JP2015215745A (ja) * 2014-05-09 2015-12-03 シャープ株式会社 テレコミュニケーションシステム
JP2016152023A (ja) * 2015-02-19 2016-08-22 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
JP2016224517A (ja) * 2015-05-27 2016-12-28 三菱電機株式会社 マルチディスプレイ装置
JP2016224810A (ja) * 2015-06-02 2016-12-28 キヤノン株式会社 システム、システムの制御方法
JP2017010387A (ja) * 2015-06-24 2017-01-12 キヤノン株式会社 システム、複合現実表示装置、情報処理方法及びプログラム
JP2017033154A (ja) * 2015-07-30 2017-02-09 株式会社オプティム 拡張現実システム、および拡張現実方法
US10642564B2 (en) 2015-09-25 2020-05-05 Seiko Epson Corporation Display system, display device, information display method, and program
JP2017097691A (ja) * 2015-11-26 2017-06-01 アズビル株式会社 表示装置および方法
JP2017199238A (ja) * 2016-04-28 2017-11-02 株式会社カプコン 仮想空間表示システム
JP6106321B1 (ja) * 2016-06-30 2017-03-29 魔法株式会社 電子カタログ
JP2018006977A (ja) * 2016-06-30 2018-01-11 魔法株式会社 電子カタログ
JP2018018315A (ja) * 2016-07-28 2018-02-01 セイコーエプソン株式会社 表示システム、表示装置、情報表示方法、及び、プログラム
JP2019021347A (ja) * 2018-11-07 2019-02-07 株式会社コロプラ ヘッドマウントディスプレイシステム制御プログラム
JP2021170367A (ja) * 2019-09-09 2021-10-28 キヤノン株式会社 画像処理方法、画像処理システム
JP7170798B2 (ja) 2019-09-09 2022-11-14 キヤノン株式会社 画像処理方法、画像処理システム
JP2020035481A (ja) * 2019-11-14 2020-03-05 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
JP2023522654A (ja) * 2020-05-11 2023-05-31 株式会社ソニー・インタラクティブエンタテインメント 複数のカメラからの合成入力を使用してビデオを生成するための仮想カメラ位置のユーザ選択
JP7462069B2 (ja) 2020-05-11 2024-04-04 株式会社ソニー・インタラクティブエンタテインメント 複数のカメラからの合成入力を使用してビデオを生成するための仮想カメラ位置のユーザ選択
WO2022208600A1 (ja) * 2021-03-29 2022-10-06 京セラ株式会社 ウェアラブル端末装置、プログラムおよび表示方法
JP7500866B2 (ja) 2021-03-29 2024-06-17 京セラ株式会社 ウェアラブル端末装置、プログラムおよび表示方法
WO2023190093A1 (ja) * 2022-03-28 2023-10-05 矢崎総業株式会社 通信システム

Also Published As

Publication number Publication date
US20070002037A1 (en) 2007-01-04
JP4933164B2 (ja) 2012-05-16
US8139087B2 (en) 2012-03-20

Similar Documents

Publication Publication Date Title
JP4933164B2 (ja) 情報処理装置、情報処理方法、プログラムおよび記憶媒体
EP3241088B1 (en) Methods and systems for user interaction within virtual or augmented reality scene using head mounted display
US9495800B2 (en) Storage medium having stored thereon image processing program, image processing apparatus, image processing system, and image processing method
JP5800501B2 (ja) 表示制御プログラム、表示制御装置、表示制御システム、及び、表示制御方法
JP5689707B2 (ja) 表示制御プログラム、表示制御装置、表示制御システム、および、表示制御方法
JP5525923B2 (ja) 画像処理プログラム、画像処理装置、画像処理システム、および画像処理方法
US9594399B2 (en) Computer-readable storage medium, display control apparatus, display control method and display control system for controlling displayed virtual objects with symbol images
US20170315364A1 (en) Virtual object display device, method, program, and system
JP5627973B2 (ja) ゲーム処理をするためのプログラム、装置、システムおよび方法
WO2013001902A1 (ja) 画像処理装置、画像処理装置の制御方法、プログラム、及び情報記憶媒体
JP4917664B1 (ja) 画像表示装置、ゲームプログラム、ゲーム制御方法
US20120218298A1 (en) Information processing system, information processing method, information processing device and tangible recording medium recording information processing program
JP2012068964A (ja) 画像処理プログラム、画像処理装置、画像処理システム、および、画像処理方法
US10386633B2 (en) Virtual object display system, and display control method and display control program for the same
JP2002247602A (ja) 画像生成装置及びその制御方法並びにそのコンピュータプログラム
JP2012074878A (ja) 画像生成プログラム、撮像装置、撮像システム、及び画像生成方法
JP2006285609A (ja) 画像処理方法、画像処理装置
JP6963399B2 (ja) プログラム、記録媒体、画像生成装置、画像生成方法
CN108027694B (zh) 记录介质、内容提供装置以及控制方法
JP2012069126A (ja) 画像処理プログラム、画像処理装置、画像処理システム、および、画像処理方法
JP4724476B2 (ja) 情報処理方法及び装置
JP6530453B2 (ja) ゲームプログラム及びゲームシステム
JP2012106005A (ja) 画像表示装置、ゲームプログラム、ゲーム制御方法
JP2023065528A (ja) ヘッドマウント情報処理装置およびヘッドマウントディスプレイシステム
US20230260235A1 (en) Information processing apparatus, information processing method, and information processing system

Legal Events

Date Code Title Description
RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20070626

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090331

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110530

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110610

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110805

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110913

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120214

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120216

R151 Written notification of patent or utility model registration

Ref document number: 4933164

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150224

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees