JP2005339377A - 画像処理方法、画像処理装置 - Google Patents

画像処理方法、画像処理装置 Download PDF

Info

Publication number
JP2005339377A
JP2005339377A JP2004159833A JP2004159833A JP2005339377A JP 2005339377 A JP2005339377 A JP 2005339377A JP 2004159833 A JP2004159833 A JP 2004159833A JP 2004159833 A JP2004159833 A JP 2004159833A JP 2005339377 A JP2005339377 A JP 2005339377A
Authority
JP
Japan
Prior art keywords
orientation
image
virtual object
virtual
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2004159833A
Other languages
English (en)
Other versions
JP2005339377A5 (ja
Inventor
Hideo Noro
英生 野呂
Yukio Sakakawa
幸雄 坂川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2004159833A priority Critical patent/JP2005339377A/ja
Priority to PCT/JP2005/010202 priority patent/WO2005116938A1/en
Priority to US10/594,114 priority patent/US8098263B2/en
Publication of JP2005339377A publication Critical patent/JP2005339377A/ja
Publication of JP2005339377A5 publication Critical patent/JP2005339377A5/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】 仮想空間中の仮想物体をより簡便に閲覧、操作するための技術を提供すること。
【解決手段】 操作パネル表示装置304は各仮想物体の状態に係る情報に基づいて、各仮想物体の状態を観察者に対して提示し、入力装置303は提示した状態のうち、所望の状態を変更するための操作を入力し、コンピュータ400は入力された操作に応じて上記情報を更新する。
【選択図】 図1

Description

本発明は、現実空間に仮想物体を重畳させて観察者に提示する為の技術に関するものである。
従来の3DCADデータ閲覧ツールには、仮想物体としてのCAD物体をCRT等のディスプレイ上に表示するもの、VR技術と組み合わせてHMDの表示部に表示するもの等がある。
また、近年、現実空間と仮想空間の繋ぎ目のない(seemless)結合を目的とした複合現実感(以下、「MR」(Mixed Reality)と称す)に関する研究が盛んになっている。MRは、従来、現実空間と切り離された状況でのみ体験可能であったバーチャルリアリティ(以下VRと略す)の世界と現実空間との共存を目的とし、現実空間の画像と仮想空間の画像を組み合わせることにより複合現実感を提供するものである。(例えば特許文献1を参照)
特開平11−136706号公報
前者の場合、実寸感覚が伴わないために、設計したものの大きさ等の把握が困難という問題があった。また対象となるCAD物体を様々な方向から観察するのに、マウス等のポインティングデバイスを用いるために、物体の位置や姿勢、さらには観察者の視点や視線を変更するのに複雑な操作が必要であり、多くの時間を費やすことになっていた。
また後者の場合もやはり現実世界に存在する物体との比較ができないためやはり大きさ等の把握が困難であった。
さらに一般に3DCADデータを閲覧する際、様々な方向から見たり、一部のパーツの選択、非表示等、多くの操作が必要になる。ところが後者の従来システムの場合、煩雑な3DCGによるプログラムとなるため、複雑なユーザーインターフェースを実装するのが困難であるという問題があった。
本発明は以上の問題に鑑みてなされたものであり、仮想空間中の仮想物体をより簡便に閲覧、操作するための技術を提供することを目的とする。
本発明の目的を達成するために、例えば本発明の画像処理方法は以下の構成を備える。
すなわち、現実空間に仮想物体を重畳させて観察者に提示する画像処理方法であって、
仮想空間を構成する各仮想物体の状態に係る情報をメモリに保持する保持工程と、
前記仮想空間を構成する1以上の仮想物体を、観察者が手に保持して操作する1以上の位置姿勢センサの何れかに関連付ける関連付け工程と、
前記関連付け工程で位置姿勢センサに関連付けられた仮想物体を、当該位置姿勢センサによる計測結果に基づいて決まる当該位置姿勢センサ自身の位置姿勢でもって前記仮想空間中に配置する配置工程と、
前記保持工程で保持している前記情報に基づいて、前記仮想空間を構成する各仮想物体の状態を前記観察者に対して提示する提示工程と、
前記提示工程で提示した状態のうち、所望の状態を変更するための操作を入力する入力工程と、
前記入力工程で入力された操作に応じて前記情報を更新する更新工程と
を備えることを特徴とする。
本発明の目的を達成するために、例えば本発明の画像処理方法は以下の構成を備える。
すなわち、観察者の位置姿勢情報を取得し、
現実空間の画像を取得し、
前記観察者の位置姿勢情報に応じて仮想空間の画像を生成し、
前記現実空間の画像と前記仮想空間の画像を合成し、ユーザが装着しているヘッドマウントディスプレイにする画像処理方法であって、
操作パネル画像を生成し、前記現実空間の画像と前記仮想空間の画像に合成するとともに、
前記観察者が操作する操作部の位置情報を取得し、
前記操作パネル画像と前記操作部の位置関係に応じて、操作パネル画像を更新する画像処理方法であり、
前記操作パネル画像において、前記操作部によって選択された部分を拡大することを特徴とする。
本発明の目的を達成するために、例えば本発明の画像処理装置は以下の構成を備える。
すなわち、現実空間に仮想物体を重畳させて観察者に提示する画像処理装置であって、
仮想空間を構成する各仮想物体の状態に係る情報を保持する保持手段と、
前記仮想空間を構成する1以上の仮想物体を、観察者が操作する1以上の位置姿勢センサの何れかに関連付ける関連付け手段と、
前記関連付け手段によって位置姿勢センサに関連付けられた仮想物体を、当該位置姿勢センサによる計測結果に基づいて決まる当該位置姿勢センサ自身の位置姿勢でもって前記仮想空間中に配置する配置手段と、
前記保持手段が保持している前記情報に基づいて、前記仮想空間を構成する各仮想物体の状態を前記観察者に対して提示する提示手段と、
前記提示手段が提示した状態のうち、所望の状態を変更するための操作を入力する入力手段と、
前記入力手段により入力された操作に応じて前記情報を更新する更新手段と
を備えることを特徴とする。
本発明の構成により、仮想空間中の仮想物体をより簡便に閲覧、操作することができる。
以下添付図面を参照して、本発明を好適な実施形態に従って詳細に説明する。
[第1の実施形態]
図1は、現実空間に仮想空間を重畳させた複合現実空間を観察者に提供すると共に、仮想空間中の仮想物体の閲覧、及び操作を可能にさせるための本発明の第1の実施形態に係るシステムの外観を示す図である。
同図において200はトランスミッタで、磁場を発生させる。100は観察者の頭部に装着し、現実空間と仮想空間とを合成した画像を観察者の眼前に提供する為の頭部装着型表示装置(以下、HMD:Head Mounted Displayと呼称する)で、カメラ102a、102b、表示装置101a、101b、磁気レシーバ201により構成されている。
カメラ102a、102bはそれぞれHMD100を頭部に装着した観察者の右目、左目の位置から見える現実空間を連続して撮像するものであり、撮像した各フレームの画像は後段のコンピュータ400に出力される。
表示装置101a、101bはそれぞれ、観察者がHMD100を頭部に装着したときに右目、左目の眼前に位置するようにHMD100に装着されたものであり、後段のコンピュータ400から出力された画像信号に基づいた画像を表示する。従って観察者の右目、左目の眼前にはコンピュータ400が生成した画像が提供されることになる。
磁気レシーバ201は、上記トランスミッタ200が発する磁場の変化を検知し、検知した結果の信号を後段の位置姿勢計測装置205に出力するものである。検知した結果の信号は、トランスミッタ200の位置を原点とし、この原点の位置で互いに直交する3軸をx、y、z軸とする座標系(以下、センサ座標系と呼称する)において、磁気レシーバ201の位置姿勢に応じて検知される磁場の変化を示す信号である。位置姿勢計測装置205は、この信号に基づいて、センサ座標系における磁気レシーバ201の位置姿勢を求め、求めた位置姿勢を示すデータは後段のコンピュータ400に出力される。
図2は、HMD100の具体的な構成を示す図である。
101は映像表示装置であり、0.5〜数インチ程度の小型の液晶表示デバイス等で構成されるものである。103は、映像表示装置101の映像を拡大するレンズの役目を果たす自由曲面プリズムである。このような構成により、映像表示装置101に表示された映像は、観察者にとってはたとえば2m先に90インチ相当の映像として提示される。
102は映像入力装置であり、CCDカメラ、CMOSカメラなどの撮像デバイスで構成されるものである。104は現実空間の光を映像入力装置102に収束させるためのレンズの役目をはたす撮像系プリズムである。撮像系プリズム104は自由曲面プリズム103の外側に、光軸を一致させるように配置することで、映像入力装置102で入力した映像と、映像表示装置101に表示した映像の視差をなくし、現実空間の映像を違和感なく再現することが可能である。
図1に戻って、300は3Dポインティングデバイスで、その内部には不図示の磁気レシーバが備わっており、観察者が3Dポインティングデバイス300を手に持ってその位置や姿勢を変化させると、この不図示の磁気レシーバは磁気レシーバ201と同様に、センサ座標系における自身の位置姿勢に応じて検知される磁場の変化を示す信号(換言すれば、センサ座標系における不図示の磁気レシーバ自身の位置姿勢を示す信号)を位置姿勢計測装置205に出力する。従って位置姿勢計測装置205は、この信号に基づいて、センサ座標系における磁気レシーバの位置姿勢を求めることができ、求めた位置姿勢を示すデータは後段のコンピュータ400に出力される。この3Dポインティングデバイス300は、3Dポインティングデバイス300に予め関連付けた仮想物体(すなわち観察対象の仮想物体)の位置や姿勢を変化させるために観察者が手に持って操作するものである。その使用については後述する。
302は3Dポインティングデバイス300とは異なる使用目的の3Dポインティングデバイスで、3Dポインティングデバイス300と同様の磁気レシーバ203が備わっており、これにより3Dポインティングデバイス300と同様に、自身のセンサ座標系における位置姿勢が求まる。3Dポインティングデバイス302は、例えば仮想物体の断面の指定や、仮想物体を構成するパーツの選択等を行う為に観察者が手に持って操作するためのものである。その使用にしては後述する。
304は操作パネル表示装置で、後述する操作パネルの画像を表示するための表示装置として機能する。この操作パネルの画像は後段のコンピュータ400によって生成され、出力されたものである。
303は入力装置で、上記操作パネル表示装置304に表示された内容に従って観察者が指示を入力するために使用されるものである。入力装置303の使用については後述する。
400はコンピュータで、HMD100の表示装置101a、101bや操作パネル表示装置304に出力すべき画像信号を生成したり、位置姿勢計測装置205からのデータを受け、これを管理したり等の処理を行う。
図3は、このコンピュータ400の機能構成を示す図である。本実施形態では、同図に示した各部はハードウェアでもって構成されたものとする。
401R、401Lは映像キャプチャ部であり、それぞれカメラ102a、102bより入力した画像をデジタル信号として取り込む。
404は位置姿勢情報入力部であり、位置姿勢計測装置205から出力されたデータを取り込む。このデータには、磁気レシーバ201のセンサ座標系における位置姿勢を示すデータ、3Dポインティングデバイス300が備える磁気レシーバのセンサ座標系における位置姿勢を示すデータ、3Dポインティングデバイス302が備える磁気レシーバ203のセンサ座標系における位置姿勢を示すデータが含まれる。
408は、3DCADデータDB(データベース)で、仮想空間を構成する仮想物体の画像を生成するためのデータ(3DCG描画データ)のDBである。3DCG描画データには、仮想物体の幾何学形状や色を示すデータ、テクスチャデータ、位置、姿勢を示すデータなどが含まれる。
406は3DCGシーングラフDBで、上記3DCG描画データを各仮想物体の親子関係に基づいて階層的に管理したシーングラフデータのDBである。またこのDBには、各仮想物体の名前や点滅状態、選択・非選択状態、断面表示状態といった各仮想物体の状態を示す情報が含まれている、これらの情報は後述する操作によって更新可能である。また、この3DCGシーングラフDB406には、カメラ102a、102bの位置姿勢(以下、視点の位置姿勢と呼称する)も管理される。
405は位置姿勢算出部であり、位置姿勢情報入力部404から3Dポインティングデバイス300が備える磁気レシーバのセンサ座標系における位置姿勢を示すデータが入力された場合には、このデータと、センサ座標系と仮想空間との変換データ(仮想空間における位置姿勢とセンサ座標系における位置姿勢との間の関係を示すもので、この変換データにより、一方の座標系における位置姿勢を他方の座標系における位置姿勢に変換することができる)とを用いて、3Dポインティングデバイス300が備える磁気レシーバの仮想空間における位置姿勢を周知の計算により求める。そしてこの3Dポインティングデバイス300に予め関連付けられた仮想物体の位置姿勢を、求めた位置姿勢に更新する。更新は、シーングラフデータ中のこの仮想物体の位置姿勢を更新することによりなされる。なお、3Dポインティングデバイス300に関連付ける仮想物体の数は特に限定するものではない。
また、位置姿勢情報入力部404から3Dポインティングデバイス302が備える磁気レシーバのセンサ座標系における位置姿勢を示すデータが入力された場合には、このデータと上記変換データとを用いて、3Dポインティングデバイス302が備える磁気レシーバの仮想空間における位置姿勢を周知の計算により求める。そしてこの3Dポインティングデバイス302に予め関連付けられた仮想物体の位置姿勢を、求めた位置姿勢に更新する。更新は、シーングラフデータ中のこの仮想物体の位置姿勢を更新することによりなされる。
また、位置姿勢情報入力部404から磁気レシーバ201のセンサ座標系における位置姿勢を示すデータが入力された場合には、このデータと上記変換データとを用いて、レシーバ201の仮想空間における位置姿勢を周知の計算により求める。なお、磁気レシーバ201とカメラ102a、102bそれぞれとの位置姿勢関係を示すデータを用いれば、周知の計算により、仮想空間におけるカメラ102a、102bの位置姿勢を求めることができる。本実施形態では磁気レシーバ201のセンサ座標系における位置姿勢から、仮想空間におけるカメラ102a、102bの位置姿勢を求めるためのデータは予め既知のデータとして与えられているものとする。そしてこのようにして求めたカメラ102a、102bの位置姿勢のデータは、3DCGシーングラフDB406内に管理する。
407はCGレンダリング部で、位置姿勢算出部405が算出したカメラ102a、102bの位置姿勢(3DCGシーングラフDB406に管理されているカメラ102a、102bの位置姿勢)に応じて見える仮想物体の画像を生成する。なお、各仮想物体の仮想空間における位置姿勢は、3DCGシーングラフDB406内のデータに基づいたものであり、また、その画像も3DCGシーングラフDB406内のデータに基づいたものである。従って、3Dポインティングデバイス300、302それぞれに関連付けられた仮想物体の画像は、3Dポインティングデバイス300、302の位置姿勢でもって仮想空間内に配置され、これを位置姿勢算出部405が算出したカメラ102a、102bの位置姿勢に応じて見える画像となる。
なお、所定の位置姿勢を有する視点から見える仮想物体の画像を生成する処理については周知の技術であるので、これに関する詳細な説明は省略する。
402R、402Lはそれぞれ、映像キャプチャ部401R、401Lから入力した現実空間の画像上に、CGレンダリング部407が生成したカメラ102aの位置姿勢に応じて見える仮想物体の画像、カメラ102bの位置姿勢に応じて見える仮想物体の画像を重畳させ、それぞれ、映像生成部403R、403Lに出力する。これにより、カメラ102aの位置姿勢に応じて見える複合現実空間の画像、カメラ102bの位置姿勢に応じて見える複合現実空間の画像を生成することができる。
映像生成部403R、403Lはそれぞれ、映像合成部402R、402Lから出力された複合現実空間の画像をアナログデータに変換し、それぞれ表示装置101a、101bに映像信号として出力する。これにより、HMD100を頭部に装着した観察者の右目、左目の眼前には、それぞれの目の位置に対応した複合現実空間の画像が表示される。
操作情報処理部409は、3DCGシーングラフDB406内に登録されている各種の情報を用いて、パネル画面を生成すると共に、このパネル画面上で操作者が入力装置303を用いて指示した結果をこのパネル画面に反映させて操作パネル生成部410に反映後の操作パネルの画面のデータを出力する。また、入力装置303を用いて仮想物体に係る情報の変更操作が行われた場合には、この操作に応じた変更を3DCGシーングラフDB406内の対応するデータに対して行う。
より具体的には、操作パネル表示装置304の表示画面上には、例えば図5に示す如く、操作パネルの画像が表示される。図5は操作パネルの画面の表示例を示す図である。
同図において500は操作パネルの画像を示し、例えばCADデータのアセンブリツリー構造を表示し、任意の部品を選択したり、部品の拡大・縮小を行ったりするためのものであり、GUIとして機能するものである。
同図において、506は、3DCGシーングラフDB406内のデータに従って、1つの仮想物体を構成する各部品に係る情報(同図では部品名)を階層的に表示するための領域で、同図では501で示す如く、1つの部品が選択されている。この部品名は502で示す如く拡大表示され、観察者にとって見やすくなっている。
また同図では、領域506には、タブ505で示す如く、表示/非表示(HMD100の表示装置101a、101bに表示するか否か)を設定するために各部品に係る情報が表示されており、同図では選択した部品(同図では501で示した部品)に対して表示/非表示を設定する。以上の選択操作など、この操作パネルに対しての操作は入力装置303を用いて行われる。そして入力装置303を用いて行われた操作に応じて操作パネルの画面の更新は上述の通り、操作情報処理部409によって行われる。また、操作情報処理部409は、選択した部品の表示/非表示を設定したりといった、仮想物体に係る情報を変更する操作がなされた場合には、この操作内容を受け、3DCGシーングラフDB406内の対応するデータを更新する。
操作パネル生成部410は、操作情報処理部409から操作パネルの画面のデータを受けて、操作パネル表示装置304に出力する。これにより、操作パネル表示装置304の表示画面上には、例えば図5に示すような操作パネルの画面が表示される。
図4は、コンピュータ400を構成する各部が行う処理のフローを示した図である。
位置姿勢計測装置205は上述の通り、3Dポインティングデバイス300(同図では物体操作デバイス)が備える磁気レシーバのセンサ座標系における位置姿勢を示すデータを求める(4010)。位置姿勢情報入力部404は上述のとおり、このデータと上記変換データとを用いて、3Dポインティングデバイス300が備える磁気レシーバの仮想空間における位置姿勢を周知の計算により求める(4030)。更新は、3DCGシーングラフDB406内の3Dポインティングデバイス300と関連付けられている仮想物体の位置姿勢を更新することによりなされる。
また、位置姿勢計測装置205は上述の通り、磁気レシーバ201のセンサ座標系における位置姿勢を示すデータを求める(4040)。位置姿勢情報入力部404は上述の通り、このデータと上記変換データとを用いて、レシーバ201の仮想空間における位置姿勢を周知の計算により求め、更に、磁気レシーバ201とカメラ102a、102bそれぞれとの位置姿勢関係を示すデータを用いて、周知の計算により、仮想空間におけるカメラ102a、102bの位置姿勢を求める(4040)。なお求めたカメラ102a、102bの位置姿勢のデータは上述の通り、3DCGシーングラフDB406内に管理する。
一方、以上の処理と並行して、カメラ102a、102bからそれぞれ現実空間の画像がそれぞれ映像キャプチャ部401R、映像キャプチャ部401Lに取り込み(4070)、コンピュータ400内の不図示のメモリに描画する(4080)。
また、CGレンダリング部407は3DCGシーングラフDB406内のデータを用いて、このデータに含まれる仮想物体の位置姿勢に仮想物体を配置し、この仮想物体をカメラ102a、102bの位置姿勢に応じて見た場合に見える画像を生成する(4060)。
そして映像合成部402Rは、映像キャプチャ部401Rが取り込んだ現実空間の画像上に、CGレンダリング部407が生成したカメラ102aの位置姿勢に応じて見える仮想空間の画像を合成し、合成後の画像のデータを映像生成部403Rに出力する(4090)。
また映像合成部402Lについても同様で、映像キャプチャ部401Lが取り込んだ現実空間の画像上に、CGレンダリング部407が生成したカメラ102bの位置姿勢に応じて見える仮想空間の画像を合成し、合成後の画像のデータを映像生成部403Lに出力する(4090)。
そして映像生成部403Rは、映像合成部402Rから受けた合成画像(複合現実空間の画像)を表示装置101aに出力し、映像生成部403Lは、映像合成部402Lから受けた受けた合成画像を表示装置101bに出力する(4100)。
これにより、HMD100を頭部に装着した操作者の眼前には、自身の右目、左目の位置姿勢に応じて見える複合現実空間の画像が提供されることになる。
一方、操作情報処理部409は、3DCGシーングラフDB406内のデータを用いて、仮想物体を構成する各部品に係る情報を階層的に表示する為の領域、及び、これら各部品に係る情報を操作するための領域を備える操作パネルの画像を生成するのであるが、この際、例えば図5に示す如く、1つの部品が選択され、選択された部品名を502で示す如く拡大表示する場合など、操作パネルの画像を更新するような指示が入力装置303から入力された場合には、この指示に基づいてパネルの画像を更新する。
部品選択のような操作パネルの更新は、入力装置303の位置情報と操作パネルの位置情報とに基づき、入力装置303と操作パネルの位置関係を識別し、識別結果に応じて判断する。例えば、アセンブルツリー506のある部品上に入力装置303が存在することが判定されると、その部品が選択されたと判断する。また、入力装置303にボタンが付いている場合は、ボタン操作で部品を選択するタイミングを指示しても構わない。
従って操作情報処理部409は、常に入力装置303からの指示を受け付けており(4110)、指示を受けると、この指示に応じて501に示すとごく部品名を拡大表示する等、指示に応じてパネル画像を更新し(4120,4130)、更新したパネルの画像のデータを操作パネル生成部410に出力する(4140)。
これにより、操作パネル表示装置304の表示画面上には、仮想物体を構成する各部品に係る情報が表示されると共に、入力装置303を用いて指示した結果が表示される。
以上の説明したように、本実施形態によって、仮想物体を構成する各部品に関する情報を、HMDの表示画面という比較的表示面積の小さい画面以外で提供することにより、観察者はよりこの情報を確認しやすくなる。また、この画面を見て各部品に関する情報を操作することができる。
なお、以上の説明ではHMD100はビデオシースルー型のものであったが、これに限定するものではなく、光学シースルー型のものを用いても良い。その場合、カメラ102a、102bは無いので、当然、上記合成処理(現実空間の画像と仮想空間の画像との合成処理)はいらない。
また、以上の説明では、操作パネル表示装置304に対する入力は入力装置303を用いて行うようにしているが、操作パネル表示装置304をタッチパネル形式の表示装置としても良い。その場合、入力装置303は省略されることになる。
また、仮想物体の位置や姿勢を操作するための3Dポインティングデバイスは本実施形態では1つ(3Dポインティングデバイス300のみ)であったが、複数用意しておき、そのうち1つもしくは複数を用いるようにしても良い。
[第2の実施形態]
第1の実施形態ではコンピュータ400の機能構成は、図2に示した各部がハードウェアでもって構成されたものとして説明したが、図2に示した各部のうち一部をソフトウェアでもって実現させることも可能である。
図6は、コンピュータ400をPC(パーソナルコンピュータ)やWS(ワークステーション)等のコンピュータでもって実現させる場合の、このコンピュータの基本構成を示す図である。
同図において601はCPUで、RAM602やROM603に格納されているプログラムやデータを用いてコンピュータ全体のを制御を行うと共に、後述するI/F607を介して接続されている外部機器とのデータ通信を制御する。また、上述した、HMD100へ複合現実空間画像を提供するための処理、操作パネル表示装置304へのパネル画像を提供する為の処理なども制御する。
602はRAMで、外部記憶装置606からロードされたプログラムやデータを一時的に記憶するためのエリアを備えるとともに、後述するI/F607を介して受信したデータを一時的に記憶するためのエリアも備える。また、CPU601が各種の処理を行うために使用するワークエリアも備える。
603はROMで、ブートプログラムやコンピュータの設定データなどを格納する。
604は操作部で、キーボードやマウスなどにより構成されており、各種の指示をCPU601に対して入力することができる。なお、上記入力装置303の代わりに、この操作部604を用いるようにしても良い。
605は表示部で、CRTや液晶画面などにより構成されており、CPU601による処理結果を画像や文字などでもって表示する。
606は外部記憶装置で、ここにOS(オペレーティングシステム)やCPU601に、第1の実施形態においてコンピュータ400が行うものとして説明した各処理を実行させるためのプログラムやデータを保存することができ、これらの一部もしくは全部はCPU601の制御により、RAM602にロードされる。なお、やCPU601に、第1の実施形態においてコンピュータ400が行うものとして説明した各処理を実行させるためのプログラムには、図3において、映像キャプチャ部401R、401L、位置姿勢情報入力部404、操作パネル生成部410、位置姿勢算出部405、操作情報処理部409映像合成部402、R、402L、CGレンダリング部407,映像生成部403R、403Lの各部の機能をCPU601に実行させるためのプログラムが含まれている。また、図3のいて、3DCGシーングラフDB406は、外部記憶装置606内のDBとして格納されている。
607はI/Fで、ここにカメラ102a、102b、表示装置101a、101b、磁気レシーバ201、位置姿勢計測装置205、入力装置303、操作パネル表示装置304が接続され、このI/F607を介して互いにデータ通信を行うことができる。
608は以上の各部を繋ぐバスである。
[その他の実施形態]
本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。
また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
さらに、記録媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
本発明を上記記録媒体に適用する場合、その記録媒体には、先に説明したフローチャート(機能構成)に対応するプログラムコードが格納されることになる。
現実空間に仮想空間を重畳させた複合現実空間を観察者に提供すると共に、仮想空間中の仮想物体の閲覧、及び操作を可能にさせるための本発明の第1の実施形態に係るシステムの外観を示す図である。 HMD100の具体的な構成を示す図である。 コンピュータ400の機能構成を示す図である。 コンピュータ400を構成する各部が行う処理のフローを示した図である。 図5は操作パネルの画面の表示例を示す図である。 本発明の第2の実施形態に係るコンピュータ400の基本構成を示す図である。

Claims (8)

  1. 現実空間に仮想物体を重畳させて観察者に提示する画像処理方法であって、
    仮想空間を構成する各仮想物体の状態に係る情報をメモリに保持する保持工程と、
    前記仮想空間を構成する1以上の仮想物体を、観察者が手に保持して操作する1以上の位置姿勢センサの何れかに関連付ける関連付け工程と、
    前記関連付け工程で位置姿勢センサに関連付けられた仮想物体を、当該位置姿勢センサによる計測結果に基づいて決まる当該位置姿勢センサ自身の位置姿勢でもって前記仮想空間中に配置する配置工程と、
    前記保持工程で保持している前記情報に基づいて、前記仮想空間を構成する各仮想物体の状態を前記観察者に対して提示する提示工程と、
    前記提示工程で提示した状態のうち、所望の状態を変更するための操作を入力する入力工程と、
    前記入力工程で入力された操作に応じて前記情報を更新する更新工程と
    を備えることを特徴とする画像処理方法。
  2. 更に、位置姿勢センサによる計測結果に基づいて決まる、当該位置姿勢センサ自身の位置姿勢を、前記関連付け工程で当該位置姿勢センサに関連付けられた仮想物体の位置姿勢として、前記情報内に登録する登録工程を備え、
    前記配置工程では、前記登録工程で前記情報内に登録された仮想物体の位置姿勢を用いて、当該仮想物体を前記仮想空間中に配置することを特徴とする請求項1に記載の画像処理方法。
  3. 前記情報は、前記仮想物体の名前、点滅状態、選択・非選択状態、断面表示状態を示す情報が含まれていることを特徴とする請求項1又は2に記載の画像処理方法。
  4. 観察者の位置姿勢情報を取得し、
    現実空間の画像を取得し、
    前記観察者の位置姿勢情報に応じて仮想空間の画像を生成し、
    前記現実空間の画像と前記仮想空間の画像を合成し、ユーザが装着しているヘッドマウントディスプレイにする画像処理方法であって、
    操作パネル画像を生成し、前記現実空間の画像と前記仮想空間の画像に合成するとともに、
    前記観察者が操作する操作部の位置情報を取得し、
    前記操作パネル画像と前記操作部の位置関係に応じて、操作パネル画像を更新する画像処理方法であり、
    前記操作パネル画像において、前記操作部によって選択された部分を拡大することを特徴とする画像処理方法。
  5. 前記仮想空間の画像は、仮想物体の3DCADデータに基づき生成され、
    前記操作パネルには、前記3DCADデータに基づくアセンブルツリーが含まれ、
    前記拡大される部分には、前記アセンブルツリーに含まれる部品名であることを特徴とする請求項4に記載の画像処理方法。
  6. 現実空間に仮想物体を重畳させて観察者に提示する画像処理装置であって、
    仮想空間を構成する各仮想物体の状態に係る情報を保持する保持手段と、
    前記仮想空間を構成する1以上の仮想物体を、観察者が操作する1以上の位置姿勢センサの何れかに関連付ける関連付け手段と、
    前記関連付け手段によって位置姿勢センサに関連付けられた仮想物体を、当該位置姿勢センサによる計測結果に基づいて決まる当該位置姿勢センサ自身の位置姿勢でもって前記仮想空間中に配置する配置手段と、
    前記保持手段が保持している前記情報に基づいて、前記仮想空間を構成する各仮想物体の状態を前記観察者に対して提示する提示手段と、
    前記提示手段が提示した状態のうち、所望の状態を変更するための操作を入力する入力手段と、
    前記入力手段により入力された操作に応じて前記情報を更新する更新手段と
    を備えることを特徴とする画像処理装置。
  7. コンピュータに請求項1乃至5の何れか1項に記載の画像処理方法を実行させるためのプログラム。
  8. 請求項7に記載のプログラムを格納することを特徴とする、コンピュータ読み取り可能な記憶媒体。
JP2004159833A 2004-05-28 2004-05-28 画像処理方法、画像処理装置 Withdrawn JP2005339377A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2004159833A JP2005339377A (ja) 2004-05-28 2004-05-28 画像処理方法、画像処理装置
PCT/JP2005/010202 WO2005116938A1 (en) 2004-05-28 2005-05-27 Image processing method and image processing apparatus
US10/594,114 US8098263B2 (en) 2004-05-28 2005-05-27 Image processing method and image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004159833A JP2005339377A (ja) 2004-05-28 2004-05-28 画像処理方法、画像処理装置

Publications (2)

Publication Number Publication Date
JP2005339377A true JP2005339377A (ja) 2005-12-08
JP2005339377A5 JP2005339377A5 (ja) 2007-07-05

Family

ID=35451080

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004159833A Withdrawn JP2005339377A (ja) 2004-05-28 2004-05-28 画像処理方法、画像処理装置

Country Status (3)

Country Link
US (1) US8098263B2 (ja)
JP (1) JP2005339377A (ja)
WO (1) WO2005116938A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012118910A (ja) * 2010-12-03 2012-06-21 Fujitsu Ltd 画像処理装置、画像表示システムおよび画像処理プログラム
JP2017211811A (ja) * 2016-05-25 2017-11-30 富士通株式会社 表示制御プログラム、表示制御方法および表示制御装置

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7868904B2 (en) * 2005-04-01 2011-01-11 Canon Kabushiki Kaisha Image processing method and image processing apparatus
NL1035303C2 (nl) * 2008-04-16 2009-10-19 Virtual Proteins B V Interactieve virtuele reality eenheid.
US20110035802A1 (en) * 2009-08-07 2011-02-10 Microsoft Corporation Representing virtual object priority based on relationships
FR2976681B1 (fr) * 2011-06-17 2013-07-12 Inst Nat Rech Inf Automat Systeme de colocalisation d'un ecran tactile et d'un objet virtuel et dispostif pour la manipulation d'objets virtuels mettant en oeuvre un tel systeme
US9606992B2 (en) * 2011-09-30 2017-03-28 Microsoft Technology Licensing, Llc Personal audio/visual apparatus providing resource management
JP6138566B2 (ja) * 2013-04-24 2017-05-31 川崎重工業株式会社 部品取付作業支援システムおよび部品取付方法
DE102014009299A1 (de) 2014-06-26 2015-12-31 Audi Ag Verfahren zum Betreiben einer Virtual-Reality-Brille und System mit einer Virtual-Reality-Brille
DE102014009304A1 (de) * 2014-06-26 2015-12-31 Audi Ag Verfahren zum Betreiben einer Virtual-Reality-Brille und System mit einer Virtual-Reality-Brille
DE102014009302A1 (de) 2014-06-26 2015-12-31 Audi Ag Verfahren zum Betreiben einer Virtual-Reality-Brille und System mit einer Virtual-Reality-Brille
DE102014009301A1 (de) * 2014-06-26 2016-03-03 Audi Ag Verfahren zum Betreiben einer Virtual-Reality-Brille und System mit einer Virtual-Reality-Brille
US10565802B2 (en) * 2017-08-31 2020-02-18 Disney Enterprises, Inc. Collaborative multi-modal mixed-reality system and methods leveraging reconfigurable tangible user interfaces for the production of immersive, cinematic, and interactive content
US11010986B2 (en) * 2018-08-30 2021-05-18 Apple Inc. Virtual object kit

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5590062A (en) * 1993-07-02 1996-12-31 Matsushita Electric Industrial Co., Ltd. Simulator for producing various living environments mainly for visual perception
US6061064A (en) * 1993-08-31 2000-05-09 Sun Microsystems, Inc. System and method for providing and using a computer user interface with a view space having discrete portions
US5803738A (en) * 1994-06-24 1998-09-08 Cgsd Corporation Apparatus for robotic force simulation
US6127990A (en) * 1995-11-28 2000-10-03 Vega Vista, Inc. Wearable display and methods for controlling same
US6522312B2 (en) 1997-09-01 2003-02-18 Canon Kabushiki Kaisha Apparatus for presenting mixed reality shared among operators
JP3450704B2 (ja) 1997-09-01 2003-09-29 キヤノン株式会社 位置姿勢検出装置及び情報処理方法
US6166744A (en) * 1997-11-26 2000-12-26 Pathfinder Systems, Inc. System for combining virtual images with real-world scenes
US6625299B1 (en) * 1998-04-08 2003-09-23 Jeffrey Meisner Augmented reality technology
US6629065B1 (en) * 1998-09-30 2003-09-30 Wisconsin Alumni Research Foundation Methods and apparata for rapid computer-aided design of objects in virtual reality and other environments
US6466232B1 (en) * 1998-12-18 2002-10-15 Tangis Corporation Method and system for controlling presentation of information to a user based on the user's condition
JP3363837B2 (ja) 1999-06-11 2003-01-08 キヤノン株式会社 ユーザインタフェース装置および情報処理方法
US6972734B1 (en) * 1999-06-11 2005-12-06 Canon Kabushiki Kaisha Mixed reality apparatus and mixed reality presentation method
JP3413127B2 (ja) 1999-06-11 2003-06-03 キヤノン株式会社 複合現実感装置及び複合現実感提示方法
JP4204713B2 (ja) 1999-08-23 2009-01-07 株式会社東芝 三次元モデルの表示方法と、これを実現するプログラムが記憶されたコンピュータにより読み取り可能な記憶媒体
US6408257B1 (en) * 1999-08-31 2002-06-18 Xerox Corporation Augmented-reality display method and system
US20040104935A1 (en) * 2001-01-26 2004-06-03 Todd Williamson Virtual reality immersion system
US6753847B2 (en) * 2002-01-25 2004-06-22 Silicon Graphics, Inc. Three dimensional volumetric display input and output configurations
JP2005149409A (ja) 2003-11-19 2005-06-09 Canon Inc 画像再生方法及び装置
JP4739002B2 (ja) 2005-06-30 2011-08-03 キヤノン株式会社 画像処理方法、画像処理装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012118910A (ja) * 2010-12-03 2012-06-21 Fujitsu Ltd 画像処理装置、画像表示システムおよび画像処理プログラム
JP2017211811A (ja) * 2016-05-25 2017-11-30 富士通株式会社 表示制御プログラム、表示制御方法および表示制御装置

Also Published As

Publication number Publication date
US8098263B2 (en) 2012-01-17
WO2005116938A1 (en) 2005-12-08
US20070146390A1 (en) 2007-06-28

Similar Documents

Publication Publication Date Title
US8098263B2 (en) Image processing method and image processing apparatus
JP4533087B2 (ja) 画像処理方法、画像処理装置
JP4227561B2 (ja) 画像処理方法、画像処理装置
KR102517876B1 (ko) 증강 현실 데이터를 레코딩하기 위한 기술
JP4933406B2 (ja) 画像処理装置、画像処理方法
JP4739002B2 (ja) 画像処理方法、画像処理装置
US7782320B2 (en) Information processing method and information processing apparatus
US20160357491A1 (en) Information processing apparatus, information processing method, non-transitory computer-readable storage medium, and system
US20070132662A1 (en) Information processing method, information processing apparatus, and image sensing apparatus
JP4677281B2 (ja) 画像処理方法、画像処理装置
US20060170652A1 (en) System, image processing apparatus, and information processing method
KR20020025301A (ko) 다중 사용자를 지원하는 파노라믹 이미지를 이용한증강현실 영상의 제공 장치 및 그 방법
JP2001195601A (ja) 複合現実感提示装置及び複合現実感提示方法並びに記憶媒体
JP2005107971A (ja) 複合現実空間画像生成方法及び複合現実感システム
JP2006209664A (ja) システム、画像処理装置、情報処理方法
JP2009025918A (ja) 画像処理装置、画像処理方法
JP2007034628A (ja) 画像処理方法及び装置
JP4574323B2 (ja) 画像処理方法、画像処理装置
JP7279113B2 (ja) 画像処理装置、画像処理方法、コンピュータプログラム
JP4217661B2 (ja) 画像処理方法、画像処理装置
JP2005251118A (ja) 画像処理方法、画像処理装置
JP2018124746A (ja) 情報処理装置、情報処理システム、情報処理方法及びプログラム
JP4343744B2 (ja) 画像処理方法、画像処理装置
JP2006309459A (ja) 画像処理方法、画像処理装置
JP2004013309A (ja) 情報処理方法および複合現実感提示装置

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070523

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070523

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20070523

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20080110