JP2009048237A - 画像処理装置、画像処理方法 - Google Patents

画像処理装置、画像処理方法 Download PDF

Info

Publication number
JP2009048237A
JP2009048237A JP2007211056A JP2007211056A JP2009048237A JP 2009048237 A JP2009048237 A JP 2009048237A JP 2007211056 A JP2007211056 A JP 2007211056A JP 2007211056 A JP2007211056 A JP 2007211056A JP 2009048237 A JP2009048237 A JP 2009048237A
Authority
JP
Japan
Prior art keywords
image
time
space image
unit
virtual space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2007211056A
Other languages
English (en)
Inventor
Naohito Nakamura
直仁 中村
Kenji Morita
憲司 守田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2007211056A priority Critical patent/JP2009048237A/ja
Publication of JP2009048237A publication Critical patent/JP2009048237A/ja
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Digital Computer Display Output (AREA)

Abstract

【課題】仮想空間画像や現実空間画像の生成タイミングと、これらの画像の合成画像を表示するタイミングとのずれを極力軽減させるための技術を提供する。
【解決手段】撮像装置1010の位置姿勢情報の計算に要した時間、仮想空間画像の生成に要した時間、現実空間画像の生成に要した時間、仮想空間画像と現実空間画像との合成画像を生成するための全ての処理に要した時間を、取得する。そして、取得したこれらの時間に基づいて、位置姿勢導出部1120、画像入力部1110、仮想空間画像生成部1190、画像合成部1200の動作順序を決定する。そして、決定した動作順序で位置姿勢導出部1120、画像入力部1110、仮想空間画像生成部1190、画像合成部1200を動作させる。
【選択図】図1

Description

本発明は、複合現実感を提供するための技術に関するものである。
近年、現実空間と仮想空間との繋ぎ目のない結合を目的とした、複合現実感(MR:Mixed Reality)に関する研究が盛んに行われている。複合現実感の提示を行う画像表示装置は、例えば次のような構成を有する装置である。即ち、ビデオカメラ等の撮像装置が撮像した現実空間の画像上に、撮像装置の位置及び姿勢に応じて生成した仮想空間の画像(例えばコンピュータグラフィックスにより描画された仮想物体や文字情報等)を重畳描画した画像を表示する装置である。このような装置には、例えば、HMD(ヘッドマウントディスプレイ)を用いることができる。
また、係る画像表示装置は、観察者の頭部に装着された光学シースルー型ディスプレイに、観察者の視点の位置及び姿勢に応じて生成した仮想空間の画像を表示する光学シースルー方式によっても実現される。
このような画像表示装置の応用としては、患者の体表面に体内の様子を重畳表示する手術支援や、現実空間に浮遊する仮想の敵と戦う複合現実感ゲーム等がある。この他にも、例えば、市街地を撮像することで得られる現実空間の画像中に含まれる著名な建造物等の名称や案内を仮想空間画像として重畳表示するナビゲーションがある。また、この他にも、例えば、ビルの建設予定地を撮像することで得られる画像中に建設予定のビルのコンピュータグラフィックス映像を重畳表示する景観シミュレーションがある。
複合現実空間内を観察する為には、次のような処理を行う必要がある。即ち、ユーザの視点位置、視線方向等をリアルタイムで計測し、その視点位置、視線方向から現実空間内を観察した映像をビデオカメラ等で取得する。そしてこの取得した映像に対して、ユーザの視点位置、視線方向等から観測した仮想物体(CG物体)を重畳表示する。
ここで、ユーザの視点位置、視線方向をリアルタイムに計測する為には、磁気方式による位置姿勢センサ等が用いられ、これを撮像装置に取り付けることによって、撮像装置の位置姿勢を検出する。磁気方式の位置姿勢センサとは、磁気発生装置(発信機)と磁気センサ(受信機)との間の相対位置・姿勢を検出するものであり、米国Polhemus社の製品FASTRAK等があげられる。これは特定の領域内で、センサの3次元位置と姿勢をリアルタイムに検出する装置である。この計測した6自由度の計測値を、仮想空間内での仮想カメラの位置および姿勢(カメラ座標系)と結びつけることにより、複合現実空間内を観察することができる。
ところで、視覚刺激を観察しているだけで体験者が動揺病のような症状になってしまうことが知られている。この症状は、映像酔いやVR酔いと呼ばれ、メカニズムは現在明らかにはなっていないものの、視覚的な動きの入力と、平衡感覚系からの動きの入力の不一致が映像酔いの主要な要因とされている。近年、映像酔いのメカニズムを解明する研究(非特許文献1)や、表示する映像として手ぶれ補正加工を行った映像を使用することで映像酔いを防止する研究(非特許文献2)が行われている。
木竜.映像酔いで見られた映像の動きベクトルと生体機能との関係.映像情報メディア学会技術報告、Vol.30、No.58、2006. 森田.映像が生体に与える影響を防止する技術.映像情報メディア学会技術報告、Vol.30、No.58、2006.
上述の映像酔いは、HMDを装着して複合現実感を体験している時にも発症する症状である。その一因は、複合現実感体験者の身体の動きと複合現実空間画像が表示されるタイミングとの間のズレによって、前庭系と視覚系の時間的矛盾が発生するためと言われている。このタイミングのズレは、例えばビデオシースルー方式の場合、現実空間画像のキャプチャとレンダリング、カメラ座標系の位置及び姿勢の導出、仮想空間画像のレンダリングといった各処理が複合現実空間画像を生成するために必要であることが原因である。
このタイミングのズレをできる限り少なくする為に、これまでにカメラ座標系の位置及び姿勢を導出する為の処理の高速化、仮想空間画像のレンダリングの高速化、を目的とする手法が種々提案されている。しかし、複合現実空間画像を生成する為に必要となる現実空間画像と仮想空間画像との合成方法に関する提案はこれまでになされていない。
本発明は以上の問題に鑑みて成されたものであり、仮想空間画像や現実空間画像の生成タイミングと、これらの画像の合成画像を表示するタイミングとのずれを極力軽減させるための技術を提供することを目的とする。
本発明の目的を達成するために、例えば、本発明の画像処理装置は以下の構成を備える。
即ち、頭部装着型表示装置が有する撮像装置の位置姿勢情報を計算する第1の手段と、
前記位置姿勢情報に基づいて仮想空間画像を生成する第2の手段と、
前記撮像装置による撮像結果に基づいて現実空間画像を生成する第3の手段と、
前記仮想空間画像と前記現実空間画像との合成画像を、前記頭部装着型表示装置に対して出力する出力手段と
を備える画像処理装置であって、
前記位置姿勢情報の計算に要した時間を示す時間情報と、前記仮想空間画像の生成に要した時間を示す時間情報と、前記現実空間画像の生成に要した時間を示す時間情報と、前記合成画像を生成するための処理に要した時間を示す時間情報と、を取得し、取得したこれらの時間情報に基づいて、前記第1乃至3の手段の動作順序を決定する決定手段と、
前記決定手段が決定した動作順序で前記第1乃至3の手段を動作させる手段と
を備えることを特徴とする。
本発明の目的を達成するために、例えば、本発明の画像処理方法は以下の構成を備える。
即ち、頭部装着型表示装置が有する撮像装置の位置姿勢情報を計算する第1の手段と、
前記位置姿勢情報に基づいて仮想空間画像を生成する第2の手段と、
前記撮像装置による撮像結果に基づいて現実空間画像を生成する第3の手段と、
前記仮想空間画像と前記現実空間画像との合成画像を、前記頭部装着型表示装置に対して出力する出力手段と
を備える画像処理装置が行う画像処理方法であって、
前記位置姿勢情報の計算に要した時間を示す時間情報と、前記仮想空間画像の生成に要した時間を示す時間情報と、前記現実空間画像の生成に要した時間を示す時間情報と、前記合成画像を生成するための処理に要した時間を示す時間情報と、を取得し、取得したこれらの時間情報に基づいて、前記第1乃至3の手段の動作順序を決定する決定工程と、
前記決定工程で決定した動作順序で前記第1乃至3の手段を動作させる工程と
を備えることを特徴とする。
本発明の構成によれば、仮想空間画像や現実空間画像の生成タイミングと、これらの画像の合成画像を表示するタイミングとのずれを極力軽減させることができる。
以下、添付図面を参照し、本発明の好適な実施形態について詳細に説明する。
[第1の実施形態]
図1は、本実施形態に係るシステムの機能構成例を示すブロック図である。図1に示す如く、本実施形態に係るシステムは、画像処理装置1100と、頭部装着型表示装置の一例としてのHMD1000と、で構成されており、画像処理装置1100とHMD1000とは互いにデータ通信が可能なように接続されている。従って、画像処理装置1100とHMD1000との間の接続は、有線、無線の何れであっても構わない。
先ず、HMD1000について説明する。
1010はビデオカメラなどの撮像装置であり、現実空間の動画像を撮像するものである。そして撮像装置1010は、撮像した動画像を構成する各フレームの画像(現実空間画像)を順次、画像処理装置1100に対して送出する。撮像装置1010はそれぞれ右目用と左目用とが設けられており、それぞれ、HMD1000を頭部に装着した観察者の右目から見える現実空間の動画像、左目から見える現実空間の動画像を撮像する。
1020は液晶画面などで構成されている表示装置で、画像処理装置1100から送出された画像(合成画像、複合現実空間画像)を表示する。表示装置1020はそれぞれ右目用と左目用とが設けられており、それぞれは、HMD1000を頭部に装着した観察者の右目、左目の眼前に位置するように、HMD1000に取り付けられている。
次に、画像処理装置1100について説明する。
画像入力部1110は、撮像装置1010から送出された右目用の現実空間画像、左目用の現実空間画像を取得する。そして取得したそれぞれの現実空間画像をデータ記憶部1170に格納する。
位置姿勢導出部1120(第1の手段)は、画像入力部1110がデータ記憶部1170に格納した現実空間画像を用いて、撮像装置1010の位置姿勢情報を計算する。ここで、位置姿勢導出部1120の動作についてより詳細に説明する。
撮像装置1010が撮像可能な現実空間中には、図1に示す如く、指標Q1〜Q4(以下、基準指標と呼称する)が配されている。各基準指標の世界座標系における配置位置は既知であるものとする。ここで、世界座標系とは、現実空間中の1点を原点として定義し、係る原点で互いに直交する3軸をそれぞれx軸、y軸、z軸とする座標系である。各基準指標の配置位置は、データとしてデータ記憶部1170に格納されている。
各基準指標は、HMD1000が動き得る範囲内で常に撮像装置1010によって3個以上撮像されているように配されていることが好ましい。図1では、Q1、Q3、Q4が撮像装置1010の視野に含まれている状況を示している。なお、現実空間中に配する基準指標の数は、図1に示す如く4に限定するものではなく、3以上であればよい。
また、基準指標は、例えば、それぞれが異なる色を有する円形状のマーカによって構成してもよいし、それぞれが異なるテクスチャ特徴を有する自然特徴等の特徴点によって構成してもよい。また、ある程度の面積を有する四角形の単色領域によって形成されるような、四角形指標を用いることも可能である。即ち、撮像装置1010によって撮像された画像上における基準指標の投影像の画像座標が検出可能であって、かついずれの基準指標であるかが何らかの方法で識別可能であれば、基準指標は何れの形態であってもよい。
従って、位置姿勢導出部1120は、データ記憶部1170に格納されている現実空間画像を取得し、この取得した現実空間画像中における基準指標の画像座標を検出する。そして、この検出した画像座標と、この基準指標の世界座標系における配置位置(データ記憶部1170から取得)と、を用いて、撮像装置1010の位置姿勢情報を計算する。係る計算処理は、右目用の撮像装置1010、左目用の撮像装置1010のそれぞれについて行うものとする。なお、画像中の基準指標の画像座標と、この基準指標の世界座標系における配置位置とを用いて、この画像を撮像した撮像装置の位置姿勢情報を計算する技術については、下記の文献に記されているように公知であるため、これについての詳細な説明は省略する。
● R.M.Haralick, C.Lee, K.Ottenberg,and M.Nolle: Review and analysis of solutions of the three point perspective pose estimation problem, International Journal of Computer Vision, vol.13, no.3, pp.331―356, 1994.
● D.G.Lowe: Fitting parameterized three―dimensional models to images, IEEE Transactions on PAMI, vol.13, no.5, pp.441―550, 1991.
なお、撮像装置1010の位置姿勢情報を求めるための方法はこれに限定するものではなく、様々な方法が考えられる。例えば、位置姿勢センサを用いる方法が考えられる。位置姿勢センサには、例えば、米国Polhemus社の製品FASTRAKがある。位置姿勢センサを用いて撮像装置1010の位置姿勢情報を計算する方法について簡単に説明する。磁気トランスミッタを現実空間中の所定の位置に配置した後、磁気トランスミッタを動作させると、この磁気トランスミッタは周囲に磁界を発生させる。一方、撮像装置1010には、磁気レシーバを取り付け、磁気レシーバは、磁界中における自身の位置姿勢に応じた磁界の変化を検知する。検知した結果は、磁気トランスミッタの動作制御を行うセンサ制御装置に送出される。センサ制御装置は、係る検知結果に基づいて、センサ座標系における磁気レシーバの位置姿勢情報を計算する。ここで、センサ座標系とは、磁気トランスミッタの位置を原点として定義し、係る原点で互いに直交する3軸をそれぞれ、x軸、y軸、z軸とする座標系である。そして求めたセンサ座標系における磁気レシーバの位置姿勢情報を画像処理装置1100に送出する。なお、センサ座標系における位置姿勢情報を世界座標系やその他の座標系における位置姿勢情報に変換する処理は適宜行えばよい。
本実施形態では、撮像装置1010の位置姿勢情報が得られるのであれば、如何なる構成を用いても良い。そして結果として、位置姿勢導出部1120は、求めた位置姿勢情報をデータ記憶部1170に格納する。
時間遅れ計測部1130は、位置姿勢導出部1120が位置姿勢情報の計算に要した時間(位置姿勢導出時間遅れ)を計測する。そして計測した時間を示す時間情報をデータ記憶部1170に格納する。なお、係る計測は、位置姿勢情報が計算される毎に行われる。
仮想空間画像生成部1190(第2の手段)は、データ記憶部1170に格納されている仮想空間のデータに基づいて、仮想空間を構築する。仮想空間のデータには、仮想空間を構成する各仮想物体に係るデータや、仮想空間中を照射する光源に係るデータが含まれる。そして仮想空間画像生成部1190は、データ記憶部1170に格納されている位置姿勢情報が示す位置姿勢を有する視点を仮想空間中に設定する。そして、係る視点から見える仮想空間の画像(仮想空間画像)を生成する。なお、所定の位置姿勢を有する視点から見える仮想空間の画像を生成するための技術については周知の技術であるので、これについての詳細な説明は省略する。
処理速度計測部1140は、仮想空間画像生成部1190が仮想空間画像の生成に要した時間(仮想空間画像描画処理時間)を計測する。そして計測した時間を示す時間情報をデータ記憶部1170に格納する。なお、係る計測は、仮想空間画像が生成される毎に行われる。
画像合成部1200は先ず、自身が管理するメモリ上に、データ記憶部1170に格納されている現実空間画像を描画する(第3の手段)。そして描画したこの現実空間画像上に、仮想空間画像生成部1190が生成した仮想空間画像を重畳描画することで、係るメモリ上に現実空間画像と仮想空間画像との合成画像を生成する。そしてこの生成した合成画像をHMD1000の表示装置1020に対して出力する。
処理速度計測部1150は、画像合成部1200が現実空間画像を描画する為に要した時間(現実空間画像描画処理時間)を計測する。そして計測した時間を示す時間情報をデータ記憶部1170に格納する。
時間遅れ計測部1160は、画像合成部1200が第n(n≧1)フレーム目における合成画像を出力してから、第(n+1)フレーム目における合成画像を出力するまでの間の時間を計測する。即ち、1フレーム分の合成画像を生成するための全ての処理に要した時間を計測する。そして、計測した時間を示す時間情報をデータ記憶部1170に格納する。なお、係る計測は、画像合成部1200が合成画像を出力する毎に行われる。
画像合成方法指定部1180は、データ記憶部1170に格納された上記各時間情報を参照し、位置姿勢導出部1120、画像入力部1110、仮想空間画像生成部1190、画像合成部1200、の動作順序を決定する。そして決定した順序で各部が動作するように、各部の動作を制御する。
データ記憶部1170は上述の通り、様々な情報を格納するためのものであり、RAMやハードディスクドライブ装置などにより構成されている。なお、データ記憶部1170には、上記説明においてデータ記憶部1170に格納するものとして説明した情報の他に、本実施形態において既知の情報として説明するものについても格納されているものとする。
図3は、画像処理装置1100が、現実空間画像と仮想空間画像との合成画像を生成し、HMD1000に対して出力するために行う処理のフローチャートである。
先ず、ステップS3010では、画像合成方法指定部1180により、初期値としての動作順序を設定する。係る動作順序は、例えば、画像処理装置1100のユーザが入力指示した動作順序であっても良いし、予め定められたものであっても良い。
次に、ステップS3020では、画像処理装置1100を構成する各部が動作することで、現実空間画像と仮想空間画像との合成画像を生成する。なお、係る生成の過程で動作する位置姿勢導出部1120、画像入力部1110、仮想空間画像生成部1190、画像合成部1200、の動作順序については、ステップS3010で設定した動作順序とする。
図4A〜図4Eは、ステップS3020における処理を行うための、様々な動作順序に対応するフローチャートである。以下の説明上、図4Aのフローチャートに従った処理を実行するための動作順序を「動作順序A」、図4Bのフローチャートに従った処理を実行するための動作順序を「動作順序B」と呼称する。また、図4Cのフローチャートに従った処理を実行するための動作順序を「動作順序C」、図4Dのフローチャートに従った処理を実行するための動作順序を「動作順序D」と呼称する。また、図4Eのフローチャートに従った処理を実行するための動作順序を「動作順序E」と呼称する。また、以下の説明では、ステップS3010では、動作順序Aが設定されたものとして説明する。しかし、他の動作順序が初期値として設定されても、以下の説明は実質的には同じである。
従って、ステップS3020では、図4Aのフローチャートに従った処理を実行することになる。図4Aのフローチャートに従った処理は、現実空間画像のキャプチャのすぐ後に位置姿勢情報を導出するため、現実空間画像と仮想空間画像との整合性を高くすることができる。
先ず、ステップS4010では、画像入力部1110は、撮像装置1010から送出された現実空間画像(撮像結果)を取得(キャプチャ)する。なお、時間遅れ計測部1160は、画像合成部1200から1フレーム前の合成画像が出力されたタイミングから計時を開始している。
次に、ステップS4011では、位置姿勢導出部1120は、ステップS4010で取得した現実空間画像と、データ記憶部1170に格納されている各基準指標の配置位置とを用いて、撮像装置1010の位置姿勢情報を求める。このとき、時間遅れ計測部1130は、位置姿勢導出部1120が位置姿勢情報を求める為に要した時間を計時する。
次に、ステップS4012では、画像合成部1200は、自身が管理するメモリ上に、ステップS4010で取得した現実空間画像を描画する。このとき、処理速度計測部1150は、画像合成部1200が現実空間画像を描画する為に要した時間を計測する。
次に、ステップS4013では、仮想空間画像生成部1190は、ステップS4011で計算した位置姿勢情報が示す位置姿勢から見える仮想空間の画像を生成する。このとき、処理速度計測部1140は、仮想空間画像生成部1190が仮想空間画像の生成に要した時間を計測する。そして次に、画像合成部1200は、ステップS4012で上記メモリ上に描画した現実空間画像上に、仮想空間画像生成部1190が生成した仮想空間画像を重畳描画することで、係るメモリ上に現実空間画像と仮想空間画像との合成画像を生成する。そしてこの生成した合成画像をHMD1000の表示装置1020に対して出力する。そして、時間遅れ計測部1160は、1フレーム前の合成画像が出力されたタイミングから、画像合成部1200から現フレームにおける合成画像が出力されたタイミングまでの間の時間を計測する。
そして処理をステップS3030に戻す。
ステップS3030では、ステップS4010からステップS4013で計時した各時間を示す時間情報をデータ記憶部1170に格納する。
次に、本処理の終了指示が入力された、若しくは本処理を終了する条件が満たされた場合には本処理を終了する。一方、本処理の終了指示は入力されてもいないし、本処理を終了する条件も満たされていない場合には処理をステップS3040を介してステップS3050に進める。
ステップS3050では、画像合成方法指定部1180は、ステップS3030でデータ記憶部1170に収集した各時間情報を参照する。そして参照したこれらの各時間情報に基づいて、次のフレームの合成画像を生成するための、位置姿勢導出部1120、画像入力部1110、仮想空間画像生成部1190、画像合成部1200、の動作順序(第1乃至3の手段の動作順序)を決定し、設定する。
動作順序を決定する方法については様々な方法が挙げられるが、以下ではその一例について説明する。
例えば、処理速度計測部1140が計測した時間tvが閾値以上で、且つ時間遅れ計測部1160が計測した時間に占める時間tvの割合が閾値以上であるとする。この場合、画像合成方法指定部1180は、次のフレームの合成画像を生成する処理(ステップS3020における処理)として、図4Cのフローチャートに従った処理を実行するように決定する。即ち、図4Cのフローチャートに従った処理を実行するための動作順序である「動作順序C」を設定する。
そして処理をステップS3020に戻し、次のフレームの合成画像を生成する処理を実行する。ここで、次のフレームの合成画像を生成する場合に行うステップS3020における処理、即ち、図4Cのフローチャートに従った処理について説明する。
ステップS4030では位置姿勢導出部1120は1フレーム前の現実空間画像としてデータ記憶部1170に格納されている現実空間画像とデータ記憶部1170に格納されている各基準指標の配置位置とを用いて、撮像装置1010の位置姿勢情報を求める。このとき、時間遅れ計測部1130は、位置姿勢導出部1120が位置姿勢情報を求める為に要した時間を計時する。更に、時間遅れ計測部1160は、画像合成部1200から1フレーム前の合成画像が出力されたタイミングから計時を開始している。
次に、ステップS4031では、仮想空間画像生成部1190は、ステップS4030で計算した位置姿勢情報が示す位置姿勢から見える仮想空間の画像を生成する。このとき、処理速度計測部1140は、仮想空間画像生成部1190が仮想空間画像の生成に要した時間を計測する。
次に、ステップS4032では、画像入力部1110は、撮像装置1010から送出された現実空間画像を取得(キャプチャ)する。
次に、ステップS4033では、画像合成部1200は先ず、自身が管理するメモリ上に、ステップS4032で取得した現実空間画像を描画する。このとき、処理速度計測部1150は、画像合成部1200が現実空間画像を描画する為に要した時間を計測する。次に、画像合成部1200は、メモリ上に描画した現実空間画像上に、ステップS4031で仮想空間画像生成部1190が生成した仮想空間画像を重畳描画することで、係るメモリ上に現実空間画像と仮想空間画像との合成画像を生成する。そしてこの生成した合成画像をHMD1000の表示装置1020に対して出力する。そして、時間遅れ計測部1160は、1フレーム前の合成画像が出力されたタイミングから、画像合成部1200から合成画像が出力されたタイミングまでの間の時間を計測する。
そして処理をステップS3030に戻す。
動作順序Cを用いることで、合成画像を表示するタイミングの直前にキャプチャと描画処理を行うため、現実空間画像の時間遅れの軽減が期待できる。
なお、上記閾値は、予め設定されたものであっても良いし、画像処理装置1100のユーザが指示入力したものであっても良い。これは、以降に登場する閾値についても同様である。
また、ステップS3050における動作順序を決定する処理として、例えば、処理速度計測部1150が計測した時間trが閾値以上で、且つ時間遅れ計測部1160が計測した時間に占める時間trの割合が閾値以上であるとする。この場合、画像合成方法指定部1180は、次のフレームの合成画像を生成する処理(ステップS3020における処理)として、図4Bのフローチャートに従った処理を実行するように決定する。即ち、図4Bのフローチャートに従った処理を実行するための動作順序である「動作順序B」を設定する。
先ず、ステップS4020では、画像入力部1110は、撮像装置1010から送出された現実空間画像を取得(キャプチャ)する。なお、時間遅れ計測部1160は、画像合成部1200から1フレーム前の合成画像が出力されたタイミングから計時を開始している。
次に、ステップS4021では、画像合成部1200は、自身が管理するメモリ上に、ステップS4020で取得した現実空間画像を描画する。このとき、処理速度計測部1150は、画像合成部1200が現実空間画像を描画する為に要した時間を計測する。
次に、ステップS4022では、位置姿勢導出部1120は、ステップS4020で取得した現実空間画像と、データ記憶部1170に格納されている各基準指標の配置位置とを用いて、撮像装置1010の位置姿勢情報を求める。このとき、時間遅れ計測部1130は、位置姿勢導出部1120が位置姿勢情報を求める為に要した時間を計時する。
次に、ステップS4023では、仮想空間画像生成部1190は、ステップS4022で計算した位置姿勢情報が示す位置姿勢から見える仮想空間の画像を生成する。このとき、処理速度計測部1140は、仮想空間画像生成部1190が仮想空間画像の生成に要した時間を計測する。そして次に、画像合成部1200は、ステップS4021で上記メモリ上に描画した現実空間画像上に、仮想空間画像生成部1190が生成した仮想空間画像を重畳描画することで、係るメモリ上に現実空間画像と仮想空間画像との合成画像を生成する。そしてこの生成した合成画像をHMD1000の表示装置1020に対して出力する。そして、時間遅れ計測部1160は、1フレーム前の合成画像が出力されたタイミングから、画像合成部1200から合成画像が出力されたタイミングまでの間の時間を計測する。
そして処理をステップS3030に戻す。
また、ステップS3050における動作順序を決定する処理として、例えば、時間遅れ計測部1130が計測した時間tpが閾値以上であるとする。この場合、画像合成方法指定部1180は、次のフレームの合成画像を生成する処理(ステップS3020における処理)として、図4Aのフローチャートに従った処理を実行するように決定する。即ち、図4Aのフローチャートに従った処理を実行するための動作順序である「動作順序A」を設定する。図4Aのフローチャートに従った処理については後述の通りであるので、ここでの説明は省略する。
[第2の実施形態]
第1の実施形態では、様々な時間情報を用いて、1つの動作順序を決定する処理を画像処理装置1100側で行うようにしていたが、係る決定を画像処理装置1100のユーザに行わせるようにしても良い。
この場合、それぞれの時間情報を画像処理装置1100が有する表示画面上に表示させ、ユーザに対して提示する。そして、ユーザは、係る表示画面を見て動作順序を判断し、判断した結果を、指示入力する。
[第3の実施形態]
第1、第2の実施形態は、画像処理装置1100にビデオシースルー方式のHMDが接続されている場合について説明を行った。本実施形態に係る画像処理装置は、光学シースルー方式・ビデオシースルー方式の双方の方式を持つHMDが接続されている場合になっている。以下、本実施形態に係る画像処理装置について説明する。
図5は、本実施形態に係るシステムの機能構成例を示すブロック図である。図1と同じ部分については同じ番号をつけており、その説明を省略する。図5に示す如く、本実施形態に係るシステムは、画像処理装置1100と、頭部装着型表示装置の一例としてのHMD5000と、で構成されており、画像処理装置1100とHMD5000とは互いにデータ通信が可能なように接続されている。従って、画像処理装置1100とHMD5000との間の接続は、有線、無線の何れであっても構わない。
HMD5000について説明する。
5010は液晶シャッターである。液晶シャッター5010を開閉することで、装着者に対する直接の現実世界の提示/非提示を切り替えることができる。つまり、光学シースルー方式を使用する時には、液晶シャッター5010を開けた状態で装着者に直接現実世界が見えるように設定し、ビデオシースルー方式を使用する時には、液晶シャッターを閉じることで装着者に直接現実世界が見えないように設定する。
画像処理装置1100に光学シースルー方式・ビデオシースルー方式双方の方式を持つHMDが接続されている場合の動作順序を決定する方法について、以下ではその一例について説明する。
ステップS3050における動作順序を決定する処理として、例えば、処理速度計測部1150が計測した時間trが閾値以上で、且つ時間遅れ計測部1160が計測した時間に占める時間trの割合が閾値以上であるとする。この場合、画像合成方法指定部1180は、次のフレームの合成画像を生成する処理(ステップS3020における処理)として、図4Dのフローチャートに従った処理を実行するように決定する。即ち、図4Dのフローチャートに従った処理を実行するための動作順序である「動作順序D」を設定する。
先ず、ステップS4040では、画像合成部1200は、光学シースルー方式への切り替え指示、をHMD5000に対して送出する。即ち、以降の処理では、現実空間画像の生成動作を非動作とする。
次に、ステップS4041では、位置姿勢導出部1120は、現実空間画像と、データ記憶部1170に格納されている各基準指標の配置位置とを用いて、視点の位置姿勢情報を求める。このとき、時間遅れ計測部1130は、位置姿勢導出部1120が位置姿勢情報を求める為に要した時間を計時する。
次に、ステップS4042では、仮想空間画像生成部1190は、ステップS4041で求めた位置姿勢情報が示す位置姿勢から見える仮想空間の画像を生成する。そしてこの生成した仮想空間画像を、HMD5000に対して出力する。このとき、処理速度計測部1140は、仮想空間画像生成部1190が仮想空間画像の生成に要した時間を計測する。
そして処理をステップS3030に戻す。
なお、本実施形態では、画像処理装置に接続する光学シースルー・ビデオシースルー双方の方式を持つHMDを液晶シャッターを持つHMDとして説明を行った。しかし、HMDは光学シースルー・ビデオシースルー双方の方式を実現するHMDであれば良い。
また、光学シースルー方式への切り替えを行う「動作順序D」に設定できるか否かは、装着者が仮想空間に表示するコンテンツ乃至画像処理装置を使用する環境状況によって予め設定しておいてよい。
[第4の実施形態]
HMD1000側にクロマキー合成機能が備わっている場合の動作順序を決定する方法について、以下ではその一例について説明する。即ち、本実施形態では、HMD1000は、クロマキー合成機能付き頭部装着型表示装置の一例として説明する。
ステップS3050における動作順序を決定する処理として、例えば、処理速度計測部1150が計測した時間trが閾値以上で、且つ時間遅れ計測部1160が計測した時間に占める時間trの割合が閾値以上であるとする。この場合、画像合成方法指定部1180は、次のフレームの合成画像を生成する処理(ステップS3020における処理)として、図4Eのフローチャートに従った処理を実行するように決定する。即ち、図4Eのフローチャートに従った処理を実行するための動作順序である「動作順序E」を設定する。
先ず、ステップS4050では、画像入力部1110は、撮像装置1010から送出された現実空間画像を取得(キャプチャ)する。
次に、ステップS4051では、位置姿勢導出部1120は、ステップS4050で取得した現実空間画像と、データ記憶部1170に格納されている各基準指標の配置位置とを用いて、撮像装置1010の位置姿勢情報を求める。このとき、時間遅れ計測部1130は、位置姿勢導出部1120が位置姿勢情報を求める為に要した時間を計時する。
次に、ステップS4052では、仮想空間画像生成部1190は、ステップS4051で求めた位置姿勢情報が示す位置姿勢から見える仮想空間の画像を生成する。このとき、処理速度計測部1140は、仮想空間画像生成部1190が仮想空間画像の生成に要した時間を計測する。
次に、ステップS4053では、画像合成部1200は、ステップS4050で取得した現実空間画像と、ステップS4052で生成した仮想空間画像と、クロマキー合成指示と、をHMD1000に対して送出する。
係るクロマキー合成指示により、HMD1000は、現実空間画像と仮想空間画像とのクロマキー合成処理を行い、合成画像を生成する。クロマキー合成については周知の技術であるので、これについての説明は省略する。
そして処理をステップS3030に戻す。
また、クロマキー合成機能の実施の切り替えを行う「動作順序E」に設定できるか否かは、装着者が仮想空間に表示するコンテンツ乃至画像処理装置を使用する環境状況によって予め設定しておいてよい。
[第5の実施形態]
図1に示した、画像処理装置1100を構成する各部は全て、上記実施形態ではハードウェアで構成されているとして説明した。しかし、その一部をソフトウェアで構成しても良い。その場合、残りの部分をハードウェアとして実装しているコンピュータに、このソフトウェアを実行させることで、このコンピュータは、上記実施形態で説明した画像処理装置1100の動作を行うことになる。
図2は、画像処理装置1100に適用可能なコンピュータのハードウェア構成例を示すブロック図である。
CPU2001は、RAM2002やROM2003に格納されているプログラムやデータを用いて、コンピュータ全体の制御を行うと共に、上記各実施形態で画像処理装置1100が行うものとして説明した上述の各処理を実行する。
RAM2002は、外部記憶装置2007や記憶媒体ドライブ2008からロードされたプログラムやデータを一時的に記憶するためのアリアを有する。更にRAM2002は、I/F(インターフェース)2009を介して外部(図1の場合、撮像装置1010)から受信したデータ(図1の場合、現実空間画像)を一時的に記憶するためのエリアを有する。更に、RAM2002は、CPU2001が各処理を実行する際に用いるワークエリアも有する。即ち、RAM2002は、各種エリアを適宜提供することができる。例えば、RAM2002は、図1に示したデータ記憶部1170としても機能する。
ROM2003には、コンピュータの設定データやブートプログラムなどが格納されている。
キーボード2004、マウス2005は、操作入力装置の一例としてのものであり、コンピュータのユーザが操作することで、各種の指示をCPU2001に対して入力することができる。
表示部2006は、CRTや液晶画面などにより構成されており、CPU2001による処理結果を画像や文字などで表示することができる。例えば、表示部2006には、撮像装置1010の位置姿勢計測のために表示すべきメッセージなどを表示することができる。
外部記憶装置2007は、ハードディスクドライブ装置に代表される大容量情報記憶装置である。外部記憶装置2007には、OS(オペレーティングシステム)や、画像処理装置1100が行うものとして説明した上述の各処理をCPU2001に実行させるためのプログラムやデータが格納されている。係るプログラムには、時間遅れ計測部1130、1160、位置姿勢導出部1120、画像合成方法指定部1180、処理速度計測部1140,1150、仮想空間画像生成部1190、画像合成部1200のそれぞれに対応するプログラムが含まれている。また、係るデータには、仮想空間のデータや、上述の説明において、既知の情報として説明したものが含まれている。外部記憶装置2007に保存されているプログラムやデータは、CPU2001による制御に従って適宜RAM2002にロードされる。CPU2001はこのロードされたプログラムやデータを用いて処理を実行することで、画像処理装置1100が行うものとして上述した各処理を実行することになる。なお、外部記憶装置2007は、図1に示したデータ記憶部1170として用いても良い。
記憶媒体ドライブ2008は、CD−ROMやDVD−ROMなどの記憶媒体に記録されたプログラムやデータを読み出したり、係る記憶媒体にプログラムやデータを書き込んだりする。なお、外部記憶装置2007に保存されているものとして説明したプログラムやデータの一部若しくは全部をこの記憶媒体に記録しておいても良い。記憶媒体ドライブ2008が記憶媒体から読み出したプログラムやデータは、外部記憶装置2007やRAM2002に対して出力される。
I/F2009は、撮像装置1010を接続するためのアナログビデオポートあるいはIEEE1394等のデジタル入出力ポート、また、合成画像をHMD1000の表示装置1020に対して出力するためのイーサネット(登録商標)ポートなどによって構成される。I/F2009を介して受信したデータは、RAM2002や外部記憶装置2007に入力される。なお、図1に示した画像入力部1110の機能の一部は、I/F2009によって実現される。また、位置姿勢情報の取得にセンサシステムを用いる場合、このI/F2009には、センサシステムを接続することになる。
2010は、上述の各部を繋ぐバスである。
[その他の実施形態]
また、本発明の目的は、以下のようにすることによって達成されることはいうまでもない。即ち、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給する。係る記憶媒体は言うまでもなく、コンピュータ読み取り可能な記憶媒体である。そして、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行する。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。
また、コンピュータが読み出したプログラムコードを実行することにより、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行う。その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
さらに、記録媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれたとする。その後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
本発明を上記記録媒体に適用する場合、その記録媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。
本発明の第1の実施形態に係るシステムの機能構成例を示すブロック図である。 画像処理装置1100に適用可能なコンピュータのハードウェア構成例を示すブロック図である。 画像処理装置1100が、現実空間画像と仮想空間画像との合成画像を生成し、HMD1000に対して出力するために行う処理のフローチャートである。 ステップS3020における処理を行うためのフローチャートである。 ステップS3020における処理を行うためのフローチャートである。 ステップS3020における処理を行うためのフローチャートである。 ステップS3020における処理を行うためのフローチャートである。 ステップS3020における処理を行うためのフローチャートである。 本発明の第4の実施形態に係るシステムの機能構成例を示すブロック図である。

Claims (11)

  1. 頭部装着型表示装置が有する撮像装置の位置姿勢情報を計算する第1の手段と、
    前記位置姿勢情報に基づいて仮想空間画像を生成する第2の手段と、
    前記撮像装置による撮像結果に基づいて現実空間画像を生成する第3の手段と、
    前記仮想空間画像と前記現実空間画像との合成画像を、前記頭部装着型表示装置に対して出力する出力手段と
    を備える画像処理装置であって、
    前記位置姿勢情報の計算に要した時間を示す時間情報と、前記仮想空間画像の生成に要した時間を示す時間情報と、前記現実空間画像の生成に要した時間を示す時間情報と、前記合成画像を生成するための処理に要した時間を示す時間情報と、を取得し、取得したこれらの時間情報に基づいて、前記第1乃至3の手段の動作順序を決定する決定手段と、
    前記決定手段が決定した動作順序で前記第1乃至3の手段を動作させる手段と
    を備えることを特徴とする画像処理装置。
  2. 前記決定手段は、前記仮想空間画像の生成に要した時間tvが閾値以上で、且つ前記合成画像を生成するための全ての処理に要した時間に占める前記時間tvの割合が閾値以上である場合には、前記第1乃至3の手段の前記動作順序を、前記第1の手段、前記第2の手段、前記第3の手段、と決定することを特徴とする請求項1に記載の画像処理装置。
  3. 前記決定手段は、前記現実空間画像の生成に要した時間trが閾値以上で、且つ前記合成画像を生成するための全ての処理に要した時間に占める前記時間trの割合が閾値以上である場合には、前記第1乃至3の手段の前記動作順序を、前記第3の手段、前記第1の手段、前記第2の手段、と決定することを特徴とする請求項1に記載の画像処理装置。
  4. 前記決定手段は、前記計算に要した時間tpが閾値以上である場合には、前記第1乃至3の手段の前記動作順序を、前記第1の手段、前記第3の手段、前記第2の手段、と決定することを特徴とする請求項1に記載の画像処理装置。
  5. 光学シースルー方式、ビデオシースルー方式の双方の方式を持つ頭部装着型表示装置が前記画像処理装置に接続されている場合、前記決定手段は、頭部装着型表示装置の方式と、前記第1乃至3の手段の動作順序と、を決定することを特徴とする請求項1に記載の画像処理装置。
  6. 光学シースルー方式、ビデオシースルー方式の双方の方式を持つ頭部装着型表示装置が前記画像処理装置に接続されている場合、前記決定手段は、前記現実空間画像の生成に要した時間trが閾値以上で、且つ前記合成画像を生成するための全ての処理に要した時間に占める前記時間trの割合が閾値以上である場合には、頭部装着型表示装置を光学シースルー方式に切り替え、前記第3の手段を非動作とし、前記第1の手段、第2の手段の前記動作順序を、前記第1の手段、前記第2の手段、と決定することを特徴とする請求項1に記載の画像処理装置。
  7. クロマキー合成機能付き頭部装着型表示装置が前記画像処理装置に接続されている場合、前記決定手段は、クロマキー合成機能の動作と、前記第1乃至3の手段の動作順序と、を決定することを特徴とする請求項1に記載の画像処理装置。
  8. クロマキー合成機能付き頭部装着型表示装置が前記画像処理装置に接続されている場合、前記出力手段は、前記現実空間画像の生成に要した時間trが閾値以上で、且つ前記合成画像を生成するための全ての処理に要した時間に占める前記時間trの割合が閾値以上である場合には、前記出力手段は、前記第2の手段が生成した仮想空間画像と、前記第3の手段が生成した現実空間画像と、を前記クロマキー合成機能付き頭部装着型表示装置に対して出力することを特徴とする請求項1に記載の画像処理装置。
  9. 頭部装着型表示装置が有する撮像装置の位置姿勢情報を計算する第1の手段と、
    前記位置姿勢情報に基づいて仮想空間画像を生成する第2の手段と、
    前記撮像装置による撮像結果に基づいて現実空間画像を生成する第3の手段と、
    前記仮想空間画像と前記現実空間画像との合成画像を、前記頭部装着型表示装置に対して出力する出力手段と
    を備える画像処理装置が行う画像処理方法であって、
    前記位置姿勢情報の計算に要した時間を示す時間情報と、前記仮想空間画像の生成に要した時間を示す時間情報と、前記現実空間画像の生成に要した時間を示す時間情報と、前記合成画像を生成するための処理に要した時間を示す時間情報と、を取得し、取得したこれらの時間情報に基づいて、前記第1乃至3の手段の動作順序を決定する決定工程と、
    前記決定工程で決定した動作順序で前記第1乃至3の手段を動作させる工程と
    を備えることを特徴とする画像処理方法。
  10. コンピュータに請求項9に記載の画像処理方法を実行させるためのプログラム。
  11. 請求項10に記載のプログラムを格納した、コンピュータ読み取り可能な記憶媒体。
JP2007211056A 2007-08-13 2007-08-13 画像処理装置、画像処理方法 Withdrawn JP2009048237A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007211056A JP2009048237A (ja) 2007-08-13 2007-08-13 画像処理装置、画像処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007211056A JP2009048237A (ja) 2007-08-13 2007-08-13 画像処理装置、画像処理方法

Publications (1)

Publication Number Publication Date
JP2009048237A true JP2009048237A (ja) 2009-03-05

Family

ID=40500426

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007211056A Withdrawn JP2009048237A (ja) 2007-08-13 2007-08-13 画像処理装置、画像処理方法

Country Status (1)

Country Link
JP (1) JP2009048237A (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012048571A (ja) * 2010-08-27 2012-03-08 Kyocera Corp 携帯端末装置
US9192066B2 (en) 2010-08-27 2015-11-17 Kyocera Corporation Portable terminal device
JP6143242B1 (ja) * 2016-02-15 2017-06-07 株式会社菊池製作所 画像表示装置
JP2019067195A (ja) * 2017-10-02 2019-04-25 株式会社コロプラ 情報処理方法、コンピュータ、及びプログラム
JP2021514070A (ja) * 2018-02-15 2021-06-03 バルブ コーポレーション ディスプレイデバイスの追跡を使用した画像表示制御
WO2022004130A1 (ja) * 2020-06-30 2022-01-06 ソニーグループ株式会社 情報処理装置、情報処理方法、および記憶媒体

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012048571A (ja) * 2010-08-27 2012-03-08 Kyocera Corp 携帯端末装置
US9192066B2 (en) 2010-08-27 2015-11-17 Kyocera Corporation Portable terminal device
JP6143242B1 (ja) * 2016-02-15 2017-06-07 株式会社菊池製作所 画像表示装置
JP2017146373A (ja) * 2016-02-15 2017-08-24 株式会社菊池製作所 画像表示装置
JP2019067195A (ja) * 2017-10-02 2019-04-25 株式会社コロプラ 情報処理方法、コンピュータ、及びプログラム
JP2021514070A (ja) * 2018-02-15 2021-06-03 バルブ コーポレーション ディスプレイデバイスの追跡を使用した画像表示制御
JP7276753B2 (ja) 2018-02-15 2023-05-18 バルブ コーポレーション ディスプレイデバイスの追跡を使用した画像表示制御の方法およびシステム
WO2022004130A1 (ja) * 2020-06-30 2022-01-06 ソニーグループ株式会社 情報処理装置、情報処理方法、および記憶媒体

Similar Documents

Publication Publication Date Title
US8994729B2 (en) Method for simulating operation of object and apparatus for the same
JP4933406B2 (ja) 画像処理装置、画像処理方法
JP4262011B2 (ja) 画像提示方法及び装置
JP4777182B2 (ja) 複合現実感提示装置及びその制御方法、プログラム
JP4500632B2 (ja) 仮想現実感提示装置および情報処理方法
JP6340017B2 (ja) 被写体と3次元仮想空間をリアルタイムに合成する撮影システム
JP4950834B2 (ja) 画像処理装置、画像処理方法
US8378997B2 (en) Information processing method and device for presenting haptics received from a virtual object
JP4667111B2 (ja) 画像処理装置、画像処理方法
JP2020511718A (ja) 拡張現実データを記録するための手法
JP2015007835A (ja) 画像処理装置、画像処理方法
JP2019012965A (ja) 映像制御方法、映像制御装置、及び映像制御プログラム
JP2009048237A (ja) 画像処理装置、画像処理方法
JP4660771B2 (ja) 三次元像表示装置
JP2007128494A (ja) 情報処理装置、情報処理方法
JP2008146108A (ja) 指標、画像処理装置、画像処理方法
JP2009087161A (ja) 画像処理装置、画像処理方法
JP2021135776A (ja) 情報処理装置、情報処理方法、およびプログラム
JP7129839B2 (ja) 訓練装置、訓練システム、訓練方法、及びプログラム
JP2005107972A (ja) 複合現実感提示方法、複合現実感提示装置
JP2011008351A (ja) 画像処理方法及び画像処理装置
US11589778B2 (en) Body size estimation apparatus, body size estimation method, and program
JP4689344B2 (ja) 情報処理方法、情報処理装置
JP2006085375A (ja) 画像処理方法、画像処理装置
JP2006343954A (ja) 画像処理方法、画像処理装置

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20101102