JP2006277350A - 情報処理方法、情報処理装置 - Google Patents
情報処理方法、情報処理装置 Download PDFInfo
- Publication number
- JP2006277350A JP2006277350A JP2005095704A JP2005095704A JP2006277350A JP 2006277350 A JP2006277350 A JP 2006277350A JP 2005095704 A JP2005095704 A JP 2005095704A JP 2005095704 A JP2005095704 A JP 2005095704A JP 2006277350 A JP2006277350 A JP 2006277350A
- Authority
- JP
- Japan
- Prior art keywords
- virtual object
- instrument
- orientation
- foot
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
Abstract
【課題】 観察者が直感的に分かりやすいように、仮想物体の測定を行うための技術を提供すること。
【解決手段】 器具500の仮想物体を測定対象仮想物体150の近傍に近づけた場合に、第1の仮想物体、第2の仮想物体の位置姿勢を変更し(S202,S204)、位置姿勢が変更された第1の仮想物体と第2の仮想物体との位置姿勢関係に基づいて、測定対象仮想物体150に対する測定を行い、測定結果を表示する(S207)。
【選択図】 図12
【解決手段】 器具500の仮想物体を測定対象仮想物体150の近傍に近づけた場合に、第1の仮想物体、第2の仮想物体の位置姿勢を変更し(S202,S204)、位置姿勢が変更された第1の仮想物体と第2の仮想物体との位置姿勢関係に基づいて、測定対象仮想物体150に対する測定を行い、測定結果を表示する(S207)。
【選択図】 図12
Description
本発明は、仮想物体の測定技術に関するものである。
MR,AR技術は実写映像とCGを合成し、仮想のCG物体が利用者の前に存在するかのように見せる技術である。MR技術の典型的なアプリケーションでは、利用者はビデオシースルー型のHMDを装着し、HMDの前面のカメラからの映像と、計算機が作成したCG映像を合成した映像を見る。CG映像は、位置センサにより測定した利用者の視点から描かれるため、利用者にはあたかも現実空間に仮想のCGが存在するかのように見える。実際のMR技術の応用としては、工業デザインの検証が挙げられる。
特開平11―88913号公報
しかしながら先に示したMRを使ったCADデザインのプレビューにおいて、CADモデルの寸法などを直感的かつ正確に測ることは難しかった。正確な寸法を得ようとした場合、CADモデルの2点を正確に指定する必要がある。従来のモニタ画面を使用したCADの場合には、それらの2点をマウスなどで指示していた。
しかし、そのようにCADモデルの2点を指示してCADモデルの寸法を測ることは、MR技術を用いている場合には直感的とはいえない。MR技術を用いた場合、利用者にはCADモデルが目の前に存在するかのように見えている。もし利用者の前にあるのがCADモデルでなく実物だとしたら、2点間の寸法を測るためにはものさしなどを使用するはずである。利用者が手で持つことができるものさしをCADモデルにあてて寸法を測る方がより直感的なインタフェースである。
MR技術を用いた場合、本物のものさしをCADモデルにかざして寸法を測ることも可能である。だが正確な大きさを知ることは難しい。CADモデルには実体がないため、ものさしをCADモデルにあてることができないためである。
本発明は以上の問題に鑑みて成されたものであり、観察者が直感的に分かりやすいように、仮想物体の測定を行うための技術を提供することを目的とする。
本発明の目的を達成するために、例えば本発明の情報処理方法は以下の構成を備える。
即ち、棒状の第1の部材の一端と、棒状の第2の部材の一端とが、それぞれの部材が成す角度が変更可能なように支持されている器具の位置姿勢を取得する第1の取得工程と、
前記第1の部材と前記第2の部材とが成す角度を取得する第2の取得工程と、
前記器具の位置姿勢および前記角度に基づき、前記器具の仮想物体情報を設定する器具仮想物体情報設定工程と、
ユーザの視点の位置姿勢を取得する第3の取得工程と、
前記器具の仮想物体情報、及び測定対象の仮想物体の仮想物体情報に基づき、前記ユーザの視点の位置姿勢に応じた、前記器具の仮想物体画像および前記測定対象の仮想物体画像を生成する生成工程と、
前記器具の仮想物体と前記測定対象仮想物体が近づいた場合に、前記器具の仮想物体の位置姿勢および角度を調整する器具仮想物体情報調整工程と
を備えることを特徴とする。
前記第1の部材と前記第2の部材とが成す角度を取得する第2の取得工程と、
前記器具の位置姿勢および前記角度に基づき、前記器具の仮想物体情報を設定する器具仮想物体情報設定工程と、
ユーザの視点の位置姿勢を取得する第3の取得工程と、
前記器具の仮想物体情報、及び測定対象の仮想物体の仮想物体情報に基づき、前記ユーザの視点の位置姿勢に応じた、前記器具の仮想物体画像および前記測定対象の仮想物体画像を生成する生成工程と、
前記器具の仮想物体と前記測定対象仮想物体が近づいた場合に、前記器具の仮想物体の位置姿勢および角度を調整する器具仮想物体情報調整工程と
を備えることを特徴とする。
本発明の目的を達成するために、例えば本発明の情報処理装置は以下の構成を備える。
即ち、棒状の第1の部材の一端と、棒状の第2の部材の一端とが、それぞれの部材が成す角度が変更可能なように支持されている器具の位置姿勢を取得する第1の取得手段と、
前記第1の部材と前記第2の部材とが成す角度を取得する第2の取得手段と、
前記器具の位置姿勢および前記角度に基づき、前記器具の仮想物体情報を設定する器具仮想物体情報設定手段と、
ユーザの視点の位置姿勢を取得する第3の取得手段と、
前記器具の仮想物体情報、及び測定対象の仮想物体の仮想物体情報に基づき、前記ユーザの視点の位置姿勢に応じた、前記器具の仮想物体画像および前記測定対象の仮想物体画像を生成する生成手段と、
前記器具の仮想物体と前記測定対象仮想物体が近づいた場合に、前記器具の仮想物体の位置姿勢および角度を調整する器具仮想物体情報調整手段と
を備えることを特徴とする。
前記第1の部材と前記第2の部材とが成す角度を取得する第2の取得手段と、
前記器具の位置姿勢および前記角度に基づき、前記器具の仮想物体情報を設定する器具仮想物体情報設定手段と、
ユーザの視点の位置姿勢を取得する第3の取得手段と、
前記器具の仮想物体情報、及び測定対象の仮想物体の仮想物体情報に基づき、前記ユーザの視点の位置姿勢に応じた、前記器具の仮想物体画像および前記測定対象の仮想物体画像を生成する生成手段と、
前記器具の仮想物体と前記測定対象仮想物体が近づいた場合に、前記器具の仮想物体の位置姿勢および角度を調整する器具仮想物体情報調整手段と
を備えることを特徴とする。
本発明の構成により、観察者が直感的に分かりやすいように、仮想物体の測定を行うことができる。
以下添付図面を参照して、本発明を好適な実施形態に従って詳細に説明する。
図1は、現実空間と仮想空間とが融合された複合現実空間中に存在する仮想物体の測定を行うためのシステムを使用している様子を示す図である。同図において10は複合現実空間の観察者で、その頭部にはHMD(頭部装着型表示装置)100が装着されており、観察者10はこのHMD100を介して複合現実空間の画像を眼前に見ることができる。また、観察者の手には、棒状の第1の部材の一端と、棒状の第2の部材の一端とが、それぞれの部材が成す角度が変更可能なように支持されている器具、即ち、コンパス状の器具500が保持されている。
図4は、器具500の概略構成を示す図で、器具500は棒状の第1の部材501,棒状の第2の部材502、第1の部材501の位置姿勢を計測するための位置姿勢センサ510、第1の部材501と第2の部材502とが成す角度を計測するセンサ520により構成されている。器具500の使用方法については後述する。
図1に戻って、150は仮想物体としてのプリンタで、測定の対象となる仮想物体である。210は磁気の発信源で、HMD100、器具500にはこの磁気発信源210から発せられる磁気に従って自身の位置姿勢を計測するセンサが備わっている。
これらのセンサは磁気発信源210に接続されており、センサによる計測結果はこの磁気発信源210によって求まり、コンピュータ300に送出される。
以下、システムを構成する各部について説明する。
図10は、本実施形態に係るシステムのハードウェア構成を示すブロック図である。
HMD100はHMD内蔵センサ120,右目カメラ110、左目カメラ111、右目LCD130,左目LCD131により構成されている。
HMD内蔵センサ120は、磁気発信源210から発せられる磁界において、自身の位置姿勢に応じた磁界の変化を検知し、検知した結果を示す信号を3次元センサ本体200に出力する。
右目カメラ110、左目カメラ111はそれぞれ、HMD100を頭部に装着する観察者の右目、左目から見える現実空間の動画像を撮像するものである。右目カメラ110、左目カメラ111のそれぞれにより撮像された動画像を構成する各フレームの画像データはコンピュータ300に出力する。
右目LCD130、左目LCD131はそれぞれ、右目カメラ110、左目カメラ111のそれぞれによって撮像された現実空間に、コンピュータ300が生成した仮想物体の画像を重畳させた画像(複合現実空間の画像)を表示するものであり、これにより、HMD100を頭部に装着した観察者は、自身の右目、左目に対応する複合現実空間の画像を眼前に見ることができる。
図2は、HMD100の外観を示す図であり、同図に示す如く、HMD100には右目カメラ110,左目カメラ111、右目LCD130、左目LCD131、そしてHMD内蔵センサ120が備わっている。
図10に戻って、器具500は上述の通り、観察者の手に保持されているもので、その位置姿勢は観察者の手が動くことにより変化する。よって、デバイス内蔵センサ510は、磁気発信源210から発せられる磁界において、自身の位置姿勢に応じた磁界の変化を検知し、検知した結果を示す信号を3次元センサ本体200に出力する。
3次元センサ本体200は、HMD内蔵センサ120、デバイス内蔵センサ510から受けた信号の強度に基づいて、センサ座標系(磁気発信源210の位置を原点とし、この原点で互いに直交する3軸をそれぞれx、y、z軸とする座標系)におけるHMD内蔵センサ120、デバイス内蔵センサ510の位置姿勢(第1の部材501の位置姿勢)を示すデータを求め、コンピュータ300に出力する。
また、器具500にはデバイス内蔵ボリューム520が備わっており、器具500を構成する第1の部材501と第2の部材502とが成す角度に応じた信号をコンピュータ300に出力する。
次に、コンピュータ300について説明する。
A/Dコンバータ340は、デバイス内蔵ボリューム520から出力される信号をA/D変換し、この信号を第1の部材501と第2の部材502とが成す角度を示すデータとしてメモリ302に出力する。
シリアルI/O310は、3次元センサ本体200から出力されるデータを受ける為のインターフェースとして機能するものであり、受けたデータはメモリ302に出力される。なお、このデータは上述の取り、HMD内蔵センサ120やデバイス内蔵センサ510のセンサ座標系における位置姿勢を示すデータである。本実施形態ではこの位置姿勢は、位置(x、y、z)を示すデータと、姿勢(roll,pitch,yaw)を示すデータにより構成されているものとする。すなわち、HMD内蔵センサ120、デバイス内蔵センサ510は、6自由度の計測センサである。なお、位置姿勢を表現する方法は他にも考えられ、これに限定するものではない。
ビデオキャプチャカード320、321はそれぞれ、右目カメラ110、左目カメラ111から入力される、各フレームの画像を受けるためのインターフェースとして機能するものであり、受けた画像は順次メモリ302に出力する。本実施形態では、各フレームの画像はNTSCに準拠したものであるとするが、これに限定するものではない。
ビデオカード330,331はそれぞれ、CPU301が後述する処理により生成した右目、左目に対応する複合現実空間の画像を右目LCD130、左目LCD131に出力するためのインターフェースとして機能するものであり、右目、左目に対応する複合現実空間の画像はそれぞれ、VGAに準拠した画像信号としてビデオカード330、331を介して右目LCD130、左目LCD131に出力される。
CPU301は、コンピュータ300全体の制御を行うと共に、コンピュータ300が行うべき後述の各処理を実行する。このような処理の実行は、メモリ302に記憶されている各種のプログラムやデータを実行することでなされる。
メモリ302は、CPU301が各種の処理を実行するために使用するワークエリアや、CPU301に各種の処理を実行させるためのプログラムやデータを記憶するためのエリア、また、シリアルI/O310、A/Dコンバータ340、ビデオキャプチャカード320、321を介して入力される各種のデータを一時的に記憶するためのエリアを備える。また、右目カメラ110とHMD内蔵センサ120との位置姿勢関係(右目用バイアス)、左目用カメラ111とHMD内蔵センサ120との位置姿勢関係(左目用バイアス)は予め測定されており、測定された右目用バイアス、左目用バイアスはメモリ302にに予め格納されているものとする。
PCIブリッジ303は、CPU301、メモリ302が繋がっているバスと、A/Dコンバータ340、シリアルI/O310、ビデオキャプチャカード320、321,ビデオカード330、331を繋ぐバスとを電気的に繋ぐためのものである。
次に、以上の構成を備えるコンピュータ300が、複合現実空間の映像を生成する為に行う処理について、同処理のフローチャートを示す図11を用いて以下説明する。なお、同図のフローチャートに従った処理をCPU301に実行させるためのプログラムやデータはメモリ302に格納されており、CPUCPU301はこれを用いて処理を行うことで、コンピュータ300は以下説明する各処理を実行することになる。
右目カメラ110(左目カメラ111)からは各フレームの撮像画像(現実空間の画像)がビデオキャプチャカード320(321)を介して本コンピュータ300に入力されるので、CPU301はこれを取得し(ステップS100)、メモリ302上に設けられているビデオメモリに順次格納する(ステップS101)。
次に、A/Dコンバータ340を介して「第1の部材501と第2の部材502とが成す角度」(以下、「ボリューム値」と呼称)を示すデータが本コンピュータ300に入力されると共に、シリアルI/O310を介して「HMD内蔵センサ120のセンサ座標系における位置姿勢」を示すデータ、「デバイス内蔵センサ510のセンサ座標系における位置姿勢」を示すデータが本コンピュータ300に入力されるので、CPU301は、HMD内蔵センサ120のセンサ座標系における位置姿勢に左目用バイアス(右目用バイアス)を加算して、センサ座標系における左目カメラ111(右目カメラ110)の位置姿勢を求め、求めた位置姿勢を示すデータをメモリ302に格納する(ステップS102)。なお、以下では右目、左目を総称して「視点」と呼称する場合がある。
なお、デバイス内蔵センサ510のセンサ座標系における位置姿勢を示すデータ、ボリューム値を示すデータはそのままメモリ302に格納する。
次に、CPU301は、ステップS102で求めた視点の位置姿勢を用いてモデリング行列を生成すると共に、予め測定しておいたカメラの焦点距離などのパラメータから、射影変換行列を作成する(射影行列の作成は最初の1回のみで、以降は使いまわす)処理を行う(ステップS103)。モデリング行列、射影変換行列を求める処理については周知の技術であるので、ここでの説明は省略する。要するに本ステップでは、視点から見える仮想空間の画像を生成するために用いる行列を生成する処理を行う。
次に、CPU301は、先に求めた行列を用いて、右目(左目)から見える仮想空間の画像を生成し、上記ビデオメモリ上に描画する(ステップS104、S105)。より詳しくは、測定対象の仮想物体(本実施形態では図1に示すプリンタの仮想物体150)を所定の位置姿勢で配置し、配置した仮想物体を右目カメラ110(左目カメラ111)から見えた場合に見える画像を生成し、上記ビデオメモリ上に描画する(ステップS104)。
次に、器具500の仮想物体を配置するのであるが、先ずデバイス内蔵センサ510が計測した位置姿勢に第1の部材501に相当する仮想物体(以下、第1の仮想物体と呼称)を配置する。そして次に、第2の部材502に相当する仮想物体(以下、第2の仮想物体と呼称)の配置を行うのであるが、第2の仮想物体の一端が第1の仮想物体の一端に一致しており、且つ、第1の仮想物体と第2の仮想物体とが成す角度がデバイス内蔵ボリューム520から取得したボリューム値が示す角度となるような位置姿勢(即ち第2の部材502の位置姿勢)を求め、求めた位置姿勢に第2の仮想物体を配置する。これにより、器具500の仮想物体を配置することができる。
図19は、器具500の仮想物体の一例を示す図で、同図において1901は第1の部材501に相当する仮想物体で、第1の部材501の位置姿勢でもって配置される。1902は第2の部材502に相当する仮想物体で、第2の部材502の位置姿勢でもって配置される。
よって図11のステップS105では、上述のようにして器具500の仮想物体を配置し、配置した仮想物体を右目カメラ110(左目カメラ111)から見えた場合に見える画像を生成し、上記ビデオメモリ上に描画する(ステップS105)。
なお、メモリ302には先に、右目カメラ110から取得した現実空間の画像、左目カメラ111から取得した現実空間の画像がステップS101で格納されているので、ステップS104,S105で、それぞれの画像上に、右目カメラ110から見える仮想空間の画像、左目カメラ111から見える仮想空間の画像を描画することで、メモリ302上には、右目カメラ110から見た複合現実空間の画像、左目カメラ111から見た複合現実空間の画像が生成されることになる。
図3は、現実空間の画像上に仮想空間の画像を描画することで、複合現実空間の画像を生成する過程を示す図で、同図に示す如く、現実空間の画像301上に仮想空間の画像302を重畳(合成)することで、複合現実空間画像303が生成される。
次にCPU301は、右目用複合現実空間画像、左目用複合現実空間画像をそれぞれ、ビデオカード330,331のフレームバッファに転送する(ステップS106)。転送されたそれぞれの画像は右目LCD130、131に送出され、それぞれで表示される。HMD100を頭部に装着した観察者は視点の位置姿勢に応じた複合現実空間の画像を観察することができる。
次に、観察者が器具500を用いて測定対象仮想物体150を測定する場合に、コンピュータ300が行う処理について説明する。観察者が器具500を用いて測定対象仮想物体150を測定する場合、当然観察者はこの器具500を測定対象仮想物体150に近づけるのであるが、器具500の仮想物体と測定対象仮想物体150との距離に応じて器具500を構成する仮想物体(図19の場合、1901,1902)の位置姿勢を測定に適した位置姿勢に変更する。以下、様々な測定を行う場合について説明する。なお、器具500の仮想物体を用いてどのような測定を行うのか(換言すれば器具500の仮想物体をどのような測定器具として用いるのか)は、不図示の操作部を観察者や本コンピュータ300の操作者が操作して指示するようにしても良い。
<2点間の距離を測定する>
先ず、器具500の仮想物体を用いて、測定対象仮想物体150上の2点間の距離を測定する場合について説明する。
先ず、器具500の仮想物体を用いて、測定対象仮想物体150上の2点間の距離を測定する場合について説明する。
図12は、器具500の仮想物体を用いて2点間の距離を求める場合に、器具500の仮想物体を配置し、配置した仮想物体を右目カメラ110(左目カメラ111)から見えた場合に見える画像を生成し、上記ビデオメモリ上に描画する処理(即ち、ステップS105における処理)のフローチャートである。
先ず、CPU301は、デバイス内蔵センサ510から取得した第1の部材501の位置姿勢と、デバイス内蔵ボリューム520から取得したボリューム値を参照し、第1の仮想物体の先の位置、第2の仮想物体の先の位置を求める(ステップS200)。
第1の仮想物体、第2の仮想物体の先の位置を求める方法については特に限定しないが、例えば第1の仮想物体の先の位置については以下のようにして求める。予めデバイス内蔵センサ510の設置位置と第1の部材501の先の位置との位置関係(第1の位置関係)を求めておく。また、第1の部材501の先の位置と第1の仮想物体の先の位置との位置関係(第2の位置関係)は予め分かるので、デバイス内蔵センサ510により計測される位置、第1の位置関係、第2の位置関係を用いれば、第1の仮想物体の位置は求めることができる。これは第2の仮想物体の先の位置を求める場合についても同様である。なお、以下では、第1の仮想物体、第2の仮想物体を「足」と呼称する場合がある。
次に、一方の足(以下、第1の足)の先の位置から所定距離以内に測定対象仮想物体150を構成する特徴点が位置しているのかを判断する(ステップS201)。本実施形態では、測定対象仮想物体150を記述するCADデータには、仮想物体の特徴となる頂点や辺についての情報が付加されていることとする。ここでいう特徴点は、先に図3で示したプリンタで言えば、ボディの外形の角や稜線などである。これらの特徴点や辺は、利用者が手動で付加しても、コンピュータ300が自動的に付加してもよい。
そして第1の足の先の位置から所定距離以内に特徴点がある場合には処理をステップS201を介してステップS202に進め、この第1の足の先をこの特徴点の位置に一致させるように、第1の足を移動させる(ステップS202)。
図6は、足の先の位置を特徴点に一致させる処理を説明する図で、同図において601は測定対象仮想物体150上の特徴点で、600は第1の足である。同図では、第1の足600の先の位置から所定距離以内に特徴点601が存在するために、第1の足600は同図矢印で示す如く移動させ、610で示す位置に移動させる。
図12に戻って、ステップS201における判断で、第1の足の先の位置から所定距離以内に特徴点が無かった場合には処理をステップS203に進め、第1の足の先の位置から所定距離以内に測定対象仮想物体150を構成する特徴辺が位置しているのかを判断する(ステップS203)。存在する場合には処理をステップS204に進め、第1の足の先の位置を、第1の足の先の位置から特徴辺に垂線をひいたときの交点に一致させるように、第1の足を移動させる(ステップS204)。
図13は、足の先の位置を特徴辺上に一致させる処理を説明する図で、同図において1301は測定対象仮想物体150上の特徴辺で、1300は第1の足である。ここで、第1の足1300の先の位置から所定距離以内に特徴辺1301が存在するために、第1の足1300は同図矢印で示す如く移動させ、1310で示す位置に移動させる。なお、それぞれの足を移動させる方法については上記に限定するものではなく、様々な方法が考えられる。
次に、処理をステップS205に進め、もう一方の足(以下、第2の足と呼称する)についても上記処理を行ったのかを判断し、行っていないのであれば処理をステップS201に戻し、第2の足の先の近傍に特徴点、特徴辺が存在するのかを判断し、存在する場合には上記処理を行い、第2の足の位置を移動させる。
そしてそれぞれの足について上記処理を行ったのであれば、処理をステップS206に進める、ここで、それぞれの足について上記処理を行ったのであれば、それぞれの足は独立して移動するので、元々支持されていた一端が離れてしまうなどの問題が生じる。そこで、元々支持されていた一端を一致させるべく、それぞれの足の姿勢を変更する(ステップS206)。そして、上述のように変更された位置姿勢(それぞれの足が何れの特徴点、特徴辺にも近くない場合には全く位置姿勢が変更されていない)に足を配置し、配置した仮想物体を右目カメラ110(左目カメラ111)から見えた場合に見える画像を生成し、上記ビデオメモリ上に描画する(ステップS206)。
そして、それぞれの足の先の位置を用いて、それぞれの位置の間の距離を求め、それを複合現実空間の画像上に表示すべく、距離を示す文字列を上記ビデメモリ上に描画する(ステップS207)。
図5は、以上の処理を行うことで生成される複合現実空間の画像の表示例を示す図である。同図において600は器具500の仮想物体で、それぞれの足の先は測定対象仮想物体54の特徴点51,52に一致するように位置している。これにより、観察者が足の先を特徴点に一致させる操作を行わなくても、特徴点51,52間の距離を正確に測定することができる。
また、測定した2点間の距離は同図610に示す如く、表示される。これにより、観察者は改めて目盛りを読むなどの動作を行わなくても測定結果を知ることができる。
<2辺が成す角度を測定する>
次に、器具500の仮想物体を用いて、測定対象仮想物体150上の2辺が成す角度を測定する場合について説明する。
次に、器具500の仮想物体を用いて、測定対象仮想物体150上の2辺が成す角度を測定する場合について説明する。
図14は、器具500の仮想物体を用いて2辺が成す角度を求める場合に、器具500の仮想物体を配置し、配置した仮想物体を右目カメラ110(左目カメラ111)から見えた場合に見える画像を生成し、上記ビデオメモリ上に描画する処理のフローチャートである。
先ず、第1の足の位置、第2の足の位置を求める(ステップS300)。第1の足を第1の仮想物体、第2の足を第2の仮想物体とすると、第1の仮想物体の位置は即ち第1の部材501の位置であり、第1の部材501の位置はデバイス内蔵センサ510より取得される位置である。また、第2の仮想物体の位置は、上述の通り、第1の仮想物体の位置姿勢とボリューム値とを用いて周知の計算によって求まる。
次に、第1の足から所定の距離以内に特徴辺があり、且つ第1の足とこの特徴辺が略並行であるのかを判断する(ステップS301)。本ステップでは、第1の足の位置と特徴辺との距離を求め、求めた距離が所定距離以内であるのかを判断する。そして所定距離以内であれば次に、第1の足とこの特徴辺が略並行であるのかを判断するのであるが、これは例えば、第1の足が第1の仮想物体であれば、デバイス内蔵センサ510が計測した姿勢と特徴辺の姿勢とを比べ、それぞれの差が所定範囲内であれば、略並行と判断すればよい。また、第1の足が第2の仮想物体であれば、上述のようにして第2の仮想物体の姿勢を求め、求めた姿勢と特徴辺の姿勢とを比べ、それぞれの差が所定範囲内であれば、略並行と判断すればよい。
そして、第1の足から所定の距離以内に特徴辺があり、且つ第1の足とこの特徴辺が略並行である場合には処理をステップS302に進め、第1の足の姿勢を特徴辺の姿勢に一致させ、その後、第1の足の先の位置を、この位置から特徴辺に垂線をひいたときの交点に一致させることで、第1の足の位置姿勢を変更する(ステップS302)。これにより、第1の足は、この特徴辺に沿うように位置することになる。なお、第1の足を、この特徴辺に沿うように位置させる方法についてはこれに限定するものではなく、様々な方法が考えられる。
そして処理をステップS303に進め、もう一方の足(第2の足)について上記処理を行ったのかを判断し(ステップS303)、行っていないのであれば処理をステップS301に戻して以降の処理を繰り返す。
一方、第2の足についても上記処理を行ったのであれば処理をステップS304に進める。図15は、それぞれの足の位置姿勢を移動させた様子を示す図で、同図において第1の足1501,第2の足1502をそれぞれ矢印で示す如く移動させることで、それぞれを特徴辺1510、1520に沿わせるように移動させることができる。
図14に戻って、次に、移動させた足を延長した線が交わる位置、もしくは最も近づく位置に両足の根元の側の端点を一致させるように、それぞれの足を移動させる(ステップS304)。これは図16に示すように、それぞれの足を一点で交わるようにすることに対応する。図16は、1点で交わる足を示す図である。
図14に戻って、上述のように変更された位置姿勢(それぞれの足が何れの特徴辺にも近くない場合には全く位置姿勢が変更されていない)に足を配置し、配置した足を右目カメラ110(左目カメラ111)から見えた場合に見える画像を生成し、上記ビデオメモリ上に描画する(ステップS305)。
図8は、それぞれの足を特徴辺に沿わせるように、その位置姿勢を補正する様子を示す図である。そして、それぞれの足が成す角度を求め、それを複合現実空間の画像上に表示すべく、角度を示す文字列を上記ビデメモリ上に描画する(ステップS306)。
図7は、以上の処理を行うことで生成される複合現実空間の画像の表示例を示す図である。同図において600は器具500の仮想物体で、それぞれの足は測定対象仮想物体54の特徴辺71,72に沿うように位置している。これにより、観察者が足を特徴辺に沿わせるように操作を行わなくても、特徴辺71,72が成す角度を正確に測定することができる。
また、測定した角度は同図710に示す如く、表示される。これにより、観察者は改めて目盛りを読むなどの動作を行わなくても測定結果を知ることができる。
<サイズを測定する>
次に、器具500の仮想物体を用いて、測定対象仮想物体150のサイズを測定する場合について説明する。なお、本実施形態に係る器具500の仮想物体は、図20に示す如く、第1の仮想物体2001と第2の仮想物体2002とが、先の位置に近づくほど並行となるようなものとなっている。図20は、本実施形態で用いる器具500の仮想物体を示す図である。よって、第1の仮想物体、第2の仮想物体のそれぞれの形状は、ボリューム値が変更する毎に変わる。
次に、器具500の仮想物体を用いて、測定対象仮想物体150のサイズを測定する場合について説明する。なお、本実施形態に係る器具500の仮想物体は、図20に示す如く、第1の仮想物体2001と第2の仮想物体2002とが、先の位置に近づくほど並行となるようなものとなっている。図20は、本実施形態で用いる器具500の仮想物体を示す図である。よって、第1の仮想物体、第2の仮想物体のそれぞれの形状は、ボリューム値が変更する毎に変わる。
図17は、器具500の仮想物体を用いて測定対象仮想物体150のサイズを求める場合に、器具500の仮想物体を配置する処理のフローチャートである。
先ず、上記ステップS300と同様の処理を行い、第1の足の位置、第2の足の位置を求める(ステップS400)。
次に、第1の足から所定の距離以内に特徴辺があるのかを判断する(ステップS401)。本ステップでは、第1の足の位置と特徴辺との距離を求め、求めた距離が所定距離以内であるのかを判断する。
そして、第1の足から所定の距離以内に特徴辺がある場合には処理をステップS402に進め、第1の足と特徴辺との最短距離のベクトルを求め(ステップS402)、このベクトルに平行な直線に沿って足の先の位置を特徴辺上に移動させる(ステップS403)。その際、先の位置のみを移動させるので、足が曲線を描く形状となるのであるが、これは適宜所定の曲率でもって曲がった足(仮想物体)を作成することになる。図18は、第1の足を特徴辺に沿って移動させる様子を示す図である。なお、第1の足の先の位置を特徴辺上に移動させる方法についてはこれに限定するものではなく、様々な方法が考えられる。
そして処理をステップS404に進め、もう一方の足(第2の足)について上記処理を行ったのかを判断し(ステップS404)、行っていないのであれば処理をステップS401に戻して以降の処理を繰り返す。
一方、第2の足についても上記処理を行ったのであれば処理をステップS405に進める。そして、上述のように変更された位置姿勢(それぞれの足が何れの特徴辺にも近くない場合には全く位置姿勢が変更されていない)に足を配置し、配置した足を右目カメラ110(左目カメラ111)から見えた場合に見える画像を生成し、上記ビデオメモリ上に描画する(ステップS405)。
そして、それぞれの足の先の位置の間の距離を求め、それを複合現実空間の画像上に表示すべく、距離を示す文字列を上記ビデメモリ上に描画する(ステップS406)。
図9は、以上の処理を行うことで生成される複合現実空間の画像の表示例を示す図である。
以上のようにして、器具500の仮想物体と測定対象仮想物体150器具とが近づいた場合には、器具500の仮想物体の位置や姿勢、足間の角度などを調節して、測定対象仮想物体150に対する測定を行う。
なお、本実施形態に係る処理は、複合現実空間の画像を生成するシステムに適用することに限定するものではなく、仮想空間の画像のみを生成するシステムにも適用可能であることはいうまでもない。
また、本実施形態ではHMDとしてビデオシースルー型のものを用いたが、光学シースルー型のものを用いたシステムであっても良いことはいうまでもない。
また、本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。
また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
さらに、記録媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
本発明を上記記録媒体に適用する場合、その記録媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。
Claims (6)
- 棒状の第1の部材の一端と、棒状の第2の部材の一端とが、それぞれの部材が成す角度が変更可能なように支持されている器具の位置姿勢を取得する第1の取得工程と、
前記第1の部材と前記第2の部材とが成す角度を取得する第2の取得工程と、
前記器具の位置姿勢および前記角度に基づき、前記器具の仮想物体情報を設定する器具仮想物体情報設定工程と、
ユーザの視点の位置姿勢を取得する第3の取得工程と、
前記器具の仮想物体情報、及び測定対象の仮想物体の仮想物体情報に基づき、前記ユーザの視点の位置姿勢に応じた、前記器具の仮想物体画像および前記測定対象の仮想物体画像を生成する生成工程と、
前記器具の仮想物体と前記測定対象仮想物体が近づいた場合に、前記器具の仮想物体の位置姿勢および角度を調整する器具仮想物体情報調整工程と
を備えることを特徴とする情報処理方法。 - 前記器具の仮想物体および前記測定対象の仮想物体の位置関係に基づき、前記測定対象仮想物体に対する測定を行う測定工程と、
前記測定結果を表示させる工程と
を備えることを特徴とする請求項1記載の情報処理方法。 - 前記第1の部材の仮想物体の一端を前記測定対象の仮想物体の第1の箇所、前記第2の部材の仮想物体の一端を前記測定対象の仮想物体の第2の箇所に近づけた場合に、
前記変更工程では、
前記第1の部材の仮想物体を前記第1の箇所に沿わせると共に、前記第2の部材の仮想物体を前記第2の箇所に沿わせることを特徴とする請求項1に記載の情報処理方法。 - 棒状の第1の部材の一端と、棒状の第2の部材の一端とが、それぞれの部材が成す角度が変更可能なように支持されている器具の位置姿勢を取得する第1の取得手段と、
前記第1の部材と前記第2の部材とが成す角度を取得する第2の取得手段と、
前記器具の位置姿勢および前記角度に基づき、前記器具の仮想物体情報を設定する器具仮想物体情報設定手段と、
ユーザの視点の位置姿勢を取得する第3の取得手段と、
前記器具の仮想物体情報、及び測定対象の仮想物体の仮想物体情報に基づき、前記ユーザの視点の位置姿勢に応じた、前記器具の仮想物体画像および前記測定対象の仮想物体画像を生成する生成手段と、
前記器具の仮想物体と前記測定対象仮想物体が近づいた場合に、前記器具の仮想物体の位置姿勢および角度を調整する器具仮想物体情報調整手段と
を備えることを特徴とする情報処理装置。 - コンピュータに請求項1乃至3の何れか1項に記載の情報処理方法を実行させることを特徴とするプログラム。
- 請求項5に記載のプログラムを格納したことを特徴とする、コンピュータ読み取り可能な記憶媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005095704A JP2006277350A (ja) | 2005-03-29 | 2005-03-29 | 情報処理方法、情報処理装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005095704A JP2006277350A (ja) | 2005-03-29 | 2005-03-29 | 情報処理方法、情報処理装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006277350A true JP2006277350A (ja) | 2006-10-12 |
Family
ID=37212046
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005095704A Withdrawn JP2006277350A (ja) | 2005-03-29 | 2005-03-29 | 情報処理方法、情報処理装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006277350A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023135697A1 (ja) * | 2022-01-13 | 2023-07-20 | 株式会社日立製作所 | 拡張現実による寸法測定方法 |
-
2005
- 2005-03-29 JP JP2005095704A patent/JP2006277350A/ja not_active Withdrawn
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023135697A1 (ja) * | 2022-01-13 | 2023-07-20 | 株式会社日立製作所 | 拡張現実による寸法測定方法 |
JP7457339B2 (ja) | 2022-01-13 | 2024-03-28 | 株式会社日立製作所 | 拡張現実による寸法測定方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4677273B2 (ja) | 情報処理方法および情報処理装置 | |
JP4677281B2 (ja) | 画像処理方法、画像処理装置 | |
JP4667111B2 (ja) | 画像処理装置、画像処理方法 | |
JP4137078B2 (ja) | 複合現実感情報生成装置および方法 | |
JP3805231B2 (ja) | 画像表示装置及びその方法並びに記憶媒体 | |
JP5845211B2 (ja) | 画像処理装置、画像処理方法 | |
JP5248806B2 (ja) | 情報処理装置、情報処理方法 | |
JP4356983B2 (ja) | 画像処理方法、画像処理装置 | |
JP5709440B2 (ja) | 情報処理装置、情報処理方法 | |
US8994729B2 (en) | Method for simulating operation of object and apparatus for the same | |
JP2009123018A (ja) | 画像処理装置、画像処理方法 | |
JP2004062758A (ja) | 情報処理装置および方法 | |
JP2004213355A (ja) | 情報処理方法 | |
JP2007233971A (ja) | 画像合成方法及び装置 | |
JP2007128494A (ja) | 情報処理装置、情報処理方法 | |
JP2007004714A (ja) | 情報処理方法、情報処理装置 | |
JP2005327204A (ja) | 画像合成システムおよび画像合成方法、および画像合成装置 | |
JP2008146497A (ja) | 画像処理装置、画像処理方法 | |
JP6295296B2 (ja) | 複合システム及びターゲットマーカ | |
JP2009087161A (ja) | 画像処理装置、画像処理方法 | |
JP2008070319A (ja) | 物体計測装置および方法 | |
JP2009048237A (ja) | 画像処理装置、画像処理方法 | |
JP2008046749A (ja) | 画像処理方法および装置 | |
JP2004234549A (ja) | 現実物体モデル作成方法 | |
JP2006085375A (ja) | 画像処理方法、画像処理装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20080603 |