JP4926826B2 - 情報処理方法および情報処理装置 - Google Patents

情報処理方法および情報処理装置 Download PDF

Info

Publication number
JP4926826B2
JP4926826B2 JP2007139373A JP2007139373A JP4926826B2 JP 4926826 B2 JP4926826 B2 JP 4926826B2 JP 2007139373 A JP2007139373 A JP 2007139373A JP 2007139373 A JP2007139373 A JP 2007139373A JP 4926826 B2 JP4926826 B2 JP 4926826B2
Authority
JP
Japan
Prior art keywords
point
sight
line
designating
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007139373A
Other languages
English (en)
Other versions
JP2008293357A (ja
Inventor
クリスチャン サンドア
直樹 西村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2007139373A priority Critical patent/JP4926826B2/ja
Priority to US12/125,773 priority patent/US20080316203A1/en
Publication of JP2008293357A publication Critical patent/JP2008293357A/ja
Application granted granted Critical
Publication of JP4926826B2 publication Critical patent/JP4926826B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、情報処理方法および情報処理装置に関し、特に、3次元空間内の特定の点を指定するための情報処理方法および情報処理装置に関する。
近年、撮像技術やセンサ技術及び画像処理技術等の進展により、仮想的に物体や人などの3次元情報を表示する、または、現実環境に仮想環境を重畳させて3次元表示することができるようになった。さらには、物体を異なる角度から撮像し、それらを合成して仮想視点の画像を表示することなどができるようになった。
このような3次元環境の表示は、ユーザの視界内に、物体や人などが上下左右だけでなく近い/遠い、表側/裏側などといった奥行き情報を伴って提示される。このため、視点を別の視点に切り替えて状況を観測することが重要な機能となる。
例えば、現実環境においては、空地の場所に高層ビルを建設する場合に上階からみた風景を実際にビルを建築する前に知るなど、現在の視点と異なる視点で3次元環境を見たいという要求がある。同様に3次元的な仮想環境においても、現在の視点では物体の影にあって見ることができない部分を、別の角度から見るなどの要求が作業シミュレーション等で存在する。
このような場合、3次元空間で現在の視点から新しい視点をどのように決めるかが重要になる。3次元空間において、点や面を指定する技術は、特許文献1、特許文献2に開示されている。
特許文献1において、3次元空間内にある操作対象物体に対する操作指示を、2次元平面に表示されている操作画面上から、簡単に効率よく操作入力できる入力装置が開示されている(特許文献1の図3)。ここでは平面上のカーソル(平面カーソル)を用いて、指定したい視点の3次元位置と方向を設定する。平面カーソルは正面向きであれば正方形、斜めになっていれば長方形になり、向きに応じて変形するため、形状により視点の向きが分かるというものである。平面カーソルの位置と向きの入力はジョイスティック等で行い、まず平面カーソルを移動し次に向きを設定する等で指定される。
また、特許文献2では、矢印状の3次元ポインタを用いて、視点の位置と方向を指定することが開示されている。この場合、3次元ポインタと物体との交点の中間点にさらに別の3次元ポインタを表示させることで設定場所をわかりやすくすることが開示されている(特許文献2の図3)。
特開平11−120384号公報 特開平6−103360号公報
しかしながら、特許文献1に開示の技術では、平面カーソルの位置を指定し、さらに向きを指定するプロセスをジョイスティックで行い、その確認を全て2次元平面で行うため、指定に要する動作が煩雑になりやすい。また、指定した視点が、上部からみた2次元平面における場所のどこに位置されているかががわかりにくい。もしくは、高さ方向と同時に横方向の位置を指定するために、操作が煩雑になりやすいといった課題がある。
また、特許文献2に開示の技術では、3次元ポインタの位置と方向を指定するために操作が煩雑になる、上部からみた2次元平面上での場所のどこに位置されているかがが把握しにくいといった課題がある。
さらに、これらの文献においては、カーソルや3次元ポインタをジョイスティック等のユーザインタフェースで動かすために、これらの技術を携帯機器に応用した場合などは、特に操作上の煩雑さがユーザに大きな負荷となってしまう。
本発明は、上記の問題を解決するために、3次元空間で視点位置を容易に指定することができることを目的とする。
また、本発明は、3次元空間で視点の位置を指示する際に、距離感が明確で指定のための確認が容易で、操作の煩雑さを無くすことを目的とする。
さらには、本発明は、現在の視点で既に見えている、現実もしくは仮想的に存在する物体に対して、それらとの位置関係を明確に把握しながら指定すること、及び、3次元空間における特定のポイントを容易に指定でき、携帯機器などの小さな画面でもこれらの動作が容易に実行可能にすることを目的とする。
上記目的を達成するために、本発明の情報処理方法は,ユーザが操作するデバイスの方向を計測手段で計測する第1の計測工程と、前記計測工程で計測された方向に基づいて、第一点を指定手段で指定する第1の指定工程と、前記指定された第一点の3次元位置を算出手段で算出する第1の算出工程と、前記算出された3次元位置に基づく第一面を設定手段で設定する設定工程と、前記第一面が設定された後の前記デバイスの方向を、前記計測手段で計測する第2の計測工程と、前記計測された方向に応じて前記第一面に含まれる第二点を前記指定手段で指定する第2の指定工程と、前記第二点の3次元位置を算出する第2の算出工程と、前記第二点を視点とした画像を、前記表示手段に表示する表示工程とを有する。
また、本発明の情報処理方法は、撮像装置と、表示装置と、シーンの3次元モデルを記憶した記憶手段とを備えた情報処理装置における情報処理方法であって、前記撮像装置で撮像した現実空間を前記表示装置に表示し、表示された画像を用いて被写体へと結ぶ方向を第一視線の方向として指定する工程と、前記第一視線の方向と前記3次元モデルとの交点を用いて第一点を指定する工程と、前記第一点の3次元位置を前記3次元モデルから算出する工程と、前記第一点の3次元位置に基づいて第一面を設定する工程と、前記撮像装置で撮像した現実空間を前記表示装置に表示し、表示された画像を用いて被写体へと結ぶ方向を第二視線の方向として指定する工程と、前記第二視線の方向と前記第一面との交点を用いて第二点を指定する工程と、前記第二点の3次元位置を算出する工程とを有する。
また、本発明の情報処理方法は、撮像装置と、表示装置とを備えた情報処理装置における情報処理方法であって、前記撮像装置で撮像した現実空間を前記表示装置に表示し、表示された画像を用いて被写体へと結ぶ方向を第一視線の方向として指定する工程と、前記第一視線の方向の奥行きを計測する工程と、前記第一視線の方向と前記奥行きとを用いて第一点を指定する工程と、前記撮像装置の位置と、前記第一視線の方向と、前記奥行きとを用いて第一点の3次元位置を算出する工程と、前記第一点の3次元位置に基づいて第一面を設定する工程と、前記撮像装置で撮像した現実空間を前記表示装置に表示し、表示された画像を用いて被写体へと結ぶ方向を第二視線の方向として指定する工程と、前記第二視線の方向と前記第一面との交点を用いて第二点を指定する工程と、前記第二点の3次元位置を算出する工程とを有する。
更に、本発明の情報処理装置は、ユーザが操作するデバイスの方向を計測する計測手段と、前記計測手段で計測された方向に基づいて、第一点を指定する指定手段と、前記指定された第一点の3次元位置を算出する算出手段と、前記算出された3次元位置に基づく第一面を設定する設定手段とを有し、前記計測手段が、前記第一面が設定された後の前記デバイスの方向を計測し、前記指定手段が、前記計測された方向に応じて前記第一面に含まれる第二点を指定し、前記算出手段が、前記第二点の3次元位置を算出し、前記第二点を視点とした画像を、前記表示手段に表示する表示制御手段と更に有する。
また、本発明の情報処理装置は、撮像装置と、表示装置と、シーンの3次元モデルを記憶した記憶手段とを備えた情報処理装置であって、前記表示装置に表示された前記撮像装置で撮像した現実空間の画像を用いて被写体へと結ぶ方向を第一視線の方向として指定する手段と、前記第一視線の方向と前記3次元モデルとの交点を用いて第一点を指定する手段と、前記第一点の3次元位置を前記3次元モデルから算出する手段と、前記第一点の3次元位置に基づいて第一面を設定する手段と、前記表示装置に表示された前記撮像装置で撮像した現実空間の画像を用いて被写体へと結ぶ方向を第二視線の方向として指定する手段と、前記第二視線の方向と前記第一面との交点を用いて第二点を指定する手段と、前記第二点の3次元位置を算出する手段とを有する。
また、本発明の情報処理装置は、撮像装置と、表示装置とを備えた情報処理装置であって、前記表示装置に表示された前記撮像装置で撮像した現実空間の画像を用いて被写体へと結ぶ方向を第一視線の方向として指定する手段と、前記第一視線の方向の奥行きを計測する手段と、前記第一視線の方向と前記奥行きとを用いて第一点を指定する手段と、前記撮像装置の位置と、前記第一視線の方向と、前記奥行きとを用いて第一点の3次元位置を算出する手段と、前記第一点の3次元位置に基づいて第一面を設定する手段と、前記表示装置に表示された前記撮像装置で撮像した現実空間の画像を用いて被写体へと結ぶ方向を第二視線の方向として指定する手段と、前記第二視線の方向と前記第一面との交点を用いて第二点を指定する手段と、前記第二点の3次元位置を算出する手段とを有する。
本発明によれば、現実空間または仮想空間またはこれらが混在した、3次元空間において、新しい点や面を、容易に設定することができる。
以下、本発明の好適な実施形態を、図面を用いて説明する。
[第一の実施の形態]
まず、本実施の形態における3次元位置指定を、図1を用いて説明する。
図1は、本実施の形態の3次元位置指定の流れを、概念的に説明するための図である。
図1は、地上面GPに物体Obがあり、この物体から少し離れた地点にユーザの視点VCがある状態を側面から示したものである。この物体Obや地上面GPなどは、形状や位置などの幾何学的な数値データに基づき仮想的に表示された仮想物体であっても、現実空間における現実物体であっても良く、仮想物体と現実物体が混在している環境であっても良い。
以下では、視点VCから観測される物体Ob、地上面GPなどの3次元環境は、仮想的に用意されたものとして説明する。具体的には、物体Obが地上面GPと接した部分の上部にある点(位置)を、新たな視点として指定する場合について説明する。
デバイスは,視点VCの位置や方向を指定するツールである。この視点VCの位置や方向を指定するデバイスとして、例えば、ユーザに提示する仮想物体を描画する際の基準となる仮想カメラを用いる。具体的なデバイスとしては、既知の方法で位置や姿勢が求められるディスプレイやヘッドマウントディスプレイ、または他のユーザインタフェースを用いることで実現することができる。なお、仮想カメラから見た仮想画像は,ディスプレイやヘッドマウントディスプレイ等に表示されるが、その生成等については、公知であるのでその詳細な説明は省略する。
視点VCは、これらのディスプレイを動かしたり、ユーザがヘッドマウントディスプレイを装着して移動や頭の角度を変えるなどにより視点VCの位置を変更することができる。
まず、物体Obが存在する環境に仮想カメラを視点VCとして設定された状態において(図1(a))、ユーザが仮想カメラを動かすことにより、仮想カメラの視軸(視点)を物Ob体に向けた状態での視線V1の方向を計測する(図1(b))。視線V1の方向の計測は、例えば仮想環境の場合には、仮想カメラの設定条件から取得した各種パラメータを用いて求められ、視点位置決めのためのユーザインタフェースなどを用いる場合には、位置や姿勢センサの情報から求められる。
尚、仮想カメラの位置を変更しながら撮像する場合は、3次元空間内の不動の点を3次元位置座標の原点として定め、原点に対する仮想カメラの3次元位置も同時に求めることが望ましい。
以下では、仮想カメラの視点の3次元位置と視線方向を求めるとする。しかし、例えば仮想カメラの位置を原点として全ての仮想物体を仮想カメラの位置に対して相対的に表示する場合は、必ずしも仮想カメラの位置を求めなくとも良い。この場合、仮想カメラの位置は常に原点として設定されていることとなる。
仮想カメラの視点VCの3次元位置と視線方向の特定により、仮想カメラの第一視線V1の方向は、3次元中空間中でその位置と方向が特定される。例えば、第一視線V1は、3次元で表現された直線の方程式で記述される。
次に、第一視線V1の方向に基づいて第一点を指定する(図1(b))。例えば、第一視線V1と、仮想物体や地面を構成する面とが、仮想カメラ側から見て最初に交わった点を、仮想物体や地面を構成する面を構成する点群の中から抽出する。
図1(b)においては、物体OBと地面GPとが接する点が、第一視線V1と交わった点を第一点P1としている。
次に、第一点P1の3次元位置を算出する。仮想物体や地面の3次元データには、それらを構成する点群の位置、もしくは線や面を規定する数式が含まれている。このため、仮想物体や地面を構成する複数の面のうち、第一視線V1と交わった点をP1として抽出すれば、第一点P1の3次元位置として求めることができる。求めた3次元位置に、第一点P1を示す仮想物体のデータに基づく仮想画像を提示することで、ユーザは第一点が設定されたことを把握することができる。
次に、求められた第一点P1の3次元位置に基づいて、第一面Sを設定する(図1(c)。この第一面Sは、第一点P1と、あらかじめ設定された条件、もしくはユーザがその都度設定する条件に基づいて設定される。
本実施の形態において、この条件は、第一点P1を含み、地上面に垂直な平面であり、視点VCと第一点P1を含む面に対して垂直な平面である。
この条件から3次元空間中での平面の位置は決定される。このため、第一面Sの3次元空間における位置や配向を特定する条件、例えば平面を表す数式や平面を構成する点群の集合体が求まる。
次に、仮想カメラを動かすことにより、選択したい第一面S上の特定のポイントに視点VCを向ける。第一点P1を求めたのと同様に、この時の仮想カメラの視線(第二視線V2とする)の方向を求める(図1(d))。ここで、第一視線V1と第二視線V2とは、全く異なる方向で良い。
次に、第二視線V2の方向に応じて第一面S上の第二点P2を指定する。例えば、第二視線V2の方向と第一面Sとの交点P2を求める。この交点P2が第二点となる。第二点P2の3次元位置は、第一面Sと第二視線V2の方向の位置姿勢情報より求めることができるので、最終的に3次元空間中に第二点P2が指定され、ユーザは、その3次元位置が前述と同様に仮想物体のデータを用いて提示されることで把握することができる(図1(e))。
上述のように、ユーザは、第一視線方向および第二視線方向をデバイスの方向を変えて選択する操作を行うだけで、現在の視点とは異なる位置に存在する点を容易に求めることができる。
また、デバイスを仮想カメラとし、その反対面に、3次元空間を表示するディスプレイを設け、仮想カメラの視点での画像を、ユーザ視点の方向と一致するようにディスプレイに表示させることでさらに容易に3次元位置を指定することができる。この場合の操作は、3次元空間を見ながら、第一点や第二点などを指定したい方向にデバイスの向きを変えて、ボタン操作などで、3次元位置が容易に設定できる。これは小型の携帯機器を用いて3次元位置を指定する際には、デバイスを対象に向ける動作とボタンを押す動作だけで実行できるため、特に有用である。
[第二の実施の形態]
第一の実施の形態においては、視点から観測される物体、地上面などの3次元環境は、仮想的に用意されたものとしたが、現実環境下で現実物体を対象として行っても良い。
この場合には、ユーザ視点から見た3次元環境情報は、撮像装置を用いて取得するため、第一の実施の形態に加えて、撮像装置をさらに有し、撮像装置で撮像した実写画像を、表示手段に表示して処理を行う。
以下、図2を用いて、本実施の形態、即ち、撮像装置で撮像した実写画像を表示装置に表示して、3次元位置の指定を行う場合について、説明する。
図2は、ユーザが見ている風景(シーン)の3次元モデルの例である。図2は,ユーザの前方の視野内に、2つの建物B1、B2と、その間に木Tがあり、最終的なターゲットポイントTPを第二点として指定する場合を3次元的に示したものである。
ユーザは、ボタンB、ディスプレイDを有した携帯機器MUを用いて現実環境を撮像する。図示していないが携帯機器MUには、ディスプレイと反対面に撮像デバイスがあり、この撮像デバイスで撮像した実写画像がディスプレイD上に表示されるようになっている。
ここで、ユーザは木Tの上の方で、かつ、左の建物B1に少し寄った上部のポイントを第二点として選択するものとする。
図3(a)〜(e)は、図2に示した3次元環境を上部から見た図で、第二点を選択するまでのプロセスを模式的に表したものである。
まず、処理開始時の位置関係を図3(a)に示す。ユーザUは、携帯機器MUを用いてユーザの視点から木Tを撮像する。このとき、図2に示した携帯機器MUのディスプレイDには、2つの建物B1、B2と、その間に木Tが表示されている。
次の図3(b)で示すように、ユーザUが、木Tに向けた第一視線がV1である。第一視線V1の方向の設定には、例えば、携帯機器MUのディスプレイD上にあらかじめ撮像装置の視線(以下、カメラ視線)と一致するマーカを表示させておいてこれを活用する。例えばディスプレイD上のマーカが木Tの一点、例えば木Tの根元の点、に一致したときに、携帯機器MUのボタンUを押す。ボタンUが押された時点で携帯機器MUの撮像デバイスの位置および姿勢、が測定され記録される。この撮像デバイスの位置および姿勢から、第一視線V1の方向が求められる。
第一視線V1と木T、正確には木Tのうちユーザから見て最も近い点、との交点が第一点P1である。
このとき、第一点P1の位置取得には、例えば、あらかじめ用意した木Tの仮想データを用いる。仮想データには、3次元空間中の物体の形状データが位置と姿勢データとともに記録されている。仮想データに現実環境と対応した座標(世界座標)が含まれていれば、第一の実施形態と同様に、木Tのポイントを指定するだけで、第一点P1の位置が算出できる。
また、携帯機器MUの現実環境における位置情報が得られれば、仮想データに現実環境と対応した座標(世界座標)が含まれていなくとも、第一点P1の位置の絶対位置(世界座標における位置)を取得することができる。
また、携帯機器MUの現実環境における位置情報が得られておらず、また、仮想データに現実環境と対応した座標(世界座標)が含まれていなくとも、携帯機器MUと仮想データである木Tとの相対的な位置関係は把握できる。
また、仮想データに現実環境と対応した座標(世界座標)が含まれていれば、表示した画像を携帯機器MUで取得した画像に照し合せることによって、携帯機器MUの位置および姿勢を取得することもできる。
以上の仮想と現実の画像を照し合せて、第一点P1や携帯機器MUの位置や姿勢を取得するには、次の方法がある。
まず、撮像デバイスを用いて現実環境(図2、図3の例では建物B1、B2や木T)を撮像し、画像処理によってそれらの輪郭などの特徴点を抽出する。これらの現実環境に存在する物体の特徴点を、用意した仮想データの特徴点と比較する。現実と仮想の特徴点を一致させることにより、現実物体や仮想物体の位置や姿勢を取得できる。
次に、図3(c)に示すように、第一点P1を通り第一視線V1及び地面と垂直な第一面Sを定義し表示する。この定義は、第一の実施の形態に記述した方法と同様である。第一面Sは、現実環境に重ねてディスプレイDに表示される。
次に、図3(d)に示すように、第二視線V2の方向を指定して面S上に第二点P2を指定する。図3(e)は、最終的に第二点P2が指定された状態を示す。
以上のように、ユーザは、最終ターゲットポイントとなる第二点を指定することができる。
図3(f)は、新しい視点位置が指定された後に、方向を指定する場合を説明した図である。ユーザは、第二点P2を指定した時点では、表示画像は新しい視点P2から見た仮想画像を得ることができる。
即ち、ユーザはあたかもP2の位置にいるように感じることができ、カメラを好きな方向に動かして得たい画像を取得することができる。例えば視点P2で、図3(f)に示すように木がある方向V2’の画像を取得したい場合、それと同じ方向であるV2にカメラを向けることにより画像を得ることができる。
尚、携帯機器MUのディスプレイDには、現実の撮像画像が表示されるが、これに仮想画像を表示することもできる。このような現実画像に仮想画像とが混在した複合現実感環境では、第一視線方向、第一点、第一面、第二視線の方向、第二点などの仮想データを現実環境上に重ねて表示することができる。また、携帯機器MUの位置姿勢情報が誤差を含むと、仮想画像と現実画像にずれが生じるため、携帯機器MUの位置姿勢の誤差が生じたことをすぐに把握することができる。
以上のように本実施の形態によれば、ユーザが行うことは、設置したい第一点および第二点に向けて携帯機器MUの向きを変え、画像を見ながら指定したいポイントのところでボタンを押す動作だけで第二点を3次元空間中で指定し入力することができる。
従って、マウスやジョイスティックなどを用いた複雑な入力操作が不要となり、3次元位置の指定がより直感的で携帯機器での指定操作が容易となる。
次に、本実施の形態の3次元位置の指定方法を用いて、現実環境において特定の3次元位置を指定し、その視点からの仮想画像を表示する場合を説明する。
図4に、本発明に係る情報処理装置の構成例を示す。
本実施の形態の情報処理装置は、センサー10、撮像表示装置20、情報処理装置30、操作部40から構成される。尚、このセンサー10、撮像表示装置20、画像処理装置30、操作部40は、例えば、図2に示したような1つの携帯機器として構成してもよく、センサー10、撮像表示装置20、操作部40が1つの携帯機器として構成し、画像処理装置と無線により通信する構成としても良い。
センサー10は、撮像表示装置20に設置され、撮像表示装置20を視点とする位置及び姿勢(以下、視点の位置姿勢)を計測する。このセンサー10は、超音波式、磁気式、光学式等で実現することができ、既に、公知であるので、その詳細な説明は省略する。
撮像表示装置20は、撮像部21と表示部22とで構成され、撮像部21で撮像された実写画像を画像処理装置30へ送信し、画像処理装置30から送信される画像を表示部22で表示する。この撮像表示装置20は、頭部搭載型の表示装置や、ハンドヘルド型の表示装置であってもよい。
画像処理装置30は、制御部31、視点位置演算部32、センサー入力部33、画像入力部34、画像出力部35、操作入力部36、記憶部37から構成される。
制御部31は、記憶部37に記憶された後述する処理を実現するための制御プログラムを実行することにより、各部を制御する。視点位置演算部32は、センサー入力部33を介して入力されるセンサー10の計測値、及び、画像入力部34を介して入力される実写画像に基づいて、視点の位置姿勢を演算する。画像出力部35は、制御部32から出力される画像を、撮像表示装置20へ送信する。操作入力部36は、操作部40を介したユーザの指示を、制御部31へ出力する。
記憶部37には、3次元(3D)環境モデルが記憶される。3次元環境モデルは、3次元空間でのシーンを較正するための3次元モデルである。この3次元モデルには、ユーザが3次元位置の指定方法を実行する3次元空間に存在する、物体(建物や木、物品、人物など)の3次元形状データ、および、3次元位置、姿勢データの一部もしくは全部が、含まれているものである。
次に、図4に示した情報処理装置を用いて、現実環境において3次元位置を指定する方法を、フローチャートを用いて説明する。
図5は、本実施の形態に関わる3次元位置取得方法の全体の処理プロセスを示したフローチャートである。
本処理プロセスでは、現実環境と仮想環境を混在させる複合現実感(MR)環境において、本実施の形態の3次元位置指定方法を用いる場合を示す。ここでMR環境とは、カメラで撮像した現実物体をディスプレイに表示するときに、仮想物体、点、ポインタなどを、現実物体との位置関係を考慮して、現実物体と同画面内に表示した状態もしくは表示可能な状態を言う。
図5において、まず、MR環境における視野(MR視野)で、現実環境を撮像する。撮像部21がキャプチャした現実画像上には仮想的な視線光線を示す仮想物体が合成され、合成された画像を表示部22に表示される(ステップS10)。この仮想的な視線光線は、撮像部21の現状の視線方向を示すもので、例えば、視点と対象物までを赤い線で結んだ仮想的なレーザポインタである。そして、ユーザが指定したい第一点と仮想的に表示されたレーザポインタの端点が一致したときに、操作部40の操作ボタンを押す。この操作ボタンが押されたことが入力されたか否かを判断する(ステップS20)。入力が無い場合は、ステップS10へ戻り、処理が繰返される。
入力が行われた場合、ステップS30へ進む。ステップS30においては、指定され位置(第一点)が算出される。
次にステップS40に進み、指定した第一点を元に仮想壁である第一面が形成されて、現実画像上に合成され、表示される。第一面が表示された後に、再度、仮想的なレーザポインタが表示される。そして、ユーザは、指定したい第二点を、仮想的に表示されたレーザポインタで前述と同様に、操作部40の操作ボタンを操作することで入力する。入力が無い場合、ステップS40に戻り処理を繰り替える。
入力が行われた場合、ステップS60へ進む。ステップS60において、第二点の視点位置を計算する。尚、計算は第一点と同様に求めればよい。尚、取消ボタンによる取消が入力された場合、ステップS10に戻る。
ステップS60において第二点の3次元位置が計算されたのち、ステップS70において第二点からみた仮想環境での視野(VR視野)で画像が形成され表示される。このVR視野では、表示されるものはすべて仮想的な物体である。しかし、必ずしもコンピュータで生成したグラフィックスに限らず、複数の現実画像から再構成して作成された第二点における現実画像でも良い。
図6〜図9を用いて、図5の各ステップの詳細を述べる。
図6は、図5のステップS10の詳細な処理のフローチャートである。
ステップS110において、制御部31は、現在の実写画像を取得すると共に、視点位置演算部32が演算した撮像表示装置20の位置姿勢を取得する。
ステップS120において、制御部31は、取得した位置姿勢に対応する記憶部37に記憶されているデータに基づいて、取得した位置姿勢から見える仮想画像を生成する。この仮想画像には、前述の視線画像が含まれている。
ステップS130において、制御部31は、生成した仮想画像を、取得した実写画像に合成する。
ステップS140において、合成した合成画像を画像出力部35から表示部22へ送信し、表示部22において合成画像が表示される。
図7は、図5のステップS30の詳細な処理のフローチャートである。
ステップS310において、制御部31は、操作ボタンが押されたときの視点の位置姿勢情報に対応する環境情報を、記憶部37から読込む。
ステップS320において、制御部31は、読込んだ環境情報と、視点の位置姿勢から、視線画像と交差する物体(仮想物体、又は、現実物体)の交差する点(第一点)を算出する。
図8は、図5のステップS40の詳細な処理のフローチャートである。
ステップS410において、制御部31は、撮像部21で撮像された実写画像と、撮像表示装置20の位置姿勢を取得する。
ステップS420において、制御部31は、第一点、位置姿勢に基づいて、第一面を表す仮想壁、及び、新たな視線画像を含む仮想画像を生成する。
ステップS430において、制御部31は、実写画像に、生成した仮想画像を合成する。
ステップS440において、合成した合成画像を画像出力部35が表示部22へ出力し、表示部22が合成画像を表示する。
図9は、図5のステップS70の詳細な処理のフローチャートである。
ステップS710において、制御部31は、視点位置演算部32が算出した位置姿勢を取得する。尚、後の処理では、姿勢のみを用いる。
ステップS720において、制御部31は、ステップS60で計算された第二点と取得した姿勢に基づいて、第二点の取得した姿勢方向から見える仮想画像を生成する。
ステップS730において、画像出力部35を介して表示部22へ生成した仮想画像を送信し、表示部22は受信した仮想画像を表示する。
本実施の形態においては、撮像デバイス(撮像装置)で取得した撮像画像が、ユーザが被写体である現実物体を見る視線方向とディスプレイを見る視点の方向とが同じ方向になるようにディスプレイに表示される。このため、携帯機器に本実施の形態を提供した場合、3次元空間を見ながら、第一点を指定したい方向に撮像部を向け、ボタン操作で第一点の位置を特定し、第一面が表示される。次に第二点を指定したい方向に撮像部を向け、ボタン操作で第二点の位置が特定される。最終的なターゲットポイントである第二点を指定するのに必要な操作は、指定箇所が見えるように撮像部を向けることと、ボタン操作だけである。
このため、簡単に旅行先などで、本発明の3次元位置指定方法を搭載した携帯機器を用いて、仮想視点からの画像を取得して見ることなどができる。
例えば、近年、上空から撮像された世界中の詳細な画像が、インターネット上で一般に公開されている。また、ユーザが各地で独自に撮像した画像をアップロードするウエブページもいくつか公開されている。第二点の位置や姿勢の情報を元に、第二点を視点とした画像を、これらの画像を用いて画像合成処理によって作製すれば、旅行先でユーザに簡単に提示することができる。
[第三の実施の形態]
前述の実施の形態における視線方向は、撮像装置と表示装置とを備え、撮像装置で撮像した現実空間を表示装置に表示することによって、表示された画像を用いて被写体へと結ぶ方向を視線方向として指定しても良い。
また、撮像装置と表示装置とを備え、撮像装置で撮像した現実空間を表示装置に表示し、表示された画像内の被写体上の点を指定することによって、視点から被写点へと結ぶ方向を視線方向として指定しても良い。
具体的には、携帯機器MUのディスプレイD上にあらかじめカメラ視線と一致するマーカを表示させておき、これを活用する方法を示した。これは、第一点および第二点を画面上で選択する場合、カメラ光線と完全に一致させる場合には、例えば画面中心とカメラの光軸を一致させて、画面の中心にマーカを置いて、セッティングする方法である。
しかし、上記のように、カメラの光学系の光軸とディスプレイの中心を必ずしも一致させる必要は無い。例えば、画面上で上下左右にカーソルを動かし、ディスプレイ上に表示された撮像画像の内、特定のポイントを指定してもよい。
但し、画面上でカーソルを動かす動作は、全体の操作を煩雑にさせることになるので、特に携帯機器で本発明の3次元位置指定方法を用いる場合は、望ましくは、カーソルを移動させずに、画面上の固定マーカを用いて携帯機器を動かすことで、目標の第一点、もしくは、第二点を選択すると良い。
[第四の実施の形態]
上述の実施の形態では、所謂ビデオシースルー型の表示装置について、説明した。しかしながら、光学的に透過する所謂光学シースルー型の表示装置であっても良い。
具体的には、例えば、透明型のタッチパネルや光学シースルー型のヘッドマウントディスプレイなどをデバイスとして用いて用いる。透明型のタッチパネルを用いる場合、被写体が透過して見えると同時に、その画面上で視線上の点を指定することができる。よって、CCDやCMOSなどの撮像デバイスやそれを表示する液晶ディスプレイなどを用意しなくとも良い、さらには、透明の板の一部に赤い点が設けてあるデバイスを用いて、その赤い点と指定したい点を一致させても良い。さらには、空孔の筒などをデバイスに用いても、指定したい点を覗くようにしても良い
また、光学シースルー型のヘッドマウントディスプレイなどをデバイスとして用いると、透過して見える被写体と仮想物体とを同時に表示させることができる。これにより第一視線の方向、第二視線の方向、第一点、第二点、第一面の一部もしくは全部を指定したり表示させることができる。
さらに、以上で述べたデバイスの位置と姿勢を検出する工程を設ければ、指定した視線の方向や点などの位置や姿勢を算出することができる。
[第五の実施の形態]
前述の実施の形態に、視線の奥行きを計測するための手段をさらに備え、視線方向と奥行きとを用いる構成にしても良い。
具体的には、第二の実施の形態において、第一点を指定するために、3D環境モデルを用いてカメラ視線との交点の位置を求めた。しかし、カメラと求めたい地点との距離を計測すれば、カメラの位置と姿勢(カメラ視線方向)および、カメラからの距離から、第一点の3次元位置の計算が可能となる。この場合には、3D環境モデルを用いずに、第一点を求めることができる。
奥行き計測方法としては、赤外線や超音波あるいはその他の電磁波を対象物に照射して反射した光、電波、音波を観測し反射までに要した時間を計測して、距離を算出するタイム・オブ・フライト方式などを活用することができる。
[第六の実施の形態]
第一面よりも手前に現実物体がある領域は、第一面の表示態様を変えても良い。
具体的には、第二の実施の形態において、第一面よりも手前に現実物体がある場合、仮想的に表示した第一面が視界にある現実物体を覆い隠してしまうと第一面と現実環境との位置関係が把握しにくくなる場合がある。
このような場合には、第一面を半透明型にして、第一面より背後の物体も一部透過して見えるようにしても良い。
さらに、第一面より手前に物体があるときは表示せず、第一面より背後の物体があるときは第一面を表示するようにしても良い。
または、第一面より手前に物体があるときは、その物体の仮想データを重畳させてあたかも第一面よりも手前にあるように表示させても良い。
以上の操作により、現実物体と第一面との位置関係が、第一面を設定して表示した後も把握しやすくなり、その後に第二点の指定も容易に行うことができる。
[第七の実施の形態]
第一面は平面であってよい。または、平面は水平面に垂直でも良い。または、面の設定は、第一視線の方向によって平面の向きを決定しても良い。または、第一面は、撮像デバイスを中心とする円筒面であって、その軸が水平面に垂直であること、もしくは、球状であっても良い。
具体的には、第一の実施の形態においては、仮想壁である第一面の設定方法は、平面であり、第一点を含み、地上面に垂直であり、仮想カメラ視点と第一点を含む平面に垂直である、とした。しかし、これに限定されること無く、以下の条件で設定を行っても良い。
第一の実施の形態において、仮想壁である第一面は、平面としたが、円筒面、球面、もしくは部分的な円筒面、部分的な球面としてもよい。例えば地面における一体の半径内において視点を指定するなどの場合は、円筒面を設定する。
また、仮想壁である第一面の向きをユーザに対して垂直方向としたが、これに限定することは無く、例えば30°、60°などとして良いし、ユーザが状況に応じて設定しても良い。例えば、道路や線路があり、この線上において上部からの視点画像を得たい場合は、それらに一致するように、仮想壁を回転させるなどの方法がある。
また、仮想壁である第一面の向きを地面に垂直としたが、これに限定することは無く、例えば、10°、30°と地面垂直方向から傾けても良い。
以上の、仮想壁である第一面の形状や向きは、ユーザが状況に応じて変更しても良い。
[第八の実施の形態]
また、第一点の指定において、第一視線の長さを変更しても良い。また、第一点指定において、第二点の影を地平面上に描画して良い。また、第一点指定において、第二の点の高さを点の横に表示しても良い。
また、第一面を設定する代わりに、第一点の3次元位置に基づいてモデル平面に垂直な棒を設定し、この棒上の1点を第二点の指定に用いても良い。
具体的には、第二の実施の形態においては、第一点P1を指定するために、3D環境モデルを用いてカメラ視線との交点の位置を求めた。しかし、必ずしも対象物体との交点を求めなくとも、仮想的にカメラ視線方向に光線を表示させ、この長さを変更することで、カメラからの距離を設定することもできる。
例えば、図10に示すように、第一点を指定するときに、第一視線V1の長さをユーザの操作に基づき変更し、視点VCの位置と第一視線V1の方向と長さにより、第一点P1を指定しても良い。但し、第一視線の光線の長さを変化させるだけでは、周囲の物体との位置関係がはっきりしないので、好ましくは第一もしくは第二の実施の形態で述べたように、物体と光線との交点である第一点を選択するのが望ましい。このため、周囲に適当な物体が存在しない場合、レンジファインダーなどによる距離計測の精度が十分でない場合、仮想データの精度が悪い場合などの状況で用いるのが効果的である。
または、図11で示すように、第一点の指定において、第一視線V1の長さを変更するとともに、第一視線V1の端点から垂直方向や横方向に補助線を延ばして、地面や隣接する物体との位置関係が判るようにすると良い。これにより、第一点の高さや方向がより明確に理解できる。
図11の例では、図2に示した構成から木が無い状態で、建物B1、B2の間に、第一視線V1を出し、この端点から垂直下方向に伸ばして地面と接した点と、横左方向に伸ばして隣接する建物B1と接した点とを表示した。これにより第一視線V1の端点の3次元空間上での位置を、ユーザが明確に理解することができる。
このように表示されている状態で、第一視線V1の方向や長さを調節し、狙いのところでボタンを押すことにより、第二点P2を指定することができる。
また、第一点の指定において、連続的に面を表示しても良い。また、第一点の指定において、俯瞰ビューを表示しても良い。
[第九の実施の形態]
第一の実施の形態において、第一面を指定した。第一面を設定することにより、新しい視点を選択する以外の応用も可能である。例えば、仮想環境と現実環境が混在した状況において、仮想的に表示された第一面を基準にして、現実物体、例えばいくつかの箱、を並べるなどの応用も可能となる。
[第十の実施の形態]
3次元モデルは水平面を含むと良い。これは第一面を設定する際の基準として水平面を用いることができるためである。水平面としては仮想環境においては、仮想物体が設置されるときのベースとなる地上面や、室内であれば床面などとして設定して表示する。現実環境としても、同様に現実環境に存在する地上面や床面など水平な面を活用できる。
[その他の実施の形態]
なお、本発明の目的は、前述した実施例の機能を実現するソフトウェアのプログラムコードを記録したコンピュータ可読記憶媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)がコンピュータ可読記憶媒体に記憶されたプログラムコードを読出し実行することによっても、達成されることは言うまでもない。
この場合、コンピュータ可読記憶媒体から読出されたプログラムコード自体が前述した実施例の機能を実現することになり、そのプログラムコードを記憶したコンピュータ可読記憶媒体は本発明を構成することになる。
プログラムコードを供給するためのコンピュータ可読記憶媒体としては、例えば、フレキシブルディスク,ハードディスク,光ディスク,光磁気ディスク,CD−ROM,CD−R,DVD−ROM,DVD−R,磁気テープ,不揮発性のメモリカード,ROMなどを用いることができる。
また、コンピュータが読出したプログラムコードを実行することにより、前述した実施例の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているOS(オペレーティングシステム)などが実際の処理の一部または全部を行い、その処理によって前述した実施例の機能が実現される場合も含まれることは言うまでもない。
さらに、記憶媒体から読出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施例の機能が実現される場合も含まれることは言うまでもない。
第一の実施の形態の3次元位置指定の流れを概念的に説明するための図である。 第二の実施の形態における位置指定行う場合の状態を説明するための図である。 第二の実施の形態における選択プロセスを模式的に示した図である。 第二の実施の形態に係る情報処理装置の構成を示す図である。 第二の実施の形態における処理動作のフローチャートである。 第二の実施の形態における処理動作のフローチャートである。 第二の実施の形態における処理動作のフローチャートである。 第二の実施の形態における処理動作のフローチャートである。 第二の実施の形態における処理動作のフローチャートである。 第八の実施の形態を説明するための図である。 第八の実施の形態を説明するための図である。

Claims (15)

  1. ユーザが操作するデバイスの方向を計測手段で計測する第1の計測工程と、
    前記計測工程で計測された方向に基づいて、第一点を指定手段で指定する第1の指定工程と、
    前記指定された第一点の3次元位置を算出手段で算出する第1の算出工程と、
    前記算出された3次元位置に基づく第一面を設定手段で設定する設定工程と
    前記第一面が設定された後の前記デバイスの方向を、前記計測手段で計測する第2の計測工程と、
    前記計測された方向に応じて前記第一面に含まれる第二点を前記指定手段で指定する第2の指定工程と、
    前記第二点の3次元位置を算出する第2の算出工程と、
    前記第二点を視点とした画像を、前記表示手段に表示する表示工程と
    を有することを特徴とする情報処理方法。
  2. 前記算出手段は、前記デバイスが操作される環境の3次元モデルを記憶手段から読込み、前記第一点を、前記3次元モデルと前記計測された方向によって算出することを特徴とする請求項1に記載の情報処理方法。
  3. 撮像手段が撮像した実写画像を取得する取得工程と、
    前記第一面を表す仮想画像を生成手段が生成する工程と、
    前記実写画像と前記仮想画像を合成手段が合成する合成工程と、
    前記合成された合成画像を表示手段に表示する表示工程とを更に有するとを特徴とする請求項1又は2に記載の情報処理方法。
  4. 前記方向を示す視線の情報の奥行きを計測する計測工程をさらに有し、
    前記第一点は、前記方向と前記奥行きとによって演算されることを特徴とする請求項1に記載の情報処理方法。
  5. 前記第一面と前記撮像手段との間に現実物体がある領域は、前記表示手段に表示される前記合成画像の表示の態様を変えることを特徴とする請求項に記載の画像処理方法。
  6. 前記第一点を指定するときに、前記第一点の高さを示す情報を表示することを特徴とする請求項1に記載の情報処理方法。
  7. 前記第一点を指定するときに、俯瞰ビューを表示することを特徴とする請求項1に記載の情報処理方法。
  8. 前記方向を示す視線の情報の長さを指定手段で指定する工程を更に有することを特徴とする請求項1に記載の情報処理方法。
  9. 撮像装置と、表示装置と、シーンの3次元モデルを記憶した記憶手段とを備えた情報処理装置における情報処理方法であって、
    前記撮像装置で撮像した現実空間を前記表示装置に表示し、表示された画像を用いて被写体へと結ぶ方向を第一視線の方向として指定する工程と、
    前記第一視線の方向と前記3次元モデルとの交点を用いて第一点を指定する工程と、
    前記第一点の3次元位置を前記3次元モデルから算出する工程と、
    前記第一点の3次元位置に基づいて第一面を設定する工程と、
    前記撮像装置で撮像した現実空間を前記表示装置に表示し、表示された画像を用いて被写体へと結ぶ方向を第二視線の方向として指定する工程と、
    前記第二視線の方向と前記第一面との交点を用いて第二点を指定する工程と、
    前記第二点の3次元位置を算出する工程とを有することを特徴とする情報処理方法。
  10. 撮像装置と、表示装置とを備えた情報処理装置における情報処理方法であって、
    前記撮像装置で撮像した現実空間を前記表示装置に表示し、表示された画像を用いて被写体へと結ぶ方向を第一視線の方向として指定する工程と、
    前記第一視線の方向の奥行きを計測する工程と、
    前記第一視線の方向と前記奥行きとを用いて第一点を指定する工程と、
    前記撮像装置の位置と、前記第一視線の方向と、前記奥行きとを用いて第一点の3次元位置を算出する工程と、
    前記第一点の3次元位置に基づいて第一面を設定する工程と、
    前記撮像装置で撮像した現実空間を前記表示装置に表示し、表示された画像を用いて被写体へと結ぶ方向を第二視線の方向として指定する工程と、
    前記第二視線の方向と前記第一面との交点を用いて第二点を指定する工程と、
    前記第二点の3次元位置を算出する工程とを有することを特徴とする情報処理方法。
  11. ユーザが操作するデバイスの方向を計測する計測手段と、
    前記計測手段で計測された方向に基づいて、第一点を指定する指定手段と、
    前記指定された第一点の3次元位置を算出する算出手段と、
    前記算出された3次元位置に基づく第一面を設定する設定手段と
    を有し、
    前記計測手段が、前記第一面が設定された後の前記デバイスの方向を計測し、
    前記指定手段が、前記計測された方向に応じて前記第一面に含まれる第二点を指定し、
    前記算出手段が、前記第二点の3次元位置を算出し、
    前記第二点を視点とした画像を、前記表示手段に表示する表示制御手段と
    更に有することを特徴とする情報処理装置。
  12. 撮像装置と、表示装置と、シーンの3次元モデルを記憶した記憶手段とを備えた情報処理装置であって、
    前記表示装置に表示された前記撮像装置で撮像した現実空間の画像を用いて被写体へと結ぶ方向を第一視線の方向として指定する手段と、
    前記第一視線の方向と前記3次元モデルとの交点を用いて第一点を指定する手段と、
    前記第一点の3次元位置を前記3次元モデルから算出する手段と、
    前記第一点の3次元位置に基づいて第一面を設定する手段と、
    前記表示装置に表示された前記撮像装置で撮像した現実空間の画像を用いて被写体へと結ぶ方向を第二視線の方向として指定する手段と、
    前記第二視線の方向と前記第一面との交点を用いて第二点を指定する手段と、
    前記第二点の3次元位置を算出する手段とを有することを特徴とする情報処理装置。
  13. 撮像装置と、表示装置とを備えた情報処理装置であって、
    前記表示装置に表示された前記撮像装置で撮像した現実空間の画像を用いて被写体へと結ぶ方向を第一視線の方向として指定する手段と、
    前記第一視線の方向の奥行きを計測する手段と、
    前記第一視線の方向と前記奥行きとを用いて第一点を指定する手段と、
    前記撮像装置の位置と、前記第一視線の方向と、前記奥行きとを用いて第一点の3次元位置を算出する手段と、
    前記第一点の3次元位置に基づいて第一面を設定する手段と、
    前記表示装置に表示された前記撮像装置で撮像した現実空間の画像を用いて被写体へと結ぶ方向を第二視線の方向として指定する手段と、
    前記第二視線の方向と前記第一面との交点を用いて第二点を指定する手段と、
    前記第二点の3次元位置を算出する手段とを有することを特徴とする情報処理装置。
  14. 請求項1乃至請求項10の何れか1項に記載の情報処理方法を、コンピュータで実現するためのプログラム。
  15. 請求項14に記載のプログラムを記憶したコンピュータ可読の記憶媒体。
JP2007139373A 2007-05-25 2007-05-25 情報処理方法および情報処理装置 Expired - Fee Related JP4926826B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2007139373A JP4926826B2 (ja) 2007-05-25 2007-05-25 情報処理方法および情報処理装置
US12/125,773 US20080316203A1 (en) 2007-05-25 2008-05-22 Information processing method and apparatus for specifying point in three-dimensional space

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007139373A JP4926826B2 (ja) 2007-05-25 2007-05-25 情報処理方法および情報処理装置

Publications (2)

Publication Number Publication Date
JP2008293357A JP2008293357A (ja) 2008-12-04
JP4926826B2 true JP4926826B2 (ja) 2012-05-09

Family

ID=40135991

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007139373A Expired - Fee Related JP4926826B2 (ja) 2007-05-25 2007-05-25 情報処理方法および情報処理装置

Country Status (2)

Country Link
US (1) US20080316203A1 (ja)
JP (1) JP4926826B2 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8294766B2 (en) * 2009-01-28 2012-10-23 Apple Inc. Generating a three-dimensional model using a portable electronic device recording
US8970690B2 (en) * 2009-02-13 2015-03-03 Metaio Gmbh Methods and systems for determining the pose of a camera with respect to at least one object of a real environment
US9600933B2 (en) 2011-07-01 2017-03-21 Intel Corporation Mobile augmented reality system
JP5842634B2 (ja) * 2012-01-26 2016-01-13 富士通株式会社 表示方法及び表示装置
JP5651639B2 (ja) * 2012-06-29 2015-01-14 株式会社東芝 情報処理装置、情報表示装置、情報処理方法およびプログラム
US9070194B2 (en) 2012-10-25 2015-06-30 Microsoft Technology Licensing, Llc Planar surface detection
JP2016070762A (ja) * 2014-09-29 2016-05-09 ファナック株式会社 対象物の三次元位置を検出する検出方法および検出装置
JP6610185B2 (ja) * 2015-11-12 2019-11-27 コニカミノルタ株式会社 画像処理装置
JP2017129567A (ja) * 2016-01-20 2017-07-27 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
JP2018051728A (ja) * 2016-09-30 2018-04-05 ファナック株式会社 対象物の三次元位置を検出する検出方法および検出装置
JP7349793B2 (ja) * 2019-02-15 2023-09-25 キヤノン株式会社 画像処理装置および画像処理方法、プログラム
JP7414197B2 (ja) 2020-12-01 2024-01-16 鴻池運輸株式会社 仮想ゲージ表示プログラム及び装置

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3263140B2 (ja) * 1992-09-04 2002-03-04 株式会社東芝 三次元ポインティング支援システムおよび方法
JPH06103360A (ja) * 1992-09-21 1994-04-15 Toshiba Corp 3次元画像表示システム
JP3603285B2 (ja) * 1994-07-21 2004-12-22 株式会社セガ 画像処理装置
US6157382A (en) * 1996-11-29 2000-12-05 Canon Kabushiki Kaisha Image display method and apparatus therefor
JP2985847B2 (ja) * 1997-10-17 1999-12-06 日本電気株式会社 入力装置
US6166744A (en) * 1997-11-26 2000-12-26 Pathfinder Systems, Inc. System for combining virtual images with real-world scenes
US6980690B1 (en) * 2000-01-20 2005-12-27 Canon Kabushiki Kaisha Image processing apparatus
JP2002042172A (ja) * 2000-07-25 2002-02-08 Matsushita Electric Works Ltd 仮想物体の選択方法、この方法が適用される記録媒体およびサービス
JP2003085590A (ja) * 2001-09-13 2003-03-20 Nippon Telegr & Teleph Corp <Ntt> 3次元情報操作方法およびその装置,3次元情報操作プログラムならびにそのプログラムの記録媒体
US6759979B2 (en) * 2002-01-22 2004-07-06 E-Businesscontrols Corp. GPS-enhanced system and method for automatically capturing and co-registering virtual models of a site
JP2003346185A (ja) * 2002-05-24 2003-12-05 Olympus Optical Co Ltd 情報表示システム及び携帯情報端末
JP2004005272A (ja) * 2002-05-31 2004-01-08 Cad Center:Kk 仮想空間移動制御装置及び制御方法並びに制御プログラム
JP4211292B2 (ja) * 2002-06-03 2009-01-21 ソニー株式会社 画像処理装置および画像処理方法、プログラム並びにプログラム記録媒体
JP3944019B2 (ja) * 2002-07-31 2007-07-11 キヤノン株式会社 情報処理装置および方法
KR100779634B1 (ko) * 2003-06-20 2007-11-26 니폰 덴신 덴와 가부시끼가이샤 가상시점 화상 생성방법 및 3차원 화상 표시방법 및 장치
JP4401727B2 (ja) * 2003-09-30 2010-01-20 キヤノン株式会社 画像表示装置及び方法
JP2006343954A (ja) * 2005-06-08 2006-12-21 Canon Inc 画像処理方法、画像処理装置
US20080036758A1 (en) * 2006-03-31 2008-02-14 Intelisum Inc. Systems and methods for determining a global or local position of a point of interest within a scene using a three-dimensional model of the scene
JP2007280212A (ja) * 2006-04-10 2007-10-25 Sony Corp 表示制御装置、表示制御方法及び表示制御プログラム

Also Published As

Publication number Publication date
JP2008293357A (ja) 2008-12-04
US20080316203A1 (en) 2008-12-25

Similar Documents

Publication Publication Date Title
JP4926826B2 (ja) 情報処理方法および情報処理装置
Piekarski et al. Interactive augmented reality techniques for construction at a distance of 3D geometry
JP4278979B2 (ja) ジェスチャーに基づいた入力及びターゲット指示のための単一カメラシステム
JP4999734B2 (ja) 環境地図生成装置、方法及びプログラム
JP4777182B2 (ja) 複合現実感提示装置及びその制御方法、プログラム
US20110029903A1 (en) Interactive virtual reality image generating system
Wang Augmented reality in architecture and design: potentials and challenges for application
KR100953931B1 (ko) 혼합현실 구현 시스템 및 그 방법
US20160343166A1 (en) Image-capturing system for combining subject and three-dimensional virtual space in real time
WO2013035758A1 (ja) 情報表示システム、情報表示方法、及び記憶媒体
JP5472056B2 (ja) 表示システム、表示処理装置、表示方法、および表示プログラム
WO2014141504A1 (ja) 3次元ユーザインタフェース装置及び3次元操作処理方法
JP5709440B2 (ja) 情報処理装置、情報処理方法
Piekarski et al. Augmented reality working planes: A foundation for action and construction at a distance
GB2554914A (en) Virtual reality system and method
JPWO2014016987A1 (ja) 3次元ユーザインタフェース装置及び3次元操作方法
JP2004062758A (ja) 情報処理装置および方法
US10192360B2 (en) Information processing apparatus and information processing method
US20180204387A1 (en) Image generation device, image generation system, and image generation method
JP2007064684A (ja) マーカ配置補助方法及び装置
CN115335894A (zh) 用于虚拟和增强现实的***和方法
JP2009258884A (ja) ユーザインタフェイス
JP2006252468A (ja) 画像処理方法、画像処理装置
JP2009087161A (ja) 画像処理装置、画像処理方法
JP2006085375A (ja) 画像処理方法、画像処理装置

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100201

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100525

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20100630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111011

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120110

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120208

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150217

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150217

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees