JP5769392B2 - 情報処理装置およびその方法 - Google Patents

情報処理装置およびその方法 Download PDF

Info

Publication number
JP5769392B2
JP5769392B2 JP2010189458A JP2010189458A JP5769392B2 JP 5769392 B2 JP5769392 B2 JP 5769392B2 JP 2010189458 A JP2010189458 A JP 2010189458A JP 2010189458 A JP2010189458 A JP 2010189458A JP 5769392 B2 JP5769392 B2 JP 5769392B2
Authority
JP
Japan
Prior art keywords
imaging device
orientation
measuring
image
virtual information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010189458A
Other languages
English (en)
Other versions
JP2012048456A5 (ja
JP2012048456A (ja
Inventor
靖己 田中
靖己 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010189458A priority Critical patent/JP5769392B2/ja
Priority to EP11178747.9A priority patent/EP2423883A3/en
Priority to US13/218,046 priority patent/US8797355B2/en
Publication of JP2012048456A publication Critical patent/JP2012048456A/ja
Publication of JP2012048456A5 publication Critical patent/JP2012048456A5/ja
Priority to US14/335,742 priority patent/US9418483B2/en
Application granted granted Critical
Publication of JP5769392B2 publication Critical patent/JP5769392B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0483Interaction with page-structured environments, e.g. book metaphor

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、情報処理装置および方法に関し、複合現実感において仮想情報を選択し表示する為の情報処理装置および方法に関する。
従来、複数ページを持つテキスト及び画像を有する文章等の仮想情報の表示を行なう際、ディスプレイを見る事が一般的である。また、仮想ページの切り替えには、観察者がマウス、キーボード、ボタン、タッチパネル等のデバイスを利用する。
一方、現実空間と仮想空間との繋ぎ目のない結合を目的とした、複合現実感(MR:Mixed Reality)に関する研究が近年、盛んに行われている。複合現実感の提示を行う画像表示装置は、例えば次のような構成を有する装置である。即ち、ビデオカメラ等の撮像装置が撮像した現実空間の画像から検出した現実物体の一つ一つに仮想物体を重ねわせるように、画像上に撮像装置の位置及び姿勢に応じて生成した仮想空間の画像を重畳描画した画像を表示する。例えば、仮想空間の画像として、コンピュータグラフィックスにより描画された仮想物体や文字情報等がある。このような装置には、例えば、HMD(ヘッドマウントディスプレイ、頭部装着型ディスプレイ)を用いることができる。
また、係る画像表示装置は、観察者の頭部に装着された光学シースルー型ディスプレイに、観察者の視点の位置及び姿勢に応じて生成した仮想現実空間の画像を表示する光学シースルー方式によっても実現される。
このような画像表示装置の応用として、患者の体表面に体内の様子を重畳表示する手術支援や、現実空間に浮遊する仮想の敵と戦う複合現実感ゲーム等がある。この他にも、例えば、市街地を撮像することで得られる現実空間の画像中に含まれる著名な建造物等の名称や案内を仮想空間画像として重畳表示するナビゲーションがある。この他にも、例えば、ビルの建設予定地を撮像することで得られる画像中に建設予定のビルのコンピュータグラフィックス映像を重畳表示する景観シミュレーションがある。
特許文献1には、例えば、電子的に生成された画像及び/又はテキストを現実世界の用紙に関連付けて表示する手法が開示されている。そして、指をマウスポインタとして動かすことにより、用紙に関連づけられた画像やテキストの表示を動かすことができる。つまり、複合現実感の仕組みを用いて、用紙を1つのあたかも従来のCRTや液晶のようなディスプレイとする手法が開示されている。
特開2001−92995号公報 特開2007−172596号公報
しかし、この手法では、映像から用紙のどの位置に対してどのような指の動作や挙動を行ったかを認識し、複雑な処理を必要とするため、表示内容を変更することが容易でないという課題があった。
上記課題を解決するため、本発明は、複合現実感において、観察者が複数の仮想情報の切り替えることを容易に可能にする事を目的とする。
本発明は以下の装置により上記目的を達成する。
撮像装置で現実空間現実物体である紙を撮像した撮像画像を入力する画像入力手段と、
前記撮像装置の位置および姿勢を計測する第1の計測手段と、
前記の姿勢を計測する第2の計測手段と、
前記撮像装置の姿勢と前記の姿勢とに基づいて、前記紙の第1の面と、前記第1の面の裏の面である第2の面とのうち、前記撮像装置の方に向いている面を決定する決定手段と、
前記決定された前記撮像装置の方に向いている面に応じて、複数の仮想情報のうち何れかを選択する選択手段と、
前記撮像装置の位置および姿勢に基づいて、前記撮像画像と前記選択された仮想情報とを合成した合成画像を生成する合成手段とを有することを特徴とする情報処理装置。
本発明の構成によれば、複合現実感において、複数ページを持つ仮想情報の表示を切り替えて表示することが容易に可能となる。
第1の実施形態の仮想物体操作装置の概略構成を示すブロック図である。 第1の実施形態の情報処理装置の構成の模式図である。 第1の実施形態における現実物体の姿勢の変化を示す図である。 第1の実施形態における処理手順を示すフローチャートである。 第1の実施形態における現実物の操作によるページ切り替えを示す図である。 変形例1の撮像画像から現実物体に触れている部位の計測例を示す図である。 第2の実施形態における現実物体の例を示す図である。 コンピュータの構成例を示す図である。
以下添付画像を参照して、本発明を適用した好適な実施形態に従って詳細に説明する。
〔第1の実施形態〕
<構成>
図1は本実施形態の複合現実感における現実物体の操作を適用した概略構成を示す。図2は本実施形態における装置の構成の模式図である。
HMD1000には、撮像部1010、表示部1020が取り付けられ互いに固定されている。なお、本実施形態では、図2に示すように、撮像部1010と表示部1020をHMD内にそれぞれ2基搭載しており、ステレオで現実空間の撮像と複合現実感における合成画像の表示が可能である。観察者はこのHMD1000を頭部に装着することで、表示部1020に映るステレオの複合現実感の合成画像(以下、MR画像とする)を見ることができる。本実施形態では、ステレオの撮像と表示を行うことに限定するものではなく、少なくとも1つ以上の撮像部と表示部があれば適応可能である。さらに、本実施形態では、HMD1000を使用することに限定するものではなく、撮像部1010が装備されていないタイプでも適応可能である。また、HMD1000は、外部のワークステーション2300とカメラ映像や表示映像のデータを送受信する。なお、ワークステーション2300は外部に限らず、HMD1000の機能の一部として内蔵されていてもよい。
画像入力部1030は、撮像部1010において撮像された撮像画像を画像データとして入力する。
撮像部位置姿勢計測部1040では、画像入力部1030で得られた撮像画像から画像処理を行ない撮像部の位置姿勢の計測を行う。ここでは、特許文献2に記載の方法を用いてもよい。この計測には、現実空間での位置が既知である特徴点を用いて求める方法や、センサの誤差を推定して修正する方法などを適応してもよい。また、この撮像部位置姿勢計測部1040は、前記画像処理に限る物ではなく、画像認識による処理、磁気式センサ、光学式センサなど撮像部の位置姿勢を計測できるものであれば適応可能である。
現実物***置姿勢計測部1050では、画像入力部1030で得られた撮像画像から画像処理を行ない現実物体の位置および姿勢、または姿勢の計測を行う。ここでも、特許文献2に記載の方法を用いてもよい。画像処理により現実物体の位置姿勢の計測を行う場合、例えば厚紙のような現実物体2000にマーカ2010を印刷する平面の物体でもよい。また、この現実物***置姿勢計測部1050は、前記画像処理に限る物ではなく、画像認識による処理、磁気式センサ、光学式センサなど撮像部の位置姿勢を計測できるものであればよい。
図3は、本実施形態における現実物体の姿勢の変化を示す図である。
位置姿勢管理部1050では、観察者またはシステムが指定する時刻sでの撮像部位置姿勢計測部1040から得られた位置と現実物***置姿勢計測部1050から得られた位置とを結んだベクトル方向2100と現実物体2000の法線方向2200を記憶する。
また、時刻s以降かつ観察者システムが指定した時刻tでの撮像部位置姿勢計測部1040から得られた位置と現実物***置姿勢計測部1050から得られた位置とを結んだベクトル方向2120と現実物体2000の法線方向2200を記憶する。
また、時刻t以降の観察者システムが指定した時刻uでの撮像部位置姿勢計測部1040から得られた位置と現実物***置姿勢計測部1050から得られた位置とを結んだベクトル方向2100と現実物体2000の法線方向2200を記憶する。
また、この時、世界座標系は、頂点3000を原点とし、軸3030をX軸とし、軸3020をY軸とし、軸3010をZ軸とする。この時、観察者またはユーザが指定する任意の時刻だけではなくシステムが開始されてから一定の間隔で前記現実物体の位置姿勢及び前記撮像部の位置姿勢を記憶しても良い。
位置姿勢管理部1060では、時刻s、t、uのように、複数の時刻において、上方から見た場合のベクトル方向3100(単位ベクトル)と法線方向3200のなす角度3300を算出する。
複数の時刻において、角度3300が、90度以上180度以下の状態から、270度以上360度未満もしくは0度以上180度未満への変化を検知した場合、イベントAを発行し、仮想情報管理部1070に送る。
一方、複数の時刻において、角度3300が、180度以上270度以下の状態から、270度以上360度未満もしくは0度以上180度未満への変化を検知した場合、イベントBを発行し、仮想情報管理部1070に送る。
このように、位置姿勢管理部1060では、複数の時刻において、現実物体の姿勢がどのように変化したかを推定する。そして推定した結果を条件として当てはめ、条件に該当したことをイベントとして発行し、仮想情報管理部1070に送る。
この時、前記イベントを発行させる条件は、観察者の位置または姿勢の少なくとも一つと現実物体の位置または姿勢の少なくとも一つを用いて導き出した物であれば良い。
また、ここで取り上げた角度は、0、90、180、270度に限るものではなく、予め設定しておいてよい。また、上方から見た場合に限るものではない。また、現実物体の姿勢の角度を1つの軸において固定したものを取り上げたが、複数の軸の角度を組み合わせた条件を用意してもよい。
仮想情報管理部1070では、現実物***置姿勢計測部1050から受けとった現実物体の位置姿勢情報から仮想情報の位置姿勢設定し位置姿勢管理部1060から受け取ったイベントから仮想情報の選択を行なう。この時、仮想情報を順方向や逆方向に切り替える。例えば、仮想情報が電子的な書類や書籍情報のような複数のページで構成される情報である場合、現在がページ10の情報であったら、イベントAを受けた時、ページ11の情報に切り替える。また、イベントBを受けた時、仮想情報を逆方向に切り替える。例えば、仮想情報がページ10の情報であったら、ページ9の情報に切り替える。
仮想画像生成部1080は、撮像部位置姿勢計測部1040と仮想情報管理部1070に基づいて仮想画像を生成する。また、仮想画像生成部1080では、撮像部位置姿勢計測部1040ではなく、位置姿勢管理部1060から撮像部と現実物体の各々の位置および姿勢から仮想画像を生成してもよい。これにより、現実物体の位置や姿勢に仮想情報が追従する仮想画像を生成することができる。
画像合成部1090は、画像入力部1030と仮想画像生成部1080から得られる画像とを合成する。
画像出力部1100では、合成された画像を表示部1020に転送する。HMD1000内にある表示部1020には観察者の視点位置に対応した合成画像が表示される。観察者はこの画像を見ることで複合現実感を知覚でき、同時に現実空間上の現実物体の操作も同時に行う。
なお、本実施形態においては、前述の画像入力部1030、撮像部位位置姿勢計測部1040、仮想情報管理部1070、仮想画像生成部1080、画像合成部1090、画像出力部1100を図2におけるワークステーション2300内に格納する。ワークステーション2300は、基本構成の機器の他に、撮像部の画像をキャプチャする為の2系統の映像出力装置を備える。本実施形態においては、このようなワークステーションに限られるものではなく、前述の機能と同等の機能を持つ計算機であればよい。
<処理の手順>
本実施形態における処理の手順を図4のフローチャートを参照して説明する。図4で示すフローチャートは、MR画像を1枚描画するごとに繰り返し行われる処理である。
ステップS4010では、画像入力部1030で入力された画像から撮像部位置姿勢計測部1040で位置姿勢を計測する。
ステップS4020では、同様に現実物***置姿勢計測部1050で位置姿勢を計測する。
ステップS4030では、システム又はユーザが指定した時間が経過した場合に、ステップS4040に進む。満たしていない場合はステップS4090に進む。ここでの時間は、一定の時間ごとや特定の時刻ごとに処理を繰り返すことができればよく、時間の経過に限るものではない。これにより、例えば、現実物体を少ししか動かさないときでも、意図せず勝手に仮想情報が切り替わる可能性を軽減することができる。
ステップS4040では、撮像部の位置姿勢と現実物体の位置姿勢を位置姿勢管理部1060に保存する。
ステップS4050では、位置姿勢管理部1060で保存された、過去の時刻の撮像部の位置姿勢と現実物体の位置姿勢とを推定する。そして、撮像部と現実物体とを結ぶベクトル方向2120と現実物体の表面に対する法線方向2220を求め、ベクトル方向2120と法線方向2220とがなす角4110を求める。また、同様にして現在時刻のベクトル方向2120と法線方向2220とがなす角4120を求める。
ステップS4060では、求めた角度を元にイベントを発行する条件に該当するか否かを判定する。すなわち、角度4110と角度4120が条件1の時は、ステップS4070に進み、条件2の時は、ステップS4080へ進み、条件3のときは、ステップS4100へ進む。
条件1は、角度3300が、90度以上180度以下の状態から、270度以上360度未満もしくは0度以上180度未満への変化を検知した場合、イベントAを仮想情報管理部1070に送る。
条件2は、角度3300が、180度以上270度以下の状態から、270度以上360度未満もしくは0度以上180度未満への変化を検知した場合、イベントBを仮想情報管理部1070に送る。
条件3は、条件1及び条件2以外の場合である。
このように、角度3300は、予め定められた複数の角度の範囲を遷移する。この遷移の内容を条件として発行するイベントを切り替える。
ここでは、撮影部1010と現実物体2000との相対的な姿勢の変化のみを条件として加えた。一方、現実物体計測部1050で計測した現実物体2000の現実空間における姿勢の変化も組み合わせた条件を用意してもよい。具体的には、条件1や条件2に加えて、現実物体2000の現実空間の姿勢の変化が一定以上の場合を合接する条件として更に加えてもよい。これにより、例えば、現実物体を動かさないときでも、勝手に仮想情報が切り替わる可能性を軽減することができる。
ステップS4070では、イベントAを発行する。
ステップS4080では、イベントBを発行する。
このように、現実物体の姿勢がどのように変化したかを推定する。そして推定した結果を条件として当てはめ、条件に該当したことをイベントとして発行する。
ステップS4090では、仮想情報管理部1070の仮想情報の切り替え対象となる仮想情報を選択する。イベントAを受け取った時は仮想情報を順方向に切り替える。また、イベントBを受け取った時は仮想情報を逆方向に切り替える。
具体的に言えば、仮想情報管理部1070に記憶されている複数の仮想情報は、予め並びが決められている。そして、条件に該当したときに、順方向または逆方向の何れか一方の方向を決める。そして、複数の仮想情報に対し、現在選択されている仮想物体から決められた方向にある仮想情報を選択する。
ステップS4100では、仮想画像生成部1080で仮想情報管理部1070に記憶され、選択されている仮想情報から仮想画像の生成を行う。
ステップS4110では、ステップS4100で得られた撮像画像に、ステップS4100で得られた仮想画像を重畳して画像出力部1100によって表示部1020に表示する。
従来の技術を用いると、複合現実感において、複数の仮想情報を提示するには、撮像するマーカの模様など識別内容がそれぞれ異なるマーカに対して1つずつの仮想情報が割り当てていた。マーカを撮像することで、そのマーカに割り当てられた仮想情報を提示していた。すなわち、撮像したマーカが別のマーカに切り替わることに応じてのみ仮想情報を切り替えることができた。
以上の実施形態によれば、現実物体とHMDとの位置もしくは姿勢の変化を検知して、同一の識別内容のマーカに割り当てられる仮想物体を容易に切り替えることができる。
図5は、現実物の操作によるページ切り替えを示す図である。
例えば、図5には、紙などの両面にマーカが5010印刷されている。このマーカ5010を撮像することで、現実物体の姿勢の変化である紙の表と裏のめくり操作を検知し、仮想情報であるページを切り替えることができる。なお、現実物体は、紙に限定するものではなく、木材でも樹脂でも金属でも材料は問わない。
〔変形例1〕
図6は、撮像画像から現実物体に触れている部位を計測する例である。
上記第1の実施形態では、位置姿勢管理部1060では、撮像部の位置姿勢と現実物体の位置姿勢から計算を行っている。一方、図4に示すように観察者が現実物体の特定の部位を押さえた場合にどの部位を押さえているか、画像入力部1030から入力された画像から計測を行ない、その情報を仮想情報管理部1070に送っても良い。
この結果から図6にしめす部位6010が観察者の部位6020で押さえられて前記条件1となり前記イベントAが発行された場合は、任意の数だけ順方向にすすめ切り替えを行なう。また、部位6010を押さえられて前記条件2となりイベントBが発行された場合は、任意の数だけ逆方向にすすめ切り替えを行なう。
またこの時、ユーザまたはシステムが指定した任意のページの仮想情報に切り替えても良い。また、例えば、押さえている現実物体の特定部位ごとに、ページのめくり量を決めてもよい。具体的には、現実物体の姿勢の変化に応じて、めくる量を1ページ、10ページ、100ページとすることができる。
このように、選択を切り替えられた仮想物体は、マーカ6020の位置に合わせて仮想画像を生成、重畳される。
〔変形例2〕
上記第1の実施形態では、図7に示すように、現実物体2000は冊子7010であっても良い。この冊子は、図5に示すような現実物体の複数の部品を複数束ねたものである。この複数の部品の個々に対して、第1の実施形態の現実物体と同様の処理を行う。冊子をめくり続けることにより、一度仮想物体を提示したマーカ7110、7120を再度検出しても、同じマーカに対して前回提示した仮想情報とは異なる仮想情報、例えば異なるページを提示することができる。
より具体的には、紙は2枚だけでもよいし、1枚の紙を折り曲げたものでもよい。数多くのページを持った冊子をめくるという体感を残しつつ、冊子の構成を少なくすることができる。
また、冊子のように折り曲げる部分が固定されているものであれば、冊子を構成する複数の部品において、それぞれの部品は他の部品に対する稼働範囲を定義してもよい。これにより、現実物体の姿勢の変化を計測する軸が、例えば折り曲げる部分に固定され、変化の検出をより容易にすることができる。
〔変形例3〕
上記変形例1及び2を組み合わせてもよい。例えば、冊子をめくるときに、何度も繰り返しめくることなく、閲覧したい仮想情報を簡単に提示させることができる。
〔その他の実施形態〕
図8はコンピュータの構成例を示す図である。
本実施形態の目的は、以下のようにすることによって達成されることはいうまでもない。即ち、前述した実施形態の情報処理の機能を実現するソフトウェアのプログラムコードを記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給する。係る記憶媒体は言うまでもなく、コンピュータ読み取り可能な記憶媒体802、803である。そして、そのシステムあるいは装置のコンピュータ801(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行する。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本実施形態を構成することになる。
また、コンピュータが読み出したプログラムコードを実行することにより、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行う。その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
さらに、記録媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれたとする。その後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
本実施形態を上記記録媒体に適用する場合、その記録媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。

Claims (16)

  1. 撮像装置で現実空間現実物体である紙を撮像した撮像画像を入力する画像入力手段と、
    前記撮像装置の位置および姿勢を計測する第1の計測手段と、
    前記の姿勢を計測する第2の計測手段と、
    前記撮像装置の姿勢と前記の姿勢とに基づいて、前記紙の第1の面と、前記第1の面の裏の面である第2の面とのうち、前記撮像装置の方に向いている面を決定する決定手段と、
    前記決定された前記撮像装置の方に向いている面に応じて、複数の仮想情報のうち何れかを選択する選択手段と、
    前記撮像装置の位置および姿勢に基づいて、前記撮像画像と前記選択された仮想情報とを合成した合成画像を生成する合成手段とを有することを特徴とする情報処理装置。
  2. 撮像装置で、現実空間中の現実物体である平面物体を撮像した撮像画像を入力する画像入力手段と、
    前記撮像装置の位置および姿勢を計測する第1の計測手段と、
    前記平面物体の姿勢を計測する第2の計測手段と、
    前記撮像装置の姿勢と前記平面物体の姿勢とに基づいて、前記平面物体の第1の面と、前記第1の面の裏の面である第2の面とのうち、前記撮像装置の方に向いている面を決定する決定手段と、
    前記決定された前記撮像装置の方に向いている面に応じて、複数の仮想情報のうち何れかを選択する選択手段と、
    前記撮像装置の位置および姿勢に基づいて、前記撮像画像と前記選択された仮想情報とを合成した合成画像を生成する合成手段とを有することを特徴とする情報処理装置。
  3. 撮像装置で、現実空間中の現実物体である複数の紙が束ねられた冊子を撮像した撮像画像を入力する画像入力手段と、
    前記撮像装置の位置および姿勢を計測する第1の計測手段と、
    前記複数の紙の姿勢を計測する第2の計測手段と、
    前記撮像装置の姿勢と前記紙の姿勢に基づいて、前記複数の紙それぞれに対して、前記複数の紙それぞれの面のうち、第1の面と、前記第1の面の裏の面である第2の面とのうち、前記前記撮像装置の方に向いている紙を決定する決定手段と、
    前記複数の紙それぞれに対して、前記決定された前記撮像装置の方に向いている面に応じて、複数の仮想情報のうち何れかを選択する選択手段と、
    前記撮像装置の位置および姿勢に基づいて、前記撮像画像と前記選択された仮想情報とを合成した合成画像を生成する合成手段とを有することを特徴とする情報処理装置。
  4. 撮像装置で、現実空間中の現実物体を撮像した撮像画像を入力する画像入力手段と、
    前記撮像装置の位置および姿勢を計測する第1の計測手段と、
    前記現実物体の姿勢を計測する第2の計測手段と、
    前記撮像装置の姿勢と前記現実物体の姿勢とに基づいて、前記現実物体の複数の面のうち、前記前記撮像装置の方に向いている面を決定する決定手段と、
    前記決定された前記撮像装置の方に向いている面と現在選択されている仮想情報とに基づいて、予め並びが決められている複数の仮想情報のうち、前記現在選択されている仮想情報に対して、順方向または逆方向のいずれかの方向にある仮想情報を選択する選択手段と、
    前記撮像装置の位置および姿勢に基づいて、前記撮像画像と前記選択された仮想情報とを合成した合成画像を生成する合成手段とを有することを特徴とする情報処理装置。
  5. 前記現実物体を撮像する撮像手段
    を更に有し、
    前記画像入力手段が、前記撮像装置から前記撮像画像を入力することを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。
  6. 前記第1の計測手段は、画像認識を用いて計測することを特徴とする請求項1乃至5の何れか1項に記載の情報処理装置。
  7. 前記第2の計測手段および前記第2の計測手段は、画像認識を用いて計測することを特徴とする請求項1乃至6の何れか1項に記載の情報処理装置。
  8. 前記決定手段は、前記撮像装置の撮像の方向を示すベクトルと、前記現実物体の複数の面のうち、着目面の法線ベクトルとのなす角度に基づいて、前記撮像装置の方に向いている面を決定することを特徴とする請求項1乃至7の何れか1項に記載の情報処理装置。
  9. 前記選択手段は、更に、前記複数の仮想情報のうち現在選択されている仮想情報に基づいて、前記複数の仮想情報のうち何れかを選択することを特徴とする請求項1乃至3または5乃至8の何れか1項に記載の情報処理装置。
  10. 前記第2の計測手段が、前記現実物体の位置を計測し、
    前記合成手段が、前記撮像装置の位置および姿勢と前記現実物体の位置および姿勢に基づいて、前記撮像画像に前記選択された仮想情報を合成した合成画像を生成することを特徴とする請求項1乃至9の何れか1項に記載の情報処理装置。
  11. 前記合成された合成画像を表示する表示手段と
    を更に有することを特徴とする請求項1乃至10の何れか1項に記載の情報処理装置。
  12. 撮像装置で、現実空間中の現実物体である紙を撮像した撮像画像を入力する画像入力工程と、
    前記撮像装置の位置および姿勢を計測する第1の計測工程と、
    前記紙の姿勢を計測する第2の計測工程と、
    前記撮像装置の姿勢と前記紙の姿勢とに基づいて、前記紙の第1の面と、前記第1の面の裏の面である第2の面とのうち、前記撮像装置の方に向いている面を決定する決定工程と、
    前記決定された前記撮像装置の方に向いている面に応じて、複数の仮想情報のうち何れかを選択する選択工程と、
    前記撮像装置の位置および姿勢に基づいて、前記撮像画像と前記選択された仮想情報とを合成した合成画像を生成する合成工程とを有することを特徴とする情報処理方法。
  13. 撮像装置で、現実空間中の現実物体である平面物体を撮像した撮像画像を入力する画像入力工程と、
    前記撮像装置の位置および姿勢を計測する第1の計測工程と、
    前記平面物体の姿勢を計測する第2の計測工程と、
    前記撮像装置の姿勢と前記平面物体の姿勢とに基づいて、前記平面物体の第1の面と、前記第1の面の裏の面である第2の面とのうち、前記撮像装置の方に向いている面を決定する決定工程と、
    前記決定された前記撮像装置の方に向いている面に応じて、複数の仮想情報のうち何れかを選択する選択工程と、
    前記撮像装置の位置および姿勢に基づいて、前記撮像画像と前記選択された仮想情報とを合成した合成画像を生成する合成工程とを有することを特徴とする情報処理方法。
  14. 撮像装置で、現実空間中の現実物体である複数の紙が束ねられた冊子を撮像した撮像画像を入力する画像入力工程と、
    前記撮像装置の位置および姿勢を計測する第1の計測工程と、
    前記複数の紙の姿勢を計測する第2の計測工程と、
    前記撮像装置の姿勢と前記紙の姿勢に基づいて、前記複数の紙それぞれに対して、前記複数の紙それぞれの面のうち、第1の面と、前記第1の面の裏の面である第2の面とのうち、前記前記撮像装置の方に向いている紙を決定する決定工程と、
    前記複数の紙それぞれに対して、前記決定された前記撮像装置の方に向いている面に応じて、複数の仮想情報のうち何れかを選択する選択工程と、
    前記撮像装置の位置および姿勢に基づいて、前記撮像画像と前記選択された仮想情報とを合成した合成画像を生成する合成工程とを有することを特徴とする情報処理方法。
  15. 撮像装置で、現実空間中の現実物体を撮像した撮像画像を入力する画像入力工程と、
    前記撮像装置の位置および姿勢を計測する第1の計測工程と、
    前記現実物体の姿勢を計測する第2の計測工程と、
    前記撮像装置の姿勢と前記現実物体の姿勢とに基づいて、前記現実物体の複数の面のうち、前記前記撮像装置の方に向いている面を決定する決定工程と、
    前記決定された前記撮像装置の方に向いている面と現在選択されている仮想情報とに基づいて、予め並びが決められている複数の仮想情報のうち、前記現在選択されている仮想情報に対して、順方向または逆方向のいずれかの方向にある仮想情報を選択する選択工程と、
    前記撮像装置の位置および姿勢に基づいて、前記撮像画像と前記選択された仮想情報とを合成した合成画像を生成する合成工程とを有することを特徴とする情報処理方法。
  16. 請求項12乃至15の何れか1項に記載の情報処理方法の各工程をコンピュータに実行させるためのプログラム。
JP2010189458A 2010-08-26 2010-08-26 情報処理装置およびその方法 Expired - Fee Related JP5769392B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2010189458A JP5769392B2 (ja) 2010-08-26 2010-08-26 情報処理装置およびその方法
EP11178747.9A EP2423883A3 (en) 2010-08-26 2011-08-25 Information processing device and method for mixed reality
US13/218,046 US8797355B2 (en) 2010-08-26 2011-08-25 Information processing device and method of processing information
US14/335,742 US9418483B2 (en) 2010-08-26 2014-07-18 Information processing device and method of processing information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010189458A JP5769392B2 (ja) 2010-08-26 2010-08-26 情報処理装置およびその方法

Publications (3)

Publication Number Publication Date
JP2012048456A JP2012048456A (ja) 2012-03-08
JP2012048456A5 JP2012048456A5 (ja) 2013-10-10
JP5769392B2 true JP5769392B2 (ja) 2015-08-26

Family

ID=44772733

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010189458A Expired - Fee Related JP5769392B2 (ja) 2010-08-26 2010-08-26 情報処理装置およびその方法

Country Status (3)

Country Link
US (2) US8797355B2 (ja)
EP (1) EP2423883A3 (ja)
JP (1) JP5769392B2 (ja)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5791433B2 (ja) * 2011-08-31 2015-10-07 任天堂株式会社 情報処理プログラム、情報処理システム、情報処理装置および情報処理方法
JP2013050883A (ja) 2011-08-31 2013-03-14 Nintendo Co Ltd 情報処理プログラム、情報処理システム、情報処理装置および情報処理方法
JP5821526B2 (ja) 2011-10-27 2015-11-24 ソニー株式会社 画像処理装置、画像処理方法及びプログラム
GB2499249B (en) * 2012-02-13 2016-09-21 Sony Computer Entertainment Europe Ltd System and method of image augmentation
JP5776903B2 (ja) * 2012-03-02 2015-09-09 カシオ計算機株式会社 画像処理装置及び画像処理方法並びにプログラム
US9691241B1 (en) * 2012-03-14 2017-06-27 Google Inc. Orientation of video based on the orientation of a display
US9583032B2 (en) * 2012-06-05 2017-02-28 Microsoft Technology Licensing, Llc Navigating content using a physical object
JP6138566B2 (ja) * 2013-04-24 2017-05-31 川崎重工業株式会社 部品取付作業支援システムおよび部品取付方法
JP5838179B2 (ja) * 2013-04-30 2016-01-06 京セラドキュメントソリューションズ株式会社 印刷プレビュープログラムおよび電子機器
JP6160290B2 (ja) * 2013-06-21 2017-07-12 富士通株式会社 情報処理装置、判定方法および判定プログラム
JP5845211B2 (ja) * 2013-06-24 2016-01-20 キヤノン株式会社 画像処理装置、画像処理方法
JP2015011360A (ja) * 2013-06-26 2015-01-19 株式会社デジタル・スタンダード 情報処理装置およびプログラム
JP5824537B2 (ja) * 2014-01-16 2015-11-25 キヤノン株式会社 情報処理装置および情報処理方法
JP6323040B2 (ja) * 2014-02-12 2018-05-16 株式会社リコー 画像処理装置、画像処理方法およびプログラム
US9548014B2 (en) 2014-08-04 2017-01-17 Canon Kabushiki Kaisha Information processing apparatus and information processing method
US20170061700A1 (en) * 2015-02-13 2017-03-02 Julian Michael Urbach Intercommunication between a head mounted display and a real world object
US9726885B2 (en) 2015-03-31 2017-08-08 Timothy A. Cummings System for virtual display and method of use
CN107185245B (zh) * 2017-05-31 2020-10-23 武汉秀宝软件有限公司 一种基于slam技术的虚实同步显示方法及***
JP6853152B2 (ja) * 2017-09-26 2021-03-31 株式会社Nttドコモ 情報処理装置、端末装置および情報処理システム
CN111722722A (zh) * 2020-06-28 2020-09-29 天津联想协同科技有限公司 一种支持ar的文件预览方法、电子设备及存储介质
US20230082420A1 (en) * 2021-09-13 2023-03-16 Qualcomm Incorporated Display of digital media content on physical surface

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6408257B1 (en) 1999-08-31 2002-06-18 Xerox Corporation Augmented-reality display method and system
US6898307B1 (en) * 1999-09-22 2005-05-24 Xerox Corporation Object identification method and system for an augmented-reality display
JP2002157607A (ja) * 2000-11-17 2002-05-31 Canon Inc 画像生成システム、画像生成方法および記憶媒体
US6760026B2 (en) * 2001-01-02 2004-07-06 Microsoft Corporation Image-based virtual reality player with integrated 3D graphics objects
JP2004537082A (ja) * 2001-01-26 2004-12-09 ザクセル システムズ インコーポレイテッド 仮想現実環境における実時間バーチャル・ビューポイント
JP3993423B2 (ja) * 2001-11-16 2007-10-17 日本電信電話株式会社 電子出版物閲覧装置、電子出版物閲覧プログラム及びそのプログラムを記録したコンピュータ読み取り可能な記録媒体
JP3944019B2 (ja) * 2002-07-31 2007-07-11 キヤノン株式会社 情報処理装置および方法
JP4537104B2 (ja) * 2004-03-31 2010-09-01 キヤノン株式会社 マーカ検出方法、マーカ検出装置、位置姿勢推定方法、及び複合現実空間提示方法
JP3841806B2 (ja) * 2004-09-01 2006-11-08 株式会社ソニー・コンピュータエンタテインメント 画像処理装置および画像処理方法
JP4689380B2 (ja) * 2004-09-28 2011-05-25 キヤノン株式会社 情報処理方法および装置
CN101080762A (zh) * 2004-11-19 2007-11-28 Daem交互有限公司 具有图像获取功能、应用于扩充现实性资源的个人装置和方法
JP4739002B2 (ja) * 2005-06-30 2011-08-03 キヤノン株式会社 画像処理方法、画像処理装置
JP2007034981A (ja) * 2005-07-29 2007-02-08 Canon Inc 画像処理システム、画像処理装置
JP2007172596A (ja) 2005-11-24 2007-07-05 Canon Inc 2次元コード、2次元コード検出方法、および2次元コード検出装置
JP4777182B2 (ja) * 2006-08-01 2011-09-21 キヤノン株式会社 複合現実感提示装置及びその制御方法、プログラム
US8311275B1 (en) * 2008-06-10 2012-11-13 Mindmancer AB Selective viewing of a scene
US8405680B1 (en) * 2010-04-19 2013-03-26 YDreams S.A., A Public Limited Liability Company Various methods and apparatuses for achieving augmented reality
US8564621B2 (en) * 2010-08-11 2013-10-22 International Business Machines Corporation Replicating changes between corresponding objects

Also Published As

Publication number Publication date
EP2423883A3 (en) 2017-05-31
US20140327700A1 (en) 2014-11-06
JP2012048456A (ja) 2012-03-08
US8797355B2 (en) 2014-08-05
US9418483B2 (en) 2016-08-16
US20120050326A1 (en) 2012-03-01
EP2423883A2 (en) 2012-02-29

Similar Documents

Publication Publication Date Title
JP5769392B2 (ja) 情報処理装置およびその方法
JP4533087B2 (ja) 画像処理方法、画像処理装置
JP4777182B2 (ja) 複合現実感提示装置及びその制御方法、プログラム
JP5724544B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP4757115B2 (ja) 画像処理装置、画像処理方法
JP4926826B2 (ja) 情報処理方法および情報処理装置
WO2014141504A1 (ja) 3次元ユーザインタフェース装置及び3次元操作処理方法
US20050174361A1 (en) Image processing method and apparatus
US20050256396A1 (en) Image composition system, image composition method, and image composition apparatus
JP5709440B2 (ja) 情報処理装置、情報処理方法
JP5656514B2 (ja) 情報処理装置及び方法
CN102884492A (zh) 增强现实的指向装置
JP4847195B2 (ja) 画像からの色情報の取得方法
JP2005174021A (ja) 情報提示方法及び装置
JP2007004714A (ja) 情報処理方法、情報処理装置
JP2017134771A (ja) 情報処理装置、情報処理方法、プログラム
JP2008146108A (ja) 指標、画像処理装置、画像処理方法
JP2009087161A (ja) 画像処理装置、画像処理方法
JP2006252468A (ja) 画像処理方法、画像処理装置
JP5863984B2 (ja) ユーザインタフェース装置及びユーザインタフェース方法
JP2008070319A (ja) 物体計測装置および方法
JP2012003598A (ja) 拡張現実感表示システム
JP7279113B2 (ja) 画像処理装置、画像処理方法、コンピュータプログラム
JP2006343954A (ja) 画像処理方法、画像処理装置
JP2005165665A (ja) 仮想物体の操作補助装置、方法、コンピュータプログラム、及びコンピュータ読み取り可能な記録媒体

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130826

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130826

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140417

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140422

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140623

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150526

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150623

R151 Written notification of patent or utility model registration

Ref document number: 5769392

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees