JP2006127158A - 画像処理方法、画像処理装置 - Google Patents

画像処理方法、画像処理装置 Download PDF

Info

Publication number
JP2006127158A
JP2006127158A JP2004314715A JP2004314715A JP2006127158A JP 2006127158 A JP2006127158 A JP 2006127158A JP 2004314715 A JP2004314715 A JP 2004314715A JP 2004314715 A JP2004314715 A JP 2004314715A JP 2006127158 A JP2006127158 A JP 2006127158A
Authority
JP
Japan
Prior art keywords
operation panel
input
image
orientation
observer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004314715A
Other languages
English (en)
Other versions
JP4533087B2 (ja
Inventor
Takeshi Kuroki
剛 黒木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2004314715A priority Critical patent/JP4533087B2/ja
Priority to US11/257,838 priority patent/US7557816B2/en
Publication of JP2006127158A publication Critical patent/JP2006127158A/ja
Application granted granted Critical
Publication of JP4533087B2 publication Critical patent/JP4533087B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/131Protocols for games, networked simulations or virtual reality

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】 観察者が状況に応じて操作パネルに対する操作を適宜行うことを可能にするための技術を提供すること。
【解決手段】 操作パネルの位置を変更する指示が入力された場合にはペン入力装置300の位置に操作パネルを配置し、操作パネルの位置の変更を終了する指示が入力された場合には操作パネルの位置姿勢を固定する。そしてカメラ102から見える操作パネルを含む仮想物体の映像を生成し、カメラ102による現実空間の映像に重畳させて表示部103に出力する。
【選択図】 図1

Description

本発明は、現実空間に仮想空間の映像を重畳させて観察者に提示する為の技術に関するものである。
バーチャルリアリティ(VR)システムは、ヘッドマウントディスプレイ(HMD)を頭部に装着したユーザにコンピュータの作り出す三次元CGを提示することで、仮想の空間をあたかも現実であるかのように感じさせるシステムである。また、近年、現実世界の映像に三次元CGを合成することで現実世界にはない情報をユーザに提示する技術の開発もなされており、それらはAR(Augumented Reality, 拡張現実感)システムやMR(Mixed Reality, 複合現実感)システムと呼ばれている。
こうしたVRシステムやARシステムにおいて、三次元CGの操作を行う際には、操作メニューと呼ばれる操作補助のための図形を画面に表示し、操作メニューに対して入力を行うことで操作を指示することが一般的である。こうした操作メニューには複数の方式があり、操作メニューを選択することによって更にその下位にある操作メニューが表示されるプルダウン操作メニューや、ボタン等を押すことによって操作メニューが表示されるポップアップ操作メニュー、操作メニュー項目が円状に表示されるパイ操作メニュー等がある。
このような操作メニューは、世界座標系、すなわち仮想空間のいずれかの場所、たとえば仮想の机の上などに固定されて表示されることもあれば、視野座標系、すなわちユーザの目の前に常に表示されることもある。(例えば、特許文献1参照)また、三次元状のメニューをユーザに提示するものもある。(例えば、特許文献2参照)ユーザが手に持ったタブレット上に表示されることもある。
特開平7−271546号公報 特開平4−214595号公報
上記のような操作メニューの表示方法には、いずれにも一長一短があった。世界座標系に操作メニューを固定する方法は、ユーザは操作メニューを使いたいときだけ操作メニューのある方向にHMDを向ければよいので、HMDの表示領域を操作メニューが占有してしまうことがないというメリットがあるが、ユーザが動き回るような場合には操作メニューが最初に配置した位置に取り残されてしまい、ユーザが操作メニューを使いたいときに使えなくなってしまうという問題があった。また、視野座標系に操作メニューを固定する方法は、ユーザが動き回っても操作メニューが一緒に付いてくるというメリットはあるが、HMDの表示領域の一定の領域を常に操作メニューが占有してしまうという問題があった。また、タブレット上に操作メニューを表示する方法では、タブレットを持つために手がふさがってしまうという問題があった。
本発明は以上の問題に鑑みて成されたものであり、観察者が状況に応じて操作パネルに対する操作を適宜行うことを可能にするための技術を提供することを目的とする。
本発明の目的を達成するために、例えば、本発明の画像処理方法は以下の構成を備える。
即ち、仮想空間の画像を観察者に提示するための画像処理方法であって、
観察者の視点の位置姿勢を入力する第1の入力工程と、
当該観察者が使用する指示具の位置を入力する第2の入力工程と、
仮想物体としての操作パネルの位置を変更する指示が入力された場合には、前記第2の入力工程で入力された前記指示具の位置に前記操作パネルを配置する配置工程と、
前記第1の入力工程で入力した位置姿勢の視点から見える前記操作パネルを含む仮想物体の画像を生成する生成工程と
を備えることを特徴とする。
本発明の目的を達成するために、例えば、本発明の画像処理装置は以下の構成を備える。
即ち、仮想空間の画像を観察者に提示するための画像処理装置であって、
観察者の視点の位置姿勢を入力する第1の入力手段と、
当該観察者が使用する指示具の位置を入力する第2の入力手段と、
仮想物体としての操作パネルの位置を変更する指示が入力された場合には、前記第2の入力手段によって入力された前記指示具の位置に前記操作パネルを配置する配置手段と、
前記第1の入力手段によって入力した位置姿勢の視点から見える前記操作パネルを含む仮想物体の画像を生成する生成手段と
を備えることを特徴とする。
本発明は、仮想空間の画像を観察者に提示する為の技術に関するものである。
以下添付図面を参照して、本発明を好適な実施形態に従って詳細に説明する。
<システム>
図1は、本実施形態に係るシステムの機能構成を示すブロック図である。同図に示す如く、本実施形態に係るシステムは、HMD100、PC(パーソナルコンピュータ)200、ペン入力装置300、タブレット位置姿勢センサ400により構成されている。
<HMD100>
先ず、HMD100について説明する。HMD100は現実空間と仮想空間とが融合された空間を観察する観察者の頭部に装着し、現実空間と仮想空間とを合成した映像を観察者の眼前に提供する為の頭部装着型表示装置で、頭部位置姿勢センサ101、カメラ102、表示部103により構成されている。
頭部位置姿勢センサ101は、不図示のトランスミッタが発する磁場の変化を検知し、検知した結果の信号をPC200に出力するものである。検知した結果の信号は、トランスミッタの位置を原点とし、この原点の位置で互いに直交する3軸をx、y、z軸とする座標系(以下、センサ座標系と呼称する)において、頭部位置姿勢センサ101の位置姿勢に応じて検知される磁場の変化を示す信号である。PC200は、この信号に基づいて、センサ座標系における頭部位置姿勢センサ101の位置姿勢を求める。
カメラ102は例えば1以上のCCDカメラにより構成されており、自身の位置姿勢に応じて見える現実空間を連続して撮像するものであり、撮像した各フレームの画像はPC200に出力される。なお、カメラ102は、観察者の視点として用いることから、観察者が自身の頭部にHMD100を装着した際に、観察者の視点(目)の位置にできるだけ近い位置にカメラ102を設けるようにする。
表示部103は、観察者がHMD100を頭部に装着したときに眼前に位置するようにHMD100に装着されたものであり、PC200から出力された画像信号に基づいた画像を表示する。従って観察者の眼前にはPC200が生成した画像が提供されることになる。
なお本実施形態では、HMD100を構成する装置を観察者が装着しているが、観察者が仮想空間と現実空間とが融合された空間を体験できる形態であれば、HMD100は必ずしも観察者が装着する必要はない。
<PC200>
次にPC200について説明する。PC200はCG(コンピュータグラフィックス)データ格納部201、CG生成部202、画像合成部203により構成されている。
CGデータ格納部201は、仮想空間を構成する1以上の仮想物体の映像を生成するために必要なデータ(例えば仮想物体をポリゴンでもって構成する場合、各ポリゴンの頂点データ、ポリゴンの法線データ、テクスチャデータ、仮想物体の初期位置データなど)を格納するメモリとして機能する。
CG生成部202は、CGデータ格納部201が保持するデータに基づいて、仮想物体の映像を生成する処理を行う。
画像合成部203は、HMD100のカメラ102から入力される現実空間の映像上に、CG生成部202が生成した仮想空間の映像を重畳させ、HMD100の表示部103に出力する処理を行う。
なお、同図では、PC200の構成として、仮想空間の映像を生成し、これを現実空間の映像上に重畳させてHMD100の表示部103に出力する為の構成のみを示したが、実際にPC200にはこれ以外の機能を実現するための構成も備わっている。
図8は、PC200の基本構成を示すブロック図である。
801はCPUで、RAM802やROM803に格納されているプログラムやデータを用いてPC200全体の制御を行うと共に、PC200が行う後述の各処理を実行する。なお、図1に示したCG生成部202、画像合成部203は、このCPU801が有する機能の一部として動作する。
802はRAMで、外部記憶装置807からロードされたプログラムやデータを一時的に記憶するためのエリア、後段のI/F808〜810のそれぞれを介して受信したデータを一時的に記憶するためのエリア、そしてCPU801が各種の処理を行う際に用いるワークエリアを備える。
803はROMで、PC200の設定データやブートプログラムなどを格納する。
804、805はそれぞれキーボード、マウスで、各種の指示をCPU801に対して入力することができる。
806は表示装置で、CRTや液晶画面などにより構成されており、CPU801による処理結果を画像や文字などでもって表示することができる。
807は外部記憶装置で、ハードディスクドライブ装置などの大容量情報記憶装置により構成されており、ここにOS(オペレーティングシステム)や、PC200が行う後述の各処理をCPU801に実行させるためのプログラムやデータが保存されており、これらの一部もしくは全部はCPU801の制御に従ってRAM802にロードされ、CPU801がこれを用いることで、PC200は(PC200が行う)後述する各処理を実行することになる。なお、図1に示したCGデータ格納部201はこの外部記憶装置807が有する機能の一部として動作する。
808はI/Fで、HMD100を本PC200に接続するためのものであり、このI/F808を介してPC200はHMD100とのデータ通信を行うことになる。
809はI/Fで、ペン入力装置300を本PC200に接続するためのものであり、このI/F809を介してPC200はペン入力装置300とのデータ通信を行うことになる。
810はI/Fで、タブレット位置姿勢センサ400を本PC200に接続するためのものであり、このI/F810を介してPC200はタブレット位置姿勢センサ400とのデータ通信を行うことになる。
811は上述の各部を繋ぐバスである。
なお、PC200の代わりに、同様の処理を行うための専用ハードウェアを用いても良いし、ワークステーションなどを用いるようにしても良い。
<ペン入力装置300>
次にペン入力装置300について説明する。ペン入力装置300は操作部位置姿勢センサ301、決定ボタン302により構成されている。
操作部位置姿勢センサ301は、不図示のトランスミッタが発する磁場の変化を検知し、検知した結果の信号をPC200に出力するものである。検知した結果の信号は、上記センサ座標系において、操作部位置姿勢センサ301の位置姿勢に応じて検知される磁場の変化を示す信号である。PC200は、この信号に基づいて、センサ座標系における操作部位置姿勢センサ301の位置姿勢を求める。
なお、以下ではこの操作部位置姿勢センサ301の位置姿勢に操作対象の仮想物体を配置することから、この操作部位置姿勢センサ301は、ペン入力装置300の先端部分に取り付けることが好ましい。しかし、取り付け位置がペン入力装置300の先端でなくても、取り付け位置と先端部分との位置姿勢関係(バイアス)を予め測定しておけば、操作部位置姿勢センサ301により検知した自身の位置姿勢にこのバイアスを加算することで、ペン入力装置300の先端の位置姿勢を取得することができる。よって取り付け位置は特に限定するものではない。また、以下の説明では「ペン入力装置300の位置」とは、ペン入力装置300の先端部分の位置を表すものとし、この先端部分の位置の取得については上述の通りである。
決定ボタン302は、観察者が手に持って各種のタイミングを指示するためのものである。この決定ボタン302が観察者によって押下されると、押下された旨を示す信号はPC200に入力されることになる。
<タブレット位置姿勢センサ400>
タブレット位置姿勢センサ400は、不図示のトランスミッタが発する磁場の変化を検知し、検知した結果の信号をPC200に出力するものである。検知した結果の信号は、上記センサ座標系において、タブレット位置姿勢センサ400の位置姿勢に応じて検知される磁場の変化を示す信号である。PC200は、この信号に基づいて、センサ座標系におけるタブレット位置姿勢センサ400の位置姿勢を求める。タブレット位置姿勢センサ400は、後述するタブレットに取り付けられたものであり、このタブレットの位置姿勢を計測するためのものである。
<観察者への映像の提示処理>
次に、上記構成を備える本実施形態に係るシステムが、HMD100を頭部に装着した観察者に対して現実空間と仮想空間とが融合した空間の映像を提示する為に行う処理について説明する。
HMD100に備わっているカメラ102は、自身の位置姿勢に応じて見える現実空間の映像を撮像し、撮像した映像はI/F808を介してデータとしてRAM802に入力される。
一方で、頭部位置姿勢センサ101は上述の通り、センサ座標系における自身の位置姿勢に応じた信号をI/F808を介してデータとしてRAM802に入力するので、CPU801は、このデータが示す「センサ座標系における頭部位置姿勢センサ101の位置姿勢」に、予め測定した「頭部位置姿勢センサ101とカメラ102との位置姿勢関係」を加算して、「センサ座標系におけるカメラ102の位置姿勢」を求める。予め測定した「頭部位置姿勢センサ101とカメラ102との位置姿勢関係」を示すデータは外部記憶装置807に予め保存されているものとする。
また、CPU801は外部記憶装置807に保存されている仮想空間を構成する各仮想物体のデータを用いて、仮想空間中に仮想物体を配置する。そして先に求めた「カメラ102のセンサ座標系における位置姿勢」に基づいて、カメラ102から見える仮想空間の映像を生成する。所定の位置姿勢を有する1点から見える仮想空間の映像を生成する処理については周知のものであるので、ここでの説明は省略する。
そして生成した仮想空間の映像を、先にRAM802に入力した現実空間の映像上に重畳させ、I/F808を介してHMD100の表示部103に出力する。これにより、表示部103の表示画面上には現実空間と仮想空間とが融合した空間の映像が表示されるので、観察者の眼前にはカメラ102の位置姿勢に応じた映像が見えることになる。
なお、現実空間と仮想空間とが融合した空間の映像を生成して観察者に提示する為の一連の処理については様々考えられ、以上の処理に限定するものではない。
<観察者の操作環境、及び操作パネル>
図2は、観察者がHMD100を自身の頭部に装着した場合に、表示部103に表示される映像の表示例を示す図である。同図において251は後述する作業を行うために設けられた現実物体としての机、252は仮想物体、253は仮想物体としての操作パネル、254は上記タブレットである。なお同図において図1に示したものと同じものについては同じ番号を付けており、その説明は省略する。
本実施形態では同図に示す如く、観察者は手にペン入力装置300を持ち、その位置姿勢は自由に変更することができる。また、仮想空間中の所定の位置には仮想物体としての操作パネル(操作メニュー)253が配置されている。
図3は、操作パネルの一例を示す図である。操作パネル253は同図の351に示す如く複数の操作アイコンを備える。観察者はペン入力装置300でもってこれらのアイコンの何れかを指示することができる。「アイコンを指示する」とは、ペン入力装置300の位置がアイコンの表示領域内に位置している状態で決定ボタン302を押下する、ということである。
そして何れかのアイコンを指示すると、PC200は指示されたアイコンに対応する機能、例えば、仮想物体を移動させる機能を実行する。そして、観察者が自身の手を動かしてペン入力装置300の位置姿勢を移動させると、PC200はそれに追従して仮想物体の位置姿勢を変化させる。このようにして、操作パネル253が備えるアイコンでもって、仮想空間に対する各種の操作を実現することができる。
また、同図において352は消去ボタンで、この消去ボタン352を指示すると、同図の操作パネル253を消去(表示しない)する。353はコピーボタンで、このコピーボタン353を指示すると、同図の操作パネル253を複製することができ、更に、複製された操作パネルは指示された位置に配置される。354は移動ボタンで、この移動ボタン354を指示すると、同図の操作パネル253の位置を変更することができる。なお、各ボタンの指示は、ペン入力装置300の位置がボタンの表示領域内に位置している状態で決定ボタン302を押下する、という操作によりなされるものである。
<操作パネル253の操作方法>
次に、操作パネル253の配置位置を変更する為の、操作パネル253の操作について説明する。先ず、観察者はペン入力装置300を手に持ってその先を移動ボタン354、もしくはコピーボタン353の何れかの位置に移動させ、そこで決定ボタン302を押下する。すると、PC200はペン入力装置300の位置(操作部位置姿勢センサ301が計測した位置、もしくは計測した位置に上記バイアスを加算した結果得られる位置)が移動ボタン354、もしくはコピーボタン353の何れの位置にあると判断し、且つ決定ボタン302が押下された旨の信号をI/F809を介して受けるので、「移動ボタン354が指示された」もしくは「コピーボタン353が指示された」と判断する。
そして移動ボタン354が指示された場合には以下、操作パネル253がペン入力装置300による移動対象となる。また、コピーボタン353が指示された場合には先ず、操作パネル253の仮想物体を複製し、複製した操作パネルをペン入力装置300による移動対象とする。
ここで、観察者がペン入力装置300の位置を所定の位置に移動させ、そこで決定ボタン302を押下すると、PC200はこのときのペン入力装置300の位置(操作部位置姿勢センサ301が計測した位置、もしくは計測した位置に上記バイアスを加算した結果得られる位置)に操作パネル253(複製した操作パネルを含む)を配置するのであるが、ここで、この配置に係る処理について図4を用いて説明する。
図4は、ペン入力装置300により操作パネル253の位置を移動させ、所望の位置に配置する為の操作について説明する図である。観察者がペン入力装置300の位置を移動させ、同図に示す如く位置1でもって決定ボタン302を押下したとすると、PC200は、位置1(決定ボタン302が押下されたときに操作部位置姿勢センサ301が計測した位置、もしくは計測した位置に上記バイアスを加算した結果得られる位置)を含み、且つ決定ボタン302が押下されたときに頭部位置姿勢センサ101から受けた位置と位置1とを結ぶベクトルを法線ベクトルとする平面450上に操作パネル253(もしくは複製した操作パネル)を配置する。操作パネル253のどの部分を位置1にあわせるのかについては特に限定するものではない(同図では操作パネル253の左上隅を位置1にあわせている)。またこのとき、操作パネル253の上方向を示すベクトルは、HMD100の上方向を示すベクトルを操作パネル253が配置される平面450上に投影したベクトルと一致する。また、操作パネル253の大きさはあらかじめ定められた大きさとなる。
また、上記平面450として、位置1を含み、且つ決定ボタン302が押下されたときに頭部位置姿勢センサ101から受けた位置に予め測定した「頭部位置姿勢センサ101とカメラ102との位置姿勢関係」を加算した位置と、位置1とを結ぶベクトルを法線ベクトルとする平面を用いるようにしても良い。この方が操作パネル253の操作面が視点側に向くことになり、より観察者の視点から操作パネル253が見やすくなる。
このように配置することで、ペン入力装置300でもって指示した位置に操作パネル253を観察者の視点から見えるように配置することができる。
そして操作パネル253を配置後、操作パネル253の配置完了の旨を指示すれば、操作パネル253の配置処理は完了し、操作パネル253は指示された位置に上述のようにして配置される。
操作パネル253の配置完了の旨の指示は、例えば、決定ボタン302の押下であっても良いし、決定ボタン302を仮想物体として仮想空間中に配置し、ペン入力装置300でもって他のボタンと同様にして指示するようにしても良い。また、配置位置(図4では位置1)から所定の距離だけ離間した位置で決定ボタン302を押下するようにしても良いし、所定時間以上決定ボタン302を押下しない、というようにしても良い。いずれにせよ、PC200のCPU801は操作パネル253の配置完了の旨の指示を受けると、操作パネル253の配置処理を完了する。
ここで、操作パネル253の配置完了の旨の指示を受ける前に、ペン入力装置300でもって新たな位置が指示されると、今度は指示された位置に基づいて、操作パネル253のサイズの変更を行う。
図5は、ペン入力装置300による操作パネル253のサイズ変更操作について説明する図である。ここで、サイズ変更前の操作パネル253の4隅を1,B、C、Aとする場合に、先ず同図に示す如く、ペン入力装置300の位置を位置2に移動させ、ここで決定ボタン302を押下すると、PC200は先ず、位置1と位置A(サイズ変更前の操作パネル253の右上隅)とを結ぶベクトル501、位置1と位置2とを結ぶベクトル502を求め、それぞれのベクトルが成す角度αを求めると共に、それぞれのベクトルのサイズの比βを求める。そして更に、位置1と位置B(サイズ変更前の操作パネル253の左下隅)とを結ぶベクトル503、位置1と位置C(サイズ変更前の操作パネル253の右下隅)とを結ぶベクトル504を求め、それぞれのベクトルを上記角度αだけ回転させると共に、回転後のそれぞれのベクトルのサイズを上記比β倍だけ変更する。同図においてB’、C’はそれぞれ、このような処理によって回転、サイズ変更したベクトル503,504が差す位置である。よって、4隅を1,B、C、Aとする操作パネル253を、4隅を1,B’、C’、A’とする操作パネル253にサイズ変更する。
そしてここで、操作パネル253の配置完了の指示が入力されると、以上の処理を完了する。
更に、操作パネル253の配置完了の旨の指示を受ける前に、ペン入力装置300でもって新たな位置が指示されると、指示された位置を含む平面に操作パネル253が含まれるように、位置1,位置2を結ぶ直線を軸として操作パネル253を回転させる。
また、操作パネル253を図6に示すようにタブレット254上に移動させることもできる。即ち、移動後の操作パネル253の位置がタブレット位置姿勢センサ400が計測する位置から所定範囲内(この所定範囲はタブレット254の平面領域を示す)である場合、タブレット位置姿勢センサ400が計測する位置姿勢を示すマトリックスでもって操作パネル253の位置姿勢を変換し、タブレット254上に操作パネル253を固定することができる。即ち、操作パネル253をタブレット位置姿勢センサ400が計測する位置姿勢が規定する座標系内に配置することになる。これにより、観察者がタブレット254を手に持ってその位置や姿勢を変化させると、操作パネル253の位置姿勢もまたそれに追従して変化する。図6は、タブレット254の位置姿勢が規定する座標系内に配置された操作パネル253の表示部103における表示例を示す図である。
なお、その後、操作パネル253の位置が、タブレット位置姿勢センサ400が計測する位置から所定範囲内ではなくなった場合には、このようなマトリクスによる操作パネル253の位置姿勢変換は行わない。
また、操作パネル253の配置位置(位置1)がHMD100の位置に近いとき(例えば位置1とカメラ102の位置との距離が30センチ未満の時)には、図7に示す如く、カメラ102の姿勢成分で規定されるカメラ102の視線方向を法線とする平面上に操作パネル253を配置するようにしても良い。即ち、操作パネル253をカメラ102の位置姿勢が規定する座標系内に配置しても良い。図7は、カメラ102の位置姿勢が規定する座標系内に配置された操作パネル253の表示部103における表示例を示す図である。
図9は、PC200のCPU801が実行する、操作パネル253を含む仮想物体により構成される仮想空間の映像と、現実空間の映像とを合成した映像をHMD100の表示部103に提供する際に、操作パネル253の配置を行う為の処理のフローチャートである。なお、同図のフローチャートに従った処理をCPU801に実行させるためのプログラムやデータはRAM802にロードされており、これを用いてCPU801が処理を行うことで、PC200は上述の各処理を行うことになる。
先ず、HMD100に備わっているカメラ102が撮像した現実空間の映像がI/F808を介してRAM802に入力されるので、これを一時的にRAM802に記憶させる(ステップS901)。また、頭部位置姿勢センサ101が計測した「自身のセンサ座標系における位置姿勢」がI/F808を介してRAM802に入力されるので、「頭部位置姿勢センサ101のセンサ座標系における位置姿勢を示すデータ」を、予め測定した「頭部位置姿勢センサ101とカメラ102との位置姿勢関係」を示すデータでもって変換し、「センサ座標系におけるカメラ102の位置姿勢」を示すデータを得、これを一時的にRAM802に記録させる(ステップS902)。
次に、移動ボタン354、もしくはコピーボタン353が指示されたのか(配置指示があったのか)を判断するのであるが、これは上述の通り、ペン入力装置300の位置が操作パネル253上の移動ボタン354、もしくはコピーボタン353の何れの表示領域内にあり、且つ決定ボタン302が押下された場合には、移動ボタン354、もしくはコピーボタン353の何れかが指示されたと判断する。
そして配置指示があった場合には処理をステップS903を介してステップS904に進め、決定ボタン302が押下された時点におけるペン入力装置300の位置に上述のようにして、操作パネル253を移動させる処理を行う(ステップS904)。また、配置完了の旨がI/F809を介して受けていない場合には処理をステップS905を介してステップS906に進め、上述のようにして操作パネル253のサイズ変更処理を行う(ステップS906)。また、配置完了の旨がI/F809を介して受けていない場合には処理をステップS907を介してステップS908に進め、上述のようにして操作パネル253の回転処理を行う(ステップS908)。
そして以上のようにして操作した操作パネル253を指示された配置位置、向き、サイズでもって配置し、固定する(ステップS909)。また、ステップS903で配置指示がない場合、ステップS905,S907で操作パネル253の配置完了の旨の指示が入力された場合には処理を直接ステップS909に進める。
また、操作パネル253以外の仮想物体についても仮想空間中に配置する(ステップS910)。そしてステップS902で求めた位置姿勢のカメラ102から見える操作パネル253を含む仮想物体群の映像(仮想空間の映像)を生成し、先にRAM802に入力されている現実空間の映像上に重畳させ、I/F808を介してHMD100が有する表示部103に出力する。
そしてキーボード804やマウス805などでもって本処理の終了指示が入力された場合には本処理を終了するのであるが、入力されていない場合には処理をステップS901に戻し、以降の処理を繰り返す。
以上説明したように、本実施形態によれば、観察者が仮想空間内の仮想物体を操作パネルを用いて操作するアプリケーションにおいて、操作パネルによって仮想物体の視認性が低下することを防ぐことができ、また、観察者が動き回っても操作パネルの配置を変更することができるので、操作メニューの利便性を増すことができる。
尚、以上の説明では、操作パネル253を操作するための指示具としてはペン入力装置300を用いたが、このような器具に限定するものではなく、例えば観察者の指などであっても良い。その場合、例えば指先に上記操作部位置姿勢センサ301を取り付けるようにしても良いし、指先の位置をHMD100のカメラ102が撮像する現実空間の画像に基づいて周知の技術でもって判断し、判断した位置が操作パネル253に配されたボタンやアイコンの何れの領域内にあるのかを判断することで、何れのアイコン、ボタンが指示されたのかを判断するようにしても良い。
また、上記の変形に限らず、種々の機構を適用できることは明らかである。また、以上のようなシステムはARシステムとして機能したものであるが、VRシステムであってもかまわないことは明らかである。
また、上記説明では、3つのポインティング位置を指定することにより操作パネル253の配置を行っているが、操作パネル253の配置方法についてはこれに限定するものではなく、例えばペン入力装置300によって特定の記号を任意の平面に記入することによって操作パネル253の配置位置を指定できるものとしてもよい。また、上記の変形に限らず、種々の配置方法を適用できることは明らかである。
また、以上の説明ではHMD100はビデオシースルータイプのものを用いているが、光学シースルータイプのものを用いても良い。その場合には、以上の説明した処理において、現実空間の映像の入力、及び仮想空間の映像との重畳処理を省けば良い。
また、本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。
また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
さらに、記録媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに込まれた後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
本発明を上記記録媒体に適用する場合、その記録媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。
本発明の実施形態に係るシステムの機能構成を示すブロック図である。 観察者がHMD100を自身の頭部に装着した場合に、表示部103に表示される映像の表示例を示す図である。 操作パネルの一例を示す図である。 ペン入力装置300により操作パネル253の位置を移動させ、所望の位置に配置する為の操作について説明する図である。 ペン入力装置300による操作パネル253のサイズ変更操作について説明する図である。 タブレット254の位置姿勢が規定する座標系内に配置された操作パネル253の表示部103における表示例を示す図である。 カメラ102の位置姿勢が規定する座標系内に配置された操作パネル253の表示部103における表示例を示す図である。 PC200の基本構成を示すブロック図である。 PC200のCPU801が実行する、操作パネル253を含む仮想物体により構成される仮想空間の映像と、現実空間の映像とを合成した映像をHMD100の表示部103に提供する際に、操作パネル253の配置を行う為の処理のフローチャートである。

Claims (11)

  1. 仮想空間の画像を観察者に提示するための画像処理方法であって、
    観察者の視点の位置姿勢を入力する第1の入力工程と、
    当該観察者が使用する指示具の位置を入力する第2の入力工程と、
    仮想物体としての操作パネルの位置を変更する指示が入力された場合には、前記第2の入力工程で入力された前記指示具の位置に前記操作パネルを配置する配置工程と、
    前記第1の入力工程で入力した位置姿勢の視点から見える前記操作パネルを含む仮想物体の画像を生成する生成工程と
    を備えることを特徴とする画像処理方法。
  2. 更に、前記観察者の視点から見える現実空間の画像を入力する第3の入力工程と、前記生成工程で生成した映像を外部に出力する出力工程とを備え、
    前記出力工程では、前記生成工程で生成した画像を前記第3の入力工程で入力した画像上に重畳させて外部に出力することを特徴とする請求項1に記載の画像処理方法。
  3. 前記配置工程では、前記第2の入力工程で入力された前記指示具の位置を含み、且つ前記第1の入力工程で入力した前記視点の位置と前記第2の入力工程で入力された前記指示具の位置とを結ぶベクトルを法線ベクトルとする平面上に前記操作パネルを配置することを特徴とする請求項1又は2に記載の画像処理方法。
  4. 前記配置工程で配置した前記操作パネルの位置が、所定の平面領域内である場合には、当該所定の平面領域の位置姿勢で規定される座標系内に前記操作パネルを配置することを特徴とする請求項1乃至3の何れか1項に記載の画像処理方法。
  5. 前記所定平面領域は、タブレットの面領域であることを特徴とする請求項4に記載の画像処理方法。
  6. 前記配置工程で配置した前記操作パネルの位置と前記第1の入力工程で入力した位置との距離が所定距離以下である場合には、前記第1の入力工程で入力した位置姿勢で規定される座標系内に前記操作パネルを配置することを特徴とする請求項1乃至5の何れか1項に記載の画像処理方法。
  7. 前記操作パネルの位置を変更する指示、前記操作パネルの位置の変更を終了する指示は、前記指示具でもって前記操作パネル上の所定のアイコンを指示することでなされることを特徴とする請求項1乃至6の何れか1項に記載の画像処理方法。
  8. 更に、前記操作パネルの位置の変更を終了する指示が入力された場合には、前記操作パネルの位置姿勢を固定する固定工程を備えることを特徴とする請求項1乃至7の何れか1項に記載の画像処理方法。
  9. 仮想空間の画像を観察者に提示するための画像処理装置であって、
    観察者の視点の位置姿勢を入力する第1の入力手段と、
    当該観察者が使用する指示具の位置を入力する第2の入力手段と、
    仮想物体としての操作パネルの位置を変更する指示が入力された場合には、前記第2の入力手段によって入力された前記指示具の位置に前記操作パネルを配置する配置手段と、
    前記第1の入力手段によって入力した位置姿勢の視点から見える前記操作パネルを含む仮想物体の画像を生成する生成手段と
    を備えることを特徴とする画像処理装置。
  10. コンピュータに請求項1乃至8の何れか1項に記載の画像処理方法を実行させることを特徴とするプログラム。
  11. 請求項10に記載のプログラムを格納することを特徴とする、コンピュータ読み取り可能な記憶媒体。
JP2004314715A 2004-10-28 2004-10-28 画像処理方法、画像処理装置 Expired - Fee Related JP4533087B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2004314715A JP4533087B2 (ja) 2004-10-28 2004-10-28 画像処理方法、画像処理装置
US11/257,838 US7557816B2 (en) 2004-10-28 2005-10-25 Image processing apparatus, method and computer-readable storage medium for generating and presenting an image of virtual objects including the operation panel viewed from the position and orientation of the viewpoint of the observer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004314715A JP4533087B2 (ja) 2004-10-28 2004-10-28 画像処理方法、画像処理装置

Publications (2)

Publication Number Publication Date
JP2006127158A true JP2006127158A (ja) 2006-05-18
JP4533087B2 JP4533087B2 (ja) 2010-08-25

Family

ID=36261229

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004314715A Expired - Fee Related JP4533087B2 (ja) 2004-10-28 2004-10-28 画像処理方法、画像処理装置

Country Status (2)

Country Link
US (1) US7557816B2 (ja)
JP (1) JP4533087B2 (ja)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008040832A (ja) * 2006-08-07 2008-02-21 Canon Inc 複合現実感提示システム及びその制御方法
JP2011253324A (ja) * 2010-06-01 2011-12-15 Sharp Corp 商品情報提供端末装置および商品情報提供システム
JP2012108842A (ja) * 2010-11-19 2012-06-07 Konica Minolta Holdings Inc 表示システム、表示処理装置、表示方法、および表示プログラム
JP2012174219A (ja) * 2011-02-24 2012-09-10 Ohbayashi Corp 画像合成方法
JP2013190926A (ja) * 2012-03-13 2013-09-26 Nikon Corp 入力装置、及び表示装置
JP2015115848A (ja) * 2013-12-13 2015-06-22 セイコーエプソン株式会社 頭部装着型表示装置および頭部装着型表示装置の制御方法
JP2015115849A (ja) * 2013-12-13 2015-06-22 セイコーエプソン株式会社 情報処理装置および情報処理装置の制御方法
JPWO2014188797A1 (ja) * 2013-05-21 2017-02-23 ソニー株式会社 表示制御装置、表示制御方法および記録媒体
JP2017506449A (ja) * 2014-01-25 2017-03-02 ソニー インタラクティブ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー ヘッドマウントディスプレイにおける環境的な割り込み、及び非視野リアルエステートの利用
JP2018004756A (ja) * 2016-06-28 2018-01-11 株式会社リコー 情報表示システム
JP2019521452A (ja) * 2016-07-22 2019-07-25 グーグル エルエルシー 仮想現実ユーザインターフェイスのためのユーザの動きの範囲の検出
WO2022019090A1 (ja) * 2020-07-21 2022-01-27 ソニーグループ株式会社 情報処理装置、情報処理方法、及び情報処理プログラム
JP2022058753A (ja) * 2017-08-08 2022-04-12 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム

Families Citing this family (64)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9195886B2 (en) * 2008-01-09 2015-11-24 Cybernet Systems Corporation Rapid prototyping and machine vision for reconfigurable interfaces
US9715112B2 (en) 2014-01-21 2017-07-25 Osterhout Group, Inc. Suppression of stray light in head worn computing
US9400390B2 (en) 2014-01-24 2016-07-26 Osterhout Group, Inc. Peripheral lighting for head worn computing
US20150205111A1 (en) 2014-01-21 2015-07-23 Osterhout Group, Inc. Optical configurations for head worn computing
US9952664B2 (en) 2014-01-21 2018-04-24 Osterhout Group, Inc. Eye imaging in head worn computing
US9229233B2 (en) 2014-02-11 2016-01-05 Osterhout Group, Inc. Micro Doppler presentations in head worn computing
US9965681B2 (en) 2008-12-16 2018-05-08 Osterhout Group, Inc. Eye imaging in head worn computing
US9298007B2 (en) 2014-01-21 2016-03-29 Osterhout Group, Inc. Eye imaging in head worn computing
JP5158006B2 (ja) * 2009-04-23 2013-03-06 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム
US20120005624A1 (en) 2010-07-02 2012-01-05 Vesely Michael A User Interface Elements for Use within a Three Dimensional Scene
US8643569B2 (en) 2010-07-14 2014-02-04 Zspace, Inc. Tools for use within a three dimensional scene
US9411413B2 (en) * 2010-08-04 2016-08-09 Apple Inc. Three dimensional user interface effects on a display
US9727132B2 (en) * 2011-07-01 2017-08-08 Microsoft Technology Licensing, Llc Multi-visor: managing applications in augmented reality environments
US9594246B2 (en) 2014-01-21 2017-03-14 Osterhout Group, Inc. See-through computer display systems
US9575321B2 (en) 2014-06-09 2017-02-21 Osterhout Group, Inc. Content presentation in head worn computing
US10684687B2 (en) 2014-12-03 2020-06-16 Mentor Acquisition One, Llc See-through computer display systems
US9746686B2 (en) 2014-05-19 2017-08-29 Osterhout Group, Inc. Content position calibration in head worn computing
US11103122B2 (en) 2014-07-15 2021-08-31 Mentor Acquisition One, Llc Content presentation in head worn computing
US9299194B2 (en) 2014-02-14 2016-03-29 Osterhout Group, Inc. Secure sharing in head worn computing
US9671613B2 (en) 2014-09-26 2017-06-06 Osterhout Group, Inc. See-through computer display systems
US9829707B2 (en) 2014-08-12 2017-11-28 Osterhout Group, Inc. Measuring content brightness in head worn computing
US10649220B2 (en) 2014-06-09 2020-05-12 Mentor Acquisition One, Llc Content presentation in head worn computing
US9810906B2 (en) 2014-06-17 2017-11-07 Osterhout Group, Inc. External user interface for head worn computing
US10254856B2 (en) 2014-01-17 2019-04-09 Osterhout Group, Inc. External user interface for head worn computing
US11227294B2 (en) 2014-04-03 2022-01-18 Mentor Acquisition One, Llc Sight information collection in head worn computing
US20150277118A1 (en) 2014-03-28 2015-10-01 Osterhout Group, Inc. Sensor dependent content position in head worn computing
US9841599B2 (en) 2014-06-05 2017-12-12 Osterhout Group, Inc. Optical configurations for head-worn see-through displays
US10191279B2 (en) 2014-03-17 2019-01-29 Osterhout Group, Inc. Eye imaging in head worn computing
US9448409B2 (en) 2014-11-26 2016-09-20 Osterhout Group, Inc. See-through computer display systems
US9529195B2 (en) 2014-01-21 2016-12-27 Osterhout Group, Inc. See-through computer display systems
US9939934B2 (en) 2014-01-17 2018-04-10 Osterhout Group, Inc. External user interface for head worn computing
US20160019715A1 (en) 2014-07-15 2016-01-21 Osterhout Group, Inc. Content presentation in head worn computing
US9538915B2 (en) 2014-01-21 2017-01-10 Osterhout Group, Inc. Eye imaging in head worn computing
US11487110B2 (en) 2014-01-21 2022-11-01 Mentor Acquisition One, Llc Eye imaging in head worn computing
US9494800B2 (en) 2014-01-21 2016-11-15 Osterhout Group, Inc. See-through computer display systems
US9740280B2 (en) 2014-01-21 2017-08-22 Osterhout Group, Inc. Eye imaging in head worn computing
US11737666B2 (en) 2014-01-21 2023-08-29 Mentor Acquisition One, Llc Eye imaging in head worn computing
US11669163B2 (en) 2014-01-21 2023-06-06 Mentor Acquisition One, Llc Eye glint imaging in see-through computer display systems
US9746676B2 (en) 2014-01-21 2017-08-29 Osterhout Group, Inc. See-through computer display systems
US9766463B2 (en) 2014-01-21 2017-09-19 Osterhout Group, Inc. See-through computer display systems
US20150205135A1 (en) 2014-01-21 2015-07-23 Osterhout Group, Inc. See-through computer display systems
US9753288B2 (en) 2014-01-21 2017-09-05 Osterhout Group, Inc. See-through computer display systems
US9651784B2 (en) 2014-01-21 2017-05-16 Osterhout Group, Inc. See-through computer display systems
US9836122B2 (en) 2014-01-21 2017-12-05 Osterhout Group, Inc. Eye glint imaging in see-through computer display systems
US11892644B2 (en) 2014-01-21 2024-02-06 Mentor Acquisition One, Llc See-through computer display systems
US9846308B2 (en) 2014-01-24 2017-12-19 Osterhout Group, Inc. Haptic systems for head-worn computers
US9401540B2 (en) 2014-02-11 2016-07-26 Osterhout Group, Inc. Spatial location presentation in head worn computing
US20150241964A1 (en) 2014-02-11 2015-08-27 Osterhout Group, Inc. Eye imaging in head worn computing
US20160187651A1 (en) 2014-03-28 2016-06-30 Osterhout Group, Inc. Safety for a vehicle operator with an hmd
US10853589B2 (en) 2014-04-25 2020-12-01 Mentor Acquisition One, Llc Language translation with head-worn computing
US9423842B2 (en) 2014-09-18 2016-08-23 Osterhout Group, Inc. Thermal management for head-worn computer
US9672210B2 (en) 2014-04-25 2017-06-06 Osterhout Group, Inc. Language translation with head-worn computing
US9651787B2 (en) 2014-04-25 2017-05-16 Osterhout Group, Inc. Speaker assembly for headworn computer
US10663740B2 (en) 2014-06-09 2020-05-26 Mentor Acquisition One, Llc Content presentation in head worn computing
CN106575151A (zh) * 2014-06-17 2017-04-19 奥斯特豪特集团有限公司 用于头戴式计算的外部用户接口
US9684172B2 (en) 2014-12-03 2017-06-20 Osterhout Group, Inc. Head worn computer display systems
USD743963S1 (en) 2014-12-22 2015-11-24 Osterhout Group, Inc. Air mouse
USD751552S1 (en) 2014-12-31 2016-03-15 Osterhout Group, Inc. Computer glasses
USD753114S1 (en) 2015-01-05 2016-04-05 Osterhout Group, Inc. Air mouse
US20160239985A1 (en) 2015-02-17 2016-08-18 Osterhout Group, Inc. See-through computer display systems
CN105892651B (zh) * 2016-03-28 2019-03-29 联想(北京)有限公司 一种虚拟对象的显示方法和电子设备
USD864959S1 (en) 2017-01-04 2019-10-29 Mentor Acquisition One, Llc Computer glasses
WO2018199983A1 (en) 2017-04-28 2018-11-01 Hewlett-Packard Development Company, L.P. Tablet computing device with display dock
CN111970557A (zh) * 2020-09-01 2020-11-20 深圳市慧鲤科技有限公司 图像显示方法、装置、电子设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH075978A (ja) * 1993-06-18 1995-01-10 Sony Corp 入力装置
JPH07271546A (ja) * 1994-03-31 1995-10-20 Olympus Optical Co Ltd 画像表示制御方法
JP2000102036A (ja) * 1998-09-22 2000-04-07 Mr System Kenkyusho:Kk 複合現実感提示システム、複合現実感提示方法、マン・マシーンインタフェース装置、およびマン・マシーンインタフェース方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3024652B2 (ja) 1990-12-13 2000-03-21 松下電工株式会社 3次元表示式の項目選択装置
US6061064A (en) * 1993-08-31 2000-05-09 Sun Microsystems, Inc. System and method for providing and using a computer user interface with a view space having discrete portions
US6515688B1 (en) * 1997-04-04 2003-02-04 International Business Machines Corporation Viewer interactive three-dimensional workspace with a two-dimensional workplane containing interactive two-dimensional images
US6734884B1 (en) * 1997-04-04 2004-05-11 International Business Machines Corporation Viewer interactive three-dimensional objects and two-dimensional images in virtual three-dimensional workspace
US6771294B1 (en) * 1999-12-29 2004-08-03 Petri Pulli User interface
JP2003279881A (ja) * 2002-03-27 2003-10-02 Hitachi Ltd 携帯情報装置
DE102005061211B4 (de) * 2004-12-22 2023-04-06 Abb Schweiz Ag Verfahren zum Erzeugen einer Mensch-Maschine-Benutzer-Oberfläche

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH075978A (ja) * 1993-06-18 1995-01-10 Sony Corp 入力装置
JPH07271546A (ja) * 1994-03-31 1995-10-20 Olympus Optical Co Ltd 画像表示制御方法
JP2000102036A (ja) * 1998-09-22 2000-04-07 Mr System Kenkyusho:Kk 複合現実感提示システム、複合現実感提示方法、マン・マシーンインタフェース装置、およびマン・マシーンインタフェース方法

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008040832A (ja) * 2006-08-07 2008-02-21 Canon Inc 複合現実感提示システム及びその制御方法
JP2011253324A (ja) * 2010-06-01 2011-12-15 Sharp Corp 商品情報提供端末装置および商品情報提供システム
JP2012108842A (ja) * 2010-11-19 2012-06-07 Konica Minolta Holdings Inc 表示システム、表示処理装置、表示方法、および表示プログラム
JP2012174219A (ja) * 2011-02-24 2012-09-10 Ohbayashi Corp 画像合成方法
JP2013190926A (ja) * 2012-03-13 2013-09-26 Nikon Corp 入力装置、及び表示装置
JPWO2014188797A1 (ja) * 2013-05-21 2017-02-23 ソニー株式会社 表示制御装置、表示制御方法および記録媒体
JP2015115849A (ja) * 2013-12-13 2015-06-22 セイコーエプソン株式会社 情報処理装置および情報処理装置の制御方法
JP2015115848A (ja) * 2013-12-13 2015-06-22 セイコーエプソン株式会社 頭部装着型表示装置および頭部装着型表示装置の制御方法
JP2017506449A (ja) * 2014-01-25 2017-03-02 ソニー インタラクティブ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー ヘッドマウントディスプレイにおける環境的な割り込み、及び非視野リアルエステートの利用
JP2018004756A (ja) * 2016-06-28 2018-01-11 株式会社リコー 情報表示システム
JP2019521452A (ja) * 2016-07-22 2019-07-25 グーグル エルエルシー 仮想現実ユーザインターフェイスのためのユーザの動きの範囲の検出
JP2022058753A (ja) * 2017-08-08 2022-04-12 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
WO2022019090A1 (ja) * 2020-07-21 2022-01-27 ソニーグループ株式会社 情報処理装置、情報処理方法、及び情報処理プログラム

Also Published As

Publication number Publication date
US20060092131A1 (en) 2006-05-04
US7557816B2 (en) 2009-07-07
JP4533087B2 (ja) 2010-08-25

Similar Documents

Publication Publication Date Title
JP4533087B2 (ja) 画像処理方法、画像処理装置
JP4227561B2 (ja) 画像処理方法、画像処理装置
US7952594B2 (en) Information processing method, information processing apparatus, and image sensing apparatus
JP5709440B2 (ja) 情報処理装置、情報処理方法
Fuhrmann et al. Occlusion in collaborative augmented environments
US8098263B2 (en) Image processing method and image processing apparatus
JP2012048456A (ja) 情報処理装置およびその方法
JP2009025918A (ja) 画像処理装置、画像処理方法
US20070252833A1 (en) Information processing method and information processing apparatus
JP2006318095A (ja) 画像処理方法、画像処理装置
JP7480388B2 (ja) ヘッドマウント情報処理装置
JP4574323B2 (ja) 画像処理方法、画像処理装置
KR100971667B1 (ko) 증강 책을 통한 실감 콘텐츠를 제공하는 방법 및 장치
JP2009251702A (ja) 情報処理装置、情報処理方法及び情報処理プログラム
JP2009087161A (ja) 画像処理装置、画像処理方法
JP2022058753A (ja) 情報処理装置、情報処理方法及びプログラム
JP2005339266A (ja) 情報処理方法、情報処理装置、撮像装置
JP7279113B2 (ja) 画像処理装置、画像処理方法、コンピュータプログラム
JP2005339267A (ja) 情報処理方法、情報処理装置、撮像装置
JP2006343954A (ja) 画像処理方法、画像処理装置
JP2012048656A (ja) 画像処理装置、画像処理方法
JP4217661B2 (ja) 画像処理方法、画像処理装置
JP2005251118A (ja) 画像処理方法、画像処理装置
JP3413145B2 (ja) 仮想空間の編集方法及び仮想空間の編集装置
JP2018124746A (ja) 情報処理装置、情報処理システム、情報処理方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071024

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20071024

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100420

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100521

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100611

R150 Certificate of patent or registration of utility model

Ref document number: 4533087

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130618

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees