JP2021135776A - 情報処理装置、情報処理方法、およびプログラム - Google Patents

情報処理装置、情報処理方法、およびプログラム Download PDF

Info

Publication number
JP2021135776A
JP2021135776A JP2020031845A JP2020031845A JP2021135776A JP 2021135776 A JP2021135776 A JP 2021135776A JP 2020031845 A JP2020031845 A JP 2020031845A JP 2020031845 A JP2020031845 A JP 2020031845A JP 2021135776 A JP2021135776 A JP 2021135776A
Authority
JP
Japan
Prior art keywords
virtual object
information processing
target virtual
display device
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020031845A
Other languages
English (en)
Other versions
JP2021135776A5 (ja
JP7413077B2 (ja
Inventor
貴紀 勝俣
Takanori Katsumata
貴紀 勝俣
直仁 中村
Naohito Nakamura
直仁 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2020031845A priority Critical patent/JP7413077B2/ja
Priority to US17/185,657 priority patent/US11527020B2/en
Publication of JP2021135776A publication Critical patent/JP2021135776A/ja
Priority to US18/055,654 priority patent/US20230083677A1/en
Publication of JP2021135776A5 publication Critical patent/JP2021135776A5/ja
Application granted granted Critical
Publication of JP7413077B2 publication Critical patent/JP7413077B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/62Semi-transparency
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2012Colour editing, changing, or manipulating; Use of colour codes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Architecture (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】複合現実感の体験者が自身で動きを予測できない仮想物体の接近等による複合現実感の阻害等を防止可能にする。【解決手段】1以上の仮想物体を表示可能な表示装置(112)の所定の空間内における位置姿勢を取得する取得手段(105)と、表示装置(112)の位置姿勢と、所定の空間内における対象仮想物体の位置姿勢とに基づいて、表示装置(112)における対象仮想物体の表示方法を変更する制御手段(106,107,108)と、を有する。【選択図】図1

Description

本発明は、仮想物体を提示するための情報処理技術に関する。
現実世界と仮想世界とをリアルタイムに融合させる技術として、複合現実感(MR:Mixed Reality)技術が知られている。この技術は、現実空間とコンピュータによって作られる仮想空間とを繋ぎ目なく融合する技術である。組み立て作業時に作業手順を重畳表示する組み立て支援、患者の体表面に体内の様子を重畳表示する手術支援等、様々な分野への応用が期待される。
ここで、MRを体験する者が、頭部装着型の表示装置、例えばHMD(HeadMountedDisplay)のように没入感の高い装置を装着している場合、当該MR体験者は、他のMR体験者と衝突したり、現実物体と衝突したりする虞がある。そこで、特許文献1では、第1のMR体験者の視点位置及び方向と、第2のMR体験者の視点位置及び方向とを求め、第1と第2のMR体験者の距離が閾値より小さくなった場合に、第2のMR体験者が接近していることを報知する技術を開示している。また、特許文献2では、現実物体とMR体験者との距離を測定し、接近していることを報知する技術を開示している。
特開2006−301924号公報 特開2016−58042号公報
しかし、前述の特許文献に開示された技術の場合、例えば自分以外のMR体験者が手に持った現実物体に重畳された仮想物体については、その動きを予測することができない。このため、MR体験者が装着している表示装置の画面上に不意に(つまりMR体験者の眼前に不意に)、その仮想物体が表示されることがある。MR体験中にそのような自分の意志と関係ない動きをする仮想物体が予期せぬ方向から表示された場合、MR体験者は、それに対応できず、驚いたり、MR体験が阻害されたり、する虞がある。
そこで本発明は、複合現実感の体験者が動きを予測できない仮想物体の接近等による、複合現実感の阻害等を防止可能にすることを目的とする。
本発明の情報処理装置は、1以上の仮想物体を表示可能な表示装置の、所定の空間内における位置姿勢を取得する取得手段と、前記表示装置の前記位置姿勢と、前記所定の空間内における前記1以上の仮想物体のうち、対象仮想物体の位置姿勢とに基づいて、前記表示装置における前記対象仮想物体の表示方法を変更する制御手段と、を有することを特徴とする。
本発明によれば、複合現実感の体験者が動きを予測できない仮想物体の接近等による複合現実感の阻害等を防止可能となる。
第1の実施形態に係る情報処理装置の構成図である。 MR体験者、現実物体、指標および仮想物体の説明に用いる図である。 1つの仮想物体のデータ構成例を示す図である。 仮想物体の表示方法が変更された場合の表示例を示す図である。 第1の実施形態における情報処理の流れを示すフローチャートである。 第2の実施形態に係る情報処理装置の構成図である。 第2の実施形態における情報処理の流れを示すフローチャートである。 第3の実施形態に係る情報処理装置の構成図である。 第3の実施形態における情報処理の流れを示すフローチャートである。 情報処理装置の実装が可能なハードウェア構成例を示す図である。
以下、実施形態を、添付の図面に基づいて詳細に説明する。なお、以下の実施形態は本発明を必ずしも限定するものではない。
<第1の実施形態>
図1は、第1の実施形態に係る情報処理装置の機能構成例を示すブロック図である。
本実施形態の情報処理装置100は、対象設定部101、仮想物体生成部102、データ保持部103、画像取得部104、位置姿勢取得部105、距離計測部106、表示変更部107、合成画像生成部108、および合成画像出力部109を有する。また、情報処理装置100は、例えばHMD(HeadMountedDisplay)である撮像表示装置110に有線または無線によって接続されている。
撮像表示装置110は、撮像部111と表示部112とを備えたHMDであり、複合現実感(MR:Mixed Reality)の体験者の頭部に装着される。以下、複合現実感を体験するユーザをMR体験者と呼び、MR体験者が複合現実感を体験する所定の空間すなわち現実空間と仮想空間とが融合された成る三次元の複合現実感空間をMR空間と呼ぶ。撮像部111は、MR体験者の頭部の向き(体験者の視線の方向)に対応した現実空間を撮像するビデオカメラである。撮像部111は、現実空間の撮像画像を情報処理装置100に送出する。表示部112は、後述するようにして情報処理装置100で生成されて送出されてきた合成画像を表示可能なディスプレイである。このように、撮像部111による撮影方向は当該MR空間内におけるMR体験者の視線方向であり、表示部112にはその視線方向においてMR体験者から見えるMR空間内の様子が表示される。
本実施形態の情報処理装置100において、データ保持部103は、MR体験者が装着する撮像表示装置110(HMD)の表示部112に表示される可能性がある複数の仮想物体を構成するためのデータを保持している。
仮想物体生成部102は、データ保持部103から仮想物体を構成するためのデータを取得し、そのデータを基に仮想物体を生成する。
なお、対象設定部101、距離計測部106、および表示変更部107の説明は後述する。
位置姿勢取得部105は、三次元の現実空間内における撮像表示装置110の位置及び姿勢を取得する。位置姿勢取得部105は、撮像表示装置110の位置を公知の手法によって求めてもよいが、本実施形態の場合、撮像部111が現実空間を撮像した画像に含まれている既知の指標から得られる情報に基づいて位置を求めるとする。本実施形態において、既知の指標は、現実空間に配置されており、現実空間内における座標(位置)が既知となされた指標である。位置姿勢取得部105は、それら既知の指標が配置された現実空間を撮像した画像からそれぞれ抽出された指標の座標を基に、撮像表示装置110の位置を求める。
本実施形態の場合、撮像表示装置110の位置の取得に用いられる指標は、例えば図2に示すような四角形状の指標(以下、四角形指標P1と呼ぶ)であり、三次元の現実空間内には当該四角形指標P1が複数配置されているとする。なお図2は、各MR体験者、現実物体、指標および仮想物体の説明に用いる図であり、その詳細は後述する。本実施形態では、三次元の現実空間内に四角形指標P1がPk(k=1,2,3,・・・,Ko)個配置される。Koは配置される四角形指標の数を表す。このような既知の座標を持つ指標(四角形指標)を撮影した画像を基に撮像表示装置110の位置を取得する方法は公知であるため、その詳しい説明は省略する。また本実施形態では四角形指標P1を挙げたが、撮像表示装置110の位置の取得に用いる指標の形状は四角形に限定されるものではない。例えば図2中の指標P2のように、現実空間の床や壁等に配された平面状等の指標でもよく、現実空間を撮影した画像から検出可能なものであれば、どのような指標であってもよい。現実空間における指標の配置情報(座標情報)は、公知の方法によって作成したものを用いればよい。
また位置姿勢取得部105は、例えば撮像表示装置110に搭載されたジャイロセンサなどの不図示の姿勢検知センサの出力を基に、撮像表示装置110の姿勢を求める。姿勢検知センサの出力に基づく撮像表示装置110の姿勢の取得方法は公知であるためその説明は省略する。なお、位置姿勢取得部105は、撮像表示装置110の撮像画像に含まれる前述した四角形指標P1等を基に、撮像表示装置110の姿勢を取得してもよい。
その他にも、例えばMR空間内で仮想物体が重畳表示される現実物体に位置姿勢センサが装着されている場合、位置姿勢取得部105は、その位置姿勢センサの出力値を基に、撮像表示装置110と仮想物体の位置姿勢を取得することも可能である。なおこの場合、当該位置姿勢センサと撮像部111との相対的な位置関係は、予め校正しておく。
合成画像生成部108は、仮想物体生成部102で生成された仮想物体と、撮像表示装置110の撮像部111で撮像されて画像取得部104で取得された現実空間の画像とを、位置姿勢取得部105にて取得された位置姿勢に基づいて合成する。なお、現実空間の画像と仮想物体とを撮像表示装置110の位置姿勢に基づいて合成する処理は、既知の処理であるためその詳細な説明は省略する。
合成画像出力部109は、合成画像生成部108によって現実空間の画像に仮想物体が合成された合成画像を、撮像表示装置110の表示部112に送る。MR体験者が装着している撮像表示装置110の表示部112には、現実空間に仮想物体が合成された合成画像が表示され、これによりMR体験者に複合現実感が提供されることになる。
以下、本実施形態では、図2に示すように、2名の人物が複合現実感を体験する場合を例に挙げて説明する。図2には、MR体験者201及びMR体験者202の2名のうち、1名のMR体験者202の手に持った現実物体205に仮想物体204が重畳表示されている例を示している。また図2の例において、仮想物体203は位置が固定された仮想物体であるとする。ここで、図2の例のようにMR体験者202が手に持った現実物体205に仮想物体204を重畳させること、つまり現実空間内を移動する現実物体に仮想物体を重畳表示することは、当該現実物体205に指標P3を対応付けておくことで実現される。現実物体205はMR体験者が持ち運び可能な物体であり、指標P3はその現実物体205上に配されている。そして仮想物体204は、その指標P3に対応付けられている。合成画像生成部108は、撮像部111にて撮像された画像から指標P3を認識することで仮想物体204を表示させるべき位置等を特定し、現実空間の撮像画像上の対応した位置に仮想物体204を重畳させるように合成する。これにより、MR体験者201のHMD206の画面上には、MR体験者202が手に持っている現実物体205に仮想物体204が重畳された画像が表示される。
図2に示したようなMR体験例において、一方のMR体験者202が手に持っている現実物体205を動かすと、その現実物体205に重畳されている仮想物体204も、当該現実物体205の動きに合わせて移動することになる。つまりMR体験者202の手の動きに合わせて仮想物体204が移動するため、他方のMR体験者201にとって、仮想物体204の動きを予期することは難しく、MR体験者201の眼前に不意に仮想物体204が表示されることが起きる可能性がある。この場合、MR体験者201は眼前に不意に表示された仮想物体204に対して対応できず、これにより驚いたり、MR体験が阻害されたりする可能性がある。
本実施形態の情報処理装置100は、前述したようなMR体験者が自身で動きを予測できない仮想物体の接近等によるMR体験の阻害等を防止可能にするために、以下に説明するような情報処理を行う。ここでは、図2に示したようなMR体験例において、MR体験者201が装着している撮像表示装置110(HMD206)に対して合成画像を出力する情報処理装置100で行われる情報処理を例に挙げて説明する。なお、図2の例の場合、他のMR体験者202が装着している撮像表示装置110はHMD207であり、当該他のMR体験者202のHMD207に合成画像を出力する際の情報処理装置100の処理の説明は省略する。
本実施形態において、対象設定部101は、MR体験者201のHMD206(撮像表示装置110)に表示される仮想物体のうち、計測対象として設定された仮想物体(以下、計測対象仮想物体とする)に対して計測対象用の属性を設定する。計測対象仮想物体とは、MR体験者201が動きを予測できない可能性がある仮想物体、すなわち図2の例の場合、MR体験者201の眼前に不意に表示される可能性がある仮想物体である。MR体験者201が動きを予測できない可能性がある仮想物体としては、前述したように他のMR体験者202が手に持った現実物体205に重畳される仮想物体204を挙げることができる。このため、対象設定部101は、他のMR体験者202が手に持った現実物体205に重畳される仮想物体204を計測対象仮想物体として設定する。ただし計測対象物体は、他のMR体験者202が手に持って動かすようなものに限らない。例えば他のMR体験者202の全身または体の一部の動きに連動して表示されるアバターのような仮想物体であったり、他のMR体験者202の動きに寄らないルールに基づいてMR空間内を移動する仮想物体であったりしてもよい。また例えば、対象物体自体は動かない場合であっても、MR体験者201が移動し得る経路周囲に存在し、MR体験者201の視線の動かし方によって急に目前に現れる可能性がある仮想物体を、計測対象物体として設定しても構わない。
本実施形態では、MR体験者等のユーザが計測対象仮想物体を指定可能となされており、この場合、対象設定部101は、不図示のGUI(グラフィカルユーザインターフェース)を介してユーザが指定した仮想物体を、計測対象仮想物体として設定する。また、対象設定部101は、所定の大きさ以上の面積を持つ仮想物体を計測対象仮想物体として自動的に設定することも可能である。
第1の実施形態の場合、計測対象仮想物体は、MR空間内において、MR体験者201のHMD206との間の距離を計測する対象となされる仮想物体とする。なお、第1の実施形態では距離を計測する例を挙げるが、計測対象仮想物体に対する計測は、距離に限定されるものではない。詳細については後述する他の実施形態で説明するが、計測対象仮想物体に対する計測は、HMD206の撮影方向と仮想物体の移動方向との成す角度、HMD206と仮想物体との間の相対速度、画面内で仮想物体が占有する占有率などの場合もある。
本実施形態の情報処理装置100において、対象設定部101は、計測対象仮想物体のデータに対して、以下のように計測対象用の属性を設定する。
図3は、一つの仮想物体のデータ構成例を示した図である。本実施形態において、仮想物体のデータ構成は、三次元空間内における仮想物体の位置(x,y,z座標)および姿勢(roll,pitch,yaw)を示す位置姿勢情報502と、仮想物体の色や形状などの視覚的な情報を示すモデル情報504とが含まれる。本実施形態の場合、それらの情報に加えてさらに、計測対象用の属性を示す情報として、当該仮想物体が計測対象仮想物体であるかどうかを示す計測対象フラグ301と、透明度303とが含まれる。計測対象フラグ301は、「1」又は「0」の1ビットで表現される情報である。計測対象フラグ301の値が「1」の場合、当該仮想物体は計測対象仮想物体であること(ON)を示し、「0」の場合には当該仮想物体は計測対象仮想物体ではないこと(OFF)を示す。透明度303は、その仮想物体の画像が合成画像生成部108で現実空間の画像と合成される際の、当該仮想物体の画像の透明度合を表す情報である。本実施形態の場合、計測対象フラグ301の初期設定は「0」であり、透明度303の初期設定は透明度ゼロ(つまり不透明)であるとする。対象設定部101は、計測対象仮想物体については計測対象フラグ301の値を「1」に設定する。
仮想物体生成部102は、図2のMR体験者201のHMD206に表示されることになる仮想物体のデータを取得する。図2の例の場合、MR体験者201のHMD206に表示されることになる仮想物体は、MR空間内に配置される固定の仮想物体203や、MR体験者202が手に持った現実物体205に重畳される仮想物体204などである。ここで図2の例の場合、仮想物体204は、対象設定部101によって計測対象フラグ301が「1」に設定された計測対象仮想物体であり、一方、仮想物体203は、計測対象フラグ301が「0」の仮想物体である。そして、仮想物体生成部102は、MR体験者201のHMD206に表示されることになる仮想物体として、それら仮想物体203および仮想物体204(計測対象仮想物体)を生成する。さらに、仮想物体生成部102は、生成した仮想物体をMR空間内に配置する位置を決定する。本実施形態の場合、仮想物体生成部102は、現実空間の撮像画像から位置姿勢取得部105によって取得された指標の位置に基づいて、MR空間内に各仮想物体を配置するべき座標位置を決定する。
また、位置姿勢取得部105は、MR体験者201が装着しているHMD206の位置姿勢を前述したようにして取得し、その位置姿勢の情報を距離計測部106に送る。
距離計測部106は、位置姿勢取得部105より供給された位置姿勢情報から、MR体験者201が装着しているHMD206の、三次元の現実空間内における位置を認識する。また、距離計測部106は、前述した計測対象用の属性を示す計測対象フラグ301の値(「1」)を基に計測対象仮想物体204を特定すると共に、その計測対象仮想物体204がMR空間内で表示される位置を認識する。さらに、距離計測部106は、その計測対象仮想物体204と、MR体験者201のHMD206との間の距離を算出する。そして、距離計測部106は、計測対象仮想物体204とHMD206との間の距離が所定の距離閾値以下になった場合、その旨を表示変更部107に通知する。
表示変更部107は、計測対象仮想物体204とHMD206との間の距離が所定の距離閾値以下になった旨の通知を受け取ると、計測対象仮想物体204の表示方法を変更するための制御を行う。ここで表示方法の変更とは、見た目の変更を意味する。計測対象仮想物体204の表示方法を変更する制御として、表示変更部107は、例えば計測対象仮想物体204の透明度303を例えば最大値に変更する。計測対象仮想物体204の表示方法の変更は、計測対象仮想物体204の透明度303を最大値にする場合(つまり非表示にする場合)に限らず、他の値、例えばMR体験者におけるMR体験が阻害されない程度の透明度の値にするようなものであってもよい。また透明度の変更に限らず、透明度の変更に替えて、あるいはそれと組み合わせて、色や彩度の調整やアニメーション効果による表示方法の変更を利用してもよい。
合成画像生成部108は、表示変更部107にて表示方法を変更するように制御された計測対象仮想物体204や、計測対象になされていない仮想物体203等を、画像取得部104から供給された現実空間の撮像画像と合成して合成画像を生成する。例えば計測対象仮想物体204の透明度303が最大値になされた場合、合成画像生成部108での画像合成処理の際に、計測対象仮想物体204の画像は透明になされ、これによりMR体験者201のHMD206上で計測対象仮想物体204は非表示になる。すなわち、例えばMR体験者202が手を動かす等して、計測対象仮想物体である仮想物体204がMR体験者201の眼前に移動してくるような場合、当該仮想物体204はMR体験者201のHMD206上には表示されなくなる。このため、MR体験者201の眼前に仮想物体204が表示されるようなことがなくなり、MR体験者201のMR体験が阻害されることもなくなる。なお、HMD206との間の距離が所定の距離閾値より大きい計測対象仮想物体や、計測対象仮想物体として設定されていない他の仮想物体については透明度ゼロのままであるため、それらの画像はHMD206に表示される。
図4は、計測対象仮想物体204が透明になされた場合の、MR体験者201のHMD206に表示される映像401の例を示した図である。映像401内の手402は、MR体験者202の手であり、その手402には現実物体205が握られている。映像401内の現実物体205は、前述した図2の現実物体205である。また、図4中に点線で示している部分404は、図2の仮想物体204に対応しており、この例では透明度が最大値になされたことで仮想物体204が表示されていない状態(透明な状態)になっていることを表している。なお、仮想物体203については、計測対象仮想物体ではないため、表示されている。このように、MR体験者201のHMD206には、当該MR体験者201が予期せぬタイミングで仮想物体204が表示されるようなことがないため、MR体験者201のMR体験が阻害されることはない。
図5は、前述したような本実施形態の情報処理装置100における情報処理の流れを示したフローチャートである。以下、図5のフローチャートを参照しながら、本実施形態の情報処理装置100の動作を説明する。
ステップS501において、対象設定部101は、計測対象仮想物体を設定する。設定対象となる仮想物体のデータは、前述のようにデータ保持部103に保持されており、例えばMR体験者が不図示のGUI上のボタン等を指示して仮想物体を選択すると、対象設定部101は、その選択された仮想物体を計測対象仮想物体に設定する。また計測対象フラグの設定は、例えばMR体験者が不図示のGUI上に用意されたリストボックスでフラグの値を切り替え等することで行われる。
ステップS502において、仮想物体生成部102は、ステップS201で計測対象仮想物体に設定された仮想物体や、計測対象仮想物体に設定されていない仮想物体を生成する。仮想物体生成部102は、例えばMR体験者により不図示のモデル作成ボタン等のGUIを介して仮想物体生成指示が入力されたことに応じて、データ保持部103からデータを取得して各仮想物体を生成する。
ステップS503において、仮想物体生成部102は、ステップS502で生成された仮想物体を、MR空間内に配置する。本実施形態では、前述したように現実空間の撮像画像から検出された四角形指標等のような位置取得用の指標の位置に基づいて、MR空間内に各仮想物体を配置するべき座標位置を決定し、そしてそれらの位置に各仮想物体を配置する。
ステップS504において、位置姿勢取得部105は、公知の方法により撮像表示装置110(HMD)の位置姿勢を計測する。位置姿勢取得部105が取得する位置姿勢情報は公知のいずれの手法で求められてもよい。例えば前述したように、位置姿勢取得部105は、現実空間の撮像画像から検出した既知の指標の位置を基に、撮像表示装置110の位置姿勢を求める。また、位置姿勢取得部105は、現実空間の撮像画像から検出した指標を基に、計測対象仮想物体の位置姿勢をも算出し、それらの情報を距離計測部106と合成画像生成部108とに送出する。
ステップS505において、距離計測部106は、ステップS502で生成された仮想物体の属性が、計測対象仮想物体を示しているかを判定する。ステップS502で説明したように、仮想物体は、計測対象フラグの値によって計測対象仮想物体であるか、或いは計測対象仮想物体でないかが設定されている。ステップS505において、距離計測部106は、計測対象フラグの値が「1」であるか否かを判定し、「1」である場合にはステップS506に処理を進め、「1」でない場合(「0」である場合)にはステップS509へと処理を進める。
ステップS506に進むと、距離計測部106は、ステップ503で取得された計測対象仮想物体の位置と、ステップS504で取得された撮像表示装置の位置とを基に、MR空間内での計測対象仮想物体と撮像表示装置との間の距離を計測する。
そして次のステップS507において、距離計測部106は、計測対象仮想物体と撮像表示装置との間の距離が所定の距離閾値以下である場合にはステップS508に処理を進め、一方、距離閾値より大きい場合にはステップS509に処理を進める。なお、距離の閾値は、例えば不図示のGUIを提示してMR体験者に入力させることによって決定してもよいし、予め定められていてもよい。なお、距離の閾値は複数設定されていてもよい。例えば第1の距離閾値とそれより短い第2の距離閾値とが設定されている場合、距離計測部106は、計測対象仮想物体が第1の距離閾値以下になった時と、更にその後に、第2の距離閾値以下になった時に、それぞれその旨を表示変更部107に通知してもよい。
ステップS508に進むと、表示変更部107は、合成画像生成部108においてその計測対象仮想物体の表示が変更されるように制御する。この時の合成画像生成部108では、計測対象仮想物体の透明度を例えば最大、或いはMR体験者におけるMR体験が阻害されない程度の透明度にする。なお距離計測部106における距離閾値として例えば複数の距離閾値が設定されているような場合、表示変更部107は、計測対象仮想物体が各距離閾値以下になるごとに表示方法を変更してもよい。例えば、表示変更部107は、前述した第1の距離閾値以下になった旨の通知を受けた時に第1の表示方法に変更し、その後、第2の距離閾値以下になった旨の通知を受けた時に第2の表示方法に変更するように、距離に応じて表示方法を段階的に変更してもよい。
ステップS509に進むと、合成画像生成部108は、画像取得部104で取得した撮像画像と、計測対象仮想物体を含む各仮想物体の画像とを合成して合成画像を生成する。そして、その合成画像は、合成画像出力部109に送られ、その合成画像出力部109から撮像表示装置110の表示部112に送出される。
以上説明したように、本実施形態の情報処理装置100では、仮想物体ごとに計測対象フラグが設定され、計測対象仮想物体となされた仮想物体はMR体験者のHMDに近接した場合にその表示方法が変更される。すなわち本実施形態によれば、計測対象仮想物体がMR体験者のHMDに近接した場合、その計測対象仮想物体の見え方が自動変更されることで、MR体験者が自身で動きを予測できない仮想物体によるMR体験の阻害等を防ぐことができる。
<第2の実施形態>
第2の実施形態では、撮像表示装置110と計測対象仮想物体204との間の距離とは異なる情報を基にして、計測対象仮想物体の表示方法を変更する例について説明する。
図6は第2の実施形態における情報処理装置600と撮像表示装置110の構成例を示した図である。図6において、図1と同じ構成要素には図1と同一の参照符号を付して、それらの詳細な説明は適宜省略する。また第2の実施形態においても前述の図2に示したMR体験例に挙げて説明する。
第2の実施形態において、位置姿勢取得部105は、撮像表示装置110の撮像部111による撮影方向を取得し、その撮影方向の情報を角度計測部601に送出する。前述したように、撮像部111の撮影方向はMR空間内におけるMR体験者の視線方向であり、その視線方向のMR体験者から見えるMR空間内の様子が表示部112に表示される。このため、MR空間内における撮像部111の撮影方向と、表示部112によるMR空間の表示方向とは一致している。
移動方向計測部602は、前フレームにおける計測対象仮想物体204の位置と現フレームにおける計測対象仮想物体204の位置との差分から、当該計測対象仮想物体204の移動方向を算出する。そして、その移動方向の情報を計測対象用の属性に含めて計測対象仮想物体204のデータに付加し、角度計測部601に送出する。
角度計測部601は、MR空間内における撮像部111の撮影方向(MR空間内における表示部112の表示方向)と計測対象仮想物体の移動方向とが成す角度を算出する。つまり角度計測部601は、それら撮影方向と移動方向の二つの方向を表す二つの線の交点でそれら二つの線が成す交点角度(交差角度)を算出する。そして、角度計測部601は、その交点角度が、予め設定した所定の角度閾値以下である場合にその旨を表示変更部107に通知する。ここで撮影方向と移動方向との交点角度は、MR体験者201の視線方向とその視線方向に対して向かってくる仮想物体の移動方向との間の角度を表している。このため、その交点角度が小さいほど、仮想物体の移動に伴って、その仮想物体がMR体験者201の眼前に近づく可能性が高くなることになる。すなわち、交点角度が小さい場合には、仮想物体が移動することで、MR体験者201の眼前に当該仮想物体が表れる可能性が高いと言える。このため、第2の実施形態では、撮影方向と移動方向との交点角度が所定の角度閾値以下である場合にその旨を表示変更部107に通知する。
そして、第2の実施形態の表示変更部107は、その通知を受けると、合成画像生成部108における計測対象仮想物体204の表示方法を変更する。表示方法の変更は、第1の実施形態の例と同様とする。
図7は、第2の実施形態の情報処理装置100における情報処理の流れを示したフローチャートである。図7のフローチャートにおいて、前述した図5のフローチャートと同じ処理ステップには図5と同一の参照符号を付して、それらの説明は適宜省略する。ステップS501からS503までの処理は前述同様であり、第2の実施形態の場合、ステップS503の処理後、ステップS701の処理に進む。
ステップS701に進むと、位置姿勢取得部105は、前述同様に撮像表示装置110の位置姿勢および撮影方向を取得し、それらの情報を角度計測部601と合成画像生成部108に送出する。ステップS701の後、情報処理装置600の処理はステップS505に進む。そしてステップS505では、第1の実施形態と同様に計測対象フラグ301が「1」であるか否かが判定され、「1」でないと判定された場合にはステップS508の処理に進み、一方、「1」と判定された場合にはステップS702に処理が進められる。
ステップS702に進むと、移動方向計測部602は、前フレームと現フレームとにおける測対象仮想物体の位置の差分から移動方向を算出し、その移動方向の情報を計測対象用の属性に含めて計測対象仮想物体のデータに付加し、角度計測部601へ送出する。
次にステップS703において、角度計測部601は、ステップS701で取得された撮像表示装置110の撮影方向と、ステップS702で取得された計測対象仮想物体の移動方向との、二つの方向の交点角度を算出する。
次にステップS704において、角度計測部601は、ステップS703で求めた角度が、予め設定された所定の角度閾値以下か否かを判定する。そして、角度計測部601において交点角度が所定の角度閾値以下でない(角度閾値より大きい)と判定された場合、情報処理装置600の処理はステップS509に進む。一方、角度計測部601は、交点角度が角度閾値以下であると判定した場合にはその旨を表示変更部107に通知し、その後、情報処理装置600の処理はステップS508に進む。ステップS508とステップS509の処理は前述同様である。
以上により、第2の実施形態においては、撮影方向(MR体験者の視線方向)と計測対象仮想物体の移動方向との交点角度を基に、MR体験者の視線方向に対して向かってくる仮想物体について表示方向を変更する。これにより、第2の実施形態によれば、MR体験者が自身で動きを予測できない仮想物体によるMR体験の阻害を防ぐことができることになる。
<第2の実施形態の変形例>
前述した例では、撮影方向と移動方向との交点角度を基に仮想物体の表示方法を変更するか否か判定する例を挙げたが、変形例として、表示方法を変更するか否かの判定条件に、撮像表示装置110と計測対象仮想物体204との間の相対速度を加えてもよい。
この変形例の場合、移動方向計測部602は、計測対象仮想物体204の位置の変化、すなわち例えば、前フレームと現フレームとにおける計測対象仮想物体204の位置の差分から、移動方向と移動速度を算出する。そして、移動方向計測部602は、それら移動方向と移動速度の情報を計測対象用の属性に含めて計測対象仮想物体204のデータに付加し、角度計測部601に送出する。
また角度計測部601は、前述同様に撮影方向と計測対象仮想物体204の移動方向との二つの方向の交点角度を算出すると共に、前フレームと現フレームとにおける撮像表示装置110の位置の差分から撮像表示装置110の移動速度をも算出する。さらに角度計測部601は、計測対象仮想物体204の移動方向及び移動速度と、撮像表示装置110の撮影方向及び移動速度とを基に、計測対象仮想物体204と撮像表示装置110との間の相対速度を算出する。そして、角度計測部601は、交点角度が前述した所定の角度閾値以下であり、且つ相対速度が所定の速度閾値以上である場合に、その旨を表示変更部107に通知する。この通知を受けた表示変更部107は、前述同様に計測対象仮想物体204の表示方法を変更させる。
第2の実施形態の変形例によれば、MR体験者の視線方向に対して所定の閾値角度以下となる方向から向かってくる仮想物体が、所定の速度閾値以上で近づいてくる場合に、その仮想物体の表示方法を変更することが可能となる。これにより、第2の実施形態の変形例においても、MR体験者が自身で動きを予測できない仮想物体によるMR体験の阻害を防ぐことができる。
なお第2の実施形態の変形例の場合、MR体験者の視線方向に対して所定の閾値角度以下となる方向から向かってくる仮想物体であっても、その接近速度が所定の速度閾値未満である場合には当該仮想物体の表示方法は変更されない。つまり、接近速度が遅い仮想物体の場合、MR体験者が自身で動きを予測し易く、MR体験が阻害される可能性が低いため、接近速度が所定の速度閾値未満である仮想物体については表示方法を変更しないようする。
<第3の実施形態>
第3の実施形態では、MR体験者のHMDの画面内における計測対象仮想物体の画面占有率に基づいて計測対象物体の表示方法を変更する例について説明する。
図8は第3の実施形態における情報処理装置800と撮像表示装置110の構成例を示した図である。図8において、図1と同じ構成要素には図1と同一の参照符号を付して、それらの詳細な説明は適宜省略する。また第3の実施形態においても前述の図2に示したMR体験例に挙げて説明する。
第3の実施形態の情報処理装置800において、画像取得部104は、撮像部111から取得した撮像画像を占有率計測部801に送出する。
占有率計測部801は、画像取得部104を介して取得した撮像画像と、仮想物体生成部102で生成された計測対象仮想物体204を含む各仮想物体とから、表示部112の画面内で計測対象仮想物体204が占める割合(以下、画面占有率とする)を算出する。なお、占有率計測部801は、画面占有率を公知の方法により計測する。例えば、占有率計測部801は、画面占有率を、画面内における総画素数に対する計測対象仮想物体204の画素数から求めてもよいし、画面の面積に対する計測対象仮想物体204の面積から求めてもよい。そして、占有率計測部801は、計測対象仮想物体204の画面占有率が、予め設定された所定の占有率閾値以上である場合に、その旨を表示変更部107に通知する。すなわち、計測対象仮想物体の画面占有率が大きい場合、その計測対象仮想物体がMR体験者201に対して与える影響は大きいと言える。このため、第3の実施形態では、計測対象仮想物体の画面占有率が所定の占有率閾値以上である場合に、その旨を表示変更部107に通知する。
そして、第3の実施形態の表示変更部107は、その通知を受けると、合成画像生成部108における計測対象仮想物体204の表示方法を変更する。表示方法の変更は、第1の実施形態の例と同様とする。
図9は、第3の実施形態の情報処理装置800における情報処理の流れを示したフローチャートである。図9のフローチャートにおいて、前述した図5のフローチャートと同じ処理ステップには図5と同一の参照符号を付して、それらの説明は適宜省略する。ステップS501からS503までの処理は前述同様であり、第3の実施形態の場合、ステップS503の処理後、ステップS505の処理に進む。そして、ステップS505において、計測対象フラグが「1」でないと判定された場合にはステップS509の処理に進み、一方、計測対象フラグが「1」であると判定された場合にはステップS901の処理に進む。
ステップS901に進むと、占有率計測部801は、表示部112の画面に対する計測対象仮想物体204の画面占有率を計測し、その画面占有率の情報を計測対象仮想物体204のデータに付加する。
次にステップS902において、占有率計測部801は、ステップS901で求めた画面占有率が、予め設定した所定の占有率閾値以上であるか否かを判定する。そして、画面占有率が占有率閾値以上であると判定した場合、占有率計測部801はその旨を表示変更部107に通知し、その後、情報処理装置800の処理はステップS508に進む。一方、画面占有率が占有率閾値未満であると判定された場合、情報処理装置800の処理はステップS509に進む。ステップS508とステップS509の処理は前述同様である。
以上により、第3の実施形態においては、撮像表示装置110の表示部112の画面内での計測対象仮想物体の画面占有率が所定の占有率閾値以上である場合、その計測対象仮想物体の表示方法を変更することが可能となる。これにより、第3の実施形態によれば、MR体験者が自身で動きを予測できない仮想物体によるMR体験の阻害を防ぐことができることになる。
<第3の実施形態の変形例>
前述した例では、計測対象仮想物体が画面内で占める割合である画面占有率を基に
表示方法を変更するか否か判定する例を挙げたが、変形例として、画面占有率の絶対量ではなく、画面占有率の変化量を、表示方法を変更するか否かの判定条件としてもよい。
この変形例の場合、占有率計測部801は、前フレームにおける画面占有率と現フレームにおける画面占有率との差分から、計測対象仮想物体204の画面占有率の変化量を算出する。そして、占有率計測部801は、画面占有率の変化量が所定の変化量閾値以上である場合に、その旨を表示変更部107に通知する。例えば、前フレームでの画面占有率よりも現フレームの画面占有率が大きくなり、その際の画面占有率の変化量が所定の変化量閾値以上になった時に、そのことを表示変更部107に通知する。或いは逆に、前フレームでの画面占有率よりも現フレームの画面占有率が小さくなり、その際に画面占有率の変化量が所定の変化量閾値以上になった時に、そのことを表示変更部107に通知してもよい。なお、MR体験者が予測できない仮想物体によるMR体験の阻害を防ぐという観点からは、前フレームより現フレームの画面占有率が大きくなる際の変化量が変化量閾値以上になる場合に、表示変更部107への通知を行うことが望ましい。つまり、計測対象仮想物体がMR体験者201に近づいた場合、当該計測対象仮想物体の画面占有率は大きくなるため、その際の画面占有率の変化量が変化量閾値以上になった時に表示変更部107への通知を行うようにする。このような通知を受けた表示変更部107は、前述同様に計測対象仮想物体204の表示方法を変更させる。
第3の実施形態の変形例によれば、計測対象仮想物体の画面占有率が画面内で大きく変化する場合に、その仮想物体の表示方法を変更することが可能となる。これにより、第2の実施形態の変形例においても、MR体験者が自身で予測できない仮想物体によるMR体験の阻害を防ぐことができる。
<ハードウェア構成例>
図10は、前述した各実施形態における情報処理装置の実装が可能なハードウェア構成例を示した図である。
図10において、CPU1010は、バス1000を介して接続する各デバイスを統括的に制御する。CPU1010は、読み出し専用メモリ(ROM)1020に記憶された処理ステップやプログラムを読み出して実行する。オペレーティングシステム(OS)をはじめ、本実施形態に係る各情報処理プログラム、デバイスドライバ等は、ROM1020に記憶されており、ランダムアクセスメモリ(RAM)1030に一時記憶され、CPU1010によって適宜実行される。また、入力I/F1040は、外部の装置(例えば撮像表示装置110の撮像部111や不図示の操作装置など)からの信号を各実施形態の情報処理装置が処理可能な形式で入力する。また、出力I/F1050は、外部の装置(例えば撮像表示装置110の表示部112)が処理可能な形式で信号を出力する。これらの各機能部は、CPU1010が、ROM1020に格納されたプログラムをRAM1030に展開し、前述した各実施形態に係るフローチャートに従った処理を実行することで実現されている。また例えば、CPU1010を用いたソフトウェア処理の代替としてハードウェアを構成する場合には、ここで説明する各機能部の処理に対応させた演算部や回路を構成すればよい。
また前述した各実施形態の情報処理装置における各機能部は、全てがハードウェアにより実装されてもよいし、一部がソフトウェアによって実行されてもよい。ソフトウェアによって実行される場合には、図9のCPU1010、ROM1020及びRAM1030等を用いて該ソフトウェアが実行される。
以上、本発明の各実施形態について説明したが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。上述の各実施形態の一部を適宜組み合わせることも可能である。
例えば第1〜第3の実施形態では、距離、角度、速度、画面占有率等の何れかを用いて計測対象仮想物体の表示方法を変更するか否かを判定したが、距離、角度、速度、画面占有率等の二つ以上を組み合わせて表示方法を変更するか否かの判定が行われてもよい。
また例えば、撮像表示装置110は、MR体験者の頭部に装着されて、撮像部111と表示部112とがMR体験者の眼の付近に配置されたHMDであったが、それらの物理的な配置は限定されず、タブレットやスマートフォン等のハンドヘルド型であってもよい。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける一つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
上述の実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明は、その技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
100:情報処理装置、110:撮像表示装置、101:対象設定部、102:仮想物体生成部、104:画像取得部、105:位置姿勢取得部、106:距離計測部、107:表示変更部、108:合成画像生成部、109:合成画像出力部

Claims (18)

  1. 1以上の仮想物体を表示可能な表示装置の、所定の空間内における位置姿勢を取得する取得手段と、
    前記表示装置の前記位置姿勢と、前記所定の空間内における前記1以上の仮想物体のうち、対象仮想物体の位置姿勢とに基づいて、前記表示装置における前記対象仮想物体の表示方法を変更する制御手段と、
    を有することを特徴とする情報処理装置。
  2. 前記制御手段は、前記表示装置の位置姿勢と前記対象仮想物体の位置姿勢とを基に、前記所定の空間内における前記表示装置と前記対象仮想物体との間の距離を取得し、前記距離に基づいて、前記仮想物体の表示方法を変更することを特徴とする請求項1に記載の情報処理装置。
  3. 前記制御手段は、前記距離が所定の距離閾値以下になった場合に、前記対象仮想物体の表示方法の変更を行うことを特徴とする請求項2に記載の情報処理装置。
  4. 前記所定の距離閾値は複数の異なる距離閾値からなり、
    前記制御手段は、前記距離が前記異なる距離閾値以下になる毎に、前記対象仮想物体の表示方法を異なる表示方法に変更することを特徴とする請求項3に記載の情報処理装置。
  5. 前記制御手段は、前記表示装置の位置姿勢と前記対象仮想物体の位置姿勢とを基に、前記所定の空間内における前記表示装置の表示方向と前記所定の空間内における前記対象仮想物体の移動方向とを取得し、前記表示方向と前記移動方向とが成す角度に基づいて、前記表示装置における前記対象仮想物体の表示方法を変更することを特徴とする請求項1から請求項4のいずれか1項に記載の情報処理装置。
  6. 前記制御手段は、前記角度が所定の角度閾値以下になった場合に、前記仮想物体の表示の変更を行うことを特徴とする請求項5に記載の情報処理装置。
  7. 前記制御手段は、前記所定の空間内における前記対象仮想物体の位置姿勢の変化から前記仮想物体の移動速度をさらに取得し、前記対象仮想物体の移動速度を基に前記表示装置における前記仮想物体の表示方法を変更することを特徴とする請求項5または請求項6に記載の情報処理装置。
  8. 前記制御手段は、前記角度が所定の角度閾値以下で、かつ前記移動速度が所定の速度閾値以上である場合に、前記対象仮想物体の表示方法の変更を行うことを特徴とする請求項7に記載の情報処理装置。
  9. 前記制御手段は、前記表示装置の画面に対する前記対象仮想物体の大きさを基に、前記表示装置における前記対象仮想物体の表示方法を変更することを特徴とする請求項1から請求項8のいずれか1項に記載の情報処理装置。
  10. 前記制御手段は、前記表示装置の画面に対する前記対象仮想物体の占有率を取得し、前記占有率が所定の占有率閾値以上である場合に、前記対象仮想物体の表示方法の変更を行うことを特徴とする請求項9に記載の情報処理装置。
  11. 前記制御手段は、前記表示装置の画面に対する前記対象仮想物体の占有率を取得し、前記占有率の変化量が所定の変化量閾値以上である場合に、前記対象仮想物体の表示方法の変更を行うことを特徴とする請求項9に記載の情報処理装置。
  12. 前記表示方法の変更の対象になる前記対象仮想物体を設定する対象設定手段を有することを特徴とする請求項1から請求項11のいずれか1項に記載の情報処理装置。
  13. 前記対象設定手段は、ユーザにより指定された仮想物体、若しくは、所定の大きさ以上の面積を持つ仮想物体を、前記対象仮想物体として設定することを特徴とする請求項12に記載の情報処理装置。
  14. 前記対象設定手段は、前記対象仮想物体に対して、表示方法の変更の対象であることを示す所定の属性を設定することを特徴とする請求項12または請求項13に記載の情報処理装置。
  15. 前記制御手段は、前記表示装置に表示される前記対象仮想物体の透明度を変更することを特徴とする請求項1から請求項14のいずれか1項に記載の情報処理装置。
  16. 前記所定の空間は現実空間と仮想空間とを融合した三次元の複合現実感空間であり、
    前記表示装置には前記現実空間を撮像した画像に前記1以上の仮想物体を合成した合成画像が表示されることを特徴とする請求項1から請求項15のいずれか1項に記載の情報処理装置。
  17. 情報処理装置が実行する情報処理方法であって、
    1以上の仮想物体を表示可能な表示装置の、所定の空間内における位置姿勢を取得する取得工程と、
    前記表示装置の前記位置姿勢と、前記所定の空間内における前記1以上の仮想物体のうち、対象仮想物体の位置姿勢とに基づいて、前記表示装置における前記対象仮想物体の表示方法を変更する制御工程と、
    を有することを特徴とする情報処理方法。
  18. コンピュータを請求項1から請求項16のいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラム。
JP2020031845A 2020-02-27 2020-02-27 ヘッドマウントディスプレイ、制御方法、情報処理装置、情報処理方法、およびプログラム Active JP7413077B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020031845A JP7413077B2 (ja) 2020-02-27 2020-02-27 ヘッドマウントディスプレイ、制御方法、情報処理装置、情報処理方法、およびプログラム
US17/185,657 US11527020B2 (en) 2020-02-27 2021-02-25 Information processing apparatus, information processing method, and storage medium
US18/055,654 US20230083677A1 (en) 2020-02-27 2022-11-15 Information processing apparatus, information processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020031845A JP7413077B2 (ja) 2020-02-27 2020-02-27 ヘッドマウントディスプレイ、制御方法、情報処理装置、情報処理方法、およびプログラム

Publications (3)

Publication Number Publication Date
JP2021135776A true JP2021135776A (ja) 2021-09-13
JP2021135776A5 JP2021135776A5 (ja) 2023-03-03
JP7413077B2 JP7413077B2 (ja) 2024-01-15

Family

ID=77464187

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020031845A Active JP7413077B2 (ja) 2020-02-27 2020-02-27 ヘッドマウントディスプレイ、制御方法、情報処理装置、情報処理方法、およびプログラム

Country Status (2)

Country Link
US (2) US11527020B2 (ja)
JP (1) JP7413077B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023135941A1 (ja) * 2022-01-17 2023-07-20 ソニーグループ株式会社 情報処理装置、および情報処理システム、並びに情報処理方法
WO2023199626A1 (ja) * 2022-04-14 2023-10-19 株式会社Nttドコモ 表示制御装置

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230154126A1 (en) * 2021-11-15 2023-05-18 International Business Machines Corporation Creating a virtual object response to a user input

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4642538B2 (ja) 2005-04-20 2011-03-02 キヤノン株式会社 画像処理方法および画像処理装置
US9477303B2 (en) * 2012-04-09 2016-10-25 Intel Corporation System and method for combining three-dimensional tracking with a three-dimensional display for a user interface
JP6049452B2 (ja) * 2012-12-29 2016-12-21 キヤノン株式会社 情報表示装置、情報表示システム、それらの制御方法、及びプログラム
EP2953099B1 (en) * 2013-02-01 2019-02-13 Sony Corporation Information processing device, terminal device, information processing method, and programme
JP5824537B2 (ja) * 2014-01-16 2015-11-25 キヤノン株式会社 情報処理装置および情報処理方法
JP6501501B2 (ja) * 2014-11-12 2019-04-17 キヤノン株式会社 情報処理装置、情報処理方法、情報処理システム及びプログラム
JP6416338B1 (ja) 2017-07-13 2018-10-31 株式会社コロプラ 情報処理方法、情報処理プログラム、情報処理システムおよび情報処理装置
JP6509399B1 (ja) 2018-03-29 2019-05-08 株式会社コロプラ プログラム、情報処理装置、および方法
JP6722727B2 (ja) 2018-08-21 2020-07-15 株式会社カプコン 表示システム
WO2020068861A1 (en) * 2018-09-28 2020-04-02 Ocelot Laboratories Llc Transferring a virtual object in an enhanced reality setting
US11205008B2 (en) * 2019-05-07 2021-12-21 Intel Corporation Methods and apparatus for invoking a security feature of a computing device display in response to detecting an onlooker based on depth data

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023135941A1 (ja) * 2022-01-17 2023-07-20 ソニーグループ株式会社 情報処理装置、および情報処理システム、並びに情報処理方法
WO2023199626A1 (ja) * 2022-04-14 2023-10-19 株式会社Nttドコモ 表示制御装置

Also Published As

Publication number Publication date
US11527020B2 (en) 2022-12-13
US20210272329A1 (en) 2021-09-02
US20230083677A1 (en) 2023-03-16
JP7413077B2 (ja) 2024-01-15

Similar Documents

Publication Publication Date Title
JP4500632B2 (ja) 仮想現実感提示装置および情報処理方法
JP5996814B1 (ja) 仮想空間の画像をヘッドマウントディスプレイに提供する方法及びプログラム
JP5871345B2 (ja) 3次元ユーザインタフェース装置及び3次元操作方法
JP5845211B2 (ja) 画像処理装置、画像処理方法
JP6097377B1 (ja) 画像表示方法及びプログラム
WO2014016987A1 (ja) 3次元ユーザインタフェース装置及び3次元操作方法
JP6087453B1 (ja) 仮想空間の提供方法、およびプログラム
CN110300994B (zh) 图像处理装置、图像处理方法以及图像***
JP2021135776A (ja) 情報処理装置、情報処理方法、およびプログラム
JP5869712B1 (ja) 没入型仮想空間に実空間のユーザの周辺環境を提示するためのヘッドマウント・ディスプレイ・システムおよびコンピュータ・プログラム
KR20150085797A (ko) 정보처리장치 및 정보처리방법
JP2019008623A (ja) 情報処理装置、及び、情報処理装置の制御方法、コンピュータプログラム、記憶媒体
US11521346B2 (en) Image processing apparatus, image processing method, and storage medium
US20220147138A1 (en) Image generation apparatus and information presentation method
JP2022058753A (ja) 情報処理装置、情報処理方法及びプログラム
US11474595B2 (en) Display device and display device control method
JP6726016B2 (ja) 情報処理装置、情報処理方法
JP4689344B2 (ja) 情報処理方法、情報処理装置
JP2018063567A (ja) 画像処理装置、画像処理方法およびプログラム
JP2005251118A (ja) 画像処理方法、画像処理装置
JP2019045997A (ja) 情報処理装置及びその方法、プログラム
JP2016058043A (ja) 情報処理装置、情報処理方法、プログラム
WO2023048018A1 (ja) 表示装置、表示装置の制御方法およびプログラム
JP2017097918A (ja) 画像表示方法及びプログラム
US20240135660A1 (en) Information processing apparatus and information processing method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230222

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230222

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230508

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230727

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230829

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231026

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231128

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231227

R151 Written notification of patent or utility model registration

Ref document number: 7413077

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151