JP7451084B2 - 情報処理装置および情報処理方法 - Google Patents

情報処理装置および情報処理方法 Download PDF

Info

Publication number
JP7451084B2
JP7451084B2 JP2019020355A JP2019020355A JP7451084B2 JP 7451084 B2 JP7451084 B2 JP 7451084B2 JP 2019020355 A JP2019020355 A JP 2019020355A JP 2019020355 A JP2019020355 A JP 2019020355A JP 7451084 B2 JP7451084 B2 JP 7451084B2
Authority
JP
Japan
Prior art keywords
information processing
virtual object
circle
point
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019020355A
Other languages
English (en)
Other versions
JP2020129167A (ja
Inventor
貴紀 勝俣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019020355A priority Critical patent/JP7451084B2/ja
Priority to US16/784,158 priority patent/US20200258193A1/en
Publication of JP2020129167A publication Critical patent/JP2020129167A/ja
Application granted granted Critical
Publication of JP7451084B2 publication Critical patent/JP7451084B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/20Linear translation of whole images or parts thereof, e.g. panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/60Rotation of whole images or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、表示装置に仮想物体を含む画像を表示させる情報処理装置に関する。
近年、現実空間と仮想空間とのつなぎ目のない結合を目的とした、複合現実感(Mixed Reality:MR)システムの研究が盛んに行われている。これらのシステムの提示を行う画像表示装置は、たとえば頭部装着型ディスプレイ(Head Mount Display:HMD)を用いることができる。
現実空間と仮想物体が複合したMR空間では、図6のように、ユーザーが手に持った操作デバイス6100から出力される仮想レーザー6200を用いて、仮想物体6300を選択し、任意の方向へ動かすなど、配置を操作する技術が知られている。例として、特許文献2では仮想空間内に直交座標の格子を作成し、その格子上に仮想物体を再配置する方法が提案されている。
さらに、特許文献1では世界座標系XYZ軸のうち、自動で任意の軸を選択し、移動方向をその軸に拘束することで、HMD装着者による仮想物体の操作性を向上させる技術が公開されている。
特開2017-84323号公報 特開平11-316858号公報
特許文献1の方法は、ユーザーのアップ方向、視線方向、前記二つと垂直の方向、いずれかを基準とし、その基準軸と成す角が、一番小さい世界座標系の軸が拘束軸となる方法である。この方法は拘束軸が世界座標系の軸に限定されるため、仮想物体のローカル座標の軸に沿って移動したい場合には対応できない。また、事前に拘束軸の指定方法を設定する必要があるため、操作に慣れていないユーザーには向いておらず、仮想物体のローカル座標に沿った移動は困難である。本発明は、上記課題を鑑みてなされたものであり、表示装置に仮想物体を含む画像を表示させる情報処理装置において、操作軸を用いた仮想物体の移動を容易に行うことを目的とする。
上記課題を解決するために、本発明は、ユーザーが観察する画像を表示する表示装置に、仮想物体を含む画像を表示させる情報処理装置であって、前記ユーザーの操作に基づき、前記仮想物体を操作するための操作点を、前記仮想物体に設定する設定手段と、前記操作点の位置に基づき、前記仮想物体を回転移動する際に用いる操作を生成する生成手段と、前記操作円に沿って、前記仮想物体を回転移動させる移動手段と、を有し、前記生成手段は、前記仮想物体の中心と前記操作点との距離を半径とするを前記操作として生成することを特徴とする。
本発明によれば、表示装置に仮想物体を含む画像を表示させる情報処理装置において、操作軸を用いた仮想物体の移動を容易に行うことが出来る。
本実施形態に係るシステムの機能構成例を示すブロック図である。 本実施形態に係る情報処理装置において、操作開始点を算出するための処理を示すフローチャートである。 本実施形態に係る情報処理装置において、操作軸を生成するための処理を示すフローチャートである。 本実施形態に係る情報処理装置において、操作基準軸を生成し、操作を実行する処理のフローチャートである。 本実施形態に係る情報処理装置において、操作開始点を算出するための処理を模式的に示したものである。 本実施形態に係る情報処理装置において、操作基準軸を生成し、操作を実行する処理を模式的に示したものである。 複合現実感システムにおける、仮想物体の操作を示す概略図である。
(実施形態)
図7は、仮想空間上のCGモデル(コンピュータグラフィックスモデル)を外部デバイスで移動した際の模式図である。図1は、本実施形態にかかわるシステムの機能構成例を示すブロック図である。図1に示すように、本実施形態に係るシステムは、情報処理装置1000と、ユーザーが使用する頭部装着型表示装置の一例としてHMD1200と、ユーザーからのイベントを入力するイベント入力部1300で構成されている。
HMD120(ヘッドマウントディスプレイ)には表示装置が内蔵されており、ユーザーは表示装置に表示された映像を観察する。また、情報処理装置1000は、一般的なパーソナルコンピュータと同様の構成および機能を有し、以下の構成を有する。すなわち、仮想情報取得部1010、操作開始点算出部1020、操作軸生成部1030、操作基準軸設定部1040、操作信号処理部1050、仮想空間生成部1060、撮像画像取得部1070、合成画像生成部1080、合成画像出力部1090である。
ここで、情報処理装置1000とHMDとはデータ通信が可能なように接続されている。情報処理装置1000とHMD1200との間の接続は、有線、無線の何れであっても構わない。本実施形態における情報処理装置1000は、HMD1200内の撮像部1210から撮像画像取得部1070を介して取り込んだ現実空間の画像と仮想物体の画像とを合成し、複合現実感の画像としてHMD1200内の表示部1220に出力する。
次に、情報処理装置1000における動作を説明する。
撮像部1210は現実空間を撮影し、撮影したステレオ画像を撮像画像取得部1070に取り込む。撮影されたステレオ画像は合成画像生成部1080にて仮想空間生成部1060で生成されたCGモデルの画像と合成して表示部1220に合成画像として表示される。
仮想情報取得部1010では、撮像部1210の事前に定めた世界座標に対する位置姿勢を取得する。撮像部1210の位置姿勢が取得できれば、その手段は、撮像部1210によって実空間に配置されたマーカーを撮像し、この画像中のマーカーの情報から、撮像部1210の位置姿勢を算出する手法がある。また、モーションキャプチャシステムを利用する方法や、撮像した画像を用いたSimultaneous Localization and Mapping(SLAM)を利用する方法など、他の方法でも良い。
操作開始点算出部1020では、世界座標系における、操作を行う実空間のオブジェクト7100の座標とCGモデルから、CGモデル7300の操作を開始する操作開始点を算出する。前記現実空間のオブジェクト7100は、HMD1200から3次元座標と姿勢を特定できる構成であればよい。例えば、撮像部1210で取得した実空間のオブジェクトの2枚の画像からそれぞれ輪郭を抽出し、これらをステレオマッチングすることで、3次元輪郭を構成する各頂点の3次元座標群を算出する方法などが知られている。また、ユーザーが片手で持てるサイズの棒状物体の頂点に、仮想レーザーCGを重畳した構成からなるデバイスを用いてもよい。また、仮想空間を操作するコントローラーデバイスからの入力を用いてもよい。前記頂点を、CGモデルを選択、操作する際の操作点と定義すると、操作点と仮想空間上のCGのモデル7300とが接触していた場合に、CGモデル上に操作開始点を生成する。
仮想空間上のCGモデルを外部デバイスで移動した際の模式図である図7では、外部デバイス7100の位置情報から、仮想レーザー7200を生成し、そのレーザーの先端を操作点としている。この場合、操作点がCGモデル7300を選択し、外部デバイス7100によってトリガーが入力されると、その時点での操作点位置が操作開始点として、CGモデルを把持した処理が実行され、任意の位置にCGモデルを移動することが可能である。
本件はこの移動の際に、操作開始点と操作軸を用いることで、よりユーザビリティの高いCG操作方法を提供する。
操作軸生成部1030では、仮想情報取得部1010と操作開始点算出部1020と位置姿勢情報から、所定の設定に基づきに基づき操作軸を生成する。この操作軸は、CGモデルを移動させるときユーザビリティを向上させる目的で、移動方向に制限をかけるためにユーザーに対し表示するものであり、CGモデルはこの軸に沿った移動をするよう処理される。所定の設定とは、例えば世界座標系における、XYZ軸各正負方向の全6方向であってもよいし、6方向のうちの任意の一方であってもよい。また直線移動の操作軸に制限せず、回転移動の操作としてもよい。操作円の半径は、例えば、操作開始点と接触しているCGモデルの中心と、操作開始点との距離する。操作円の中心は、CGモデルの中心を原点としたXYZ軸各正負方向の全6方向の操作軸する。XYZ軸各正負方向の6方向のうちの任意の一方を操作円の中心としてもよい。
また3次元空間内の個々のオブジェクトがもつ座標系であるローカル座標系に対するXYZ軸各正負方向の全6方向であってもよいし、6方向のうちの任意の一方であってもよい。
所定の機能を実行するトリガー信号が入力された場合に操作開始点を原点とした操作軸は生成される。本実施形態では、コントローラーデバイスによるボタン押下をトリガー信号入力例として説明するが、操作点の時系列的な位置変化に基づくジェスチャーや、ボタン以外のユーザーインタフェースコントロールによって信号を生成してもよい。
操作基準軸設定部1040は、操作開始点の位置や動き、操作開始点とCGモデルやユーザーインタフェースコントロールとの相対的な位置や動きに基づいて、前記操作軸のうち、操作方向の基準となる操作基準軸を一方向決定する。操作方向は、例えば、操作開始点と現フレームの操作点の座標の差分を取り、XYZ軸方向で最も移動距離が大きい方向とする。この操作方向をこの操作基準軸とし、操作基準軸に沿った一意の方向にのみCGモデルの移動を可能とする。
操作信号処理部1050は、前記操作基準軸の方向と操作点の位置変化方向によって、所定の機能を実行する信号を生成する。本実施形態では、操作点の時系列的な位置変化と、操作基準軸の方向に基づき移動操作の信号を生成する例について説明する。
仮想空間生成部1060では、MR空間に表示するCGモデルや、操作開始点の位置をユーザーに知らせるためのポインターのCGモデル、操作開始点を基準に表示される操作基準軸のCGモデルのデータが保持されている。前記データに加え、前記操作信号によって生じた処理結果等を、撮像画像取得部1070の位置姿勢情報を用いて、実空間のステレオ画像と整合的な視点からレンダリングする。
合成画像生成部1080では、実空間のステレオ画像と仮想空間生成部1060で生成した画像を合成する。このとき、操作点を抽出する実空間のオブジェクトにおいては、その3次元輪郭情報を利用して、CGモデルとの奥行き方向の隠蔽関係が整合性をもって合成される。
合成画像出力部1090は合成画像生成部1080で生成された合成画像を表示部1220に送信し体験者に提示する。本実施形態では、HMD1200に内蔵されたディスプレイを用いる。
<処理の手順および詳細>
次に、操作開始点を算出するため操作開始点算出部1020の一連の処理を、同処理のフローチャートを示す図2を用いて説明する。また、同処理を模式的に表したものを図5A、図5Bに示す。
ステップS2100は、操作を行う実空間のオブジェクト6100の頂点座標を取得する。撮像画像取得は背景画像、撮像装置の位置、姿勢情報を取得し、実空間オブジェクトに仮想レーザーデバイス5010を重畳し、仮想物体の表示位置を取得する。実空間オブジェクトを検出する手段は、マーカーの特徴点を検出するような画像処理による手段でも構わないし、位置姿勢センサーの位置情報からユーザーを検出する方法でも構わない。
ステップS2200では、撮像画像から得られる、仮想レーザーデバイス5010の複数の奥行き情報の対応点から、所定の特徴に基づき操作点を選択する。奥行情報は、例えば、まずステレオ画像のうち1つの画像上の輪郭線上のサンプリング点に対応するエピポーラ線を、他方のステレオ画像に投影し、エピポーラ線と輪郭線が交わる点を対応点とする。この輪郭線上のサンプリング点を複数決定し、輪郭線上に複数の対応点を求める輪郭線上にある複数の対応点を三角測量によって奥行を算出する方法が知られている。
本実施形態では、対応点を取得した画像に射影した場合の先端の座標値を有する対応点を操作点とする。
ステップS2300では、ステップS2200で選択した操作点をHMD姿勢情報に基づいて世界座標上へ座標変換する。
ステップS2400では、操作点と仮想空間上のCGモデル5300の接触判定を実施する。本実施形態では、3次元点である操作点とポリゴン面で構成されるCGモデル5030の接触を判定するため、前フレームの操作点の位置と現フレームの操作点の位置を線分で結ぶ。この線分とCGモデル5300のポリゴンの交点が存在した場合に、接触したと判断する。この他に、操作点に対し、所定の三次元領域を定め、この三次元領域を構成する面や線分とCGモデル5030の交点の存在有無から判断する方法を用いてもよい。接触していると判定された場合に、前記操作点を操作開始点5020とし、仮想空間生成部1060で操作ポインターをレンダリングする。
次に、操作軸を生成するため、操作軸生成部1030の一連の処理を、同処理のフローチャートを示す図3と、を図5A、図5Bを用いて説明する。
ステップS3100では、CGモデル5300を選択するコントローラーデバイスからのトリガー信号の入力を認識する。
ステップS3200では、あらかじめ設定された操作軸5040の設定を読み込む。この設定は、例えば、表示する軸は、XYZの3軸すべてか、ある一意の方向か、あるいは、世界座標系かCGモデル5300のローカル座標系か、といったものである。
ステップS3300では、前記操作開始点5020と前記操作軸5040の設定に基づき、前記操作開始点5020を原点とした操作軸5040を生成する。実施例では世界座標系における、XYZ軸各正負方向の6方向を生成している。図5Aでは、CGモデル5030を軸に沿った直線移動を行う場合の軸の表示を示しており、図4Bでは軸に沿った回転を行う場合の軸表示の例を示すものである。図5Bの操作軸5050は、操作点と接触しているCGモデル5300の中心と、操作開始点5020との距離を半径とした円を表示しており、このに沿った回転が可能となることを示す。
次に、操作基準軸を算出するための一連の処理を、同処理のフローチャートを示す図4を用いて説明する。また、同処理を模式的に表したものを図6A、図6Bに示す。
ステップS4100では操作開始点5020の位置と現フレームの操作点6010の位置の差分を取得し、CGモデル5300の移動の有無を判断する。CGモデル5300の移動を判断する差分量は、0以上であったらでもよいし、事前に閾値を設定してもよい。例えば、操作基準軸6050に基づいた回転を行う場合、どの軸周りに回転するかについて、ユーザーの意図せぬ軸の選択の抑制を考慮し、以下のようなルールを設定してもよい。図におけるXYZの3つの円周上において、現フレームにおける操作点6010と、操作開始点5020までの距離が30mm内の時には、前述の操作点6010が最も近い点が属する円の軸が選択されるようにし、他の円の軸への遷移を防ぐことが可能である。
ステップ4200では、現フレームの操作点の位置から操作軸5040までの距離を算出し、最も近い軸を操作基準軸6040とする。図6Aでは、X軸方向に移動した際の、図6BではZ軸を操作基準軸とした際の回転操作例を示している。このとき、操作開始点5020と、操作基準軸上の現フレームの操作点との距離を、CGモデル5300を移動、または回転した距離としてレンダリングしてもよい。
上記実施例は、MR空間におけるCGモデル操作について記述したが、操作デバイスによって仮想空間の操作が可能な、VRでも使用可能である。
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。

Claims (11)

  1. ユーザーが観察する画像を表示する表示装置に、仮想物体を含む画像を表示させる情報処理装置であって、
    前記ユーザーの操作に基づき、前記仮想物体を操作するための操作点を、前記仮想物体に設定する設定手段と、
    前記操作点の位置に基づき、前記仮想物体を回転移動する際に用いる操作を生成する生成手段と、
    前記操作円に沿って、前記仮想物体を回転移動させる移動手段と、を有し、
    前記生成手段は、前記仮想物体の中心と前記操作点との距離を半径とするを前記操作として生成することを特徴とする情報処理装置。
  2. 前記表示装置に、前記操作円を表示させることを特徴とする請求項1に記載の情報処理装置。
  3. 前記移動手段は、前記操作点の移動に応じて、前記操作円に沿って、前記仮想物体を回転移動させることを特徴とする請求項1に記載の情報処理装置。
  4. 前記生成手段は、複数の操作円を生成し
    前記移動手段は、前記操作点の位置に応じて、前記複数の操作円から1つの操作円を選択することを特徴とする請求項3に記載の情報処理装置。
  5. 前記生成手段は、3つの操作円を生成することを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。
  6. 前記仮想物体を含む画像は、前記仮想物体と現実空間の画像との合成画像であることを特徴とする請求項1乃至5のいずれか1項に記載の情報処理装置。
  7. 前記設定手段は、前記ユーザーが操作する仮想ーザーと前記仮想物体との交点を、前記操作点として設定することを特徴とする請求項1乃至6のいずれか1項に記載の情報処理装置。
  8. 前記表示装置と前記情報処理装置との間は、無線で接続されていることを特徴とする請求項1乃至7のいずれか1項に記載の情報処理装置。
  9. 前記表示装置は、ヘッドマウントディスプレイであることを特徴とする請求項1乃至請求項8のいずれか1項に記載の情報処理装置。
  10. ユーザーが観察する画像を表示する表示装置に、仮想物体を含む画像を表示させる情報処理方法であって、
    設定手段が、前記ユーザーの操作に基づき、前記仮想物体を操作するための操作点を、前記仮想物体に設定する設定工程と、
    生成手段が、前記操作点の位置に基づき、前記仮想物体を回転移動する際に用いる操作を生成する生成工程と、
    移動手段が、前記操作円に沿って、前記仮想物体を回転移動させる移動工程と、を有し、
    前記生成工程では、前記仮想物体の中心と前記操作点との距離を半径とするを前記操作として生成することを特徴とする情報処理方法。
  11. 請求項10に記載の情報処理方法の各ステップをコンピュータに実行させるためのプログラム。
JP2019020355A 2019-02-07 2019-02-07 情報処理装置および情報処理方法 Active JP7451084B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019020355A JP7451084B2 (ja) 2019-02-07 2019-02-07 情報処理装置および情報処理方法
US16/784,158 US20200258193A1 (en) 2019-02-07 2020-02-06 Information processing apparatus, information processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019020355A JP7451084B2 (ja) 2019-02-07 2019-02-07 情報処理装置および情報処理方法

Publications (2)

Publication Number Publication Date
JP2020129167A JP2020129167A (ja) 2020-08-27
JP7451084B2 true JP7451084B2 (ja) 2024-03-18

Family

ID=71944622

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019020355A Active JP7451084B2 (ja) 2019-02-07 2019-02-07 情報処理装置および情報処理方法

Country Status (2)

Country Link
US (1) US20200258193A1 (ja)
JP (1) JP7451084B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11893153B2 (en) * 2019-04-23 2024-02-06 Maxell, Ltd. Head mounted display apparatus

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005107972A (ja) 2003-09-30 2005-04-21 Canon Inc 複合現実感提示方法、複合現実感提示装置
JP2016218916A (ja) 2015-05-25 2016-12-22 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
JP2019185431A (ja) 2018-04-11 2019-10-24 大日本印刷株式会社 表示システム、画像処理装置、およびプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005107972A (ja) 2003-09-30 2005-04-21 Canon Inc 複合現実感提示方法、複合現実感提示装置
JP2016218916A (ja) 2015-05-25 2016-12-22 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
JP2019185431A (ja) 2018-04-11 2019-10-24 大日本印刷株式会社 表示システム、画像処理装置、およびプログラム

Also Published As

Publication number Publication date
JP2020129167A (ja) 2020-08-27
US20200258193A1 (en) 2020-08-13

Similar Documents

Publication Publication Date Title
JP6057396B2 (ja) 3次元ユーザインタフェース装置及び3次元操作処理方法
JP6598617B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP5936155B2 (ja) 3次元ユーザインタフェース装置及び3次元操作方法
CN116719413A (zh) 用于操纵环境中的对象的方法
JP5871345B2 (ja) 3次元ユーザインタフェース装置及び3次元操作方法
JP5709440B2 (ja) 情報処理装置、情報処理方法
JP2008210276A (ja) 三次元モデル情報の生成方法及び装置
CN104794757A (zh) 信息处理设备和信息处理方法
JP2017027206A (ja) 情報処理装置、仮想オブジェクトの操作方法、コンピュータプログラム、及び記憶媒体
JP2005227876A (ja) 画像処理方法、画像処理装置
JP2019008623A (ja) 情報処理装置、及び、情報処理装置の制御方法、コンピュータプログラム、記憶媒体
JP7480388B2 (ja) ヘッドマウント情報処理装置
JP2017033294A (ja) 3次元描画システム及び3次元描画プログラム
JP2022058753A (ja) 情報処理装置、情報処理方法及びプログラム
JPWO2017122270A1 (ja) 画像表示装置
JP7451084B2 (ja) 情報処理装置および情報処理方法
CN109102571B (zh) 一种虚拟影像的控制方法、装置、设备及其存储介质
JP2018132319A (ja) 情報処理装置、及び、情報処理装置の制御方法、コンピュータプログラム、記憶媒体
JP7039216B2 (ja) 情報処理装置及びその方法、プログラム
WO2022176450A1 (ja) 情報処理装置、情報処理方法、およびプログラム
WO2019106862A1 (ja) 操作案内システム
US11960660B2 (en) Terminal device, virtual object manipulation method, and virtual object manipulation program
JP6800599B2 (ja) 情報処理装置、方法及びプログラム
CN111857364B (zh) 交互装置、虚拟内容的处理方法、装置以及终端设备
JP2005251118A (ja) 画像処理方法、画像処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220204

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230502

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230628

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231129

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20231213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240306

R151 Written notification of patent or utility model registration

Ref document number: 7451084

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151