JP7176520B2 - 情報処理装置、情報処理方法及びプログラム - Google Patents
情報処理装置、情報処理方法及びプログラム Download PDFInfo
- Publication number
- JP7176520B2 JP7176520B2 JP2019535599A JP2019535599A JP7176520B2 JP 7176520 B2 JP7176520 B2 JP 7176520B2 JP 2019535599 A JP2019535599 A JP 2019535599A JP 2019535599 A JP2019535599 A JP 2019535599A JP 7176520 B2 JP7176520 B2 JP 7176520B2
- Authority
- JP
- Japan
- Prior art keywords
- display
- virtual object
- user
- information processing
- processing apparatus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/80—2D [Two Dimensional] animation, e.g. using sprites
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
- G09G5/363—Graphics controllers
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
- G09G5/39—Control of the bit-mapped memory
- G09G5/391—Resolution modifying circuits, e.g. variable screen formats
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/36—Level of detail
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/62—Semi-transparency
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2320/00—Control of display operating conditions
- G09G2320/06—Adjustment of display parameters
- G09G2320/0686—Adjustment of display parameters with two or more screen areas displaying information with different brightness or colours
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/04—Changes in size, position or resolution of an image
- G09G2340/0407—Resolution change, inclusive of the use of different resolutions for different screen areas
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/04—Changes in size, position or resolution of an image
- G09G2340/0407—Resolution change, inclusive of the use of different resolutions for different screen areas
- G09G2340/0435—Change or adaptation of the frame rate of the video stream
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2360/00—Aspects of the architecture of display systems
- G09G2360/14—Detecting light within display terminals, e.g. using a single or a plurality of photosensors
- G09G2360/144—Detecting light within display terminals, e.g. using a single or a plurality of photosensors the light being ambient light
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Optics & Photonics (AREA)
- User Interface Of Digital Computer (AREA)
- Digital Computer Display Output (AREA)
- Image Generation (AREA)
- Studio Devices (AREA)
Description
1.本開示の実施形態に係る情報処理装置の概要構成
2.本開示の技術的背景
3.第1の実施形態
3.1.第1の実施形態に係る情報処理装置の詳細構成
3.2.第1の実施形態に係る仮想オブジェクトの表示例
3.3.第1の実施形態に係る情報処理方法
4.第2の実施形態
4.1.第2の実施形態に係る情報処理方法
4.2.第2の実施形態の変形例
5.第3の実施形態
5.1.第3の実施形態に係る情報処理方法
5.2.第3の実施形態の変形例
6.まとめ
7.ハードウェア構成について
8.補足
まず、本開示の実施形態に係る情報処理装置の概要について、図1を参照して説明する。図1は、本実施形態に係る情報処理装置1の概要構成を説明するための図である。図1に示すように、本実施形態に係る情報処理装置1は、例えば、ユーザ700の頭部に装着される眼鏡型のHMDにより実現される。すなわち、情報処理装置1は、ユーザ700に装着されるウェアラブル装置である。装着時にユーザ700の眼前に位置する眼鏡レンズ部分に相当する表示部16は、眼鏡レンズ部分の外側を視認することができる透過型、又は、眼鏡レンズ部分の外側を視認することができない非透過型ディスプレイであってもよい。なお、以下の説明においては、透過型ディスプレイの表示部16を持つHMDを「スマートアイグラス」と呼ぶ。
以上、本実施形態に係る情報処理装置1の概要について説明した。続いて、このような情報処理装置1における技術的背景を説明する。
以上、本開示の技術的背景について説明した。続いて、本開示の第1の実施形態について説明する。本実施形態においては、情報処理装置1は、仮想オブジェクトの表示処理量として仮想オブジェクトの表示位置を検知し、検知した表示位置に応じて、仮想オブジェクトの表示詳細度として表示解像度(表示のおける画素密度の指標)やエフェクト処理(表示に対して行う加工処理、例えば、シェーディング処理等)を動的変化させる。
まずは、本実施形態に係る情報処理装置1の詳細構成について図2を参照して説明する。図2は、本実施形態に係る情報処理装置1の詳細構成の一例を示すブロック図である。図2に示すように、情報処理装置1は、制御部10、センサ部12、記憶部14、表示部16、スピーカ18、通信部20、及び操作入力部22を主に有する。以下に、情報処理装置1の各機能部の詳細について説明する。
制御部10は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理装置1内の動作全般を制御する。制御部10は、例えばCPU、GPUといったマイクロプロセッサの電子回路によって実現される。また、制御部10は、使用するプログラムや演算パラメータ等を記憶するROM(Read Only Memory)、及び適宜変化するパラメータ等を一時記憶するRAM(Random Access Memory)等を含んでいてもよい。例えば、制御部10は、仮想オブジェクトの表示位置等に応じて、仮想オブジェクトの表示解像度等を動的に変化させるように制御する。詳細には、本実施形態に係る制御部10は、図2に示すように、情報取得部100、表示パラメータ計算部102、表示形式判断部104、及び出力制御部106として機能することができる。以下に、制御部10の各ブロックの詳細について説明する。
情報取得部100は、後述するセンサ部12により検知された検知結果を用いてユーザ700又は当該ユーザ700の周囲の各種状態に関する情報を取得することができる。具体的には、情報取得部100は、例えば、ユーザ700の姿勢や状態を認識するユーザ姿勢認識エンジン、ユーザ700周辺の実空間におけるデプス情報を認識するデプス認識エンジン、ユーザ700の位置を同定するSLAM(Simultaneous Localization And Mapping)認識エンジンを含むことができる。さらに、情報取得部100は、ユーザ700の視線検知を行う視線認識エンジン、ユーザ700又はユーザ700の周囲の環境音の認識を行う音声認識エンジン、及び、情報処理装置1(ユーザ700)の絶対位置を認識する位置認識エンジン等を含むこともできる。また、情報取得部100は、実空間における現実物体を認識する実オブジェクト認識エンジン等を含んでもよい。なお、これらの認識エンジンはあくまでも一例であり、本実施形態はこれに限定されるものではない。
表示パラメータ計算部102は、仮想オブジェクトの表示処理量の指標等を算出する。例えば、表示パラメータ計算部102は、情報取得部100が取得した、仮想オブジェクトの表示を行うアプリケーションで定義された、仮想オブジェクトの表示位置を用いて、ユーザ700からの仮想オブジェクトの表示位置までの距離を算出する。なお、本実施形態においては、表示パラメータ計算部102は、情報取得部100が取得した装置プロファイルを用いて、仮想オブジェクトの表示フレームレート等のような制御部10における処理の状態を示す指標等を算出してもよい。
表示形式判断部104は、表示パラメータ計算部102による算出結果に基づいて、仮想オブジェクトの表示詳細度(例えば、解像度等)を設定する。さらに、表示形式判断部104は、表示パラメータ計算部102による算出結果に基づいて、仮想オブジェクトに対して行う表示エフェクト処理(例えば、透明化、テクスチャ変更等)を設定する。なお、表示形式判断部104が表示詳細度等を設定する際に上記算出結果と比較する閾値等は、事前に仮想オブジェクトを表示する試験を行い、その表示により生じる、情報処理装置1における処理の負荷や、ユーザ700が感じる表示品質に基づいて決定される。
出力制御部106は、後述する表示部16に対して、表示形式判断部104の決定に基づいて仮想オブジェクトを表示させるように制御を行う。
センサ部12は、ユーザ700又はユーザ700の周辺環境(実空間)に関する各種情報を取得する機能を有する。例えば、センサ部12は、図2に示されるように、外向きカメラ120、内向きカメラ122、マイク124、ジャイロセンサ126、加速度センサ128、方位センサ130、位置測位部132、及び生体センサ134を主に含む。なお、上述したセンサは一例であり、本実施形態はこれに限定されるものではない。また、上述した各種センサは、センサ部12にそれぞれ複数設けられていてもよい。以下に、センサ部12に含まれる各センサの詳細について説明する。
先に説明したように、外向きカメラ120はユーザ700の周囲の実空間を撮像し、内向きカメラ122はユーザ700の表情等を撮像し、撮像情報を上述の制御部10に出力する。詳細には、外向きカメラ120及び内向きカメラ122は、撮像レンズ、絞り、ズームレンズ、及びフォーカスレンズ等により構成されるレンズ系、当該レンズ系に対してフォーカス動作やズーム動作を行わせる駆動系を有する。さらに、外向きカメラ120及び内向きカメラ122は、上記レンズ系で得られる撮像光を光電変換して撮像信号を生成する固体撮像素子アレイ等をそれぞれ有する。なお、当該固体撮像素子アレイは、例えばCCD(Charge Coupled Device)センサアレイや、CMOS(Complementary Metal Oxide Semiconductor)センサアレイにより実現されてもよい。
マイク124は、ユーザ700の音声や周囲の環境音を収音し、収音した音声情報を制御部10に出力する。例えば、マイク124は、ユーザ700が発声した指示を収音し、制御部10に出力する。例えば、制御部10は、マイク124から出力された音声情報を解析することにより、ユーザ700の指示を認識することができる。
ジャイロセンサ126は、例えば、3軸ジャイロセンサにより実現され、ユーザ700の運動による角速度(回転速度)を検知する。また、加速度センサ128は、例えば、3軸加速度センサ(Gセンサとも呼ばれる)により実現され、ユーザ700の運動による加速度を検知する。これらのセンサによる検知結果により、ユーザ700の動作を認識することができる。
方位センサ130は、例えば、3軸地磁気センサ(コンパス)により実現され、絶対方向(方位)を検知する。なお、ここで、絶対方位とは、実空間における世界座標系(東西南北)における方位のことをいう。
生体センサ134は、ユーザ700の各種生体情報を検知する。具体的には、生体センサ134は、例えば、ユーザ700の身体の一部に直接的又は間接的に装着され、ユーザ700の心拍数、血圧、脳波、呼吸、発汗、筋電位、皮膚温度、皮膚電気抵抗等を測定する1つ又は複数のセンサを含む。これら生体センサ134は、検知された生体情報を制御部10に出力する。
記憶部14は、上述した制御部10が各機能を実行するためのプログラムやパラメータを格納する。例えば、記憶部14は、情報取得部100による認識処理に用いる認識アルゴリズムや、表示形式判断部104で用いる各種閾値等を格納する。
表示部16は、例えば、ホログラム光学技術を用いて表示を行うレンズ部(シースルータイプのディスプレイの一例)、液晶ディスプレイ(LCD)装置、OLED(Organic Light Emitting Diode)装置等により実現される。
スピーカ18は、上述した制御部10の制御に従って、音声信号等を再生する。例えば、スピーカ18は、ユーザ700の左右の耳に対応する1対のイヤホンスピーカ(図示省略)により実現されることができる。
通信部20は、有線/無線により他の装置との間でデータの送受信を行うための通信モジュールである。通信部20は、例えば、有線LAN(Local Area Network)、無線LAN、Wi-Fi(登録商標)、赤外線通信、Bluetooth(登録商標)、近距離/非接触通信等の方式で、外部機器と直接又はネットワークアクセスポイント(図示省略)を介して通信することができる。なお、通信部20は、電波を検知する電波センサとして用いられてもよい。
操作入力部22は、スイッチ、ボタン、又は、レバー等の物理的な構造を有する操作部材(図示省略)により実現される。例えば、ユーザ700は、操作入力部22に対して操作を行うことで、情報処理装置1に対して所望の入力を行うことができる。また、操作入力部22により入力された操作の内容は、上述した表示部16によって表示されてもよい。
以上、本実施形態に係る情報処理装置1の詳細構成について説明した。続いて、このような情報処理装置1による仮想オブジェクトの表示例について、図3から図5を参照して説明する。図3から図5は、本実施形態に係る仮想オブジェクト800の表示例を説明するための説明図である。
以上、本実施形態に係る仮想オブジェクト800の表示例について説明した。続いて、本実施形態に係る情報処理方法について、図6A、図6B、図7及び図8を参照して説明する。図6A及び図6Bは、本実施形態に係る処理フローを示すフローチャートである。また、図7及び図8は、本実施形態に係る処理の一例を説明するための説明図である。図6A及び図6Bに示すように、本実施形態に係る情報処理方法には、ステップS100からステップS132までの複数のステップが含まれている。以下に、本実施形態に係る方法に含まれる各ステップの詳細を説明する。
情報取得部100は、センサ部12により検知された検知結果を用いて、ユーザ700又は当該ユーザ700の周囲の各種状態に関する情報を取得する。また、情報取得部100は、仮想オブジェクトの表示を行うアプリケーションで定義された、仮想オブジェクトの表示位置等の情報を取得する。さらに、表示パラメータ計算部102は、取得した表示位置の情報に基づき、ユーザ700から仮想オブジェクトの表示位置までの表示距離を算出する。仮想オブジェクトの表示距離は、例えば、予め仮想オブジェクトの表示を行うアプリケーションで定義された表示位置と、上述したSLAM等によって取得した情報処理装置1(ユーザ700)の自己位置情報とに基づいて算出することができる。
表示形式判断部104は、上記ステップS100で算出された表示距離を予め設定された閾値αと比較する。具体的には、表示形式判断部104が、算出された表示距離がα(例えば、3m)以上であると判断した場合には、ステップS104へ進む。一方、算出された表示距離がα未満であると判断した場合には、ステップS108へ進む。
表示形式判断部104は、仮想オブジェクトの表示解像度を最高ランク(例えば、960×768ピクセル)に設定する。
表示形式判断部104は、表示する仮想オブジェクトに対するエフェクト処理を通常モードに設定する。例えば、通常モードにおいては、仮想オブジェクトは、実空間の現実物体のように3次元表示されるように加工処理される。
表示形式判断部104は、上記ステップS100で算出された表示距離を予め設定された閾値α、βと比較する。具体的には、表示形式判断部104は、算出された表示距離が、α未満、且つ、β(例えば、1.5m)以上であると判断した場合には、ステップS110へ進む。一方、算出された表示距離がβ未満であると判断した場合には、ステップS114へ進む。
表示形式判断部104は、仮想オブジェクトの表示解像度を高ランク(例えば、640×480ピクセル)に設定する。このように、ステップS104に比べて表示解像度を低くすることにより、表示処理量を減らすことができる。
表示形式判断部104は、ステップS106と同様に、表示する仮想オブジェクトに対するエフェクト処理を通常モードに設定する。
表示形式判断部104は、上記ステップS100で算出された表示距離を予め設定された閾値β、γと比較する。具体的には、表示形式判断部104は、算出された表示距離がβ未満、且つ、γ(例えば、0.8m)以上であると判断した場合には、ステップS116へ進む。一方、算出された表示距離がγ未満であると判断した場合には、ステップS120へ進む。
表示形式判断部104は、仮想オブジェクトの表示解像度を中ランク(例えば、384×240ピクセル)に設定する。
表示形式判断部104は、仮想オブジェクトに対するエフェクト処理をワイヤーフレームモードに設定する。例えば、ワイヤーフレームモードにおいては、仮想オブジェクトは、ワイヤーフレームを用いて立体的に表示されるように加工処理される。言い換えると、ワイヤーフレームモードにおいては、仮想オブジェクトは、線だけで表現される立体図形として表示される(例えば、図10の仮想オブジェクト806a)。このように、ワイヤーフレームにより仮想オブジェクトを表示することにより、上述の3次元表示に比べて表示処理量を減らすことができる。
表示形式判断部104は、上記ステップS100で算出された表示距離を予め設定された閾値γ、σと比較する。具体的には、表示形式判断部104は、算出された表示距離がγ未満、且つ、σ(例えば、0.35m)以上であると判断した場合には、ステップS122へ進む。一方、算出された表示距離がσ未満であると判断した場合には、ステップS128へ進む。
表示形式判断部104は、仮想オブジェクトの表示解像度を低ランク(例えば、192×120ピクセル)に設定する。
表示形式判断部104は、仮想オブジェクトに対するエフェクト処理を半透明モードに設定する。例えば、半透明モードにおいては、仮想オブジェクトは、実空間が透かして見える半透明な図形として表示されるように加工処理される。このように、仮想オブジェクトを半透明で表示することにより、上述の3次元表示に比べて表示処理量を減らすことができる。
表示形式判断部104は、仮想オブジェクトの表示形式を3次元表示から2次元表示に設定変更する。従って、仮想オブジェクトは、平面的な2次元図形として表示されることとなる。このように、仮想オブジェクトを2次元図形で表示することにより、3次元表示に比べて表示処理量を減らすことができる。
表示形式判断部104は、上記ステップS100で算出された表示距離がσ未満であることを確認する。
表示形式判断部104は、仮想オブジェクトに対するエフェクト処理を消去モードに設定する。例えば、消去モードにおいては、仮想オブジェクトは表示されない。
出力制御部106は、これまでの一連のステップにおいて表示形式判断部104が設定した表示解像度及びエフェクト処理に従って仮想オブジェクトが表示されるように、表示部16に対して制御を行う。そして、表示部16は、アプリケーションで定義した表示ルールに加えて、表示形式判断部104が設定した表示解像度及びエフェクト処理に従って、仮想オブジェクトを表示する。さらに、仮想オブジェクトの表示フレームの表示が完了したら、次の表示フレームの表示処理を行うために、ステップS100へ戻る。
上述した本開示の第1の実施形態においては、表示距離に応じて仮想オブジェクトの表示解像度等を動的に変化させていた。しかしながら、本開示の実施形態においては、表示距離だけでなく、仮想オブジェクトの他の表示処理量に応じて、仮想オブジェクトの表示解像度等を変化させてもよい。そこで、本開示の第2の実施形態においては、仮想オブジェクトの表示面積に応じて、仮想オブジェクトの表示解像度等を変化させる。先に説明したように、仮想オブジェクトの大きさに従って情報処理装置1における表示処理量は変化する。従って、例えば大きな仮想オブジェクトを表示させる際には、表示処理量が増加し、情報処理装置1の処理能力に余裕がなくなり、表示フレームレートの低下が生じることがある。そこで、本実施形態においては、仮想オブジェクトの表示フレームレートの低下を生じさせる状態、すなわち、仮想オブジェクトの表示フレームレートの低下の原因ともなる仮想オブジェクトの表示面積を検知する。さらに、本実施形態においては、検知した表示面積に応じて、仮想オブジェクトの表示解像度等を変化させる。従って、本実施形態によれば、情報処理装置1の処理能力において余裕を確保し、仮想オブジェクトの表示フレームレートの低下を避けることができる。以下に、本実施形態の詳細について説明する。
第2の実施形態に係る情報処理方法について、図9A、図9B、及び図10を参照して説明する。図9A及び図9Bは、本実施形態に係る処理フローを示すフローチャートである。また、図10は、本実施形態に係る処理の一例を説明するための説明図である。図9A及び図9Bに示すように、本実施形態に係る情報処理方法には、ステップS200からステップS232までの複数のステップが含まれている。以下に、本実施形態に係る情報処理方法に含まれる各ステップの詳細を説明する。なお、以下の説明においては、第1の実施形態と異なる点のみを説明し、第1の実施形態と共通する点については、説明を省略する。
情報取得部100は、センサ部12により検知された検知結果を用いて、ユーザ700又は当該ユーザ700の周囲の各種状態に関する情報を取得する。また、情報取得部100は、仮想オブジェクトの表示を行うアプリケーションで定義された、仮想オブジェクトの表示面積等の情報を取得する。さらに、表示パラメータ計算部102は、取得した表示面積の情報に基づき、上記表示面積割合を算出する。
表示形式判断部104は、上記ステップS200で算出された表示面積割合を予め設定された閾値αと比較する。具体的には、表示形式判断部104が、算出された表示面積割合がα%(例えば、10%)未満であると判断した場合には、ステップS204へ進む。一方、算出された表示面積割合がα%以上であると判断した場合には、ステップS208へ進む。
図6Aに示される第1の実施形態のステップS104及びステップS106と同様の処理を実施する。
表示形式判断部104は、上記ステップS200で算出された表示面積割合を予め設定された閾値α、βと比較する。具体的には、表示形式判断部104は、算出された表示面積割合がα%以上、且つ、β%(例えば、20%)未満であると判断した場合には、ステップS210へ進む。一方、算出された表示面積割合がβ%以上と判断した場合には、ステップS214へ進む。
図6Aに示される第1の実施形態のステップS110及びステップS112と同様の処理を実施する。
表示形式判断部104は、上記ステップS200で算出された表示面積割合を予め設定された閾値β、γと比較する。具体的には、表示形式判断部104は、算出された表示面積割合がβ%以上、且つ、γ%(例えば、30%)未満であると判断した場合には、ステップS216へ進む。一方、算出された表示面積割合がγ%以上であると判断した場合には、ステップS220へ進む。
図6Aに示される第1の実施形態のステップS116及びステップS118と同様の処理を実施する。
表示形式判断部104は、上記ステップS200で算出された表示面積割合を予め設定された閾値γ、σと比較する。具体的には、表示形式判断部104は、算出された表示面積割合がγ%以上、且つ、σ%(例えば、50%)未満であると判断した場合には、ステップS222へ進む。一方、算出された表示面積割合がσ%以上であると判断した場合には、ステップS228へ進む。
図6Aに示される第1の実施形態のステップS122、ステップS124及びステップS126と同様の処理を実施する。
表示形式判断部104は、上記ステップS200で算出された表示面積割合がσ%以上であることを確認する。
図6Aに示される第1の実施形態のステップS130及びステップS132と同様の処理を実施する。
上述した第2の実施形態においては、表示面積に応じて仮想オブジェクトの表示解像度等を動的に変化させていた。しかしながら、先に説明したように、本実施形態においては、仮想オブジェクトの他の表示処理量に応じて、仮想オブジェクトの表示解像度等を変化させてもよい。例えば、以下に説明する変形例においては、表示する仮想オブジェクトの個数に応じて、仮想オブジェクトの表示解像度等を変化させる。詳細には、仮想オブジェクトの表示個数に従って情報処理装置1における表示処理量は変化する。従って、多くの仮想オブジェクトを表示させる際には、表示処理量が増加し、情報処理装置1の処理能力に余裕がなくなり、表示フレームレートの低下が生じることがある。そこで、本変形例においては、仮想オブジェクトの表示フレームレートの低下の原因ともなる仮想オブジェクトの表示個数に応じて、仮想オブジェクトの表示解像度等を変化させる。従って、本変形例によれば、情報処理装置1の処理能力において余裕を確保し、仮想オブジェクトの表示フレームレートの低下を避けることができる。
上述した第1及び第2の実施形態においては、仮想オブジェクトの表示距離等に応じて仮想オブジェクトの表示解像度等を動的に変化させていた。しかしながら、本開示の実施形態においては、上述のような仮想オブジェクトの表示処理量だけでなく、制御部10による処理の状態に応じて、仮想オブジェクトの表示解像度等を動的に変化させてもよい。
第3の実施形態に係る情報処理方法について、図13及び図14を参照して説明する。図13は、本実施形態に係る処理フローを示すフローチャートである。また、図14は、本実施形態に係る処理の一例を説明するための説明図である。図13に示すように、本実施形態に係る情報処理方法には、ステップS300からステップS328までの複数のステップが含まれている。以下に、本実施形態に係る情報処理方法に含まれる各ステップの詳細を説明する。なお、以下の説明においては、第1の実施形態と異なる点のみを説明し、第1の実施形態と共通する点については、説明を省略する。
情報取得部100は、センサ部12により検知された検知結果を用いて、ユーザ700又は当該ユーザ700の周囲の各種状態に関する情報を取得する。また、情報取得部100は、情報処理装置1の処理の状態を示す表示処理速度を取得する。さらに、情報取得部100は、併せて他の装置プロファイル(例えば、上述した各種認識エンジンにおける認識フレームレート等)を取得してもよく、すなわち、情報取得部100が取得する装置プロファイルは、情報処理装置1の処理の状態を示す情報であれば特に限定されない。
表示パラメータ計算部102は、ステップS300で取得された表示処理速度に基づき、仮想オブジェクトのFPSを算出する。
表示形式判断部104は、前回算出したFPSとステップS302で今回算出したFPSとの差が所定の範囲(例えば、10)を超えているかどうかを判断する。例えば、表示形式判断部104は、上記差が10を超えていると判断した場合には、ステップS304へ進み、一方、上記差が10以下であると判断した場合には、ステップS326へ進む。
表示形式判断部104は、上記ステップS302で算出されたFPSを予め設定された閾値αと比較する。具体的には、表示形式判断部104が、算出されたFPSがα(例えば、60)以上であると判断した場合には、ステップS308へ進む。一方、算出されたFPSがα未満であると判断した場合には、ステップS312へ進む。
図6Aに示される第1の実施形態のステップS104及びステップS106と同様の処理を実施する。
表示形式判断部104は、上記ステップS302で算出されたFPSを予め設定された閾値α、βと比較する。具体的には、表示形式判断部104は、算出されたFPSがα未満、且つ、β(例えば、30)以上であると判断した場合には、ステップS314へ進む。一方、算出されたFPSがβ未満であると判断した場合には、ステップS318へ進む。
図6Aに示される第1の実施形態のステップS110及びステップS112と同様の処理を実施する。
表示形式判断部104は、上記ステップS302で算出されたFPSを予め設定された閾値β、γと比較する。具体的には、表示形式判断部104は、算出されたFPSがβ未満、且つ、γ(例えば、20)以上と判断した場合には、ステップS320へ進む。一方、算出されたFPSがγ未満と判断した場合には、ステップS324へ進む。
ステップS320として図6Aに示される第1の実施形態のステップS116と同様の処理を行い、ステップS324として図6Bに示される第1の実施形態のステップS130と同様の処理を行う。
表示形式判断部104は、前回設定した表示解像度及びエフェクト処理を維持する。
図6Bに示される第1の実施形態のステップS132と同様の処理を実施する。
上述した本開示の第3の実施形態においては、FPSに応じて仮想オブジェクトの表示解像度を動的に変化させていた。しかしながら、本実施形態においては、表示解像度を変化させることに限定されるものではなく、仮想オブジェクトの他の表示詳細度を変化させてもよい。以下に、本実施形態の変形例として、仮想オブジェクトの表示詳細度の様々な例について説明する。
変形例1においては、FPSに応じて仮想オブジェクトのエフェクト処理としてシェーディング処理を動的に変化させる。以下に、図15を参照して本変形例の詳細を説明する。図15は、変形例1に係る処理の一例を説明するための説明図である。
変形例2においては、FPSに応じて、球状の仮想オブジェクトのエフェクト処理として、表示形式を3次元表示から、フレームワイヤー表示、2次元表示へと動的に変化させる。以下に、図16を参照して本変形例の詳細を説明する。図16は、変形例2に係る処理の一例を説明するための説明図である。
上述した本開示の実施形態及び変形例においては、仮想オブジェクトの表示処理量や処理の状態に応じて、仮想オブジェクトの表示詳細度を動的に変化させていた。さらに、これら実施形態及び変形例においては、ユーザ700の状態をも加味して、仮想オブジェクトの表示詳細度を動的に変化させてもよい。そこで、このような変形例の1つとして、ユーザ700の視線方向に応じて、仮想オブジェクトの表示解像度を変化させる変形例3を、図17を参照して説明する。図17は、変形例3に係る処理の一例を説明するための説明図である。
以上説明したように、本開示の実施形態及び変形例においては、仮想オブジェクトの表示フレームレート(FPS)の低下を生じさせる状態を検知し、検知した結果に応じて、仮想オブジェクトの表示詳細度を動的に変化させる。このようにして、本実施形態等によれば、情報処理装置1の処理能力において余裕を確保し、表示フレームレートの低下の発生を避けることができる。すなわち、本実施形態等によれば、仮想オブジェクトの表示フレームレートを好適に維持しつつ、ユーザ700から見た仮想オブジェクトの品質を好適に維持することができる。その結果、本実施形態によれば、仮想オブジェクトを介したユーザ700と情報処理装置1との間におけるリアルタイムのインタラクションを実現することができ、ユーザ700に対して有意義な体験を提供することができる。
図18は、本開示の一実施形態に係る情報処理装置900のハードウェア構成の一例を示したブロック図である。図18では、情報処理装置900は、上述の情報処理装置1のハードウェア構成の一例を示している。
CPU950は、例えば、CPU、GPU等の演算回路で構成される、1又は2以上のプロセッサや、各種処理回路等で構成され、情報処理装置900全体を制御する制御部(例えば、上述の制御部10)として機能する。具体的には、CPU950は、情報処理装置900において、例えば、上述の情報取得部100、表示パラメータ計算部102、表示形式判断部104、及び出力制御部106等の機能を果たす。
ROM952は、CPU950が使用するプログラムや演算パラメータ等の制御用データ等を記憶する。RAM954は、例えば、CPU950により実行されるプログラム等を一時的に記憶する。
記録媒体956は、上述の記憶部14として機能し、例えば、本実施形態に係る情報処理方法に係るデータや、各種アプリケーション等様々なデータを記憶する。ここで、記録媒体956としては、例えば、ハードディスク等の磁気記録媒体や、フラッシュメモリ等の不揮発性メモリが挙げられる。また、記録媒体956は、情報処理装置900から着脱可能であってもよい。
入出力インタフェース958は、例えば、操作入力デバイス960や、表示デバイス962等を接続する。入出力インタフェース958としては、例えば、USB(Universal Serial Bus)端子や、DVI(Digital Visual Interface)端子、HDMI(High-Definition Multimedia Interface)(登録商標)端子、各種処理回路等が挙げられる。
通信インタフェース968は、例えば通信ネットワーク(図示省略)を介して(あるいは、直接的に)、他の外部装置と、無線または有線で通信を行うための通信部20として機能する。ここで、通信インタフェース968としては、例えば、通信アンテナ及びRF(Radio Frequency)回路(無線通信)や、IEEE802.15.1ポート及び送受信回路(無線通信)、IEEE802.11ポート及び送受信回路(無線通信)、あるいはLAN(Local Area Network)端子及び送受信回路(有線通信)等が挙げられる。
センサ980は、上述のセンサ部12として機能する。さらに、センサ980は、照度センサ等の各種のセンサをさらに含んでもよい。
また、以上に説明した実施形態は、例えば、コンピュータを本実施形態に係る情報処理装置として機能させるためのプログラム、及びプログラムが記録された一時的でない有形の媒体を含むことができる。また、上記プログラムをインターネット等の通信回線(無線通信も含む)を介して頒布してもよい。
(1)ユーザに提示される仮想オブジェクトの表示フレームレートの低下を生じさせる状態を検知し、検知した結果に応じて、前記仮想オブジェクトの表示詳細度を動的に変化させる制御部を備える、情報処理装置。
(2)前記制御部は、検知した前記仮想オブジェクトの表示処理量に応じて、前記仮想オブジェクトの表示詳細度を動的に変化させる、上記(1)に記載の情報処理装置。
(3)前記制御部は、前記ユーザから前記仮想オブジェクトの表示位置までの表示距離に応じて、前記仮想オブジェクトの前記表示詳細度を変化させる、上記(2)に記載の情報処理装置。
(4)前記制御部は、前記表示距離が第1の距離である場合、前記表示距離が前記第1の距離よりも小さい第2の距離である場合よりも、前記表示詳細度を大きくする、上記(3)に記載の情報処理装置。
(5)前記制御部は、前記表示距離が前記第1の距離である場合、前記表示距離が前記第2の距離である場合よりも、前記仮想オブジェクトの表示面積を大きくする、上記(4)に記載の情報処理装置。
(6)前記仮想オブジェクトを表示する表示部を更に備え、前記制御部は、前記表示部の表示面積に対する前記仮想オブジェクトの表示面積の割合に応じて、前記仮想オブジェクトの前記表示詳細度を変化させる、上記(2)に記載の情報処理装置。
(7)前記制御部は、前記仮想オブジェクトの表示個数に応じて、前記仮想オブジェクトの前記表示詳細度を変化させる、上記(2)に記載の情報処理装置。
(8)前記制御部は、前記仮想オブジェクトの種別に応じて、前記仮想オブジェクトの前記表示詳細度を変化させる、上記(2)に記載の情報処理装置。
(9)前記制御部は、検知した前記制御部における処理の状態に応じて、前記仮想オブジェクトの前記表示詳細度を動的に変化させる、上記(1)に記載の情報処理装置。
(10)前記制御部は、前記仮想オブジェクトの前記表示フレームレートに応じて、前記仮想オブジェクトの前記表示詳細度を変化させる、上記(9)に記載の情報処理装置。
(11)前記制御部は、前記ユーザ又は前記ユーザの周囲の状態を認識する認識フレームレートに応じて、前記仮想オブジェクトの前記表示詳細度を変化させる、上記(9)に記載の情報処理装置。
(12)前記制御部は、当該制御部の処理能力を少なくとも前記仮想オブジェクトの表示の処理と前記認識の処理とに分配し、前記認識の処理に分配した前記処理能力に応じて、前記仮想オブジェクトの前記表示詳細度を変化させる、上記(11)に記載の情報処理装置。
(13)前記制御部は、検知した前記ユーザの状態に応じて、前記仮想オブジェクトの前記表示詳細度を動的に変化させる、上記(9)~(11)のいずれか1つに記載の情報処理装置。
(14)前記仮想オブジェクトは、第1の仮想オブジェクトと、前記第1の仮想オブジェクトよりも高い識別要求度を有する第2の仮想オブジェクトとを含み、前記制御部は、前記第2の仮想オブジェクトを前記ユーザが注視していると判定した場合には、前記第1の仮想オブジェクトを前記ユーザが注視していると判定した場合よりも、前記第2の仮想オブジェクトの前記表示詳細度を高くする、上記(13)に記載の情報処理装置。
(15)前記制御部は、前記仮想オブジェクトの表示解像度及び前記仮想オブジェクトに対するエフェクト処理のうちの少なくとも一方を変化させる、上記(1)に記載の情報処理装置。
(16)前記制御部は、前記エフェクト処理として、前記仮想オブジェクトに対するシェーディング処理の変更、前記仮想オブジェクトのワイヤーフレーム表示の状態の変更、前記仮想オブジェクトの2次元表示と3次元表示との間の変更、及び、前記仮想オブジェクトの透明度の変更のうちの少なくとも1つを行う、上記(15)に記載の情報処理装置。
(17)前記情報処理装置は、前記ユーザの頭部に装着されるウェアラブル装置であって、装着時に前記ユーザの眼前に位置する表示部をさらに備える、上記(1)に記載の情報処理装置。
(18)前記表示部は透過型ディスプレイであって、前記表示部は、前記仮想オブジェクトを実空間に重畳して表示する、上記(17)に記載の情報処理装置。
(19)ユーザに提示される仮想オブジェクトの表示フレームレートの低下を生じさせる状態を検知し、検知した結果に応じて、前記仮想オブジェクトの表示詳細度を動的に変化させることを含む、情報処理方法。
(20)コンピュータを、ユーザに提示される仮想オブジェクトの表示フレームレートの低下を生じさせる状態を検知し、検知した結果に応じて、前記仮想オブジェクトの表示詳細度を動的に変化させる制御部として機能させる、プログラム。
10 制御部
12 センサ部
14 記憶部
16、16A、16B 表示部
18 スピーカ
20 通信部
22 操作入力部
100 情報取得部
102 表示パラメータ計算部
104 表示形式判断部
106 出力制御部
120 外向きカメラ
122 内向きカメラ
124 マイク
126 ジャイロセンサ
128 加速度センサ
130 方位センサ
132 位置測位部
134 生体センサ
600 マーカ
602 壁面
604 自動車
700 ユーザ
702 手
800、802a~c、804a~b、806a~c、808a~c、810、812a~c、814a~c、816a~d、818 仮想オブジェクト
818a、b 部分
950 CPU
952 ROM
954 RAM
956 記録媒体
958 入出力インタフェース
960 操作入力デバイス
962 表示デバイス
964 音声出力デバイス
968 通信インタフェース
970 バス
980 センサ
Claims (8)
- ユーザに提示される仮想オブジェクトの表示フレームレートの低下を生じさせる状態を検知し、検知した結果に応じて、前記仮想オブジェクトの表示詳細度を動的に変化させる制御部を備え、
前記制御部は、前記ユーザ又は前記ユーザの周囲の状態を認識する認識フレームレートに応じて、前記仮想オブジェクトの前記表示詳細度を動的に変化させる、
情報処理装置。 - 前記制御部は、当該制御部の処理能力を少なくとも前記仮想オブジェクトの表示の処理と前記認識の処理とに分配し、前記認識の処理に分配した前記処理能力に応じて、前記仮想オブジェクトの前記表示詳細度を変化させる、請求項1に記載の情報処理装置。
- 前記制御部は、検知した前記ユーザの状態に応じて、前記仮想オブジェクトの前記表示詳細度を動的に変化させる、請求項1に記載の情報処理装置。
- 前記仮想オブジェクトは、第1の仮想オブジェクトと、前記第1の仮想オブジェクトよりも高い識別要求度を有する第2の仮想オブジェクトとを含み、
前記制御部は、前記第2の仮想オブジェクトを前記ユーザが注視していると判定した場合には、前記第1の仮想オブジェクトを前記ユーザが注視していると判定した場合よりも、前記第2の仮想オブジェクトの前記表示詳細度を高くする、
請求項3に記載の情報処理装置。 - 前記情報処理装置は、前記ユーザの頭部に装着されるウェアラブル装置であって、
装着時に前記ユーザの眼前に位置する表示部をさらに備える、請求項1~4のいずれか1項に記載の情報処理装置。 - 前記表示部は透過型ディスプレイであって、
前記表示部は、前記仮想オブジェクトを実空間に重畳して表示する、請求項5に記載の情報処理装置。 - コンピュータが、ユーザに提示される仮想オブジェクトの表示フレームレートの低下を生じさせる状態を検知し、検知した結果に応じて、前記仮想オブジェクトの表示詳細度を動的に変化させることを含み、
前記コンピュータが、前記ユーザ又は前記ユーザの周囲の状態を認識する認識フレームレートに応じて、前記仮想オブジェクトの前記表示詳細度を動的に変化させる、
情報処理方法。 - コンピュータを、ユーザに提示される仮想オブジェクトの表示フレームレートの低下を生じさせる状態を検知し、検知した結果に応じて、前記仮想オブジェクトの表示詳細度を動的に変化させる制御部として機能させる、プログラムであって、
前記制御部は、前記ユーザ又は前記ユーザの周囲の状態を認識する認識フレームレートに応じて、前記仮想オブジェクトの前記表示詳細度を動的に変化させる、
プログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017152893 | 2017-08-08 | ||
JP2017152893 | 2017-08-08 | ||
PCT/JP2018/018103 WO2019031005A1 (ja) | 2017-08-08 | 2018-05-10 | 情報処理装置、情報処理方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2019031005A1 JPWO2019031005A1 (ja) | 2020-07-09 |
JP7176520B2 true JP7176520B2 (ja) | 2022-11-22 |
Family
ID=65272825
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019535599A Active JP7176520B2 (ja) | 2017-08-08 | 2018-05-10 | 情報処理装置、情報処理方法及びプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US11244496B2 (ja) |
EP (1) | EP3667622B1 (ja) |
JP (1) | JP7176520B2 (ja) |
CN (1) | CN110998666B (ja) |
WO (1) | WO2019031005A1 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11721307B1 (en) | 2018-11-02 | 2023-08-08 | Meta Platforms Technologies, Llc | Beam-racing pixel generation in a display engine |
US11625848B2 (en) * | 2020-01-30 | 2023-04-11 | Unity Technologies Sf | Apparatus for multi-angle screen coverage analysis |
US20230222738A1 (en) * | 2020-05-25 | 2023-07-13 | Sony Group Corporation | Information processing apparatus, information processing method, and program |
EP4184444A4 (en) * | 2020-07-17 | 2023-12-20 | Sony Group Corporation | IMAGE PROCESSING DEVICE, IMAGE PROCESSING METHOD AND PROGRAM |
EP4217831A1 (en) * | 2020-09-22 | 2023-08-02 | Apple Inc. | Attention-driven rendering for computer-generated objects |
JP6976395B1 (ja) * | 2020-09-24 | 2021-12-08 | Kddi株式会社 | 配信装置、配信システム、配信方法及び配信プログラム |
JP7529950B2 (ja) | 2020-11-25 | 2024-08-07 | 株式会社Nttドコモ | 情報処理システム |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000296261A (ja) | 1999-04-13 | 2000-10-24 | Namco Ltd | ゲーム装置及び情報記憶媒体 |
JP2001229402A (ja) | 2000-02-16 | 2001-08-24 | Mitsubishi Electric Corp | 3次元画像表示装置、3次元画像表示方法およびその方法をコンピュータに実行させるプログラムを記録したコンピュータ読み取り可能な記録媒体 |
JP2002503854A (ja) | 1998-02-17 | 2002-02-05 | サン・マイクロシステムズ・インコーポレーテッド | ポリゴンのためのグラフィックス・システム・パフォーマンスの推定 |
JP2002279449A (ja) | 2001-03-19 | 2002-09-27 | Mitsubishi Electric Corp | 3次元空間データ送信表示装置、3次元空間データ送信方法、3次元空間データ送信方法をコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体 |
JP2004355131A (ja) | 2003-05-27 | 2004-12-16 | Canon Inc | 複合現実感映像生成方法及び複合現実感画像生成装置 |
JP2016110565A (ja) | 2014-12-10 | 2016-06-20 | 富士通株式会社 | 表示制御方法、情報処理プログラム、及び情報処理装置 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3785700B2 (ja) * | 1995-12-18 | 2006-06-14 | ソニー株式会社 | 近似化方法および装置 |
JP2004086508A (ja) | 2002-08-26 | 2004-03-18 | Alpine Electronics Inc | 3次元形状データに基づく動画の表示制御方法及びナビゲーション装置 |
US9529195B2 (en) * | 2014-01-21 | 2016-12-27 | Osterhout Group, Inc. | See-through computer display systems |
TW201604586A (zh) * | 2014-07-31 | 2016-02-01 | 精工愛普生股份有限公司 | 顯示裝置、顯示裝置之控制方法、及程式 |
JP6646361B2 (ja) | 2015-04-27 | 2020-02-14 | ソニーセミコンダクタソリューションズ株式会社 | 画像処理装置、撮像装置、画像処理方法およびプログラム |
JP6798106B2 (ja) * | 2015-12-28 | 2020-12-09 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
JP2016157458A (ja) | 2016-03-31 | 2016-09-01 | ソニー株式会社 | 情報処理装置 |
-
2018
- 2018-05-10 EP EP18843891.5A patent/EP3667622B1/en active Active
- 2018-05-10 WO PCT/JP2018/018103 patent/WO2019031005A1/ja unknown
- 2018-05-10 JP JP2019535599A patent/JP7176520B2/ja active Active
- 2018-05-10 CN CN201880050511.0A patent/CN110998666B/zh active Active
- 2018-05-10 US US16/635,254 patent/US11244496B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002503854A (ja) | 1998-02-17 | 2002-02-05 | サン・マイクロシステムズ・インコーポレーテッド | ポリゴンのためのグラフィックス・システム・パフォーマンスの推定 |
JP2000296261A (ja) | 1999-04-13 | 2000-10-24 | Namco Ltd | ゲーム装置及び情報記憶媒体 |
JP2001229402A (ja) | 2000-02-16 | 2001-08-24 | Mitsubishi Electric Corp | 3次元画像表示装置、3次元画像表示方法およびその方法をコンピュータに実行させるプログラムを記録したコンピュータ読み取り可能な記録媒体 |
JP2002279449A (ja) | 2001-03-19 | 2002-09-27 | Mitsubishi Electric Corp | 3次元空間データ送信表示装置、3次元空間データ送信方法、3次元空間データ送信方法をコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体 |
JP2004355131A (ja) | 2003-05-27 | 2004-12-16 | Canon Inc | 複合現実感映像生成方法及び複合現実感画像生成装置 |
JP2016110565A (ja) | 2014-12-10 | 2016-06-20 | 富士通株式会社 | 表示制御方法、情報処理プログラム、及び情報処理装置 |
Also Published As
Publication number | Publication date |
---|---|
US20210142552A1 (en) | 2021-05-13 |
EP3667622B1 (en) | 2023-08-23 |
CN110998666A (zh) | 2020-04-10 |
JPWO2019031005A1 (ja) | 2020-07-09 |
US11244496B2 (en) | 2022-02-08 |
EP3667622A1 (en) | 2020-06-17 |
WO2019031005A1 (ja) | 2019-02-14 |
EP3667622A4 (en) | 2020-07-29 |
CN110998666B (zh) | 2023-10-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7176520B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
US12008151B2 (en) | Tracking and drift correction | |
CN108027652B (zh) | 信息处理设备、信息处理方法以及记录介质 | |
JP6246829B2 (ja) | ヘッドマウントディスプレイのリソース管理 | |
WO2016203792A1 (ja) | 情報処理装置、情報処理方法及びプログラム | |
US20150170418A1 (en) | Method to Provide Entry Into a Virtual Map Space Using a Mobile Device's Camera | |
US20200202161A1 (en) | Information processing apparatus, information processing method, and program | |
US20180219975A1 (en) | Sharing Mediated Reality Content | |
US20190064528A1 (en) | Information processing device, information processing method, and program | |
WO2019150880A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
US11004273B2 (en) | Information processing device and information processing method | |
JP2017182247A (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP7400721B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
EP2706508B1 (en) | Reducing latency in an augmented-reality display | |
US11442543B1 (en) | Electronic devices with monocular gaze estimation capabilities |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210408 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220621 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220804 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221011 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221024 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7176520 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |