JP2022505999A - 拡張現実データの提示方法、装置、機器および記憶媒体 - Google Patents
拡張現実データの提示方法、装置、機器および記憶媒体 Download PDFInfo
- Publication number
- JP2022505999A JP2022505999A JP2020573331A JP2020573331A JP2022505999A JP 2022505999 A JP2022505999 A JP 2022505999A JP 2020573331 A JP2020573331 A JP 2020573331A JP 2020573331 A JP2020573331 A JP 2020573331A JP 2022505999 A JP2022505999 A JP 2022505999A
- Authority
- JP
- Japan
- Prior art keywords
- target
- data
- virtual object
- augmented reality
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000003190 augmentative effect Effects 0.000 title claims abstract description 220
- 238000000034 method Methods 0.000 title claims abstract description 160
- 230000000694 effects Effects 0.000 claims abstract description 347
- 230000015654 memory Effects 0.000 claims description 46
- 238000004590 computer program Methods 0.000 claims description 22
- 238000001514 detection method Methods 0.000 claims description 8
- 238000010586 diagram Methods 0.000 description 22
- 230000036544 posture Effects 0.000 description 16
- 238000004891 communication Methods 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 8
- 239000011521 glass Substances 0.000 description 8
- 238000000926 separation method Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- 238000005259 measurement Methods 0.000 description 6
- 238000009877 rendering Methods 0.000 description 6
- 230000008878 coupling Effects 0.000 description 4
- 238000010168 coupling process Methods 0.000 description 4
- 238000005859 coupling reaction Methods 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 4
- 235000019645 odor Nutrition 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000035807 sensation Effects 0.000 description 2
- 235000019615 sensations Nutrition 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/211—Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/213—Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/216—Input arrangements for video game devices characterised by their sensors, purposes or types using geographical information, e.g. location of the game device or player using GPS
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/40—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
- A63F13/42—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
- A63F13/428—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/52—Controlling the output signals based on the game progress involving aspects of the displayed game scene
- A63F13/525—Changing parameters of virtual cameras
- A63F13/5255—Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Computer Graphics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Radar, Positioning & Navigation (AREA)
- Environmental & Geological Engineering (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
第1態様によれば、本開示は、拡張現実データの提示方法を提供し、前記方法は、拡張現実(AR)機器の位置情報を取得することと、前記位置情報が目標現実領域の位置範囲内に位置することを検出した場合、前記目標現実領域に関連付けられた仮想対象の特殊効果データを取得することと、前記仮想対象の特殊効果データに基づいて、前記仮想対象の特殊効果データが含まれる拡張現実データを前記AR機器に表示することとを含む。当該方法を通じて、各目標現実領域は、関連付けられた仮想対象を有し、関連付けられた当該仮想対象は、当該目標現実領域内に位置してもよく、目標現実領域外に位置してもよい。本開示の実施例では、AR機器が目標現実領域に位置した後に、当該目標現実領域に関連付けられた仮想対象の特殊効果データを表示し、異なる現実領域での仮想対象表示に対する個性的なニーズを満たす。
現実シーン内の仮想対象に対応する地理的位置から目標現実領域までの距離が、設定された距離範囲内であること、
AR機器の撮影角度が、設定された角度範囲内に位置することのうちの少なくとも1つを含む。
現実シーン内の対応する地理的位置が前記目標現実領域の位置範囲内に位置する仮想対象の特殊効果データを取得し、および/または、
現実シーン内の対応する地理的位置が前記目標現実領域の位置範囲外に位置する仮想対象の特殊効果データを取得するように構成される。
現実シーン内の対応する地理的位置が前記目標現実領域の位置範囲外に位置し、且つプリセット条件に一致する仮想対象の特殊効果データを取得するように構成され、
ここで、前記プリセット条件は、
現実シーン内の前記仮想対象に対応する地理的位置から前記目標現実領域までの距離が、設定された距離範囲内であること、
前記AR機器の撮影角度が、設定された角度範囲内に位置することのうちの少なくとも1つを含む。
前記位置情報の地理座標が前記目標現実領域の地理座標範囲内に含まれる場合、前記位置情報が前記目標現実領域の位置範囲内に位置することを検出するように構成される。
前記AR機器の位置情報および現実シーン内の前記仮想対象の対応する地理的位置情報に基づいて、前記AR機器と現実シーン内の前記仮想対象の対応する地理的位置との間の距離を決定し、
決定された距離が、設定された距離の閾値より小さい場合、前記位置情報が前記目標現実領域の位置範囲内に位置すると決定するように構成される。
前記AR機器の撮影角度を検出し、
前記目標現実領域および前記撮影角度に共同で関連付けられた仮想対象の特殊効果データを取得するように構成される。
現実シーンにおける前記AR機器のポーズデータを取得し、
現実シーンにおける前記AR機器のポーズデータ、および現実シーンを表すための3次元シーンモデルにおける前記仮想対象のポーズデータに基づいて、前記目標現実領域に関連付けられた前記仮想対象の特殊効果データを決定するように構成される。
拡張現実(AR)機器の位置情報を取得する命令と、
前記位置情報が目標現実領域の位置範囲内に位置することを検出した場合、前記目標現実領域に関連付けられた仮想対象の特殊効果データを取得する命令と、
前記仮想対象の特殊効果データに基づいて、前記仮想対象の特殊効果データが含まれる拡張現実データを前記AR機器に表示する命令とを実行するようにする。
拡張現実(AR)機器の撮影角度を検出する命令と、
前記撮影角度に関連付けられた仮想対象の特殊効果データを取得する命令と、
前記仮想対象の特殊効果データに基づいて、前記仮想対象の特殊効果データが含まれる拡張現実データを前記AR機器に表示する命令とを実行するようにする。
第1態様によれば、本開示は、拡張現実データの提示方法を提供し、前記方法は、拡張現実(AR)機器の位置情報を取得することと、前記位置情報に対応する位置が目標現実領域の位置範囲内に位置することを検出した場合、前記目標現実領域に関連付けられた仮想対象の特殊効果データを取得することと、前記仮想対象の特殊効果データに基づいて、前記仮想対象の特殊効果データが含まれる拡張現実データを前記AR機器に表示することとを含む。当該方法を通じて、各目標現実領域は、関連付けられた仮想対象を有し、関連付けられた当該仮想対象は、当該目標現実領域内に位置してもよく、目標現実領域外に位置してもよい。本開示の実施例では、AR機器が目標現実領域に位置した後に、当該目標現実領域に関連付けられた仮想対象の特殊効果データを表示し、異なる現実領域での仮想対象表示に対する個性的なニーズを満たす。
例えば、本願は以下の項目を提供する。
(項目1)
拡張現実データの提示方法であって、
拡張現実(AR)機器の位置情報を取得することと、
前記位置情報が目標現実領域の位置範囲内に位置することを検出した場合、前記目標現実領域に関連付けられた仮想対象の特殊効果データを取得することと、
前記仮想対象の特殊効果データに基づいて、前記仮想対象の特殊効果データが含まれる拡張現実データを前記AR機器に表示することと、を含む、前記拡張現実データの提示方法。
(項目2)
前記目標現実領域に関連付けられた仮想対象の特殊効果データを取得することは、
現実シーン内の対応する地理的位置が前記目標現実領域の位置範囲内に位置する仮想対象の特殊効果データを取得すること、および/または、
現実シーン内の対応する地理的位置が前記目標現実領域の位置範囲外に位置する仮想対象の特殊効果データを取得することを含む、
項目1に記載の拡張現実データの提示方法。
(項目3)
前記現実シーン内の対応する地理的位置が前記目標現実領域の位置範囲外に位置する仮想対象の特殊効果データを取得することは、
現実シーン内の対応する地理的位置が前記目標現実領域の位置範囲外に位置し、且つプリセット条件に一致する仮想対象の特殊効果データを取得することを含み、
前記プリセット条件は、
現実シーン内の前記仮想対象に対応する地理的位置から前記目標現実領域までの距離が、設定された距離範囲内であること、
前記AR機器の撮影角度が、設定された角度範囲内に位置することのうちの少なくとも1つを含む。
項目2に記載の拡張現実データの提示方法。
(項目4)
前記位置情報が目標現実領域の位置範囲内に位置することを検出することは、
前記位置情報の地理座標が前記目標現実領域の地理座標範囲内に含まれる場合、前記位置情報が前記目標現実領域の位置範囲内に位置することを検出することを含む、
項目2ないし3のいずれか一項に記載の拡張現実データの提示方法。
(項目5)
前記位置情報が目標現実領域の位置範囲内に位置することを検出することは、
前記AR機器の位置情報および現実シーン内の前記仮想対象の対応する地理的位置情報に基づいて、前記AR機器と現実シーン内の前記仮想対象の対応する地理的位置との間の距離を決定することと、
決定された距離が、設定された距離の閾値より小さい場合、前記位置情報が前記目標現実領域の位置範囲内に位置すると決定することと、を含む、
項目2ないし4のいずれか一項に記載の拡張現実データの提示方法。
(項目6)
前記目標現実領域に関連付けられた仮想対象の特殊効果データを取得することは、
前記AR機器の撮影角度を検出することと、
前記目標現実領域および前記撮影角度に共同で関連付けられた仮想対象の特殊効果データを取得することと、を含む、
項目1に記載の拡張現実データの提示方法。
(項目7)
前記目標現実領域に関連付けられた仮想対象の特殊効果データを取得することは、
現実シーンにおける前記AR機器のポーズデータを取得することと、
現実シーンにおける前記AR機器のポーズデータ、および現実シーンを表すための3次元シーンモデルにおける前記仮想対象のポーズデータに基づいて、前記目標現実領域に関連付けられた前記仮想対象の特殊効果データを決定することと、を含む、
項目1または6に記載の拡張現実データの提示方法。
(項目8)
拡張現実シーンの提示方法であって、
拡張現実(AR)機器の撮影角度を検出することと、
前記撮影角度に関連付けられた仮想対象の特殊効果データを取得することと、
前記仮想対象の特殊効果データに基づいて、前記仮想対象の特殊効果データが含まれる拡張現実データを前記AR機器に表示することと、を含む、前記拡張現実シーンの提示方法。
(項目9)
拡張現実データの提示装置であって、
拡張現実(AR)機器の位置情報を取得し、第2取得モジュールに伝送するように構成される第1取得モジュールと、
前記位置情報が目標現実領域の位置範囲内に位置することを検出した場合、前記目標現実領域に関連付けられた仮想対象の特殊効果データを取得し、第1表示モジュールに伝送するように構成される第2取得モジュールと、
前記仮想対象の特殊効果データに基づいて、前記仮想対象の特殊効果データが含まれる拡張現実データを前記AR機器に表示するように構成される第1表示モジュールと、を備える、前記拡張現実データの提示装置。
(項目10)
前記第2取得モジュールは、前記目標現実領域に関連付けられた仮想対象の特殊効果データを取得する時に、
現実シーン内の対応する地理的位置が前記目標現実領域の位置範囲内に位置する仮想対象の特殊効果データを取得し、および/または、
現実シーン内の対応する地理的位置が前記目標現実領域の位置範囲外に位置する仮想対象の特殊効果データを取得するように構成される、
項目9に記載の拡張現実データの提示装置。
(項目11)
前記第2取得モジュールは、現実シーン内の対応する地理的位置が前記目標現実領域の位置範囲外に位置する仮想対象の特殊効果データを取得する時に、
現実シーン内の対応する地理的位置が前記目標現実領域の位置範囲外に位置し、且つプリセット条件に一致する仮想対象の特殊効果データを取得するように構成され、
前記プリセット条件は、
現実シーン内の前記仮想対象に対応する地理的位置から前記目標現実領域までの距離が、設定された距離範囲内であること、
前記AR機器の撮影角度が、設定された角度範囲内に位置することのうちの少なくとも1つを含む。
項目10に記載の拡張現実データの提示装置。
(項目12)
前記第2取得モジュールは、前記位置情報が目標現実領域の位置範囲内に位置することを検出する時に、
前記位置情報の地理座標が前記目標現実領域の地理座標範囲内に含まれる場合、前記位置情報が前記目標現実領域の位置範囲内に位置することを検出するように構成される、
項目10ないし13のいずれか一項に記載の拡張現実データの提示装置。
(項目13)
前記第2取得モジュールは、前記位置情報が目標現実領域の位置範囲内に位置することを検出する時に、
前記AR機器の位置情報および現実シーン内の前記仮想対象の対応する地理的位置情報に基づいて、前記AR機器と現実シーン内の前記仮想対象の対応する地理的位置との間の距離を決定し、
決定された距離が、設定された距離の閾値より小さい場合、前記位置情報が前記目標現実領域の位置範囲内に位置すると決定するように構成される、
項目10ないし12のいずれか一項に記載の拡張現実データの提示装置。
(項目14)
前記第2取得モジュールは、前記目標現実領域に関連付けられた仮想対象の特殊効果データを取得する時に、
前記AR機器の撮影角度を検出し、
前記目標現実領域および前記撮影角度に共同で関連付けられた仮想対象の特殊効果データを取得するように構成される、
項目9に記載の拡張現実データの提示装置。
(項目15)
前記第2取得モジュールは、前記目標現実領域に関連付けられた仮想対象の特殊効果データを取得する時に、
現実シーンにおける前記AR機器のポーズデータを取得し、
現実シーンにおける前記AR機器のポーズデータ、および現実シーンを表すための3次元シーンモデルにおける前記仮想対象のポーズデータに基づいて、前記目標現実領域に関連付けられた前記仮想対象の特殊効果データを決定するように構成される、
項目9または14に記載の拡張現実データの提示装置。
(項目16)
拡張現実データの提示装置であって、
拡張現実(AR)機器の撮影角度を検出し、第3取得モジュールに伝送するように構成される検出モジュールと、
前記撮影角度に関連付けられた仮想対象の特殊効果データを取得し、第2表示モジュールに伝送するように構成される第3取得モジュールと、
前記仮想対象の特殊効果データに基づいて、前記仮想対象の特殊効果データが含まれる拡張現実データを前記AR機器に表示するように構成される第2表示モジュールと、を備える、前記拡張現実データの提示装置。
(項目17)
電子機器であって、
プロセッサ、メモリおよびバスを備え、前記メモリは、前記プロセッサによって実行可能な機械可読命令を記憶し、電子機器が実行される場合、前記プロセッサはバスを介して前記メモリと通信し、前記機械可読命令が前記プロセッサによって実行されるときに、項目1ないし7のいずれか一項に記載の拡張現実データの提示方法または項目8に記載の拡張現実データの提示方法のステップを実行する、前記電子機器。
(項目18)
コンピュータプログラムが記憶される、コンピュータ可読記憶媒体であって、
前記コンピュータプログラムがプロセッサによって実行される時に、項目1ないし7のいずれか一項に記載の拡張現実データの提示方法または項目8に記載の拡張現実データの提示方法のステップを実行する、前記コンピュータ可読記憶媒体。
(項目19)
コンピュータ可読コードを含む、コンピュータプログラム製品であって、
前記コンピュータ可読コードが電子機器で実行されると、前記電子機器におけるプロセッサは、項目1ないし7のいずれか一項に記載の拡張現実データの提示方法を実行し、または項目8に記載の拡張現実シーンの提示方法を実行する、前記コンピュータプログラム製品。
現実シーン内の仮想対象に対応する地理的位置から目標現実領域までの距離が、設定された距離範囲内であること、
AR機器の撮影角度が、設定された角度範囲内に位置することのうちの少なくとも1つを含む。
現実シーン内の対応する地理的位置が前記目標現実領域の位置範囲内に位置する仮想対象の特殊効果データを取得し、および/または、
現実シーン内の対応する地理的位置が前記目標現実領域の位置範囲外に位置する仮想対象の特殊効果データを取得するように構成される。
現実シーン内の対応する地理的位置が前記目標現実領域の位置範囲外に位置し、且つプリセット条件に一致する仮想対象の特殊効果データを取得するように構成され、
ここで、前記プリセット条件は、
現実シーン内の前記仮想対象に対応する地理的位置から前記目標現実領域までの距離が、設定された距離範囲内であること、
前記AR機器の撮影角度が、設定された角度範囲内に位置することのうちの少なくとも1つを含む。
前記位置情報の地理座標が前記目標現実領域の地理座標範囲内に含まれる場合、前記位置情報に対応する位置が前記目標現実領域の位置範囲内に位置することを検出するように構成される。
前記AR機器の位置情報および現実シーン内の前記仮想対象の対応する地理的位置情報に基づいて、前記AR機器と現実シーン内の前記仮想対象の対応する地理的位置との間の距離を決定し、
決定された距離が、設定された距離の閾値より小さい場合、前記位置情報に対応する位置が前記目標現実領域の位置範囲内に位置すると決定するように構成される。
前記AR機器の撮影角度を検出し、
前記目標現実領域および前記撮影角度に共同で関連付けられた仮想対象の特殊効果データを取得するように構成される。
現実シーンにおける前記AR機器のポーズデータを取得し、
現実シーンにおける前記AR機器のポーズデータ、および現実シーンを表すための3次元シーンモデルにおける前記仮想対象のポーズデータに基づいて、前記目標現実領域に関連付けられた前記仮想対象の特殊効果データを決定するように構成される。
拡張現実(AR)機器の位置情報を取得する命令と、
前記位置情報に対応する位置が目標現実領域の位置範囲内に位置することを検出した場合、前記目標現実領域に関連付けられた仮想対象の特殊効果データを取得する命令と、
前記仮想対象の特殊効果データに基づいて、前記仮想対象の特殊効果データが含まれる拡張現実データを前記AR機器に表示する命令とを実行するようにする。
拡張現実(AR)機器の撮影角度を検出する命令と、
前記撮影角度に関連付けられた仮想対象の特殊効果データを取得する命令と、
前記仮想対象の特殊効果データに基づいて、前記仮想対象の特殊効果データが含まれる拡張現実データを前記AR機器に表示する命令とを実行するようにする。
Claims (19)
- 拡張現実データの提示方法であって、
拡張現実(AR)機器の位置情報を取得することと、
前記位置情報が目標現実領域の位置範囲内に位置することを検出した場合、前記目標現実領域に関連付けられた仮想対象の特殊効果データを取得することと、
前記仮想対象の特殊効果データに基づいて、前記仮想対象の特殊効果データが含まれる拡張現実データを前記AR機器に表示することと、を含む、前記拡張現実データの提示方法。 - 前記目標現実領域に関連付けられた仮想対象の特殊効果データを取得することは、
現実シーン内の対応する地理的位置が前記目標現実領域の位置範囲内に位置する仮想対象の特殊効果データを取得すること、および/または、
現実シーン内の対応する地理的位置が前記目標現実領域の位置範囲外に位置する仮想対象の特殊効果データを取得することを含む、
請求項1に記載の拡張現実データの提示方法。 - 前記現実シーン内の対応する地理的位置が前記目標現実領域の位置範囲外に位置する仮想対象の特殊効果データを取得することは、
現実シーン内の対応する地理的位置が前記目標現実領域の位置範囲外に位置し、且つプリセット条件に一致する仮想対象の特殊効果データを取得することを含み、
前記プリセット条件は、
現実シーン内の前記仮想対象に対応する地理的位置から前記目標現実領域までの距離が、設定された距離範囲内であること、
前記AR機器の撮影角度が、設定された角度範囲内に位置することのうちの少なくとも1つを含む。
請求項2に記載の拡張現実データの提示方法。 - 前記位置情報が目標現実領域の位置範囲内に位置することを検出することは、
前記位置情報の地理座標が前記目標現実領域の地理座標範囲内に含まれる場合、前記位置情報が前記目標現実領域の位置範囲内に位置することを検出することを含む、
請求項2ないし3のいずれか一項に記載の拡張現実データの提示方法。 - 前記位置情報が目標現実領域の位置範囲内に位置することを検出することは、
前記AR機器の位置情報および現実シーン内の前記仮想対象の対応する地理的位置情報に基づいて、前記AR機器と現実シーン内の前記仮想対象の対応する地理的位置との間の距離を決定することと、
決定された距離が、設定された距離の閾値より小さい場合、前記位置情報が前記目標現実領域の位置範囲内に位置すると決定することと、を含む、
請求項2ないし4のいずれか一項に記載の拡張現実データの提示方法。 - 前記目標現実領域に関連付けられた仮想対象の特殊効果データを取得することは、
前記AR機器の撮影角度を検出することと、
前記目標現実領域および前記撮影角度に共同で関連付けられた仮想対象の特殊効果データを取得することと、を含む、
請求項1に記載の拡張現実データの提示方法。 - 前記目標現実領域に関連付けられた仮想対象の特殊効果データを取得することは、
現実シーンにおける前記AR機器のポーズデータを取得することと、
現実シーンにおける前記AR機器のポーズデータ、および現実シーンを表すための3次元シーンモデルにおける前記仮想対象のポーズデータに基づいて、前記目標現実領域に関連付けられた前記仮想対象の特殊効果データを決定することと、を含む、
請求項1または6に記載の拡張現実データの提示方法。 - 拡張現実シーンの提示方法であって、
拡張現実(AR)機器の撮影角度を検出することと、
前記撮影角度に関連付けられた仮想対象の特殊効果データを取得することと、
前記仮想対象の特殊効果データに基づいて、前記仮想対象の特殊効果データが含まれる拡張現実データを前記AR機器に表示することと、を含む、前記拡張現実シーンの提示方法。 - 拡張現実データの提示装置であって、
拡張現実(AR)機器の位置情報を取得し、第2取得モジュールに伝送するように構成される第1取得モジュールと、
前記位置情報が目標現実領域の位置範囲内に位置することを検出した場合、前記目標現実領域に関連付けられた仮想対象の特殊効果データを取得し、第1表示モジュールに伝送するように構成される第2取得モジュールと、
前記仮想対象の特殊効果データに基づいて、前記仮想対象の特殊効果データが含まれる拡張現実データを前記AR機器に表示するように構成される第1表示モジュールと、を備える、前記拡張現実データの提示装置。 - 前記第2取得モジュールは、前記目標現実領域に関連付けられた仮想対象の特殊効果データを取得する時に、
現実シーン内の対応する地理的位置が前記目標現実領域の位置範囲内に位置する仮想対象の特殊効果データを取得し、および/または、
現実シーン内の対応する地理的位置が前記目標現実領域の位置範囲外に位置する仮想対象の特殊効果データを取得するように構成される、
請求項9に記載の拡張現実データの提示装置。 - 前記第2取得モジュールは、現実シーン内の対応する地理的位置が前記目標現実領域の位置範囲外に位置する仮想対象の特殊効果データを取得する時に、
現実シーン内の対応する地理的位置が前記目標現実領域の位置範囲外に位置し、且つプリセット条件に一致する仮想対象の特殊効果データを取得するように構成され、
前記プリセット条件は、
現実シーン内の前記仮想対象に対応する地理的位置から前記目標現実領域までの距離が、設定された距離範囲内であること、
前記AR機器の撮影角度が、設定された角度範囲内に位置することのうちの少なくとも1つを含む。
請求項10に記載の拡張現実データの提示装置。 - 前記第2取得モジュールは、前記位置情報が目標現実領域の位置範囲内に位置することを検出する時に、
前記位置情報の地理座標が前記目標現実領域の地理座標範囲内に含まれる場合、前記位置情報が前記目標現実領域の位置範囲内に位置することを検出するように構成される、
請求項10ないし13のいずれか一項に記載の拡張現実データの提示装置。 - 前記第2取得モジュールは、前記位置情報が目標現実領域の位置範囲内に位置することを検出する時に、
前記AR機器の位置情報および現実シーン内の前記仮想対象の対応する地理的位置情報に基づいて、前記AR機器と現実シーン内の前記仮想対象の対応する地理的位置との間の距離を決定し、
決定された距離が、設定された距離の閾値より小さい場合、前記位置情報が前記目標現実領域の位置範囲内に位置すると決定するように構成される、
請求項10ないし12のいずれか一項に記載の拡張現実データの提示装置。 - 前記第2取得モジュールは、前記目標現実領域に関連付けられた仮想対象の特殊効果データを取得する時に、
前記AR機器の撮影角度を検出し、
前記目標現実領域および前記撮影角度に共同で関連付けられた仮想対象の特殊効果データを取得するように構成される、
請求項9に記載の拡張現実データの提示装置。 - 前記第2取得モジュールは、前記目標現実領域に関連付けられた仮想対象の特殊効果データを取得する時に、
現実シーンにおける前記AR機器のポーズデータを取得し、
現実シーンにおける前記AR機器のポーズデータ、および現実シーンを表すための3次元シーンモデルにおける前記仮想対象のポーズデータに基づいて、前記目標現実領域に関連付けられた前記仮想対象の特殊効果データを決定するように構成される、
請求項9または14に記載の拡張現実データの提示装置。 - 拡張現実データの提示装置であって、
拡張現実(AR)機器の撮影角度を検出し、第3取得モジュールに伝送するように構成される検出モジュールと、
前記撮影角度に関連付けられた仮想対象の特殊効果データを取得し、第2表示モジュールに伝送するように構成される第3取得モジュールと、
前記仮想対象の特殊効果データに基づいて、前記仮想対象の特殊効果データが含まれる拡張現実データを前記AR機器に表示するように構成される第2表示モジュールと、を備える、前記拡張現実データの提示装置。 - 電子機器であって、
プロセッサ、メモリおよびバスを備え、前記メモリは、前記プロセッサによって実行可能な機械可読命令を記憶し、電子機器が実行される場合、前記プロセッサはバスを介して前記メモリと通信し、前記機械可読命令が前記プロセッサによって実行されるときに、請求項1ないし7のいずれか一項に記載の拡張現実データの提示方法または請求項8に記載の拡張現実データの提示方法のステップを実行する、前記電子機器。 - コンピュータプログラムが記憶される、コンピュータ可読記憶媒体であって、
前記コンピュータプログラムがプロセッサによって実行される時に、請求項1ないし7のいずれか一項に記載の拡張現実データの提示方法または請求項8に記載の拡張現実データの提示方法のステップを実行する、前記コンピュータ可読記憶媒体。 - コンピュータ可読コードを含む、コンピュータプログラム製品であって、
前記コンピュータ可読コードが電子機器で実行されると、前記電子機器におけるプロセッサは、請求項1ないし7のいずれか一項に記載の拡張現実データの提示方法を実行し、または請求項8に記載の拡張現実シーンの提示方法を実行する、前記コンピュータプログラム製品。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910979920.5A CN110716646A (zh) | 2019-10-15 | 2019-10-15 | 一种增强现实数据呈现方法、装置、设备及存储介质 |
CN201910979920.5 | 2019-10-15 | ||
PCT/CN2020/112280 WO2021073278A1 (zh) | 2019-10-15 | 2020-08-28 | 一种增强现实数据呈现方法、装置、设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022505999A true JP2022505999A (ja) | 2022-01-17 |
Family
ID=75492145
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020573331A Pending JP2022505999A (ja) | 2019-10-15 | 2020-08-28 | 拡張現実データの提示方法、装置、機器および記憶媒体 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20210118236A1 (ja) |
JP (1) | JP2022505999A (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112068703B (zh) * | 2020-09-07 | 2021-11-16 | 北京字节跳动网络技术有限公司 | 目标物体的控制方法、装置、电子设备及存储介质 |
CN113393516B (zh) * | 2021-06-17 | 2022-05-24 | 贝壳找房(北京)科技有限公司 | 用于打散ar场景中的虚拟物体的方法和装置 |
CN113850746A (zh) * | 2021-09-29 | 2021-12-28 | 北京字跳网络技术有限公司 | 图像处理方法、装置、电子设备及存储介质 |
CN114390215B (zh) * | 2022-01-20 | 2023-10-24 | 脸萌有限公司 | 一种视频生成方法、装置、设备以及存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005165848A (ja) * | 2003-12-04 | 2005-06-23 | Canon Inc | 複合現実感提示方法および装置 |
JP2013539090A (ja) * | 2010-06-30 | 2013-10-17 | ノキア コーポレイション | 拡張現実において、提案する情報レイヤを自動的に生成する方法・装置・コンピュータプログラム |
JP2015007632A (ja) * | 2014-07-14 | 2015-01-15 | コア ワイヤレス ライセンシング エス.アー.エール.エル. | 位置オフセット情報を決定する方法および装置 |
WO2018039269A1 (en) * | 2016-08-22 | 2018-03-01 | Magic Leap, Inc. | Augmented reality display device with deep learning sensors |
WO2019097726A1 (ja) * | 2017-11-20 | 2019-05-23 | 楽天株式会社 | 情報処理装置、情報処理方法、および情報処理プログラム |
JP2019125278A (ja) * | 2018-01-19 | 2019-07-25 | ソニー株式会社 | 情報処理装置、情報処理方法及び記録媒体 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10789764B2 (en) * | 2017-05-31 | 2020-09-29 | Live Cgi, Inc. | Systems and associated methods for creating a viewing experience |
-
2020
- 2020-08-28 JP JP2020573331A patent/JP2022505999A/ja active Pending
- 2020-12-28 US US17/134,795 patent/US20210118236A1/en not_active Abandoned
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005165848A (ja) * | 2003-12-04 | 2005-06-23 | Canon Inc | 複合現実感提示方法および装置 |
JP2013539090A (ja) * | 2010-06-30 | 2013-10-17 | ノキア コーポレイション | 拡張現実において、提案する情報レイヤを自動的に生成する方法・装置・コンピュータプログラム |
JP2015007632A (ja) * | 2014-07-14 | 2015-01-15 | コア ワイヤレス ライセンシング エス.アー.エール.エル. | 位置オフセット情報を決定する方法および装置 |
WO2018039269A1 (en) * | 2016-08-22 | 2018-03-01 | Magic Leap, Inc. | Augmented reality display device with deep learning sensors |
WO2019097726A1 (ja) * | 2017-11-20 | 2019-05-23 | 楽天株式会社 | 情報処理装置、情報処理方法、および情報処理プログラム |
JP2019125278A (ja) * | 2018-01-19 | 2019-07-25 | ソニー株式会社 | 情報処理装置、情報処理方法及び記録媒体 |
Also Published As
Publication number | Publication date |
---|---|
US20210118236A1 (en) | 2021-04-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102414587B1 (ko) | 증강 현실 데이터 제시 방법, 장치, 기기 및 저장 매체 | |
JP2022505999A (ja) | 拡張現実データの提示方法、装置、機器および記憶媒体 | |
US9430038B2 (en) | World-locked display quality feedback | |
CN111610998A (zh) | Ar场景内容的生成方法、展示方法、装置及存储介质 | |
US10607403B2 (en) | Shadows for inserted content | |
US20170186219A1 (en) | Method for 360-degree panoramic display, display module and mobile terminal | |
JP2022505998A (ja) | 拡張現実データの提示方法、装置、電子機器及び記憶媒体 | |
WO2019059992A1 (en) | RENDERING VIRTUAL OBJECTS BASED ON LOCATION DATA AND IMAGE DATA | |
TWI783472B (zh) | Ar場景內容的生成方法、展示方法、電子設備及電腦可讀儲存介質 | |
CN112729327B (zh) | 一种导航方法、装置、计算机设备及存储介质 | |
CN112348968B (zh) | 增强现实场景下的展示方法、装置、电子设备及存储介质 | |
CN111651051B (zh) | 一种虚拟沙盘展示方法及装置 | |
JP6711137B2 (ja) | 表示制御プログラム、表示制御方法および表示制御装置 | |
US11532138B2 (en) | Augmented reality (AR) imprinting methods and systems | |
CN111610997A (zh) | Ar场景内容的生成方法、展示方法、展示***及装置 | |
US20160284130A1 (en) | Display control method and information processing apparatus | |
CN111815783A (zh) | 虚拟场景的呈现方法及装置、电子设备及存储介质 | |
TWI764366B (zh) | 基於光通信裝置的互動方法和系統 | |
CN111599292A (zh) | 一种历史场景的呈现方法、装置、电子设备及存储介质 | |
CN103632627A (zh) | 信息显示方法、装置及移动导览电子设备 | |
KR101914660B1 (ko) | 자이로 센서를 기반으로 증강현실 컨텐츠의 표시를 제어하는 방법 및 그 장치 | |
Střelák | Augmented reality tourist guide | |
CN113209610A (zh) | 虚拟场景画面展示方法、装置、计算机设备及存储介质 | |
JP2011022662A (ja) | 携帯電話端末及び情報処理システム | |
KR101939530B1 (ko) | 지형정보 인식을 기반으로 증강현실 오브젝트를 표시하는 방법 및 그 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201228 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201228 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220202 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220427 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20220512 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20220512 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220826 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230320 |