JP2018106262A - 不整合検出システム、複合現実システム、プログラム及び不整合検出方法 - Google Patents
不整合検出システム、複合現実システム、プログラム及び不整合検出方法 Download PDFInfo
- Publication number
- JP2018106262A JP2018106262A JP2016249429A JP2016249429A JP2018106262A JP 2018106262 A JP2018106262 A JP 2018106262A JP 2016249429 A JP2016249429 A JP 2016249429A JP 2016249429 A JP2016249429 A JP 2016249429A JP 2018106262 A JP2018106262 A JP 2018106262A
- Authority
- JP
- Japan
- Prior art keywords
- point cloud
- cloud data
- virtual object
- user
- real space
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 57
- 230000000007 visual effect Effects 0.000 claims abstract description 23
- 239000002131 composite material Substances 0.000 claims abstract description 13
- 238000000034 method Methods 0.000 claims description 47
- 238000013500 data storage Methods 0.000 claims description 19
- 238000003384 imaging method Methods 0.000 claims description 10
- 238000009877 rendering Methods 0.000 claims description 9
- 230000009466 transformation Effects 0.000 claims description 4
- 230000008569 process Effects 0.000 description 19
- 238000012545 processing Methods 0.000 description 19
- 230000006870 function Effects 0.000 description 14
- 238000010586 diagram Methods 0.000 description 13
- 238000004891 communication Methods 0.000 description 10
- 230000010365 information processing Effects 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 8
- 230000003287 optical effect Effects 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 5
- 239000011159 matrix material Substances 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 238000005286 illumination Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000001678 irradiating effect Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 238000002366 time-of-flight method Methods 0.000 description 2
- 102100035767 Adrenocortical dysplasia protein homolog Human genes 0.000 description 1
- 101000929940 Homo sapiens Adrenocortical dysplasia protein homolog Proteins 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 208000013057 hereditary mucoepithelial dysplasia Diseases 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000029553 photosynthesis Effects 0.000 description 1
- 238000010672 photosynthesis Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
- H04N13/344—Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/56—Particle system, point based geometry or rendering
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Optics & Photonics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Quality & Reliability (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【解決手段】本発明は、透過型の表示部及び実空間を撮影する撮影部を有する携帯可能な表示装置を備え、所定の実空間内において仮想オブジェクトを表示部に描画してユーザに視認させる複合現実システムにおける不整合検出システムであって、複合現実システムは、3次元空間データを記憶する手段と、ユーザ環境を決定する手段と、ユーザ環境に基づいて表示部に仮想オブジェクトを描画する手段とを備えるものであり、肉眼視野画像に仮想オブジェクトを重畳表示することで得られる合成画像から第1の点群データを生成し、決定されたユーザ環境における3次元空間の点群データ及び仮想オブジェクトの点群データを用いて第2の点群データを生成し、第1の点群データ及び第2の点群データの比較結果に基づいて不整合を検出する不整合検出システムである。
【選択図】図1
Description
色情報cは、RGBやHSV等のフォーマットで表現される。例えばHSVのフォーマットで表現される場合、色情報は、色相、彩度、及び明度を有する。
10 複合現実(MR)システム
11 記憶手段
17 ユーザ環境取得手段
18 描画手段
21 光源
22 建物
23 影
24 キャラクタ(仮想オブジェクト)
25、26 台
27 壁
31、41 現実世界(実空間)
32、42 仮想世界(仮想空間)
33、43 複合現実世界(複合現実環境)
34 光源
35 建物
36 壁
37 仮想オブジェクト
50 ネットワーク
100 サーバ
101、201 処理部
102、202 表示部
103 入力部
104、204 記憶部
105、205 通信部
110、210 バス
200 表示装置
202a 右目用透過型ディスプレイ
202b 左目用透過型ディスプレイ
203 撮影部
203a 右目用カメラ
203b 左目用カメラ
206 センサ
300 画像取得装置
Claims (8)
- ユーザに対して仮想オブジェクトを表示するための透過型の表示部及び実空間を撮影する撮影部を有する携帯可能な表示装置を備え、所定の実空間内において仮想オブジェクトを前記表示部に描画することで前記表示部を通して実空間に対して仮想オブジェクトを重畳してユーザに視認させる複合現実システムにおける不整合検出システムであって、
前記複合現実システムは、
予め取得された前記所定の実空間内にある実オブジェクトの点群データであって、それぞれが3次元位置情報を有する点群データを含む3次元空間データを記憶する3次元空間データ記憶手段と、
前記表示装置が備えるセンサから取得されたデータ及び前記3次元空間データに基づいて前記表示装置の位置及び前記表示部を通してユーザが視認する視界領域を含むユーザ環境を決定するユーザ環境決定手段と、
前記ユーザ環境に基づいて前記表示部に仮想オブジェクトを描画する描画手段と、を備えるものであり、
前記撮影された実空間画像から生成された前記表示部を通してユーザが視認する実空間画像に前記描画手段により描画される仮想オブジェクトを重畳表示することで得られる合成画像から、実オブジェクト及び仮想オブジェクトの点群データである第1の点群データを生成する第1の点群データ生成手段と、
前記ユーザ環境決定手段により決定された前記視界領域における前記3次元空間データ記憶手段により記憶された点群データ及び前記描画手段により描画される仮想オブジェクトの点群データを用いて第2の点群データを生成する第2の点群データ生成手段と、
前記第1の点群データ及び前記第2の点群データの比較結果に基づいて不整合を検出する不整合検出手段と、
を備える、不整合検出システム。 - 前記撮影部は、実空間をステレオ画像として取得するものであり、
第1の点群データ生成手段は、前記ステレオ画像として取得された2つの実空間画像からそれぞれ生成された前記表示部を通してユーザが視認する各実空間画像に前記描画手段により描画される仮想オブジェクトをそれぞれ重畳表示することで得られる各合成画像から、前記第1の点群データを生成する、請求項1に記載の不整合検出システム。 - 前記第1の点群データ生成手段は、前記撮影された実空間画像を、前記表示部と前記撮像部の位置関係に基づいて射影変換することにより前記表示部を通してユーザが視認する実空間画像を生成する、請求項1又は2に記載の不整合検出システム。
- 前記不整合検出手段は、前記第1の点群データ及び前記第2の点群データの差が所定量を超えた場合に不整合を検出する、請求項1から3のいずれか1項に記載の不整合検出システム。
- 前記不整合検出手段は、前記ユーザ環境に基づいて描画される仮想オブジェクトを含む所定の3次元空間領域において前記第1の点群データ及び前記第2の点群データの差が所定量を超えた場合に不整合を検出する、請求項1から3のいずれか1項に記載の不整合検出システム。
- サーバと、ユーザに対して仮想オブジェクトを表示するための透過型の表示部及び実空間を撮影する撮影部を有する携帯可能な表示装置とを備え、所定の実空間内において仮想オブジェクトを前記表示部に描画することで前記表示部を通して実空間に対して仮想オブジェクトを重畳してユーザに視認させる複合現実システムであって、
予め取得された前記所定の実空間内にある実オブジェクトの点群データであって、それぞれが3次元位置情報を有する点群データを含む3次元空間データを記憶する3次元空間データ記憶手段と、
前記表示装置が備えるセンサから取得されたデータ及び前記3次元空間データに基づいて前記表示装置の位置及び前記表示部を通してユーザが視認する視界領域を含むユーザ環境を決定するユーザ環境決定手段と、
前記ユーザ環境に基づいて前記表示部に仮想オブジェクトを描画する描画手段と、
前記撮影された実空間画像から生成された前記表示部を通してユーザが視認する実空間画像に前記描画手段により描画される仮想オブジェクトを重畳表示することで得られる合成画像から、実オブジェクト及び仮想オブジェクトの点群データである第1の点群データを生成する第1の点群データ生成手段と、
前記ユーザ環境決定手段により決定された前記視界領域における前記3次元空間データ記憶手段により記憶された点群データ及び前記描画手段により描画される仮想オブジェクトの点群データを用いて第2の点群データを生成する第2の点群データ生成手段と、
前記第1の点群データ及び前記第2の点群データの比較結果に基づいて不整合を検出する不整合検出手段と、
の各手段を前記サーバ又は前記表示装置が備える、複合現実システム。 - ユーザに対して仮想オブジェクトを表示するための透過型の表示部及び実空間を撮影する撮影部を有する携帯可能な表示装置を備え、所定の実空間内において仮想オブジェクトを前記表示部に描画することで前記表示部を通して実空間に対して仮想オブジェクトを重畳してユーザに視認させる複合現実システムにおいて不整合を検出するためのプログラムであって、
前記複合現実システムは、
予め取得された前記所定の実空間内にある実オブジェクトの点群データであって、それぞれが3次元位置情報を有する点群データを含む3次元空間データを記憶する3次元空間データ記憶手段と、
前記表示装置が備えるセンサから取得されたデータ及び前記3次元空間データに基づいて前記表示装置の位置及び前記表示部を通してユーザが視認する視界領域を含むユーザ環境を決定するユーザ環境決定手段と、
前記ユーザ環境に基づいて前記表示部に仮想オブジェクトを描画する描画手段と、を備えるものであり、
前記プログラムは、前記表示装置に、
前記撮影された実空間画像から生成された前記表示部を通してユーザが視認する実空間画像に前記描画手段により描画される仮想オブジェクトを重畳表示することで得られる合成画像から、実オブジェクト及び仮想オブジェクトの点群データである第1の点群データを生成するステップと、
前記ユーザ環境決定手段により決定された前記視界領域における前記3次元空間データ記憶手段により記憶された点群データ及び前記描画手段により描画される仮想オブジェクトの点群データを用いて第2の点群データを生成するステップと、
前記第1の点群データ及び前記第2の点群データの比較結果に基づいて不整合を検出するステップと、
を実行させる、プログラム。 - ユーザに対して仮想オブジェクトを表示するための透過型の表示部及び実空間を撮影する撮影部を有する携帯可能な表示装置を備え、所定の実空間内において仮想オブジェクトを前記表示部に描画することで前記表示部を通して実空間に対して仮想オブジェクトを重畳してユーザに視認させる複合現実システムにおける不整合検出方法であって、
前記複合現実システムは、
予め取得された前記所定の実空間内にある実オブジェクトの点群データであって、それぞれが3次元位置情報を有する点群データを含む3次元空間データを記憶する3次元空間データ記憶手段と、
前記表示装置が備えるセンサから取得されたデータ及び前記3次元空間データに基づいて前記表示装置の位置及び前記表示部を通してユーザが視認する視界領域を含むユーザ環境を決定するユーザ環境決定手段と、
前記ユーザ環境に基づいて前記表示部に仮想オブジェクトを描画する描画手段と、を備えるものであり、
前記撮影された実空間画像から生成された前記表示部を通してユーザが視認する実空間画像に前記描画手段により描画される仮想オブジェクトを重畳表示することで得られる合成画像から、実オブジェクト及び仮想オブジェクトの点群データである第1の点群データを生成するステップと、
前記ユーザ環境決定手段により決定された前記視界領域における前記3次元空間データ記憶手段により記憶された点群データ及び前記描画手段により描画される仮想オブジェクトの点群データを用いて第2の点群データを生成するステップと、
前記第1の点群データ及び前記第2の点群データの比較結果に基づいて不整合を検出するステップと、
を有する方法。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016249429A JP6171079B1 (ja) | 2016-12-22 | 2016-12-22 | 不整合検出システム、複合現実システム、プログラム及び不整合検出方法 |
PCT/JP2017/043332 WO2018116790A1 (ja) | 2016-12-22 | 2017-12-01 | 不整合検出システム、複合現実システム、プログラム及び不整合検出方法 |
CN201780087085.3A CN110383343B (zh) | 2016-12-22 | 2017-12-01 | 不一致检测***、混合现实***、程序和不一致检测方法 |
KR1020197018856A KR102255031B1 (ko) | 2016-12-22 | 2017-12-01 | 부정합 검출 시스템, 복합 현실 시스템, 프로그램 및 부정합 검출 방법 |
US16/450,041 US10896497B2 (en) | 2016-12-22 | 2019-06-24 | Inconsistency detecting system, mixed-reality system, program, and inconsistency detecting method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016249429A JP6171079B1 (ja) | 2016-12-22 | 2016-12-22 | 不整合検出システム、複合現実システム、プログラム及び不整合検出方法 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017130358A Division JP2018106661A (ja) | 2017-07-03 | 2017-07-03 | 不整合検出システム、複合現実システム、プログラム及び不整合検出方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6171079B1 JP6171079B1 (ja) | 2017-07-26 |
JP2018106262A true JP2018106262A (ja) | 2018-07-05 |
Family
ID=59384341
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016249429A Active JP6171079B1 (ja) | 2016-12-22 | 2016-12-22 | 不整合検出システム、複合現実システム、プログラム及び不整合検出方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10896497B2 (ja) |
JP (1) | JP6171079B1 (ja) |
KR (1) | KR102255031B1 (ja) |
CN (1) | CN110383343B (ja) |
WO (1) | WO2018116790A1 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022505998A (ja) * | 2019-10-15 | 2022-01-17 | ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド | 拡張現実データの提示方法、装置、電子機器及び記憶媒体 |
WO2023068087A1 (ja) * | 2021-10-18 | 2023-04-27 | ソニーグループ株式会社 | ヘッドマウントディスプレイ、情報処理装置および情報処理方法 |
Families Citing this family (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018147329A1 (ja) * | 2017-02-10 | 2018-08-16 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 自由視点映像生成方法及び自由視点映像生成システム |
JP7212611B2 (ja) * | 2017-02-27 | 2023-01-25 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 画像配信方法、画像表示方法、画像配信装置及び画像表示装置 |
JP2018106661A (ja) * | 2017-07-03 | 2018-07-05 | 株式会社Cygames | 不整合検出システム、複合現実システム、プログラム及び不整合検出方法 |
GB2564402B (en) * | 2017-07-06 | 2021-03-17 | Sony Interactive Entertainment Inc | System and method of 3D print modelling |
US10922878B2 (en) * | 2017-10-04 | 2021-02-16 | Google Llc | Lighting for inserted content |
CN112369016A (zh) * | 2018-07-06 | 2021-02-12 | 索尼公司 | 信息处理装置、信息处理方法和程序 |
JP2020098381A (ja) * | 2018-12-17 | 2020-06-25 | 未來市股▲ふん▼有限公司 | 測位方法及び現実感提示装置 |
JP7203692B2 (ja) * | 2019-06-12 | 2023-01-13 | 本田技研工業株式会社 | 情報処理装置、情報処理方法、及びプログラム |
JP7289746B2 (ja) * | 2019-07-11 | 2023-06-12 | キヤノン株式会社 | 情報処理装置、情報処理方法、及びプログラム |
EP4040398A4 (en) * | 2019-10-03 | 2022-12-21 | Sony Group Corporation | INFORMATION PROCESSING DEVICE AND METHOD AND PROGRAM |
US11816757B1 (en) * | 2019-12-11 | 2023-11-14 | Meta Platforms Technologies, Llc | Device-side capture of data representative of an artificial reality environment |
JP2021177157A (ja) * | 2020-05-08 | 2021-11-11 | 株式会社トプコン | アイウェア表示システム |
CN111640179B (zh) * | 2020-06-26 | 2023-09-01 | 百度在线网络技术(北京)有限公司 | 宠物模型的显示方法、装置、设备以及存储介质 |
US11645819B2 (en) | 2021-03-11 | 2023-05-09 | Quintar, Inc. | Augmented reality system for viewing an event with mode based on crowd sourced images |
US11657578B2 (en) | 2021-03-11 | 2023-05-23 | Quintar, Inc. | Registration for augmented reality system for viewing an event |
US11527047B2 (en) | 2021-03-11 | 2022-12-13 | Quintar, Inc. | Augmented reality system for viewing an event with distributed computing |
US12028507B2 (en) | 2021-03-11 | 2024-07-02 | Quintar, Inc. | Augmented reality system with remote presentation including 3D graphics extending beyond frame |
US12003806B2 (en) * | 2021-03-11 | 2024-06-04 | Quintar, Inc. | Augmented reality system for viewing an event with multiple coordinate systems and automatically generated model |
CN113206989A (zh) * | 2021-03-31 | 2021-08-03 | 聚好看科技股份有限公司 | 一种三维通信***中人物模型的定位方法及设备 |
CN113379884B (zh) * | 2021-07-05 | 2023-11-17 | 北京百度网讯科技有限公司 | 地图渲染方法、装置、电子设备、存储介质以及车辆 |
WO2024070602A1 (ja) * | 2022-09-29 | 2024-04-04 | 日本電気通信システム株式会社 | 情報表示システム、情報表示方法、プログラム |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7103399B2 (en) * | 2003-09-08 | 2006-09-05 | Vanderbilt University | Apparatus and methods of cortical surface registration and deformation tracking for patient-to-image alignment in relation to image-guided surgery |
JP4804256B2 (ja) * | 2006-07-27 | 2011-11-02 | キヤノン株式会社 | 情報処理方法 |
US8179393B2 (en) * | 2009-02-13 | 2012-05-15 | Harris Corporation | Fusion of a 2D electro-optical image and 3D point cloud data for scene interpretation and registration performance assessment |
US20120120201A1 (en) * | 2010-07-26 | 2012-05-17 | Matthew Ward | Method of integrating ad hoc camera networks in interactive mesh systems |
JP5147980B1 (ja) | 2011-09-26 | 2013-02-20 | アジア航測株式会社 | 対象物複数画像対応付け装置、そのデータ再生装置、画像処理システム |
JP5966510B2 (ja) * | 2012-03-29 | 2016-08-10 | ソニー株式会社 | 情報処理システム |
US9947134B2 (en) * | 2012-07-30 | 2018-04-17 | Zinemath Zrt. | System and method for generating a dynamic three-dimensional model |
KR20150103723A (ko) | 2013-01-03 | 2015-09-11 | 메타 컴퍼니 | 가상 또는 증강매개된 비전을 위한 엑스트라미시브 공간 이미징 디지털 아이 글래스 |
US10242400B1 (en) * | 2013-10-25 | 2019-03-26 | Appliance Computing III, Inc. | User interface for image-based rendering of virtual tours |
KR102113812B1 (ko) * | 2014-09-19 | 2020-05-22 | 한국전자통신연구원 | Rgb-d 영상을 이용한 실감형 증강현실 구현 장치 및 방법 |
WO2016084142A1 (ja) * | 2014-11-26 | 2016-06-02 | 株式会社日立製作所 | 作業支援システム、及び、作業支援方法 |
US9652896B1 (en) * | 2015-10-30 | 2017-05-16 | Snap Inc. | Image based tracking in augmented reality systems |
JP6088094B1 (ja) | 2016-06-20 | 2017-03-01 | 株式会社Cygames | 複合現実環境を作成するためのシステム等 |
-
2016
- 2016-12-22 JP JP2016249429A patent/JP6171079B1/ja active Active
-
2017
- 2017-12-01 KR KR1020197018856A patent/KR102255031B1/ko active IP Right Grant
- 2017-12-01 CN CN201780087085.3A patent/CN110383343B/zh active Active
- 2017-12-01 WO PCT/JP2017/043332 patent/WO2018116790A1/ja active Application Filing
-
2019
- 2019-06-24 US US16/450,041 patent/US10896497B2/en active Active
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022505998A (ja) * | 2019-10-15 | 2022-01-17 | ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド | 拡張現実データの提示方法、装置、電子機器及び記憶媒体 |
WO2023068087A1 (ja) * | 2021-10-18 | 2023-04-27 | ソニーグループ株式会社 | ヘッドマウントディスプレイ、情報処理装置および情報処理方法 |
Also Published As
Publication number | Publication date |
---|---|
KR20190089957A (ko) | 2019-07-31 |
JP6171079B1 (ja) | 2017-07-26 |
CN110383343A (zh) | 2019-10-25 |
KR102255031B1 (ko) | 2021-05-24 |
US20190311471A1 (en) | 2019-10-10 |
US10896497B2 (en) | 2021-01-19 |
CN110383343B (zh) | 2023-01-10 |
WO2018116790A1 (ja) | 2018-06-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6171079B1 (ja) | 不整合検出システム、複合現実システム、プログラム及び不整合検出方法 | |
KR102164471B1 (ko) | 복합 현실 환경을 작성하기 위한 시스템 등 | |
JP2018106661A (ja) | 不整合検出システム、複合現実システム、プログラム及び不整合検出方法 | |
KR101835434B1 (ko) | 투영 이미지 생성 방법 및 그 장치, 이미지 픽셀과 깊이값간의 매핑 방법 | |
KR101861313B1 (ko) | 삼차원 환경 재구성 | |
JP2022539314A (ja) | 稠密3d再構築データのキャッシュおよび更新 | |
CN102622762B (zh) | 使用深度图的实时相机跟踪 | |
CN105190703A (zh) | 使用光度立体来进行3d环境建模 | |
CN105103542A (zh) | 手持型便携式光学扫描仪和使用的方法 | |
JP7073481B2 (ja) | 画像表示システム | |
WO2016184255A1 (zh) | 一种视觉定位装置及基于该装置的三维测绘***及方法 | |
CN106873300B (zh) | 面向智能机器人的虚拟空间投影方法和装置 | |
WO2018144396A1 (en) | Tracking image collection for digital capture of environments, and associated systems and methods | |
JP6295296B2 (ja) | 複合システム及びターゲットマーカ | |
WO2022127572A1 (zh) | 机器人三维地图位姿显示方法、装置、设备及存储介质 | |
KR20220039101A (ko) | 로봇 및 그의 제어 방법 | |
JP6134874B1 (ja) | 複合現実環境を作成するためのシステム等 | |
WO2023088127A1 (zh) | 室内导航方法、服务器、装置和终端 | |
Piérard et al. | I-see-3d! an interactive and immersive system that dynamically adapts 2d projections to the location of a user's eyes | |
JP7465133B2 (ja) | 情報処理装置、情報処理方法 | |
JP7293057B2 (ja) | 放射線量分布表示システムおよび放射線量分布表示方法 | |
WO2021166751A1 (ja) | 情報処理装置、情報処理方法及びコンピュータプログラム | |
JP2022021009A (ja) | 現場映像管理システムおよび現場映像管理方法 | |
JP2024072072A (ja) | 情報処理装置 | |
CN115552468A (zh) | 用于计算3d环境的合成表示的计算高效方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170608 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20170612 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170619 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170703 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6171079 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |