JP2022509582A - 連携仮想インターフェース - Google Patents
連携仮想インターフェース Download PDFInfo
- Publication number
- JP2022509582A JP2022509582A JP2021523236A JP2021523236A JP2022509582A JP 2022509582 A JP2022509582 A JP 2022509582A JP 2021523236 A JP2021523236 A JP 2021523236A JP 2021523236 A JP2021523236 A JP 2021523236A JP 2022509582 A JP2022509582 A JP 2022509582A
- Authority
- JP
- Japan
- Prior art keywords
- data space
- common synthetic
- synthetic data
- display
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 claims description 25
- 238000006243 chemical reaction Methods 0.000 claims description 5
- 238000004590 computer program Methods 0.000 claims description 5
- 230000004044 response Effects 0.000 claims description 5
- 238000012634 optical imaging Methods 0.000 claims description 2
- 238000010586 diagram Methods 0.000 abstract description 9
- 230000003287 optical effect Effects 0.000 description 23
- 230000008569 process Effects 0.000 description 16
- 238000009877 rendering Methods 0.000 description 16
- 230000009471 action Effects 0.000 description 9
- 238000012546 transfer Methods 0.000 description 9
- 238000012545 processing Methods 0.000 description 8
- 230000008859 change Effects 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 6
- 241001465754 Metazoa Species 0.000 description 5
- 238000013473 artificial intelligence Methods 0.000 description 5
- 239000002131 composite material Substances 0.000 description 5
- 241000699666 Mus <mouse, genus> Species 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 241000282412 Homo Species 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 238000010079 rubber tapping Methods 0.000 description 3
- 239000013589 supplement Substances 0.000 description 3
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 230000007717 exclusion Effects 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 238000013179 statistical model Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 241000699670 Mus sp. Species 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 230000036760 body temperature Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000004886 head movement Effects 0.000 description 1
- 238000007654 immersion Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 238000010561 standard procedure Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/51—Display arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/42—Simultaneous measurement of distance and other co-ordinates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/451—Execution arrangements for user interfaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/24—Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2004—Aligning objects, relative positioning of parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2012—Colour editing, changing, or manipulating; Use of colour codes
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Software Systems (AREA)
- Radar, Positioning & Navigation (AREA)
- Computer Networks & Wireless Communication (AREA)
- Remote Sensing (AREA)
- Electromagnetism (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Computing Systems (AREA)
- Computer Hardware Design (AREA)
- Architecture (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
Claims (28)
- ユーザに表示し、ユーザと連携するシステムであって、
1つ又は複数のセンサからデータを受信するように構成されているインターフェースと、
プロセッサであって、
前記データを共通合成データ空間に変換し、
表示のための前記共通合成データ空間を提供し、
前記共通合成データ空間内に表される物体に関連付けられているコマンドを受信する
ように構成されているプロセッサと
を備えるシステム。 - 請求項1に記載のシステムであって、受信された前記データは、LIDARデータを含む、システム。
- 請求項1に記載のシステムであって、受信された前記データは、光学撮像データを含む、システム。
- 請求項1に記載のシステムであって、受信された前記データは、温度データを含む、システム。
- 請求項1に記載のシステムであって、受信された前記データは、ドローンによって収集されたデータを含む、システム。
- 請求項1に記載のシステムであって、共通合成データ空間への前記データの前記変換は、低次元のデータを高次元の表現に変換することを含む、システム。
- 請求項6に記載のシステムであって、前記低次元のデータは、LIDAR点クラウドを含み、前記高次元の表現は、表面のメッシュを含む、システム。
- 請求項1に記載のシステムであって、表示のための前記共通合成データ空間の前記提供は、前記共通合成データ空間内に表される前記物体からの一人称視点を提供することを含む、システム。
- 請求項1に記載のシステムであって、表示のための前記共通合成データ空間の前記提供は、前記共通合成データ空間内に表される前記物体からの三人称視点を提供することを含む、システム。
- 請求項1に記載のシステムであって、表示のための前記共通合成データ空間の前記提供は、前記共通合成データ空間の少なくとも一部分の頭上視点を提供することを含む、システム。
- 請求項1に記載のシステムであって、表示のための前記共通合成データ空間の前記提供は、視点に関連付けられているスケールの調節を可能にすることを含む、システム。
- 請求項1に記載のシステムであって、前記共通合成データ空間の前記表示は、複数の層のセンサ・データを組み合わせる、システム。
- 請求項1に記載のシステムであって、前記共通合成データ空間の前記表示は、1つ又は複数の物体の更新位置を提供することを含む、システム。
- 請求項1に記載のシステムであって、受信された前記コマンドは、音声コマンドを含む、システム。
- 請求項1に記載のシステムであって、受信された前記コマンドは、ハンド・ジェスチャ・コマンドを含む、システム。
- 請求項1に記載のシステムであって、受信された前記コマンドは、コンピュータ・インターフェース・デバイスを使用して開始されたコマンドを含む、システム。
- 請求項1に記載のシステムであって、受信された前記コマンドは、前記共通合成データ空間内に表される前記物体を監視することであり、前記物体は、現実世界の物体に対応する、システム。
- 請求項1に記載のシステムであって、受信された前記コマンドは、1つ又は複数の発行元から受信される、システム。
- 請求項1に記載のシステムであって、前記プロセッサは、前記物体に関連付けられている1つ又は複数の可能なコマンドを示すメニューを表示するように更に構成する、システム。
- 請求項1に記載のシステムであって、前記物体に関して受信された前記コマンドに応答して、前記物体は、前記表示内で強調表示される、システム。
- 請求項1に記載のシステムであって、前記物体に関して受信された前記コマンドに応答して、前記物体に関連付けられている色は、前記表示内で修正される、システム。
- 請求項1に記載のシステムであって、前記物体に関して受信された前記コマンドに応答して、音声キューは、前記物体に関連付けられている、システム。
- 請求項1に記載のシステムであって、前記プロセッサは、可能性のある関心項目に関して警告を与えるように更に構成されている、システム。
- 請求項23に記載のシステムであって、前記可能性のある関心項目は、既にタグ付けされた物体の再出現を含む、システム。
- 請求項23に記載のシステムであって、前記可能性のある関心項目は、第2の物体が関心領域に入ることを含む、システム。
- 請求項1に記載のシステムであって、前記合成表示データ空間の前記提供は、ユーザの役割に少なくとも部分的に基づいて視点がスケール化又は変更される、システム。
- ユーザに表示し、ユーザと連携する方法であって、
データを共通合成データ空間に変換し、
表示のための前記共通合成データ空間を提供し、
前記共通合成データ空間内に表される物体に関連付けられているコマンドを受信すること
を備える方法。 - ユーザに表示し、ユーザと連携するコンピュータ・プログラム製品であって、前記コンピュータ・プログラム製品は、非一時的コンピュータ可読記憶媒体内で具現化され、
データを共通合成データ空間に変換し、
表示のための前記共通合成データ空間を提供し、
前記共通合成データ空間内に表される物体に関連付けられているコマンドを受信する
ためのコンピュータ命令を含む、コンピュータ・プログラム製品。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023189003A JP2024020295A (ja) | 2018-11-27 | 2023-11-06 | 連携仮想インターフェース |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/201,882 US11182043B2 (en) | 2018-11-27 | 2018-11-27 | Interactive virtual interface |
US16/201,882 | 2018-11-27 | ||
PCT/US2018/063151 WO2020112122A1 (en) | 2018-11-27 | 2018-11-29 | Interactive virtual interface |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023189003A Division JP2024020295A (ja) | 2018-11-27 | 2023-11-06 | 連携仮想インターフェース |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022509582A true JP2022509582A (ja) | 2022-01-21 |
JP7432595B2 JP7432595B2 (ja) | 2024-02-16 |
Family
ID=70770064
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021523236A Active JP7432595B2 (ja) | 2018-11-27 | 2018-11-29 | 連携仮想インターフェース |
JP2023189003A Withdrawn JP2024020295A (ja) | 2018-11-27 | 2023-11-06 | 連携仮想インターフェース |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023189003A Withdrawn JP2024020295A (ja) | 2018-11-27 | 2023-11-06 | 連携仮想インターフェース |
Country Status (4)
Country | Link |
---|---|
US (2) | US11182043B2 (ja) |
EP (1) | EP3888047A4 (ja) |
JP (2) | JP7432595B2 (ja) |
WO (1) | WO2020112122A1 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11769257B2 (en) * | 2019-05-30 | 2023-09-26 | Honeywell International Inc. | Systems and methods for image aided navigation |
US11170568B2 (en) * | 2020-01-23 | 2021-11-09 | Rockwell Collins, Inc. | Photo-realistic image generation using geo-specific data |
US20220196839A1 (en) * | 2020-12-17 | 2022-06-23 | Gm Cruise Holdings Llc | Procedurally generated three-dimensional environment for use in autonomous vehicle simulations |
US20230089977A1 (en) * | 2021-09-17 | 2023-03-23 | Anduril Industries Inc. | Generating a flight plan of a semi-autonomous drone |
US11916279B1 (en) | 2022-05-20 | 2024-02-27 | Anduril Industries, Inc. | Modular system for detecting, tracking, and transmitting to identified objects |
EP4298450A4 (en) | 2022-05-20 | 2024-07-03 | Anduril Ind Inc | MODULAR SYSTEM FOR DETECTION, TRACKING AND TRANSMISSION TO IDENTIFIED OBJECTS |
WO2024094745A1 (en) * | 2022-11-03 | 2024-05-10 | Koninklijke Philips N.V. | Wireless sensing and communication system with matching function for improved interoperability |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090222742A1 (en) * | 2008-03-03 | 2009-09-03 | Cisco Technology, Inc. | Context sensitive collaboration environment |
US20120086727A1 (en) * | 2010-10-08 | 2012-04-12 | Nokia Corporation | Method and apparatus for generating augmented reality content |
US20130231779A1 (en) * | 2012-03-01 | 2013-09-05 | Irobot Corporation | Mobile Inspection Robot |
JP2016127571A (ja) * | 2015-01-08 | 2016-07-11 | キヤノン株式会社 | カメラシステム、表示制御装置、表示制御方法、及びプログラム |
JP2016522463A (ja) * | 2013-03-11 | 2016-07-28 | マジック リープ, インコーポレイテッド | 拡張現実および仮想現実のためのシステムおよび方法 |
US20170200309A1 (en) * | 2015-12-16 | 2017-07-13 | Objectvideo, Inc. | Using satellite imagery to enhance a 3d surface model of a real world cityscape |
WO2018170512A1 (en) * | 2017-03-17 | 2018-09-20 | Neurala, Inc. | Online, incremental real-time learning for tagging and labeling data streams for deep neural networks and neural network applications |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FI20045245A0 (fi) * | 2004-06-28 | 2004-06-28 | Nokia Corp | Selauksen tehostaminen elektronisessa laitteessa |
CA2507174C (en) * | 2005-05-13 | 2013-07-16 | Semiconductor Insights Inc. | Method of registering and aligning multiple images |
US20090187862A1 (en) * | 2008-01-22 | 2009-07-23 | Sony Corporation | Method and apparatus for the intuitive browsing of content |
JP5612371B2 (ja) * | 2010-06-11 | 2014-10-22 | 富士フイルム株式会社 | 画像位置合わせ装置および方法並びにプログラム |
WO2012177791A2 (en) * | 2011-06-20 | 2012-12-27 | Tandemseven, Inc. | System and method for building and managing user experience for computer software interfaces |
US9324190B2 (en) * | 2012-02-24 | 2016-04-26 | Matterport, Inc. | Capturing and aligning three-dimensional scenes |
US20140173439A1 (en) * | 2012-09-12 | 2014-06-19 | ACCO Brands Corporation | User interface for object tracking |
US9736160B2 (en) * | 2014-07-31 | 2017-08-15 | International Business Machines Corporation | Protected graphical user interface for role-based application and data access |
US9652896B1 (en) * | 2015-10-30 | 2017-05-16 | Snap Inc. | Image based tracking in augmented reality systems |
US10278001B2 (en) * | 2017-05-12 | 2019-04-30 | Microsoft Technology Licensing, Llc | Multiple listener cloud render with enhanced instant replay |
-
2018
- 2018-11-27 US US16/201,882 patent/US11182043B2/en active Active
- 2018-11-29 EP EP18941912.0A patent/EP3888047A4/en active Pending
- 2018-11-29 JP JP2021523236A patent/JP7432595B2/ja active Active
- 2018-11-29 WO PCT/US2018/063151 patent/WO2020112122A1/en unknown
-
2021
- 2021-10-08 US US17/497,704 patent/US20220027038A1/en active Pending
-
2023
- 2023-11-06 JP JP2023189003A patent/JP2024020295A/ja not_active Withdrawn
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090222742A1 (en) * | 2008-03-03 | 2009-09-03 | Cisco Technology, Inc. | Context sensitive collaboration environment |
US20120086727A1 (en) * | 2010-10-08 | 2012-04-12 | Nokia Corporation | Method and apparatus for generating augmented reality content |
US20130231779A1 (en) * | 2012-03-01 | 2013-09-05 | Irobot Corporation | Mobile Inspection Robot |
JP2016522463A (ja) * | 2013-03-11 | 2016-07-28 | マジック リープ, インコーポレイテッド | 拡張現実および仮想現実のためのシステムおよび方法 |
JP2016127571A (ja) * | 2015-01-08 | 2016-07-11 | キヤノン株式会社 | カメラシステム、表示制御装置、表示制御方法、及びプログラム |
US20170200309A1 (en) * | 2015-12-16 | 2017-07-13 | Objectvideo, Inc. | Using satellite imagery to enhance a 3d surface model of a real world cityscape |
WO2018170512A1 (en) * | 2017-03-17 | 2018-09-20 | Neurala, Inc. | Online, incremental real-time learning for tagging and labeling data streams for deep neural networks and neural network applications |
Also Published As
Publication number | Publication date |
---|---|
WO2020112122A1 (en) | 2020-06-04 |
US11182043B2 (en) | 2021-11-23 |
EP3888047A1 (en) | 2021-10-06 |
US20200167059A1 (en) | 2020-05-28 |
US20220027038A1 (en) | 2022-01-27 |
JP7432595B2 (ja) | 2024-02-16 |
JP2024020295A (ja) | 2024-02-14 |
EP3888047A4 (en) | 2022-10-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11061467B2 (en) | Electronic device displays an image of an obstructed target | |
JP7432595B2 (ja) | 連携仮想インターフェース | |
US10885714B2 (en) | Cloud enabled augmented reality | |
JP2013508795A (ja) | カメラ姿勢決定方法、及び実環境物体認識方法 | |
CN113906360A (zh) | 可移动平台的控制方法、装置、计算机可读存储介质 | |
CN115151948A (zh) | 合并来自建图设备的局部地图 | |
CN115641426A (zh) | 环境信息的显示方法、装置和计算机可读存储介质 | |
US20220319016A1 (en) | Panoptic segmentation forecasting for augmented reality | |
CN117268343A (zh) | 目标的远程寻找方法、装置、增强现实设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210621 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220623 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220628 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220909 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230110 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230403 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230718 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231106 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20231114 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240109 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240205 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7432595 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |