JP6242591B2 - 仮想環境および物理環境における強化センサーによる位置特定 - Google Patents
仮想環境および物理環境における強化センサーによる位置特定 Download PDFInfo
- Publication number
- JP6242591B2 JP6242591B2 JP2013113752A JP2013113752A JP6242591B2 JP 6242591 B2 JP6242591 B2 JP 6242591B2 JP 2013113752 A JP2013113752 A JP 2013113752A JP 2013113752 A JP2013113752 A JP 2013113752A JP 6242591 B2 JP6242591 B2 JP 6242591B2
- Authority
- JP
- Japan
- Prior art keywords
- virtual
- perspective
- view
- real
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000004807 localization Effects 0.000 title description 12
- 238000000034 method Methods 0.000 claims description 72
- 238000005259 measurement Methods 0.000 claims description 51
- 238000013519 translation Methods 0.000 claims description 16
- 238000012545 processing Methods 0.000 claims description 15
- 238000004590 computer program Methods 0.000 claims description 14
- 230000004044 response Effects 0.000 claims description 11
- 230000008859 change Effects 0.000 claims description 8
- 230000001360 synchronised effect Effects 0.000 claims description 3
- 230000008569 process Effects 0.000 description 46
- 230000033001 locomotion Effects 0.000 description 11
- 238000004891 communication Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 9
- 239000011159 matrix material Substances 0.000 description 8
- 230000006870 function Effects 0.000 description 3
- 238000000275 quality assurance Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000012790 confirmation Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000012423 maintenance Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000004886 process control Methods 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
- 230000032258 transport Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2215/00—Indexing scheme for image rendering
- G06T2215/16—Using real world measurements to influence rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2004—Aligning objects, relative positioning of parts
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Architecture (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Geometry (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
- Length Measuring Devices With Unspecified Measuring Means (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
Description
[ROT]は3×3の回転行列を表し、3×1ベクトルの[Xs、Ys、Zs]Tはスクリーン並進で、[Xa、Ya、Za]Tは絶対座標での結果の並進である。次にこのデータは、以下の形式の4x4の同次変換行列にリファクタリングされる。
3つの行列はすべて4×4同次変換行列である。一部の実施形態においては、解の行列を直接使用するか、または他の形式に変換して(グラフィックアプリケーションにより異なる)、仮想環境のビューポイントを設定し、かつ、グラフィック表示がこの新しいビューポイントを表示するため更新される(処理430)。
114 ユーザーインタフェース
116 十字線
118 メニュー
160 航空機
200 コンピューティングデバイス
202 表示部/表示装置
204 画面/入力デバイス/表示部
206 スピーカー
Claims (10)
- コンピュータシステムによって実施される方法であって、
実3次元空間における実オブジェクトに対する測定装置(120)の実3次元空間における位置および方向を決定すること、
測定装置(120)に結合された表示装置(112、202)上に、仮想3次元空間(145)における実オブジェクトに対応する仮想オブジェクトの仮想イメージの仮想透視図であって、測定装置(120)の位置から実オブジェクトの実透視図に対応する仮想透視図を表示すること、
測定装置(120)に結合されたカメラからのイメージであって、実透視図に対応するイメージを受信すること、
仮想透視図における仮想オブジェクトとイメージにおける実オブジェクトとが一致するかどうかを決定することと、および、
仮想オブジェクトと実オブジェクトとが一致しないとの決定に応じて、実透視図に一致するように仮想透視図を調整することを含む、方法。 - 位置および方向を決定することは、
測定装置(120)が実3次元空間内の既知の物理的位置に配置されていることを示す信号を受信すること、および、
実透視図と仮想透視図間の対応を確認し、測定装置(120)の位置を表示装置(112、202)上に表示された仮想イメージの透視図に同期させることを含む、請求項1に記載の方法。 - 測定装置(120)が慣性計測ユニット(IMU)(120)を備えており、さらに
実オブジェクトに対するIMU(120)の方向における第1変更を示す回転入力を受信すること、および、
回転入力から得られる位置および方向に基づき、仮想透視図が実透視図と整列するよう、表示装置(112、202)上で仮想透視図を回転させることを含む、請求項2に記載の方法。 - 回転入力が、IMU(120)からの第1入力、IMU(120)に結合された入力デバイス(112、202、204、206、210、212、214)からの第2入力、IMUデータ処理アプリケーション(145、260)に結合された入力デバイスからの第3入力、またはこれらの組合せを備える、請求項3に記載の方法。
- 実透視図と仮想透視図間の対応を確認することは、
実オブジェクトに対するIMU(120)の位置における第2変更を示す並進入力を受信すること、または、
測定装置(120)の位置および方向に基づき、仮想透視図が実透視図と整列するように表示装置(112、202)上の仮想透視図を更新すること、
を含む、請求項3に記載の方法。 - 並進入力が測定装置(120)からの第1入力、測定装置(120)と表示装置(112、202)に結合された入力デバイス(112、202、204、206、210、212、214)からの第2入力、またはこれらの双方を備えており、
1つ以上の関心項目を選択するため表示装置(112、202)から入力を受信すること、および、
入力に応答して1つ以上の関心項目に関する情報を表示すること
を含む、請求項5に記載の方法。 - システムであって、
測定装置(120)、
測定装置(120)に結合された表示部(112、204)、
プロセッサ(222)、および
プロセッサ(222)に結合され命令(260)を格納するコンピュータで読み取り可能な有形媒体(230)を備えており、命令(260)はプロセッサ(222)による実行時に、プロセッサ(222)に、
実3次元空間における実オブジェクトに対する測定装置(120)の実3次元空間における位置および方向を決定させ、
表示部(112、204)上に仮想3次元空間(145)における実オブジェクトに対応する仮想オブジェクトの仮想イメージの仮想透視図であって、測定装置(120)の位置から、実オブジェクトの実透視図に対応する仮想透視図を表示させ、
測定装置(120)に結合されたカメラからのイメージであって、実透視図に対応するイメージを受信させ、
仮想透視図における仮想オブジェクトとイメージにおける実オブジェクトとが一致するかどうかを決定させ、および、
仮想オブジェクトと実オブジェクトとが一致しないとの決定に応じて、実透視図に一致するように仮想透視図を調整させる、
システム。 - 命令(260)はプロセッサ(222)にさらに、
測定装置(120)が実3次元空間内の既知の物理的位置に配置されていることを示す信号を受信させ、および、
実透視図と仮想透視図間の対応を確認させ、測定装置(120)の位置を表示装置(112、202)上に表示された仮想イメージの透視図に同期させる、請求項7に記載のシステム。 - 命令(260)はプロセッサ(222)にさらに次の(i)と(ii)、
(i)実オブジェクトに対する測定装置(120)の方向における変更を示す回転入力を受信させ、および、測定装置(120)の位置および方向に基づき、仮想透視図が実透視図と整列するよう、表示装置(112、202)上で仮想透視図を回転させ、回転入力が慣性計測ユニット(IMU)(120)からの第1入力、測定装置(120)と表示装置(112、202)に結合された入力デバイス(112、202、204、206、210、212、214)からの第2入力、またはこれらの双方を備えており、
(ii)1つ以上の関心項目を選択するため表示装置(112、202)から入力を受信させ、および、入力に応答して1つ以上の関心項目に関する情報を表示させ、入力が測定装置(120)からの第1入力、測定装置(120)と表示装置(112、202)に結合された入力デバイス(112、202、204、206、210、212、214)からの第2入力、またはこれらの双方を含んでおり、
のうち1つ以上を実施させる、請求項8に記載のシステム。 - コンピュータプログラムであって、プロセッサ(222)によって実行されたときに、プロセッサ(222)に、
実3次元空間における実オブジェクトに対する測定装置(120)の実3次元空間における位置および方向を決定させ、
表示部(112、204)上に仮想3次元空間(145)における実オブジェクトに対応する仮想オブジェクトの仮想イメージの仮想透視図であって、測定装置(120)の位置から、実オブジェクトの実透視図に対応する仮想透視図を表示させ、
測定装置(120)に結合されたカメラからのイメージであって、実透視図に対応するイメージを受信させ、
仮想透視図における仮想オブジェクトとイメージにおける実オブジェクトとが一致するかどうかを決定させ、および、
仮想オブジェクトと実オブジェクトとが一致しないとの決定に応じて、実透視図に一致するように仮想透視図を調整させる、コンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/486,725 | 2012-06-01 | ||
US13/486,725 US9058681B2 (en) | 2012-06-01 | 2012-06-01 | Sensor-enhanced localization in virtual and physical environments |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2013250268A JP2013250268A (ja) | 2013-12-12 |
JP2013250268A5 JP2013250268A5 (ja) | 2016-05-26 |
JP6242591B2 true JP6242591B2 (ja) | 2017-12-06 |
Family
ID=48672363
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013113752A Active JP6242591B2 (ja) | 2012-06-01 | 2013-05-30 | 仮想環境および物理環境における強化センサーによる位置特定 |
Country Status (6)
Country | Link |
---|---|
US (1) | US9058681B2 (ja) |
EP (1) | EP2669763B1 (ja) |
JP (1) | JP6242591B2 (ja) |
CN (1) | CN103456025B (ja) |
BR (1) | BR102013013610B1 (ja) |
CA (1) | CA2807582C (ja) |
Families Citing this family (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9395190B1 (en) | 2007-05-31 | 2016-07-19 | Trx Systems, Inc. | Crowd sourced mapping with robust structural features |
US8751151B2 (en) * | 2012-06-12 | 2014-06-10 | Trx Systems, Inc. | System and method for localizing a trackee at a location and mapping the location using inertial sensor information |
US20150355822A1 (en) * | 2012-10-11 | 2015-12-10 | Dougals R. COCHRAN | Method for fine-tuning the physical position and orientation on an electronic device |
US20140218291A1 (en) * | 2013-02-07 | 2014-08-07 | Microsoft Corporation | Aligning virtual camera with real camera |
US11268818B2 (en) | 2013-03-14 | 2022-03-08 | Trx Systems, Inc. | Crowd sourced mapping with robust structural features |
US11156464B2 (en) | 2013-03-14 | 2021-10-26 | Trx Systems, Inc. | Crowd sourced mapping with robust structural features |
US20140306910A1 (en) * | 2013-04-15 | 2014-10-16 | Qualcomm Incorporated | Id tracking of gesture touch geometry |
US9547173B2 (en) | 2013-10-03 | 2017-01-17 | Honda Motor Co., Ltd. | System and method for dynamic in-vehicle virtual reality |
US9630631B2 (en) | 2013-10-03 | 2017-04-25 | Honda Motor Co., Ltd. | System and method for dynamic in-vehicle virtual reality |
US9536353B2 (en) | 2013-10-03 | 2017-01-03 | Honda Motor Co., Ltd. | System and method for dynamic in-vehicle virtual reality |
US9996975B2 (en) * | 2014-03-18 | 2018-06-12 | Dreamworks Animation L.L.C. | Interactive multi-rider virtual reality ride system |
US9355498B2 (en) | 2014-06-19 | 2016-05-31 | The Boeing Company | Viewpoint control of a display of a virtual product in a virtual environment |
FR3023643B1 (fr) * | 2014-07-11 | 2017-10-27 | Thales Sa | Equipement optronique aeroporte pour l'imagerie, la surveillance et/ou la designation de cibles |
US9759561B2 (en) | 2015-01-06 | 2017-09-12 | Trx Systems, Inc. | Heading constraints in a particle filter |
CN107727048A (zh) * | 2016-08-11 | 2018-02-23 | 杭州顺源科教仪器设备有限公司 | 具有输入输出控制功能的智能型角度传感器 |
EP3336485B1 (en) | 2016-12-15 | 2020-09-23 | Safran Landing Systems UK Limited | Aircraft assembly including deflection sensor |
US20180182270A1 (en) | 2016-12-22 | 2018-06-28 | Hewlett-Packard Development Company, L.P. | Displays representative of remote subjects |
CN108268056B (zh) * | 2016-12-30 | 2020-12-15 | 昊翔电能运动科技(昆山)有限公司 | 手持云台校准方法、装置和*** |
EP3410153A1 (en) * | 2017-06-02 | 2018-12-05 | Airbus Defence and Space, S.A. | Portable device and method for locating components inside a closed environment, preferably inside an aircraft |
EP3756073B1 (en) * | 2018-02-23 | 2022-07-20 | Telefonaktiebolaget LM Ericsson (publ) | Coordinating alignment of coordinate systems used for a computer generated reality device and a haptic device |
CN112416218B (zh) * | 2020-09-08 | 2023-12-29 | 上海哔哩哔哩科技有限公司 | 虚拟卡片的显示方法、装置、计算机设备及存储介质 |
CN115246610B (zh) * | 2021-09-10 | 2023-11-17 | 菱王电梯有限公司 | 一种电梯轿厢倾斜检测方法及***、电梯 |
CN115840412B (zh) * | 2022-04-18 | 2023-11-03 | 宁德时代新能源科技股份有限公司 | 传输机构的虚拟仿真方法、装置、电子设备、plc和介质 |
EP4312095A1 (de) * | 2022-07-25 | 2024-01-31 | Siemens Aktiengesellschaft | Verfahren und steuerungsprogramm zum betrieb eines engineering-systems für ein industrielles prozessautomatisierungssystem |
Family Cites Families (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08335032A (ja) * | 1995-06-05 | 1996-12-17 | Toshio Yamazaki | 画像表示方法及び装置 |
CA2356271A1 (en) | 1998-12-23 | 2000-07-06 | Image Guided Technologies, Inc. | A hybrid 3-d probe tracked by multiple sensors |
US6761637B2 (en) * | 2000-02-22 | 2004-07-13 | Creative Kingdoms, Llc | Method of game play using RFID tracking device |
US6852032B2 (en) * | 2000-12-06 | 2005-02-08 | Nikon Corporation | Game machine, method of performing game and computer-readable medium |
US7215322B2 (en) * | 2001-05-31 | 2007-05-08 | Siemens Corporate Research, Inc. | Input devices for augmented reality applications |
DE10256659A1 (de) * | 2002-12-04 | 2004-07-08 | Siemens Ag | Engabevorrichtung zur Orientierung in einer dreidimensionalen Visualisierung, Verfahren zur Visualisierung von dreidimensionalen Datensätzen, Darstellungsvorrichtung zur Darstellung einer Visualisierung von dreidimensionalen Datensätzen, Verfahren zum Betrieb eines bildgebenden medizinischen Üntersuchungsgeräts und Verfahren zur graphischen Positionierung einer mittels eines bildgebenden medizinischen Untersuchungsgeräts zu messenden Schicht in einem dreidimensionalen Datensatz einer Vorbereitungsmessung |
SE525290C2 (sv) | 2002-12-20 | 2005-01-25 | Trimble Ab | Geodetiskt system för mätning/utsättning och metod för användning av detsamma |
JP2004219182A (ja) * | 2003-01-14 | 2004-08-05 | Alpine Electronics Inc | ナビゲーション装置 |
KR100518852B1 (ko) * | 2003-08-25 | 2005-09-30 | 엘지전자 주식회사 | 차량의 후진 개선 추측항법 |
US7367809B2 (en) * | 2004-03-26 | 2008-05-06 | Atsushi Takahashi | Three-dimensional digital entity mesoscope system equipped with three-dimensional visual instruction functions |
DE102005004155A1 (de) | 2005-01-28 | 2006-08-03 | Siemens Ag | Positionsbestimmung mittels eines Funkortungssystems, insbesondere mittels LPR, trotz begrenztzeitigem Ausfall der Funkortungskomponenten |
US7287701B2 (en) | 2005-02-17 | 2007-10-30 | The Boeing Company | Handheld coordinate reference system |
US7853960B1 (en) | 2005-02-25 | 2010-12-14 | Vmware, Inc. | Efficient virtualization of input/output completions for a virtual device |
US20070038409A1 (en) | 2005-08-02 | 2007-02-15 | Kurt Gilson | Position sensing means and method |
JP4711818B2 (ja) * | 2005-12-14 | 2011-06-29 | アルパイン株式会社 | ナビゲーション装置及び地図表示方法 |
JP4960659B2 (ja) * | 2006-06-20 | 2012-06-27 | クボテック株式会社 | 3次元仮想空間を利用したビデオカメラ撮影制御装置およびビデオカメラ撮影制御方法 |
US8395760B2 (en) * | 2007-03-13 | 2013-03-12 | Zheng Wang | Unified spectral and geospatial information model and the method and system generating it |
US8229163B2 (en) * | 2007-08-22 | 2012-07-24 | American Gnc Corporation | 4D GIS based virtual reality for moving target prediction |
US8005563B2 (en) | 2007-10-26 | 2011-08-23 | The Boeing Company | System for assembling aircraft |
JP2009260475A (ja) * | 2008-04-14 | 2009-11-05 | Mitsubishi Electric Corp | 情報処理装置及び情報処理方法及びプログラム |
US8138938B2 (en) | 2008-10-28 | 2012-03-20 | The Boeing Company | Hand-held positioning interface for spatial query |
US8279412B2 (en) | 2009-12-17 | 2012-10-02 | The Boeing Company | Position and orientation determination using movement data |
US8482556B2 (en) * | 2010-01-19 | 2013-07-09 | Xerox Corporation | Detachable screen for multifunction device showing 3D dynamic views |
CN101951502B (zh) * | 2010-10-19 | 2012-11-21 | 北京硅盾安全技术有限公司 | 一种三维智能视频监控方法 |
US9304319B2 (en) * | 2010-11-18 | 2016-04-05 | Microsoft Technology Licensing, Llc | Automatic focus improvement for augmented reality displays |
-
2012
- 2012-06-01 US US13/486,725 patent/US9058681B2/en active Active
-
2013
- 2013-02-22 CA CA2807582A patent/CA2807582C/en active Active
- 2013-05-27 CN CN201310199985.0A patent/CN103456025B/zh active Active
- 2013-05-30 JP JP2013113752A patent/JP6242591B2/ja active Active
- 2013-05-31 EP EP13170176.5A patent/EP2669763B1/en active Active
- 2013-06-03 BR BR102013013610-7A patent/BR102013013610B1/pt active IP Right Grant
Also Published As
Publication number | Publication date |
---|---|
BR102013013610B1 (pt) | 2021-09-28 |
CA2807582C (en) | 2015-12-22 |
US20130321391A1 (en) | 2013-12-05 |
CN103456025B (zh) | 2017-12-12 |
EP2669763A3 (en) | 2017-06-21 |
CA2807582A1 (en) | 2013-12-01 |
CN103456025A (zh) | 2013-12-18 |
US9058681B2 (en) | 2015-06-16 |
JP2013250268A (ja) | 2013-12-12 |
BR102013013610A2 (pt) | 2015-06-23 |
EP2669763A2 (en) | 2013-12-04 |
EP2669763B1 (en) | 2022-05-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6242591B2 (ja) | 仮想環境および物理環境における強化センサーによる位置特定 | |
US11093036B2 (en) | Tracking arm movements to generate inputs for computer systems | |
EP3120232B1 (en) | Determining user handedness and orientation using a touchscreen device | |
US9355451B2 (en) | Information processing device, information processing method, and program for recognizing attitude of a plane | |
US10521011B2 (en) | Calibration of inertial measurement units attached to arms of a user and to a head mounted device | |
CN107748569B (zh) | 用于无人机的运动控制方法、装置及无人机*** | |
CN109313417A (zh) | 帮助机器人定位 | |
JP2011075559A (ja) | 動き検出装置および方法 | |
US11662817B2 (en) | Method for controlling gimbal by somatosensory controller, gimbal, somatosensory controller, and system | |
US11531392B2 (en) | Tracking upper arm movements using sensor modules attached to the hand and forearm | |
JP6875269B2 (ja) | 情報処理装置、飛行制御指示方法、プログラム、及び記録媒体 | |
KR101914660B1 (ko) | 자이로 센서를 기반으로 증강현실 컨텐츠의 표시를 제어하는 방법 및 그 장치 | |
WO2015107853A1 (ja) | 進行方向情報出力装置、マップマッチング装置、進行方向情報出力方法、およびプログラム | |
US20210201011A1 (en) | Data processing method for multi-sensor fusion, positioning apparatus and virtual reality device | |
JP7144991B2 (ja) | 自律移動装置、自律移動プログラム及び位置推定システム | |
CN103529994B (zh) | 虚拟触摸输入方法及定位采集设备 | |
US11647358B2 (en) | Method for obtaining location information of a user using movement information of an electronic device or feature information | |
EP4100918B1 (en) | Method and system for aligning a digital model of a structure with a video stream | |
JP2022066992A (ja) | 測位装置、測位方法、および測位プログラム | |
Choi et al. | Development of 3-dimensional motion recognition based wireless transceiver for HMD | |
KR20230041461A (ko) | 외부의 측위 장치를 이용하여 전역 위치를 추정하기 위한 컴퓨팅 장치 및 그의 방법 | |
JP2015184391A (ja) | 画像表示方法、装置、および、プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160331 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160331 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170328 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170621 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171010 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171108 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6242591 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |