JP5844288B2 - 機能拡張装置、機能拡張方法、機能拡張プログラム、及び集積回路 - Google Patents
機能拡張装置、機能拡張方法、機能拡張プログラム、及び集積回路 Download PDFInfo
- Publication number
- JP5844288B2 JP5844288B2 JP2012555724A JP2012555724A JP5844288B2 JP 5844288 B2 JP5844288 B2 JP 5844288B2 JP 2012555724 A JP2012555724 A JP 2012555724A JP 2012555724 A JP2012555724 A JP 2012555724A JP 5844288 B2 JP5844288 B2 JP 5844288B2
- Authority
- JP
- Japan
- Prior art keywords
- function
- unit
- recognized
- user
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0483—Interaction with page-structured environments, e.g. book metaphor
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0132—Head-up displays characterised by optical features comprising binocular systems
- G02B2027/0134—Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Optics & Photonics (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
Description
方法1は、認識した物体の形状、大きさ、及び機能拡張システム1001のスペックから、当該物体に適合する操作及び機能を決定する方法である。
機能設定部1103は、操作判定部1106が文字を認識する機能を持つか持たないかに応じて、“書く”についての操作を機能として設定するか否かを判定する。例えば、操作判定部1106が、ユーザの“なぞる”の動作を認識することはできるが、認識した“なぞる”の動作からユーザが入力した文字を認識する機能を持たない場合もある。この場合、図3(C)に示す“書く”の操作を機能として設定しても無駄である。そこで、機能設定部1103は、操作判定部1106が文字認識機能を持たない場合、“書く”の操作を機能として設定しない。
機能設定部1103は、物体の大きさから図3(C)に示す“文字記入”の処理を機能として設定するか否かを判定する。例えば、オブジェクト認識部1101が認識した物体が本である場合、大きな本であればユーザは文字を書き込むが、小さな本であればユーザは文字を書き込まない。この場合、機能設定部1103は、物体の大きさが規定値より小さい場合、この物体に対して“文字記入”の処理を設定しない。
機能設定部1103は、記憶装置1007の容量やアクセス制限機能の有無から、“書き込み履歴の記録”を機能として設定するか否か判断する。例えば、記憶装置1007の容量が小さい場合や記憶装置1007のアクセスに制限が加えられている場合、記憶装置1007は、ユーザの書き込み履歴を記憶することができない。この場合、“書き込み履歴の記録”を物体の機能として設定しても無駄である。
例えば、物体として椅子を考える。椅子には、回転式の椅子と固定式の椅子とが存在する。固定式の椅子の形状は、脚が4本であることが一般的である。回転式の椅子は、脚が一本であることが一般的である。固定式の椅子に対してユーザは“回転”の操作は行わない。この場合、固定式の椅子に対して“回転”の操作を機能として設定しても無駄である。
方法2は、機能拡張システム1001を管理する管理者が認識した各物体に対して機能を設定する方法である。具体的には、機能設定部1103は、認識された各物体について、設定可能な操作及び処理の判定処理をサーバ1009に依頼する。すると、サーバ1009は、判定処理が依頼された物体について操作及び処理を判定し、判定した操作及び処理を含む判定結果を機能拡張システム1001に送信する。なお、管理者としては、機能拡張システム1001の製造者や機能拡張システム1001にアプリケーションを提供する提供者や、機能拡張システム1001の管理サービスを行うサービス提供者が該当する。
方法3は、ユーザに設定可能な操作及び処理を提示し、提示した操作及び処理の中から希望する操作及び処理を選択させる方法である。具体的には、オブジェクト認識部1101により種別が本の物体が認識されたとすると、機能設定部1103は、本のデフォルト機能に対応する機能対応情報に規定される操作及び処理(図3(C))をユーザに提示する。
Claims (12)
- 現実空間における物体を拡張現実空間に取り込み、当該物体に機能を設定する機能拡張装置であって、
映像入力装置により取得された現実空間の映像データから当該映像データに含まれる物体を認識し、認識した物体の種別及び現実空間での位置を認識するオブジェクト認識部と、
物体の種別ごとに設定可能な操作及び処理の組から構成される機能が規定された機能情報を保持し、前記オブジェクト認識部により物体が認識された際に、前記機能情報を参照し、認識された物体の種別から当該物体に対する機能を設定する機能設定部と、
前記現実空間において、ユーザにより行われた入力動作及び前記入力動作が行われた現実空間での入力位置を認識する入力認識部と、
前記オブジェクト認識部が認識した物体の現実空間での位置及び前記入力認識部が認識した現実空間での入力位置に基づいて、ユーザが操作対象として選択した選択物体を判定する選択判定部と、
前記入力認識部が認識した入力動作を用いて、ユーザの操作を判定する操作判定部と、
前記選択判定部が選択した選択物体に対して、前記機能設定部により設定された機能を構成する操作のうち、前記操作判定部により判定された操作に対する処理を決定する処理決定部と、
前記処理決定部が決定した処理を実行する実行部とを備え、
前記オブジェクト認識部は、認識した物体ごとに当該物体の種別を識別し、
前記機能設定部は、種別が同一の物体であっても物体ごとに機能を設定するものであり、前記オブジェクト認識部により物体が認識された際に、当該物体の種別に対して設定可能な操作及び処理のうち、当該物体に対して設定可能な操作及び処理を、前記機能拡張装置の能力及び前記機能拡張装置に接続される周辺装置の能力に基づいて判定し、判定した操作及び処理を当該物体の機能として設定する機能拡張装置。 - 前記入力認識部は、入力動作を行ったユーザを識別するためのユーザ識別子を取得し、
前記機能設定部は、前記オブジェクト認識部により物体が認識された際に、当該物体の種別に対して設定可能な操作及び処理の候補をユーザに提示し、ユーザにより選択された操作及び処理を当該物体の機能として設定し、設定した機能を、前記ユーザ識別子と対応付けて保持し、
前記処理決定部は、前記機能設定部が前記ユーザ識別子を持つユーザに対して設定した機能を構成する操作のうち、前記操作判定部により判定された操作に対する処理を決定する請求項1記載の機能拡張装置。 - 前記オブジェクト認識部は、物体の形状及び大きさを認識し、
前記機能設定部は、前記オブジェクト認識部が認識した物体の形状及び大きさの少なくともいずれか一方に基づいて、当該物体に設定可能な操作及び処理を判定する請求項1又は3記載の機能拡張装置。 - 前記機能設定部は、所定の通信ネットワークを介して外部判定装置と接続され、前記オブジェクト認識部により物体が認識された際に、当該物体の種別に対して設定可能な操作及び処理のうち、当該物体に対して設定可能な操作及び処理の判定処理を前記外部判定装置に依頼し、前記外部判定装置による判定結果にしたがって、当該物体に対する機能を設定する請求項1、3、及び5のいずれかに記載の機能拡張装置。
- 前記機能設定部は、所定の通信ネットワークを介して接続されたサーバから前記機能情報を取得する請求項1、3、5、及び7のいずれかに記載の機能拡張装置。
- 前記実行部は、前記映像入力装置により取得された映像データにグラフィックスを重畳させて映像出力装置に表示させる映像出力制御部を含み、
前記処理決定部により決定された処理が前記選択物体に対してグラフィックスを重畳させる処理である場合、前記選択物体に重畳させるグラフィックスを生成し、生成したグラフィックスを前記選択物体に重畳させる描画依頼を前記映像出力制御部に出力するグラフィックス生成部を更に備える請求項1、3、5、7、及び8のいずれかに記載の機能拡張装置。 - 前記実行部は、ユーザに対して触覚を付与する触覚出力装置を制御する触覚出力制御部を含み、
前記触覚出力制御部は、前記選択物体へのグラフィックスの重畳に付随してユーザに触覚を付与するために前記触覚出力装置を駆動させる請求項9記載の機能拡張装置。 - オブジェクト認識部により認識された各物体に対して物体識別子を付与し、前記物体識別子、前記物体の種別、及び前記物体の現実空間での位置を含む物体毎の3D立体視モデルを生成し、生成した物体毎の3D立体視モデルを物体認識通知として前記機能設定部に通知する3Dモデル管理部を更に備え、
前記機能設定部は、前記3Dモデル管理部から物体認識通知が通知されたときに、通知された物体認識通知が示す物体が前記オブジェクト認識部により認識されたと判定し、前記機能情報を参照して認識された物体の種別から当該物体に対する機能を設定する請求項1、3、5、7、8、9、及び10のいずれかに記載の機能拡張装置。 - 前記3Dモデル管理部は、前記オブジェクト認識部により認識された各物体の位置データ及び物体識別子を対応付けた物体情報を前記選択判定部に通知し、
前記選択判定部は、前記3Dモデル管理部から通知された物体情報によって前記オブジェクト認識部により認識された各物体の現実空間での位置を認識し、前記入力認識部により認識された前記入力位置に対して所定範囲内に位置する物体を前記選択物体として判定する請求項11記載の機能拡張装置。 - 現実空間における物体を拡張現実空間に取り込み、当該物体に機能を設定する機能拡張方法であって、
機能拡張装置が、映像入力装置により取得された現実空間の映像データから当該映像データに含まれる物体を認識し、認識した物体の種別及び現実空間での位置を認識するオブジェクト認識ステップと、
機能拡張装置が、物体の種別ごとに設定可能な操作及び処理の組から構成される機能が規定された機能情報を保持し、前記オブジェクト認識ステップにより物体が認識された際に、前記機能情報を参照し、認識された物体の種別から当該物体に対する機能を設定する機能設定ステップと、
機能拡張装置が、前記現実空間において、ユーザにより行われた入力動作及び前記入力動作が行われた現実空間での入力位置を認識する入力認識ステップと、
機能拡張装置が、前記オブジェクト認識部が認識した物体の現実空間での位置及び前記入力認識ステップが認識した現実空間での入力位置に基づいて、ユーザが操作対象として選択した選択物体を判定する選択判定ステップと、
機能拡張装置が、前記入力認識ステップが認識した入力動作を用いて、ユーザの操作を判定する操作判定ステップと、
機能拡張装置が、前記選択判定部が選択した選択物体に対して、前記機能設定ステップにより設定された機能を構成する操作のうち、前記操作判定ステップにより判定された操作に対する処理を決定する処理決定ステップと、
機能拡張装置が、前記処理決定ステップが決定した処理を実行する実行ステップとを備え、
機能拡張装置が、前記オブジェクト認識ステップにおいて、認識した物体ごとに当該物体の種別を識別し、
前記機能設定ステップにおいて、機能拡張装置は、種別が同一の物体であっても物体ごとに機能を設定するものであり、前記オブジェクト認識部により物体が認識された際に、当該物体の種別に対して設定可能な操作及び処理のうち、当該物体に対して設定可能な操作及び処理を、前記機能拡張装置の能力及び前記機能拡張装置に接続される周辺装置の能力に基づいて判定し、判定した操作及び処理を当該物体の機能として設定する機能拡張方法。 - 現実空間における物体を拡張現実空間に取り込み、当該物体に機能を設定する機能拡張装置としてコンピュータを機能させる機能拡張プログラムであって、
映像入力装置により取得された現実空間の映像データから当該映像データに含まれる物体を認識し、認識した物体の種別及び現実空間での位置を認識するオブジェクト認識部と、
物体の種別ごとに設定可能な操作及び処理の組から構成される機能が規定された機能情報を保持し、前記オブジェクト認識部により物体が認識された際に、前記機能情報を参照し、認識された物体の種別から当該物体に対する機能を設定する機能設定部と、
前記現実空間において、ユーザにより行われた入力動作及び前記入力動作が行われた現実空間での入力位置を認識する入力認識部と、
前記オブジェクト認識部が認識した物体の現実空間での位置及び前記入力認識部が認識した現実空間での入力位置に基づいて、ユーザが操作対象として選択した選択物体を判定する選択判定部と、
前記入力認識部が認識した入力動作を用いて、ユーザの操作を判定する操作判定部と、
前記選択判定部が選択した選択物体に対して、前記機能設定部により設定された機能を構成する操作のうち、前記操作判定部により判定された操作に対する処理を決定する処理決定部と、
前記処理決定部が決定した処理を実行する実行部としてコンピュータを機能させ、
前記オブジェクト認識部は、認識した物体ごとに当該物体の種別を識別し、
前記機能設定部は、種別が同一の物体であっても物体ごとに機能を設定するものであり、前記オブジェクト認識部により物体が認識された際に、当該物体の種別に対して設定可能な操作及び処理のうち、当該物体に対して設定可能な操作及び処理を、前記機能拡張装置の能力及び前記機能拡張装置に接続される周辺装置の能力に基づいて判定し、判定した操作及び処理を当該物体の機能として設定する機能拡張プログラム。 - 現実空間における物体を拡張現実空間に取り込み、当該物体に機能を設定する機能拡張装置の集積回路であって、
映像入力装置により取得された現実空間の映像データから当該映像データに含まれる物体を認識し、認識した物体の種別及び現実空間での位置を認識するオブジェクト認識部と、
物体の種別ごとに設定可能な操作及び処理の組から構成される機能が規定された機能情報を保持し、前記オブジェクト認識部により物体が認識された際に、前記機能情報を参照し、認識された物体の種別から当該物体に対する機能を設定する機能設定部と、
前記現実空間において、ユーザにより行われた入力動作及び前記入力動作が行われた現実空間での入力位置を認識する入力認識部と、
前記オブジェクト認識部が認識した物体の現実空間での位置及び前記入力認識部が認識した現実空間での入力位置に基づいて、ユーザが操作対象として選択した選択物体を判定する選択判定部と、
前記入力認識部が認識した入力動作を用いて、ユーザの操作を判定する操作判定部と、
前記選択判定部が選択した選択物体に対して、前記機能設定部により設定された機能を構成する操作のうち、前記操作判定部により判定された操作に対する処理を決定する処理決定部と、
前記処理決定部が決定した処理を実行する実行部とを備え、
前記オブジェクト認識部は、認識した物体ごとに当該物体の種別を識別し、
前記機能設定部は、種別が同一の物体であっても物体ごとに機能を設定するものであり、前記オブジェクト認識部により物体が認識された際に、当該物体の種別に対して設定可能な操作及び処理のうち、当該物体に対して設定可能な操作及び処理を、前記機能拡張装置の能力及び前記機能拡張装置に接続される周辺装置の能力に基づいて判定し、判定した操作及び処理を当該物体の機能として設定する集積回路。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012555724A JP5844288B2 (ja) | 2011-02-01 | 2012-01-20 | 機能拡張装置、機能拡張方法、機能拡張プログラム、及び集積回路 |
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011019784 | 2011-02-01 | ||
JP2011019784 | 2011-02-01 | ||
JP2012555724A JP5844288B2 (ja) | 2011-02-01 | 2012-01-20 | 機能拡張装置、機能拡張方法、機能拡張プログラム、及び集積回路 |
PCT/JP2012/000357 WO2012105175A1 (ja) | 2011-02-01 | 2012-01-20 | 機能拡張装置、機能拡張方法、機能拡張プログラム、及び集積回路 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2012105175A1 JPWO2012105175A1 (ja) | 2014-07-03 |
JP5844288B2 true JP5844288B2 (ja) | 2016-01-13 |
Family
ID=46602403
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012555724A Active JP5844288B2 (ja) | 2011-02-01 | 2012-01-20 | 機能拡張装置、機能拡張方法、機能拡張プログラム、及び集積回路 |
Country Status (4)
Country | Link |
---|---|
US (1) | US8965049B2 (ja) |
JP (1) | JP5844288B2 (ja) |
CN (1) | CN103003783B (ja) |
WO (1) | WO2012105175A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7296517B2 (ja) | 2020-02-21 | 2023-06-22 | 本田技研工業株式会社 | 鞍乗り型車両 |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104685869B (zh) | 2012-09-27 | 2018-12-28 | 京瓷株式会社 | 显示装置、控制方法 |
WO2014164901A1 (en) | 2013-03-11 | 2014-10-09 | Magic Leap, Inc. | System and method for augmented and virtual reality |
US9092954B2 (en) * | 2013-03-15 | 2015-07-28 | Immersion Corporation | Wearable haptic device |
CN108628446B (zh) | 2013-03-15 | 2021-10-26 | 奇跃公司 | 显示***和方法 |
JP5900393B2 (ja) * | 2013-03-21 | 2016-04-06 | ソニー株式会社 | 情報処理装置、操作制御方法及びプログラム |
JP6108926B2 (ja) * | 2013-04-15 | 2017-04-05 | オリンパス株式会社 | ウェアラブル装置、プログラム及びウェアラブル装置の表示制御方法 |
US9720559B2 (en) | 2013-10-14 | 2017-08-01 | Microsoft Technology Licensing, Llc | Command authentication |
JP2015135645A (ja) * | 2014-01-20 | 2015-07-27 | ヤフー株式会社 | 情報表示制御装置、情報表示制御方法及びプログラム |
US9396586B2 (en) | 2014-03-14 | 2016-07-19 | Matterport, Inc. | Processing and/or transmitting 3D data |
JPWO2015159550A1 (ja) * | 2014-04-18 | 2017-04-13 | Necソリューションイノベータ株式会社 | 情報処理システム、制御方法、及びプログラム |
US9792487B2 (en) * | 2014-12-29 | 2017-10-17 | Dell Products, Lp | System and method for determining dimensions of an object in an image |
US9569859B2 (en) | 2014-12-29 | 2017-02-14 | Dell Products, Lp | System and method for redefining depth-based edge snapping for three-dimensional point selection |
US20170061700A1 (en) * | 2015-02-13 | 2017-03-02 | Julian Michael Urbach | Intercommunication between a head mounted display and a real world object |
US10088866B2 (en) * | 2015-03-18 | 2018-10-02 | Motorola Mobility Llc | Controlling the orientation of a device display based on usage context |
CN108369451B (zh) * | 2015-12-18 | 2021-10-29 | 索尼公司 | 信息处理装置、信息处理方法及计算机可读存储介质 |
WO2018123497A1 (ja) * | 2016-12-27 | 2018-07-05 | ソニー株式会社 | 情報処理装置、情報処理方法及びコンピュータプログラム |
JP2017163560A (ja) * | 2017-04-06 | 2017-09-14 | 京セラ株式会社 | 表示装置、システムおよび表示方法 |
JP6714632B2 (ja) * | 2018-03-20 | 2020-06-24 | マクセル株式会社 | 情報表示端末及び情報表示方法 |
US11262903B2 (en) * | 2018-03-30 | 2022-03-01 | Data Alliance Co., Ltd. | IoT device control system and method using virtual reality and augmented reality |
US10713487B2 (en) | 2018-06-29 | 2020-07-14 | Pixart Imaging Inc. | Object determining system and electronic apparatus applying the object determining system |
WO2020047486A1 (en) | 2018-08-31 | 2020-03-05 | Magic Leap, Inc. | Spatially-resolved dynamic dimming for augmented reality device |
JP2022517207A (ja) | 2019-01-11 | 2022-03-07 | マジック リープ, インコーポレイテッド | 種々の深度における仮想コンテンツの時間多重化された表示 |
US11354026B1 (en) * | 2020-01-28 | 2022-06-07 | Apple Inc. | Method and device for assigning an operation set |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001154781A (ja) * | 1999-11-29 | 2001-06-08 | Nec Corp | デスクトップ情報装置 |
JP2004531791A (ja) * | 2001-01-24 | 2004-10-14 | ジオベクター コーポレーション | 物をアドレスするポインティング・システム |
US20100199232A1 (en) * | 2009-02-03 | 2010-08-05 | Massachusetts Institute Of Technology | Wearable Gestural Interface |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10207620A (ja) | 1997-01-28 | 1998-08-07 | Atr Chinou Eizo Tsushin Kenkyusho:Kk | 立体インタラクション装置および立体インタラクション方法 |
JP4332964B2 (ja) * | 1999-12-21 | 2009-09-16 | ソニー株式会社 | 情報入出力システム及び情報入出力方法 |
CN1405726A (zh) * | 2001-08-16 | 2003-03-26 | 力捷电脑股份有限公司 | 自动识别扫描区域的方法 |
US20030156135A1 (en) * | 2002-02-15 | 2003-08-21 | Lucarelli Designs & Displays, Inc. | Virtual reality system for tradeshows and associated methods |
WO2005123210A2 (en) * | 2004-06-08 | 2005-12-29 | Speechgear, Inc. | Figurine using wireless communication to harness external computing power |
US8082245B2 (en) * | 2008-09-11 | 2011-12-20 | International Business Machines Corporation | Providing location information within a virtual world |
JP2011008601A (ja) * | 2009-06-26 | 2011-01-13 | Sony Computer Entertainment Inc | 情報処理装置および情報処理方法 |
US20120293506A1 (en) * | 2009-11-10 | 2012-11-22 | Selex Sistemi Integrati S.P.A. | Avatar-Based Virtual Collaborative Assistance |
US8743145B1 (en) * | 2010-08-26 | 2014-06-03 | Amazon Technologies, Inc. | Visual overlay for augmenting reality |
US20120075490A1 (en) * | 2010-09-27 | 2012-03-29 | Johney Tsai | Systems and methods for determining positioning of objects within a scene in video content |
US9122053B2 (en) * | 2010-10-15 | 2015-09-01 | Microsoft Technology Licensing, Llc | Realistic occlusion for a head mounted augmented reality display |
US9113050B2 (en) * | 2011-01-13 | 2015-08-18 | The Boeing Company | Augmented collaboration system |
-
2012
- 2012-01-20 JP JP2012555724A patent/JP5844288B2/ja active Active
- 2012-01-20 CN CN201280002073.3A patent/CN103003783B/zh active Active
- 2012-01-20 US US13/811,092 patent/US8965049B2/en active Active
- 2012-01-20 WO PCT/JP2012/000357 patent/WO2012105175A1/ja active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001154781A (ja) * | 1999-11-29 | 2001-06-08 | Nec Corp | デスクトップ情報装置 |
JP2004531791A (ja) * | 2001-01-24 | 2004-10-14 | ジオベクター コーポレーション | 物をアドレスするポインティング・システム |
US20100199232A1 (en) * | 2009-02-03 | 2010-08-05 | Massachusetts Institute Of Technology | Wearable Gestural Interface |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7296517B2 (ja) | 2020-02-21 | 2023-06-22 | 本田技研工業株式会社 | 鞍乗り型車両 |
Also Published As
Publication number | Publication date |
---|---|
US8965049B2 (en) | 2015-02-24 |
CN103003783B (zh) | 2016-01-20 |
JPWO2012105175A1 (ja) | 2014-07-03 |
CN103003783A (zh) | 2013-03-27 |
WO2012105175A1 (ja) | 2012-08-09 |
US20130156266A1 (en) | 2013-06-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5844288B2 (ja) | 機能拡張装置、機能拡張方法、機能拡張プログラム、及び集積回路 | |
US11747634B1 (en) | Augmented reality content creation | |
CN110832441B (zh) | 用于虚拟、增强和混合现实显示***的键盘 | |
CN110603515B (zh) | 利用共享锚点显示的虚拟内容 | |
US11609675B2 (en) | Placement of objects in an augmented reality environment | |
US11087551B2 (en) | Systems and methods for attaching synchronized information between physical and virtual environments | |
US10495878B2 (en) | Mobile terminal and controlling method thereof | |
US9329678B2 (en) | Augmented reality overlay for control devices | |
KR101737725B1 (ko) | 컨텐츠 생성 툴 | |
CN102023706B (zh) | 用于与虚拟环境中的对象进行交互的*** | |
JP2013172432A (ja) | 機器制御装置、機器制御方法、機器制御プログラム、及び集積回路 | |
KR20200121357A (ko) | 물리적 조작을 사용한 오브젝트 생성 | |
US20170053449A1 (en) | Apparatus for providing virtual contents to augment usability of real object and method using the same | |
CN108474950A (zh) | Hmd设备及其控制方法 | |
JP2012181809A (ja) | 機器制御装置、機器制御方法、機器制御プログラム、及び集積回路 | |
EP4111696A1 (en) | System and method for playback of augmented reality content triggered by image recognition | |
KR102043274B1 (ko) | 3d 객체와 마커를 포함한 mr 콘텐츠를 제공하는 사이니지 시스템 및 그 방법 | |
US20220291808A1 (en) | Integrating Artificial Reality and Other Computing Devices | |
WO2012148844A2 (en) | Laser diode modes | |
CN111651049B (zh) | 交互方法、装置、计算机设备及存储介质 | |
CN111488090A (zh) | 交互方法、装置、交互***、电子设备及存储介质 | |
CN111652986B (zh) | 舞台效果呈现方法、装置、电子设备及存储介质 | |
KR102167588B1 (ko) | 복수의 사용자 장치를 기반으로 동영상을 생성하는 컨텐츠 생성 서비스 장치, 복수의 사용자 장치를 기반으로 동영상을 생성하는 방법 및 컴퓨터 프로그램이 기록된 기록매체 | |
KR20190094875A (ko) | 3d 객체와 마커를 포함한 mr 콘텐츠를 제공하는 사이니지 시스템 및 그 방법 | |
CN117850655A (zh) | 信息输入方法、装置、设备和介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20140606 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140818 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20151027 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20151118 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5844288 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |