JP2012094138A - 拡張現実ユーザインタフェース提供装置および方法 - Google Patents

拡張現実ユーザインタフェース提供装置および方法 Download PDF

Info

Publication number
JP2012094138A
JP2012094138A JP2011230318A JP2011230318A JP2012094138A JP 2012094138 A JP2012094138 A JP 2012094138A JP 2011230318 A JP2011230318 A JP 2011230318A JP 2011230318 A JP2011230318 A JP 2011230318A JP 2012094138 A JP2012094138 A JP 2012094138A
Authority
JP
Japan
Prior art keywords
augmented reality
information
user interface
video
group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011230318A
Other languages
English (en)
Inventor
Hee-Ju Yi
喜 周 李
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pantech Co Ltd
Original Assignee
Pantech Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pantech Co Ltd filed Critical Pantech Co Ltd
Publication of JP2012094138A publication Critical patent/JP2012094138A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/24Character recognition characterised by the processing or recognition method
    • G06V30/242Division of the character sequences into groups prior to recognition; Selection of dictionaries

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】拡張現実ユーザインタフェース提供装置および方法を提供する。
【解決手段】
本発明は、拡張現実ユーザインタフェース提供方法であって、客体を含む映像を取得し、取得された映像に含まれた少なくとも一つ以上の客体を認識し、認識された客体に関連付けられた拡張現実情報を検出し、検出された拡張現実情報を特定の属性に応じて一つ以上のグループに分類し、拡張現実情報をグループ毎に分けて表示するユーザインタフェースを生成し、生成されたユーザインタフェースを出力することを含む。
【選択図】図2

Description

本発明は、拡張現実ユーザインタフェース提供装置および方法に関し、より詳細には、拡張現実情報提供のためのユーザインタフェース(user interface;UI)技術に関するものである。
拡張現実(augmented reality;AR)とは、実際の環境に仮想の事物や情報を合成して、元の環境に存在する事物であるかのように見えるようにするコンピュータグラフィックの技法をいう。
拡張現実は、仮想の空間と事物のみを対象とする従来の仮想現実とは異なり、現実世界の基盤の上に仮想の事物を合成して、現実世界だけでは得ることが難しい付加的な情報等を補強して提供するという特徴を有する。単純にゲームのような分野だけに限定されて適用が可能であった既存の仮想現実とは異なり、拡張現実は様々な現実環境に応用することが可能である。
例えば、観光客が、ロンドンの通りで、カメラやGPSセンサなどのさまざまな技術が搭載されている携帯電話のカメラなどを特定の方向に向けると、現在移動中の通りに位置する飲食店やセール中の店に対する拡張現実のデータを実際の映像に重ねて表示する方法が挙げられる。
ところが、このような拡張現実のデータサービスが徐々に拡大するにつれて、膨大な量の拡張現実データが同一画面上に一度に表示される場合がある。この場合、画面上にあまりにも多くの拡張現実データが出力されるので、ユーザは自分の欲しい情報を取得することが容易ではないという問題点がある。
本発明の一実施例は、ユーザが容易に自分が望む拡張現実情報を検索することができる拡張現実ユーザインタフェース提供装置および方法を提供する。
本発明のさらなる特徴は以下の記述で規定されるが、その一部は以下の記述から明らかであり、又は本発明の実施から理解されてもよい。
本発明の一実施例は、拡張現実ユーザインタフェース提供方法であって、客体(object;オブジェクト)を含む映像を取得し、取得された映像に含まれている少なくとも一つ以上の客体を認識し、認識された客体に関連付けられた拡張現実情報を検出し、検出された拡張現実情報を特定の属性に応じて一つ以上のグループに分類し、拡張現実の情報をグループ毎に分けて表示するユーザインタフェースを生成し、生成されたユーザインタフェースを出力することを含む。
本発明の一実施例は、拡張現実ユーザインタフェース提供装置であって、客体を含む映像を取得する映像取得部と、映像取得部から出力された映像及び拡張現実情報を出力する表示部と、映像取得部から取得された映像に含まれている少なくとも一つ以上の客体を認識して、認識された客体に関連付けられた拡張現実情報を検出して、検出された拡張現実情報を特定の属性に応じて一つ以上のグループに分類して、上記拡張現実情報をグループ毎に分けて表示するユーザインタフェースを生成して、生成されたユーザインタフェースを出力する制御部を含む。
上記の一般的な記述と以下の詳細な記述は例示であって、特許請求の範囲に記載された本発明のさらなる説明を提供するためのものであると理解されなければならない。他の特徴や一面は以下の詳細な記述、図面、及び特許請求の範囲から明らかになるであろう。
本発明によれば、取得された映像に含まれる一つ以上の客体に関する拡張現実情報を、属性に応じて一つ以上のグループに分類して、上記拡張現実情報をグループ毎に分けて表示するユーザインタフェースを提供することにより、ユーザが自分の必要とする拡張現実情報を迅速かつ正確に検索および利用することができる。
本発明の一実施形態にかかる拡張現実ユーザインタフェース装置の構成図である。 本発明の一実施形態にかかる拡張現実情報を提供するためのユーザインタフェースの概要を示す図である。 本発明の一実施形態にかかるコンテクスト情報(context information)に基づいて生成されたユーザインタフェースの概要を示す図である。 本発明の一実施形態にかかる臨時メモリに蓄積される拡張現実情報を説明するためのユーザインタフェースの概要を示す図である。 本発明の一実施形態にかかる拡張現実ユーザインタフェース提供方法を説明するためのフローチャートである。
本発明をより良く理解するために提供され、本明細書に組み込まれ、その一部を構成する添付の図面は、本発明の実施例を説明するものであり、本明細書と一体となって本発明の趣旨を説明するものである。
以下、本発明の実施例を示す添付の図面を参照して本発明をより詳細に説明する。しかしながら、本発明は多様な異なる形態で実施されてもよく、以下に規定する実施例に限定されるものではない。むしろ、これらの実施例は当業者に本発明の範囲を完全に開示するために提供される。図面において、層や領域の大きさ又はその相対的な大きさは、分かりやすくするために誇張されている場合がある。図面において同様の参照符号は同様の構成要素を示す。
以下で使用される用語は、本発明の実施形態における機能を考慮して定義された用語として、ユーザ、または実施する者の意図、慣例などによって十分に変更されてもよい事項であるため、これらの用語の定義は、本発明の明細書の全体にわたる内容に基づいて判断される。
図1は、本発明の一実施形態にかかる拡張現実ユーザインタフェース装置の構成図である。
図1を参照すると、本発明の実施形態にかかる拡張現実ユーザインタフェース提供装置は、映像取得部(110)、表示部(120)、データベース(130)および制御部(140)を含み、センサ部(150)、操作部(160)、および臨時メモリ(170)をさらに含むものでもよい。
映像取得部(110)は、少なくとも一つ以上の拡張現実客体(augmented reality object)(以下、「客体」(object)という)が含まれている映像を取得するカメラ、またはイメージセンサーであってもよい。また、追加的な態様として、映像取得部(110)は、映像撮影時に制御部(140)の制御により、映像を自動または手動で拡大または縮小し、及び/または映像を自動または手動で回転することの可能なカメラであってもよい。本発明で使用される客体とは、実世界に存在するマーカー(marker)、又はマーカーレス基盤の客体(marker−less−based object)を意味する。
表示部(120)は、映像取得部(110)によって取得された映像と、映像に含まれる少なくとも一つ以上の客体に関連する拡張現実情報を上記映像にオーバーラップさせて出力する。本発明の一実施形態において、制御部(140)は表示部(120)に拡張現実情報を出力する際に、特定の属性に応じて、拡張現実情報をグループ別に分類された形態のユーザインタフェースを通じて出力することができる。
図2は、本発明の一実施形態にかかる拡張現実情報を提供するためのユーザインタフェース(User Interface:UI)の概要を示した図である。
図2を参照すると、n個のグループに分類される拡張現実情報が、それぞれのグループ毎にn個の画面に分けて表示されるUIが図示されている。すなわち、取得された映像に含まれる少なくとも一つ以上の客体に関連する拡張現実情報が多数存在する場合、図2に示されたように、多数の拡張現実情報は、金融機関、便宜施設、カフェ、飲食店、教育施設、オフィス、休憩空間、インフォメーションデスクなどの同じ属性を有するn個のグループに分類され、上記n個のグループに分類された拡張現実情報は、グループ毎に分類されてそれぞれ異なるn個の画面に表示される。n個の画面は、n個の対応する画面を有する多面体(polyhedron)を構成してもよく、多面体のn個の画面は表示部(120)に表示されてもよい。
再び図2を参照すると、データベース(130)は、本発明の一実施形態を実現するための情報を蓄積するために、装置に内蔵された形態で構成されてもよく、または装置の外部に形成され、装置がネットワークを通じてデータの提供を受ける形態で構成されてもよい。データベース(130)が装置の外部に形成されてネットワーク上でデータの提供を受ける形態である場合は、本発明の実施形態にかかる拡張現実ユーザインタフェース提供装置は、ネットワークの通信が可能な通信インタフェースをさらに含む構成を有するものでもよい。
データベース(130)は、本発明の一実施形態において、客体認識情報(161)、拡張現実情報(162)、インタフェース決定情報(163)およびコンテクスト情報(164)を含むものでもよい。
客体認識情報(161)は、客体を認識するためのマッピング情報として、特定の客体の特徴情報を蓄積する。このような客体の特徴情報は、客体の模様、色、質感、パターン、カラーヒストグラム、構造的特徴、及び/又はエッジ情報を含むものでもよい。制御部(140)は、このようなフィルタの情報によって取得された客体認識情報をあらかじめ蓄積されている客体認識情報(161)と比較して、客体が何であるかを判断する。また、本発明の一実施形態において、客体の認識情報にGPSデータなどの客体の位置情報も含めてもよい。すなわち、同一の客体の特徴情報を有する客体であっても、位置に応じて、異なる客体として認識されてもよい。このような客体認識情報(161)によって認識された客体には、それぞれ識別子が付与されて区別されてもよい。
拡張現実情報(162)は、客体に関連する情報を蓄積することで、このような拡張現実情報の一例として、客体が木である場合、その木の名前、主な生息地、生態学的特徴等を所定のタグイメージ(tag image)を通じて表現してもよい。このような拡張現実情報は、マッピングされる客体と同一の識別子が付与されて管理されてもよい。
ユーザインタフェース決定情報(163)は、ユーザインタフェース決定情報であるとともに検出された拡張現実情報を提供するためのUI生成情報であってもよい。ユーザインタフェース決定情報(163)は、検出された拡張現実情報をどのように分類するかの分類基準となる属性情報、グループの大きさに応じてどのような形のUIを生成するかのUI形態情報などを含むものでもよい。
コンテクスト情報(164)は、拡張現実情報を個人化(personalize)するための情報を含み、例えばユーザの名前、年齢、性別などを含むユーザ情報、ユーザの送受信メールで頻繁に使われる単語、よく使われるアプリケーション、よく使われる検索キーワード、接続サイトのランキング、現在のタイムゾーンと位置、感情の状態などを含み、制御部(140)は、このようなコンテクスト情報を利用して提供される拡張現実情報をフィルタリングして出力してもよい。また、本発明の一実施形態において、このようなコンテクスト情報(164)は、制御部(140)がUIを生成する際に、画面配置の優先順位を決定する情報として使用されてもよい。図3は、本発明の一実施形態におけるコンテクスト情報に応じて生成されたユーザインタフェースの一例を示した図である。
図3を参照すると、現在の表示部(120)の映像に含まれる客体に対する拡張現実情報のうち、飲食店に関する情報グループが出力されている。UIを通じて拡張現実情報グループを配置する際に、コンテクスト情報を利用して、各グループの順位を決定してもよい。
図3を参照すると、現在のコンテクスト情報において端末ユーザの選好度の第1位は、飲食店の情報であってもよい。そして、カフェ、教育施設の情報が次の順位であり、金融機関、休憩空間がその次の順位になってもよい。
また、制御部(140)は、拡張現実情報をグループに分類する際に、2次以上に渡ってグループ分類を行うものでもよい。例えば、制御部(140)は、コンテクスト情報を利用して、同一の飲食店をサブグループに再分類してもよく、図3に示されたようにコンテクスト基盤拡張現実データ選好度第1位に該当するグループを表示するようにして、第2位以降は縦の方向に配置されるようにしてもよい。
制御部(140)は、前述のような各構成要素を制御して、本発明に基づいてグループ別に分類するユーザインタフェースを通じて拡張現実ユーザインタフェースを提供する方法を実現するためのハードウェアプロセッサまたはハードウェアプロセッサで実行されるソフトウェアモジュールであってもよい。制御部(140)の動作説明は後述する拡張現実客体認識ガイドの方法において詳細に説明する。
再び図1を参照すると、センサ部(150)は、制御部(140)の映像から客体の検出または客体の検出に関する拡張現実データの検出を補うために、別のセンシング情報(例えば、現在時刻、現在位置、撮影方向など)を提供する。このようなセンサ部(150)は、例えば、GPS衛星が送信するカメラの位置情報信号を受信するGPS受信機、カメラの方位角および傾斜角を感知して出力するジャイロセンサ又はジャイロスコープ、およびカメラの回転方向と回転量を測定して出力する加速度センサを含んでもよい。
ユーザインタフェース部である操作部(160)は、ユーザから情報の入力を受ける手段であってもよく、例えばキーボタンを押すたびにキーデータを生成するキー入力部、またはタッチセンサ、マウスなどを含むものでもよい。本発明の追加的な態様に応じて、操作部(160)を通じて拡張現実情報グループ移動情報の入力を受けてもよい。さらに、操作部(160)及び表示部(120)はタッチスクリーンに組み込まれていてもよい。
臨時メモリ(170)は、拡張現実情報のグループのうち、現在の表示部(120)に出力されている拡張現実情報のグループと隣合った画面に出力されるグループの拡張現実情報をあらかじめ蓄積することにより、それ以降の操作部(160)を通じたグループの移動要請信号に応じて、隣合うグループに該当する拡張現実情報を検出するためのプロセシングの遅延を防止する。
図4は、本発明の一実施例における臨時メモリに蓄積される拡張現実情報を説明するためのユーザインタフェースの概要を示した図である。
図4を参照すると、現在、飲食店に関する拡張現実情報が多面体(polyhedron)の一面である画面に表示されている。現在飲食店に関する拡張現実情報を表示しているユーザインタフェースの隣に配置された多面体の画面に登録されたカフェ、教育施設のグループに含まれている拡張現実情報が臨時メモリ(170)にあらかじめ蓄積される。図4には臨時メモリ(170)に蓄積される拡張現実情報としてたった2つの拡張現実情報グループが記載されているが、本発明はこれに限定されるものではなく、より少ないまたはより多くのグループが臨時メモリ(170)に蓄積されてもよい。
図5は、本発明の一実施例にかかる拡張現実情報ユーザインターフェースの提供方法を説明するためのフローチャートである。
図1及び図5を参照すると、操作部(160)及び/又は表示部(120)を介してユーザによるキー入力又はタッチ入力によって客体認識モードが設定されると、制御部(140)は、ステップ510で映像取得部(110)を駆動させて、少なくとも一つ以上の客体を含む映像を取得する。これにより、制御部(140)は、ステップ520で、取得された映像に含まれている客体を確認する。このとき、認識される客体は一つ以上であってもよく、例えば、映像に複数の建物が含まれている場合、ユーザの選択信号によって、複数の建物のすべてが客体と認識されてもよく、一つの建物だけが客体として認識されてもよい。そして、客体を認識する際に、制御部(140)は映像情報、センサ部(150)によって取得された端末の位置情報、及び/又は客体認識情報(161)を参照してもよい。客体認識情報(161)は、客体を認識するために映像の客体と比較されてもよい。
制御部(140)は、ステップ530で認識された客体に関連付けられた拡張現実情報を検出する。すなわち、制御部(140)は、認識された客体に付与された識別子と同一の識別子が付与された拡張現実情報を検出する。
そして、制御部(140)は、ステップ540で上記検出の結果、認識された一つ以上の客体に関連する拡張現実情報が存在するかどうかを判断する。すなわち、客体に関連付けられた拡張現実情報が存在しない場合もある。
ステップ540の判断の結果、認識された客体に関連付けられた拡張現実データが存在する場合、制御部(140)は、ステップ550で事前に蓄積された基準属性に応じて、多数の拡張現実情報を所定のグループに分類する。このとき、制御部(140)は、2次以上の分類を行ってもよく、すなわち、1次の分類によって形成されたグループを再度サブグループに分類してもよい。しかし、本発明はこれに限定されるものではなく、制御部(140)は拡張現実情報を1次、2次、又はそれ以上、例えば3次に分類してもよい。
そして、ステップ560において拡張現実情報のグループのそれぞれが分類されて出力されるユーザインタフェースを生成する。
すなわち、制御部(140)は、分類されたグループの数に対応したユーザインタフェースを生成する。例えば、図2に示すように、グループの数がn個である場合、n個の画面を有するユーザインタフェースを生成してもよい。このグループは、多面体のn個の画面上、例えば、図4に示すような八面体の8個の画面に各画面に対応する8グループの拡張現実情報を表示してもよい。
この時、制御部(140)は、ユーザインタフェースを生成する際に、コンテクスト情報を利用してもよく、表示される拡張データに優先順位を適用可能として、効率的な情報検索ができるようにする。そして、制御部(140)は、ステップ570において生成されたUIを通じて拡張現実情報を表示する。
また、制御部(140)は、現在出力されているグループと、隣合うグループの拡張現実情報を臨時メモリ(170)に蓄積又は格納してもよい。これにより、その後にユーザから別のグループへの移動信号を受信したとき、速やかに出力するグループを変更することができる。移動信号は例えばユーザによるキー入力、タッチ、マルチタッチ、スワイプ(swipe)に応じて生成されるものでもよい。
本発明の趣旨又は範囲内である限り、当業者が本発明を多様な態様によって実施することができることは明らかである。したがって、本発明は添付の特許請求の範囲及びその均等の範囲内にある変形例を含むものである。
本発明は拡張現実情報提供のためのユーザインタフェース技術に適用されることができる。
映像取得部 110
表示部 120
制御部 140
臨時メモリ 170

Claims (14)

  1. 客体を含む映像を取得し、
    前記取得された映像に含まれている少なくとも一つ以上の客体を認識し、
    前記認識された客体に関連付けられた拡張現実情報を検出し、
    前記検出された拡張現実情報を特定の属性に応じて一つ以上のグループに分類し、
    前記拡張現実情報をグループ毎に分けて表示するユーザインタフェースを生成することを含むことを特徴とする拡張現実ユーザインタフェース提供方法。
  2. 前記客体を認識することは、
    前記映像が取得された位置情報を利用して、前記映像に含まれている少なくとも一つ以上の客体を認識することを特徴とする請求項1に記載の拡張現実ユーザインタフェース提供方法。
  3. 前記ユーザインタフェースは、
    前記グループの数に対応する数の画面を有する多面体から生成されることを特徴とする請求項1に記載の拡張現実ユーザインタフェース提供方法。
  4. 少なくとも一つのグループの拡張現実情報を臨時に蓄積し、
    前記少なくとも一つのグループの拡張現実情報が前記多面体の画面として前記ユーザインターフェースに表示され、前記臨時に蓄積された拡張現実情報のグループは、前記多面体において前記表示されている拡張現実グループの隣に配置された画面に対応することをさらに含むことを特徴とする請求項3に記載の拡張現実ユーザインタフェース提供方法。
  5. 前記ユーザインタフェースを生成することは、
    ユーザに関するコンテクスト情報を利用して、一つ以上に分類されたグループを表示する優先順位を決定して、ユーザインタフェースを生成することを特徴とする請求項1に記載の拡張現実ユーザインタフェース提供方法。
  6. 現在表示されている拡張現実情報グループの他に少なくとも一つのグループの拡張現実情報を臨時に蓄積することをさらに含むことを特徴とする請求項1に記載の拡張現実ユーザインタフェース提供方法。
  7. 前記客体を認識することは、客体に関する客体認識情報を用いて前記客体を前記映像から認識することを含むことを特徴とする請求項1に記載の拡張現実ユーザインタフェース提供方法。
  8. 前記客体に関する客体認識情報を用いることは、蓄積された客体識別情報と前記映像の客体情報とを比較することを含むことを特徴とする請求項7に記載の拡張現実ユーザインタフェース提供方法。
  9. 客体を含む映像を取得する映像取得部と、
    前記映像取得部から出力された映像、及び拡張現実情報を出力する表示部と、
    前記映像取得部から取得された映像に含まれた少なくとも一つ以上の客体を認識して、前記認識された客体に関連付けられた拡張現実情報を検出して、前記検出された拡張現実情報を特定の属性に応じて一つ以上の別々のグループに分類して、前記の拡張現実情報をグループ毎に分けて表示するユーザインタフェースを生成する制御部とを含むことを特徴とする拡張現実ユーザインタフェース提供装置。
  10. 前記制御部は、
    前記映像が取得された位置情報を利用して、前記映像に含まれた少なくとも一つ以上の客体を認識することを特徴とする請求項9に記載の拡張現実ユーザインタフェース提供装置。
  11. 前記ユーザインタフェースは、
    前記グループの数に対応する数の画面を有する多面体から生成されることを特徴とする請求項9に記載の拡張現実ユーザインタフェース提供装置。
  12. 前記制御部は、
    ユーザのコンテクスト情報を利用して、一つ以上に分けられたグループを表示する優先順位を決定して、ユーザインタフェースを生成することを特徴とする請求項9に記載の拡張現実ユーザインタフェース提供装置。
  13. 拡張現実情報を臨時に蓄積する臨時メモリをさらに含み、
    前記制御部は、前記表示部に表示される拡張現実情報グループの隣に配置されたグループの拡張現実情報を臨時に蓄積し、前記拡張現実情報グループは前記多面体の画面に対応して構成され、前記隣に配置されたグループの拡張現実情報は現在表示されている画面の隣の画面に対応することを特徴とする請求項9に記載の拡張現実ユーザインタフェース提供装置。
  14. 前記制御部は、蓄積された客体認識情報を用いて前記蓄積された客体認識情報と前記映像の客体情報とを比較することによって前記映像に含まれる前記客体を認識することを特徴とする請求項9に記載の拡張現実ユーザインタフェース提供装置。
JP2011230318A 2010-10-22 2011-10-20 拡張現実ユーザインタフェース提供装置および方法 Pending JP2012094138A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2010-0103620 2010-10-22
KR1020100103620A KR101357260B1 (ko) 2010-10-22 2010-10-22 증강 현실 사용자 인터페이스 제공 장치 및 방법

Publications (1)

Publication Number Publication Date
JP2012094138A true JP2012094138A (ja) 2012-05-17

Family

ID=45528879

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011230318A Pending JP2012094138A (ja) 2010-10-22 2011-10-20 拡張現実ユーザインタフェース提供装置および方法

Country Status (5)

Country Link
US (1) US20120098859A1 (ja)
EP (1) EP2444918B1 (ja)
JP (1) JP2012094138A (ja)
KR (1) KR101357260B1 (ja)
CN (1) CN102566893A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015534154A (ja) * 2012-08-27 2015-11-26 エンパイア テクノロジー ディベロップメント エルエルシー 拡張現実見本の生成
JP2022080343A (ja) * 2020-11-18 2022-05-30 株式会社Kort Valuta 取引管理方法、取引管理システム及びプログラム

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120306907A1 (en) * 2011-06-03 2012-12-06 Huston Charles D System and Method for Inserting and Enhancing Messages Displayed to a User When Viewing a Venue
US8810598B2 (en) 2011-04-08 2014-08-19 Nant Holdings Ip, Llc Interference based augmented reality hosting platforms
US9606992B2 (en) * 2011-09-30 2017-03-28 Microsoft Technology Licensing, Llc Personal audio/visual apparatus providing resource management
KR20130063605A (ko) * 2011-12-07 2013-06-17 현대자동차주식회사 지리정보와 연계된 촬영 이미지를 이용한 도로 안내 표시 방법 및 그 장치
JP2013183433A (ja) * 2012-03-05 2013-09-12 Sony Corp クライアント端末、サーバ、およびプログラム
CN103577788A (zh) 2012-07-19 2014-02-12 华为终端有限公司 增强现实的实现方法和装置
JP6289468B2 (ja) 2012-08-24 2018-03-07 エンパイア テクノロジー ディベロップメント エルエルシー バーチャルリアリティアプリケーション
US9712574B2 (en) * 2012-08-31 2017-07-18 Facebook, Inc. Real-world view of location-associated social data
CN103164518A (zh) * 2013-03-06 2013-06-19 杭州九树网络科技有限公司 移动终端增强现实应用***及方法
CN103294803A (zh) * 2013-05-30 2013-09-11 佛山电视台南海分台 一种实现增强产品信息介绍和人机交互的方法和***
US10013807B2 (en) 2013-06-27 2018-07-03 Aurasma Limited Augmented reality
CN105814516B (zh) * 2013-10-11 2019-07-30 交互数字专利控股公司 注视驱动的增强现实
US9582516B2 (en) 2013-10-17 2017-02-28 Nant Holdings Ip, Llc Wide area augmented reality location-based services
CN104660897A (zh) * 2013-11-20 2015-05-27 浪潮乐金数字移动通信有限公司 基于移动终端的360度全景图像获取方法
CN103634204B (zh) * 2013-12-02 2016-08-24 天脉聚源(北京)传媒科技有限公司 一种微信墙消息的显示方法及***
WO2015160828A1 (en) * 2014-04-15 2015-10-22 Huntington Ingalls Incorporated System and method for augmented reality display of dynamic environment information
WO2015164755A1 (en) 2014-04-25 2015-10-29 Huntington Ingalls Incorporated Augmented reality display of dynamic target object information
US9864909B2 (en) 2014-04-25 2018-01-09 Huntington Ingalls Incorporated System and method for using augmented reality display in surface treatment procedures
US10915754B2 (en) 2014-06-09 2021-02-09 Huntington Ingalls Incorporated System and method for use of augmented reality in outfitting a dynamic structural space
US10147234B2 (en) 2014-06-09 2018-12-04 Huntington Ingalls Incorporated System and method for augmented reality display of electrical system information
US10504294B2 (en) 2014-06-09 2019-12-10 Huntington Ingalls Incorporated System and method for augmented reality discrepancy determination and reporting
US9898867B2 (en) 2014-07-16 2018-02-20 Huntington Ingalls Incorporated System and method for augmented reality display of hoisting and rigging information
US10306193B2 (en) 2015-04-27 2019-05-28 Microsoft Technology Licensing, Llc Trigger zones for objects in projected surface model
KR20190104466A (ko) * 2015-07-03 2019-09-09 천종윤 관람자 관계형 동영상 제작 장치 및 제작 방법
CN106200918B (zh) * 2016-06-28 2019-10-01 Oppo广东移动通信有限公司 一种基于ar的信息显示方法、装置和移动终端
CN106445154A (zh) * 2016-09-29 2017-02-22 宇龙计算机通信科技(深圳)有限公司 一种提供ar内容的方法、装置、ar设备及服务器
WO2018118657A1 (en) 2016-12-21 2018-06-28 Pcms Holdings, Inc. Systems and methods for selecting spheres of relevance for presenting augmented reality information
WO2018152109A1 (en) * 2017-02-20 2018-08-23 Pcms Holdings, Inc. Dynamically presenting augmented reality information for reducing peak cognitive demand
KR101981325B1 (ko) * 2017-07-28 2019-08-30 주식회사 렛시 증강현실 구현 장치 및 방법
KR102117007B1 (ko) * 2018-06-29 2020-06-09 (주)기술공감 영상에서 객체를 인식하는 방법 및 장치
CN110620805B (zh) * 2018-12-29 2022-02-08 北京时光荏苒科技有限公司 用于生成信息的方法和装置
CN109920065B (zh) * 2019-03-18 2023-05-30 腾讯科技(深圳)有限公司 资讯的展示方法、装置、设备及存储介质
KR102054148B1 (ko) * 2019-04-17 2019-12-12 주식회사 지티온 운동 유도를 위한 스포츠 인터렉티브 컨텐츠 실행 시스템
US11397503B2 (en) 2019-06-28 2022-07-26 Snap Inc. Association of user identifiers to augmented-reality content
CN111833454B (zh) * 2020-06-30 2023-11-28 北京市商汤科技开发有限公司 展示方法、装置、设备和计算机可读存储介质
US11721077B2 (en) * 2021-12-07 2023-08-08 Motorola Mobility Llc Electronic device that presents location-tethered augmented reality notifications

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000181675A (ja) * 1998-12-11 2000-06-30 Internatl Business Mach Corp <Ibm> コンピュ―タ・ベ―スのシステムおよび方法
JP2009017540A (ja) * 2007-05-31 2009-01-22 Panasonic Corp 画像撮影装置、付加情報提供サーバ及び付加情報フィルタリングシステム
JP2009093374A (ja) * 2007-10-05 2009-04-30 Casio Comput Co Ltd クライアント装置およびサーバ装置
JP2010118019A (ja) * 2008-11-14 2010-05-27 Sharp Corp 端末装置、配信装置、端末装置の制御方法、配信装置の制御方法、制御プログラムおよび記録媒体

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6266098B1 (en) * 1997-10-22 2001-07-24 Matsushita Electric Corporation Of America Function presentation and selection using a rotatable function menu
US7474318B2 (en) * 2004-05-28 2009-01-06 National University Of Singapore Interactive system and method
KR100631763B1 (ko) * 2004-07-26 2006-10-09 삼성전자주식회사 3차원 모션 그래픽 사용자 인터페이스 및 이를 제공하는방법 및 장치
US7720436B2 (en) * 2006-01-09 2010-05-18 Nokia Corporation Displaying network objects in mobile devices based on geolocation
US7889896B2 (en) * 2005-08-18 2011-02-15 Hologic, Inc. Patient worklist management in digital radiography review workstations
KR101285360B1 (ko) * 2007-01-25 2013-07-11 삼성전자주식회사 증강현실을 이용한 관심 지점 표시 장치 및 방법
JP5062884B2 (ja) * 2007-08-24 2012-10-31 株式会社リコー 画像検索装置、画像検索方法及びプログラム
US8509776B2 (en) 2007-12-19 2013-08-13 Motorola Mobility Llc Network initiated proactive handover procedure for fast moving wireless devices
US8700301B2 (en) 2008-06-19 2014-04-15 Microsoft Corporation Mobile computing devices, architecture and user interfaces based on dynamic direction information
US20110049807A1 (en) * 2009-08-27 2011-03-03 Trellisys.net Pvt.Ltd. Methods and apparatus for an interactive word game of skill
KR100985737B1 (ko) * 2010-02-05 2010-10-06 (주)올라웍스 단말 장치의 시야에 포함되는 객체에 대한 정보를 제공하기 위한 방법, 단말 장치 및 컴퓨터 판독 가능한 기록 매체
WO2011112940A1 (en) * 2010-03-12 2011-09-15 Tagwhat, Inc. Merging of grouped markers in an augmented reality-enabled distribution network
CA2738428A1 (en) * 2010-04-30 2011-10-30 Iliv Technologies Inc. Collaboration tool
CN101859439A (zh) * 2010-05-12 2010-10-13 合肥寰景信息技术有限公司 一种用于人机交互的运动追踪装置及其追踪方法
US9910866B2 (en) * 2010-06-30 2018-03-06 Nokia Technologies Oy Methods, apparatuses and computer program products for automatically generating suggested information layers in augmented reality
US8860760B2 (en) * 2010-09-25 2014-10-14 Teledyne Scientific & Imaging, Llc Augmented reality (AR) system and method for tracking parts and visually cueing a user to identify and locate parts in a scene

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000181675A (ja) * 1998-12-11 2000-06-30 Internatl Business Mach Corp <Ibm> コンピュ―タ・ベ―スのシステムおよび方法
JP2009017540A (ja) * 2007-05-31 2009-01-22 Panasonic Corp 画像撮影装置、付加情報提供サーバ及び付加情報フィルタリングシステム
JP2009093374A (ja) * 2007-10-05 2009-04-30 Casio Comput Co Ltd クライアント装置およびサーバ装置
JP2010118019A (ja) * 2008-11-14 2010-05-27 Sharp Corp 端末装置、配信装置、端末装置の制御方法、配信装置の制御方法、制御プログラムおよび記録媒体

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015534154A (ja) * 2012-08-27 2015-11-26 エンパイア テクノロジー ディベロップメント エルエルシー 拡張現実見本の生成
US9607436B2 (en) 2012-08-27 2017-03-28 Empire Technology Development Llc Generating augmented reality exemplars
JP2022080343A (ja) * 2020-11-18 2022-05-30 株式会社Kort Valuta 取引管理方法、取引管理システム及びプログラム
JP7306716B2 (ja) 2020-11-18 2023-07-11 株式会社Kort Valuta 取引管理方法、取引管理システム及びプログラム

Also Published As

Publication number Publication date
KR101357260B1 (ko) 2014-02-03
US20120098859A1 (en) 2012-04-26
EP2444918B1 (en) 2013-12-11
EP2444918A3 (en) 2012-09-12
KR20120061110A (ko) 2012-06-13
CN102566893A (zh) 2012-07-11
EP2444918A2 (en) 2012-04-25

Similar Documents

Publication Publication Date Title
JP2012094138A (ja) 拡張現実ユーザインタフェース提供装置および方法
US10579187B2 (en) Display control apparatus, display control method and display control program
US11636660B2 (en) Object creation with physical manipulation
US10650264B2 (en) Image recognition apparatus, processing method thereof, and program
US9563818B2 (en) System for associating tag information with images supporting image feature search
KR101329882B1 (ko) Ar 정보창 표시를 위한 사용자 장치 및 그 방법
US9852491B2 (en) Objects in screen images
JP5468585B2 (ja) オブジェクト間の関連性を利用した拡張現実提供装置及び方法
KR102098058B1 (ko) 뷰 모드에서 정보 제공 방법 및 장치
US9324305B2 (en) Method of synthesizing images photographed by portable terminal, machine-readable storage medium, and portable terminal
US11972092B2 (en) Browser for mixed reality systems
CN102436663A (zh) 用于对增强现实进行选择性过滤的用户设备、服务器和方法
CN104081307A (zh) 图像处理装置、图像处理方法和程序
JP2013125379A (ja) 情報処理装置、情報処理方法およびプログラム
US11625156B2 (en) Image composition based on comparing pixel quality scores of first and second pixels
WO2020055480A1 (en) Multi-region detection for images
KR20120061696A (ko) 증강현실 기반 건물 네비게이션 시스템
CN113273167B (zh) 数据处理设备、方法和存储介质

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130226

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20130524

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130529

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20131022