JP5383930B2 - 端末装置の視野に含まれている客体に関する情報を提供するための方法、端末装置及びコンピュータ読み取り可能な記録媒体 - Google Patents

端末装置の視野に含まれている客体に関する情報を提供するための方法、端末装置及びコンピュータ読み取り可能な記録媒体 Download PDF

Info

Publication number
JP5383930B2
JP5383930B2 JP2012551087A JP2012551087A JP5383930B2 JP 5383930 B2 JP5383930 B2 JP 5383930B2 JP 2012551087 A JP2012551087 A JP 2012551087A JP 2012551087 A JP2012551087 A JP 2012551087A JP 5383930 B2 JP5383930 B2 JP 5383930B2
Authority
JP
Japan
Prior art keywords
terminal device
field
view
information
graphic element
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012551087A
Other languages
English (en)
Other versions
JP2013518337A (ja
Inventor
ヒ リュ、ジョン
ソク イ、ギョン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intel Corp
Original Assignee
Intel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intel Corp filed Critical Intel Corp
Publication of JP2013518337A publication Critical patent/JP2013518337A/ja
Application granted granted Critical
Publication of JP5383930B2 publication Critical patent/JP5383930B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3679Retrieval, searching and output of POI information, e.g. hotels, restaurants, shops, filling stations, parking facilities
    • G01C21/3682Retrieval, searching and output of POI information, e.g. hotels, restaurants, shops, filling stations, parking facilities output of POI information on a road map
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/08Electrically-operated educational appliances providing for individual presentation of information to a plurality of student stations
    • G09B5/12Electrically-operated educational appliances providing for individual presentation of information to a plurality of student stations different stations being capable of presenting different information simultaneously
    • G09B5/125Electrically-operated educational appliances providing for individual presentation of information to a plurality of student stations different stations being capable of presenting different information simultaneously the stations being mobile

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、端末装置の視野に含まれている客体に関する情報を提供するための方法、端末装置及びコンピュータ読み取り可能な記録媒体に関し、より詳しくは、端末装置に入力されている入力映像及び前記入力映像に関する情報を用いて拡張現実(Augmented Reality:AR)映像を生成するにおいて端末装置の視野に含まれている客体に対応するグラフィック要素を入力映像と共に表示することにより、ユーザに端末装置の視野に含まれている客体を興味深く認知させ、該当客体に関する情報をより効果的に獲得できるようにする方法、端末装置及びコンピュータ読み取り可能な記録媒体に関する。
近年、インターネット利用が広がるにつれ、従来は冊子のような印刷物の形態で提供されてきた地理情報がデジタルデータに変換されて提供されるのが一般的になった。デジタル化した代表的な地理情報の形態として、オンライン上で提供される電子マップサービス、車に設置されるナビゲーションシステムなどがその例として挙げられる。このようにデジタル化した地理情報は、検索機能のようなユーザインターフェースと結合されることで、各種便宜機能をユーザに提供できるという長所があり、地理情報に変動が発生する場合、遠隔アップデートなどを通じて容易に更新可能なことから、地理情報の最新性の側面からも従来の印刷物に比べて優位性を有するのが現状である。
特に、近年は端末装置によってリアルタイムで撮影される入力映像にコンピュータグラフィックス(Computer Graphics:CG)、文字メールなどの付加情報を合成して表示する拡張現実(AR)の形態で地理情報を提供する技術が紹介されているが、このような拡張現実技術によれば、ユーザが実際に見ている現実世界を含んでいる画面に付加情報(例えば、関心地点(Point Of Interest:POI)を示す表示点など)を視覚的に重複して提供できるので、より直観的な方法でユーザに地理情報を提供できるようになる。
ところが、従来の拡張現実技術を利用して端末装置の視野に含まれている客体に対する付加情報を提供するにおいては、該当客体の名称を文字列のような形態でシンプルに表示するのが一般的であった。
しかしながら、前記のような従来の拡張現実技術によれば、ユーザが探そうとする客体を文字列などによってのみ判別しなければならないところ、各客体の区別が視覚的に明示的に付かず、モバイル端末装置に備えられた表示装置(例えば、液晶表示装置など)の大きさが多量の情報を表示できる程度に十分に大きくないことが通常であるため、端末装置の視野に客体が多数含まれている場合には文字列の大きさが小さくなって視認性が低下し、誤読率が増加するという問題が発生した。
従って、本出願人は、ユーザの立場でより識別力が高くなるように端末装置の視野に含まれている客体のブランド、ロゴなどのようなグラフィック要素を入力映像と共に表示することにより、ユーザに端末装置の視野に含まれている客体を迅速に認知させ、該当客体に関する情報をより正確に獲得できるように支援する技術を開発するのに至った。
本発明は、前述した問題を何れも解決することをその目的とする。
また、本発明の他の目的は、端末装置の位置、姿勢及び視野角に関する情報を参照して端末装置に入力される入力映像に対応する端末装置の視野を特定し、端末装置の視野に含まれている客体に対応するグラフィック要素を拡張現実の形態で端末装置の画面上にディスプレイされる客体の該当位置に提供することにある。
前記目的を達成するための本発明の代表的な構成は、以下の通りである。
本発明の一態様によれば、端末装置に入力される入力映像及び前記入力映像に関する情報を用いて拡張現実(AR)を実現するにおいて、前記端末装置の視野に含まれている客体に関する情報を提供するための方法であって、(a)前記端末装置の位置、姿勢及び視野角のうちの少なくとも1つに関する情報を参照して、前記入力映像に対応する前記端末装置の視野を特定する段階、及び(b)建築物イメージマッチング技法を用いて前記端末装置の視野に含まれている客体を認識した後、前記認識された客体に対応するグラフィック要素を獲得し、前記獲得されたグラフィック要素を前記端末装置の画面上にディスプレイされる前記客体の該当位置に提供して前記入力映像と共に拡張現実の形態で表示する段階を含む方法が提供される。
本発明の他の態様によれば、端末装置に入力される入力映像及び前記入力映像に関する情報を用いて拡張現実(AR)を実現するにおいて、前記端末装置の視野に含まれている客体に関する情報を提供するための方法であって、(a)前記端末装置の位置、姿勢及び視野角のうちの少なくとも1つに関する情報を参照して、前記入力映像に対応する前記端末装置の視野を特定する段階、及び(b)前記視野に含まれながら前記端末装置の画面上にディスプレイされる第1客体に対応するグラフィック要素及び前記視野に含まれながら前記端末装置の画面上にディスプレイされない第2客体に対応するグラフィック要素を差別的に前記第1客体の該当位置を中心に提供して前記入力映像と共に拡張現実の形態で表示する段階を含み、前記第2客体は、前記第1客体により遮蔽されて前記画面上にディスプレイされないことを特徴とする方法が提供される。
本発明のまた他の態様によれば、端末装置に入力される入力映像及び前記入力映像に関する情報を用いて拡張現実(AR)を実現するにおいて、前記端末装置の視野に含まれている客体に関する情報を提供するための端末装置であって、前記端末装置の位置、姿勢及び視野角のうちの少なくとも1つに関する情報を参照して、前記入力映像に対応する前記端末装置の視野を特定する位置及び姿勢算出部、前記端末装置の視野に含まれている客体がクエリーとして入力されれば、建築物イメージマッチング技法を用いて前記客体を認識し、前記認識された客体に対応するグラフィック要素を獲得する情報検索部、及び前記獲得されたグラフィック要素を前記端末装置の画面上にディスプレイされる前記客体の該当位置に提供して前記入力映像と共に拡張現実の形態で表示するユーザインターフェース部を含む端末装置が提供される。
本発明のまた他の態様によれば、端末装置に入力される入力映像及び前記入力映像に関する情報を用いて拡張現実(AR)を実現するにおいて、前記端末装置の視野に含まれている客体に関する情報を提供するための端末装置であって、前記端末装置の位置、姿勢及び視野角のうちの少なくとも1つに関する情報を参照して、前記入力映像に対応する前記端末装置の視野を特定する位置及び姿勢算出部、及び前記視野に含まれながら前記端末装置の画面上にディスプレイされる第1客体に対応するグラフィック要素及び前記視野に含まれながら前記端末装置の画面上にディスプレイされない第2客体に対応するグラフィック要素を差別的に前記第1客体の該当位置を中心に提供して前記入力映像と共に拡張現実の形態で表示するユーザインターフェース部を含み、前記第2客体は、前記第1客体により遮蔽されて前記画面上にディスプレイされないことを特徴とする端末装置が提供される。
この他にも、本発明を実現するための他の方法、システム及び前記方法を実行するためのコンピュータプログラムを記録するためのコンピュータ読み取り可能な記録媒体が更に提供される。
本発明によれば、端末装置の視野に含まれている客体に対応するグラフィック要素を端末装置の画面上にディスプレイされる客体の該当位置に提供して入力映像と共に表示できるようになるので、ユーザに端末装置の視野に含まれている客体を効果的に認知できるようにさせ、該当客体に関する情報をより正確に獲得できるようにすることができるという効果を奏する。
本発明の一実施形態によって端末装置の視野に含まれている客体に関する情報を提供するための全体システムの構成を概略的に示す図である。 本発明の一実施形態に係る端末装置200の内部構成を例示的に示す図である。 本発明の一実施形態によって端末装置の視野に含まれている客体に対応するグラフィック要素を提供する場合を例示的に示す図である。
後述する本発明に関する詳細な説明は、本発明が実施され得る特定の実施形態を例として示す添付の図面を参照する。これらの実施形態は、当業者が本発明を実施できるのに十分なように詳細に説明される。本発明の多様な実施形態は互いに異なるが、相互排他的である必要はないことが理解されるべきである。例えば、ここに記載されている特定の形状、構造及び特性は、一実施形態に関連して本発明の精神及び範囲から逸脱しないながらも、他の実施形態で実現され得る。また、それぞれの開示された実施形態内の個別構成要素の位置又は配置は、本発明の精神及び範囲から逸脱しないながらも、変更され得ることが理解されるべきである。従って、後述する詳細な説明は、限定的な意味として取ろうとするのではなく、本発明の範囲は、適切に説明されれば、それらの請求項が主張するものと均等なあらゆる範囲と共に添付された請求項によってのみ限定される。図面において類似する参照符号は、多様な側面にわたって同一又は類似する機能を示す。
以下では、本発明の属する技術分野において通常の知識を有する者が本発明を容易に実施できるようにするために、本発明の好適な実施形態について添付の図面を参照して詳細に説明する。
全体システムの構成
図1は、本発明の一実施形態によって端末装置の視野に含まれている客体に関する情報を提供するための全体システムの構成を概略的に示す図である。
図1に示すように、本発明の一実施形態に係る全体システムは、通信網100、端末装置200、情報提供サーバ300で構成されることができる。
まず、本発明の一実施形態によれば、通信網100は、有線及び無線のようなその通信形態を問わず構成されることができ、移動通信網、近距離通信網(LAN:Local Area Network)、都市圏通信網(MAN:Metropolitan Area Network)、広域通信網(WAN:Wide Area Network)、人工衛星通信網など多様な通信網で構成されることができる。より具体的に、本発明でいう通信網100は、公知のワールドワイドウェブ(WWW;World Wide Web)、CDMA(Code Division Multiple Access)、WCDMA(Wideband Code Division Multiple Access)又はGSM(Global System for Mobile communications)通信網などを何れも含む概念であることが理解されるべきである。
次に、本発明の一実施形態によれば、端末装置200は、カメラ(カメラ付き携帯用機器を含む概念として理解されるべきである)などの撮影手段を通じて入力される入力映像及び前記入力映像に関する情報を用いて拡張現実(AR)映像を生成するにおいて端末装置200の視野に含まれている客体に対応するグラフィック要素を端末装置の画面上にディスプレイされる前記客体の該当位置に提供する機能を実行することができる。本発明でいう端末装置200は、通信網100に接続した後に通信できるようにする機能を含むデジタル機器を意味するものであって、個人用コンピュータ(例えば、デスクトップコンピュータ、ノートブックコンピュータ、タブレットコンピュータなど)、ワークステーション、PDA、ウェブパッド、移動電話機などのようにメモリ手段を備え、マイクロ・プロセッサを搭載して演算能力を備えたデジタル機器であれば、いくらでも本発明に係る端末装置200として採択され得る。端末装置200の詳細な内部構成については後述する。
一方、本発明の一実施形態によれば、情報提供サーバ300は、通信網100を通じて端末装置200及び他の情報提供サーバ(図示せず)と通信することにより、端末装置200の要請に応じて多様なタイプの情報を提供する機能を行える。より具体的に、情報提供サーバ300は、ウェブコンテンツ検索エンジン(図示せず)を含んで端末装置200の要請に対応する情報を検索し、その検索結果を端末装置200のユーザがブラウジングできるように提供することができる。例えば、情報提供サーバ300は、インターネット検索ポータルサイトのオペレーティングサーバであり得、端末装置200に提供される情報は、ウェブサイト、ウェブ文書、知識、ブログ、カフェ、イメージ、動画、ニュース、音楽、ショッピング、地図、本、映画などに関する多様な情報であり得る。もちろん、必要に応じて情報提供サーバ300の情報検索エンジンは情報提供サーバ300ではなく、他の演算装置や記録媒体に含まれることもできる。
端末装置の構成
以下では、本発明の実現のために重要な機能を行う端末装置200の内部構成及び各構成要素の機能について詳察する。
図2は、本発明の一実施形態に係る端末装置200の内部構成を例示的に示す図である。
図2に示すように、本発明の一実施形態に係る端末装置200は、入力映像獲得部210、位置及び姿勢算出部220、拡張現実実現部230、ユーザインターフェース部240、情報検索部250、通信部260及び制御部270を含むことができる。本発明の一実施形態によれば、入力映像獲得部210、位置及び姿勢算出部220、拡張現実実現部230、ユーザインターフェース部240、情報検索部250、通信部260及び制御部270は、そのうちの少なくとも一部がユーザ端末装置300と通信するプログラムモジュールであり得る。このようなプログラムモジュールは、オペレーティングシステム、応用プログラムモジュール及びその他プログラムモジュールの形態で端末装置200に含まれ得、物理的には多様な公知の記憶装置上に格納され得る。また、このようなプログラムモジュールは、端末装置200と通信可能な遠隔記憶装置に格納されることもできる。一方、このようなプログラムモジュールは、本発明によって後述する特定の業務を行ったり、特定の抽象データのタイプを実行するルーチン、サブルーチン、プログラム、オブジェクト、コンポーネント、データ構造などを包括するが、これに制限されるものではない。
まず、本発明の一実施形態によれば、入力映像獲得部210は、後述する拡張現実実現部230によって実現される拡張現実の土台となる入力映像を獲得する機能を実行することができる。より具体的に、本発明の一実施形態に係る入力映像獲得部120は、CCDカメラなどの撮影装置を含むことができ、端末装置200を携帯しているユーザ周辺の風景の様子を仮にプレビュー状態でリアルタイムで入力を受ける機能を実行することができる。
次に、本発明の一実施形態によれば、位置及び姿勢算出部220は、端末装置200により獲得される入力映像が現実世界の如何なる領域に対応するかを判断するために、端末装置200の位置及び姿勢を算出する機能を実行することができる。
より具体的に、本発明の一実施形態に係る位置及び姿勢算出部220は、GPS(Global Positioning System)技術、移動通信技術などの位置情報獲得技術を利用して端末装置200の位置を算出することができるが、例えば、このために位置及び姿勢算出部220は所定のGPSモジュール、移動通信モジュールを含むことができる。また、本発明の一実施形態に係る位置及び姿勢算出部220は、所定のセンシング手段を用いて端末装置200の姿勢を算出することができるが、例えば、このために位置及び姿勢算出部220は、端末装置200の動きの有無、距離、速度、加速度、方向などを感知する加速度センサ及び端末装置200の回転の有無、回転量、角速度、角加速度、方向などを感知するジャイロスコープを含むことができる。
また、本発明の一実施形態によれば、位置及び姿勢算出部220は、前記のように算出された端末装置200の位置、姿勢及び視野角に関する情報を参照して端末装置200を視点とする端末装置200の視野、即ち、端末装置200により獲得される入力映像に対応する端末装置200の視野を特定する機能を実行することができる。
より具体的に、本発明の一実施形態によれば、端末装置200の視野は、3次元空間である現実世界で定義される3次元領域を意味するものであって、端末装置200を視点とするビューイングフラスタムで特定され得る。ここで、ビューイングフラスタムとは、カメラなどの撮影装置によって映像が撮影されたり、プレビュー状態で入力されたりする場合に撮影装置の視野に含まれている3次元領域を示すものであって、端末装置200に備えられた撮影手段の投影中心を視点として定義でき、撮影レンズの種類によって円錐又は多角錐状の無限領域(円錐又は多角錐が視線方向に垂直な***面(near plane)又は遠平面(far plane)によって切り取られた台形円柱又は台形多面体状のような有限領域であり得る)に定義され得る。このようなビューイングフラスタムについては、本出願人により出願された韓国特許出願第2010-0002340号の明細書を参照することができる。ここで、前記明細書は、その全体として本明細書に併合されたものと見なされるべきである。
次に、本発明の一実施形態によれば、拡張現実実現部230は、端末装置200により獲得される入力映像及び入力映像に関する情報を合成することによって拡張現実を実現し、拡張現実を視覚的に表現する出力映像を生成する機能を実行することができる。例えば、本発明の一実施形態に係る拡張現実実現部230は、入力映像に関する情報として端末装置200の視野に含まれていると判断された客体(例えば、建物、商店など)に対して関心地点(POI)であることを示す所定のグラフィック要素を表示し、ユーザによって関心地点が選択される場合には該当客体に対する詳細な情報を提供するようにすることができる。他の例を挙げると、本発明の一実施形態に係る拡張現実実現部230は、入力映像に関する情報として端末装置200が位置する地点の周辺に存在する客体の位置を示す半透明2次元マップ又は端末装置200が位置する地点の天気情報を含む半透明情報窓が入力映像と重なって(overlap)表示される拡張現実を実現することもできる。
次に、本発明の一実施形態に係るユーザインターフェース部240は、端末装置200により獲得される入力映像及び入力映像に関する情報を用いて拡張現実を実現するにおいて、端末装置200の視野に含まれている客体に対応するグラフィック要素を端末装置200の画面上にディスプレイされる前記客体の該当位置に提供して入力映像と共に表示する機能を実行することができる。このためには、端末装置200の視野及び現実世界に存在する客体の位置に関する情報を参照して端末装置200の視野に含まれている客体と該当客体に対応するグラフィック要素を検索する過程が先行され得るが、これは後述する情報検索部250により実行され得る。
ここで、本発明の一実施形態によって入力映像と共に表示されるグラフィック要素には、該当客体のブランド、ロゴ、該当客体のパターンランドマークなどが含まれることができる。ただし、本発明に係るグラフィック要素が必ずしも前記列挙されたものに限定されるものではなく、端末装置200の視野に含まれている客体の名称、種類、性質などを暗示又は案内できる情報であれば、いくらでも本発明に係るグラフィック要素に含まれ得ることを明確にしておく。
また、本発明の一実施形態に係るユーザインターフェース部240は、端末装置200の視野に含まれている第1客体が、視野に含まれている第2客体を遮蔽して第2客体自体が端末装置200の画面上にディスプレイされない場合、第1客体及び第2客体に対応するグラフィック要素を差別的に表示する機能を行うこともできる。例えば、端末装置200の視野に含まれている建物A及び端末装置200と建物Aを連結する直線の延長線上に位置する建物Bに対応するグラフィック要素を提供する場合を仮定することができるが、このような場合、建物Bは建物Aにより遮られるので、端末装置200の画面上に該当客体が直接的にはディスプレイされ得ないが、建物Bに対応するグラフィック要素を建物Aに対応するグラフィック要素のバックに重なるように一部分のみ表示するか、建物Aに対応するグラフィック要素と建物Bに対応するグラフィック要素をローリングして順次に選択できるように表示することもできるなど多様な変形例を想定することができる。
図3は、本発明の一実施形態によって端末装置の視野に含まれている客体に対応するグラフィック要素を提供する構成を例示的に示す図である。
図3に示すように、本発明の一実施形態によって、端末装置200の視野に含まれている客体に対応するグラフィック要素が拡張現実の形態で出力映像内に表示される構成を確認することができる。より具体的に詳察すると、端末装置200の視野を基準として正面から若干右側に位置する「スターバックス宣陵店」という商店に対応するグラフィック要素として該当商店のブランド標章をディスプレイしており、端末装置200の視野を基準として「スターバックス宣陵店」の後ろ側に位置する「TOM N TOMSオラクル店」という商店に対応するグラフィック要素として該当商店のブランド標章をディスプレイしていることが確認することができる。
一方、本発明の一実施形態によれば、拡張現実として実現された出力映像情報をはじめとするその他映像情報は、端末装置200の表示部(図示せず)を通じて視覚的に表出され得るが、例えば、本発明の一実施形態に係る表示部は、通常の液晶表示装置(LCD:Liquid Crystal Display)又は有機発光ダイオード(OLED:Organic Light Emitting Diodes)などのフラット表示装置であり得る。
次に、本発明の一実施形態によれば、情報検索部250は、端末装置200の視野及び現実世界に存在する客体の位置に関する情報を参照して端末装置200の視野に含まれている客体を認識し、認識された客体に対応するグラフィック要素を獲得する機能を実行することができる。
具体的に、本発明の一実施形態に係る情報検索部250は、現実世界に存在する客体の緯度、経度、高度などに関する情報及び端末装置200の位置、姿勢、視野角などから獲得される視野(即ち、端末装置200を視点とするビューイングフラスタムで特定される3次元領域)に関する情報などを参照して端末装置200の視野内に存在する客体を認識することができる。
また、本発明の他の実施形態に係る情報検索部250は、端末装置200の視野に含まれている少なくとも1つ以上の建物の壁面などのような建築物イメージがユーザインターフェース部240を通じてクエリーとして入力される場合、所定の建築物イメージマッチング技法を用いて入力されたクエリーイメージ内に含まれている建築物とマッチされる建物を検索し、これを参照して該当建築物を認識し、認識された該当建築物に対応して格納されているグラフィック要素を獲得することができる。このような建築物イメージマッチング技法については、本出願人により出願された韓国特許出願第2009-0087794号の明細書を参照することができ、ここで前記明細書はその全体として本明細書に併合されたものと見なされるべきである。
前記では端末装置200の視野に含まれている客体を認識する方法について記載したが、必ずしも前記で言及された実施形態にのみ限定されるものではなく、多様な変形例を想定することもできる。
また、本発明の一実施形態によれば、情報検索部250は、端末装置200から要請された情報を提供するために、情報提供サーバ300と通信して必要な情報を検索する機能を行うこともできる。例えば、端末装置200から商店Aに対する情報が要請された場合を仮定することができるが、このような場合、本発明の一実施形態に係る情報検索部250は、公知の情報検索ポータルサーバに接続して商店Aの位置、電話番号、販売商品、利用コメントなどに関する情報を検索し、前記検索された情報のうちの少なくとも一部が端末装置200に提供されるようにする機能を行うこともできる。
次に、本発明の一実施形態によれば、通信部260は、端末装置200が情報提供サーバ300などのような外部システムと通信できるようにする機能を行う。
最後に、本発明の一実施形態によれば、制御部270は、入力映像獲得部210、位置及び姿勢算出部220、拡張現実実現部230、ユーザインターフェース部240、情報検索部250及び通信部260間のデータの流れを制御する機能を行う。即ち、制御部270は外部からの又は端末装置200の各構成要素間のデータの流れを制御することで、入力映像獲得部210、位置及び姿勢算出部220、拡張現実実現部230、ユーザインターフェース部240、情報検索部250及び通信部260でそれぞれ固有機能を行うように制御する。
以上説明された本発明に係る実施形態は、多様なコンピュータ構成要素を通じて実行され得るプログラム命令語の形態で実現されてコンピュータ読み取り可能な記録媒体に記録され得る。前記コンピュータ読み取り可能な記録媒体は、プログラム命令語、データファイル、データ構造などを単独又は組み合わせて含むことができる。前記コンピュータ読み取り可能な記録媒体に記録されるプログラム命令語は、本発明のために特別に設計され構成されたものであってもよく、コンピュータソフトウェア分野の当業者にとって公知の使用可能なものであってもよい。コンピュータ読み取り可能な記録媒体の例には、ハードディスク、フロッピーディスク及び磁気テープのような磁気媒体、CD-ROM、DVDのような光気録媒体、フロプティカルディスク(floptical disk)のような磁気-光媒体(magneto-optical media)、及びROM、RAM、フラッシュメモリなどのようなプログラム命令語を格納し実行するように特別に構成されたハードウェア装置が含まれる。プログラム命令語の例には、コンパイラにより作られるもののような機械語コードだけでなく、インタープリタなどを用いてコンピュータによって実行され得る高級言語コードも含まれる。前記ハードウェア装置は、本発明に係る処理を行うために、1つ以上のソフトウェアモジュールとして作動するように構成されることができ、その逆も同様である。
以上、本発明が具体的な構成要素などのような特定事項と限定された実施形態及び図面により説明されたが、これは、本発明のより全般的な理解を促進するために提供されたものであって、本発明が前記実施形態に限定されるものではなく、本発明の属する技術分野において通常の知識を有する者であれば、このような記載から多様な修正及び変形を図ることができる。
従って、本発明の思想は、前記説明された実施形態に限定されて定められてはならず、後述する特許請求の範囲だけでなく、この特許請求の範囲と均等に又は等価的に変形された全てのものは、本発明の思想の範疇に属すると言える。
100 通信網
200 端末装置
210 入力映像獲得部
220 位置及び姿勢算出部
230 拡張現実実現部
240 ユーザインターフェース部
250 情報検索部
260 通信部
270 制御部
300 情報提供サーバ

Claims (5)

  1. 端末装置に入力される入力映像及び前記入力映像に関する情報を用いて拡張現実(AR)を実現するにおいて、前記端末装置の視野に含まれている客体に関する情報を提供するための方法であって、
    (a)前記端末装置の位置、姿勢及び視野角のうちの少なくとも1つに関する情報を参照して、前記入力映像に対応する前記端末装置の視野を特定する段階、及び
    (b)建築物イメージマッチング技法を用いて前記端末装置の視野に含まれている客体を認識した後、前記認識された客体に対応するグラフィック要素を獲得し、前記獲得されたグラフィック要素を前記端末装置の画面上にディスプレイされる前記客体の該当位置に提供して前記入力映像と共に拡張現実の形態で表示する段階
    を含み、
    前記段階(b)において、
    前記視野に含まれながら前記端末装置の画面上にディスプレイされる第1客体と、前記視野に含まれながら前記第1客体により遮蔽されて前記端末装置の画面上にディスプレイされない第2客体とにそれぞれ対応する前記グラフィック要素を表示し、
    前記第2客体に対応するグラフィック要素を前記第1客体に対応するグラフィック要素の後ろに重なるように一部分のみ表示し、
    前記グラフィック要素は、
    前記客体のブランド、ロゴ、パターンランドマークのうちの少なくとも1つを含む
    方法。
  2. 前記視野は、前記端末装置を視点とするビューイングフラスタムによって特定されることを特徴とする請求項1に記載の方法。
  3. 端末装置に入力される入力映像及び前記入力映像に関する情報を用いて拡張現実(AR)を実現するにおいて、前記端末装置の視野に含まれている客体に関する情報を提供するための端末装置であって、
    前記端末装置の位置、姿勢及び視野角のうちの少なくとも1つに関する情報を参照して、前記入力映像に対応する前記端末装置の視野を特定する位置及び姿勢算出部、
    前記端末装置の視野に含まれている客体がクエリーとして入力されれば、建築物イメージマッチング技法を用いて前記客体を認識し、前記認識された客体に対応するグラフィック要素を獲得する情報検索部、及び
    前記視野に含まれながら前記端末装置の画面上にディスプレイされる第1客体と、前記視野に含まれながら前記第1客体により遮蔽されて前記端末装置の画面上にディスプレイされない第2客体とにそれぞれ対応する前記獲得されたグラフィック要素を、前記入力映像と共に表示するユーザインターフェース部
    を含み、
    前記第2客体に対応するグラフィック要素を、前記第1客体に対応するグラフィック要素の後ろに重なるように一部分のみ表示し、
    前記グラフィック要素は、
    前記客体のブランド、ロゴ、パターンランドマークのうちの少なくとも1つを含む
    端末装置。
  4. 前記視野は、前記端末装置を視点とするビューイングフラスタムによって特定されることを特徴とする請求項に記載の端末装置。
  5. 請求項1又は2による方法を実行するためのコンピュータプログラムを記録したコンピュータ読み取り可能な記録媒体。
JP2012551087A 2010-02-05 2011-01-27 端末装置の視野に含まれている客体に関する情報を提供するための方法、端末装置及びコンピュータ読み取り可能な記録媒体 Expired - Fee Related JP5383930B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020100011212A KR100985737B1 (ko) 2010-02-05 2010-02-05 단말 장치의 시야에 포함되는 객체에 대한 정보를 제공하기 위한 방법, 단말 장치 및 컴퓨터 판독 가능한 기록 매체
KR10-2010-0011212 2010-02-05
PCT/KR2011/000560 WO2011096668A2 (ko) 2010-02-05 2011-01-27 단말 장치의 시야에 포함되는 객체에 대한 정보를 제공하기 위한 방법, 단말 장치 및 컴퓨터 판독 가능한 기록 매체

Publications (2)

Publication Number Publication Date
JP2013518337A JP2013518337A (ja) 2013-05-20
JP5383930B2 true JP5383930B2 (ja) 2014-01-08

Family

ID=43135050

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012551087A Expired - Fee Related JP5383930B2 (ja) 2010-02-05 2011-01-27 端末装置の視野に含まれている客体に関する情報を提供するための方法、端末装置及びコンピュータ読み取り可能な記録媒体

Country Status (7)

Country Link
US (1) US8947458B2 (ja)
EP (1) EP2533214A4 (ja)
JP (1) JP5383930B2 (ja)
KR (1) KR100985737B1 (ja)
CN (1) CN104221056B (ja)
AU (1) AU2011211601B2 (ja)
WO (1) WO2011096668A2 (ja)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101576096B1 (ko) 2010-10-12 2015-12-09 네이버 주식회사 중복 데이터 처리 시스템 및 방법
KR101266198B1 (ko) * 2010-10-19 2013-05-21 주식회사 팬택 증강현실 객체정보의 가시성을 높이는 디스플레이 장치 및 디스플레이 방법
KR101357260B1 (ko) * 2010-10-22 2014-02-03 주식회사 팬택 증강 현실 사용자 인터페이스 제공 장치 및 방법
KR101162449B1 (ko) 2010-10-25 2012-07-04 엘에스전선 주식회사 셋톱박스 및 증강현실 기법을 이용한 컨텐츠 생성 방법
KR101759992B1 (ko) 2010-12-28 2017-07-20 엘지전자 주식회사 이동단말기 및 그의 증강현실을 이용한 비밀번호 관리 방법
US9600933B2 (en) * 2011-07-01 2017-03-21 Intel Corporation Mobile augmented reality system
US9606992B2 (en) * 2011-09-30 2017-03-28 Microsoft Technology Licensing, Llc Personal audio/visual apparatus providing resource management
US20150029214A1 (en) * 2012-01-19 2015-01-29 Pioneer Corporation Display device, control method, program and storage medium
KR101867853B1 (ko) * 2012-02-29 2018-06-15 엘지전자 주식회사 휴대 단말기 및 네트워크 시스템
US20140168264A1 (en) 2012-12-19 2014-06-19 Lockheed Martin Corporation System, method and computer program product for real-time alignment of an augmented reality device
EP2824649A1 (en) * 2013-07-12 2015-01-14 GN Store Nord A/S Audio based learning system comprising a portable terminal connected to an audio unit and plurality of zones
KR102200246B1 (ko) * 2013-12-31 2021-01-08 주식회사 케이티 콘텐츠 검색 방법, 웨어러블 디바이스 및 컴퓨터 판독가능 매체
KR101746427B1 (ko) * 2016-02-26 2017-06-13 동국대학교 산학협력단 착용형 사용자 장치를 이용한 증강 현실 구현 방법 및 착용형 사용자 장치
CN107818540A (zh) * 2016-09-12 2018-03-20 北京易讯理想科技有限公司 基于增强现实的天气信息显示方法及装置
US10373358B2 (en) * 2016-11-09 2019-08-06 Sony Corporation Edge user interface for augmenting camera viewfinder with information
KR102330829B1 (ko) * 2017-03-27 2021-11-24 삼성전자주식회사 전자 장치에서 증강현실 기능 제공 방법 및 장치
US10818097B2 (en) * 2017-12-12 2020-10-27 Disney Enterprises, Inc. Spatial position calculation system for objects in virtual reality or augmented reality environment
US11126846B2 (en) * 2018-01-18 2021-09-21 Ebay Inc. Augmented reality, computer vision, and digital ticketing systems
US11527044B2 (en) 2018-06-27 2022-12-13 Samsung Electronics Co., Ltd. System and method for augmented reality
CN111488415B (zh) * 2019-01-29 2023-04-18 阿里巴巴集团控股有限公司 一种推送poi信息的方法、装置及相关服务器
CN110287872A (zh) * 2019-06-25 2019-09-27 清华大学 一种基于移动终端的兴趣点视线方向识别方法及装置
CN110631603B (zh) * 2019-09-29 2022-06-14 阿波罗智联(北京)科技有限公司 车辆导航方法和装置
KR102443016B1 (ko) * 2020-03-02 2022-09-15 주식회사 하이퍼클라우드 증강 기술을 이용하여 광고를 구현하는 장치 및 방법

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3474053B2 (ja) 1996-04-16 2003-12-08 株式会社日立製作所 ナビゲーション装置の地図表示方法およびナビゲーション装置
JP3434715B2 (ja) * 1998-11-09 2003-08-11 日本電信電話株式会社 移動支援装置及び移動支援方法
JP3799219B2 (ja) * 2000-07-05 2006-07-19 シャープ株式会社 情報端末装置、通信基地システム、情報サービス、情報処理装置およびコンピュータ読み取り可能な記録媒体
JP3945160B2 (ja) * 2000-12-25 2007-07-18 日本電気株式会社 情報提供サーバ、クライアント、情報提供システムの処理方法、及びプログラムを記録した記録媒体
KR100427649B1 (ko) * 2001-12-26 2004-04-28 한국전자통신연구원 증강현실 기술을 이용한 별자리 관측시스템
JP3893983B2 (ja) * 2002-01-17 2007-03-14 ソニー株式会社 情報提供装置及び情報提供方法、記憶媒体、並びにコンピュータ・プログラム
JP2003283664A (ja) 2002-03-25 2003-10-03 Nippon Telegr & Teleph Corp <Ntt> 場所案内システムおよびサーバー装置
JP4136529B2 (ja) 2002-08-12 2008-08-20 パイオニア株式会社 情報処理装置、そのシステム、その方法、そのプログラム、そのプログラムを記録する記録媒体、および、ナビゲーション装置
JP2004343288A (ja) * 2003-05-14 2004-12-02 Hitachi Ltd 携帯端末、情報配信装置、通信システム、及び携帯端末を利用したユーザへの情報提示方法
KR100593398B1 (ko) 2003-12-08 2006-06-28 한국전자통신연구원 증강현실을 이용한 휴대단말기 사용자의 위치정보제공시스템 및 방법
WO2005124594A1 (en) * 2004-06-16 2005-12-29 Koninklijke Philips Electronics, N.V. Automatic, real-time, superimposed labeling of points and objects of interest within a view
JP4875843B2 (ja) * 2004-10-20 2012-02-15 オリンパス株式会社 情報端末装置
KR100613906B1 (ko) * 2004-11-16 2006-08-21 한국전자통신연구원 주행속도 기반 연속적인 공간영역 질의 처리에 의한헤드업 디스플레이 장치를 갖는 차량항법 시스템 및 그의정보 출력 방법
US7720436B2 (en) 2006-01-09 2010-05-18 Nokia Corporation Displaying network objects in mobile devices based on geolocation
EP2264621A3 (en) * 2004-12-31 2011-11-23 Nokia Corp. Provision of target specific information
JP4141472B2 (ja) * 2005-12-28 2008-08-27 シャープ株式会社 画像処理装置、画像処理方法、及びプログラム
US8264584B2 (en) * 2007-05-31 2012-09-11 Panasonic Corporation Image capturing apparatus, additional information providing server, and additional information filtering system
US8644842B2 (en) * 2007-09-04 2014-02-04 Nokia Corporation Personal augmented reality advertising
JP5398970B2 (ja) * 2007-09-28 2014-01-29 京セラ株式会社 移動通信装置、制御方法
KR101526969B1 (ko) 2008-02-13 2015-06-11 엘지전자 주식회사 Ofdm 시스템에서 상향링크를 위한 파일럿 부반송파송신 방법
KR20100002340A (ko) 2008-06-30 2010-01-07 윤현진 멀티 식탁
US20100309225A1 (en) * 2009-06-03 2010-12-09 Gray Douglas R Image matching for mobile augmented reality
US8503762B2 (en) * 2009-08-26 2013-08-06 Jacob Ben Tzvi Projecting location based elements over a heads up display
KR100976138B1 (ko) 2009-09-16 2010-08-16 (주)올라웍스 건축물 이미지의 계층적 매칭 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체
US20110109747A1 (en) * 2009-11-12 2011-05-12 Siemens Industry, Inc. System and method for annotating video with geospatially referenced data
US8189964B2 (en) * 2009-12-07 2012-05-29 Google Inc. Matching an approximately located query image against a reference image set

Also Published As

Publication number Publication date
WO2011096668A2 (ko) 2011-08-11
AU2011211601B2 (en) 2014-01-30
JP2013518337A (ja) 2013-05-20
WO2011096668A3 (ko) 2011-11-10
CN104221056A (zh) 2014-12-17
US20120092372A1 (en) 2012-04-19
EP2533214A2 (en) 2012-12-12
AU2011211601A1 (en) 2012-08-23
EP2533214A4 (en) 2015-11-18
CN104221056B (zh) 2017-12-22
US8947458B2 (en) 2015-02-03
KR100985737B1 (ko) 2010-10-06

Similar Documents

Publication Publication Date Title
JP5383930B2 (ja) 端末装置の視野に含まれている客体に関する情報を提供するための方法、端末装置及びコンピュータ読み取り可能な記録媒体
JP5324714B2 (ja) 端末装置の視野に含まれていない客体に関する情報を提供するための方法、端末装置及びコンピュータプログラム
KR101002030B1 (ko) 단말 장치로 입력되는 입력 영상 및 상기 입력 영상에 관련된 정보를 이용하여 증강 현실을 제공하기 위한 방법, 단말 장치 및 컴퓨터 판독 가능한 기록 매체
US20160063671A1 (en) A method and apparatus for updating a field of view in a user interface
KR101864814B1 (ko) 스트리트 뷰 목적지에 대한 안내를 제공하는 방법 및 장치
US8831380B2 (en) Viewing media in the context of street-level images
JP5582548B2 (ja) 実環境視像における仮想情報の表示方法
CA2799443C (en) Method and apparatus for presenting location-based content
JP5728775B2 (ja) 情報処理装置、及び情報処理方法
US20110137561A1 (en) Method and apparatus for measuring geographic coordinates of a point of interest in an image
US20150062114A1 (en) Displaying textual information related to geolocated images
KR102108488B1 (ko) 컨텍스트적 지도 뷰
CN107656961A (zh) 一种信息显示方法及装置
AU2013242831B2 (en) Method for providing information on object which is not included in visual field of terminal device, terminal device and computer readable recording medium

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130430

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130521

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130719

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20130821

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130903

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131001

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees