JP2013518275A - 端末装置の視野に含まれていない客体に関する情報を提供するための方法、端末装置及びコンピュータ読み取り可能な記録媒体 - Google Patents

端末装置の視野に含まれていない客体に関する情報を提供するための方法、端末装置及びコンピュータ読み取り可能な記録媒体 Download PDF

Info

Publication number
JP2013518275A
JP2013518275A JP2012551076A JP2012551076A JP2013518275A JP 2013518275 A JP2013518275 A JP 2013518275A JP 2012551076 A JP2012551076 A JP 2012551076A JP 2012551076 A JP2012551076 A JP 2012551076A JP 2013518275 A JP2013518275 A JP 2013518275A
Authority
JP
Japan
Prior art keywords
terminal device
field
view
information
input video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012551076A
Other languages
English (en)
Other versions
JP5324714B2 (ja
Inventor
ヒ リュ、ジョン
ナ リュ、ハ
ソク イ、ギョン
ジン ジュ、チャン
イル イ、ヘ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intel Corp
Original Assignee
Intel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intel Corp filed Critical Intel Corp
Publication of JP2013518275A publication Critical patent/JP2013518275A/ja
Application granted granted Critical
Publication of JP5324714B2 publication Critical patent/JP5324714B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • EFIXED CONSTRUCTIONS
    • E03WATER SUPPLY; SEWERAGE
    • E03DWATER-CLOSETS OR URINALS WITH FLUSHING DEVICES; FLUSHING VALVES THEREFOR
    • E03D9/00Sanitary or other accessories for lavatories ; Devices for cleaning or disinfecting the toilet room or the toilet bowl; Devices for eliminating smells
    • E03D9/08Devices in the bowl producing upwardly-directed sprays; Modifications of the bowl for use with such devices ; Bidets; Combinations of bowls with urinals or bidets; Hot-air or other devices mounted in or on the bowl, urinal or bidet for cleaning or disinfecting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47KSANITARY EQUIPMENT NOT OTHERWISE PROVIDED FOR; TOILET ACCESSORIES
    • A47K10/00Body-drying implements; Toilet paper; Holders therefor
    • A47K10/48Drying by means of hot air
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Water Supply & Treatment (AREA)
  • Hydrology & Water Resources (AREA)
  • Molecular Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Epidemiology (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Navigation (AREA)

Abstract

端末装置の視野に含まれていない客体に関する情報を提供するための方法、端末装置及びコンピュータ読み取り可能な記録媒体が開示される。本発明の一態様によれば、端末装置に入力されている入力映像及び入力映像と関連する情報を用いて拡張現実(AR)を実現するにおいて、端末装置の視野に含まれていない客体に関する情報を提供するための方法であって、(a)端末装置の位置、姿勢及び視野角のうちの少なくとも1つに関する情報を参照して、入力映像に対応する端末装置の視野を特定する段階、(b)端末装置の視野に含まれていない客体を検索する段階、及び(c)端末装置の視野に含まれていないと検索された少なくとも1つの客体に対する案内情報を入力映像と共に拡張現実の形態で表示する段階を含む方法が提供される。本発明によれば、ユーザが端末装置の視野に含まれていない客体の存否、位置及び方向を容易に認知し、該当客体に関する情報を効果的に獲得できるようになるという効果が達成される。
【選択図】図1

Description

端末装置の視野に含まれていない客体に関する情報を提供するための方法、端末装置及びコンピュータ読み取り可能な記録媒体に関し、より詳しくは、端末装置に入力されている入力映像及び前記入力映像と関連する情報を用いて拡張現実(Augmented Reality:AR)映像を生成するにおいて、端末装置の視野に含まれていない客体の存否、位置及び方向を案内する情報を入力映像と共に表示することにより、ユーザに端末装置の視野に含まれていない客体を認知させ、該当客体に関する情報を効果的に獲得できるようにする方法、端末装置及びコンピュータ読み取り可能な記録媒体に関する。
近年、インターネット利用が広がるにつれ、従来は冊子のような印刷物の形態で提供されてきた地理情報がデジタルデータに変換されて提供されるのが一般的になった。デジタル化した代表的な地理情報の形態として、オンライン上で提供される電子マップサービス、車に設置されるナビゲーションシステムなどがその例として挙げられる。このようにデジタル化した地理情報は、検索機能のようなユーザインターフェースと結合されることで、各種便宜機能をユーザに提供できるという長所があり、地理情報に変動が発生する場合、遠隔アップデートなどを通じて容易に更新可能なことから、地理情報の最新性の側面からも従来の印刷物に比べて優位性を有するのが現状である。
特に、近年は端末装置によってリアルタイムで撮影される入力映像にコンピュータグラフィックス(Computer Graphics:CG)、文字メールなどの付加情報を合成して表示する拡張現実(AR)の形態で地理情報を提供する技術が紹介されているが、このような拡張現実技術によれば、ユーザが実際に見ている現実世界を含んでいる画面に付加情報(例えば、関心地点(Point Of Interest:POI)を示すグラフィック要素など)を視覚的に重複して提供できるので、より直観的な方法でユーザに地理情報を提供できるようになる。
一方、モバイル端末装置に備えられた表示装置(例えば、液晶表示装置など)の大きさは多量の情報を表示できる程度に十分に大きくないことが通常であるため、従来の拡張現実技術を利用して客体に対する付加情報を提供するにおいては端末装置の視野に含まれる客体に対する付加情報のみを限定的に表示し、端末装置の視野に含まれていない客体に対しては何らの情報も表示しないのが一般的であった。
しかしながら、前記のような従来の拡張現実技術によれば、ユーザが探そうとする客体が端末装置の視野に含まれていない場合、ユーザが自身の端末装置の視野に該当客体が含まれるようにするために端末装置の姿勢又は位置を変更しなければならないが、このような端末装置の操作過程でユーザは(端末装置の視野に含まれていない)該当客体の位置又は方向に対して如何なる案内も受けられないため、該当客体を探すことに不便さを感じるという問題が発生する。
従って、本出願人は、端末装置の視野に含まれていない客体の存否、位置及び方向を案内する情報を入力映像と共に表示することで、ユーザに端末装置の視野に含まれていない客体を容易に認知させ、該当客体に関する情報を効果的に獲得できるように支援する技術を開発するに至った。
本発明は前述した問題を何れも解決することをその目的とする。
また、本発明の他の目的は、端末装置の位置、姿勢及び視野角に関する情報を参照して端末装置に入力されている入力映像に対応する端末装置の視野を特定し、端末装置の視野に含まれていない客体を検索することにより、端末装置の視野に含まれていない客体のうち、端末装置の視野の境界に近接する客体に対する案内情報を入力映像と共に表示できるようにすることにある。
前記目的を達成するための本発明の代表的な構成は、以下の通りである。
本発明の一態様によれば、端末装置に入力されている入力映像及び前記入力映像と関連する情報を用いて拡張現実(AR)を実現するにおいて、前記端末装置の視野に含まれていない客体に関する情報を提供するための方法であって、(a)前記端末装置の位置、姿勢及び視野角のうちの少なくとも1つに関する情報を参照して、前記入力映像に対応する前記端末装置の視野を特定する段階、(b)前記端末装置の視野に含まれていない客体を検索する段階、及び(c)前記端末装置の視野に含まれていないと検索された少なくとも1つの客体に対する案内情報を前記入力映像と共に拡張現実の形態で表示する段階を含む方法が提供される。
本発明の他の態様によれば、端末装置に入力されている入力映像及び前記入力映像と関連する情報を用いて拡張現実(AR)を実現するにおいて、前記端末装置の視野に含まれていない客体に関する情報を提供するための端末装置であって、前記端末装置の位置、姿勢及び視野角のうちの少なくとも1つに関する情報を参照して、前記入力映像に対応する前記端末装置の視野を特定する姿勢及び位置算出部、前記端末装置の視野に含まれていない客体を検索する情報検索部、及び前記端末装置の視野に含まれていないと検索された少なくとも1つの客体に対する案内情報を前記入力映像と共に拡張現実の形態で表示するユーザインターフェース部を含む端末装置が提供される。
この他にも、本発明を実現するための他の方法、システム及び前記方法を実行するためのコンピュータプログラムを記録するためのコンピュータ読み取り可能な記録媒体が更に提供される。
本発明によれば、端末装置の視野に含まれていない客体のうち、端末装置の視野の境界に近接する客体に対する案内情報を入力映像と共に拡張現実の形態で表示できるようになるので、ユーザに端末装置の視野に含まれていない客体の存否、位置及び方向を容易に認知できるようにさせ、該当客体に関する情報を効果的に獲得できるようにするという効果を奏する。
本発明の一実施形態によって端末装置の視野に含まれていない客体に関する情報を提供するための全体システムの構成を概略的に示す図である。 本発明の一実施形態に係る端末装置200の内部構成を例示的に示す図である。 本発明の一実施形態によって端末装置の視野に含まれていない客体に対する案内情報を提供する構成を例示的に示す図である。
後述する本発明に関する詳細な説明は、本発明が実施され得る特定の実施形態を例として示す添付の図面を参照する。これらの実施形態は、当業者が本発明を実施できるのに十分なように詳細に説明される。本発明の多様な実施形態は互いに異なるが、相互排他的である必要はないことが理解されるべきである。例えば、ここに記載されている特定の形状、構造及び特性は、一実施形態に関連して本発明の精神及び範囲から逸脱しないながらも、他の実施形態で実現され得る。また、それぞれの開示された実施形態内の個別構成要素の位置又は配置は、本発明の精神及び範囲から逸脱しないながらも、変更され得ることが理解されるべきである。従って、後述する詳細な説明は、限定的な意味として取ろうとするのではなく、本発明の範囲は、適切に説明されれば、それらの請求項が主張するものと均等なあらゆる範囲と共に添付された請求項によってのみ限定される。図面において類似する参照符号は、多様な側面にわたって同一又は類似する機能を示す。
以下では、本発明の属する技術分野において通常の知識を有する者が本発明を容易に実施できるようにするために、本発明の好適な実施形態について添付の図面を参照して詳細に説明する。
全体システムの構成
図1は、本発明の一実施形態によって端末装置の視野に含まれていない客体に関する情報を提供するための全体システムの構成を概略的に示す図である。
図1に示すように、本発明の一実施形態に係る全体システムは、通信網100、端末装置200、情報提供サーバ300で構成されることができる。
まず、本発明の一実施形態によれば、通信網100は、有線及び無線のようなその通信形態を問わず構成されることができ、移動通信網、近距離通信網(LAN:Local Area Network)、都市圏通信網(MAN:Metropolitan Area Network)、広域通信網(WAN:Wide Area Network)、人工衛星通信網など多様な通信網で構成されることができる。より具体的に、本発明でいう通信網100は、公知のワールドワイドウェブ(WWW;World Wide Web)、CDMA(Code Division Multiple Access)、WCDMA(Wideband Code Division Multiple Access)又はGSM(登録商標)(Global System for Mobile communications)通信網などを何れも含む概念であることが理解されるべきである。
次に、本発明の一実施形態によれば、端末装置200は、カメラ(カメラ付き携帯用機器を含む概念として理解されるべきである)などの撮影手段を通じて入力される入力映像及び前記入力映像と関連する情報を用いて拡張現実(AR)映像を生成するにおいて端末装置200の視野に含まれていない客体に対する案内情報をディスプレイする機能を実行できる。本発明でいう端末装置200は、通信網100に接続した後に通信できるようにする機能を含むデジタル機器を意味するものであって、個人用コンピュータ(例えば、デスクトップコンピュータ、ノートブックコンピュータ、タブレットコンピュータなど)、ワークステーション、PDA、ウェブパッド、移動電話機などのようにメモリ手段を備え、マイクロ・プロセッサを搭載して演算能力を備えたデジタル機器であれば、いくらでも本発明に係る端末装置200として採択され得る。端末装置200の詳細な内部構成については後述する。
一方、本発明の一実施形態によれば、情報提供サーバ300は、通信網100を通じて端末装置200及び他の情報提供サーバ(図示せず)と通信することにより、端末装置200の要請に応じて多様なタイプの情報を提供する機能を行える。より具体的に、情報提供サーバ300は、ウェブコンテンツ検索エンジン(図示せず)を含んで端末装置200の要請に対応する情報を検索し、その検索結果を端末装置200のユーザがブラウジングできるように提供できる。例えば、情報提供サーバ300は、インターネット検索ポータルサイトのオペレーティングサーバであり得、端末装置200に提供される情報はウェブサイト、ウェブ文書、知識、ブログ、カフェ、イメージ、動画、ニュース、音楽、ショッピング、地図、本、映画などに関する多様な情報であり得る。もちろん、必要に応じて情報提供サーバ300の情報検索エンジンは情報提供サーバ300ではなく、他の演算装置や記録媒体に含まれることもできる。
端末装置の構成
以下では、本発明の実現のために重要な機能を行う端末装置200の内部構成及び各構成要素の機能について詳察する。
図2は、本発明の一実施形態に係る端末装置200の内部構成を例示的に示す図である。
図2に示すように、本発明の一実施形態に係る端末装置200は、入力映像獲得部210、位置及び姿勢算出部220、拡張現実実現部230、ユーザインターフェース部240、情報検索部250、通信部260及び制御部270を含むことができる。本発明の一実施形態によれば、入力映像獲得部210、位置及び姿勢算出部220、拡張現実実現部230、ユーザインターフェース部240、情報検索部250、通信部260及び制御部270は、そのうちの少なくとも一部がユーザ端末装置300と通信するプログラムモジュールであり得る。このようなプログラムモジュールは、オペレーティングシステム、応用プログラムモジュール及びその他プログラムモジュールの形態で端末装置200に含まれることができ、物理的には多様な公知の記憶装置上に格納されることができる。また、このようなプログラムモジュールは、端末装置200と通信可能な遠隔記憶装置に格納されることもできる。一方、このようなプログラムモジュールは、本発明によって後述する特定の業務を行ったり、特定の抽象データのタイプを実行するルーチン、サブルーチン、プログラム、オブジェクト、コンポーネント、データ構造などを包括するが、これに制限されるものではない。
まず、本発明の一実施形態によれば、入力映像獲得部210は、後述する拡張現実実現部230によって実現される拡張現実の土台となる入力映像を獲得する機能を実行することができる。より具体的に、本発明の一実施形態に係る入力映像獲得部120は、CCDカメラなどの撮影装置を含むことができ、端末装置100を携帯しているユーザ周辺の風景の様子を仮にプレビュー状態でリアルタイムで入力を受ける機能を実行することができる。
次に、本発明の一実施形態によれば、位置及び姿勢算出部220は、端末装置200により獲得される入力映像が現実世界の如何なる領域に対応するかを判断するために、端末装置200の位置及び姿勢を算出する機能を実行することができる。
より具体的に、本発明の一実施形態に係る位置及び姿勢算出部220は、GPS(Global Positioning System)技術、移動通信技術などの位置情報獲得技術を利用して端末装置200の位置を算出することができるが、例えば、このために位置及び姿勢算出部220は、所定のGPSモジュール、移動通信モジュールを含むことができる。また、本発明の一実施形態に係る位置及び姿勢算出部220は、所定のセンシング手段を用いて端末装置200の姿勢を算出することができるが、例えば、このために位置及び姿勢算出部220は、端末装置200の動きの有無、距離、速度、加速度、方向などを感知する加速度センサ及び端末装置200の回転の有無、回転量、角速度、角加速度、方向などを感知するジャイロスコープを含むことができる。
また、本発明の一実施形態によれば、位置及び姿勢算出部220は、前記のように算出された端末装置200の位置、姿勢及び視野角に関する情報を参照して端末装置200を視点とする端末装置200の視野、即ち、端末装置200により獲得される入力映像に対応する端末装置200の視野を特定する機能を実行することができる。
より具体的に、本発明の一実施形態によれば、端末装置200の視野は、3次元空間である現実世界で定義される3次元領域を意味するものであって、端末装置200を視点とするビューイングフラスタムで特定され得る。ここで、ビューイングフラスタムとは、カメラなどの撮影装置によって映像が撮影されたり、プレビュー状態で入力されたりする場合に撮影装置の視野に含まれる3次元領域を示すものであって、端末装置200に備えられた撮影手段の投影中心を視点として定義でき、撮影レンズの種類によって円錐又は多角錐状の無限領域(円錐又は多角錐が視線方向に垂直な***面(near plane)又は遠平面(far plane)によって切り取られた台形円柱又は台形多面体状の有限領域であり得る)に定義され得る。このようなビューイングフラスタムについては、本出願人により出願された韓国特許出願第2010-0002340号の明細書を参照することができる。ここで、前記明細書はその全体として本明細書に併合されたものと見なされるべきである。
次に、本発明の一実施形態によれば、拡張現実実現部230は、端末装置200により獲得される入力映像及び入力映像と関連する情報を合成することによって拡張現実を実現し、拡張現実を視覚的に表現する出力映像を生成する機能を実行することができる。例えば、本発明の一実施形態に係る拡張現実実現部230は、入力映像と関連する情報として端末装置200の視野に含まれていると判断された客体(例えば、建物、商店など)に対して関心地点(POI)であることを示す所定のグラフィック要素を表示し、ユーザによって関心地点が選択される場合には該当客体に対する詳細な情報を提供するようにすることができる。他の例を挙げると、本発明の一実施形態に係る拡張現実実現部230は、入力映像と関連する情報として端末装置200が位置する地点の周辺に存在する客体の位置を示す半透明2次元マップ又は端末装置200が位置する地点の天気情報を含む半透明情報窓が入力映像と重なって(overlap)表示される拡張現実を実現することもできる。
次に、本発明の一実施形態によれば、ユーザインターフェース部240は、端末装置200により獲得される入力映像及び入力映像と関連する情報を用いて拡張現実を実現するにおいて、端末装置200の視野に含まれていない客体に対する案内情報を入力映像と共に表示する機能を実行することができる。より具体的に、本発明の一実施形態に係るユーザインターフェース部240は、端末装置200の視野に含まれていないと検索された客体の存否、位置、方向などを案内する案内情報を入力映像と共に表示することができる。このためには、端末装置200の視野及び現実世界に存在する客体の位置に関する情報を参照して端末装置200の視野に含まれていない客体を検索する過程が先行されなければならないが、これは後述する情報検索部250によって実行され得る。
ここで、本発明の一実施形態によって入力映像と共に表示される案内情報には、該当客体の名称を示す文字列、端末装置200の視野を基準とした該当客体の相対的な位置を示すグラフィック要素などが含まれ得る。ただし、本発明に係る案内情報が必ずしも前記列挙されたものに限定されるものではなく、端末装置200の視野に含まれていない客体の存否、位置、方向などを暗示又は案内できる情報であれば、いくらでも本発明に係る案内情報に含まれ得ることを明確にしておく。
また、本発明の一実施形態によれば、ユーザインターフェース部240は、入力映像と共に表示される案内情報がユーザによって選択されるものに対応して該当客体に対するより詳細な情報を表示する機能を実行することができる。
具体的に、本発明の一実施形態に係るユーザインターフェース部240は、端末装置200の視野を基準とした客体の相対的な位置を参照して該当客体に対する案内情報が表示される位置を適応的に決定する機能を実行することができる。例えば、端末装置200の視野に含まれていない観光地Aが端末装置200の視野を基準として右側に位置する場合を仮定することができるが、このような場合、本発明の一実施形態に係るユーザインターフェース部240は、観光地Aに対する案内情報を出力映像の右側部分に表示することができる。
より具体的に、本発明の一実施形態に係るユーザインターフェース部240は、客体が端末装置200の視野の境界に近接する程度によって該当客体に対する案内情報を差別的に表示する機能を実行することができる。例えば、端末装置200が右に15°回転しなければ端末装置200の視野に含まれていない建物A及び端末装置200が右に30°回転しなければ端末装置200の視野に含まれていない建物Bに対する案内情報を提供する場合を仮定することができるが、このような場合、建物Aが建物Bよりも端末装置200の視野の境界に、より近接したものと評価され得、これにより本発明の一実施形態に係るユーザインターフェース部240は、出力映像内で建物Aに対する案内情報が建物Bに対する案内情報よりも更に大きく表示されるようにするか、建物Aに対する案内情報よりも建物Bに対する案内情報が画面上でより右側に表示されるようにするか、出力映像内に建物Aに対する案内情報のみ表示されるようにすることもできるなど多様な変形例を想定することができる。
図3は、本発明の一実施形態によって端末装置の視野に含まれていない客体に対する案内情報を提供する構成を例示的に示す図である。
図3に示すように、本発明の一実施形態によって端末装置200の視野に含まれていない客体に対する案内情報310、320が拡張現実の形態で出力映像内に表示される構成を確認することができる。より具体的に詳察すると、第1案内情報310は、端末装置200の視野を基準として左側に位置する「土五味江南店」という商店を案内する案内情報であって、該当商店の名称を示す文字列及び該当商店の位置を案内する矢印を含んでおり、第2案内情報320は、端末装置200の視野を基準として右側に位置する「飛ぶ魚」という商店を案内する案内情報であって、該当商店の名称を示す文字列及び該当商店の位置を案内する矢印を含んでいることが確認することができる。
一方、本発明の一実施形態によれば、拡張現実として実現された出力映像情報をはじめとするその他映像情報は、端末装置200の表示部(図示せず)を通じて視覚的に表出され得るが、例えば、本発明の一実施形態に係る表示部は、通常の液晶表示装置(LCD:Liquid Crystal Display)又は有機発光ダイオード(OLED:Organic Light Emitting Diodes)などのフラット表示装置であり得る。
次に、本発明の一実施形態によれば、情報検索部250は、端末装置200の視野及び現実世界に存在する客体の位置に関する情報を参照して端末装置200の視野に含まれていない客体を検索する機能を実行することができる。
また、本発明の一実施形態によれば、情報検索部250は、端末装置200を通じて要請された情報を提供するために、情報提供サーバ300と通信して必要な情報を検索する機能を行うこともできる。例えば、端末装置200を通じて商店Aに関する情報が要請された場合を仮定できるが、このような場合、本発明の一実施形態に係る情報検索部250は、公知の情報検索ポータルサーバに接続して商店Aの位置、電話番号、販売商品、利用コメントなどに関する情報を検索し、前記検索された情報のうちの少なくとも一部が端末装置200に提供されるようにする機能を実行することができる。
次に、本発明の一実施形態によれば、通信部260は、端末装置200が情報提供サーバ300などのような外部システムと通信できるようにする機能を行う。
最後に、本発明の一実施形態によれば、制御部270は、入力映像獲得部210、位置及び姿勢算出部220、拡張現実実現部230、ユーザインターフェース部240、情報検索部250及び通信部260間のデータの流れを制御する機能を行う。即ち、制御部270は外部からの又は端末装置200の各構成要素間のデータの流れを制御することによって、入力映像獲得部210、位置及び姿勢算出部220、拡張現実実現部230、ユーザインターフェース部240、情報検索部250及び通信部260でそれぞれ固有機能を行うように制御する。
以上説明された本発明に係る実施形態は、多様なコンピュータ構成要素を通じて実行され得るプログラム命令語の形態で実現されてコンピュータ読み取り可能な記録媒体に記録され得る。前記コンピュータ読み取り可能な記録媒体は、プログラム命令語、データファイル、データ構造などを単独又は組み合わせて含むことができる。前記コンピュータ読み取り可能な記録媒体に記録されるプログラム命令語は、本発明のために特別に設計され構成されたものであってもよく、コンピュータソフトウェア分野の当業者にとって公知の使用可能なものであってもよい。コンピュータ読み取り可能な記録媒体の例には、ハードディスク、フロッピー(登録商標)ディスク及び磁気テープのような磁気媒体、CD-ROM、DVDのような光気録媒体、フロプティカルディスク(floptical disk)のような磁気-光媒体(magneto-optical media)、及びROM、RAM、フラッシュメモリなどのようなプログラム命令語を格納し実行するように特別に構成されたハードウェア装置が含まれる。プログラム命令語の例には、コンパイラにより作られるもののような機械語コードだけでなく、インタープリタなどを用いてコンピュータによって実行され得る高級言語コードも含まれる。前記ハードウェア装置は、本発明に係る処理を行うために、1つ以上のソフトウェアモジュールとして作動するように構成されることができ、その逆も同様である。
以上、本発明が具体的な構成要素などのような特定事項と限定された実施形態及び図面により説明されたが、これは、本発明のより全般的な理解を促進するために提供されたものであって、本発明が前記実施形態に限定されるものではなく、本発明の属する技術分野において通常の知識を有する者であれば、このような記載から多様な修正及び変形を図ることができる。
従って、本発明の思想は、前記説明された実施形態に限定されて定められてはならず、後述する特許請求の範囲だけでなく、この特許請求の範囲と均等に又は等価的に変形された全てのものは、本発明の思想の範疇に属すると言える。
100 通信網
200 端末装置
210 入力映像獲得部
220 位置及び姿勢算出部
230 拡張現実実現部
240 ユーザインターフェース部
250 情報検索部
260 通信部
270 制御部
300 情報提供サーバ

Claims (9)

  1. 端末装置に入力されている入力映像及び前記入力映像と関連する情報を用いて拡張現実(AR)を実現するにおいて、前記端末装置の視野に含まれていない客体に関する情報を提供するための方法であって、
    (a)前記端末装置の位置、姿勢及び視野角のうちの少なくとも1つに関する情報を参照して、前記入力映像に対応する前記端末装置の視野を特定する段階、
    (b)前記端末装置の視野に含まれていない客体を検索する段階、及び
    (c)前記端末装置の視野に含まれていないと検索された少なくとも1つの客体に対する案内情報を前記入力映像と共に拡張現実の形態で表示する段階を含み、
    前記視野は、前記端末装置を視点とするビューイングフラスタムによって特定されることを特徴とする方法。
  2. 端末装置に入力されている入力映像及び前記入力映像と関連する情報を用いて拡張現実(AR)を実現するにおいて、前記端末装置の視野に含まれていない客体に関する情報を提供するための方法であって、
    (a)前記端末装置の位置、姿勢及び視野角のうちの少なくとも1つに関する情報を参照して、前記入力映像に対応する前記端末装置の視野を特定する段階、
    (b)前記端末装置の視野に含まれていない客体を検索する段階、及び
    (c)前記端末装置の視野に含まれていないと検索された少なくとも1つの客体に対する案内情報を前記入力映像と共に拡張現実の形態で表示する段階を含み、
    前記案内情報には、前記少なくとも1つの客体の名称を示す文字列及び前記視野を基準とした前記少なくとも1つの客体の相対的な位置を示すグラフィック要素のうちの少なくとも1つが含まれることを特徴とする方法。
  3. 前記(c)段階で、
    前記視野を基準とした前記少なくとも1つの客体の相対的な位置を参照して、前記少なくとも1つの客体に対する案内情報が表示される位置を適応的に決定することを特徴とする請求項1又は2に記載の方法。
  4. 前記(c)段階で、
    客体が前記視野の境界と近接した程度によって前記少なくとも1つの客体に対する案内情報を差別的に表示することを特徴とする請求項1又は2に記載の方法。
  5. 端末装置に入力されている入力映像及び前記入力映像と関連する情報を用いて拡張現実(AR)を実現するにおいて、前記端末装置の視野に含まれていない客体に関する情報を提供するための端末装置であって、
    前記端末装置の位置、姿勢及び視野角のうちの少なくとも1つに関する情報を参照して、前記入力映像に対応する前記端末装置の視野を特定する姿勢及び位置算出部、
    前記端末装置の視野に含まれていない客体を検索する情報検索部、及び
    前記端末装置の視野に含まれていないと検索された少なくとも1つの客体に対する案内情報を前記入力映像と共に拡張現実の形態で表示するユーザインターフェース部を含み、
    前記視野は、前記端末装置を視点とするビューイングフラスタムによって特定されることを特徴とする端末装置。
  6. 端末装置に入力されている入力映像及び前記入力映像と関連する情報を用いて拡張現実(AR)を実現するにおいて、前記端末装置の視野に含まれていない客体に関する情報を提供するための端末装置であって、
    前記端末装置の位置、姿勢及び視野角のうちの少なくとも1つに関する情報を参照して、前記入力映像に対応する前記端末装置の視野を特定する姿勢及び位置算出部、
    前記端末装置の視野に含まれていない客体を検索する情報検索部、及び
    前記端末装置の視野に含まれていないと検索された少なくとも1つの客体に対する案内情報を前記入力映像と共に拡張現実の形態で表示するユーザインターフェース部を含み、
    前記案内情報には、前記少なくとも1つの客体の名称を示す文字列及び前記視野を基準とした前記少なくとも1つの客体の相対的な位置を示すグラフィック要素のうちの少なくとも1つが含まれることを特徴とする端末装置。
  7. 前記ユーザインターフェース部は、前記視野を基準とした前記少なくとも1つの客体の相対的な位置を参照して、前記少なくとも1つの客体に対する案内情報が表示される位置を適応的に決定することを特徴とする請求項5又は6に記載の端末装置。
  8. 前記ユーザインターフェース部は、客体が前記視野の境界と近接した程度によって前記少なくとも1つの客体に対する案内情報を差別的に表示することを特徴とする請求項5又は6に記載の端末装置。
  9. 請求項1から4の何れか一項による方法を実行するためのコンピュータプログラムを記録したコンピュータ読み取り可能な記録媒体。
JP2012551076A 2010-01-29 2010-12-31 端末装置の視野に含まれていない客体に関する情報を提供するための方法、端末装置及びコンピュータプログラム Expired - Fee Related JP5324714B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR10-2010-0008588 2010-01-29
KR1020100008588A KR100989663B1 (ko) 2010-01-29 2010-01-29 단말 장치의 시야에 포함되지 않는 객체에 대한 정보를 제공하기 위한 방법, 단말 장치 및 컴퓨터 판독 가능한 기록 매체
PCT/KR2010/009615 WO2011093598A2 (ko) 2010-01-29 2010-12-31 단말 장치의 시야에 포함되지 않는 객체에 대한 정보를 제공하기 위한 방법, 단말 장치 및 컴퓨터 판독 가능한 기록 매체

Publications (2)

Publication Number Publication Date
JP2013518275A true JP2013518275A (ja) 2013-05-20
JP5324714B2 JP5324714B2 (ja) 2013-10-23

Family

ID=43135784

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012551076A Expired - Fee Related JP5324714B2 (ja) 2010-01-29 2010-12-31 端末装置の視野に含まれていない客体に関する情報を提供するための方法、端末装置及びコンピュータプログラム

Country Status (7)

Country Link
US (2) US8373725B2 (ja)
EP (1) EP2530588A4 (ja)
JP (1) JP5324714B2 (ja)
KR (1) KR100989663B1 (ja)
CN (1) CN102770843B (ja)
AU (1) AU2010344676B2 (ja)
WO (1) WO2011093598A2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013172354A (ja) * 2012-02-22 2013-09-02 Nec Corp 無線通信システム、ar位置情報配信装置、移動局、ar位置情報交換システムおよびar位置情報交換方法
CN104808956A (zh) * 2014-01-23 2015-07-29 富士通株式会社 用于控制显示的***和方法
JP2020080118A (ja) * 2018-11-14 2020-05-28 エヌ・ティ・ティ・コムウェア株式会社 情報表示システム、情報表示方法及び情報表示プログラム
US10901571B2 (en) 2015-09-30 2021-01-26 Fujitsu Limited Visual field guidance method, computer-readable storage medium, and visual field guidance apparatus

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9582937B2 (en) * 2008-01-02 2017-02-28 Nokia Technologies Oy Method, apparatus and computer program product for displaying an indication of an object within a current field of view
US8239132B2 (en) * 2008-01-22 2012-08-07 Maran Ma Systems, apparatus and methods for delivery of location-oriented information
JP5195885B2 (ja) 2010-12-07 2013-05-15 カシオ計算機株式会社 情報表示システム、情報表示装置、および、プログラム
JP5170223B2 (ja) 2010-12-07 2013-03-27 カシオ計算機株式会社 情報表示システム、情報表示装置、情報提供装置、および、プログラム
KR101266898B1 (ko) 2011-09-21 2013-05-23 고려대학교 산학협력단 시야각을 이용한 최근접 질의 처리 방법
US9930128B2 (en) * 2011-09-30 2018-03-27 Nokia Technologies Oy Method and apparatus for accessing a virtual object
JP2013183433A (ja) * 2012-03-05 2013-09-12 Sony Corp クライアント端末、サーバ、およびプログラム
US9646522B2 (en) * 2012-06-29 2017-05-09 Intel Corporation Enhanced information delivery using a transparent display
US20140036771A1 (en) * 2012-07-31 2014-02-06 Emerson Electric Co. Networked Video Bridge Device
US20140168264A1 (en) 2012-12-19 2014-06-19 Lockheed Martin Corporation System, method and computer program product for real-time alignment of an augmented reality device
WO2014162825A1 (ja) * 2013-04-04 2014-10-09 ソニー株式会社 表示制御装置、表示制御方法およびプログラム
KR101478908B1 (ko) * 2013-05-14 2015-01-02 고려대학교 산학협력단 증강 현실 기술을 이용한 이동 로봇의 원격 내비게이션 시스템
US9437170B1 (en) * 2013-08-12 2016-09-06 Roberto Quevedo Montesdeoca Systems and methods for augmented reality display
CN104679973A (zh) * 2013-12-03 2015-06-03 深圳市艾酷通信软件有限公司 一种用于移动终端上的文件***及其实现方法
US10887565B2 (en) * 2014-05-09 2021-01-05 Sony Corporation Information processing device and information processing method
TWI518634B (zh) * 2014-12-16 2016-01-21 財團法人工業技術研究院 擴增實境方法與系統
KR102407296B1 (ko) * 2015-07-30 2022-06-10 현대오토에버 주식회사 관심지점 표시 장치 및 방법
US20170053621A1 (en) * 2015-08-20 2017-02-23 Microsoft Technology Licensing, Llc Roundtrip Reintegration of Asynchronous 3D Session
US10169917B2 (en) 2015-08-20 2019-01-01 Microsoft Technology Licensing, Llc Augmented reality
US10235808B2 (en) 2015-08-20 2019-03-19 Microsoft Technology Licensing, Llc Communication system
US10585939B2 (en) * 2016-10-11 2020-03-10 International Business Machines Corporation Real time object description service integrated with knowledge center on augmented reality (AR) and virtual reality (VR) devices
US10373358B2 (en) 2016-11-09 2019-08-06 Sony Corporation Edge user interface for augmenting camera viewfinder with information
CN106527725A (zh) * 2016-11-16 2017-03-22 上海楼顶网络科技有限公司 一种vr/ar环境下的利用视野中心轨迹给设备输入信息或指令的方法
CN106980379B (zh) * 2017-03-30 2020-05-19 联想(北京)有限公司 一种显示方法及终端
IT201700058961A1 (it) 2017-05-30 2018-11-30 Artglass S R L Metodo e sistema di fruizione di un contenuto editoriale in un sito preferibilmente culturale o artistico o paesaggistico o naturalistico o fieristico o espositivo
CN109992089A (zh) * 2017-12-29 2019-07-09 索尼公司 电子设备、无线通信***、方法和计算机可读存储介质
EP3956697A4 (en) * 2019-04-17 2022-12-28 Apple Inc. USER INTERFACES TO TRACK AND LOCATE ITEMS
US11823558B2 (en) 2019-04-28 2023-11-21 Apple Inc. Generating tactile output sequences associated with an object
US10699124B1 (en) * 2019-09-09 2020-06-30 Ar, Llc Augmented reality content selection and display based on printed objects having security features
JP7156242B2 (ja) * 2019-10-18 2022-10-19 トヨタ自動車株式会社 情報処理装置、プログラム及び制御方法
CN116634377A (zh) 2020-09-25 2023-08-22 苹果公司 用于跟踪和查找物品的用户界面

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003323239A (ja) * 2002-05-08 2003-11-14 Sony Corp 情報処理装置及び情報処理方法、記憶媒体、並びにコンピュータ・プログラム
JP2006105640A (ja) * 2004-10-01 2006-04-20 Hitachi Ltd ナビゲーション装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6903752B2 (en) 2001-07-16 2005-06-07 Information Decision Technologies, Llc Method to view unseen atmospheric phenomenon using augmented reality
AU2002361572A1 (en) 2001-10-19 2003-04-28 University Of North Carolina At Chape Hill Methods and systems for dynamic virtual convergence and head mountable display
JP2005149409A (ja) * 2003-11-19 2005-06-09 Canon Inc 画像再生方法及び装置
US7129887B2 (en) 2004-04-15 2006-10-31 Lockheed Martin Ms2 Augmented reality traffic control center
US7460953B2 (en) * 2004-06-30 2008-12-02 Navteq North America, Llc Method of operating a navigation system using images
US7720436B2 (en) * 2006-01-09 2010-05-18 Nokia Corporation Displaying network objects in mobile devices based on geolocation
WO2006070047A1 (en) * 2004-12-31 2006-07-06 Nokia Corporation Provision of target specific information
KR100983912B1 (ko) * 2008-04-04 2010-09-27 한국과학기술연구원 증강 현실 기법을 이용한 정보처리 장치 및 정보 입력,검색방법
KR100929331B1 (ko) * 2008-04-30 2009-12-03 팅크웨어(주) 3차원 방향 표시 생성 방법 및 장치
KR20100002340A (ko) 2008-06-30 2010-01-07 윤현진 멀티 식탁
KR100975128B1 (ko) 2010-01-11 2010-08-11 (주)올라웍스 뷰잉 프러스텀을 이용하여 객체에 대한 정보를 제공하기 위한 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003323239A (ja) * 2002-05-08 2003-11-14 Sony Corp 情報処理装置及び情報処理方法、記憶媒体、並びにコンピュータ・プログラム
JP2006105640A (ja) * 2004-10-01 2006-04-20 Hitachi Ltd ナビゲーション装置

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
CSNJ200510013088; 鼻谷 芳樹 他: '拡張現実感を使用した歩行者ナビゲーション' 第65回(平成15年)全国大会講演論文集 Vol.4,No.5Q-1, 20030325, pp.4-175〜176., 社団法人情報処理学会 *
CSNJ200610047307; 中村 孝久 他: '3次元景観ナビゲーションへのマーク挿入方式の検討' 電子情報通信学会2005年総合大会講演論文集 No.A-17-2, 20050307, p.307, 社団法人電子情報通信学会 *
CSNJ200810086073; 鼻谷 芳樹 他: '拡張現実感を使用した歩行者ナビゲーションシステムのシミュレーション' 第64回(平成14年)全国大会講演論文集 Vol.4,No.4ZC-02, 20020312, pp.4-149〜150, 社団法人情報処理学会 *
JPN6013007019; 鼻谷 芳樹 他: '拡張現実感を使用した歩行者ナビゲーション' 第65回(平成15年)全国大会講演論文集 Vol.4,No.5Q-1, 20030325, pp.4-175〜176., 社団法人情報処理学会 *
JPN6013007020; 中村 孝久 他: '3次元景観ナビゲーションへのマーク挿入方式の検討' 電子情報通信学会2005年総合大会講演論文集 No.A-17-2, 20050307, p.307, 社団法人電子情報通信学会 *
JPN6013007021; 鼻谷 芳樹 他: '拡張現実感を使用した歩行者ナビゲーションシステムのシミュレーション' 第64回(平成14年)全国大会講演論文集 Vol.4,No.4ZC-02, 20020312, pp.4-149〜150, 社団法人情報処理学会 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013172354A (ja) * 2012-02-22 2013-09-02 Nec Corp 無線通信システム、ar位置情報配信装置、移動局、ar位置情報交換システムおよびar位置情報交換方法
CN104808956A (zh) * 2014-01-23 2015-07-29 富士通株式会社 用于控制显示的***和方法
JP2015138445A (ja) * 2014-01-23 2015-07-30 富士通株式会社 表示制御方法、情報処理装置、および表示制御プログラム
US9792731B2 (en) 2014-01-23 2017-10-17 Fujitsu Limited System and method for controlling a display
US10901571B2 (en) 2015-09-30 2021-01-26 Fujitsu Limited Visual field guidance method, computer-readable storage medium, and visual field guidance apparatus
JP2020080118A (ja) * 2018-11-14 2020-05-28 エヌ・ティ・ティ・コムウェア株式会社 情報表示システム、情報表示方法及び情報表示プログラム
JP7195118B2 (ja) 2018-11-14 2022-12-23 エヌ・ティ・ティ・コムウェア株式会社 情報表示システム、情報表示方法及び情報表示プログラム

Also Published As

Publication number Publication date
CN102770843B (zh) 2016-01-27
KR100989663B1 (ko) 2010-10-26
WO2011093598A2 (ko) 2011-08-04
AU2010344676A1 (en) 2012-08-16
JP5324714B2 (ja) 2013-10-23
US8373725B2 (en) 2013-02-12
AU2010344676B2 (en) 2013-09-12
US20120092373A1 (en) 2012-04-19
WO2011093598A9 (ko) 2011-12-15
EP2530588A4 (en) 2014-07-09
EP2530588A2 (en) 2012-12-05
US20130182011A1 (en) 2013-07-18
WO2011093598A3 (ko) 2011-10-27
CN102770843A (zh) 2012-11-07
US8947457B2 (en) 2015-02-03

Similar Documents

Publication Publication Date Title
JP5324714B2 (ja) 端末装置の視野に含まれていない客体に関する情報を提供するための方法、端末装置及びコンピュータプログラム
JP5383930B2 (ja) 端末装置の視野に含まれている客体に関する情報を提供するための方法、端末装置及びコンピュータ読み取り可能な記録媒体
KR101002030B1 (ko) 단말 장치로 입력되는 입력 영상 및 상기 입력 영상에 관련된 정보를 이용하여 증강 현실을 제공하기 위한 방법, 단말 장치 및 컴퓨터 판독 가능한 기록 매체
CA2799443C (en) Method and apparatus for presenting location-based content
KR101864814B1 (ko) 스트리트 뷰 목적지에 대한 안내를 제공하는 방법 및 장치
US9766089B2 (en) Method and apparatus for correlating and navigating between a live image and a prerecorded panoramic image
US8601380B2 (en) Method and apparatus for displaying interactive preview information in a location-based user interface
US20160063671A1 (en) A method and apparatus for updating a field of view in a user interface
KR102108488B1 (ko) 컨텍스트적 지도 뷰
KR101136542B1 (ko) 증강 현실을 이용하여 예약 서비스를 제공하기 위한 방법, 단말 장치 및 컴퓨터 판독 가능한 기록 매체
AU2013242831B2 (en) Method for providing information on object which is not included in visual field of terminal device, terminal device and computer readable recording medium
TWM439180U (en) Moving object tracking system

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130219

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130419

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130521

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20130619

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130625

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130718

R150 Certificate of patent or registration of utility model

Ref document number: 5324714

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees