JP6306985B2 - 情報処理システム、情報処理方法及びプログラム - Google Patents

情報処理システム、情報処理方法及びプログラム Download PDF

Info

Publication number
JP6306985B2
JP6306985B2 JP2014173005A JP2014173005A JP6306985B2 JP 6306985 B2 JP6306985 B2 JP 6306985B2 JP 2014173005 A JP2014173005 A JP 2014173005A JP 2014173005 A JP2014173005 A JP 2014173005A JP 6306985 B2 JP6306985 B2 JP 6306985B2
Authority
JP
Japan
Prior art keywords
information
user
road
current location
angle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014173005A
Other languages
English (en)
Other versions
JP2016048192A (ja
Inventor
清貴 田中
清貴 田中
和明 石川
和明 石川
紀子 中西
紀子 中西
篤史 上西
篤史 上西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zenrin Datacom Co Ltd
Original Assignee
Zenrin Datacom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zenrin Datacom Co Ltd filed Critical Zenrin Datacom Co Ltd
Priority to JP2014173005A priority Critical patent/JP6306985B2/ja
Publication of JP2016048192A publication Critical patent/JP2016048192A/ja
Application granted granted Critical
Publication of JP6306985B2 publication Critical patent/JP6306985B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Instructional Devices (AREA)
  • Navigation (AREA)

Description

本発明は、情報処理技術に関する。
近年、様々なウェアラブルデバイスが開発されている。ウェアラブルデバイスとは、ユーザが身体(例えば、腕や頭部)に装着して利用することが想定されたデバイスである。例えば、特許文献1には頭部に装着する眼鏡型のウェアラブルデバイスについて開示されている。
特開2014−086905号公報
ウェアラブルデバイスは、ユーザの身体に装着されるため、ウェアラブルデバイスに備えるセンサを用いてユーザの動作を検知することも可能である。ウェアラブルデバイスのこのような特徴を利用した有益な機能を実現可能な技術が期待されている。
本発明は上記に鑑みてなされたものであり、その目的は、検知されたユーザの動作についての情報を利用した有益な機能を実現可能な技術を提供することにある。
本発明に係る情報処理システムは、ユーザの現在地情報を取得する現在地情報取得手段と、ウェアラブルデバイスにより検知された前記ユーザの視線の方位角及び仰俯角の情報を取得する角度情報取得手段と、前記現在地情報と、前記方位角及び仰俯角の情報とを用いて、前記ユーザの視認対象の構造物を特定し、当該構造物についての情報を地図情報から取得する注視点情報取得手段とを備える。
本発明に係る情報処理方法は、ユーザの現在地情報を取得する現在地情報取得ステップと、ウェアラブルデバイスにより検知された前記ユーザの視線の方位角及び仰俯角の情報を取得する角度情報取得ステップと、前記現在地情報と、前記方位角及び仰俯角の情報とを用いて、前記ユーザの視認対象の構造物を特定し、当該構造物についての情報を地図情報から取得する注視点情報取得ステップとを備える。
本発明に係るプログラムは、コンピュータを、ユーザの現在地情報を取得する現在地情報取得手段、ウェアラブルデバイスにより検知された前記ユーザの視線の方位角及び仰俯角の情報を取得する角度情報取得手段、前記現在地情報と、前記方位角及び仰俯角の情報とを用いて、前記ユーザの視認対象の構造物を特定し、当該構造物についての情報を地図情報から取得する注視点情報取得手段、として機能させる。
また、本発明のプログラムは、CD−ROM等の光学ディスク、磁気ディスク、半導体メモリなどの各種の記録媒体を通じて、又は通信ネットワークなどを介してダウンロードすることにより、コンピュータにインストール又はロードすることができる。
本発明によれば、検知されたユーザの動作についての情報を利用した有益な機能を実現可能な技術を提供することができる。
一実施形態における情報処理システムのハードウェア構成を示す概念図である。 一実施形態における眼鏡型デバイスの外観構成を示す図である。 一実施形態におけるサーバ装置の機能構成を示す図である。 一実施形態における推定注視点の特定方法を説明するための図である。 一実施形態における推定注視点の特定方法を説明するための図である。 一実施形態における眼鏡型デバイスの機能構成を示す図である。 一実施形態において表示部に表示される表示例を示す図である。 サーバ装置により実行される処理の例を示すフローチャートである。 眼鏡型デバイスにより実行される処理の例を示すフローチャートである。
以下、本発明の実施形態について、図面を参照しつつ詳細に説明する。ただし、発明の範囲をこれらに限定するものではない。
[ハードウェア構成]
図1を参照して、一実施形態に係る情報処理システムのハードウェア構成の例について説明する。情報処理システム1は、ウェアラブルデバイスを用いた各種のサービスを提供するためのシステムである。情報処理システム1は、サーバ装置10、眼鏡型デバイス20及び携帯端末30を主に含む。眼鏡型デバイス20及び携帯端末30は、ネットワークNを介してサーバ装置10と相互に通信することができる。また、眼鏡型デバイス20は、携帯端末30と(例えば、Bluetooth(登録商標)やWi−Fi(登録商標)等により)相互に通信することができる。情報処理システム1は、例えば、ウェアラブルデバイスである眼鏡型デバイス20を装着し、かつ、携帯端末30を携帯するユーザに対して、地図情報に基づく各種の情報提供サービスを行うことができる。
ネットワークNは、サーバ装置10と、眼鏡型デバイス20及び携帯端末30との間で情報を送受信するための通信回線である。ネットワークNは、例えば、インターネット、LAN、専用線、パケット通信網、電話回線、企業内ネットワーク、その他の通信回線、それらの組み合わせ等のいずれであってもよく、有線であるか無線であるか(もしくはこれらの組み合わせであるか)を問わない。
サーバ装置10は、専用又は汎用のサーバ・コンピュータなどの情報処理装置により構成される。なお、サーバ装置10は、単一の情報処理装置より構成されるものであっても、ネットワーク上に分散した複数の情報処理装置より構成されるものであってもよい。
また、サーバ装置10は、制御部11、通信部12、及び記憶部13を主に備える。制御部11は、CPU(Central Processing Unit)11a及びメモリ11bを主に備えて構成される。各構成の説明は後述する。サーバ装置10は、例えば、CPU11aがメモリ11b等に格納された所定のプログラムを実行することにより、各種の機能実現手段として機能する。なお、図1には、サーバ装置10が備える主要な構成が示されているにすぎず、サーバ装置10は、一般的な情報処理装置が備える他の構成も備える。
眼鏡型デバイス20は、眼鏡型の形状のウェアラブルデバイスである。ウェアラブルデバイスとは、ユーザが身体(例えば、腕や頭部)に装着して利用することが想定されたデバイス(情報処理装置)である。すなわち、眼鏡型デバイス20は眼鏡型の形状であるため、ユーザは、眼鏡をかけるように眼鏡型デバイス20を頭部に装着して利用することができる。眼鏡型デバイス20は、制御部21、通信部22、記憶部23、操作部24、表示部25、カメラ26、センサ27、及びマイク28を主に備えて構成される。制御部21は、CPU21a及びメモリ21bを主に備えて構成される。眼鏡型デバイス20は、例えば、CPU21aがメモリ21b等に格納された所定のプログラムを実行することにより、各種の機能実現手段として機能する。なお、ユーザは眼鏡型デバイス20の装着時に結果として眼鏡型デバイス20に備えるこれらの構成のそれぞれも装着することになるため、これらの構成のそれぞれも狭義のウェアラブルデバイスとみなすことができる。これらの各構成の説明は後述する。
図2は、眼鏡型デバイス20の外観の例を示している。同図の例では、眼鏡型デバイス20は外観上、操作部24、表示部25及びカメラ26を備えることが示されている。操作部24は、眼鏡型デバイス20の外側部に位置する。ユーザは操作部24をスワイプ、タップ等をすることによって、眼鏡型デバイス20に対して操作指示を行うことができる。表示部25は、眼鏡型デバイス20を装着したユーザがプリズムなどにより表示内容を視認可能な位置に設置されるように構成される。カメラ26は、眼鏡型デバイス20を装着したユーザの視線方向に向けられ、当該ユーザが見ていると推定されるもの(推定注視点に存在するもの)を撮像/撮影可能な位置に設置されるように構成される。
図1の説明にもどる。携帯端末30は、例えば、携帯電話機(スマートフォンを含む)、タブレット端末、PDA(Personal Digital Assistants)、ナビゲーション装置、パーソナルコンピュータなどの携帯可能な情報処理装置である。携帯端末30は、制御部31、通信部32、記憶部33、操作部34、表示部35及び測位部36を主に備えて構成される。制御部31は、CPU31a及びメモリ31bを主に備えて構成される。各構成の説明は後述する。携帯端末30は、例えば、CPU31aがメモリ31b等に格納された所定のプログラムを実行することにより、各種の機能実現手段として機能する。
制御部11,21,31は、これらを備える各情報処理装置の各種構成の動作を制御し、また、各種処理の実行を制御する。制御部11,21,31において実行される処理の詳細は後述する。通信部12,22,32は、他の情報処理装置と通信するための通信インタフェースである。記憶部13,23,33は、ハードディスク等の記憶装置によって構成される。記憶部13,23,33は、各情報処理装置における処理の実行に必要な各種プログラムや各種の情報を記憶する。操作部24,34は、ユーザからの操作指示を受け付けるためのユーザインタフェースである。表示部25,35は、各情報処理装置による処理結果を表示するためのユーザインタフェースである。
カメラ26は、静止画/動画を撮影/撮像可能な装置である。
センサ27は、各種のセンサにより構成される。センサ27は、例えば、ジャイロセンサ、加速度センサ、地磁気センサ、及び/又はイメージセンサ等を含むことができる。センサ27により、例えば、眼鏡型デバイス20を装着しているユーザの顔が向いている方向に基づいて当該ユーザの視線の方向の方位角(基準となる方位との間の水平方向の角度)の推定値を検知することや、当該ユーザの頭部の傾きに基づいて当該ユーザの視線の方向の仰俯角(水平を基準とした上下方向の角度)の推定値を検知することができる。なお、センサ27は、ユーザの眼球の動きから当該ユーザの視線方向の方位角及び仰俯角の推定値を検知できるようにしてもよい。また、センサ27は、眼鏡型デバイス20を装着するユーザの瞼の動きに基づいて瞬きを検知することもできる。
マイク28は、眼鏡型デバイス20を装着するユーザが発する声/音を電気信号に変換する装置である。
測位部36は、GPS衛星や通信機器(例えば基地局)から受信した信号に基づいて、携帯端末30の位置(例えば、緯度、経度)を特定し、当該位置を特定した日時を特定する(測位情報を特定する)処理を行う。
以上のように本実施形態において、情報処理システム1は、サーバ装置10、眼鏡型デバイス20及び携帯端末30を含むがこれに限定せず、任意の装置を含むことができる。また、サーバ装置10、眼鏡型デバイス20及び携帯端末30が有する構成の一部又は全部を有する構成を情報処理システムとして把握することもできる。例えば、眼鏡型デバイス20が有する構成の一部を情報処理システムとして把握することができるし、眼鏡型デバイス20が有する構成の一部と、携帯端末30が有する構成の一部とを組み合わせた構成を情報処理システムとして把握することができる。
[機能構成]
図3を参照して、サーバ装置10の一実施形態における機能構成について説明する。サーバ装置10は、主な機能構成として、現在地情報取得部111、角度情報取得部112、注視点情報取得部113、経路探索部114及びデータベース120を備える。以下に各機能構成の詳細を説明する。
データベース120は、サーバ装置10において実行される処理に必要な情報、及び当該処理により生成された情報など、各種情報を記憶する。データベース120は、例えば、地図情報及び施設情報を記憶している。地図情報は、道路情報、鉄道路線情報、建造物情報、地形情報、住所情報、及びその他の地理情報などを含む。施設情報は、例えば、コンビニエンスストア、カフェ、駅、ファーストフード、レストラン、建物(ビル)などの施設についての情報を含む。また、施設情報は、当該施設で扱っている商品及び/又はサービスについての情報を含む。さらに、施設情報は、地図情報と関連付けられた各施設の位置の情報を含む。なお、施設情報は、地図情報に含まれる情報としてもよい。
現在地情報取得部111は、眼鏡型デバイス20を装着し、かつ、携帯端末30を携帯するユーザの現在地情報を携帯端末30から(もしくは携帯端末30から眼鏡型デバイス20を介して)取得する。なお、当該ユーザの現在地情報は、携帯端末30の測位部36の測位処理に基づいて得られた情報である。
角度情報取得部112は、眼鏡型デバイス20を装着し、かつ、携帯端末30を携帯するユーザの視線の方位角及び仰俯角の情報を眼鏡型デバイス20から(もしくは眼鏡型デバイス20から携帯端末30を介して)取得する。なお、当該方位角及び仰俯角の情報は、後述するように、眼鏡型デバイス20のセンサ27の処理に基づいて得られた情報である。
注視点情報取得部113は、データベース120を参照して、現在地情報取得部111により取得された前述のユーザの現在地情報と、角度情報取得部112により取得された前述のユーザの視線の方位角及び仰俯角の情報とを用いて、当該ユーザの視認対象の構造物(施設などのオブジェクト)を特定し、当該構造物における推定注視点を特定する。注視点情報取得部113は、特定された構造物についての情報や、当該推定注視点の位置についての情報を地図情報から取得する。推定注視点の位置についての情報には、特定された構造物(施設などのオブジェクト)の種別(例えば、雑居ビル、駅、飲食店、山など)、名称及び位置(住所)の情報を含む。また、特定された構造物がビルなどの建築物であり、当該ビルのフロアごとに1つ又は複数の施設が含まれている場合、推定注視点の位置についての情報には、当該推定注視点の位置に対応するフロアについての情報(例えば、当該フロアの階数や、当該フロアに存在する1つ又は複数の施設の情報を含む)、又は当該推定注視点の位置に存在する1つの施設の情報が含まれる。特定された推定注視点の位置についての情報は、眼鏡型デバイス20に送信される。
図4及び図5を参照して、ユーザの推定注視点の位置についての情報の取得方法の例について説明する。図4及び図5は、眼鏡型デバイス20を装着し、かつ、携帯端末30を携帯するユーザAと、構造物(例えば、ビル)Bとを示している。注視点情報取得部113は、ユーザAの現在地情報と、ユーザAの視線の方位角a(この例では北を基準方位としたときの方位角)及び仰俯角bの情報と、地図情報とを用いて、ユーザAの現在地からユーザAの視線方向に存在するオブジェクト(ユーザの視認対象のオブジェクト)を特定する。また、注視点情報取得部113は、特定されたオブジェクトにおいて、ユーザAの視線の方位角及び仰俯角に対応する位置を推定注視点として特定する。この例では、注視点情報取得部113は、推定注視点として、点Cを特定する。なお、推定注視点が示す対象は、点に限られず、任意の大きさ及び形状の領域(例えば、半径1mの円形領域、10m四方の矩形領域など)を含むものとする。注視点情報取得部113は、特定された推定注視点の位置についての情報をデータベース120から取得する。
以上のように、本実施形態によれば、ユーザが頭部を動かしたときに、ウェアラブルデバイス(例えば、眼鏡型デバイス20又はセンサ27)により検知された、ユーザの視線が向いている方向の方位角及び仰俯角の情報を用いて、当該ユーザの推定注視点の位置についての情報を取得することができる。すなわち、ウェアラブルデバイスにより検知されたユーザの動作についての情報を利用して有益な機能を実現することができる。特に、ユーザの視線の仰俯角の情報を用いてオブジェクトを特定するため、ユーザが見上げなければ視認できないようなオブジェクト(例えば、ユーザの目の前にある建物の裏側にあるオブジェクトで、ユーザが視線を上げたときに当該建物の上部からのみ見えるようなオブジェクト)を特定することができる。
図3の説明に戻る。経路探索部114は、指定された位置(例えば、眼鏡型デバイス20を装着するユーザの現在地)を出発地とし、注視点情報取得部113により特定された推定注視点の位置を目的地として、経路探索の処理を行う。探索された経路についての情報は、眼鏡型デバイス20に送信される。
図6を参照して、一実施形態に係る眼鏡型デバイス20の機能構成の例を説明する。眼鏡型デバイス20は、主な機能構成として、現在地情報取得部211、角度情報取得部212、注視点情報取得部213、アクション検知部214、音声認識部215、及び表示制御部216を備える。以下に各機能構成の詳細を説明する。
現在地情報取得部211は、携帯端末30により特定された現在地情報を携帯端末30から取得する。取得された現在地情報は、サーバ装置10に送信される。なお、現在地情報は、携帯端末30から取得することとしているが、これに限定されず、眼鏡型デバイス20が測位処理部を備え、測位処理を行うことによって、現在地情報を特定してもよい。
角度情報取得部212は、センサ27による検知結果に基づいて、眼鏡型デバイス20を装着しているユーザの顔が向いている方向の方位角及び仰俯角を特定する。角度情報取得部212は、当該方位角及び仰俯角に基づいて当該ユーザの視線の方向の方位角及び仰俯角の推定値を角度情報として特定する。特定された角度情報は、サーバ装置10に送信される。なお、ユーザは、ウェアラブルデバイスである眼鏡型デバイス20の装着時に結果として眼鏡型デバイス20に備えるセンサ27も装着することになるため、センサ27もウェアラブルデバイスとみなすことができる。
注視点情報取得部213は、サーバ装置10により特定された(眼鏡型デバイス20を装着し、かつ、携帯端末30を携帯するユーザの)推定注視点の位置についての情報をサーバ装置10の地図情報から取得する。なお、推定注視点の位置についての情報は、サーバ装置10により特定されることとしているが、これに限定されず、注視点情報取得部213が推定注視点の位置についての情報を特定する処理を行ってもよい。すなわち、注視点情報取得部213が、現在地情報取得部211により取得された現在地情報と、角度情報取得部212により特定された角度情報と、サーバ装置10から取得された地図情報とに基づいて、前述した処理と同様の処理により、推定注視点の位置についての情報を特定することができる。
アクション検知部214は、操作部24への入力の他、眼鏡型デバイス20のユーザの所定のアクションを検知する。所定のアクションには、例えば、ユーザの瞬きや、ユーザが眼鏡型デバイス20の正面で所定の手の動きをすることなどが含まれる。これらの所定のアクションの検知の方法は、任意の方法を用いることができ、例えば、従来の検知技術を用いることができる。
音声認識部215は、眼鏡型デバイス20のユーザが発した音声を認識し、ユーザからの操作指示を特定する。
表示制御部216は、眼鏡型デバイス20による処理結果の情報や、外部装置から受信した情報(例えば、現在地情報や、推定注視点の位置についての情報)など、各種の情報を表示部25(すなわち、眼鏡型デバイス20のユーザの目の近傍に位置するモニタ)に表示するように制御する。また、表示制御部216は、操作部24を介したユーザによる所定の操作や、アクション検知部214により所定のアクションが検知されたことに応じて、注視点情報取得部213により取得された推定注視点の位置についての情報を表示部25に表示するように制御することができる。
図7には、表示制御部216による制御の結果、表示部25に表示された推定注視点の位置についての情報の例が示されている。この例において、表示部25に表示された推定注視点の位置についての情報は、施設の種別、施設の名称、施設において取り扱っている商品(取扱い商品)につていの情報が含まれている。
以上のように、本実施形態によれば、ウェアラブルデバイス(例えば、眼鏡型デバイス20又はセンサ27)により検知された、ユーザが頭部を動かしたときにユーザの視線が向いている方向の方位角及び仰俯角の情報を用いて、当該ユーザの推定注視点の位置についての情報を取得すること、また、当該情報をユーザの目の近傍に位置するモニタに表示することができる。すなわち、ウェアラブルデバイスにより検知されたユーザの動作についての情報を利用して有益な機能を実現することができる。
[処理フロー]
次に、サーバ装置10及び眼鏡型デバイス20において実行される処理のフローを説明する。なお、以下に説明する処理フローに含まれる各処理ステップは、処理内容に矛盾を生じない範囲で、任意に順番を変更して又は並列に実行することができるとともに、各処理ステップ間に他のステップを追加してもよい。また、便宜上1ステップとして記載されているステップは、複数ステップに分けて実行することができる一方、便宜上複数ステップに分けて記載されているものは、1ステップとして把握することができる。なお、各処理ステップの処理の詳細は、既に説明しているためここでは省略する。
まず、図8を参照して、サーバ装置10において実行される処理のフローを説明する。
ステップS11において、制御部11は、眼鏡型デバイス20を装着し、かつ、携帯端末30を携帯するユーザの現在地情報を携帯端末30から(もしくは携帯端末30から眼鏡型デバイス20を介して)取得する。
ステップS12において、制御部11は、眼鏡型デバイス20を装着し、かつ、携帯端末30を携帯するユーザの視線の方位角及び仰俯角の情報を眼鏡型デバイス20から(もしくは眼鏡型デバイス20から携帯端末30を介して)取得する。
ステップS13において、制御部11は、データベース120を参照して、ステップS11において取得された前述のユーザの現在地情報と、ステップS12において取得された前述のユーザの視線の方位角及び仰俯角の情報とを用いて、当該ユーザの視認対象の構造物(施設などのオブジェクト)を特定し、当該構造物における推定注視点を特定する。さらに、制御部11は、特定された構造物についての情報や、当該推定注視点の位置についての情報を地図情報から取得する。
ステップS14において、制御部11は、ステップS13で取得した推定注視点の位置についての情報を眼鏡型デバイス20に送信する。
次に、図9を参照して、眼鏡型デバイス20において実行される処理のフローを説明する。
ステップS21において、制御部21は、携帯端末30により特定されたユーザの現在地情報を携帯端末30から取得する。取得された現在地情報は、サーバ装置10に送信される。
ステップS22において、制御部21は、センサ27による検知結果に基づいて、眼鏡型デバイス20を装着しているユーザの顔が向いている方向の方位角及び仰俯角を特定する。角度情報取得部212は、当該方位角及び仰俯角に基づいて当該ユーザの視線の方向の方位角及び仰俯角の推定値を角度情報として特定する。特定された角度情報は、サーバ装置10に送信される。
ステップS23において、制御部21は、サーバ装置10により特定された(眼鏡型デバイス20を装着し、かつ、携帯端末30を携帯するユーザの)推定注視点の位置についての情報をサーバ装置10の地図情報からネットワークNを介して取得する。
ステップS24において、センサ27により所定のアクションが検知されたことに応じて、ステップS23において取得された推定注視点の位置についての情報を表示部25に表示する。
以上のように、本実施形態によれば、ウェアラブルデバイス(例えば、眼鏡型デバイス20又はセンサ27)により検知された、ユーザが頭部を動かしたときにユーザの視線が向いている方向の方位角及び仰俯角の情報を用いて、当該ユーザの推定注視点の位置についての情報を取得すること、また、当該情報をユーザの目の近傍に位置するモニタに表示することができる。すなわち、ウェアラブルデバイスにより検知されたユーザの動作についての情報を利用して有益な機能を実現することができる。
[その他の実施形態]
本発明は、上記した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内において、他の様々な形で実施することができる。上記実施形態はあらゆる点で単なる例示にすぎず、限定的に解釈されるものではない。
例えば、上記の実施形態において、推定注視点の特定は、サーバ装置10又は眼鏡型デバイス20で行うこととしたが、これに限定されず、携帯端末30で行うことにしてもよい。具体的には、携帯端末30は、ユーザの現在地情報を測位部36により特定し、ユーザの視線の方位角及び仰俯角の情報を角度情報として眼鏡型デバイス20から取得し、当該現在地情報及び角度情報を用いて、上述した方法により推定注視点を特定することができる。
10 サーバ装置、20 眼鏡型デバイス、30 携帯端末、11,21,31 制御部、11a,21a,31a CPU、11b,21b,31b メモリ、12,22,32 通信部、13,23,33 記憶部、24,34 操作部、25,35 表示部、26 カメラ、27 センサ、28 マイク、36 測位部

Claims (5)

  1. ユーザの現在地情報を取得する現在地情報取得手段と、
    ウェアラブルデバイスにより検知された前記ユーザの視線の方位角及び仰俯角の情報を取得する角度情報取得手段と、
    前記現在地情報と、前記方位角及び仰俯角の情報と、道路の名称及び位置の情報を含む道路情報とを用いて、前記ユーザの視認対象の道路を特定し、当該道路についての名称の情報を前記道路情報から取得する注視点情報取得手段と
    を備えた情報処理システム。
  2. 前記注視点情報取得手段は、前記特定された道路における前記ユーザの推定注視点を特定し、当該推定注視点の位置に基づいて前記特定された道路ついての名称の情報を前記道路情報から取得する、請求項1に記載の情報処理システム。
  3. ユーザの現在地情報を取得する現在地情報取得ステップと、
    ウェアラブルデバイスにより検知された前記ユーザの視線の方位角及び仰俯角の情報を取得する角度情報取得ステップと、
    前記現在地情報と、前記方位角及び仰俯角の情報と、道路の名称及び位置の情報を含む道路情報とを用いて、前記ユーザの視認対象の道路を特定し、当該道路についての名称の情報を前記道路情報から取得する注視点情報取得ステップと
    を備えた情報処理方法。
  4. コンピュータを、
    ユーザの現在地情報を取得する現在地情報取得手段、
    ウェアラブルデバイスにより検知された前記ユーザの視線の方位角及び仰俯角の情報を取得する角度情報取得手段、
    前記現在地情報と、前記方位角及び仰俯角の情報と、道路の名称及び位置の情報を含む道路情報とを用いて、前記ユーザの視認対象の道路を特定し、当該道路についての名称の情報を前記道路情報から取得する注視点情報取得手段、
    として機能させるためのプログラム。
  5. 現在地情報と、センサにより検知された前記ユーザの視線の方位角及び仰俯角の情報とを取得し、前記現在地情報と、前記方位角及び仰俯角の情報と、道路の名称及び位置の情報を含む道路情報とを用いて、前記ユーザの視認対象の道路を特定し、前記道路の名称の情報を前記道路情報に基づいて表示するように構成される、情報処理システム。
JP2014173005A 2014-08-27 2014-08-27 情報処理システム、情報処理方法及びプログラム Active JP6306985B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014173005A JP6306985B2 (ja) 2014-08-27 2014-08-27 情報処理システム、情報処理方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014173005A JP6306985B2 (ja) 2014-08-27 2014-08-27 情報処理システム、情報処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2016048192A JP2016048192A (ja) 2016-04-07
JP6306985B2 true JP6306985B2 (ja) 2018-04-04

Family

ID=55649182

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014173005A Active JP6306985B2 (ja) 2014-08-27 2014-08-27 情報処理システム、情報処理方法及びプログラム

Country Status (1)

Country Link
JP (1) JP6306985B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4246282A1 (en) 2022-03-16 2023-09-20 Ricoh Company, Ltd. Information processing apparatus, information processing system, and information processing method

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7144164B2 (ja) * 2018-03-19 2022-09-29 株式会社Lifull 情報提供システム、サーバ装置、及び端末用プログラム
WO2022029894A1 (ja) * 2020-08-04 2022-02-10 日本電信電話株式会社 情報処理装置、情報処理システム、情報処理方法、及びプログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3811071B2 (ja) * 2002-01-15 2006-08-16 富士通株式会社 ユーザ端末
JP2005037181A (ja) * 2003-07-17 2005-02-10 Pioneer Electronic Corp ナビゲーション装置、サーバ装置、ナビゲーションシステム、及びナビゲーション方法
JP2005309948A (ja) * 2004-04-23 2005-11-04 Yamaha Corp 情報提供装置
JP2011203984A (ja) * 2010-03-25 2011-10-13 Soka Univ ナビゲーション装置、ナビゲーション画像生成方法及びプログラム
JP2011220899A (ja) * 2010-04-12 2011-11-04 Olympus Corp 情報提示システム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4246282A1 (en) 2022-03-16 2023-09-20 Ricoh Company, Ltd. Information processing apparatus, information processing system, and information processing method

Also Published As

Publication number Publication date
JP2016048192A (ja) 2016-04-07

Similar Documents

Publication Publication Date Title
US10777097B2 (en) Media streaming methods, apparatus and systems
US9558716B2 (en) Method and apparatus for contextual query based on visual elements and user input in augmented reality at a device
US10051453B2 (en) Wearable and/or hand-held mobile electronic device and method for directional proximity detection
JP6263098B2 (ja) 仮想音源を提供情報位置に配置する携帯端末、音声提示プログラム及び音声提示方法
WO2011158639A1 (ja) 位置関連表示システム、携帯機器及び携帯機器用プログラム
US10712167B2 (en) Methods, systems, and devices for displaying maps
US9628947B2 (en) Wearable map and image display
US20150169780A1 (en) Method and apparatus for utilizing sensor data for auto bookmarking of information
US11644320B2 (en) Intersection-based routing
JP2016096513A (ja) 情報処理システム、情報処理方法及びプログラム
CN105737837B (zh) 一种定位导航方法、装置和***
JP6306985B2 (ja) 情報処理システム、情報処理方法及びプログラム
WO2016006040A1 (ja) 待ち合わせ支援システム、待ち合わせ支援プログラムおよび待ち合わせ支援方法
JP2017102034A (ja) ウェアラブルデバイス、ウェアラブルデバイスの制御方法及びプログラム
JP2016110296A (ja) ウェアラブルデバイス、情報処理方法及びプログラム
JP6463529B1 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
JP6396155B2 (ja) 情報処理システム、情報処理方法及びプログラム
JP6566854B2 (ja) 情報処理装置、情報処理装置の制御方法及びプログラム
US9143882B2 (en) Catch the screen
JP6523353B2 (ja) 端末装置及びプログラム
JP2011220899A (ja) 情報提示システム
US20230259328A1 (en) Information provision system, method, and non-transitory computer-readable medium
JP6557126B2 (ja) 情報処理装置、情報処理装置の制御方法及びプログラム
JP6509684B2 (ja) 案内表示システム、および案内表示制御装置
JP6521847B2 (ja) 情報処理装置、情報処理装置の制御方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170324

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180309

R150 Certificate of patent or registration of utility model

Ref document number: 6306985

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250