JP6487545B2 - 認知度算出装置、認知度算出方法及び認知度算出プログラム - Google Patents
認知度算出装置、認知度算出方法及び認知度算出プログラム Download PDFInfo
- Publication number
- JP6487545B2 JP6487545B2 JP2017520105A JP2017520105A JP6487545B2 JP 6487545 B2 JP6487545 B2 JP 6487545B2 JP 2017520105 A JP2017520105 A JP 2017520105A JP 2017520105 A JP2017520105 A JP 2017520105A JP 6487545 B2 JP6487545 B2 JP 6487545B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- city
- building
- recognition
- moving image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000004364 calculation method Methods 0.000 title claims description 102
- 230000003340 mental effect Effects 0.000 claims description 72
- 238000001514 detection method Methods 0.000 claims description 71
- 230000033001 locomotion Effects 0.000 claims description 41
- 230000006870 function Effects 0.000 claims description 9
- 230000008447 perception Effects 0.000 claims description 2
- 230000000007 visual effect Effects 0.000 description 15
- 238000013461 design Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 8
- 238000011161 development Methods 0.000 description 6
- 230000018109 developmental process Effects 0.000 description 6
- 238000012790 confirmation Methods 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 230000008451 emotion Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000000034 method Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000005019 pattern of movement Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000008929 regeneration Effects 0.000 description 1
- 238000011069 regeneration method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
Landscapes
- Business, Economics & Management (AREA)
- Tourism & Hospitality (AREA)
- Health & Medical Sciences (AREA)
- Economics (AREA)
- General Health & Medical Sciences (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- Physics & Mathematics (AREA)
- General Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- User Interface Of Digital Computer (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Image Analysis (AREA)
Description
前記算出部は、前記要素検出部が検出した前記要素の数に基づいて、前記都市又は建築物の複雑さを示す複雑度を算出してもよい。
前記要素検出部は、前記動画に含まれる画像に対応する構図と、前記視線の動きのパターンとに基づいて、前記要素を検出してもよい。
前記位置特定部は、前記動画に含まれる、連続する複数の画像に基づいて、前記要素を検出した画像に対応する位置を前記要素の位置として特定してもよい。
前記取得部は、前記動画として、前記都市又は建築物を示すコンピュータ・グラフィック動画を取得してもよい。
前記取得部は、前記動画として、前記ユーザに装着したウェアラブル端末によって撮影した動画を取得してもよい。
前記取得部は、前記ユーザの視線を検出する視線検出装置が検出した前記ユーザの視線の動きのパターンを取得してもよい。
以下、本発明の第1の実施形態について説明する。
本発明者は、都市や建築物を構成する要素をユーザが認識することにより、ユーザが、都市や建築物に対するイメージを知覚すると考え、当該要素が都市や建築物のユーザに対する分かり易さに影響を与えるものと考えた。そして、本発明者は、ユーザが都市や建築物を視認した際に認識する幾何学的構図や座標軸や図形に基づいて、ユーザが都市や建築物を構成する要素を認識すると推定し、認知度算出装置1によって、ユーザが認識したと推定される要素に基づいてユーザの都市や建築物に対する認知度を算出することを見出した。
続いて、認知度算出装置1及びウェアラブル端末2の構成について説明する。
図2は、第1の実施形態に係る認知度算出装置1及びウェアラブル端末2の構成を示す図である。
まず、ウェアラブル端末2の構成について説明する。ウェアラブル端末2は、例えば、ユーザの頭部に装着するコンピュータである。ウェアラブル端末2は、風景を撮影するとともに当該風景における視点を記録する視線検出装置(アイトラッキングツール)である。ユーザは、ウェアラブル端末2を装着して、都市等における連続した空間である空間経路を通過する。ウェアラブル端末2は、都市等の空間経路を撮影して動画を生成するとともに、ユーザの視線データを生成する。ここで、空間経路は、予め都市等の分かり易さを調査する設計者等から指定された経路であるものとする。例えば、空間経路を示す情報としては、ユーザに対して、駅前等での案内板等の地図情報、スマートフォン等の端末に表示される地図情報や経路情報、知人から聞いた経路情報(例えば、口頭による道案内を示す文言)等が挙げられる。なお、空間経路は、予め指定された経路であるものとするが、これに限らず、ユーザが任意の空間経路を通過してもよい。また、ユーザに指定する空間経路を示す情報として、認知度算出装置1がユーザに対して過去に生成した都市等のメンタルモデル(メンタルマップ)や、ユーザが都市等の地図を視認することで得られるメンタルモデル(メンタルマップ)を用いてもよい。
記憶部21は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、ハードディスク、及びウェアラブル端末2に装着された外部記憶媒体(例えば、SDカード(登録商標))や、外部記憶装置等により構成される。
位置情報取得部221は、複数のGPS(Global Positioning System)衛星から受信したGPS信号に基づく、ウェアラブル端末2の位置(端末位置)を示す位置情報を取得する。位置情報取得部221は、複数のGPS衛星から受信したGPS信号に基づいて位置情報を算出してもよい。
なお、ウェアラブル端末2は、例えば、加速度を検出する加速度センサ(不図示)と、ウェアラブル端末2の正面方向に対応する方位を検出する方位センサ(不図示)とを備えてもよい。そして、位置情報取得部221は、検出された加速度及び方位に基づいて、基準の位置(例えば、撮影を開始した位置)に対する相対的な位置を示す位置情報を算出してもよい。
続いて、認知度算出装置1の構成について説明する。認知度算出装置1は、入力部11と、表示部12と、記憶部13と、制御部14とを備える。
入力部11は、例えば、キーボードやマウス等によって構成される。入力部11は、認知度算出装置1の操作者から操作入力を受け付ける。なお、認知度算出装置1がウェアラブル端末2と通信可能である場合には、認知度算出装置1の入力部11は、ボタンやセンサー端子等によって構成され、当該ボタンやセンサー端子等によって、ウェアラブル端末2への視線入力、ウェアラブル端末2が撮影可能な範囲(ユーザの視界内)でのユーザの手等によるジェスチャー入力を受け付けてもよい。
表示部12は、例えば、液晶ディスプレイや有機EL(Electro-Luminescence)ディスプレイ等により構成される。表示部12は、制御部14の制御に応じて、例えば、ユーザが視認した動画や、ユーザのメンタルモデルや、ユーザの都市に対する認知度等を表示する。
図3は、第1の実施形態に係る認知度算出装置1が認知度を算出する処理の流れを示すフローチャートである。
まず、取得部141は、都市又は建築物の空間経路を示す動画と、当該動画に対応するユーザの視線の動きのパターンとを取得する(S1)。具体的には、取得部141は、ウェアラブル端末2に動画及び視線データの取得リクエストを送信し、ウェアラブル端末2から動画及び視線データを受信する。
「注視」は、同じ視認対象の1秒以上の視認である。「注視」は、ユーザが視認対象の内容を確認する視認である。「注視」は、ユーザが、図形や形態や文字等(例えば、窓や扉等の形状、仕上げ材の模様、建物の形態、植物の形態、家具の形態、車の形態、人の形態、サインの情報、地図、コンピュータ画面等)の内容を読み取ることができる状態である。
続いて、要素検出部142は、取得部141が取得した動画と、視線の動きのパターンとに基づいて、都市等においてユーザが認識したと推測される要素を検出する(S2)。
「パス」は、ユーザが日ごろ又は時々通る、若しくはユーザが通る可能性のある道筋である。
「エッジ」は、線状の要素のうち、パスとは異なる線状の要素であり、例えば、海岸線、鉄道の線路、開発地の縁、壁等、2つの要素の間にある境界である。
「ディストリクト」は、中から大の大きさを有する都市の一部分を示すとともに、2次元の広がりをもつ要素である。ユーザは、「ディストリクト」の内部に入るものであり、通常は、「ディストリクト」は、内部から認識されるものであるが、外から視認可能な場合には、外からも参照される。
「ノード」は、都市の内部における主要な地点である。ユーザは、「ノード」の中にはいることができるとともに、「ノード」に向かったり、「ノード」から出発したりすることができる。
「ランドマーク」は、ユーザが外部から視認する物であり、例えば、建物、看板、商店、山等、単純に定義される物である。「ランドマーク」は、ユーザが内部に入らずに、外部から視認する物である。
続いて、位置特定部143は、要素検出部142が検出した要素の都市等における位置を特定する(S3)。具体的には、位置特定部143は、検出された要素に対応する視線データに含まれている位置情報が示す位置を、当該要素の位置として特定する。
続いて、作成部144は、要素検出部142が検出した要素と、位置特定部143が特定した要素の位置とに基づいて、ユーザが都市等に対して思い描く地図を示すメンタルモデルを作成する(S4)。例えば、作成部144は、無地の図面に対して、位置特定部143が特定した要素の位置に基づいて、要素検出部142が検出した要素を示す画像を描画することにより、図8に示すようなメンタルモデルを生成する。
なお、作成部144は、メンタルモデルとして2次元の地図モデルとして作成するものとするが、3次元の地図モデルを作成するようにしてもよい。
続いて、要素検出部142は、画像(b)においてユーザが対象物として道路を示す領域を連続確認したことを検出したとする。この場合、ユーザが対象物に対して内部的位相を感じる幾何学的座標軸が認識され、メンタルモデルにパスが生成される。
続いて、画像(d)において、ユーザが対象物として道路の横に存在する建築物を見回したとする。この場合において、ユーザが対象物に対して外部的位相を感じる幾何学的座標軸が認識され、メンタルモデルにディストリクトが生成される。
続いて、画像(f)において、ユーザが対象物として、画像(e)においてパスと特定された道路の先に存在する建築物を注視したとする。この場合、ユーザが対象物に対して外部的位相を感じる幾何学的座標軸が認識され、メンタルモデルにランドマークが生成される。
続いて、算出部145は、作成部144が作成したメンタルモデルと、都市等の空間経路に対応する実際の要素及び要素の位置を示す地図(基準情報)とに基づいて、都市等のユーザに対する分かり易さを示す、ユーザの都市等に対する認知度を算出する(S5)。
算出部145は、算出した認知度を示す情報を、例えば、表示部12に表示させる。なお、算出部145は、算出した認知度を示す情報を記憶部13に記憶させてもよい。
続いて、算出部145は、要素検出部142が検出した要素の数に基づいて、都市又は建築物の複雑さを示す複雑度を算出する。例えば、複数の都市等を示す動画のそれぞれについて、単位時間や単位距離あたりに検出される要素の数を予め基準値として特定しておく。そして、算出部145は、取得部141が取得した動画の長さと、要素検出部142が検出した要素の数とに基づいて、当該動画において、単位時間あたりに検出される要素の数を算出し、当該要素の数と、基準値とに基づいて複雑度を算出してもよい。
以上、第1の実施形態によれば、認知度算出装置1は、取得した動画と、視線の動きのパターンとに基づいて、都市等においてユーザが認識したと推測される要素を検出するので、ユーザが、都市等に対するイメージを知覚していることを検出することができる。
[コンピュータ・グラフィック動画に基づく視線データを取得する]
続いて、第2の実施形態について説明する。第2の実施形態は、ウェアラブル端末2が、都市等における実際の空間経路をユーザが通過したときの視線を検出せずに、都市等を示すコンピュータ・グラフィック動画(以下、CG動画という。)をユーザが視認したときの視線を検出する点で第1の実施形態と異なる。以下、第1の実施形態と異なる部分について説明を行う。第1の実施形態と同じ部分については適宜説明を省略する。
位置特定部143は、要素検出部142が検出した要素の都市等における位置を特定する。具体的には、位置特定部143は、視線データを参照し、要素が検出された際の視線位置に関連付けられている視線の検出時刻を特定する。そして、位置特定部143は、特定した視線の検出時刻に対応するCG動画の再生時刻を特定する。CG動画の複数の再生時刻には、都市等におけるそれぞれの位置を示す位置情報が関連付けられていることから、位置特定部143は、当該再生時刻に関連付けられている位置情報が示す位置を、当該要素の位置として特定する。
以上、第2の実施形態によれば、認知度算出装置1は、都市等を示すCG動画と、当該CG動画に対応する視線の動きのパターンとに基づいて、当該CG動画が示す都市等においてユーザが認識したと推測される要素を検出する。CG動画を計画段階や開発途中の都市等を示すものとすることで、認知度算出装置1は、当該都市等に対してユーザが認識したと推定される要素を検出し、認知度を算出することができる。したがって、計画段階や開発途中の都市等の設計者は、当該都市等の計画段階や開発途中において、ユーザにとって分かり易いものであるか否かを評価することができる。
[ウェアラブル端末2が撮影した動画に基づいて視線の動きのパターンを取得する]
続いて、第3の実施形態について説明する。第3の実施形態は、ウェアラブル端末2が視線データを生成せずに動画のみを生成し、認知度算出装置1が、ウェアラブル端末2から取得した動画に基づいて、ユーザの視線の動きのパターンを取得する点で第1の実施形態と異なる。第3の実施形態では、ウェアラブル端末2として、視線データを生成する機能を有していない端末を使用することを想定している。
要素検出部142は、動画に含まれる複数の画像のそれぞれに対応する構図に基づいて、都市等においてユーザが認識したと推測される要素を検出する。具体的には、要素検出部142は、動画に含まれる複数の画像のそれぞれを解析することにより、当該画像に対応する構図を特定する。そして、要素検出部142は、図6A又は図6Bに示す要素特定情報を参照し、特定した構図に関連付けられている要素を特定することにより、ユーザが認識したと推測される要素を検出する。
作成部144及び算出部145の機能は、第1の実施形態と同じであるので説明を省略する。
以上、第3の実施形態によれば、認知度算出装置1は、動画のみに基づいて、ユーザが都市等において認識したと推測される要素を特定することができるので、ユーザの視線データを取得できない場合であっても、ユーザの都市等に対する認知度を算出することができる。
Claims (13)
- 都市又は建築物の空間経路を示す動画と、前記動画に対応するユーザの視線の動きのパターンとを取得する取得部と、
前記動画と、前記視線の動きのパターンとに基づいて、前記都市又は前記建築物において前記ユーザが認識したと推測される要素を検出する要素検出部と、
検出された前記要素の前記都市又は前記建築物における位置を特定する位置特定部と、
検出された前記要素と、特定された前記要素の位置とに基づいて、前記ユーザが前記都市又は前記建築物に対して思い描く地図を示すメンタルモデルを作成する作成部と、
前記メンタルモデルと、前記空間経路に対応する実際の前記要素及び前記要素の位置を示す基準情報とに基づいて、前記都市又は前記建築物の前記ユーザに対する分かり易さを示す、前記ユーザの前記都市又は前記建築物に対する認知度を算出する算出部と、
を備える認知度算出装置。 - 前記算出部は、前記メンタルモデルに含まれる前記要素及び前記要素の位置と、前記基準情報に含まれる前記要素及び前記要素の位置との一致度に基づいて、前記認知度を算出する、
請求項1に記載の認知度算出装置。 - 前記算出部は、前記要素検出部が検出した前記要素の数に基づいて、前記都市又は建築物の複雑さを示す複雑度を算出する、
請求項1又は2に記載の認知度算出装置。 - 前記要素検出部は、前記動画に含まれる画像に対応する構図と、前記視線の動きのパターンとに基づいて、前記要素を検出する、
請求項1から3のいずれか1項に記載の認知度算出装置。 - 前記位置特定部は、前記動画に含まれる画像に関連付けられている前記画像の撮影位置に基づいて、前記要素の位置を特定する、
請求項1から4のいずれか1項に記載の認知度算出装置。 - 前記位置特定部は、前記動画に含まれる、連続する複数の画像に基づいて、前記要素を検出した画像に対応する位置を前記要素の位置として特定する、
請求項1から4のいずれか1項に記載の認知度算出装置。 - 前記取得部は、前記動画として、前記都市又は建築物を示すコンピュータ・グラフィック動画を取得する、
請求項1から6のいずれか1項に記載の認知度算出装置。 - 前記取得部は、前記動画として、前記ユーザに装着したウェアラブル端末によって撮影した動画を取得する、
請求項1から5のいずれか1項に記載の認知度算出装置。 - 前記要素検出部は、前記ウェアラブル端末によって撮影した動画に含まれる画像の構図のパターンを特定し、当該画像の構図のパターンにさらに基づいて前記要素を検出する、
請求項8に記載の認知度算出装置。 - 前記取得部は、前記ユーザの視線を検出する視線検出装置が検出した前記ユーザの視線の動きのパターンを取得する、
請求項1から7のいずれか1項に記載の認知度算出装置。 - ユーザに装着したウェアラブル端末によって撮影され、都市又は建築物の空間経路を示す動画を取得する取得部と、
前記動画に含まれる複数の画像のそれぞれに対応する構図に基づいて、前記都市又は前記建築物において前記ユーザが認識したと推測される要素を検出する要素検出部と、
検出された前記要素の前記都市又は前記建築物における位置を特定する位置特定部と、
検出された前記要素と、特定された前記要素の位置に基づいて、前記ユーザが前記都市又は前記建築物に対して思い描く地図を示すメンタルモデルを作成する作成部と、
前記メンタルモデルと、前記空間経路に対応する領域における実際の前記要素及び前記要素の位置を示す基準情報とに基づいて、前記都市又は前記建築物の前記ユーザに対する分かり易さを示す、前記ユーザの前記都市又は前記建築物に対する認知度を算出する算出部と、
を備える認知度算出装置。 - コンピュータにより実行される、
都市又は建築物の空間経路を示す動画と、前記動画に対するユーザの視線の動きのパターンとを取得するステップと、
前記動画と、前記視線の動きのパターンとに基づいて、前記都市又は前記建築物において前記ユーザが認識したと推測される要素を検出するステップと、
検出された前記要素の前記都市又は前記建築物における位置を検出するステップと、
検出された前記要素と、前記要素の位置とに基づいて、前記ユーザが前記都市又は前記建築物に対して思い描く地図を示すメンタルモデルを作成するステップと、
前記メンタルモデルと、前記空間経路に対応する実際の前記要素及び前記要素の位置を示す基準情報とに基づいて、前記都市又は前記建築物の前記ユーザに対する分かり易さを示す、前記ユーザの前記都市又は前記建築物に対する認知度を算出するステップと、
を備える認知度算出方法。 - コンピュータを、
都市又は建築物の空間経路を示す動画と、前記動画に対応するユーザの視線の動きのパターンとを取得する取得部、
前記動画と、前記視線の動きのパターンとに基づいて、前記都市又は前記建築物において前記ユーザが認識したと推測される要素を検出する要素検出部、
検出された前記要素の前記都市又は前記建築物における位置を特定する位置特定部、
検出された前記要素と、特定された前記要素の位置とに基づいて、前記ユーザが前記都市又は前記建築物に対して思い描く地図を示すメンタルモデルを作成する作成部、及び
前記メンタルモデルと、前記空間経路に対応する実際の前記要素及び前記要素の位置を示す基準情報とに基づいて、前記都市又は前記建築物の前記ユーザに対する分かり易さを示す、前記ユーザの前記都市又は前記建築物に対する認知度を算出する算出部、
として機能させる認知度算出プログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2015/064968 WO2016189633A1 (ja) | 2015-05-25 | 2015-05-25 | 認知度算出装置、認知度算出方法及び認知度算出プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2016189633A1 JPWO2016189633A1 (ja) | 2018-04-19 |
JP6487545B2 true JP6487545B2 (ja) | 2019-03-20 |
Family
ID=57393030
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017520105A Expired - Fee Related JP6487545B2 (ja) | 2015-05-25 | 2015-05-25 | 認知度算出装置、認知度算出方法及び認知度算出プログラム |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6487545B2 (ja) |
WO (1) | WO2016189633A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110070810A (zh) * | 2019-05-27 | 2019-07-30 | 珠海幸福家网络科技股份有限公司 | 一种楼盘讲解方法及楼盘讲解*** |
WO2023228342A1 (ja) * | 2022-05-26 | 2023-11-30 | 株式会社ジオクリエイツ | 情報処理システム、情報処理装置、情報処理方法及びプログラム |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4616786B2 (ja) * | 2006-03-31 | 2011-01-19 | 株式会社デンソーアイティーラボラトリ | 情報提供装置 |
JP5354924B2 (ja) * | 2007-02-16 | 2013-11-27 | 国立大学法人 名古屋工業大学 | デジタルマップ作成システム |
JP2013179403A (ja) * | 2012-02-28 | 2013-09-09 | Sony Corp | 情報処理装置、情報処理方法、及びプログラム |
JP6157170B2 (ja) * | 2013-03-28 | 2017-07-05 | 大阪瓦斯株式会社 | 監視支援システム |
JP6359253B2 (ja) * | 2013-08-27 | 2018-07-18 | 株式会社ジオクリエイツ | 感情抽出方法、感情抽出プログラム、感情抽出装置、及び建築物設計方法 |
-
2015
- 2015-05-25 WO PCT/JP2015/064968 patent/WO2016189633A1/ja active Application Filing
- 2015-05-25 JP JP2017520105A patent/JP6487545B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPWO2016189633A1 (ja) | 2018-04-19 |
WO2016189633A1 (ja) | 2016-12-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11315308B2 (en) | Method for representing virtual information in a real environment | |
US10809795B2 (en) | Six degree of freedom tracking with scale recovery and obstacle avoidance | |
US10114459B2 (en) | Gaze direction mapping | |
WO2015182227A1 (ja) | 情報処理装置および情報処理方法 | |
US9558581B2 (en) | Method for representing virtual information in a real environment | |
US20170132806A1 (en) | System and method for augmented reality and virtual reality applications | |
WO2019037489A1 (zh) | 地图显示方法、装置、存储介质及终端 | |
EP3274964B1 (en) | Automatic connection of images using visual features | |
CN110168615B (zh) | 信息处理设备、信息处理方法和存储介质 | |
US10838515B1 (en) | Tracking using controller cameras | |
CN108629799B (zh) | 一种实现增强现实的方法及设备 | |
JP2016122392A (ja) | 情報処理装置、情報処理システム、その制御方法及びプログラム | |
JP6487545B2 (ja) | 認知度算出装置、認知度算出方法及び認知度算出プログラム | |
CN113345107A (zh) | 增强现实数据展示方法、装置、电子设备及存储介质 | |
CN102799378B (zh) | 一种立体碰撞检测物体拾取方法及装置 | |
WO2020144848A1 (ja) | オーサリング装置、オーサリング方法、及びオーサリングプログラム | |
JP6849895B2 (ja) | 位相特定装置、携帯端末、位相特定方法及びプログラム | |
CN111506280B (zh) | 用于指示屏幕外兴趣点的图形用户界面 | |
JP6473872B2 (ja) | 映像構築装置、擬似視覚体験システム、および映像構築プログラム | |
Polcar et al. | ACTIVE CAMERA POSITIONAL TRACKING FOR AUGMENTED REALITY APPLICATIONS. | |
JP2021033377A (ja) | 情報端末装置、プログラム、提示システム及びサーバ |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180514 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181225 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20190124 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190221 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6487545 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |