JP6487545B2 - 認知度算出装置、認知度算出方法及び認知度算出プログラム - Google Patents

認知度算出装置、認知度算出方法及び認知度算出プログラム Download PDF

Info

Publication number
JP6487545B2
JP6487545B2 JP2017520105A JP2017520105A JP6487545B2 JP 6487545 B2 JP6487545 B2 JP 6487545B2 JP 2017520105 A JP2017520105 A JP 2017520105A JP 2017520105 A JP2017520105 A JP 2017520105A JP 6487545 B2 JP6487545 B2 JP 6487545B2
Authority
JP
Japan
Prior art keywords
user
city
building
recognition
moving image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2017520105A
Other languages
English (en)
Other versions
JPWO2016189633A1 (ja
Inventor
司 本田
司 本田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GEOCREATES, INC.
Original Assignee
GEOCREATES, INC.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GEOCREATES, INC. filed Critical GEOCREATES, INC.
Publication of JPWO2016189633A1 publication Critical patent/JPWO2016189633A1/ja
Application granted granted Critical
Publication of JP6487545B2 publication Critical patent/JP6487545B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services

Landscapes

  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Description

本発明は、認知度算出装置、認知度算出方法及び認知度算出プログラムに関する。
近年、様々な観点に基づいて都市開発や建築計画が行われている。例えば、特許文献1には、人の生活環境を評価し、都市計画等に反映させることが開示されている。
特開平8−161399号公報
ところで、従来の都市開発や建築計画では、設計者が主観に基づいて都市や建築物を設計しており、都市や建築物のユーザに対する分かり易さが十分に反映された設計が行われていないという問題があった。すなわち、従来は、都市や建築物のユーザに対する分かり易さが指標化されていなかったため、設計者は、どのような設計がユーザにとって分かり易いものなのか認識できず、ユーザの都市や建築物における動線や視認性、さらには、都市や建築物に対するユーザの認知等を意識した設計を十分に行えないという問題があった。例えば、ユーザの都市や建築物における分かり易さが指標化されていないため、都市や公共建築等の設計検討時に、分かり易さといった観点から設計案の評価ができず、設計者が提示した計画が合意され難いという問題があった。
そこで、本発明はこれらの点に鑑みてなされたものであり、都市や建築物のユーザに対する分かり易さを指標化することができる認知度算出装置、認知度算出方法及び認知度算出プログラムを提供することを目的とする。
本発明の第1の態様に係る認知度算出装置は、都市又は建築物の空間経路を示す動画と、前記動画に対応するユーザの視線の動きのパターンとを取得する取得部と、前記動画と、前記視線の動きのパターンとに基づいて、前記都市又は前記建築物において前記ユーザが認識したと推測される要素を検出する要素検出部と、検出された前記要素の前記都市又は前記建築物における位置を特定する位置特定部と、検出された前記要素と、特定された前記要素の位置とに基づいて、前記ユーザが前記都市又は前記建築物に対して思い描く地図を示すメンタルモデルを作成する作成部と、前記メンタルモデルと、前記空間経路に対応する実際の前記要素及び前記要素の位置を示す基準情報とに基づいて、前記都市又は前記建築物の前記ユーザに対する分かり易さを示す、前記ユーザの前記都市又は前記建築物に対する認知度を算出する算出部と、を備える。
前記算出部は、前記メンタルモデルに含まれる前記要素及び前記要素の位置と、前記基準情報に含まれる前記要素及び前記要素の位置との一致度に基づいて、前記認知度を算出してもよい。
前記算出部は、前記要素検出部が検出した前記要素の数に基づいて、前記都市又は建築物の複雑さを示す複雑度を算出してもよい。
前記要素検出部は、前記動画に含まれる画像に対応する構図と、前記視線の動きのパターンとに基づいて、前記要素を検出してもよい。
前記位置特定部は、前記動画に含まれる画像に関連付けられている前記画像の撮影位置に基づいて、前記要素の位置を特定してもよい。
前記位置特定部は、前記動画に含まれる、連続する複数の画像に基づいて、前記要素を検出した画像に対応する位置を前記要素の位置として特定してもよい。
前記取得部は、前記動画として、前記都市又は建築物を示すコンピュータ・グラフィック動画を取得してもよい。
前記取得部は、前記動画として、前記ユーザに装着したウェアラブル端末によって撮影した動画を取得してもよい。
前記要素検出部は、前記ウェアラブル端末によって撮影した動画に含まれる画像の構図のパターンを特定し、当該画像の構図のパターンにさらに基づいて前記要素を検出してもよい。
前記取得部は、前記ユーザの視線を検出する視線検出装置が検出した前記ユーザの視線の動きのパターンを取得してもよい。
本発明の第2の態様に係る認知度算出装置は、ユーザに装着したウェアラブル端末によって撮影され、都市又は建築物の空間経路を示す動画を取得する取得部と、前記動画に含まれる複数の画像のそれぞれに対応する構図に基づいて、前記都市又は前記建築物において前記ユーザが認識したと推測される要素を検出する要素検出部と、検出された前記要素の前記都市又は前記建築物における位置を特定する位置特定部と、検出された前記要素と、特定された前記要素の位置に基づいて、前記ユーザが前記都市又は前記建築物に対して思い描く地図を示すメンタルモデルを作成する作成部と、前記メンタルモデルと、前記空間経路に対応する領域における実際の前記要素及び前記要素の位置を示す基準情報とに基づいて、前記都市又は前記建築物の前記ユーザに対する分かり易さを示す、前記ユーザの前記都市又は前記建築物に対する認知度を算出する算出部と、を備える。
本発明の第3の態様に係る認知度算出方法は、コンピュータにより実行される、都市又は建築物の空間経路を示す動画と、前記動画に対するユーザの視線の動きのパターンとを取得するステップと、前記動画と、前記視線の動きのパターンとに基づいて、前記都市又は前記建築物において前記ユーザが認識したと推測される要素を検出するステップと、検出された前記要素の前記都市又は前記建築物における位置を検出するステップと、検出された前記要素と、前記要素の位置とに基づいて、前記ユーザが前記都市又は前記建築物に対して思い描く地図を示すメンタルモデルを作成するステップと、前記メンタルモデルと、前記空間経路に対応する実際の前記要素及び前記要素の位置を示す基準情報とに基づいて、前記都市又は前記建築物の前記ユーザに対する分かり易さを示す、前記ユーザの前記都市又は前記建築物に対する認知度を算出するステップと、を備える。
本発明の第4の態様に係る認知度算出プログラムは、コンピュータを、都市又は建築物の空間経路を示す動画と、前記動画に対応するユーザの視線の動きのパターンとを取得する取得部、前記動画と、前記視線の動きのパターンとに基づいて、前記都市又は前記建築物において前記ユーザが認識したと推測される要素を検出する要素検出部、検出された前記要素の前記都市又は前記建築物における位置を特定する位置特定部、検出された前記要素と、特定された前記要素の位置とに基づいて、前記ユーザが前記都市又は前記建築物に対して思い描く地図を示すメンタルモデルを作成する作成部、及び前記メンタルモデルと、前記空間経路に対応する実際の前記要素及び前記要素の位置を示す基準情報とに基づいて、前記都市又は前記建築物の前記ユーザに対する分かり易さを示す、前記ユーザの前記都市又は前記建築物に対する認知度を算出する算出部、として機能させる。
本発明によれば、都市や建築物のユーザに対する分かり易さを指標化することができるという効果を奏する。
第1の実施形態に係る認知度算出装置の概要を示す図である。 第1の実施形態に係る認知度算出装置及びウェアラブル端末の構成を示す図である。 第1の実施形態に係る認知度算出装置が認知度を算出する処理の流れを示すフローチャートである。 空間経路を示す動画に含まれる一風景におけるユーザの視線を示す図である。 空間経路を示す動画に含まれる画像に対して透視図法の線が特定された例を示す図である。 要素特定情報の一例を示す図である。 要素特定情報の他の一例を示す図である。 複数の画像に基づいて要素の位置を特定する例を示す図である。 メンタルモデルの一例を示す図である。 メンタルモデルの他の一例を示す図である。 3次元のメンタルモデルの作成例を示す図である。 実際の地図の一例を示す図である。 メンタルモデルを単純化する例を示す図である。 複数のユーザが検出した要素を実際の地図に反映させたメンタルモデルを示す図である。
<第1の実施形態>
以下、本発明の第1の実施形態について説明する。
本発明者は、都市や建築物を構成する要素をユーザが認識することにより、ユーザが、都市や建築物に対するイメージを知覚すると考え、当該要素が都市や建築物のユーザに対する分かり易さに影響を与えるものと考えた。そして、本発明者は、ユーザが都市や建築物を視認した際に認識する幾何学的構図や座標軸や図形に基づいて、ユーザが都市や建築物を構成する要素を認識すると推定し、認知度算出装置1によって、ユーザが認識したと推定される要素に基づいてユーザの都市や建築物に対する認知度を算出することを見出した。
図1は、第1の実施形態に係る認知度算出装置1の概要を示す図である。認知度算出装置1は、都市や建築物に対するユーザの分かり易さを指標化した認知度を算出するコンピュータである。なお、以下の説明において、「都市や建築物」を「都市等」という。
具体的には、認知度算出装置1は、ユーザに装着したウェアラブル端末2等から、都市等の空間経路を示す動画と、当該動画に対応するユーザの視線の動きのパターンとを取得する(図1の(1))。
認知度算出装置1は、取得した動画と、視線の動きのパターンとに基づいて、都市等においてユーザが認識したと推測される要素と、当該要素の位置とを検出する(図1の(2))。ここで、要素には、「パス」、「エッジ」、「ディストリクト」、「ノード」及び「ランドマーク」が含まれている。これらの要素の詳細については、後述する。
認知度算出装置1は、検出した要素と、当該要素の位置とに基づいて、ユーザが都市等に対して思い描く地図を示すメンタルモデルを作成し(図1の(3))、当該メンタルモデルと、都市等の空間経路に対応する実際の要素及び要素の位置を示す実際の地図(基準情報)との一致度を算出することにより、都市等に対するユーザの認知度を算出する(図1の(4))。ここで、メンタルモデルは、ユーザが思考した内容を表す記号、絵及び文字等の少なくともいずれかから構成される。メンタルモデルは、例えば、ユーザの都市等に対する経験、知識及び体験に基づいて構成されるイメージであるメンタルマップである。
このようにすることで、都市等の設計者は、認知度算出装置1が算出した認知度に基づいて、都市等がユーザに分かり易いか否かを評価することができる。これにより、設計者は、ユーザに分かり易い都市等の構造を、新たな都市等の設計に適用したり、応用したりすることができる。また、ユーザは、都市等の分かり易さの評価や改善に貢献することができる。
続いて、認知度算出装置1及びウェアラブル端末2の構成について説明する。
[ウェアラブル端末2の構成]
図2は、第1の実施形態に係る認知度算出装置1及びウェアラブル端末2の構成を示す図である。
まず、ウェアラブル端末2の構成について説明する。ウェアラブル端末2は、例えば、ユーザの頭部に装着するコンピュータである。ウェアラブル端末2は、風景を撮影するとともに当該風景における視点を記録する視線検出装置(アイトラッキングツール)である。ユーザは、ウェアラブル端末2を装着して、都市等における連続した空間である空間経路を通過する。ウェアラブル端末2は、都市等の空間経路を撮影して動画を生成するとともに、ユーザの視線データを生成する。ここで、空間経路は、予め都市等の分かり易さを調査する設計者等から指定された経路であるものとする。例えば、空間経路を示す情報としては、ユーザに対して、駅前等での案内板等の地図情報、スマートフォン等の端末に表示される地図情報や経路情報、知人から聞いた経路情報(例えば、口頭による道案内を示す文言)等が挙げられる。なお、空間経路は、予め指定された経路であるものとするが、これに限らず、ユーザが任意の空間経路を通過してもよい。また、ユーザに指定する空間経路を示す情報として、認知度算出装置1がユーザに対して過去に生成した都市等のメンタルモデル(メンタルマップ)や、ユーザが都市等の地図を視認することで得られるメンタルモデル(メンタルマップ)を用いてもよい。
ウェアラブル端末2は、記憶部21と、制御部22とを備える。
記憶部21は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、ハードディスク、及びウェアラブル端末2に装着された外部記憶媒体(例えば、SDカード(登録商標))や、外部記憶装置等により構成される。
制御部22は、例えば、CPUにより構成される。制御部22は、位置情報取得部221と、撮影部222と、視線検出部223と、送信部224とを備える。
位置情報取得部221は、複数のGPS(Global Positioning System)衛星から受信したGPS信号に基づく、ウェアラブル端末2の位置(端末位置)を示す位置情報を取得する。位置情報取得部221は、複数のGPS衛星から受信したGPS信号に基づいて位置情報を算出してもよい。
なお、ウェアラブル端末2は、例えば、加速度を検出する加速度センサ(不図示)と、ウェアラブル端末2の正面方向に対応する方位を検出する方位センサ(不図示)とを備えてもよい。そして、位置情報取得部221は、検出された加速度及び方位に基づいて、基準の位置(例えば、撮影を開始した位置)に対する相対的な位置を示す位置情報を算出してもよい。
撮影部222は、ウェアラブル端末2を装着しているユーザが視認している方向の風景を撮影することにより動画を生成する。ここで、生成された動画は、複数の画像と、当該画像に対応する再生位置(撮影開始からの経過時間)を示す情報と、動画の撮影を開始した時刻を示す情報とを含んで構成されていてもよい。撮影部222は、生成した動画を記憶部21に記憶させる。
視線検出部223は、ユーザが視認している方向の風景におけるユーザの視線として、動画における当該視線の座標(視線位置)を検出する。また、視線検出部223は、ウェアラブル端末2が向いている方向、すなわち、ユーザの視認方向を示す方向情報を取得する。視線検出部223は、視線を検出した時刻と、視線位置と、視認方向と、視線を検出したときに位置情報取得部221が取得した端末位置とを関連付けた視線データを生成して記憶部21に記憶させる。
ここで、動画及び視線データは、並列して生成され、動画に含まれる複数の画像のそれぞれに対応する視線データが存在するものとする。なお、撮影部222と、視線検出部223とが協働することにより、ユーザの視線を示すポインタが合成された動画が生成されるようにしてもよい。また、視線検出部223は、視線の動きのパターンの軌跡を検出してもよい。また、制御部22は、撮影部222が撮影した動画に含まれる複数の画像のそれぞれを解析し、画像が示す構図を検出してもよい。
また、本実施形態では、視線データに、位置情報取得部221が取得した端末位置を示す情報が含まれることとしたが、これに限らない。例えば、視線データに端末位置を含ませずに、制御部22が、動画に含まれている画像それぞれの、動画における再生位置と、端末位置とを関連付けた情報を生成してもよい。
送信部224は、認知度算出装置1等の外部装置と無線通信を行う。送信部224は、認知度算出装置1から、動画及び視線データの取得リクエストを受信したことに応じて、記憶部21に記憶されている、撮影部222が撮影した動画と、視線検出部223が生成した視線データとを認知度算出装置1に送信する。
[認知度算出装置1の構成]
続いて、認知度算出装置1の構成について説明する。認知度算出装置1は、入力部11と、表示部12と、記憶部13と、制御部14とを備える。
入力部11は、例えば、キーボードやマウス等によって構成される。入力部11は、認知度算出装置1の操作者から操作入力を受け付ける。なお、認知度算出装置1がウェアラブル端末2と通信可能である場合には、認知度算出装置1の入力部11は、ボタンやセンサー端子等によって構成され、当該ボタンやセンサー端子等によって、ウェアラブル端末2への視線入力、ウェアラブル端末2が撮影可能な範囲(ユーザの視界内)でのユーザの手等によるジェスチャー入力を受け付けてもよい。
表示部12は、例えば、液晶ディスプレイや有機EL(Electro-Luminescence)ディスプレイ等により構成される。表示部12は、制御部14の制御に応じて、例えば、ユーザが視認した動画や、ユーザのメンタルモデルや、ユーザの都市に対する認知度等を表示する。
記憶部13は、例えば、ROM、RAM、ハードディスク、及び認知度算出装置1に接続された外部記憶装置等により構成される。ここで、外部記憶装置は、認知度算出装置1に直接接続されていてもよいし、通信ネットワーク(不図示)を介して通信可能に接続されていてもよい。
記憶部13は、コンピュータを、後述する取得部141、要素検出部142、位置特定部143、作成部144、及び算出部145として機能させる認知度算出プログラムを記憶する。また、記憶部13は、ウェアラブル端末2から取得した動画や視線データを記憶する。
制御部14は、例えばCPUにより構成される。制御部14は、取得部141と、要素検出部142と、位置特定部143と、作成部144と、算出部145とを備える。以下、制御部14が備える機能について、フローチャートを参照しながら説明する。
図3は、第1の実施形態に係る認知度算出装置1が認知度を算出する処理の流れを示すフローチャートである。
[動画及び視線の動きのパターンの取得]
まず、取得部141は、都市又は建築物の空間経路を示す動画と、当該動画に対応するユーザの視線の動きのパターンとを取得する(S1)。具体的には、取得部141は、ウェアラブル端末2に動画及び視線データの取得リクエストを送信し、ウェアラブル端末2から動画及び視線データを受信する。
続いて、取得部141は、取得した視線データが示すユーザの視線の動きを解析し、視線データが示す視線の動きのパターンを特定する。図4は、第1の実施形態に係る空間経路を示す動画に含まれる一風景におけるユーザの視線を示す図である。図4には、左目の視線を示す左視線VLと、右目の視線を示す右視線VRと、左視線VLと右視線VRとの中間を示す中間点VIとが表示されている。取得部141は、例えば、中間点VIの軌跡を解析することにより、ユーザの視線の動きのパターンとして、見回し、確認、注視を特定する。なお、図4に示す例では、左視線VL、右視線VR、中間点VIを表示したが、これに限らず、一つの視線だけが表示されるようにしてもよい。
「見回し」は、例えば、同じ視認対象の1/5秒以下の視認である。「見回し」は、主としてユーザが自身を空間に定位する視認である。また、「見回し」は、例えば、ユーザが任意の要素が含まれる範囲を見ているだけでその要素が何であるかを把握していない状態である。取得部141は、同じ視認対象の視認時間が1/5秒以下である場合に、当該位置に表示されている風景をユーザが見回したと判定する。
「確認」は、同じ視認対象の1/5秒より長くかつ1秒未満の視認である。「確認」は、ユーザが自身を空間に定位する視認、又はユーザが視認対象を定位する視認である。また、「確認」は、ユーザが、任意の要素が存在していることを把握しているものの、その要素が何であるのか把握していない状態である。
「注視」は、同じ視認対象の1秒以上の視認である。「注視」は、ユーザが視認対象の内容を確認する視認である。「注視」は、ユーザが、図形や形態や文字等(例えば、窓や扉等の形状、仕上げ材の模様、建物の形態、植物の形態、家具の形態、車の形態、人の形態、サインの情報、地図、コンピュータ画面等)の内容を読み取ることができる状態である。
[ユーザが認識した要素の検出]
続いて、要素検出部142は、取得部141が取得した動画と、視線の動きのパターンとに基づいて、都市等においてユーザが認識したと推測される要素を検出する(S2)。
ここで、要素としては、ケヴィン・リンチ(Kevin Lynch)が提唱する、パス、エッジ、ディストリクト、ノード及びランドマークが挙げられる。パス、エッジ、ディストリクト、ノード及びランドマークは、以下のように定義されている。
「パス」は、ユーザが日ごろ又は時々通る、若しくはユーザが通る可能性のある道筋である。
「エッジ」は、線状の要素のうち、パスとは異なる線状の要素であり、例えば、海岸線、鉄道の線路、開発地の縁、壁等、2つの要素の間にある境界である。
「ディストリクト」は、中から大の大きさを有する都市の一部分を示すとともに、2次元の広がりをもつ要素である。ユーザは、「ディストリクト」の内部に入るものであり、通常は、「ディストリクト」は、内部から認識されるものであるが、外から視認可能な場合には、外からも参照される。
「ノード」は、都市の内部における主要な地点である。ユーザは、「ノード」の中にはいることができるとともに、「ノード」に向かったり、「ノード」から出発したりすることができる。
「ランドマーク」は、ユーザが外部から視認する物であり、例えば、建物、看板、商店、山等、単純に定義される物である。「ランドマーク」は、ユーザが内部に入らずに、外部から視認する物である。
具体的には、まず、要素検出部142は、動画に含まれる複数の画像のそれぞれを解析することにより、当該画像に対応する構図として、一点透視の構図や、二点透視の構図を特定する。より具体的には、例えば、要素検出部142は、動画に含まれる複数の画像のそれぞれの画素値を明度で二値化し、二値の境界線を、透視図法の線と特定する。そして、要素検出部142は、画像において特定した複数の透視図法の線の組み合わせに基づいて、当該画像に対応する構図を特定する。図5は、第1の実施形態に係る画像に対して透視図法の線が特定された例を示す図である。図5では、画像に対して一点透視の構図が特定されたことが確認できる。
なお、要素検出部142は、画素値を二値化することにより、画像に描画可能な透視図法の線を特定したが、これに限らない。要素検出部142は、遠近法構造を用いた図形や座標軸の分析、彩度に基づく画素の多値化、ハフ変換のアルゴリズムを用いた画像からの線の抽出、画像が撮影された時刻の前後に撮影された画像の画素値の変化に基づく画素の多元化、或いはこれらを複合して、描画可能な透視図法の線を特定してもよい。さらに、要素検出部142は、予め透視図法の構図に対応する複数の画像を記憶部13に記憶させておき、取得部141が取得した動画に含まれる複数の画像を、記憶部13に記憶されている画像と照合することにより、透視図法の構図を特定してもよい。
続いて、要素検出部142は、特定した構図と、ユーザの視線の動きのパターンとに基づいて、ユーザが認識したと推測される要素を検出する。具体的には、要素検出部142は、図6Aに示される、要素と、構図のパターンと、視線の動きのパターンとを関連付けた要素特定情報を参照することにより、ユーザが認識したと推測される要素を検出する。例えば、動画に含まれる画像の構図が一点透視の構図であり、当該画像に対応する視線の動きのパターンが注視である場合、要素検出部142は、ユーザが認識したと推測される要素として「パス」を検出する。
なお、要素検出部142は、位相に基づいて要素を特定するようにしてもよい。ここで、位相とは、ユーザが視覚により知覚した身の回りにおける様々な物理的な事象により構築される幾何学的な領域であり、内部や外部といった概念を導くことができるものである。例えば、ユーザは、任意の対象(要素)を内側から意識して包まれる等の感情を伴って内部にいると意識できる場合や、任意の対象(要素)を外側から意識して開放感等の感情を伴って外部にいると意識できる場合がある。これに対して、要素検出部142は、例えば、動画に含まれる画像の構図と、当該構図における座標軸とに基づいて、位相を検出する。なお、要素検出部142は、さらに、視線の動きのパターンや、当該画像においてユーザが視認した対象物の位置に基づいて位相を検出してもよい。例えば、視線の動きのパターンが見回しであるとともに、見回しの角度が狭い場合には、ユーザが、見回した対象物の内部に位相が存在する傾向にあり、見回しの角度が広い場合には、ユーザが、見回した対象物の外部に位相が存在する傾向にある。また、視線の動きのパターンが対象物に対する複数の確認である場合、ユーザが対象物の内部に位相が存在する傾向にある。また、視線の動きのパターンが注視である場合、ユーザが注視した対象物の外部に位相が存在する傾向にある。
図6Bは、要素特定情報の他の一例を示す図である。図6Bに示す要素特定情報では、要素と、構図のパターンと、視線の動きのパターンと、位相とが関連付けられている。要素検出部142は、視線の動きのパターンと、構図のパターンとの組み合わせに対して、複数の要素が関連付けられている場合であっても、位相に基づいて、一つの要素に特定することができる。
また、要素検出部142は、ウェアラブル端末2によって撮影した動画に含まれる複数の画像の構図のパターンを特定し、当該画像の構図のパターンにさらに基づいて要素を検出してもよい。例えば、複数の画像の構図のパターンと、要素を示す情報とを関連付けて記憶部13に記憶させておき、要素検出部142が特定した構図のパターンに関連付けられている要素を特定してもよい。また、要素検出部142は、構図のパターンから、幾何学的な座標軸の形成され得る領域を検出し、当該領域と、視認の動きのパターンと、位相とに基づいて都市の要素を検出してもよい。
[検出された要素の位置の特定]
続いて、位置特定部143は、要素検出部142が検出した要素の都市等における位置を特定する(S3)。具体的には、位置特定部143は、検出された要素に対応する視線データに含まれている位置情報が示す位置を、当該要素の位置として特定する。
なお、位置特定部143は、動画に含まれている画像のそれぞれに、当該画像の位置情報(撮影位置)が関連付けられている情報をウェアラブル端末2から取得してもよい。この場合において、位置特定部143は、動画に含まれる画像のうち、要素検出部142が検出した要素を含む画像に関連付けられている画像の撮影位置に基づいて、要素の位置を特定してもよい。
また、位置特定部143は、視線データに含まれる端末位置と、ユーザの視認方向とに基づいて、要素の位置を調整してもよい。例えば、画像は、ユーザの視認方向の風景を示していることから、当該画像に含まれている要素は、視線データが示す位置そのものではなく、ユーザの視認方向に位置している。このため、位置特定部143は、視線データに含まれている視認方向に基づいて、要素の位置を、特定した位置情報が示す位置から視線方向に対応する位置に調整してもよい。
また、動画に含まれている画像のそれぞれの位置情報が特定できず、動画の撮影を開始した位置のみ特定できる場合、位置特定部143は、動画に含まれる、連続する複数の画像に基づいて、要素の位置を特定してもよい。例えば、位置特定部143は、連続する複数の画像を解析することにより、ユーザの移動方向を特定し、当該移動方向と、動画の撮影を開始した位置とに基づいて要素を検出した画像に対応する位置を特定する。そして、位置特定部143は、当該位置に基づいて要素の位置を特定する。
図7は、複数の画像に基づいて要素の位置を特定する例を示す図である。図7に示すように、動画に対して、連続する4つの画像(A)〜(D)が含まれているとする。例えば、位置特定部143は、画像(A)〜(D)を解析して、(a)〜(d)に示すように、それぞれの画像に含まれる物体や、輪郭線を検出する。例えば、図7(a)〜(d)では、画像(A)〜(D)を解析した結果、2本の輪郭線と、物体X〜Zが検出されていることが確認できる。そして、位置特定部143は、複数の画像のそれぞれにおける物体及び輪郭線の位置に基づいて、ユーザの進行方向及び移動速度を特定し、動画の撮影を開始した位置と、特定した進行方向と、特定した移動速度とに基づいて、複数の画像のそれぞれに対応する位置を特定する。
[メンタルモデルの作成]
続いて、作成部144は、要素検出部142が検出した要素と、位置特定部143が特定した要素の位置とに基づいて、ユーザが都市等に対して思い描く地図を示すメンタルモデルを作成する(S4)。例えば、作成部144は、無地の図面に対して、位置特定部143が特定した要素の位置に基づいて、要素検出部142が検出した要素を示す画像を描画することにより、図8に示すようなメンタルモデルを生成する。
なお、作成部144は、図9に示すように、都市等の空間経路を含み、要素等の情報が付されていない電子地図(白地図)に対して、位置特定部143が特定した要素の位置に基づいて、要素検出部142が検出した要素を示す画像を描画することにより、メンタルモデルを作成するようにしてもよい。
また、作成部144は、地図そのものを作成せずに、要素検出部142が検出した複数の要素のそれぞれと、位置特定部143が特定した当該要素の位置を示す位置情報とを関連付けた情報を、メンタルモデルとして生成してもよい。
なお、作成部144は、メンタルモデルとして2次元の地図モデルとして作成するものとするが、3次元の地図モデルを作成するようにしてもよい。
図10は、3次元のメンタルモデルの作成例を示す図である。まず、要素検出部142は、画像(a)に基づいて、画像内の構図や図形から幾何学的座標軸を推測する。探索開始に時は空間定位が不十分であり、要素や、要素が存在する方位が曖昧である。
続いて、要素検出部142は、画像(b)においてユーザが対象物として道路を示す領域を連続確認したことを検出したとする。この場合、ユーザが対象物に対して内部的位相を感じる幾何学的座標軸が認識され、メンタルモデルにパスが生成される。
続いて、要素検出部142は、画像(c)においてユーザが対象物として道路の交差点を示す領域を注視したことを検出したとする。この場合、ユーザが対象物に対して外部的位相を感じる幾何学的座標軸が認識され、メンタルモデルにノードが生成される。
続いて、画像(d)において、ユーザが対象物として道路の横に存在する建築物を見回したとする。この場合において、ユーザが対象物に対して外部的位相を感じる幾何学的座標軸が認識され、メンタルモデルにディストリクトが生成される。
続いて、画像(e)において、ユーザが対象物として道路を示す領域を見回したとする。この場合、ユーザが対象物に対して内部的位相を感じる幾何学的座標軸が認識され、メンタルモデルにパスが生成される。
続いて、画像(f)において、ユーザが対象物として、画像(e)においてパスと特定された道路の先に存在する建築物を注視したとする。この場合、ユーザが対象物に対して外部的位相を感じる幾何学的座標軸が認識され、メンタルモデルにランドマークが生成される。
続いて、画像(g)において、ユーザが対象物としてビルの合間から視認可能な建築物を確認したとする。この場合、メンタルモデルには、確認した位置に対応する位置にランドマークが生成される。3次元モデルを応用することで、より探索行動に合致した生成が可能になる。
例えば、ユーザが遠方に存在する建築物等をランドマーク等として検出した場合に、2次元のメンタルモデルでは、当該ランドマークを表記できない可能性があるものの、3次元のメンタルモデルとすることにより、遠方に存在する建築物についても、メンタルモデルに反映することができる。これにより、設計者は、例えば、複数のユーザの当該ランドマーク等の認識状況を3次元のメンタルモデルによって確認することにより、当該ランドマーク等の都市等における影響度について評価することができる。
[認知度の算出]
続いて、算出部145は、作成部144が作成したメンタルモデルと、都市等の空間経路に対応する実際の要素及び要素の位置を示す地図(基準情報)とに基づいて、都市等のユーザに対する分かり易さを示す、ユーザの都市等に対する認知度を算出する(S5)。
具体的には、算出部145は、メンタルモデルに含まれる要素及び要素の位置と、図11に示すような実際の地図に含まれる要素及び要素の位置との一致度に基づいて認知度を算出する。より具体的には、算出部145は、メンタルモデルに含まれている要素及び要素の位置と、実際の地図に含まれる要素及び要素の位置とを比較する。そして、算出部145は、実際の地図に含まれる要素に対する、要素検出部142による要素の検出率と、実際の地図に含まれる要素の位置と、特定された位置との誤差とを算出する。そして、算出部145は、算出した検出率及び誤差の少なくともいずれかに基づいて認知度を算出する。
ここで、算出部145は、メンタルモデルに含まれる要素のうち、パス及びノードの要素のみに限定して、実際の地図に含まれる要素との一致度を算出してもよい。例えば、3次元のメンタルモデルを作成した場合において、比較対象の地図が2次元である場合には、実際の地図に含まれる要素との一致度を精度良く算出できないという問題が発生する。そこで、算出部145は、メンタルモデルにおける表記を単純化させることにより、パス及びノードの要素のみに限定したメンタルモデルに修正し、修正後のメンタルモデルと、実際の地図との一致度を算出してもよい。図12は、メンタルモデルを単純化する例を示す図である。図12(a)〜(c)は、3次元のメンタルモデルの正面図である。算出部145は、まず、図12(a)に示すメンタルモデルから、パスと、パスに対応するエッジを特定し、図12(b)に示すようにパスを示す線を描画する。その後、算出部145は、図12(b)に示すように、3次元のメンタルモデルから、描画した線以外の要素を消去することにより、メンタルモデルを単純化させる。
算出部145は、算出した認知度を示す情報を、例えば、表示部12に表示させる。なお、算出部145は、算出した認知度を示す情報を記憶部13に記憶させてもよい。
[複雑度の算出]
続いて、算出部145は、要素検出部142が検出した要素の数に基づいて、都市又は建築物の複雑さを示す複雑度を算出する。例えば、複数の都市等を示す動画のそれぞれについて、単位時間や単位距離あたりに検出される要素の数を予め基準値として特定しておく。そして、算出部145は、取得部141が取得した動画の長さと、要素検出部142が検出した要素の数とに基づいて、当該動画において、単位時間あたりに検出される要素の数を算出し、当該要素の数と、基準値とに基づいて複雑度を算出してもよい。
また、要素検出部142が複数のユーザのそれぞれに対応して検出した要素を実際の地図に反映させたメンタルモデル(集合知的なマップ)を生成してもよい。そして、算出部145が、当該メンタルモデルに含まれる要素に対して、要素検出部142が検出した要素の割合に基づいて、複雑度を算出してもよい。
[第1の実施形態における効果]
以上、第1の実施形態によれば、認知度算出装置1は、取得した動画と、視線の動きのパターンとに基づいて、都市等においてユーザが認識したと推測される要素を検出するので、ユーザが、都市等に対するイメージを知覚していることを検出することができる。
そして、認知度算出装置1は、要素検出部142が検出した要素と、位置特定部143が特定した要素の位置とに基づいて、ユーザが都市等に対して思い描く地図を示すメンタルモデルを作成し、当該メンタルモデルと、実際の要素及び要素の位置を示す基準情報とに基づいて、ユーザの都市等に対する認知度を算出する。このようにすることで、認知度算出装置1は、ユーザが、都市等に対して抱いているイメージの大きさ、すなわち、都市等に対するユーザの分かり易さを指標化することができる。
これにより、都市等の設計者は、認知度算出装置1が算出した認知度に基づいて、都市等がユーザに分かり易いか否かを評価することができる。そして、設計者は、ユーザに分かり易いと評価された都市等の構造を、新たな都市等の設計に適用したり、応用したりすることができる。
例えば、地図の作成者は、例えば、ユーザに地図を渡して都市を探索させ、その結果として得られた都市の認知度に基づいて、ユーザに分かり易い地図を作成することができる。これにより、地図の作成者は、例えば、一般的に分かり易い地図の表記等を開発したりすることができる。建築物の設計者は、例えば、ユーザに建築物の間取り図を渡して建築物の内部を探索させ、その結果として得られた建築物の認知度に基づいて、間取り図がユーザにとって分かり易いものであるか否かを評価することができる。これにより、建築物の設計者は、例えば、一般的に分かり易い間取り図の表記等を開発したりすることができる。
また、ユーザに対して認知度を通知することにより、ユーザが、都市等をどのくらい把握しているのかを認識させることができる。そして、例えば、認知度が低いユーザに対しては、上記地図の作成者が作成した地図を渡して、都市を探索させたり、建築物の設計者が作成した間取り図を渡して建築物内部を探索させることにより、都市等においてユーザが要素をバランスよく取得して探索できるようになり、ユーザの生理的な方向音痴や方向感覚を改善することができる。
また、認知度算出装置1は、検出した要素の数に基づいて、都市又は建築物の複雑さを示す複雑度を算出する。従来は、都市や建築物に対するユーザの体験の独自性に関連する、都市や建築物の複雑さも指標化されていなかったため、設計者は、どのような設計が体験の独自性が高いものなのかを意識した設計を十分に行えないという問題があった。例えば、ユーザが都市等に対して感じる複雑さや体験の独自性が指標化されていないため、都市や公共建築等の設計検討時に、複雑さといった観点から設計案の評価ができず、設計者が提示した計画が合意され難いという問題があった。これに対して、認知度算出装置1は、複雑度を算出することができるので、設計者は、動画が示す都市が、他の都市等に対してどのくらい複雑なのかを評価し、体験の独自性が高い都市等の設計に適用したり、応用したりすることができる。また、設計者は、ユーザが複雑さや独自性が高いと感じることができる都市等を設計することができる。
なお、第1の実施形態において、算出部145は、メンタルモデルと、図11に示す実際の地図を基準情報として認知度を算出したが、複数のユーザの認知度の算出を行った結果、複数ユーザの認知度が低すぎたり、高すぎたりするという問題が発生し得る。そこで、認知度算出装置1の制御部は、複数のユーザの認知度、又は、複数のユーザのそれぞれの要素の検出度合いに基づいて、図13に示すように、要素検出部142が複数のユーザのそれぞれに対応して検出した要素を実際の地図に反映させたメンタルモデル(集合知的なマップ)を作成してもよい。そして、算出部145は、メンタルモデルに含まれる要素及び要素の位置と、複数のユーザが検出した要素を実際の地図に反映させたメンタルモデルに含まれる要素及び要素の位置とに基づいて認知度を算出してもよい。
<第2の実施形態>
[コンピュータ・グラフィック動画に基づく視線データを取得する]
続いて、第2の実施形態について説明する。第2の実施形態は、ウェアラブル端末2が、都市等における実際の空間経路をユーザが通過したときの視線を検出せずに、都市等を示すコンピュータ・グラフィック動画(以下、CG動画という。)をユーザが視認したときの視線を検出する点で第1の実施形態と異なる。以下、第1の実施形態と異なる部分について説明を行う。第1の実施形態と同じ部分については適宜説明を省略する。
第2の実施形態において、ウェアラブル端末2を装着したユーザは、動画表示装置(不図示)の表示部に表示される、都市等を示すCG動画を視認する。
ウェアラブル端末2の視線検出部223は、CG動画に対するユーザの視線を検出する。視線検出部223は、視線を検出した時刻と、CG動画における当該視線の座標を示す視線位置とを関連付けた視線データを生成して記憶部21に記憶させる。ここで、視線を検出した時刻は、CG動画の再生時刻と関連付けられている。
認知度算出装置1の取得部141は、都市等の空間経路を示すCG動画と、当該CG動画に対応するユーザの視線の動きのパターンとを取得する。具体的には、取得部141は、動画表示装置からCG動画を取得するとともに、ウェアラブル端末2から当該CG動画に対応する視線データを取得する。そして、取得部141は、視線データに基づいて、ユーザの視線の動きのパターンを取得する。
要素検出部142は、取得部141が取得したCG動画と、視線の動きのパターンとに基づいて、都市等においてユーザが認識したと推測される要素を検出する。
位置特定部143は、要素検出部142が検出した要素の都市等における位置を特定する。具体的には、位置特定部143は、視線データを参照し、要素が検出された際の視線位置に関連付けられている視線の検出時刻を特定する。そして、位置特定部143は、特定した視線の検出時刻に対応するCG動画の再生時刻を特定する。CG動画の複数の再生時刻には、都市等におけるそれぞれの位置を示す位置情報が関連付けられていることから、位置特定部143は、当該再生時刻に関連付けられている位置情報が示す位置を、当該要素の位置として特定する。
続いて、作成部144は、要素検出部142が検出した要素と、位置特定部143が特定した要素の位置とに基づいて、ユーザのメンタルモデルを作成する。算出部145は、作成部144が作成したメンタルモデルと、CG動画に対応する都市等に含まれる要素及び要素の位置を示す地図(基準情報)とに基づいて、ユーザの都市等に対する認知度を算出する。
[第2の実施形態における効果]
以上、第2の実施形態によれば、認知度算出装置1は、都市等を示すCG動画と、当該CG動画に対応する視線の動きのパターンとに基づいて、当該CG動画が示す都市等においてユーザが認識したと推測される要素を検出する。CG動画を計画段階や開発途中の都市等を示すものとすることで、認知度算出装置1は、当該都市等に対してユーザが認識したと推定される要素を検出し、認知度を算出することができる。したがって、計画段階や開発途中の都市等の設計者は、当該都市等の計画段階や開発途中において、ユーザにとって分かり易いものであるか否かを評価することができる。
なお、第2の実施形態では、ウェアラブル端末2が、CG動画をユーザが視認したときの視線データを取得することとしたが、これに限らない。例えば、ウェアラブル端末2は、都市等を予め撮影した動画をユーザが視認したときの視線データを取得してもよい。このようにすることで、認知度算出装置1は、都市等がある場所にユーザが行かなくても、ユーザの都市等に対する認知度を算出することができる。
また、CG動画は、都市等における予め定められた空間経路を示す動画であることとするが、これに限らない。例えば、CG動画は、空中等、実際にユーザが通過できない場所を示す動画であってもよい。このようにすることで、当該CG動画を視認したユーザは、普段は認知しない都市等のイメージを認識することができる。
また、CG動画は、例えば、予め設計された3次元空間モデルの任意の空間を表示することができるVR(Virtual Reality:仮想現実)形式やAR(Augmented Reality:拡張現実)形式のCG動画であってもよい。例えば、ユーザが確認したい方向を指示するためのコントローラ等を介して、ユーザから指示情報を受信したことに応じて、CGを変化させる形式の動画や、ユーザの視線を検出したことに応じて、当該視線に対応してCGを変化させる形式の動画や、CGは変化せずに、内部的にユーザからの指示情報と3次元CGの形状と関連付けてログとして保存し、事後的に確認できる形式の動画であってもよい。このようにすることで、認知度算出装置1は、様々な方向からユーザが一の要素を視認することができるので、ユーザが視認する要素に対応する3次元モデルを特定し易くなり、要素の検出精度を向上させることができる。
<第3の実施形態>
[ウェアラブル端末2が撮影した動画に基づいて視線の動きのパターンを取得する]
続いて、第3の実施形態について説明する。第3の実施形態は、ウェアラブル端末2が視線データを生成せずに動画のみを生成し、認知度算出装置1が、ウェアラブル端末2から取得した動画に基づいて、ユーザの視線の動きのパターンを取得する点で第1の実施形態と異なる。第3の実施形態では、ウェアラブル端末2として、視線データを生成する機能を有していない端末を使用することを想定している。
第3の実施形態において、取得部141は、ウェアラブル端末2から、当該ウェアラブル端末2において撮影された都市等の空間経路を示す動画を取得する。
要素検出部142は、動画に含まれる複数の画像のそれぞれに対応する構図に基づいて、都市等においてユーザが認識したと推測される要素を検出する。具体的には、要素検出部142は、動画に含まれる複数の画像のそれぞれを解析することにより、当該画像に対応する構図を特定する。そして、要素検出部142は、図6A又は図6Bに示す要素特定情報を参照し、特定した構図に関連付けられている要素を特定することにより、ユーザが認識したと推測される要素を検出する。
位置特定部143は、検出された要素の都市等における位置を特定する。具体的には、第3の実施形態において、動画の再生位置には、位置情報取得部221が取得した端末位置が関連付けられている。位置特定部143は、要素を検出したときの画像に基づいて、動画の再生位置を特定し、当該再生位置に関連付けられている端末位置を、検出された要素の位置として特定する。
作成部144及び算出部145の機能は、第1の実施形態と同じであるので説明を省略する。
[第3の実施形態における効果]
以上、第3の実施形態によれば、認知度算出装置1は、動画のみに基づいて、ユーザが都市等において認識したと推測される要素を特定することができるので、ユーザの視線データを取得できない場合であっても、ユーザの都市等に対する認知度を算出することができる。
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。
例えば、上述の実施形態では、認知度算出装置1が、ウェアラブル端末2から、動画及び視線データを通信によって取得したが、これに限らない。例えば、ウェアラブル端末2から外した外部記憶媒体を認知度算出装置1に装着し、認知度算出装置1が、当該外部記憶媒体から動画及び視線データを取得してもよい。
また、上述の実施形態では、認知度算出装置1と、ウェアラブル端末2とはそれぞれ異なる装置であることとしたが、認知度算出装置1と、ウェアラブル端末2とは一体の装置であってもよい。例えば、ウェアラブル端末2が、認知度算出装置1が備える機能を有していたり、認知度算出装置1が、ウェアラブル端末2が備える機能を有していたりしてもよい。ここで、ウェアラブル端末2が、認知度算出装置1が備える機能を有している場合には、ウェアラブル端末2の入力部は、ボタンやセンサー端子等によって構成されてもよい。そして、当該ボタンやセンサー端子等によって、ウェアラブル端末2への視線入力、ウェアラブル端末2が撮影可能な範囲(ユーザの視界内)でのユーザの手等によるジェスチャー入力を受け付けてもよい。
1・・・認知度算出装置、11・・・入力部、12・・・表示部、13・・・記憶部、14・・・制御部、141・・・取得部、142・・・要素検出部、143・・・位置特定部、144・・・作成部、145・・・算出部、2・・・ウェアラブル端末、21・・・記憶部、22・・・制御部、221・・・位置情報取得部、222・・・撮影部、223・・・視線検出部、224・・・送信部

Claims (13)

  1. 都市又は建築物の空間経路を示す動画と、前記動画に対応するユーザの視線の動きのパターンとを取得する取得部と、
    前記動画と、前記視線の動きのパターンとに基づいて、前記都市又は前記建築物において前記ユーザが認識したと推測される要素を検出する要素検出部と、
    検出された前記要素の前記都市又は前記建築物における位置を特定する位置特定部と、
    検出された前記要素と、特定された前記要素の位置とに基づいて、前記ユーザが前記都市又は前記建築物に対して思い描く地図を示すメンタルモデルを作成する作成部と、
    前記メンタルモデルと、前記空間経路に対応する実際の前記要素及び前記要素の位置を示す基準情報とに基づいて、前記都市又は前記建築物の前記ユーザに対する分かり易さを示す、前記ユーザの前記都市又は前記建築物に対する認知度を算出する算出部と、
    を備える認知度算出装置。
  2. 前記算出部は、前記メンタルモデルに含まれる前記要素及び前記要素の位置と、前記基準情報に含まれる前記要素及び前記要素の位置との一致度に基づいて、前記認知度を算出する、
    請求項1に記載の認知度算出装置。
  3. 前記算出部は、前記要素検出部が検出した前記要素の数に基づいて、前記都市又は建築物の複雑さを示す複雑度を算出する、
    請求項1又は2に記載の認知度算出装置。
  4. 前記要素検出部は、前記動画に含まれる画像に対応する構図と、前記視線の動きのパターンとに基づいて、前記要素を検出する、
    請求項1から3のいずれか1項に記載の認知度算出装置。
  5. 前記位置特定部は、前記動画に含まれる画像に関連付けられている前記画像の撮影位置に基づいて、前記要素の位置を特定する、
    請求項1から4のいずれか1項に記載の認知度算出装置。
  6. 前記位置特定部は、前記動画に含まれる、連続する複数の画像に基づいて、前記要素を検出した画像に対応する位置を前記要素の位置として特定する、
    請求項1から4のいずれか1項に記載の認知度算出装置。
  7. 前記取得部は、前記動画として、前記都市又は建築物を示すコンピュータ・グラフィック動画を取得する、
    請求項1から6のいずれか1項に記載の認知度算出装置。
  8. 前記取得部は、前記動画として、前記ユーザに装着したウェアラブル端末によって撮影した動画を取得する、
    請求項1から5のいずれか1項に記載の認知度算出装置。
  9. 前記要素検出部は、前記ウェアラブル端末によって撮影した動画に含まれる画像の構図のパターンを特定し、当該画像の構図のパターンにさらに基づいて前記要素を検出する、
    請求項8に記載の認知度算出装置。
  10. 前記取得部は、前記ユーザの視線を検出する視線検出装置が検出した前記ユーザの視線の動きのパターンを取得する、
    請求項1から7のいずれか1項に記載の認知度算出装置。
  11. ユーザに装着したウェアラブル端末によって撮影され、都市又は建築物の空間経路を示す動画を取得する取得部と、
    前記動画に含まれる複数の画像のそれぞれに対応する構図に基づいて、前記都市又は前記建築物において前記ユーザが認識したと推測される要素を検出する要素検出部と、
    検出された前記要素の前記都市又は前記建築物における位置を特定する位置特定部と、
    検出された前記要素と、特定された前記要素の位置に基づいて、前記ユーザが前記都市又は前記建築物に対して思い描く地図を示すメンタルモデルを作成する作成部と、
    前記メンタルモデルと、前記空間経路に対応する領域における実際の前記要素及び前記要素の位置を示す基準情報とに基づいて、前記都市又は前記建築物の前記ユーザに対する分かり易さを示す、前記ユーザの前記都市又は前記建築物に対する認知度を算出する算出部と、
    を備える認知度算出装置。
  12. コンピュータにより実行される、
    都市又は建築物の空間経路を示す動画と、前記動画に対するユーザの視線の動きのパターンとを取得するステップと、
    前記動画と、前記視線の動きのパターンとに基づいて、前記都市又は前記建築物において前記ユーザが認識したと推測される要素を検出するステップと、
    検出された前記要素の前記都市又は前記建築物における位置を検出するステップと、
    検出された前記要素と、前記要素の位置とに基づいて、前記ユーザが前記都市又は前記建築物に対して思い描く地図を示すメンタルモデルを作成するステップと、
    前記メンタルモデルと、前記空間経路に対応する実際の前記要素及び前記要素の位置を示す基準情報とに基づいて、前記都市又は前記建築物の前記ユーザに対する分かり易さを示す、前記ユーザの前記都市又は前記建築物に対する認知度を算出するステップと、
    を備える認知度算出方法。
  13. コンピュータを、
    都市又は建築物の空間経路を示す動画と、前記動画に対応するユーザの視線の動きのパターンとを取得する取得部、
    前記動画と、前記視線の動きのパターンとに基づいて、前記都市又は前記建築物において前記ユーザが認識したと推測される要素を検出する要素検出部、
    検出された前記要素の前記都市又は前記建築物における位置を特定する位置特定部、
    検出された前記要素と、特定された前記要素の位置とに基づいて、前記ユーザが前記都市又は前記建築物に対して思い描く地図を示すメンタルモデルを作成する作成部、及び
    前記メンタルモデルと、前記空間経路に対応する実際の前記要素及び前記要素の位置を示す基準情報とに基づいて、前記都市又は前記建築物の前記ユーザに対する分かり易さを示す、前記ユーザの前記都市又は前記建築物に対する認知度を算出する算出部、
    として機能させる認知度算出プログラム。
JP2017520105A 2015-05-25 2015-05-25 認知度算出装置、認知度算出方法及び認知度算出プログラム Expired - Fee Related JP6487545B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/064968 WO2016189633A1 (ja) 2015-05-25 2015-05-25 認知度算出装置、認知度算出方法及び認知度算出プログラム

Publications (2)

Publication Number Publication Date
JPWO2016189633A1 JPWO2016189633A1 (ja) 2018-04-19
JP6487545B2 true JP6487545B2 (ja) 2019-03-20

Family

ID=57393030

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017520105A Expired - Fee Related JP6487545B2 (ja) 2015-05-25 2015-05-25 認知度算出装置、認知度算出方法及び認知度算出プログラム

Country Status (2)

Country Link
JP (1) JP6487545B2 (ja)
WO (1) WO2016189633A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110070810A (zh) * 2019-05-27 2019-07-30 珠海幸福家网络科技股份有限公司 一种楼盘讲解方法及楼盘讲解***
WO2023228342A1 (ja) * 2022-05-26 2023-11-30 株式会社ジオクリエイツ 情報処理システム、情報処理装置、情報処理方法及びプログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4616786B2 (ja) * 2006-03-31 2011-01-19 株式会社デンソーアイティーラボラトリ 情報提供装置
JP5354924B2 (ja) * 2007-02-16 2013-11-27 国立大学法人 名古屋工業大学 デジタルマップ作成システム
JP2013179403A (ja) * 2012-02-28 2013-09-09 Sony Corp 情報処理装置、情報処理方法、及びプログラム
JP6157170B2 (ja) * 2013-03-28 2017-07-05 大阪瓦斯株式会社 監視支援システム
JP6359253B2 (ja) * 2013-08-27 2018-07-18 株式会社ジオクリエイツ 感情抽出方法、感情抽出プログラム、感情抽出装置、及び建築物設計方法

Also Published As

Publication number Publication date
JPWO2016189633A1 (ja) 2018-04-19
WO2016189633A1 (ja) 2016-12-01

Similar Documents

Publication Publication Date Title
US11315308B2 (en) Method for representing virtual information in a real environment
US10809795B2 (en) Six degree of freedom tracking with scale recovery and obstacle avoidance
US10114459B2 (en) Gaze direction mapping
WO2015182227A1 (ja) 情報処理装置および情報処理方法
US9558581B2 (en) Method for representing virtual information in a real environment
US20170132806A1 (en) System and method for augmented reality and virtual reality applications
WO2019037489A1 (zh) 地图显示方法、装置、存储介质及终端
EP3274964B1 (en) Automatic connection of images using visual features
CN110168615B (zh) 信息处理设备、信息处理方法和存储介质
US10838515B1 (en) Tracking using controller cameras
CN108629799B (zh) 一种实现增强现实的方法及设备
JP2016122392A (ja) 情報処理装置、情報処理システム、その制御方法及びプログラム
JP6487545B2 (ja) 認知度算出装置、認知度算出方法及び認知度算出プログラム
CN113345107A (zh) 增强现实数据展示方法、装置、电子设备及存储介质
CN102799378B (zh) 一种立体碰撞检测物体拾取方法及装置
WO2020144848A1 (ja) オーサリング装置、オーサリング方法、及びオーサリングプログラム
JP6849895B2 (ja) 位相特定装置、携帯端末、位相特定方法及びプログラム
CN111506280B (zh) 用于指示屏幕外兴趣点的图形用户界面
JP6473872B2 (ja) 映像構築装置、擬似視覚体験システム、および映像構築プログラム
Polcar et al. ACTIVE CAMERA POSITIONAL TRACKING FOR AUGMENTED REALITY APPLICATIONS.
JP2021033377A (ja) 情報端末装置、プログラム、提示システム及びサーバ

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180514

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181225

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190221

R150 Certificate of patent or registration of utility model

Ref document number: 6487545

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees