JP2022133176A - 情報処理装置、情報処理方法、及び情報処理プログラム - Google Patents

情報処理装置、情報処理方法、及び情報処理プログラム Download PDF

Info

Publication number
JP2022133176A
JP2022133176A JP2021032128A JP2021032128A JP2022133176A JP 2022133176 A JP2022133176 A JP 2022133176A JP 2021032128 A JP2021032128 A JP 2021032128A JP 2021032128 A JP2021032128 A JP 2021032128A JP 2022133176 A JP2022133176 A JP 2022133176A
Authority
JP
Japan
Prior art keywords
user
content
terminal device
unit
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021032128A
Other languages
English (en)
Inventor
孝太 坪内
Kota Tsubouchi
祥太 山中
Shota Yamanaka
香 池松
Kaori Ikematsu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2021032128A priority Critical patent/JP2022133176A/ja
Publication of JP2022133176A publication Critical patent/JP2022133176A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】端末装置におけるコンテンツの提供態様を最適化すること。【解決手段】本願に係る情報処理装置は、特定部と、推定部と、処理部とを有する。特定部は、端末装置を使用する利用者の視線を特定する。推定部は、特定部により特定された視線に基づいて、端末装置の画面に表示されたコンテンツが利用者の中心視機能と周辺視機能のうちどちらが優位に働く状態で見られているかを推定する。処理部は、推定部による推定結果に基づいて、コンテンツの提供態様を変更する。【選択図】図2

Description

本発明は、情報処理装置、情報処理方法、及び情報処理プログラムに関する。
端末装置を使用する利用者の状態に関する様々な技術が提供されている。例えば、端末装置を使用している利用者の状態を推定する技術として、利用者の首曲げに係る情報を推定する技術が提供されている(例えば特許文献1等)。また、例えば、利用者の姿勢に応じて利用者が見易い表示方向に制御する技術が提供されている(例えば特許文献2等)。
特開2020-135340号公報 特開2013-214923号公報
しかしながら、上記の従来技術では、利用者の首曲げ状態といった姿勢を推定したり、推定した姿勢を基に表示を制御したりしているに過ぎないため、姿勢には対応するが、利用者がどのように見ているかという点には対応していない可能性がある。そのため、利用者に応じて端末装置におけるコンテンツの提供態様を最適化するという点では改善の余地がある。
本願は、上記に鑑みてなされたものであって、端末装置におけるコンテンツの提供態様を最適化する情報処理装置、情報処理方法、及び情報処理プログラムを提供することを目的とする。
本願に係る情報処理装置は、端末装置を使用する利用者の視線を特定する特定部と、前記特定部により特定された視線に基づいて、前記端末装置の画面に表示されたコンテンツが前記利用者の中心視機能と周辺視機能のうちどちらが優位に働く状態で見られているかを推定する推定部と、前記推定部による推定結果に基づいて、前記コンテンツの提供態様を変更する処理部と、を備えたことを特徴とする。
実施形態の一態様によれば、端末装置におけるコンテンツの提供態様を最適化することができるという効果を奏する。
図1は、利用者の中心視野と周辺視野について説明するための図である。 図2は、実施形態に係る情報処理の一例を示す図である。 図3は、実施形態に係る情報処理システムの構成例を示す図である。 図4は、実施形態に係る端末装置の構成例を示す図である。 図5は、実施形態に係る情報処理の一例を示すフローチャートである。 図6は、変形例に係る情報処理の一例を示すフローチャートである。 図7は、ハードウェア構成の一例を示す図である。
以下に、本願に係る情報処理装置、情報処理方法、及び情報処理プログラムを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る情報処理装置、情報処理方法、及び情報処理プログラムが限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。
(実施形態)
〔1.はじめに〕
まず、図1を用いて、人の視野と視機能について説明する。図1は、利用者の中心視野と周辺視野について説明するための図である。図1は、利用者U1を頭上から見たときの利用者U1の視野の範囲を示す。
人の視野は、大きく分けると、中心視野(中心視領域ともいう)と周辺視野(周辺視領域ともいう)の2つに分けられる。図1に示す例では、中心視野は、利用者U1の視野のうち、利用者U1の視野角度が1~2度の範囲である中心視CR1と、中心視CR1の外側の領域であって、利用者U1の視野角度が30度程度の範囲である有効視野CR2とを合わせた領域を指す。また、周辺視野は、利用者U1の視野のうち、中心視野の外側の領域であって、利用者U1の視野角度が100度程度の範囲の領域ER1を指す。
中心視野とは、利用者U1の中心視機能が優位に働く領域である。中心視機能とは、対象物の形状や色を明瞭に視認する脳の機能を指す。例えば、利用者U1が利用者U1の中心視野(すなわち、中心視CR1または有効視野CR2)に入った対象物を見ると、利用者U1の中心視機能が優位に働く状態となり、利用者U1は対象物の形状や色(例えば、細かい文字など)を明瞭に視認することができる。
一方、周辺視野とは、利用者U1の周辺視機能が優位に働く領域である。周辺視機能とは、対象物の形状や色を明瞭に視認することができない代わりに、対象物の形状や色を漠然と視認する脳の機能を指す。また、周辺視機能は、対象物の大まかな形状や時間的に変化する視覚情報に対して重要な働きをしていると言われている。例えば、利用者U1が利用者U1の周辺視野ER1に入った対象物を見ると、利用者U1の周辺視機能が優位に働く状態となり、利用者U1は対象物の大まかな形状や時間的に変化する視覚情報を素早く知覚することができる。
そこで、本実施形態に係る端末装置10は、端末装置10を使用する利用者の視線を特定し、特定した視線に基づいて、端末装置10の画面に表示されたコンテンツが利用者の中心視機能と周辺視機能のうちどちらが優位に働く状態で見られているかを推定する。そして、端末装置10は、推定結果に基づいて、コンテンツの提供態様を変更する。
これにより、端末装置10は、端末装置10の画面に表示されたコンテンツが利用者の中心視機能と周辺視機能のうちどちらが優位に働く状態で見られているかに応じて、端末装置10におけるコンテンツの提供態様を最適化することができる。例えば、端末装置10は、端末装置10の画面に表示されたコンテンツが利用者の中心視機能が優位に働く状態で見られていると推定される場合には、利用者が細かい文字や形状も視認することができる状態なので、情報量の多いコンテンツ(例えば、広告コンテンツ)を表示させるようにすることができる。また、例えば、端末装置10は、端末装置10の画面に表示されたコンテンツが利用者の周辺視機能が優位に働く状態で見られていると推定される場合には、利用者が細かい文字や形状も視認することが難しい状態なので、細かい文字がなく、動画やアニメーションといった動的な視覚情報を含むコンテンツ(例えば、広告コンテンツ)を表示させるようにすることができる。したがって、端末装置10は、端末装置10におけるコンテンツの提供態様を最適化することができるので、コンテンツの訴求効果を向上させることができる。
〔2.情報処理の一例〕
次に、図2を用いて、実施形態に係る情報処理の一例について説明する。図2は、実施形態に係る情報処理の一例を示す図である。図2では、端末装置10が、コンテンツC1、広告コンテンツAC1、および広告コンテンツAC2を画面に表示している。このとき、端末装置10は、端末装置10を使用する利用者U1の視線を特定する。ここで、利用者U1は、図1に示した利用者U1である。
端末装置10は、利用者U1の視線を特定すると、利用者U1の端末装置10の画面上における視点位置P1を特定する。また、端末装置10は、利用者U1の視線を特定すると、特定した利用者U1の視線に基づいて、利用者U1の目と端末装置10の画面との距離を特定する。例えば、端末装置10は、利用者U1の目と端末装置10の画面との距離の一例として、利用者U1の目と端末装置10の画面上の視点位置P1との距離を特定する。
続いて、端末装置10は、利用者U1の目と端末装置10の画面上の視点位置P1との距離を特定すると、特定した距離と利用者U1の中心視野の視野角度とに基づいて、端末装置10の画面を含む平面上における利用者U1の中心視野(図2に示す中心視CR1と有効視野CR2から成る領域)を特定する。
また、端末装置10は、利用者U1の目と端末装置10の画面上の視点位置P1との距離を特定すると、特定した距離と利用者U1の周辺視野の視野角度とに基づいて、端末装置10の画面を含む平面上における利用者U1の周辺視野ER1を特定する。
続いて、端末装置10は、端末装置10の画面を含む平面上における利用者U1の中心視野および周辺視野を特定すると、視点位置P1から広告コンテンツAC1の表示位置(例えば、広告コンテンツAC1の表示領域R2の中心位置)までの距離を特定する。端末装置10は、視点位置P1から広告コンテンツAC1の表示位置までの距離を特定すると、特定した距離に基づいて、広告コンテンツAC1が利用者U1の中心視野(有効視野CR2)に位置すると特定する。端末装置10は、広告コンテンツAC1が利用者U1の中心視野(有効視野CR2)に位置すると特定すると、広告コンテンツAC1が利用者U1の中心視機能が優位に働く状態で見られていると推定する。
端末装置10は、広告コンテンツAC1が利用者U1の中心視機能が優位に働く状態で見られていると推定すると、広告コンテンツAC1の提供態様を通常から中心視用に変更する。例えば、端末装置10は、広告コンテンツAC1に含まれる文字や図形の数を通常よりも多くするように広告コンテンツAC1の表示態様を変更させることで、広告コンテンツAC1の提供態様を通常から中心視用に変更する。
また、端末装置10は、端末装置10の画面を含む平面上における利用者U1の中心視野および周辺視野を特定すると、視点位置P1から広告コンテンツAC2の表示位置までの距離を特定する。端末装置10は、視点位置P1から広告コンテンツAC2の表示位置(例えば、広告コンテンツAC2の表示領域R3の中心位置)までの距離を特定すると、特定した距離に基づいて、広告コンテンツAC2が利用者U1の周辺視野ER1に位置すると特定する。端末装置10は、広告コンテンツAC2が利用者U1の周辺視野ER1に位置すると特定すると、広告コンテンツAC2が利用者U1の周辺視機能が優位に働く状態で見られていると推定する。
端末装置10は、広告コンテンツAC2が利用者U1の周辺視機能が優位に働く状態で見られていると推定すると、広告コンテンツAC2の提供態様を通常から周辺視用に変更する。例えば、端末装置10は、広告コンテンツAC2に含まれる動画やアニメーションを通常よりも多く表示するように広告コンテンツAC2の表示態様を変更させることで、広告コンテンツAC2の提供態様を通常から周辺視用に変更する。
〔3.情報処理システムの構成〕
次に、図3を用いて、実施形態に係る情報処理システムの構成について説明する。図3は、実施形態に係る情報処理システムの構成例を示す図である。図3に示すように、情報処理システム1には、端末装置10と、サーバ装置50とが含まれる。端末装置10と、サーバ装置50とは所定のネットワークNを介して、有線または無線により通信可能に接続される。図3は、実施形態に係る情報処理システムの構成例を示す図である。なお、図3に示した情報処理システム1には、複数台の端末装置10や、複数台のサーバ装置50が含まれてもよい。
端末装置10は、利用者によって利用される情報処理装置(コンピュータ)である。端末装置10は、端末装置10を使用する利用者の視線を特定する。また、端末装置10は、特定した視線に基づいて、端末装置10の画面に表示されたコンテンツが利用者の中心視機能と周辺視機能のうちどちらが優位に働く状態で見られているかを推定した推定結果に基づいて、コンテンツの提供態様を変更する情報処理装置である。端末装置10は、種々のアプリケーション(「アプリ」ともいう)に関する情報を画面に表示する表示装置である。
端末装置10は、例えば、スマートフォンや、タブレット型端末や、ノート型PC(Personal Computer)や、デスクトップPCや、携帯電話機や、PDA(Personal Digital Assistant)等により実現される。以下では、端末装置10を利用者と表記する場合がある。すなわち、以下では、利用者を端末装置10と読み替えることもできる。例えば、図1では、端末装置10が利用者U1が利用するスマートフォンである場合を示す。なお、上記のように、「利用者U*(*は任意の数値)」と記載した場合、その利用者は利用者ID「U*」により識別される利用者であることを示す。例えば、「利用者U1」と記載した場合、その利用者は利用者ID「U1」により識別される利用者である。
また、端末装置10は、コンテンツを表示するためのアプリケーション(以下、コンテンツ表示アプリともいう)を実行する。例えば、端末装置10は、コンテンツ表示アプリのコンテンツの一例として、SNSの投稿記事やニュース記事などのコンテンツを画面に表示する。図2に示す例では、端末装置10は、画面の表示領域R1にコンテンツ表示アプリのコンテンツC1を表示する。また、端末装置10は、コンテンツ表示アプリの広告枠に表示される広告コンテンツをサーバ装置50から受信する。端末装置10は、サーバ装置50から受信した広告コンテンツをコンテンツ表示アプリの広告枠に表示する。図2に示す例では、端末装置10は、コンテンツ表示アプリの広告枠の一例として、画面の表示領域R2(表示領域R3)に広告コンテンツAC1(広告コンテンツAC2)を表示する。
また、端末装置10は、後述するセンサ部16を有する。例えば、端末装置10は、端末装置10を使用する利用者の視線を計測するための視線計測センサを備える。例えば、端末装置10は、眼球に直接接触しない視線計測センサを備える。例えば、端末装置10は、眼球に直接接触しない視線計測センサの一例として、角膜反射法(PCCR)によるアイトラッキングのための各種センサを備える。例えば、端末装置10は、利用者の角膜上に光の反射点を生じさせるための近赤外線LEDと、角膜上に生じた光の反射点を撮影するためのアイトラッキングカメラ(例えば、赤外線カメラ)を備える。また、端末装置10は、利用者の顔画像を撮影するカメラ(例えば、フロントカメラ)を備える。
サーバ装置50は、端末装置10を利用する利用者に広告コンテンツを配信する情報処理装置である。例えば、サーバ装置50は、端末装置10で実行されるコンテンツ表示アプリに表示される広告コンテンツを配信する。例えば、サーバ装置50は、端末装置10からの要求に応じて、端末装置10に表示される広告コンテンツを配信する。
〔4.端末装置の構成〕
次に、図4を用いて、実施形態に係る端末装置10の構成について説明する。図4は、実施形態に係る端末装置10の構成例を示す図である。図4に示すように、端末装置10は、通信部11と、入力部12と、表示部13と、記憶部14と、制御部15と、センサ部16とを有する。
(通信部11)
通信部11は、例えば、通信回路等によって実現される。そして、通信部11は、図示しない所定の通信網と有線または無線で接続され、外部の情報処理装置との間で情報の送受信を行う。例えば、通信部11は、図示しない所定の通信網と有線または無線で接続され、サーバ装置50との間で情報の送受信を行う。
(入力部12)
入力部12は、利用者から各種操作が入力される。例えば、入力部12は、タッチパネル機能により表示面(例えば表示部13)を介して利用者からの各種操作を受け付けてもよい。また、入力部12は、端末装置10に設けられたボタンや、端末装置10に接続されたキーボードやマウスからの各種操作を受け付けてもよい。
(表示部13)
表示部13は、例えば液晶ディスプレイや有機EL(Electro-Luminescence)ディスプレイ等によって実現されるタブレット端末等の表示画面であり、各種情報を表示するための表示装置である。
(記憶部14)
記憶部14は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。記憶部14は、例えば、端末装置10にインストールされているアプリケーション(例えば、コンテンツ表示アプリ)に関する情報、例えばプログラム等を記憶する。また、実施形態に係る記憶部14は、図4に示すように、利用者情報記憶部141を有する。
(利用者情報記憶部141)
利用者情報記憶部141は、利用者に関する各種の情報を記憶する。具体的には、利用者情報記憶部141は、利用者の視力に関する視力情報を利用者識別情報と対応付けて記憶する。例えば、利用者情報記憶部141は、利用者の視力が近視、遠視、または正常の状態であるという視力情報を利用者識別情報と対応付けて記憶する。また、利用者情報記憶部141は、利用者の中心視野の視野角度を示す情報、利用者の周辺視野の視野角度を示す情報、および利用者識別情報(例えば、利用者ID)を対応付けて記憶する。
(制御部15)
制御部15は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、端末装置10内部の記憶部14などの記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。例えば、この各種プログラムは、情報処理を行うアプリケーション(例えば、コンテンツ表示アプリ)のプログラムが含まれる。また、制御部15は、コントローラ(controller)であり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
図4に示すように、制御部15は、取得部151と、特定部152と、推定部153と、処理部154とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部15の内部構成は、図4に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部15が有する各処理部の接続関係は、図4に示した接続関係に限られず、他の接続関係であってもよい。
(取得部151)
取得部151は、センサ部16により検知されたセンサ情報を取得する。例えば、取得部151は、アイトラッキングカメラによって撮影された利用者の眼球の画像(角膜上の光の反射点と眼球の位置が撮影された画像)を取得する。なお、取得部151は、利用者がウェアラブルタイプのアイトラッカーを装着している場合には、利用者が装着しているアイトラッカーに搭載されたアイトラッキングカメラから、利用者の眼球の画像(角膜上の光の反射点と眼球の位置が撮影された画像)を取得してよい。また、例えば、取得部151は、端末装置10のカメラ(例えば、フロントカメラなど)によって撮影された利用者の顔画像を取得してよい。
また、取得部151は、利用者の中心視野の視野角度を示す情報を取得する。例えば、取得部151は、中心視野の視野角度として一般的な数値(例えば、30度)を取得する。また、取得部151は、利用者の周辺視野の視野角度を示す情報を取得する。例えば、取得部151は、周辺視野の視野角度として一般的な数値(例えば、100度)を取得する。取得部151は、利用者の中心視野の視野角度を示す情報や利用者の周辺視野の視野角度を示す情報を取得すると、取得した情報を利用者識別情報と対応付けて利用者情報記憶部141に格納する。
また、取得部151は、利用者の視力に関する視力情報を取得する。例えば、取得部151は、所定時間(例えば、5分間)にアイトラッキングカメラによって撮影された利用者の眼球の画像(角膜上の光の反射点と眼球の位置が撮影された画像)に基づいて、所定時間における所定時間ごとの(例えば、5分間における1分間ごとの)利用者の目と端末装置10の画面との距離をそれぞれ算出する。続いて、取得部151は、算出した所定時間における所定時間ごとの利用者の目と端末装置10の画面との距離に基づいて、利用者の視力が近視、遠視、または正常のいずれの状態であるかを推定する。例えば、取得部151は、所定時間における所定時間ごとの利用者の目と端末装置10の画面との距離の平均値を算出して、算出した平均値を利用者のピントが合う距離であると推定する。続いて、取得部151は、算出した平均値(利用者のピントが合う距離)とあらかじめ取得しておいた近視、遠視、および正常な視力の利用者のピントが合う距離とを比較して、利用者の視力が近視、遠視、または正常のいずれの状態であるかを推定する。取得部151は、利用者の視力が近視、遠視、または正常のいずれの状態であるかを推定すると、推定した利用者の視力情報を利用者識別情報と対応付けて利用者情報記憶部141に格納する。
なお、取得部151は、推定した利用者の視力情報に基づいて、利用者の中心視野の視野角度を示す情報や利用者の周辺視野の視野角度を示す情報を修正してよい。例えば、取得部151は、利用者の視力が近視(遠視)である場合には、中心視野の視野角度として一般的な数値(例えば、30度)をあらかじめ取得しておいた近視(遠視)の人の中心視野の視野角度として一般的な数値に修正してよい。また、取得部151は、利用者の視力が近視(遠視)である場合には、周辺視野の視野角度として一般的な数値(例えば、100度)をあらかじめ取得しておいた近視(遠視)の人の周辺視野の視野角度として一般的な数値に修正してよい。取得部151は、利用者の視力情報に基づいて修正した利用者の中心視野の視野角度を示す情報や利用者の周辺視野の視野角度を示す情報を利用者識別情報と対応付けて利用者情報記憶部141に格納する。
また、取得部151は、外部の情報処理装置から各種情報を取得する。例えば、取得部151は、サーバ装置50から端末装置10に表示される広告コンテンツを取得する。
(特定部152)
特定部152は、端末装置10を使用する利用者の視線を特定する。具体的には、特定部152は、端末装置10を使用する利用者の眼球の方向(視線の方向)を特定する。特定部152は、公知のアイトラッキング技術によって視線を特定してよい。例えば、特定部152は、取得部151によって取得された利用者の眼球の画像(角膜上の光の反射点と眼球の位置が撮影された画像)に基づいて、角膜上の光の反射点と瞳孔を識別する。続いて、特定部152は、光の反射点やその他の幾何学的特徴に基づいて、眼球の方向(視線の方向)を算出する。続いて、特定部152は、利用者の眼球の位置(目の位置)と算出した眼球の方向(視線の方向)とに基づいて、利用者の端末装置10の画面上における視点位置を特定する。また、例えば、特定部152は、利用者の顔画像から利用者の視線を特定するよう機械学習された機械学習モデル(例えば、スマホのアプリケーション)を用いて、取得部151によって取得された利用者の顔画像から利用者の眼球の位置(目の位置)と眼球の方向(視線の方向)を特定してよい。続いて、特定部152は、特定された利用者の眼球の位置(目の位置)と眼球の方向(視線の方向)とに基づいて、利用者の端末装置10の画面上における視点位置を特定してよい。
また、特定部152は、利用者の眼球の方向(視線の方向)を特定すると、利用者の目と端末装置10の画面との距離を特定する。例えば、特定部152は、利用者の眼球の位置(目の位置)と利用者の端末装置10の画面上における視点位置とに基づいて、利用者の目と端末装置10の画面上の視点位置との距離を特定する。
続いて、特定部152は、利用者の目と端末装置10の画面上の視点位置との距離を特定すると、特定した距離と取得部131によって取得された利用者の中心視野の視野角度とに基づいて、端末装置10の画面を含む平面上における利用者の中心視野を特定する。
また、特定部152は、利用者の目と端末装置10の画面上の視点位置との距離を特定すると、特定した距離と取得部131によって取得された利用者の周辺視野の視野角度とに基づいて、端末装置10の画面を含む平面上における利用者の周辺視野を特定する。
続いて、特定部152は、端末装置10の画面を含む平面上における利用者の中心視野および周辺視野を特定すると、視点位置から広告コンテンツの表示位置(例えば、広告コンテンツの表示領域の中心位置)までの距離を特定する。特定部152は、視点位置から広告コンテンツの表示位置までの距離を特定すると、特定した距離に基づいて、広告コンテンツが利用者の中心視野または周辺視野に位置するか否かを特定する。
(推定部153)
推定部153は、端末装置10の画面に表示された広告コンテンツが利用者の中心視機能と周辺視機能のうちどちらが優位に働く状態で見られているかを推定する。例えば、推定部153は、特定部152によって広告コンテンツが利用者の中心視野に位置すると特定された場合、その広告コンテンツが利用者の中心視機能が優位に働く状態で見られていると推定する。また、例えば、推定部153は、特定部152によって広告コンテンツが利用者の周辺視野に位置すると特定された場合、その広告コンテンツが利用者の周辺視機能が優位に働く状態で見られていると推定する。
(処理部154)
処理部154は、推定部153による推定結果に基づいて、広告コンテンツの提供態様を変更する。具体的には、処理部154は、推定部153によって広告コンテンツが利用者の中心視機能が優位に働く状態で見られていると推定された場合、広告コンテンツの提供態様を通常から中心視用に変更する。より具体的には、処理部154は、広告コンテンツに含まれる文字や図形の数を通常よりも多く表示するように広告コンテンツの表示態様を変更することで、広告コンテンツの提供態様を通常から周辺視用に変更する。例えば、処理部154は、広告コンテンツに含まれる文字や図形の大きさを通常よりも小さく表示するように広告コンテンツの表示態様を変更する。続いて、処理部154は、文字や図形の大きさを通常よりも小さく表示することで空いたスペースに、例えば、広告コンテンツに紐づくメタデータを文章化した文字を表示するようにして、広告コンテンツの表示態様を変更する。
また、処理部154は、推定部153によって広告コンテンツが利用者の周辺視機能が優位に働く状態で見られていると推定された場合、広告コンテンツの提供態様を通常から周辺視用に変更する。より具体的には、処理部154は、広告コンテンツに含まれる情報を通常よりも視覚的に強調した状態で表示することで、広告コンテンツの提供態様を通常から周辺視用に変更する。
例えば、処理部154は、広告コンテンツに含まれる文字や図形の大きさを通常よりも大きく表示するように広告コンテンツの表示態様を変更することで、広告コンテンツの提供態様を通常から周辺視用に変更する。例えば、処理部154は、広告コンテンツに含まれる文字のフォントを大きくして表示するように広告コンテンツの表示態様を変更する。また、処理部154は、広告コンテンツに含まれる文字を太さくして表示するように広告コンテンツの表示態様を変更する。また、例えば、処理部154は、広告コンテンツに表示されているアイコンやボタン、キャラクターの図形などの大きさを大きくして表示するように広告コンテンツの表示態様を変更する。
また、処理部154は、広告コンテンツに含まれる文字や図形のコントラストを通常よりも強く表示するように広告コンテンツの表示態様を変更することで、広告コンテンツの提供態様を通常から周辺視用に変更する。例えば、処理部154は、広告コンテンツに含まれる文字や図形と背景との色や明暗の差を強くして表示するように広告コンテンツの表示態様を変更する。
また、処理部154は、広告コンテンツに含まれる動的な情報を通常よりも多く表示するように広告コンテンツの表示態様を変更することで、広告コンテンツの提供態様を通常から周辺視用に変更する。例えば、処理部154は、広告コンテンツに含まれる動画またはアニメーションを通常よりも多く表示するように広告コンテンツの表示態様を変更する。例えば、処理部154は、広告コンテンツに表示されているアイコンやボタン、キャラクターの図形などの表示位置を時間的に変化させながら表示するように広告コンテンツの表示態様を変更する。また、処理部154は、広告コンテンツに表示されているアイコンやボタン、キャラクターの図形などの色や明るさを時間的に変化させながら表示するように広告コンテンツの表示態様を変更する。例えば、処理部154は、広告コンテンツに表示されているアイコンやボタン、キャラクターの図形などの明暗が逆になるように明るさを周期的に変化させながら表示するように広告コンテンツの表示態様を変更する。処理部154は、広告コンテンツに表示されているアイコンやボタン、キャラクターの図形などの色の白黒や赤青が反転するように色を周期的に変化させながら表示するように広告コンテンツの表示態様を変更する。
また、処理部154は、広告コンテンツに含まれる文字のうち所定の大きさよりも小さい文字の文字数を通常よりも少なく表示するように広告コンテンツの表示態様を変更することで、広告コンテンツの提供態様を通常から周辺視用に変更する。例えば、処理部154は、広告コンテンツに含まれる文字のうち細かい文字を表示しないように広告コンテンツの表示態様を変更する。
(センサ部16)
センサ部16は、アイトラッキングのための各種センサを備える。例えば、角膜反射法(PCCR)によって視線を特定する場合、センサ部16は、利用者の角膜上に光の反射点を生じさせるための近赤外線LEDと、角膜上に生じた光の反射点を撮影するためのアイトラッキングカメラ(例えば、赤外線カメラ)を備える。例えば、近赤外線LEDは、利用者の角膜上に光の反射点を生じさせる。アイトラッキングカメラは、利用者の眼球を撮影することで、角膜上の光の反射点と眼球の位置が撮影された画像を取得する。なお、センサ部16は、角膜反射法(PCCR)に限らず、公知のアイトラッキング技術によって視線を特定するための各種センサを備えてよい。例えば、センサ部16は、利用者の顔画像を撮影可能なカメラ(フロントカメラなど)を備える。
〔5.情報処理のフロー〕
次に、図5を用いて、実施形態に係る情報処理の手順について説明する。図5は、実施形態に係る情報処理の一例を示すフローチャートである。図5に示す例では、特定部152は、端末装置10を使用する利用者の視線を特定する(ステップS101)。推定部153は、特定部152により特定された視線に基づいて、端末装置10の画面に表示されたコンテンツが利用者の中心視機能と周辺視機能のうちどちらが優位に働く状態で見られているかを推定する(ステップS102)。処理部154は、推定部153による推定結果に基づいて、コンテンツの提供態様を変更する(ステップS103)。
〔6.変形例〕
上述した例では、端末装置10に表示されたコンテンツが利用者U1の中心視野(または周辺視野)に含まれる場合に、利用者U1の中心視機能(または周辺視機能)が優位に働く状態であると推定する場合について説明したが、これに限られない。
具体的には、端末装置10は、何らかの事情により、利用者が細かい形状や文字を視覚的に認識しやすい状態であると推定した場合には、利用者にとって周辺視機能よりも中心視機能に頼る方がコンテンツを見やすい状態(つまり、中心視機能が優位に働く状態)であると推定してよい。そして、端末装置10は、利用者の中心視機能が優位に働く状態であると推定すると、コンテンツの提供態様を通常から中心視用に変更してよい。
また、端末装置10は、何らかの事情により、利用者が細かい形状や文字を視覚的に認識しにくい状態、または利用者が時間的に変化する視覚情報(例えば、動画やアニメーション)を視覚的に認識しやすい状態であると推定した場合には、利用者にとっても中心視機能よりも周辺視機能に頼る方がコンテンツを見やすい状態(つまり、周辺視機能が優位に働く状態)であると推定してよい。そして、端末装置10は、利用者の周辺視機能が優位に働く状態であると推定すると、コンテンツの提供態様を通常から周辺視用に変更してよい。
例えば、何らかの事情として、近視または遠視により、利用者の目と端末装置10の画面との距離によって見え方が変わることが考え得られる。例えば、近視の人は、正常な人と比べて、ピントの合う距離が短い。そのため、近視の人は、正常な人よりも近くから端末装置10の画面を見るとピントが合って、正常な人と同じように細かい形状や文字を視覚的に認識しやすい状態になる。反対に、近視の人は、正常な人と同じ距離(またはそれよりも遠い距離)から端末装置10の画面を見てもピントが合わないため、細かい形状や文字を視覚的に認識しづらい状態になる。
例えば、推定部153は、近視の利用者が端末装置10の画面の近くから(例えば、第1距離以下の距離から)端末装置10の画面に表示された広告コンテンツを見ている場合には、利用者が細かい形状や文字を視覚的に認識しやすい状態であると推定する。すなわち、推定部153は、利用者が細かい形状や文字を視覚的に認識しやすい状態であるので、利用者にとって周辺視機能よりも中心視機能に頼る方が広告コンテンツを見やすい状態(つまり、中心視機能が優位に働く状態)であると推定する。したがって、処理部154は、近視の利用者が近くから端末装置10の画面に表示された広告コンテンツを見ている場合には、推定部153によって利用者の中心視機能が優位に働く状態であると推定されるため、広告コンテンツの提供態様を通常から中心視用に変更する。
これにより、端末装置10は、端末装置10の画面の近くから端末装置10の画面を見ている近視の利用者にとって視覚的に見やすい表示態様によって広告コンテンツを表示することができる。したがって、端末装置10は、端末装置10の画面の近くから端末装置10の画面を見ている近視の利用者に対する広告コンテンツに対する訴求効果を高めることができる。
一方、推定部153は、近視の利用者が端末装置10の画面の遠くから(例えば、第1距離を超える距離から)端末装置10の画面に表示された広告コンテンツを見ている場合には、利用者が細かい形状や文字を視覚的に認識しづらい状態であると推定する。すなわち、推定部153は、利用者が細かい形状や文字を視覚的に認識しづらい状態であるので、利用者にとって中心視機能よりも周辺視機能に頼る方が広告コンテンツを見やすい状態(つまり、周辺視機能が優位に働く状態)であると推定する。したがって、処理部154は、近視の利用者が遠くから端末装置10の画面に表示された広告コンテンツを見ている場合には、推定部153によって利用者の周辺視機能が優位に働く状態であると推定されるため、広告コンテンツの提供態様を通常から周辺視用に変更する。
これにより、端末装置10は、端末装置10の画面の遠くから端末装置10の画面を見ている近視の利用者にとって視覚的に見やすい表示態様によって広告コンテンツを表示することができる。したがって、端末装置10は、端末装置10の画面の遠くから端末装置10の画面を見ている近視の利用者に対する広告コンテンツに対する訴求効果を高めることができる。
また、遠視の人は、正常な人と比べて、ピントの合う距離が長い。そのため、遠視の人は、正常な人よりも遠くから端末装置10の画面を見るとピントが合って、正常な人と同じように細かい形状や文字を視覚的に認識しやすい状態になる。反対に、遠視の人は、正常な人と同じ距離(またはそれよりも近い距離)から端末装置10の画面を見てもピントが合わないため、細かい形状や文字を視覚的に認識しづらい状態になる。
例えば、推定部153は、遠視の利用者が端末装置10の画面の遠くから(例えば、第2距離を超える距離から)端末装置10の画面に表示された広告コンテンツを見ている場合には、利用者が細かい形状や文字を視覚的に認識しやすい状態であると推定する。すなわち、推定部153は、利用者が細かい形状や文字を視覚的に認識しやすい状態であるので、利用者にとって周辺視機能よりも中心視機能に頼る方が広告コンテンツを見やすい状態(つまり、中心視機能が優位に働く状態)であると推定する。したがって、処理部154は、遠視の利用者が遠くから端末装置10の画面に表示された広告コンテンツを見ている場合には、推定部153によって利用者の中心視機能が優位に働く状態であると推定されるため、広告コンテンツの提供態様を通常から中心視用に変更する。
これにより、端末装置10は、端末装置10の画面の遠くから端末装置10の画面を見ている遠視の利用者にとって視覚的に見やすい表示態様によって広告コンテンツを表示することができる。したがって、端末装置10は、端末装置10の画面の遠くから端末装置10の画面を見ている遠視の利用者に対する広告コンテンツに対する訴求効果を高めることができる。
一方、推定部153は、遠視の利用者が端末装置10の画面の近くから(例えば、第2距離以下の距離から)端末装置10の画面に表示された広告コンテンツを見ている場合には、利用者が細かい形状や文字を視覚的に認識しづらい状態であると推定する。すなわち、推定部153は、利用者が細かい形状や文字を視覚的に認識しづらい状態であるので、利用者にとって中心視機能よりも周辺視機能に頼る方が広告コンテンツを見やすい状態(つまり、周辺視機能が優位に働く状態)であると推定する。したがって、処理部154は、遠視の利用者が近くから端末装置10の画面に表示された広告コンテンツを見ている場合には、推定部153によって利用者の周辺視機能が優位に働く状態であると推定されるため、広告コンテンツの提供態様を通常から周辺視用に変更する。
これにより、端末装置10は、端末装置10の画面の近くから端末装置10の画面を見ている遠視の利用者にとって視覚的に見やすい表示態様によって広告コンテンツを表示することができる。したがって、端末装置10は、端末装置10の画面の近くから端末装置10の画面を見ている遠視の利用者に対する広告コンテンツに対する訴求効果を高めることができる。
次に、図6を用いて、変形例に係る情報処理の手順について説明する。図6は、変形例に係る情報処理の一例を示すフローチャートである。図6に示す例では、特定部152は、端末装置10を使用する利用者の視線を特定する(ステップS201)。続いて、特定部152は、特定した利用者の視線に基づいて、利用者の視力が近視の状態であるか否かを判定する(ステップS202)。
特定部152は、利用者の視力が近視の状態であると判定した場合(ステップS202;Yes)、利用者の目と端末装置10の画面との距離が第1距離以下であるか否かを判定する(ステップS203)。推定部153は、特定部152により利用者の目と端末装置10の画面との距離が第1距離以下であると判定された場合(ステップS203;Yes)、コンテンツが利用者の中心視機能が優位に働く状態で見られていると推定する(ステップS207)。処理部154は、推定部153によってコンテンツが利用者の中心視機能が優位に働く状態で見られていると推定された場合、コンテンツの提供態様を通常から中心視用に変更する(ステップS209)。
一方、推定部153は、特定部152により利用者の目と端末装置10の画面との距離が第1距離以下でない(つまり、第1距離を超える)と判定された場合(ステップS203;No)、コンテンツが利用者の周辺視機能が優位に働く状態で見られていると推定する(ステップS208)。処理部154は、推定部153によってコンテンツが利用者の周辺視機能が優位に働く状態で見られていると推定された場合、コンテンツの提供態様を通常から周辺視用に変更する(ステップS210)。
また、一方、特定部152は、利用者の視力が近視の状態でないと判定した場合(ステップS202;No)、利用者の視力が遠視の状態であるか否かを判定する(ステップS204)。
特定部152は、利用者の視力が遠視の状態であると判定した場合(ステップS204;Yes)、利用者の目と端末装置10の画面との距離が第2距離以下であるか否かを判定する(ステップS206)。推定部153は、特定部152により利用者の目と端末装置10の画面との距離が第2距離以下であると判定された場合(ステップS206;Yes)、コンテンツが利用者の周辺視機能が優位に働く状態で見られていると推定する(ステップS208)。処理部154は、推定部153によってコンテンツが利用者の周辺視機能が優位に働く状態で見られていると推定された場合、コンテンツの提供態様を通常から周辺視用に変更する(ステップS210)。
一方、推定部153は、特定部152により利用者の目と端末装置10の画面との距離が第2距離以下でない(つまり、第2距離を超える)と判定された場合(ステップS206;No)、コンテンツが利用者の中心視機能が優位に働く状態で見られていると推定する(ステップS207)。処理部154は、推定部153によってコンテンツが利用者の中心視機能が優位に働く状態で見られていると推定された場合、コンテンツの提供態様を通常から中心視用に変更する(ステップS209)。
また、一方、特定部152は、利用者の視力が遠視の状態でないと判定した場合(ステップS204;No)、利用者の目と端末装置10の画面との距離が第3距離以下であるか否かを判定する(ステップS205)。推定部153は、特定部152により利用者の目と端末装置10の画面との距離が第3距離以下であると判定された場合(ステップS205;Yes)、コンテンツが利用者の中心視機能が優位に働く状態で見られていると推定する(ステップS207)。処理部154は、推定部153によってコンテンツが利用者の中心視機能が優位に働く状態で見られていると推定された場合、コンテンツの提供態様を通常から中心視用に変更する(ステップS209)。
一方、推定部153は、特定部152により利用者の目と端末装置10の画面との距離が第3距離以下でない(つまり、第3距離を超える)と判定された場合(ステップS205;No)、コンテンツが利用者の周辺視機能が優位に働く状態で見られていると推定する(ステップS208)。処理部154は、推定部153によってコンテンツが利用者の周辺視機能が優位に働く状態で見られていると推定された場合、コンテンツの提供態様を通常から周辺視用に変更する(ステップS210)。
〔7.効果〕
上述してきたように、実施形態に係る情報処理装置(実施形態では「端末装置10」。以下同様)は、特定部152と、推定部153と、処理部154を有する。特定部152は、端末装置10を使用する利用者の視線を特定する。推定部153は、特定部152により特定された視線に基づいて、端末装置10の画面に表示されたコンテンツが利用者の中心視機能と周辺視機能のうちどちらが優位に働く状態で見られているかを推定する。処理部154は、推定部153による推定結果に基づいて、コンテンツの提供態様を変更する。
これにより、情報処理装置は、端末装置10の画面に表示されたコンテンツが利用者の中心視機能と周辺視機能のうちどちらが優位に働く状態で見られているかに応じて、端末装置10におけるコンテンツの提供態様を最適化することができる。例えば、情報処理装置は、端末装置10の画面に表示されたコンテンツが利用者の中心視機能が優位に働く状態で見られていると推定される場合には、利用者が細かい文字や形状も視認することができる状態なので、情報量の多いコンテンツ(例えば、広告コンテンツ)を表示させるようにすることができる。また、例えば、情報処理装置は、端末装置10の画面に表示されたコンテンツが利用者の周辺視機能が優位に働く状態で見られていると推定される場合には、利用者が細かい文字や形状も視認することが難しい状態なので、細かい文字がなく、動画やアニメーションといった動的な視覚情報を含むコンテンツ(例えば、広告コンテンツ)を表示させるようにすることができる。したがって、情報処理装置は、端末装置10におけるコンテンツの提供態様を最適化することができるので、コンテンツの訴求効果を向上させることができる。
また、特定部152は、特定した利用者の視線に基づいて、利用者の端末装置10の画面上における視点位置からコンテンツの表示位置までの距離を特定する。推定部153は、特定部152により特定された距離に基づいて、コンテンツが利用者の中心視機能と周辺視機能のうちどちらが優位に働く状態で見られているかを推定する。
これにより、情報処理装置は、端末装置10の画面に表示されたコンテンツが利用者の中心視野と周辺視野のうちどちらに位置するかに基づいて、端末装置10の画面に表示されたコンテンツが利用者の中心視機能と周辺視機能のうちどちらが優位に働く状態で見られているかを適切に推定することができる。
また、特定部152は、特定した利用者の視線に基づいて、利用者の目と端末装置10の画面との距離を特定する。推定部153は、特定部152により特定された距離に基づいて、コンテンツが利用者の中心視機能と周辺視機能のうちどちらが優位に働く状態で見られているかを推定する。
これにより、情報処理装置は、利用者の目と端末装置10の画面との距離に応じて変化する利用者の中心視野と周辺視野を適切に推定したうえで、端末装置10の画面に表示されたコンテンツが利用者の中心視機能と周辺視機能のうちどちらが優位に働く状態で見られているかを適切に推定することができる。
また、特定部152は、特定した利用者の視線に基づいて、利用者の視力に関する視力情報を特定する。推定部153は、特定部152により特定された視力情報に基づいて、コンテンツが利用者の中心視機能と周辺視機能のうちどちらが優位に働く状態で見られているかを推定する。
これにより、情報処理装置は、利用者の視力に応じて変化する利用者の中心視野と周辺視野を適切に推定したうえで、端末装置10の画面に表示されたコンテンツが利用者の中心視機能と周辺視機能のうちどちらが優位に働く状態で見られているかを適切に推定することができる。
また、推定部153は、特定部152により利用者の視力が近視の状態であって、かつ、利用者の目と端末装置10の画面との距離が第1距離を超えていると特定された場合には、コンテンツが利用者の周辺視機能が優位に働く状態で見られていると推定する。
これにより、情報処理装置は、端末装置10の画面の遠くから端末装置10の画面を見ている近視の利用者にとって視覚的に見やすい表示態様によってコンテンツを表示可能とすることができる。したがって、端末装置10は、端末装置10の画面の遠くから端末装置10の画面を見ている近視の利用者に対するコンテンツに対する訴求効果を高めることができる。
また、推定部153は、特定部152により利用者の視力が近視の状態であって、かつ、利用者の目と端末装置10の画面との距離が第1距離以下であると特定された場合には、コンテンツが利用者の中心視機能が優位に働く状態で見られていると推定する。
これにより、情報処理装置は、端末装置10の画面の近くから端末装置10の画面を見ている近視の利用者にとって視覚的に見やすい表示態様によってコンテンツを表示可能とすることができる。したがって、端末装置10は、端末装置10の画面の近くから端末装置10の画面を見ている近視の利用者に対するコンテンツに対する訴求効果を高めることができる。
また、推定部153は、特定部152により利用者の視力が遠視の状態であって、かつ、利用者の目と端末装置10の画面との距離が第2距離を超えていると特定された場合には、コンテンツが利用者の中心視機能が優位に働く状態で見られていると推定する。
これにより、情報処理装置は、端末装置10の画面の遠くから端末装置10の画面を見ている遠視の利用者にとって視覚的に見やすい表示態様によってコンテンツを表示可能とすることができる。したがって、端末装置10は、端末装置10の画面の遠くから端末装置10の画面を見ている遠視の利用者に対するコンテンツに対する訴求効果を高めることができる。
また、推定部153は、特定部152により利用者の視力が遠視の状態であって、かつ、利用者の目と端末装置10の画面との距離が第2距離以下であると特定された場合には、コンテンツが利用者の周辺視機能が優位に働く状態で見られていると推定する。
これにより、情報処理装置は、端末装置10の画面の近くから端末装置10の画面を見ている遠視の利用者にとって視覚的に見やすい表示態様によってコンテンツを表示可能とすることができる。したがって、端末装置10は、端末装置10の画面の近くから端末装置10の画面を見ている遠視の利用者に対するコンテンツに対する訴求効果を高めることができる。
また、処理部154は、推定部153によってコンテンツが利用者の周辺視機能が優位に働く状態で見られていると推定された場合、コンテンツの提供態様を通常から周辺視用に変更する。
これにより、情報処理装置は、端末装置10の画面に表示されたコンテンツが利用者の周辺視機能が優位に働く状態で見られている場合に、利用者にとって視覚的に見やすい表示態様によってコンテンツを表示可能とすることができる。したがって、端末装置10は、利用者に対するコンテンツに対する訴求効果を高めることができる。
また、処理部154は、コンテンツに含まれる情報を通常よりも視覚的に強調した状態で表示することで、コンテンツの提供態様を通常から周辺視用に変更する。例えば、処理部154は、コンテンツに含まれる文字または図形の大きさを通常よりも大きく表示することで、コンテンツの提供態様を通常から周辺視用に変更する。また、処理部154は、コンテンツに含まれる文字または図形のコントラストを通常よりも強く表示することで、コンテンツの提供態様を通常から周辺視用に変更する。また、処理部154は、コンテンツに含まれる文字のうち所定の大きさよりも小さい文字の文字数を通常よりも少なく表示することで、コンテンツの提供態様を通常から周辺視用に変更する。
これにより、情報処理装置は、利用者の周辺視機能が優位に働く状態で利用者にとって視覚的に知覚しやすい表示態様によってコンテンツを表示可能とすることができる。
また、処理部154は、コンテンツに含まれる動的な情報を通常よりも多く表示することで、コンテンツの提供態様を通常から周辺視用に変更する。例えば、処理部154は、
コンテンツに含まれる動画またはアニメーションを通常よりも多く表示することで、コンテンツの提供態様を通常から周辺視用に変更する。
これにより、情報処理装置は、利用者の周辺視機能が優位に働く状態で利用者にとって視覚的に知覚しやすい表示態様によってコンテンツを表示可能とすることができる。
また、処理部154は、推定部153によってコンテンツが利用者の中心視機能が優位に働く状態で見られていると推定された場合、コンテンツの提供態様を通常から中心視用に変更する。
これにより、情報処理装置は、端末装置10の画面に表示されたコンテンツが利用者の中心視機能が優位に働く状態で見られている場合に、利用者にとって視覚的に見やすい表示態様によってコンテンツを表示可能とすることができる。したがって、端末装置10は、利用者に対するコンテンツに対する訴求効果を高めることができる。
また、処理部154は、コンテンツに含まれる文字または図形の数を通常よりも多く表示することで、コンテンツの提供態様を通常から中心視用に変更する。また、処理部154は、コンテンツに含まれる文字または図形の大きさを通常よりも小さく表示することで、コンテンツの提供態様を通常から中心視用に変更する。
これにより、情報処理装置は、利用者の中心視機能が優位に働く状態で利用者にとって視覚的に知覚しやすい表示態様によってコンテンツを表示可能とすることができる。
〔8.プログラム〕
上述してきた端末装置10による処理は、本願に係る情報処理プログラムにより実現される。例えば、端末装置10に係る推定部153は、端末装置10が有するCPUやMPU等によって、情報処理プログラムがRAMを作業領域として、情報処理プログラムに係る処理手順が実行されることにより実現される。例えば、端末装置10に係る推定部153は、端末装置10が有するCPUやMPU等によって、情報処理プログラムがRAMを作業領域として、情報処理プログラムに係るコンテンツの提供態様の変更処理等の最適化に関する情報処理手順が実行されることにより実現される。端末装置10に係る他の部も同様に、情報処理プログラムによる各手順が実行されることにより実現される。例えば、情報処理プログラムはコンテンツを表示するアプリやホームアプリ等に含まれてもよい。
なお、本願に係る端末装置10が実行する処理は、必ずしも全てが情報処理プログラムによって実現されるものでなくてもよい。例えば、センサ部16は、端末装置10における各種のセンサ情報を検知する。このとき、端末装置10における各種のセンサ情報等は、端末装置10が有するOS(Operating System)によって検知されてもよい。すなわち、情報処理プログラム自体が、上述してきたような端末装置10で実行される処理を実行するのではなく、OSによって取得されたデータ(例えば、端末装置10が有するセンサや回路等を利用して取得されるデータ)を受け取ったり、検知したりすることにより、上述してきた端末装置10の処理を実現するようにしてもよい。また、端末装置10が有するOSに情報処理プログラムが含まれてもよい。
〔9.ハードウェア構成〕
また、上述した実施形態に係る端末装置10は、例えば図7に示すような構成のコンピュータ1000によって実現される。図7は、ハードウェア構成の一例を示す図である。コンピュータ1000は、出力装置1010、入力装置1020と接続され、演算装置1030、一次記憶装置1040、二次記憶装置1050、出力I/F(Interface)1060、入力I/F1070、ネットワークI/F1080がバス1090により接続された形態を有する。
演算装置1030は、一次記憶装置1040や二次記憶装置1050に格納されたプログラムや入力装置1020から読み出したプログラム等に基づいて動作し、各種の処理を実行する。演算装置1030は、例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等により実現される。
一次記憶装置1040は、RAM(Random Access Memory)等、演算装置1030が各種の演算に用いるデータを一次的に記憶するメモリ装置である。また、二次記憶装置1050は、演算装置1030が各種の演算に用いるデータや、各種のデータベースが登録される記憶装置であり、ROM(Read Only Memory)、HDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリ等により実現される。二次記憶装置1050は、内蔵ストレージであってもよいし、外付けストレージであってもよい。また、二次記憶装置1050は、USBメモリやSD(Secure Digital)メモリカード等の取り外し可能な記憶媒体であってもよい。また、二次記憶装置1050は、クラウドストレージ(オンラインストレージ)やNAS(Network Attached Storage)、ファイルサーバ等であってもよい。
出力I/F1060は、ディスプレイ、プロジェクタ、及びプリンタ等といった各種の情報を出力する出力装置1010に対し、出力対象となる情報を送信するためのインターフェイスであり、例えば、USB(Universal Serial Bus)やDVI(Digital Visual Interface)、HDMI(登録商標)(High Definition Multimedia Interface)といった規格のコネクタにより実現される。また、入力I/F1070は、マウス、キーボード、キーパッド、ボタン、及びスキャナ等といった各種の入力装置1020から情報を受信するためのインターフェイスであり、例えば、USB等により実現される。
また、出力I/F1060及び入力I/F1070はそれぞれ出力装置1010及び入力装置1020と無線で接続してもよい。すなわち、出力装置1010及び入力装置1020は、ワイヤレス機器であってもよい。
また、出力装置1010及び入力装置1020は、タッチパネルのように一体化していてもよい。この場合、出力I/F1060及び入力I/F1070も、入出力I/Fとして一体化していてもよい。
なお、入力装置1020は、例えば、CD(Compact Disc)、DVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、又は半導体メモリ等から情報を読み出す装置であってもよい。
ネットワークI/F1080は、ネットワークNを介して他の機器からデータを受信して演算装置1030へ送り、また、ネットワークNを介して演算装置1030が生成したデータを他の機器へ送信する。
演算装置1030は、出力I/F1060や入力I/F1070を介して、出力装置1010や入力装置1020の制御を行う。例えば、演算装置1030は、入力装置1020や二次記憶装置1050からプログラムを一次記憶装置1040上にロードし、ロードしたプログラムを実行する。
例えば、コンピュータ1000が端末装置10として機能する場合、コンピュータ1000の演算装置1030は、一次記憶装置1040上にロードされたプログラムを実行することにより、制御部15の機能を実現する。また、コンピュータ1000の演算装置1030は、ネットワークI/F1080を介して他の機器から取得したプログラムを一次記憶装置1040上にロードし、ロードしたプログラムを実行してもよい。また、コンピュータ1000の演算装置1030は、ネットワークI/F1080を介して他の機器と連携し、プログラムの機能やデータ等を他の機器の他のプログラムから呼び出して利用してもよい。
以上、本願の実施形態および変形例のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の行に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。
〔10.その他〕
また、上記各実施形態および変形例において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、上述した例では、端末装置10がコンテンツの提供態様の変更処理を行う情報処理装置である場合を一例として説明したが、表示を行う装置(例えば端末装置10)と、コンテンツの提供態様の変更処理を行う情報処理装置とは別体であってもよい。例えば、サーバ装置50が端末装置10を使用する利用者の視線に応じてコンテンツの提供態様の変更処理を行う情報処理装置であり、端末装置10は、サーバ装置50から受信したコンテンツを表示してもよい。
また、上述してきた各実施形態および変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。
また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、推定部は、推定手段や推定回路に読み替えることができる。
1 情報処理システム
10 端末装置
11 通信部
12 入力部
13 表示部
14 記憶部
141 利用者情報記憶部
15 制御部
151 取得部
152 特定部
153 推定部
154 処理部
16 センサ部
50 サーバ装置

Claims (20)

  1. 端末装置を使用する利用者の視線を特定する特定部と、
    前記特定部により特定された視線に基づいて、前記端末装置の画面に表示されたコンテンツが前記利用者の中心視機能と周辺視機能のうちどちらが優位に働く状態で見られているかを推定する推定部と、
    前記推定部による推定結果に基づいて、前記コンテンツの提供態様を変更する処理部と、
    を備えることを特徴とする情報処理装置。
  2. 前記特定部は、
    特定した前記利用者の視線に基づいて、前記利用者の前記端末装置の画面上における視点位置から前記コンテンツの表示位置までの距離を特定し、
    前記推定部は、
    前記特定部により特定された距離に基づいて、前記コンテンツが前記利用者の中心視機能と周辺視機能のうちどちらが優位に働く状態で見られているかを推定する、
    ことを特徴とする請求項1に記載の情報処理装置。
  3. 前記特定部は、
    特定した前記利用者の視線に基づいて、前記利用者の目と前記端末装置の画面との距離を特定し、
    前記推定部は、
    前記特定部により特定された距離に基づいて、前記コンテンツが前記利用者の中心視機能と周辺視機能のうちどちらが優位に働く状態で見られているかを推定する、
    ことを特徴とする請求項1または2に記載の情報処理装置。
  4. 前記特定部は、
    特定した前記利用者の視線に基づいて、前記利用者の視力に関する視力情報を特定し、
    前記推定部は、
    前記特定部により特定された視力情報に基づいて、前記コンテンツが前記利用者の中心視機能と周辺視機能のうちどちらが優位に働く状態で見られているかを推定する、
    ことを特徴とする請求項1~3のいずれか1つに記載の情報処理装置。
  5. 前記推定部は、
    前記特定部により前記利用者の視力が近視の状態であって、かつ、前記利用者の目と前記端末装置の画面との距離が第1距離を超えていると特定された場合には、前記コンテンツが前記利用者の周辺視機能が優位に働く状態で見られていると推定する、
    ことを特徴とする請求項1~4のいずれか1つに記載の情報処理装置。
  6. 前記推定部は、
    前記特定部により前記利用者の視力が近視の状態であって、かつ、前記利用者の目と前記端末装置の画面との距離が第1距離以下であると特定された場合には、前記コンテンツが前記利用者の中心視機能が優位に働く状態で見られていると推定する、
    ことを特徴とする請求項1~4のいずれか1つに記載の情報処理装置。
  7. 前記推定部は、
    前記特定部により前記利用者の視力が遠視の状態であって、かつ、前記利用者の目と前記端末装置の画面との距離が第2距離を超えていると特定された場合には、前記コンテンツが前記利用者の中心視機能が優位に働く状態で見られていると推定する、
    ことを特徴とする請求項1~4のいずれか1つに記載の情報処理装置。
  8. 前記推定部は、
    前記特定部により前記利用者の視力が遠視の状態であって、かつ、前記利用者の目と前記端末装置の画面との距離が第2距離以下であると特定された場合には、前記コンテンツが前記利用者の周辺視機能が優位に働く状態で見られていると推定する、
    ことを特徴とする請求項1~4のいずれか1つに記載の情報処理装置。
  9. 前記処理部は、
    前記推定部によって前記コンテンツが前記利用者の周辺視機能が優位に働く状態で見られていると推定された場合、前記コンテンツの提供態様を通常から周辺視用に変更する、
    ことを特徴とする請求項1~8のいずれか1つに記載の情報処理装置。
  10. 前記処理部は、
    前記コンテンツに含まれる情報を通常よりも視覚的に強調した状態で表示することで、前記コンテンツの提供態様を通常から周辺視用に変更する、
    ことを特徴とする請求項9に記載の情報処理装置。
  11. 前記処理部は、
    前記コンテンツに含まれる文字または図形の大きさを通常よりも大きく表示することで、前記コンテンツの提供態様を通常から周辺視用に変更する、
    ことを特徴とする請求項9または10に記載の情報処理装置。
  12. 前記処理部は、
    前記コンテンツに含まれる文字または図形のコントラストを通常よりも強く表示することで、前記コンテンツの提供態様を通常から周辺視用に変更する、
    ことを特徴とする請求項9~11のいずれか1つに記載の情報処理装置。
  13. 前記処理部は、
    前記コンテンツに含まれる動的な情報を通常よりも多く表示することで、前記コンテンツの提供態様を通常から周辺視用に変更する、
    ことを特徴とする請求項9~12のいずれか1つに記載の情報処理装置。
  14. 前記処理部は、
    前記コンテンツに含まれる動画またはアニメーションを通常よりも多く表示することで、前記コンテンツの提供態様を通常から周辺視用に変更する、
    ことを特徴とする請求項13に記載の情報処理装置。
  15. 前記処理部は、
    前記コンテンツに含まれる文字のうち所定の大きさよりも小さい文字の文字数を通常よりも少なく表示することで、前記コンテンツの提供態様を通常から周辺視用に変更する、
    ことを特徴とする請求項9~14のいずれか1つに記載の情報処理装置。
  16. 前記処理部は、
    前記推定部によって前記コンテンツが前記利用者の中心視機能が優位に働く状態で見られていると推定された場合、前記コンテンツの提供態様を通常から中心視用に変更する、
    ことを特徴とする請求項1~8のいずれか1つに記載の情報処理装置。
  17. 前記処理部は、
    前記コンテンツに含まれる文字または図形の数を通常よりも多く表示することで、前記コンテンツの提供態様を通常から中心視用に変更する、
    ことを特徴とする請求項16に記載の情報処理装置。
  18. 前記処理部は、
    前記コンテンツに含まれる文字または図形の大きさを通常よりも小さく表示することで、前記コンテンツの提供態様を通常から中心視用に変更する、
    ことを特徴とする請求項16または17に記載の情報処理装置。
  19. コンピュータが実行する情報処理方法であって、
    端末装置を使用する利用者の視線を特定する特定工程と、
    前記特定工程により特定された視線に基づいて、前記端末装置の画面に表示されたコンテンツが前記利用者の中心視機能と周辺視機能のうちどちらが優位に働く状態で見られているかを推定する推定工程と、
    前記推定工程による推定結果に基づいて、前記コンテンツの提供態様を変更する処理工程と、
    を含むことを特徴とする情報処理方法。
  20. 端末装置を使用する利用者の視線を特定する特定手順と、
    前記特定手順により特定された視線に基づいて、前記端末装置の画面に表示されたコンテンツが前記利用者の中心視機能と周辺視機能のうちどちらが優位に働く状態で見られているかを推定する推定手順と、
    前記推定手順による推定結果に基づいて、前記コンテンツの提供態様を変更する処理手順と、
    をコンピュータに実行させることを特徴とする情報処理プログラム。
JP2021032128A 2021-03-01 2021-03-01 情報処理装置、情報処理方法、及び情報処理プログラム Pending JP2022133176A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021032128A JP2022133176A (ja) 2021-03-01 2021-03-01 情報処理装置、情報処理方法、及び情報処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021032128A JP2022133176A (ja) 2021-03-01 2021-03-01 情報処理装置、情報処理方法、及び情報処理プログラム

Publications (1)

Publication Number Publication Date
JP2022133176A true JP2022133176A (ja) 2022-09-13

Family

ID=83229632

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021032128A Pending JP2022133176A (ja) 2021-03-01 2021-03-01 情報処理装置、情報処理方法、及び情報処理プログラム

Country Status (1)

Country Link
JP (1) JP2022133176A (ja)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003291688A (ja) * 2002-04-03 2003-10-15 Denso Corp 表示方法、運転支援装置、プログラム
JP2013171440A (ja) * 2012-02-21 2013-09-02 Kyocera Corp 携帯端末
JP2014137627A (ja) * 2013-01-15 2014-07-28 Sony Corp 入力装置、出力装置および記憶媒体
JP2015069423A (ja) * 2013-09-30 2015-04-13 沖電気工業株式会社 表示制御装置、表示制御方法およびプログラム
JP2017068629A (ja) * 2015-09-30 2017-04-06 アイシン・エィ・ダブリュ株式会社 情報提供システム、情報提供方法及びコンピュータプログラム
JP2017193190A (ja) * 2016-04-18 2017-10-26 ソニー株式会社 画像表示装置及び画像表示装置、並びに移動体
JP2018500957A (ja) * 2014-11-27 2018-01-18 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 視力と聴力を評価するためのシステムと方法
JP2019533824A (ja) * 2016-07-25 2019-11-21 マジック リープ, インコーポレイテッドMagic Leap,Inc. 拡張現実および仮想現実アイウェアを用いた結像修正、表示、および可視化
JP2020104714A (ja) * 2018-12-27 2020-07-09 スズキ株式会社 自動車の情報表示装置および情報表示方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003291688A (ja) * 2002-04-03 2003-10-15 Denso Corp 表示方法、運転支援装置、プログラム
JP2013171440A (ja) * 2012-02-21 2013-09-02 Kyocera Corp 携帯端末
JP2014137627A (ja) * 2013-01-15 2014-07-28 Sony Corp 入力装置、出力装置および記憶媒体
JP2015069423A (ja) * 2013-09-30 2015-04-13 沖電気工業株式会社 表示制御装置、表示制御方法およびプログラム
JP2018500957A (ja) * 2014-11-27 2018-01-18 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 視力と聴力を評価するためのシステムと方法
JP2017068629A (ja) * 2015-09-30 2017-04-06 アイシン・エィ・ダブリュ株式会社 情報提供システム、情報提供方法及びコンピュータプログラム
JP2017193190A (ja) * 2016-04-18 2017-10-26 ソニー株式会社 画像表示装置及び画像表示装置、並びに移動体
JP2019533824A (ja) * 2016-07-25 2019-11-21 マジック リープ, インコーポレイテッドMagic Leap,Inc. 拡張現実および仮想現実アイウェアを用いた結像修正、表示、および可視化
JP2020104714A (ja) * 2018-12-27 2020-07-09 スズキ株式会社 自動車の情報表示装置および情報表示方法

Similar Documents

Publication Publication Date Title
US11727695B2 (en) Language element vision augmentation methods and devices
US11726324B2 (en) Display system
EP3571673B1 (en) Method for displaying virtual image, storage medium and electronic device therefor
US9996983B2 (en) Manipulation of virtual object in augmented reality via intent
US8810413B2 (en) User fatigue
AU2014275189B2 (en) Manipulation of virtual object in augmented reality via thought
US9684374B2 (en) Eye reflection image analysis
US11861837B2 (en) Utilization of luminance changes to determine user characteristics
US10643362B2 (en) Message location based on limb location
TW201306573A (zh) 具有影像擷取及分析模組之顯示裝置
US11960652B2 (en) User interactions with remote devices
JP2022133176A (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
US20230351676A1 (en) Transitioning content in views of three-dimensional environments using alternative positional constraints
US20240212291A1 (en) Attention control in multi-user environments
US20240212343A1 (en) Contextualized visual search
US20240119643A1 (en) Image processing device, image processing method, and computer-readable storage medium
US20240164677A1 (en) Attention detection
WO2023049089A1 (en) Interaction events based on physiological response to illumination

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230417

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230718