JP2022133176A - 情報処理装置、情報処理方法、及び情報処理プログラム - Google Patents
情報処理装置、情報処理方法、及び情報処理プログラム Download PDFInfo
- Publication number
- JP2022133176A JP2022133176A JP2021032128A JP2021032128A JP2022133176A JP 2022133176 A JP2022133176 A JP 2022133176A JP 2021032128 A JP2021032128 A JP 2021032128A JP 2021032128 A JP2021032128 A JP 2021032128A JP 2022133176 A JP2022133176 A JP 2022133176A
- Authority
- JP
- Japan
- Prior art keywords
- user
- content
- terminal device
- unit
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 96
- 238000003672 processing method Methods 0.000 title claims description 7
- 230000005043 peripheral vision Effects 0.000 claims abstract description 93
- 238000012545 processing Methods 0.000 claims abstract description 77
- 230000004438 eyesight Effects 0.000 claims abstract description 76
- 210000001508 eye Anatomy 0.000 claims description 44
- 206010020675 Hypermetropia Diseases 0.000 claims description 26
- 238000000034 method Methods 0.000 claims description 22
- 230000004304 visual acuity Effects 0.000 claims description 22
- 230000004305 hyperopia Effects 0.000 claims description 14
- 201000006318 hyperopia Diseases 0.000 claims description 14
- 208000001491 myopia Diseases 0.000 claims description 11
- 230000004379 myopia Effects 0.000 claims description 8
- 230000008569 process Effects 0.000 claims description 6
- 230000006870 function Effects 0.000 description 86
- 230000000007 visual effect Effects 0.000 description 72
- 230000002093 peripheral effect Effects 0.000 description 21
- 210000005252 bulbus oculi Anatomy 0.000 description 20
- 230000008859 change Effects 0.000 description 16
- 230000000694 effects Effects 0.000 description 13
- 238000010586 diagram Methods 0.000 description 11
- 210000004087 cornea Anatomy 0.000 description 10
- 238000004891 communication Methods 0.000 description 9
- 230000004048 modification Effects 0.000 description 8
- 238000012986 modification Methods 0.000 description 8
- 230000004382 visual function Effects 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 3
- 238000001028 reflection method Methods 0.000 description 3
- 210000004556 brain Anatomy 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000005452 bending Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Telephone Function (AREA)
- Position Input By Displaying (AREA)
Abstract
Description
〔1.はじめに〕
まず、図1を用いて、人の視野と視機能について説明する。図1は、利用者の中心視野と周辺視野について説明するための図である。図1は、利用者U1を頭上から見たときの利用者U1の視野の範囲を示す。
次に、図2を用いて、実施形態に係る情報処理の一例について説明する。図2は、実施形態に係る情報処理の一例を示す図である。図2では、端末装置10が、コンテンツC1、広告コンテンツAC1、および広告コンテンツAC2を画面に表示している。このとき、端末装置10は、端末装置10を使用する利用者U1の視線を特定する。ここで、利用者U1は、図1に示した利用者U1である。
次に、図3を用いて、実施形態に係る情報処理システムの構成について説明する。図3は、実施形態に係る情報処理システムの構成例を示す図である。図3に示すように、情報処理システム1には、端末装置10と、サーバ装置50とが含まれる。端末装置10と、サーバ装置50とは所定のネットワークNを介して、有線または無線により通信可能に接続される。図3は、実施形態に係る情報処理システムの構成例を示す図である。なお、図3に示した情報処理システム1には、複数台の端末装置10や、複数台のサーバ装置50が含まれてもよい。
次に、図4を用いて、実施形態に係る端末装置10の構成について説明する。図4は、実施形態に係る端末装置10の構成例を示す図である。図4に示すように、端末装置10は、通信部11と、入力部12と、表示部13と、記憶部14と、制御部15と、センサ部16とを有する。
通信部11は、例えば、通信回路等によって実現される。そして、通信部11は、図示しない所定の通信網と有線または無線で接続され、外部の情報処理装置との間で情報の送受信を行う。例えば、通信部11は、図示しない所定の通信網と有線または無線で接続され、サーバ装置50との間で情報の送受信を行う。
入力部12は、利用者から各種操作が入力される。例えば、入力部12は、タッチパネル機能により表示面(例えば表示部13)を介して利用者からの各種操作を受け付けてもよい。また、入力部12は、端末装置10に設けられたボタンや、端末装置10に接続されたキーボードやマウスからの各種操作を受け付けてもよい。
表示部13は、例えば液晶ディスプレイや有機EL(Electro-Luminescence)ディスプレイ等によって実現されるタブレット端末等の表示画面であり、各種情報を表示するための表示装置である。
記憶部14は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。記憶部14は、例えば、端末装置10にインストールされているアプリケーション(例えば、コンテンツ表示アプリ)に関する情報、例えばプログラム等を記憶する。また、実施形態に係る記憶部14は、図4に示すように、利用者情報記憶部141を有する。
利用者情報記憶部141は、利用者に関する各種の情報を記憶する。具体的には、利用者情報記憶部141は、利用者の視力に関する視力情報を利用者識別情報と対応付けて記憶する。例えば、利用者情報記憶部141は、利用者の視力が近視、遠視、または正常の状態であるという視力情報を利用者識別情報と対応付けて記憶する。また、利用者情報記憶部141は、利用者の中心視野の視野角度を示す情報、利用者の周辺視野の視野角度を示す情報、および利用者識別情報(例えば、利用者ID)を対応付けて記憶する。
制御部15は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、端末装置10内部の記憶部14などの記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。例えば、この各種プログラムは、情報処理を行うアプリケーション(例えば、コンテンツ表示アプリ)のプログラムが含まれる。また、制御部15は、コントローラ(controller)であり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
取得部151は、センサ部16により検知されたセンサ情報を取得する。例えば、取得部151は、アイトラッキングカメラによって撮影された利用者の眼球の画像(角膜上の光の反射点と眼球の位置が撮影された画像)を取得する。なお、取得部151は、利用者がウェアラブルタイプのアイトラッカーを装着している場合には、利用者が装着しているアイトラッカーに搭載されたアイトラッキングカメラから、利用者の眼球の画像(角膜上の光の反射点と眼球の位置が撮影された画像)を取得してよい。また、例えば、取得部151は、端末装置10のカメラ(例えば、フロントカメラなど)によって撮影された利用者の顔画像を取得してよい。
特定部152は、端末装置10を使用する利用者の視線を特定する。具体的には、特定部152は、端末装置10を使用する利用者の眼球の方向(視線の方向)を特定する。特定部152は、公知のアイトラッキング技術によって視線を特定してよい。例えば、特定部152は、取得部151によって取得された利用者の眼球の画像(角膜上の光の反射点と眼球の位置が撮影された画像)に基づいて、角膜上の光の反射点と瞳孔を識別する。続いて、特定部152は、光の反射点やその他の幾何学的特徴に基づいて、眼球の方向(視線の方向)を算出する。続いて、特定部152は、利用者の眼球の位置(目の位置)と算出した眼球の方向(視線の方向)とに基づいて、利用者の端末装置10の画面上における視点位置を特定する。また、例えば、特定部152は、利用者の顔画像から利用者の視線を特定するよう機械学習された機械学習モデル(例えば、スマホのアプリケーション)を用いて、取得部151によって取得された利用者の顔画像から利用者の眼球の位置(目の位置)と眼球の方向(視線の方向)を特定してよい。続いて、特定部152は、特定された利用者の眼球の位置(目の位置)と眼球の方向(視線の方向)とに基づいて、利用者の端末装置10の画面上における視点位置を特定してよい。
推定部153は、端末装置10の画面に表示された広告コンテンツが利用者の中心視機能と周辺視機能のうちどちらが優位に働く状態で見られているかを推定する。例えば、推定部153は、特定部152によって広告コンテンツが利用者の中心視野に位置すると特定された場合、その広告コンテンツが利用者の中心視機能が優位に働く状態で見られていると推定する。また、例えば、推定部153は、特定部152によって広告コンテンツが利用者の周辺視野に位置すると特定された場合、その広告コンテンツが利用者の周辺視機能が優位に働く状態で見られていると推定する。
処理部154は、推定部153による推定結果に基づいて、広告コンテンツの提供態様を変更する。具体的には、処理部154は、推定部153によって広告コンテンツが利用者の中心視機能が優位に働く状態で見られていると推定された場合、広告コンテンツの提供態様を通常から中心視用に変更する。より具体的には、処理部154は、広告コンテンツに含まれる文字や図形の数を通常よりも多く表示するように広告コンテンツの表示態様を変更することで、広告コンテンツの提供態様を通常から周辺視用に変更する。例えば、処理部154は、広告コンテンツに含まれる文字や図形の大きさを通常よりも小さく表示するように広告コンテンツの表示態様を変更する。続いて、処理部154は、文字や図形の大きさを通常よりも小さく表示することで空いたスペースに、例えば、広告コンテンツに紐づくメタデータを文章化した文字を表示するようにして、広告コンテンツの表示態様を変更する。
センサ部16は、アイトラッキングのための各種センサを備える。例えば、角膜反射法(PCCR)によって視線を特定する場合、センサ部16は、利用者の角膜上に光の反射点を生じさせるための近赤外線LEDと、角膜上に生じた光の反射点を撮影するためのアイトラッキングカメラ(例えば、赤外線カメラ)を備える。例えば、近赤外線LEDは、利用者の角膜上に光の反射点を生じさせる。アイトラッキングカメラは、利用者の眼球を撮影することで、角膜上の光の反射点と眼球の位置が撮影された画像を取得する。なお、センサ部16は、角膜反射法(PCCR)に限らず、公知のアイトラッキング技術によって視線を特定するための各種センサを備えてよい。例えば、センサ部16は、利用者の顔画像を撮影可能なカメラ(フロントカメラなど)を備える。
次に、図5を用いて、実施形態に係る情報処理の手順について説明する。図5は、実施形態に係る情報処理の一例を示すフローチャートである。図5に示す例では、特定部152は、端末装置10を使用する利用者の視線を特定する(ステップS101)。推定部153は、特定部152により特定された視線に基づいて、端末装置10の画面に表示されたコンテンツが利用者の中心視機能と周辺視機能のうちどちらが優位に働く状態で見られているかを推定する(ステップS102)。処理部154は、推定部153による推定結果に基づいて、コンテンツの提供態様を変更する(ステップS103)。
上述した例では、端末装置10に表示されたコンテンツが利用者U1の中心視野(または周辺視野)に含まれる場合に、利用者U1の中心視機能(または周辺視機能)が優位に働く状態であると推定する場合について説明したが、これに限られない。
上述してきたように、実施形態に係る情報処理装置(実施形態では「端末装置10」。以下同様)は、特定部152と、推定部153と、処理部154を有する。特定部152は、端末装置10を使用する利用者の視線を特定する。推定部153は、特定部152により特定された視線に基づいて、端末装置10の画面に表示されたコンテンツが利用者の中心視機能と周辺視機能のうちどちらが優位に働く状態で見られているかを推定する。処理部154は、推定部153による推定結果に基づいて、コンテンツの提供態様を変更する。
コンテンツに含まれる動画またはアニメーションを通常よりも多く表示することで、コンテンツの提供態様を通常から周辺視用に変更する。
上述してきた端末装置10による処理は、本願に係る情報処理プログラムにより実現される。例えば、端末装置10に係る推定部153は、端末装置10が有するCPUやMPU等によって、情報処理プログラムがRAMを作業領域として、情報処理プログラムに係る処理手順が実行されることにより実現される。例えば、端末装置10に係る推定部153は、端末装置10が有するCPUやMPU等によって、情報処理プログラムがRAMを作業領域として、情報処理プログラムに係るコンテンツの提供態様の変更処理等の最適化に関する情報処理手順が実行されることにより実現される。端末装置10に係る他の部も同様に、情報処理プログラムによる各手順が実行されることにより実現される。例えば、情報処理プログラムはコンテンツを表示するアプリやホームアプリ等に含まれてもよい。
また、上述した実施形態に係る端末装置10は、例えば図7に示すような構成のコンピュータ1000によって実現される。図7は、ハードウェア構成の一例を示す図である。コンピュータ1000は、出力装置1010、入力装置1020と接続され、演算装置1030、一次記憶装置1040、二次記憶装置1050、出力I/F(Interface)1060、入力I/F1070、ネットワークI/F1080がバス1090により接続された形態を有する。
また、上記各実施形態および変形例において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
10 端末装置
11 通信部
12 入力部
13 表示部
14 記憶部
141 利用者情報記憶部
15 制御部
151 取得部
152 特定部
153 推定部
154 処理部
16 センサ部
50 サーバ装置
Claims (20)
- 端末装置を使用する利用者の視線を特定する特定部と、
前記特定部により特定された視線に基づいて、前記端末装置の画面に表示されたコンテンツが前記利用者の中心視機能と周辺視機能のうちどちらが優位に働く状態で見られているかを推定する推定部と、
前記推定部による推定結果に基づいて、前記コンテンツの提供態様を変更する処理部と、
を備えることを特徴とする情報処理装置。 - 前記特定部は、
特定した前記利用者の視線に基づいて、前記利用者の前記端末装置の画面上における視点位置から前記コンテンツの表示位置までの距離を特定し、
前記推定部は、
前記特定部により特定された距離に基づいて、前記コンテンツが前記利用者の中心視機能と周辺視機能のうちどちらが優位に働く状態で見られているかを推定する、
ことを特徴とする請求項1に記載の情報処理装置。 - 前記特定部は、
特定した前記利用者の視線に基づいて、前記利用者の目と前記端末装置の画面との距離を特定し、
前記推定部は、
前記特定部により特定された距離に基づいて、前記コンテンツが前記利用者の中心視機能と周辺視機能のうちどちらが優位に働く状態で見られているかを推定する、
ことを特徴とする請求項1または2に記載の情報処理装置。 - 前記特定部は、
特定した前記利用者の視線に基づいて、前記利用者の視力に関する視力情報を特定し、
前記推定部は、
前記特定部により特定された視力情報に基づいて、前記コンテンツが前記利用者の中心視機能と周辺視機能のうちどちらが優位に働く状態で見られているかを推定する、
ことを特徴とする請求項1~3のいずれか1つに記載の情報処理装置。 - 前記推定部は、
前記特定部により前記利用者の視力が近視の状態であって、かつ、前記利用者の目と前記端末装置の画面との距離が第1距離を超えていると特定された場合には、前記コンテンツが前記利用者の周辺視機能が優位に働く状態で見られていると推定する、
ことを特徴とする請求項1~4のいずれか1つに記載の情報処理装置。 - 前記推定部は、
前記特定部により前記利用者の視力が近視の状態であって、かつ、前記利用者の目と前記端末装置の画面との距離が第1距離以下であると特定された場合には、前記コンテンツが前記利用者の中心視機能が優位に働く状態で見られていると推定する、
ことを特徴とする請求項1~4のいずれか1つに記載の情報処理装置。 - 前記推定部は、
前記特定部により前記利用者の視力が遠視の状態であって、かつ、前記利用者の目と前記端末装置の画面との距離が第2距離を超えていると特定された場合には、前記コンテンツが前記利用者の中心視機能が優位に働く状態で見られていると推定する、
ことを特徴とする請求項1~4のいずれか1つに記載の情報処理装置。 - 前記推定部は、
前記特定部により前記利用者の視力が遠視の状態であって、かつ、前記利用者の目と前記端末装置の画面との距離が第2距離以下であると特定された場合には、前記コンテンツが前記利用者の周辺視機能が優位に働く状態で見られていると推定する、
ことを特徴とする請求項1~4のいずれか1つに記載の情報処理装置。 - 前記処理部は、
前記推定部によって前記コンテンツが前記利用者の周辺視機能が優位に働く状態で見られていると推定された場合、前記コンテンツの提供態様を通常から周辺視用に変更する、
ことを特徴とする請求項1~8のいずれか1つに記載の情報処理装置。 - 前記処理部は、
前記コンテンツに含まれる情報を通常よりも視覚的に強調した状態で表示することで、前記コンテンツの提供態様を通常から周辺視用に変更する、
ことを特徴とする請求項9に記載の情報処理装置。 - 前記処理部は、
前記コンテンツに含まれる文字または図形の大きさを通常よりも大きく表示することで、前記コンテンツの提供態様を通常から周辺視用に変更する、
ことを特徴とする請求項9または10に記載の情報処理装置。 - 前記処理部は、
前記コンテンツに含まれる文字または図形のコントラストを通常よりも強く表示することで、前記コンテンツの提供態様を通常から周辺視用に変更する、
ことを特徴とする請求項9~11のいずれか1つに記載の情報処理装置。 - 前記処理部は、
前記コンテンツに含まれる動的な情報を通常よりも多く表示することで、前記コンテンツの提供態様を通常から周辺視用に変更する、
ことを特徴とする請求項9~12のいずれか1つに記載の情報処理装置。 - 前記処理部は、
前記コンテンツに含まれる動画またはアニメーションを通常よりも多く表示することで、前記コンテンツの提供態様を通常から周辺視用に変更する、
ことを特徴とする請求項13に記載の情報処理装置。 - 前記処理部は、
前記コンテンツに含まれる文字のうち所定の大きさよりも小さい文字の文字数を通常よりも少なく表示することで、前記コンテンツの提供態様を通常から周辺視用に変更する、
ことを特徴とする請求項9~14のいずれか1つに記載の情報処理装置。 - 前記処理部は、
前記推定部によって前記コンテンツが前記利用者の中心視機能が優位に働く状態で見られていると推定された場合、前記コンテンツの提供態様を通常から中心視用に変更する、
ことを特徴とする請求項1~8のいずれか1つに記載の情報処理装置。 - 前記処理部は、
前記コンテンツに含まれる文字または図形の数を通常よりも多く表示することで、前記コンテンツの提供態様を通常から中心視用に変更する、
ことを特徴とする請求項16に記載の情報処理装置。 - 前記処理部は、
前記コンテンツに含まれる文字または図形の大きさを通常よりも小さく表示することで、前記コンテンツの提供態様を通常から中心視用に変更する、
ことを特徴とする請求項16または17に記載の情報処理装置。 - コンピュータが実行する情報処理方法であって、
端末装置を使用する利用者の視線を特定する特定工程と、
前記特定工程により特定された視線に基づいて、前記端末装置の画面に表示されたコンテンツが前記利用者の中心視機能と周辺視機能のうちどちらが優位に働く状態で見られているかを推定する推定工程と、
前記推定工程による推定結果に基づいて、前記コンテンツの提供態様を変更する処理工程と、
を含むことを特徴とする情報処理方法。 - 端末装置を使用する利用者の視線を特定する特定手順と、
前記特定手順により特定された視線に基づいて、前記端末装置の画面に表示されたコンテンツが前記利用者の中心視機能と周辺視機能のうちどちらが優位に働く状態で見られているかを推定する推定手順と、
前記推定手順による推定結果に基づいて、前記コンテンツの提供態様を変更する処理手順と、
をコンピュータに実行させることを特徴とする情報処理プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021032128A JP2022133176A (ja) | 2021-03-01 | 2021-03-01 | 情報処理装置、情報処理方法、及び情報処理プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021032128A JP2022133176A (ja) | 2021-03-01 | 2021-03-01 | 情報処理装置、情報処理方法、及び情報処理プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022133176A true JP2022133176A (ja) | 2022-09-13 |
Family
ID=83229632
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021032128A Pending JP2022133176A (ja) | 2021-03-01 | 2021-03-01 | 情報処理装置、情報処理方法、及び情報処理プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022133176A (ja) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003291688A (ja) * | 2002-04-03 | 2003-10-15 | Denso Corp | 表示方法、運転支援装置、プログラム |
JP2013171440A (ja) * | 2012-02-21 | 2013-09-02 | Kyocera Corp | 携帯端末 |
JP2014137627A (ja) * | 2013-01-15 | 2014-07-28 | Sony Corp | 入力装置、出力装置および記憶媒体 |
JP2015069423A (ja) * | 2013-09-30 | 2015-04-13 | 沖電気工業株式会社 | 表示制御装置、表示制御方法およびプログラム |
JP2017068629A (ja) * | 2015-09-30 | 2017-04-06 | アイシン・エィ・ダブリュ株式会社 | 情報提供システム、情報提供方法及びコンピュータプログラム |
JP2017193190A (ja) * | 2016-04-18 | 2017-10-26 | ソニー株式会社 | 画像表示装置及び画像表示装置、並びに移動体 |
JP2018500957A (ja) * | 2014-11-27 | 2018-01-18 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | 視力と聴力を評価するためのシステムと方法 |
JP2019533824A (ja) * | 2016-07-25 | 2019-11-21 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | 拡張現実および仮想現実アイウェアを用いた結像修正、表示、および可視化 |
JP2020104714A (ja) * | 2018-12-27 | 2020-07-09 | スズキ株式会社 | 自動車の情報表示装置および情報表示方法 |
-
2021
- 2021-03-01 JP JP2021032128A patent/JP2022133176A/ja active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003291688A (ja) * | 2002-04-03 | 2003-10-15 | Denso Corp | 表示方法、運転支援装置、プログラム |
JP2013171440A (ja) * | 2012-02-21 | 2013-09-02 | Kyocera Corp | 携帯端末 |
JP2014137627A (ja) * | 2013-01-15 | 2014-07-28 | Sony Corp | 入力装置、出力装置および記憶媒体 |
JP2015069423A (ja) * | 2013-09-30 | 2015-04-13 | 沖電気工業株式会社 | 表示制御装置、表示制御方法およびプログラム |
JP2018500957A (ja) * | 2014-11-27 | 2018-01-18 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | 視力と聴力を評価するためのシステムと方法 |
JP2017068629A (ja) * | 2015-09-30 | 2017-04-06 | アイシン・エィ・ダブリュ株式会社 | 情報提供システム、情報提供方法及びコンピュータプログラム |
JP2017193190A (ja) * | 2016-04-18 | 2017-10-26 | ソニー株式会社 | 画像表示装置及び画像表示装置、並びに移動体 |
JP2019533824A (ja) * | 2016-07-25 | 2019-11-21 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | 拡張現実および仮想現実アイウェアを用いた結像修正、表示、および可視化 |
JP2020104714A (ja) * | 2018-12-27 | 2020-07-09 | スズキ株式会社 | 自動車の情報表示装置および情報表示方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11727695B2 (en) | Language element vision augmentation methods and devices | |
US11726324B2 (en) | Display system | |
EP3571673B1 (en) | Method for displaying virtual image, storage medium and electronic device therefor | |
US9996983B2 (en) | Manipulation of virtual object in augmented reality via intent | |
US8810413B2 (en) | User fatigue | |
AU2014275189B2 (en) | Manipulation of virtual object in augmented reality via thought | |
US9684374B2 (en) | Eye reflection image analysis | |
US11861837B2 (en) | Utilization of luminance changes to determine user characteristics | |
US10643362B2 (en) | Message location based on limb location | |
TW201306573A (zh) | 具有影像擷取及分析模組之顯示裝置 | |
US11960652B2 (en) | User interactions with remote devices | |
JP2022133176A (ja) | 情報処理装置、情報処理方法、及び情報処理プログラム | |
US20230351676A1 (en) | Transitioning content in views of three-dimensional environments using alternative positional constraints | |
US20240212291A1 (en) | Attention control in multi-user environments | |
US20240212343A1 (en) | Contextualized visual search | |
US20240119643A1 (en) | Image processing device, image processing method, and computer-readable storage medium | |
US20240164677A1 (en) | Attention detection | |
WO2023049089A1 (en) | Interaction events based on physiological response to illumination |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211217 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230130 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230214 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230417 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230718 |