JP2018073310A - 表示システム、表示プログラム - Google Patents
表示システム、表示プログラム Download PDFInfo
- Publication number
- JP2018073310A JP2018073310A JP2016215800A JP2016215800A JP2018073310A JP 2018073310 A JP2018073310 A JP 2018073310A JP 2016215800 A JP2016215800 A JP 2016215800A JP 2016215800 A JP2016215800 A JP 2016215800A JP 2018073310 A JP2018073310 A JP 2018073310A
- Authority
- JP
- Japan
- Prior art keywords
- display
- viewpoint
- user
- control unit
- map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
【課題】視点に基づいて画面内のオブジェクトを利用者が視認しやすく表示する技術の提供。【解決手段】利用者の視点を検出する視点検出部と、前記視点が存在する第一オブジェクトおよび前記第一オブジェクトに関連する第二オブジェクトを、前記第一オブジェクトおよび前記第二オブジェクト以外の第三オブジェクトよりも高い視認性で表示部に表示させる表示制御部と、を備える表示システムを構成する。【選択図】図1
Description
本発明は、表示システムおよび表示プログラムに関する。
従来、画面上における利用者の視点を検出し、視点によって様々な処理を行うシステムが知られている。特許文献1には、画面の「焼き付け」を防止するために、利用者が注視している画像以外の画像の輝度を下げたり、簡略化したり、透明度を高めて表示することが記載されている。
しかし、視点が存在するオブジェクト以外のオブジェクトを全て、視点が存在するオブジェクトよりも低い視認性で表示すると、視点が存在するオブジェクトと関連するオブジェクトであっても視認性が低下する。そのため、利用者は視点を合わせているオブジェクトのみについては他のオブジェクトより認識しやすいが、視点を合わせているオブジェクトに関連するオブジェクトについては認識しづらいという問題がある。
本発明は、上記課題にかんがみてなされたもので、視点に基づいて画面内のオブジェクトを利用者が視認しやすく表示する技術の提供を目的とする。
本発明は、上記課題にかんがみてなされたもので、視点に基づいて画面内のオブジェクトを利用者が視認しやすく表示する技術の提供を目的とする。
上記の目的を達成するため、表示システムは、利用者の視点を検出する視点検出部と、視点が存在する第一オブジェクトおよび第一オブジェクトに関連する第二オブジェクトを、第一オブジェクトおよび第二オブジェクト以外の第三オブジェクトよりも高い視認性で表示部に表示させる表示制御部と、を備える。
さらに、上記の目的を達成するため、表示プログラムは、コンピュータを、利用者の視点を検出する視点検出部、視点が存在する第一オブジェクトおよび第一オブジェクトに関連する第二オブジェクトを、第一オブジェクトおよび第二オブジェクト以外の第三オブジェクトよりも高い視認性で表示部に表示させる表示制御部、として機能させる。
すなわち、表示システム、プログラムでは、第一オブジェクトに視点が存在する場合に、第一オブジェクトと共に第二オブジェクトも、第三オブジェクトよりも高い視認性で表示部に表示させる。したがって、利用者が第一オブジェクトに視点を合わせた際、利用者は第一オブジェクトだけでなく第二オブジェクトについても視認しやすい。
ここでは、下記の順序に従って本発明の実施の形態について説明する。
(1)表示システムの構成:
(2)画面表示処理:
(3)他の実施形態:
(1)表示システムの構成:
(2)画面表示処理:
(3)他の実施形態:
(1)表示システムの構成:
図1は、本発明の一実施形態である表示システム10の構成を示すブロック図である。表示システム10は、CPU、RAM、ROM等を備える制御部20を備えており、制御部20は、当該ROMや記録媒体30に記録された所望のプログラムを実行することができる。
図1は、本発明の一実施形態である表示システム10の構成を示すブロック図である。表示システム10は、CPU、RAM、ROM等を備える制御部20を備えており、制御部20は、当該ROMや記録媒体30に記録された所望のプログラムを実行することができる。
本実施形態において、制御部20は、図示しないナビゲーションプログラムを実行することができ、各プログラムを実行することにより経路案内の各機能を実行することができる。すなわち、制御部20は、ナビゲーションプログラムを実行することにより、表示部としてのディスプレイ40に地図を表示し、図示しないGPS信号等に基づいて表示システム10が搭載された車両を指定の目的地まで誘導することができる。
本実施形態においては、以上のような各プログラムで実現される機能に関するユーザインタフェースを提供するため、制御部20は、図示しないROMや記録媒体30等に記録された表示プログラム21を実行する。当該表示プログラム21による処理を実行するため、車両は、ディスプレイ(表示部)40、タッチパッド41および視線検出センサ42を備えている。
ディスプレイ40は、図示しないインタフェースを介して制御部20と接続されており、制御部20は、ディスプレイ40に対して制御信号を出力することにより、任意の座標を指定し、任意の画像をディスプレイ40に表示させることができる。タッチパッド41は、矩形平面の接触検出面を備えた入力デバイスであり、接触検出面に対して検出対象物が接触した位置を検出し、検出位置を示す座標を出力する。制御部20は、当該座標に基づいて接触位置を取得する。
視線検出センサ42は、赤外線出力部と少なくとも2個の赤外線カメラとを備えている。当該赤外線カメラは、運転者の顔を視野に含むように車室内の構造体(例えば、インストルメントパネルの壁面)に取り付けられている。赤外線カメラは、赤外線出力部から出力された赤外線によって撮影された利用者(運転者)の目の像に基づいて、目の位置および利用者の視線方向(ベクトル)を検出し、出力する。制御部20は、当該出力に基づいて、予め定義された3次元空間内で目の位置および視線方向を特定することができる。視線方向は、例えば、両眼のそれぞれにおいて設定された基準点と、眼球の動きに応じて位置が変化する動点とを結ぶ方向として取得され、他にも種々の方式が採用されてよい。また、両眼のそれぞれにおいて特定された視線方向の平均値等によって利用者の視線方向を1方向に特定することができるが、視線方向の特定方法も種々の方法が採用され得る。
以上の構成において、制御部20は、ディスプレイ40およびタッチパッド41をユーザインタフェースとして利用し、ユーザインタフェース画面を介して利用者による入力を受け付ける。このために表示プログラム21は、視点検出部21aと表示制御部21bと入力受付部21cとを備えている。
視点検出部21aは、利用者の視点を検出する機能を制御部20に実現させるプログラムモジュールである。本実施形態においては、視点の検出領域となるディスプレイ40の位置が、車室内空間の位置を既定する3次元座標系によって予め特定されている。制御部20は、視線検出センサ42の出力に基づいて、利用者の目の位置および視線方向を取得し、画面の位置が規定された3次元座標系内で利用者の目の位置および視線方向を特定する。そして、当該目の位置から視線方向に延びる仮想的な線と、ディスプレイ40の表示面との交点を視点として特定する。画面上に視点が存在しない場合、例えば、視点が不定とされてもよいし、他の構造体(例えば、インストルメントパネル等)上に存在すると判定されても良い。
表示制御部21bは、ディスプレイ40(表示部)にユーザインタフェース画面を表示する機能を制御部20に実現させるプログラムモジュールである。ユーザインタフェース画面を構成するオブジェクトを描画するための画像情報(地図描画情報やアイコン描画情報等)は予め表示情報30aとして記録媒体30に記録されている。制御部20がナビゲーションプログラムを実行すると、制御部20は表示情報30aを参照して地図等を含むユーザインタフェース画面をRAMに描画する(記録する)。制御部20は、表示制御部21bの処理により、当該描画されたユーザインタフェース画面の情報を取得し、当該ユーザインタフェース画面を表示するための制御信号をディスプレイ40に対して出力する。この結果、ナビゲーションプログラムにおけるユーザインタフェース画面がディスプレイ40に表示される。
また表示制御部21bは、視点が存在するオブジェクトを特定し、視点が存在するオブジェクト(第一オブジェクト)および当該オブジェクトに関連するオブジェクト(第二オブジェクト)を、第一オブジェクトおよび第二オブジェクト以外のオブジェクト(第三オブジェクト)よりも高い視認性でディスプレイ40に表示させる機能を制御部20に実現させる。
図2Aは、ナビゲーションプログラムにおけるユーザインタフェース画面の一例としての地図表示画面に表示されうるオブジェクトを説明するための説明図である。地図表示画面には、第一レイヤから第三レイヤまで3つの表示レイヤが規定されている。ディスプレイの同一の座標に異なるレイヤのオブジェクトが存在する場合、上位レイヤのオブジェクトが優先して表示される。すなわち上位レイヤのオブジェクトの表示位置と重複する下位レイヤのオブジェクトの部分は表示されない。第一レイヤは最上位レイヤであり第三レイヤは最下位レイヤである。第二レイヤは第一レイヤと第三レイヤの間に順位付けされる。
図3Aは、各レイヤに表示されるオブジェクトを示す図である。同図に示すように、第三レイヤには地図Mが表示される。地図Mは地図表示画面の全面にわたって表示される。第二レイヤには、ボタンB(B1〜B6)と、コンパスCと、住所表示部Aが表示される。ボタンBはナビゲーションプログラムの各種機能の実行を指示するためのオブジェクトである。コンパスCは、地図表示画面に表示されている地図Mの方位を示すオブジェクトである。住所表示部Aは、地図表示画面に表示されている地図Mの中心座標に対応する住所を示すオブジェクトである。ボタンB、コンパスC、住所表示部Aは、地図表示画面の予め決められた位置に予め決められた形状で表示される。
第一レイヤにはポインタPが表示される。ポインタPは利用者のタッチパッド41に対する操作に応じて表示位置が移動する。すなわち、制御部20は、ディスプレイ40の地図表示画面内に表示するポインタPの位置を、タッチパッド41に対するスワイプ操作の方向や移動量や移動速度に応じて更新する。
なお本実施形態においては、地図表示画面に表示されうる全てのオブジェクトはカラーで表示される。ただし、後述する特定の場合に地図Mはグレースケールで表示される。
なお本実施形態においては、地図表示画面に表示されうる全てのオブジェクトはカラーで表示される。ただし、後述する特定の場合に地図Mはグレースケールで表示される。
制御部20は視点検出部21aの処理によって地図表示画面において視点が存在する位置を取得することができる。また制御部20は、上記の各オブジェクトの表示位置を参照して、視点が存在する位置に表示されているオブジェクトを特定することができる。
地図表示画面に表示されうる上記のオブジェクトは、関連性に基づいて予めグループ分けされている。本実施形態においては、グループごとに代表オブジェクトと関連オブジェクトが規定されている。代表オブジェクトは、視点が存在するオブジェクト、すなわち第一オブジェクトが属するグループを検索する際のインデックスとなるオブジェクトである。関連オブジェクトは、第一オブジェクトが代表オブジェクトとして属するグループに属する代表オブジェクト以外のオブジェクトであり、第二オブジェクトに相当する。また、任意のグループに着目した場合に、当該グループに属さないオブジェクトが第三オブジェクトに相当する。
オブジェクトによっては複数のグループに属することもある。図3Bは本実施形態におけるグループを示している。同図に示すように、地図Mが代表オブジェクトであるグループG1には、関連オブジェクトとしてコンパスCと住所表示部Aとが属している。グループG1に属さないオブジェクトには、ボタンBとポインタPが該当する。住所表示部Aを代表オブジェクトとするグループG2には、関連オブジェクトとして地図Mが属している。グループG2に属さないオブジェクトとしては、ボタンB、コンパスC、ポインタPが該当する。ボタンBが代表オブジェクトであるグループG3には、関連オブジェクトとしてコンパスC、住所表示部A、ポインタPが属している。グループG3に属さないオブジェクトには、地図Mが該当する。
本実施形態では、第三オブジェクトに該当するオブジェクトのうち第一レイヤまたは第二レイヤに紐付けられているオブジェクトは透過させる(非表示とする)ことによって、第一オブジェクトと第二オブジェクトとを第三オブジェクトよりも高い視認性で表示することを実現する。また、第三オブジェクトに該当するオブジェクトのうち第三レイヤに紐付けられているオブジェクトはグレースケール化して表示することによって、カラー画像である第一オブジェクトと第二オブジェクトとを第三オブジェクトよりも高い視認性で表示することを実現する。
入力受付部21cは、画面上の視点によって利用者の入力を受け付ける機能や、タッチパッド41に対する利用者の操作の入力を受け付ける機能を制御部20に実現させるプログラムモジュールである。制御部20は入力受付部21cの処理により、ボタンBに視点が存在する場合にタッチパッド41に対するスワイプ操作を受け付けると、ポインタPの表示位置をスワイプ操作の向きや速度に応じて移動させる。また、制御部20は入力受付部21cの処理により、地図Mまたは住所表示部Aに視点が存在する場合にタッチパッド41に対するスワイプ操作を受け付けると、スワイプ操作の向きや移動速度に応じて地図Mをスクロールさせる。
このように本実施形態においては、スワイプ操作に伴って表示位置を変える対象のオブジェクトが、視点が存在するオブジェクトに応じて切り替わる。スワイプ操作に伴って表示位置が変わるオブジェクトは地図MであるのかポインタPであるのかを、一方を他方より高い視認性で表示させることにより利用者に認識させる。また、地図MまたはポインタPのいずれか一方のオブジェクトの表示位置を変更する際に、当該オブジェクト以外に利用者が参照することが想定されるオブジェクトも、他方のオブジェクトより高い視認性で表示される。
(2)画面表示処理:
次に、制御部20が実行する画面表示処理を、図4を参照しながら説明する。図4に示す画面表示処理は、視点が存在するオブジェクトに応じてオブジェクトの表示態様を変化させる処理であり、上記した地図表示画面を例に挙げながら説明を行う。画面表示処理は、ディスプレイ40に視点が存在する間中、繰り返し制御部20によって実行される。図4に示す画面表示処理が開始されると、視点検出部21aの処理により制御部20は、利用者の視点を取得する(ステップS100)。すなわち制御部20は画面内において視点が位置する座標を取得する。続いて制御部20は表示制御部21bの処理により、視点が存在するオブジェクトが代表オブジェクトとして属するグループを特定する(ステップS105)。
次に、制御部20が実行する画面表示処理を、図4を参照しながら説明する。図4に示す画面表示処理は、視点が存在するオブジェクトに応じてオブジェクトの表示態様を変化させる処理であり、上記した地図表示画面を例に挙げながら説明を行う。画面表示処理は、ディスプレイ40に視点が存在する間中、繰り返し制御部20によって実行される。図4に示す画面表示処理が開始されると、視点検出部21aの処理により制御部20は、利用者の視点を取得する(ステップS100)。すなわち制御部20は画面内において視点が位置する座標を取得する。続いて制御部20は表示制御部21bの処理により、視点が存在するオブジェクトが代表オブジェクトとして属するグループを特定する(ステップS105)。
続いて制御部20は表示制御部21bの処理により、全オブジェクトの処理が完了したか否かを判定する(ステップS110)。地図表示画面を構成する各オブジェクトは、最下位レイヤに紐付けられているオブジェクトから順に一つずつステップS115〜S130の処理対象となる。したがってステップS110では、地図表示画面を構成する全てのオブジェクトの処理が完了したか否かが判定される。
ステップS110において全オブジェクトの処理が完了したと判定されない場合、まだ処理されていないオブジェクトについてステップS115〜ステップS130の処理を繰り返す。ステップS115では、制御部20は表示制御部21bの処理により、処理対象オブジェクトがステップS105にて特定されたグループに属するか否かを判定する。
ステップS115において処理対象オブジェクトが特定されたグループに属すると判定された場合、制御部20は表示制御部21bの処理により、処理対象オブジェクトを非透過に設定する(ステップS120)。一方ステップS115において処理対象オブジェクトは特定されたグループに属すると判定されなかった場合、制御部20は表示制御部21bの処理により、処理対象オブジェクトの視認性を低下させる(ステップS125)。
具体的にはステップS125では、制御部20は、特定されたグループに属さないオブジェクトに該当するオブジェクトの表示レイヤが最下位レイヤである場合は、当該オブジェクトをグレースケール表示とする。またステップS125では、制御部20は、特定されたグループに属さないオブジェクトに該当するオブジェクトの表示レイヤが最下位レイヤ以外である場合は、当該オブジェクトを透過に設定する。
ステップS120またはステップS125の処理後、制御部20は表示制御部21bの処理により処理対象オブジェクトをRAMの当該オブジェクトの表示位置に対応するアドレスに描画する(ステップS130)。なお、ステップS125を実行した場合、透過に設定された処理対象オブジェクトについてはRAMに描画する必要はないためステップS130は実質的にスキップされる。
ステップS110において全オブジェクトの描画が完了したと判定された場合、制御部20は表示制御部21bの処理によりRAMに描画されたオブジェクトによって構成される画面を表示させる。すなわち制御部20は、RAMに描画された画面を表示させるための制御信号をディスプレイ40に出力する。この結果、画面がディスプレイ40に表示される。
以上の画面表示処理を繰り返し実行することにより、表示システム10は、利用者の視点が存在するオブジェクトおよび当該オブジェクトをそれ以外のオブジェクトよりも視認しやすい状態で案内することができる。以降でその具体例を説明する。
図2Bは、利用者の視点が地図Mに存在する場合に表示される地図表示画面を示している。図3Bに示すように、地図Mが代表オブジェクトとして属するグループG1には、関連オブジェクトとしてコンパスCと住所表示部Aが属している。また図3Bに示すように、グループG1に属さないオブジェクトには、ボタンBとポインタPが該当する。したがって図2Bに示す地図表示画面においては、地図MとコンパスCと住所表示部Aが表示され、ボタンBとポインタPは透過される(表示されない)。
利用者は、図2Bに示す地図表示画面が表示されている状態(すなわち利用者が地図Mを注視している状態)で、タッチパッド41に対してスワイプ操作を行うことで、地図Mを所望の方向にスクロールさせることができる。また、ボタンBやポインタPは表示されないため、図2Bに示す状態において、表示位置を移動させる対象は地図MであってポインタPでないことと、ボタンBはこの状態において操作対象でないことを利用者に認識させることができる。また、地図MとともにコンパスCや住所表示部Aが表示されることにより、表示されている地図Mの部分の住所や地図Mにおける方位を利用者は認識することができる。
図2Cは、利用者の視点が住所表示部Aに存在する場合に表示される地図表示画面を示している。図3Bに示すように、住所表示部Aが代表オブジェクトとして属するグループG2には、関連オブジェクトとして地図Mが属している。また図3Bに示すように、グループG2に属さないオブジェクトには、ボタンBとコンパスCとポインタPが該当する。したがって図2Cに示す地図表示画面においては、住所表示部Aと地図Mとが表示され、ボタンBとコンパスCとポインタPは透過される(表示されない)。
利用者は、図2Cに示す地図表示画面が表示されている状態(すなわち利用者が住所表示部Aを注視している状態)で、タッチパッド41に対してスワイプ操作を行うことで、地図Mを所望の方向にスクロールさせることができる。また、ボタンBやコンパスCやポインタPは表示されないため、図2Cに示す状態において、表示位置を移動させる対象は地図MであってポインタPでないことを利用者に認識させることができる。また、ポインタPが表示されないため、住所表示部AはポインタPによる操作対象ではないことを利用者に認識させることができる。また、ボタンBとポインタPが表示されないことにより、この状態においてボタンBは操作対象でないことを利用者に認識させることができる。
図2Dは、利用者の視点がボタンBに存在する場合に表示される地図表示画面を示している。図3Bに示すように、ボタンBが代表オブジェクトとして属するグループG3には、関連オブジェクトとしてコンパスC、住所表示部A、ポインタPが属している。また図3Bに示すように、グループG3に属さないオブジェクトには、地図Mが該当する。したがって図2Dに示す地図表示画面においては、ボタンBとコンパスCと住所表示部AとポインタPが表示される。地図Mは、最下位レイヤである第三レイヤに紐付けられたオブジェクトであるため、地図Mはグレースケール化した状態で最下位レイヤに表示される。
利用者は、図2Dに示す地図表示画面が表示されている状態(すなわち利用者がボタンBを注視している状態)で、タッチパッド41に対してスワイプ操作を行うことで、ポインタPを所望の位置に移動させることができる。また、地図Mはカラーで表示された状態からグレースケールに変化して表示されるため、表示位置を移動させる対象はポインタPであって地図Mではないことを利用者に認識させることができる。また、ボタンBとポインタPが表示されることにより、ボタンBとともにポインタPが操作可能な状態であることを利用者に認識させることができる。
(3)他の実施形態:
以上の実施形態は本発明を実施するための一例であり、表示画面内の視点が存在するオブジェクトと当該オブジェクトに関連するオブジェクトとをその他のオブジェクトよりも高い視認性で表示する限りにおいて、他にも種々の実施形態を採用可能である。例えば、表示システム10は、各種のシステム、汎用コンピュータシステムに適用されていても良い。また、表示システム10は、複数の装置(例えば、クライアントとサーバ)によって実現されるシステムであっても良い。表示システム10は車両に搭載される構成に限定されない。
以上の実施形態は本発明を実施するための一例であり、表示画面内の視点が存在するオブジェクトと当該オブジェクトに関連するオブジェクトとをその他のオブジェクトよりも高い視認性で表示する限りにおいて、他にも種々の実施形態を採用可能である。例えば、表示システム10は、各種のシステム、汎用コンピュータシステムに適用されていても良い。また、表示システム10は、複数の装置(例えば、クライアントとサーバ)によって実現されるシステムであっても良い。表示システム10は車両に搭載される構成に限定されない。
さらに、表示システム10を構成する視点検出部21a、表示制御部21bの少なくとも一部が複数の装置に分かれて存在していても良い。例えば、視点検出部21aが視線検出センサ42内の制御部で実現されても良い。むろん、上述の実施形態の一部の構成が省略されてもよいし、処理の順序が変動または省略されてもよい。
視点検出部は、利用者の視点を検出することができればよく、種々の構成を採用可能である。例えば、上述の実施形態のように、利用者の目を撮影するカメラの出力に基づいて利用者の目の動作を特定することにより視線を特定し、視線と予め特定されたディスプレイ画面との交点を始点と見なす構成等を採用可能である。検出対象となる目は1個であっても良いし、2個であっても良いが、精度を高めるためには検出対象の目は2個であることが好ましい。2個の目の視線が特定された場合における視点は、各目の視線に基づいて特定された各視点から統計的に特定されても良いし、利き目によるバイアスに基づいて視点が特定されても良い。さらに、視点は、少なくとも利用者が視認している表示領域上で特定されれば良い。
表示制御部は、視点が存在する第一オブジェクトおよび第一オブジェクトに関連する第二オブジェクトを、第一オブジェクトおよび第二オブジェクト以外の第三オブジェクトよりも高い視認性で表示部に表示させることができる限りにおいて種々の構成を採用可能である。第二オブジェクトに該当するオブジェクトは単数であってもよいし、複数であってもよい。また第三オブジェクトに該当するオブジェクトは単数であってもよいし、複数であってもよい。
なお、上記実施形態では、関連性別に予めグループ分けされた各グループにはそれぞれ代表オブジェクトとその他のオブジェクトとが定義されており、オブジェクトによっては複数のグループに属しうる例を挙げた。しかし単に、各オブジェクトは関連性別にグループ分けされ、各オブジェクトはいずれか一つのグループに属している構成であってもよい。この場合、視点が存在するオブジェクトが属するグループに属する他のオブジェクトが第二オブジェクトであると言うことができる。また、視点が存在するオブジェクトが属するグループ以外のグループに属するオブジェクトが第三オブジェクトであると言うことができる。
また、オブジェクトの関連性については、様々な定義が可能である。例えば、同一の指示入力段階(指示入力モード)において指示の入力が可能であると予め決められたオブジェクト群が互いに関連性があるとして扱われても良い。また、第一オブジェクトを操作する際(あるいは参照する際)に利用者が自身の視界内において参照可能であれば利便性が高まると推定されるオブジェクトが第一オブジェクトと関連性があるとして扱われても良い。あるいは、オブジェクトの種別(ボタンオブジェクト、背景オブジェクト等)が予め決められており、同一の種別のオブジェクト同士は互いに関連があるとして扱われても良い。あるいは、画面に表示されるオブジェクトは予めいずれかの表示レイヤに紐付けられており、同一の表示レイヤに紐付けられたオブジェクト同士は互いに関連性があるとして扱われても良い。一方のオブジェクトに関連する操作や入力が行われる場合に、当該操作や入力に必要となり得る情報が他方のオブジェクトに表示されている場合に関連性があるとして扱われても良い。
また、第一オブジェクトおよび第二オブジェクトは、第三オブジェクトより高い視認性で表示される、すなわち、利用者が視認しやすい状態で表示される限りにおいてどのように表示されてもよい。視認性は様々な尺度で表現しうるが、「第一オブジェクトの視認性≧第二オブジェクトの視認性>第三オブジェクトの視認性」あるいは「第二オブジェクトの視認性≧第一オブジェクトの視認性>第三オブジェクトの視認性」の関係を満たしていればよい。第一オブジェクトおよび第二オブジェクトを非透過とし、第三オブジェクトを透過とする以外にも、例えば、第一オブジェクトおよび第二オブジェクトの明度および彩度の少なくともいずれか一方を第三オブジェクトより視認性が相対的に高くなる方向に変化させて表示する構成を採用してもよい。また例えば、第一オブジェクトおよび第二オブジェクトの色相を第三オブジェクトの色相より利用者の注意を引きやすい色相にしてもよい。また例えば、第一オブジェクトおよび第二オブジェクトに含まれる枠や文字などを構成する線の太さを第三オブジェクトに含まれる線の太さより太い状態で表示する構成を採用してもよい。また例えば、第一オブジェクトおよび第二オブジェクトに含まれる線を実線とし第三オブジェクトに含まれる線を一部省略してもよい(例えば破線にしてもよい)。透過の場合、完全透過ではなく透過率が100%より小さくても良い。
また例えば、あるオブジェクトが第一オブジェクトとなった場合の当該オブジェクトの面積をS1、当該オブジェクトが第二オブジェクトとなった場合の当該オブジェクトの面積をS2、当該オブジェクトが第三オブジェクトとなった場合の当該オブジェクトの面積をS3とすると、S1≧S2>S3となるように当該オブジェクトの表示面積を制御してもよい。
また例えば、第一オブジェクトおよび第二オブジェクトを点滅表示させ、第三オブジェクトを点灯表示させてもよい。
なお、表示部は単一のディスプレイによって構成されてもよいし、複数のディスプレイによって構成されてもよい。
さらに、表示制御部は、視点が第一オブジェクト内から第一オブジェクト外であって第一オブジェクトと関連する関連領域内に移動した場合、第一オブジェクトおよび第二オブジェクトを第三オブジェクトよりも高い視認性で表示させてもよい。この場合、利用者は第一オブジェクトから視点を外しても関連領域内に視点を存在させる限り第一オブジェクトとともに第二オブジェクトをも認識しやすい。関連領域は第一オブジェクトや第二オブジェクトと隣接した領域であってもよいし、第一オブジェクトや第二オブジェクトと離間した領域であってもよい。また第一オブジェクトの関連領域の位置や形状や面積は予め固定的に決められていても良いし、なんらかのパラメータに応じて変動してもよい。
上記の関連領域は、視点が第一オブジェクト外に移動してから既定時間が経過するまで存在した領域であると定義してもよい。この場合、利用者は第一オブジェクトから視点を外しても既定時間以内であれば第一オブジェクトとともに第二オブジェクトをも認識しやすい。なお、視点が第一オブジェクト外に移動してからの経過時間が既定時間内において大きくなるほど、関連領域の位置や形状や面積が変動してもよい。
例えば関連領域は、ボタンB外に視点が移動してから既定時間(例えば1秒間)が経過するまで地図表示画面全体に設定される領域であってもよい。例えば利用者がボタンB1に視点を合わせた後、視点を住所表示部Aに移動させ、その後ボタンB6に視点を移動させた場合であって、ボタンB1外に視点が外れてからボタンB6に視点が戻るまでの時間が既定時間未満であれば、ボタンB1に視点が存在している場合と同様の態様でオブジェクトを表示するようにしてもよい。この場合、利用者が一瞬ボタンB1から視点を外しただけであってもボタンB1〜B6が非表示となることがないため、ボタンB6に視点を移動させやすい。
さらに、上記の関連領域は、第一オブジェクトから既定距離以内に存在する領域であると定義してもよい。この場合、利用者は第一オブジェクトから視点を外しても第一オブジェクトから既定距離以内に視点が存在する限り第一オブジェクトとともに第二オブジェクトをも認識しやすい。既定距離は、例えば視点検出の誤差を吸収できる程度の距離に設定されてもよい。なお既定距離は、全てのオブジェクトにおいて同じ値であってもよいし、オブジェクトの種別や、オブジェクトの大きさ等に応じて異なる値であってもよい。
例えば図5Aに示す領域100は、ボタンBの関連領域として設定される領域の例である。領域100はボタンB1〜B6のそれぞれからの距離が既定距離である範囲を示している。例えば利用者がボタンB1に視点を合わせた後、ボタンB1外に視点が外れたとしても領域100内に視点が存在すれば、ボタンB1に視点が存在している場合と同様にグループG3(図3B参照)に属するオブジェクトを表示し、地図Mだけグレースケール化した状態で表示させてもよい。
さらに、上記の関連領域は、第一オブジェクトと第二オブジェクトとの間の領域であると定義してもよい。第一オブジェクトから、第一オブジェクトと第二オブジェクトの間の領域に視点が移動する状況は、すなわち、関連する2以上のオブジェクト間を視点が移動する(一往一来することを含む)状況であり、利用者が関連するオブジェクトを見比べている状況であることが想定できる。この場合、利用者は第一オブジェクトから視点を外しても第一オブジェクトと第二オブジェクトの間の領域に視点が存在する限り第一オブジェクトとともに第二オブジェクトをも認識しやすい。なお、第一オブジェクトと第二オブジェクトとの間の領域は、第一オブジェクトから第二オブジェクトに視点を移動させる際に利用者の視点の移動の軌跡を含む可能性が高いと推定される領域と定義してもよく、より具体的には例えば、第一オブジェクトと第二オブジェクトとを直線的に繋ぐ領域と定義してもよい。
例えば、関連領域は図5Bの領域101〜105に示すように関連するオブジェクト間に設定されてもよい。例えば利用者がボタンB1に視点を合わせた後、ボタンB2〜B6に順に視点を合わせるような場合、領域101〜105に視点があればボタンBに視点が存在している場合と同様の態様でオブジェクトを表示するようにしてもよい。この場合、関連オブジェクト間を視点が移動する際に、頻繁に地図Mがカラー表示とグレースケール表示とで切り替わることを防止できる。
なお、関連領域の定義は、上記の定義のいずれかが採用されてもよいし、上記以外の定義が採用されてもよいし、それら複数が組み合わされて採用されてもよい。
さらに、本発明のように、表示画面内の視点が存在するオブジェクトと当該オブジェクトに関連するオブジェクトとをその他のオブジェクトよりも高い視認性で表示する手法は、プログラムや方法としても適用可能である。また、以上のようなシステム、プログラム、方法は、単独の装置として実現される場合もあれば、車両に備えられる各部と共有の部品を利用して実現される場合もあり、各種の態様を含むものである。また、一部がソフトウェアであり一部がハードウェアであったりするなど、適宜、変更可能である。さらに、システムを制御するプログラムの記録媒体としても発明は成立する。むろん、そのソフトウェアの記録媒体は、磁気記録媒体であってもよいし光磁気記録媒体であってもよいし、今後開発されるいかなる記録媒体においても全く同様に考えることができる。
10…表示システム、20…制御部、21…表示プログラム、21a…視点検出部、21b…表示制御部、21c…入力受付部、30…記録媒体、30a…表示情報、40…ディスプレイ、41…タッチパッド、42…視線検出センサ、A…住所表示部、B…ボタン、C…コンパス、M…地図、P…ポインタ
Claims (6)
- 利用者の視点を検出する視点検出部と、
前記視点が存在する第一オブジェクトおよび前記第一オブジェクトに関連する第二オブジェクトを、前記第一オブジェクトおよび前記第二オブジェクト以外の第三オブジェクトよりも高い視認性で表示部に表示させる表示制御部と、
を備える表示システム。 - 前記表示制御部は、
前記視点が前記第一オブジェクト内から前記第一オブジェクト外であって前記第一オブジェクトと関連する関連領域内に移動した場合、前記第一オブジェクトおよび前記第二オブジェクトを前記第三オブジェクトよりも高い視認性で表示させる、
請求項1に記載の表示システム。 - 前記関連領域は、
前記視点が前記第一オブジェクト外に移動してから既定時間が経過するまで存在した領域である、
請求項2に記載の表示システム。 - 前記関連領域は、
前記第一オブジェクトから既定距離以内に存在する領域である、
請求項2または請求項3のいずれかに記載の表示システム。 - 前記関連領域は、
前記第一オブジェクトと前記第二オブジェクトとの間の領域である、
請求項2〜請求項4のいずれかに記載の表示システム。 - コンピュータを、
利用者の視点を検出する視点検出部、
前記視点が存在する第一オブジェクトおよび前記第一オブジェクトに関連する第二オブジェクトを、前記第一オブジェクトおよび前記第二オブジェクト以外の第三オブジェクトよりも高い視認性で表示部に表示させる表示制御部、
として機能させる表示プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016215800A JP2018073310A (ja) | 2016-11-04 | 2016-11-04 | 表示システム、表示プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016215800A JP2018073310A (ja) | 2016-11-04 | 2016-11-04 | 表示システム、表示プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018073310A true JP2018073310A (ja) | 2018-05-10 |
Family
ID=62114336
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016215800A Pending JP2018073310A (ja) | 2016-11-04 | 2016-11-04 | 表示システム、表示プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018073310A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018112695A (ja) * | 2017-01-13 | 2018-07-19 | 株式会社アクセル | 画像処理装置、および画像処理システム |
-
2016
- 2016-11-04 JP JP2016215800A patent/JP2018073310A/ja active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018112695A (ja) * | 2017-01-13 | 2018-07-19 | 株式会社アクセル | 画像処理装置、および画像処理システム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10466794B2 (en) | Gesture recognition areas and sub-areas for interaction with real and virtual objects within augmented reality | |
EP3605279A1 (en) | Method and system for user-related multi-screen solution for augmented reality for use in performing maintenance | |
US10489981B2 (en) | Information processing device, information processing method, and program for controlling display of a virtual object | |
US20090002342A1 (en) | Information Processing Device | |
US10642348B2 (en) | Display device and image display method | |
US10234955B2 (en) | Input recognition apparatus, input recognition method using maker location, and non-transitory computer-readable storage program | |
US11199946B2 (en) | Information processing apparatus, control method, and program | |
GB2540032A (en) | Data browse apparatus, data browse method, program, and storage medium | |
US20210055790A1 (en) | Information processing apparatus, information processing system, information processing method, and recording medium | |
WO2014103217A1 (ja) | 操作装置、及び操作検出方法 | |
JP2016126687A (ja) | ヘッドマウントディスプレイ、操作受付方法および操作受付プログラム | |
WO2015083267A1 (ja) | 表示制御装置及び表示制御方法 | |
JP2018073310A (ja) | 表示システム、表示プログラム | |
JP2017197015A (ja) | 車載用情報処理システム | |
US8731824B1 (en) | Navigation control for a touch screen user interface | |
WO2017188098A1 (ja) | 車載用情報処理システム | |
KR101188871B1 (ko) | 저시력인을 위한 터치스크린 장치 및 그 디스플레이 방법 | |
US20240160294A1 (en) | Detection processing device, detection processing method, information processing system | |
JP2018041219A (ja) | 視点取得システムおよび視点取得プログラム | |
WO2019189403A1 (en) | Information processing apparatus, information processing system, information processing method, and program | |
JP2017187922A (ja) | 車載用情報処理システム | |
JP2018073311A (ja) | 操作入力システム、操作入力プログラム | |
JP6696357B2 (ja) | ポインタ制御システムおよびポインタ制御プログラム | |
US10788904B2 (en) | In-vehicle information processing system | |
JP2018092518A (ja) | 表示制御システムおよび表示制御プログラム |