JP7416033B2 - 表示方法、表示システムおよび表示プログラム - Google Patents

表示方法、表示システムおよび表示プログラム Download PDF

Info

Publication number
JP7416033B2
JP7416033B2 JP2021169378A JP2021169378A JP7416033B2 JP 7416033 B2 JP7416033 B2 JP 7416033B2 JP 2021169378 A JP2021169378 A JP 2021169378A JP 2021169378 A JP2021169378 A JP 2021169378A JP 7416033 B2 JP7416033 B2 JP 7416033B2
Authority
JP
Japan
Prior art keywords
brightness
user
image
color tone
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021169378A
Other languages
English (en)
Other versions
JP2023059390A (ja
Inventor
美孝 中進
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2021169378A priority Critical patent/JP7416033B2/ja
Priority to CN202211252726.5A priority patent/CN115988158A/zh
Priority to US17/965,993 priority patent/US11854502B2/en
Publication of JP2023059390A publication Critical patent/JP2023059390A/ja
Application granted granted Critical
Publication of JP7416033B2 publication Critical patent/JP7416033B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/34Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source
    • G09G3/3406Control of illumination source
    • G09G3/342Control of illumination source using several illumination sources separately controlled corresponding to different display panel areas, e.g. along one dimension such as lines
    • G09G3/3426Control of illumination source using several illumination sources separately controlled corresponding to different display panel areas, e.g. along one dimension such as lines the different display panel areas being distributed in two dimensions, e.g. matrix
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/34Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source
    • G09G3/3406Control of illumination source
    • G09G3/3413Details of control of colour illumination sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/02Recognising information on displays, dials, clocks
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0626Adjustment of display parameters for control of overall brightness
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0666Adjustment of display parameters for control of colour parameters, e.g. colour temperature
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/02Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the way in which colour is displayed
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/10Intensity circuits

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Hardware Design (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Ophthalmology & Optometry (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、表示方法、表示システムおよび表示プログラムに関する。
従来、表示画面を見るユーザーの眼精疲労を軽減する技術が開発されている。例えば、
下記特許文献1に開示されるヘッドマウント型表示装置は、表示部と、光学部と、検知部
と、タイマーと、制御部とを含む。表示部は、画像を表示する。光学部は、表示部に表示
された画像をユーザーの視覚に検知させる。検知部は、ヘッドマウント型表示装置がユー
ザーに装着されているか否かを検知する。タイマーは、ヘッドマウント型表示装置がユー
ザーに装着され、かつ表示部に画像が表示されている時間を計測する。制御部は、タイマ
ーにより計測された時間の経過に対応させて、ユーザーの眼精疲労を抑制するように、視
覚に検知される画像を変化させる。
特開2003-076353号公報
上述した特許文献1に記載された技術では、表示全体の輝度を低下させることによりユーザーの眼精疲労を軽減している。この方法を、例えば複数のユーザーが同時に使用することが想定された大型画面に適用すると、遠くから大型画面を見た場合の視認性が低下する等により、利便性が低下する可能性がある。
本発明の一態様に係る表示方法は、表示面に、画像を表示することと、前記表示面に顔を向けている第1ユーザーの瞼の動きに基づいて、前記画像のうち前記第1ユーザーに対応する部分である第1部分の明るさ又は色調を、前記画像のうち前記第1部分とは異なる第2部分の前記明るさ又は色調と異ならせることと、を含む。
本発明の一態様に係る表示システムは、表示面に画像を表示する表示装置と、前記表示面に顔を向けている第1ユーザーの瞼の動きに基づいて、前記画像のうち前記第1ユーザーに対応する部分である第1部分の明るさ又は色調を、前記画像のうち前記第1部分とは異なる第2部分の前記明るさ又は色調と異ならせた前記画像を示す信号を前記表示装置に出力する処理装置と、を備える。
本発明の一態様に係る表示プログラムは、処理装置に、表示面に画像を表示させることと、前記表示面に顔を向けている第1ユーザーの瞼の動きに基づいて、前記画像のうち前記第1ユーザーに対応する部分である第1部分の明るさ又は色調を、前記画像のうち前記第1部分とは異なる第2部分の前記明るさ又は色調と異ならせることと、を実行させる。
実施形態に係る表示システム1の使用例を示す概略図である。 投射画像PCの一例を示す模式図である。 投射画像PCの一例を示す模式図である。 表示システム1の構成を模式的に示す図である。 処理装置103による処理の手順を示すフローチャートである。 対象ユーザーUT1が1人で投射画像PCを見ている場合を模式的に示す図である。 複数の対象ユーザーUT2~UT5が投射画像PCの近傍に位置する場合を模式的に示す図である。 対象ユーザーUT1が1人で投射画像PCを見ている場合を模式的に示す図である。 対象ユーザーUT1が1人で投射画像PCを見ている場合を模式的に示す図である。 複数の対象ユーザーUT2~UT4が投射画像PCの近傍に位置する場合を模式的に示す図である。
以下、添付図面を参照しながら本発明に係る好適な実施形態を説明する。なお、図面において各部の寸法又は縮尺は実際と適宜に異なり、理解を容易にするために模式的に示している部分もある。また、本発明の範囲は、以下の説明において特に本発明を限定する旨の記載がない限り、これらの形態に限られない。
[実施形態]
[1.表示システムの概要]
図1は、実施形態に係る表示システム1の使用例を示す概略図である。図1に示すように表示システム1は、例えば、駅やショッピングビルなど多数の人が集まる空間Sにおいて画像を表示するために設けられている。本実施形態では、表示システム1は、プロジェクター10により、壁面Wの少なくとも一部に、投射画像PCを投射する。壁面Wのうち、プロジェクター10により投射画像PCが投射される領域を、投射領域FPとする。壁面Wの全面が投射領域FPであってもよい。投射領域FPは、表示面の一例である。また、投射画像PCは、画像の一例である。なお、表示システム1は、例えば、壁面Wに設置されたディスプレイに画像を表示するシステムであってもよい。この場合は、ディスプレイの表面が、表示面に相当する。
本実施形態では、表示システム1による投射領域FPは、複数のユーザーUが同時に投射画像PCを見ることが可能な広さであるものとする。この場合、投射領域FPの全体に1つの投射画像PCが投射され、これを複数のユーザーUが同時に見てもよいし、投射領域FPに複数の投射画像PCが投射され、各ユーザーUがそれぞれ異なる投射画像PCを見てもよい。なお、後者の場合のユーザーUとは、一緒に行動する複数のユーザーUで構成されるグループであってもよい。本実施形態では、前者のように、投射領域FPに1つの投射画像PCが投射され、各ユーザーUがそれぞれ異なる投射画像PCの一部の領域を見るものとする。
また、表示システム1は、ライトカーテン生成装置12により、図3に示されるライトカーテンLを投射領域FPの近傍に射出する。ライトカーテンLの反射光を検出することにより、ユーザーUによってタッチされた、投射画像PC上の位置が検出される。表示システム1においては、投射領域FPに対するユーザーUのタッチ操作に基づいて投射画像PCの内容が動的に変化する。すなわち、表示システム1においては、インタラクティブな画像表示が行われる。
図2Aおよび図2Bは、投射画像PCの一例を示す模式図である。図2Aおよび図2Bは、投射領域FPの一部の領域FP-Aを示している。図2Aおよび図2Bの例は、表示システム1がショッピングビルに設けられている場合を想定している。初期状態において、領域FP-Aに表示される画像PC-Aは、複数のアイコンIC1~IC3を含んでいる。例えば、アイコンIC1は「食べる」というキーワードに対応している。同様に、アイコンIC2は「買う」、アイコンIC3は「楽しむ」というキーワードに、それぞれ対応している。アイコンIC1~IC3のいずれかが投射された領域にユーザーUがタッチすると、当該アイコンICのキーワードに対応する、ショッピングビル内の店舗の一覧LSが表示される。
例えば、ユーザーUが、「食べる」に対応するアイコンIC1が投射された領域をタッチすると、図2Bに示すように、ショッピングビル内の飲食店の一覧LSを含む画像PC-Bが表示される。すなわち、飲食店の一覧LSが、ユーザーUのタッチに連動して変化した投射画像PCの一部分となる。
飲食店の一覧LSは、飲食店の店名、提供される料理のジャンル、フロアなどの大まかな位置情報を含む、店舗の概要情報SIを含む。ユーザーUが、いずれかの店舗の概要情報SIが投射された領域にタッチすると、当該店舗の位置情報や営業時間情報、メニュー情報などの詳細情報が表示される。
なお、表示システム1は、インタラクティブな画像表示を行うのではなく、ユーザーUの操作の有無に関わらず、予め決められた画像を表示するシステムであってもよい。
[2.表示システムの構成]
図3は、表示システム1の構成を示すブロック図である。表示システム1は、プロジェクター10と、ライトカーテン生成装置12と、第1撮像装置14Aと、第2撮像装置14Bを備える。図1に示すように、表示システム1は、比較的大きな投射領域FPを有している。よって、プロジェクター10と、ライトカーテン生成装置12と、第1撮像装置14Aと、第2撮像装置14Bとのうち、少なくとも1つが、複数設けられていてもよい。例えば、図1の壁面Wの幅方向に沿って、プロジェクター10、ライトカーテン生成装置12、第1撮像装置14Aおよび第2撮像装置14Bを含む装置群が複数配置されてもよい。
第1撮像装置14Aは、撮像素子として、赤外領域および可視光領域の光を受光するCCD(Charge Coupled Device)イメージセンサーを有する。撮像素子は、CCDイメージセンサーに限らず、例えば、赤外領域および可視光領域の光を受光するCMOS(Complementary Metal Oxide Semiconductor)イメージセンサーでもよい。第1撮像装置14Aには、ユーザーUの指F等の物体によるライトカーテンLの反射光を受光するために赤外線フィルターが取り付けられている。第1撮像装置14Aは、壁面Wの投射領域FPを撮像した第1撮像画像に対応する第1撮像画像データを生成する。ライトカーテンLの一部が物体によって反射される場合、第1撮像画像データは、物体によるライトカーテンLの反射光が含まれる。第1撮像装置14Aは、例えば、プロジェクター10と一体に構成されてもよい。第1撮像装置14Aは、第1撮像画像データをプロジェクター10に出力する。
第2撮像装置14Bは、撮像素子として、可視光領域の光を受光するCCDイメージセンサーを有する。撮像素子は、CCDイメージセンサーに限らず、例えば、可視光領域の光を受光するCMOSイメージセンサーでもよい。第2撮像装置14Bは、投射領域FPに対向する領域を撮像することによって、第2撮像画像に対応する第2撮像画像データを出力する。一例としては、第2撮像装置14Bは、壁面Wに、壁面Wの法線方向を撮像方向として設置される。これは、投射領域FPに顔を向けているユーザーUの顔を第2撮像画像に写すためである。第2撮像装置14Bは、第2撮像画像データをプロジェクター10に出力する。
ライトカーテン生成装置12は、図1に示すように、壁面Wのうち、投射領域FPよりも上方に設置される。ライトカーテン生成装置12は、壁面Wではなく、天井Cの一部に設置されてもよい。ライトカーテン生成装置12は、壁面Wの表面に沿う平面状の光であるライトカーテンLを射出する。ライトカーテンLは、平面状の光に限らず、他の形状の光であってもよい。ライトカーテンLは、赤外線波長帯の光である。本実施形態では、ライトカーテンLは、壁面Wに沿って進み、壁面Wのうち、少なくとも投射領域FPを覆う。ライトカーテンLは、壁面Wの表面から、数ミリメートルの距離で法線方向に離れるように射出される。タッチ位置TPの検出精度の向上のためには、ライトカーテンLと壁面Wの表面との距離を小さくするのが好ましい。一方で、これらを近づけすぎると、壁面Wの表面状態等によっては誤検出が発生することになる。よって、ライトカーテンLと壁面Wの表面との距離は適宜調整される。
ライトカーテンLは、ユーザーUによって指示される投射画像PC上のタッチ位置TPを検出するために使用される。ユーザーUによる投射画像PCへのタッチは、多くの場合ユーザーUの指Fで行われると想定するが、例えば、棒又はペン等で投射画像PCがタッチされてもよい。
具体的には、ライトカーテン生成装置12は、レーザー光源ユニット121と、レーザー光源ユニット121を制御する射出制御装置122とを含む。
レーザー光源ユニット121は、ライトカーテンLを射出する。上述のように、ライトカーテンLは、赤外線波長帯の光であり、レーザー光源ユニット121は、赤外線波長帯のレーザー光を射出する。レーザー光源ユニット121は、例えば、1つ又は複数のLD(Laser Diode)に、コリメーターレンズおよびパウエルレンズ等の光学系部材が取り付けられているユニットである。ライトカーテン生成装置12は、レーザー光源ユニット121に限らず、例えばLED(Light Emitting Diode)を用いてライトカーテンLを射出するユニットでもよい。
射出制御装置122は、壁面Wに対するライトカーテンLの射出角度および壁面WにおけるライトカーテンLの射出位置等を制御する。射出制御装置122は、レーザー光源ユニット121の向きや位置を調整するアクチュエーター、アクチュエーターを制御する制御装置等を含む。
プロジェクター10は、図1に示すように、壁面Wに接続する天井Cに設置される。プロジェクター10は、天井Cではなく、壁面Wの一部に設置されてもよい。プロジェクター10が画像を投射する表示面は、壁面Wに限らず、例えば、スクリーンなどであってもよい。
プロジェクター10は、入力装置100と、通信装置101と、記憶装置102と、処理装置103と、投射装置105とを含む。
入力装置100は、例えば、表示システム1の管理者からの入力等を受ける各種の操作ボタン、操作キー又はタッチパネルを含む。入力装置100は、管理者から入力される情報を、無線又は有線でプロジェクター10に送信するリモートコントローラーでもよい。この場合、プロジェクター10は、リモートコントローラーが送信する情報を受信する受信装置を備える。リモートコントローラーは、管理者からの入力を受ける各種の操作ボタン、操作キー又はタッチパネルを備える。
通信装置101は、他の機器との間で通信を行うためのインターフェースである。本実
施形態では、通信装置101は、図示しない画像サーバーとの間で通信を行う。通信装置
101における通信は、無線通信であってもよいし、有線通信であってもよい。無線通信
を行う場合、通信装置101は、通信回路とアンテナ等を有し、例えばBluetoot
h又はWi-Fiにより無線通信を行う。BluetoothおよびWi-Fiは登録商
標である。また、有線通信を行う場合、通信装置101は、通信回路と、通信用配線が接
続されるコネクター等を有する。
記憶装置102は、コンピューター読み取り可能な記録媒体である。記憶装置102は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)およびEEPROM(Electrically Erasable Programmable Read Only Memory)を備える。記憶装置102は、処理装置103が処理する各種の情報およびプログラムを記憶する。このプログラムには、表示プログラムが含まれている。
投射装置105は、壁面Wの投射領域FPに投射画像PCを投射する。投射装置105は、表示装置の一例であり、画像処理回路、フレームメモリー、液晶ライトバルブ、ライトバルブ駆動回路、光源、投射光学系等を備える。画像処理回路は、処理装置103又は図示しない画像サーバー等の画像供給装置から画像データを受け取ると、当該画像データをフレームメモリーに展開し、必要な画像処理を行う。この画像処理は、例えば画像データの解像度を液晶ライトバルブの解像度に変換する処理、台形ゆがみを解消する幾何的補正処理等である。画像処理後の画像データは画像信号に変換され、画像信号に基づいて液晶ライトバルブ等が駆動されることによって、画像データが画像として投射される。なお、投射装置105は、上述した液晶ライトバルブ等を用いた液晶方式の他、例えば、DLP(Digital Lighting Processing、登録商標)方式であってもよい。なお、表示装置がディスプレイである場合、表示装置は、光源および表示パネル等を備える。
処理装置103は、例えば、単数又は複数のプロセッサーによって構成される。一例を挙げると、処理装置103は、単数又は複数のCPU(Central Processing Unit)によって構成される。処理装置103の機能の一部又は全部は、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)等の回路によって構成されてもよい。処理装置103は、各種の処理を並列的又は逐次的に実行する。
処理装置103は、記憶装置102から表示プログラムを読み取り実行することによって、タッチ検出部103Aと、表示画像制御部103Bと、ユーザー検出部103Cと、疲労検出部103Dと、画像処理制御部103Eとを実現する。タッチ検出部103Aと、表示画像制御部103Bと、ユーザー検出部103Cと、疲労検出部103Dと、画像処理制御部103Eとの全部又は一部は、FPGA等のハードウェアで構成されてもよい。
タッチ検出部103Aは、投射領域FPがタッチされたことを検出する。タッチ検出部103Aは、第1撮像装置14Aで撮像された第1撮像画像データにライトカーテンLの反射光が写った場合、投射領域FPがタッチされたものとして検出する。
また、タッチ検出部103Aは、投射領域FP上におけるタッチ位置を検出する。タッチ検出部103Aは、投射領域FPがタッチされた場合、第1キャリブレーションデータと、第1撮像画像データとに基づいて、投射領域FP上におけるタッチ位置TPを検出する。第1キャリブレーションデータは、投射装置105のフレームメモリーに展開された画像上の座標と、第1撮像画像データ上の座標とを対応づけるデータである。フレームメモリー上の座標は、投射領域FP上の座標に対応する。第1キャリブレーションデータを用いることで、タッチ検出部103Aは、第1撮像画像データ上におけるタッチ位置を、投射領域FP上におけるタッチ位置TPに変換することができる。
表示画像制御部103Bは、投射領域FP上におけるタッチ位置TPに基づいて、投射画像PCとして投射する画像を制御する。すなわち、表示画像制御部103Bは、投射領域FPへのタッチに連動して投射画像PCの一部分を変化させる。
表示画像制御部103Bは、例えば、画像サーバーに投射領域FP上におけるタッチ位置TPの座標を送信する。画像サーバーは、投射領域FP上におけるタッチ位置TPの座標と、現在投射領域FPに表示されている投射画像PCの画像データとに基づいて、次にタッチ位置TPの周辺に表示すべき画像である次表示画像を特定し、次表示画像の画像データをプロジェクター10に送信する。図2Aおよび図2Bを例にして説明すると、例えば、現在投射領域FPに投射されている投射画像PCが、図2Aの画像PC-Aであり、タッチ位置TPの座標が、「食べる」に対応するアイコンIC1の表示範囲に含まれるとする。この場合、画像サーバーは、図2Bに示す画像PC-Bの画像データを、次表示画像として送信する。表示画像制御部103Bは、次表示画像として送信された画像データを、投射画像PCとして投射領域FPに投射させる。
ユーザー検出部103Cは、第2撮像装置14Bで撮像された第2撮像画像に基づいて、投射領域FPを見るユーザーUを検出する。ユーザー検出部103Cは、例えば、第2撮像画像から人に対応する特徴点を有する領域を特定し、第2撮像画像上におけるユーザーUの位置を特定する。また、ユーザー検出部103Cは、各ユーザーUの視線を検出し、視線が投射領域FPに向いているユーザーUを検出する。以下、ユーザー検出部103Cによって検出された投射領域FPを見るユーザーUを「対象ユーザーUT」という。対象ユーザーUTは、第1ユーザーの一例である。
疲労検出部103Dは、第2撮像画像に基づいて、対象ユーザーUTの瞼の動きを検出する。また、疲労検出部103Dは、第2撮像画像に写る対象ユーザーUTの瞼の動きが第1状態であるか否かを判定する。第1状態とは、例えば、対象ユーザーUTが眼精疲労の状態にある可能性が高い場合の瞼の動きである。一般に、ユーザーUは、表示画像を長時間見ていると、目が疲れてくる。目が疲れると、ユーザーUは、目が疲れていない場合と比較して、まばたきが増える、目を細めるなどの、瞼の動きに特徴がある動作を行う。なお、本明細書において、「眼精疲労」と「目の疲れ」は同じ意味であるものとする。
よって、本実施形態では、第1状態を、対象ユーザーUTの単位時間当たりのまばたきの回数が、初期状態と比較して所定値以上増加した状態とする。初期状態とは、例えば、ユーザー検出部103Cによって対象ユーザーUTが検出された直後の単位時間におけるまばたきの回数とすることができる。
なお、第1状態と異なる状態として、第2状態を定義する。第2状態は、例えば第1状態以外の状態とする。本実施形態では、第2状態とは、対象ユーザーUTの単位時間当たりのまばたきの回数が、初期状態と比較して所定値未満増加している場合、対象ユーザーUTの単位時間当たりのまばたきの回数が、初期状態と変化ない場合、および、対象ユーザーUTの単位時間当たりのまばたきの回数が、初期状態と比較して減少している場合を含む。なお、第1状態および第2状態は、まばたきの回数に限らず、例えば、第2撮像画像中の対象ユーザーUTの顔面積に対する目の面積の比率などによって定義してもよい。
画像処理制御部103Eは、画像処理回路に対して、投射画像PCの一部に対する画像処理を行うように指示する。画像処理制御部103Eは、投射領域FPに顔を向けている対象ユーザーUTの瞼の動きに基づいて、投射画像PCのうち対象ユーザーUTに対応する部分である第1部分P1の明るさ又は色調を、投射画像PCのうち第1部分P1とは異なる第2部分P2の明るさ又は色調と異ならせる。
第1部分P1の詳細は後述するが、第1部分P1は、例えば、対象ユーザーUTと対向する投射画像PCの部分を含む。また、第2部分P2は、第1部分P1を除く投射画像PCの部分である。言い換えると、第2部分P2は、対象ユーザーUTの瞼の動きが第1状態となる前の第1部分P1の明るさ又は色調と、同じ明るさ又は色調の部分である。
本実施形態において、明るさとは、例えば、第1部分P1における投射画像PCの輝度である。明るさを異ならせるとは、一例としては、輝度を異ならせることである。また、明るさを異ならせるとは、例えば、投射画像PCの最大輝度と最小輝度の比であるコントラスト比を異ならせることであってもよいし、入力画像信号の大きさと画像の輝度との関係を示すγ値を異ならせることであってもよい。また、本実施形態において、色調とは、例えば、明度又は彩度の少なくとも1つである。例えば、第1部分P1にカラーフィルターを重畳させることにより、第1部分P1の見た目の明るさを変化させるようにしてもよい。
本実施形態では、画像処理制御部103Eは、対象ユーザーUTの瞼の動きが第1状態である場合、第1部分P1の明るさを、ユーザーUの瞼の動きが第1状態とは異なる第2状態である場合の第1部分P1の明るさよりも、暗くする。上述のように、第1状態とは、対象ユーザーUTの単位時間当たりのまばたきの回数が、初期状態と比較して所定値以上増加した状態であり、対象ユーザーUTの目が疲れていると推定される状態である。
一般に、投射画像PCは、周囲の環境よりも明るく表示されるので、長時間見続けると目が疲れる場合がある。よって、表示システム1では、投射画像PCを見ている対象ユーザーUTの目が疲れていると予測される場合には、投射画像PCのうち、対象ユーザーUTが見ている部分を含む第1部分P1の明るさを暗くする。これにより、対象ユーザーUTの目が受ける刺激が低減され、対象ユーザーUTの目の疲労を軽減することができる。
画像処理制御部103Eは、第1状態における単位時間当たりのまばたきの回数に応じて、第1部分P1の明るさを変更してもよい。例えば、第1状態が、対象ユーザーUTの単位時間当たりのまばたきの回数が、初期状態と比較して20%以上増加した状態であるとする。この場合、まばたきの回数が初期状態と比較して20%以上30%未満の範囲で増加した状態では、第1部分P1の明るさを-5%とする。また、まばたきの回数が初期状態と比較して30%以上40%未満の範囲で増加した状態では、第1部分P1の明るさを-10%とする。すなわち、まばたきの回数の増加度合いが大きいほど、第1部分P1の明るさを低減する。このようにすることで、対象ユーザーUTの目の疲れの程度に応じて第1部分P1の明るさを調整し、目の疲れの軽減と投射画像PCの見やすさとを両立することができる。なお、第1部分P1の明るさは、例えば-30%程度まで変更してもよい。
また、画像処理制御部103Eは、対象ユーザーUTの瞼の動きが第1状態である場合に、第1部分P1の明るさに代えて、又は明るさと共に、第1部分P1の色調を変化させてもよい。具体的には、例えば、第1部分P1の明度又は彩度の少なくともいずれかを低くしてもよい。この場合にも、対象ユーザーUTの目が受ける刺激が低減され、対象ユーザーUTの目の疲労を軽減することができる。
また、対象ユーザーUTが継続的に第1部分P1を見ている間に、急に第1部分P1の明るさ又は色調が変化すると、対象ユーザーUTが違和感を覚えたり、表示システム1の故障を疑ったりする可能性がある。よって、処理装置103は、画像処理制御部103Eで第1部分P1の明るさ又は色調を異ならせた場合に、対象ユーザーUTに明るさ又は色調を異ならせたことを通知してもよい。通知の方法は任意であるが、例えば、第1部分P1上、又は第1部分P1の外縁と接する位置に、明るさ又は色調を調整した旨のメッセージ又はアイコンを示す画像が表示されてもよい。この通知の有無は、例えば、プロジェクター10の入力装置100を介して、表示システム1の管理者が設定可能であってもよい。
また、画像処理制御部103Eは、第1部分P1の明るさ又は色調を変更した後、所定の条件が成立した場合には、第1部分P1の明るさ又は色調を変更前の状態に戻してもよい。所定の条件とは、例えば、対象ユーザーUTが第1部分P1を見るのをやめた可能性が高い場合に成立する条件である。所定の条件とは、具体的には、例えば、対象ユーザーUTからのタッチ操作が所定時間以上ない、対象ユーザーUTの顔が投射画像PCに向いていない状態が所定時間以上継続している、対象ユーザーUTが投射領域FPから所定距離以上離れた、などが挙げられる。これらの条件のうち、少なくとも1つが成立した場合には、対象ユーザーUTが第1部分P1を見るのをやめた可能性が高い。よって、画像処理制御部103Eは、第1部分P1の明るさ又は色調を変更前の状態に戻す。
すなわち、画像処理制御部103Eは、以下の条件1から条件3のうち少なくともいずれかが生じた場合に、第1部分P1の明るさを、対象ユーザーUTの瞼の動きが第2状態である場合の第1部分P1の明るさに戻してもよい。条件1は、投射領域FPがタッチされたことが検出されてから第1所定時間以内に、投射領域FPのタッチされた位置から第2所定距離以内に再度タッチが行われなかった場合である。条件2は、対象ユーザーUTが投射領域FPに顔を向けていない状態が第2所定時間以上継続した場合である。条件3は、対象ユーザーUTが投射領域FPから第3所定距離以上離れた場合である。なお、第2所定距離以内とは、例えば、前回のタッチ操作によって変更された投射画像PCの範囲内であってもよい。
[3.表示システム1の動作]
図4は、処理装置103による処理の手順を示すフローチャートである。処理装置10
3は、表示画像制御部103Bとして機能することにより、投射領域FPに投射画像PC
を投射する(ステップS12)。処理装置103は、ユーザー検出部103Cとして機能
することにより、投射領域FPを見るユーザーU、すなわち対象ユーザーUTを検出する
(ステップS14)。処理装置103は、対象ユーザーUTがいない間は待機する(ステ
ップS14:NO)。対象ユーザーUTがいる場合(ステップS14:YES)、処理装
置103は、タッチ検出部103Aとして機能することにより、投射領域FPがタッチさ
れたか否かを判断する(ステップS16)。投射領域FPがタッチされた場合(ステップ
S16:YES)、処理装置103は、表示画像制御部103Bとして機能することによ
り、タッチ位置TPに基づいて、投射画像PCの一部分を変化させる(ステップS18)
。また、投射領域FPがタッチされない場合(ステップS16:NO)、処理装置103
は、投射画像PCを変化させず、処理をステップS20に移行させる。
処理装置103は、疲労検出部103Dとして機能することにより、対象ユーザーUTの瞼の動きを検出する(ステップS20)。処理装置103は、疲労検出部103Dとして機能することにより、対象ユーザーUTの瞼の動きが第1状態であるか否かを判定する(ステップS22)。対象ユーザーUTの瞼の動きが第1状態である場合(ステップS22:YES)、処理装置103は、画像処理制御部103Eとして機能することにより、投射画像PCの第1部分P1の明るさを暗くする(ステップS24)。上述のように、投射画像PCの第1部分P1は、対象ユーザーUTが見ている部分であり、例えば、対象ユーザーUTのタッチにより表示が変化した部分である。また、対象ユーザーUTの瞼の動きが第1状態ではない場合(ステップS22:NO)、処理装置103は、処理をステップS16に戻す。
ステップS24で投射画像PCの第1部分P1の明るさを暗くした後、処理装置103
は、ユーザー検出部103Cとして機能することにより、対象ユーザーUTが第1部分P
1を見ているか否かを判定する(ステップS26)。対象ユーザーUTが第1部分P1を
見ている場合(ステップS26:YES)、処理装置103は、ステップS16に処理を
戻す。この場合、第1部分P1の明るさが暗い状態が継続する。また、ステップS16に
処理を戻された後、対象ユーザーUTが更に投射領域FPをタッチして投射画像PCが変
化した場合、処理装置103は、タッチにより変化した部分を新たな第1部分P1として
、明るさを暗くした状態を継続させる。
処理装置103は、対象ユーザーUTが第1部分P1を見なくなると(ステップS26:NO)、画像処理制御部103Eとして機能することにより、ステップ24で暗くした第1部分P1の明るさを元に戻して(ステップS28)、処理をステップS12に戻す。
[4.第1部分P1の設定例]
上述のように、表示システム1では、投射画像PCを見ている対象ユーザーUTの目が疲れていると予測される場合には、対象ユーザーUTに対応する第1部分P1の明るさを暗くして、対象ユーザーUTの目の疲労を軽減する。一方で、本実施形態では、投射領域FPの範囲が大きく、複数のユーザーUが同時に投射画像PCを見る可能性がある。そのため例えば、1人の対象ユーザーUTの瞼の動きに基づいて投射画像PCの全体を暗くすると、目が疲れていない他の対象ユーザーUTにとっては、自身が見ている投射画像PCが急に暗くなるので、違和感を覚えたり、画像が見づらくなったりする可能性がある。よって、目が疲れた対象ユーザーUTがいる場合に、投射画像PCのどの部分を暗くするかが問題となる。すなわち、第1部分P1をどの領域にするかが問題となる。
[設定例1:タッチにより変化した画像を基準とする]
第1部分P1は、例えば、目が疲れた対象ユーザーUTが見ている部分を含むことが好ましい。上述のように、投射画像PCは、ユーザーUのタッチにより変化する。対象ユーザーUTは、自身のタッチにより変化した部分を見ている可能性が高い。よって、設定例1では、第1部分P1を、対象ユーザーUTのタッチにより変化した投射画像PCの部分とする。
図5は、対象ユーザーUT1が1人で投射画像PCを見ている場合を模式的に示す図である。図5は、対象ユーザーUT1を後方から見た図である。図5において、投射領域FPには、図2Bに示す飲食店の一覧LSが表示されている。飲食店の一覧LSは、対象ユーザーUT1が、図2Aに示す複数のアイコンICの中から「食べる」に対応するアイコンIC1をタッチした結果、投射画像PCの一部として表示されているものとする。対象ユーザーUT1は1人で投射画像PCを見ており、対象ユーザーUT1と対向する位置に飲食店の一覧LSが位置する。
対象ユーザーUT1が飲食店の一覧LSを見ている間に、対象ユーザーUT1の瞼の動きが第1状態になると、処理装置103は、飲食店の一覧LSの表示部分の輝度を、他の投射画像PCの部分よりも低くする。この結果、飲食店の一覧LSの表示部分の明るさが暗くなる。すなわち、飲食店の一覧LSが第1部分P1となる。また、投射画像PCのうち、飲食店の一覧LS以外の部分は、第2部分P2であり、元の明るさが維持される。
図6は、複数の対象ユーザーUT2~UT5が投射画像PCの近傍に位置する場合を模式的に示す図である。図6は、対象ユーザーUT2~UT5を後方から見た図である。図6でも、投射領域FPには、図2Bに示す飲食店の一覧LSが表示されている。飲食店の一覧LSは、対象ユーザーUT2が、図2Aに示す複数のアイコンICの中から「食べる」に対応するアイコンIC1をタッチした結果、投射画像PCの一部として表示されているものとする。対象ユーザーUTは複数人で投射画像PCを見ているため、飲食店の一覧LSと完全に対向するのは対象ユーザーUT2のみであり、対象ユーザーUT3およびUT4は、飲食店の一覧LSの一部のみと対向し、対象ユーザーUT5は、飲食店の一覧LSと対向していない。
この場合、対象ユーザーUT2~UT5のうち、誰が飲食店の一覧LSを見ているかが問題となる。一般に、対象ユーザーUT2のタッチにより表示された飲食店の一覧LSを見るのは、対象ユーザーUT2と同じグループで行動するユーザーUである。グループとは、例えば、友人や家族、知り合いなど、行動を共にする複数のユーザーUである。同じグループのユーザーU同士は、グループ以外の他人と比べて近い位置にいると考えられる。また、対象ユーザーUT2と同じグループであっても、飲食店の一覧LSから遠い位置にいるユーザーUは、飲食店の一覧LSが見えづらく、投射画像PCの他の領域を見ている可能性が高い。
よって、処理装置103は、飲食店の一覧LSから距離Dxの位置にいる対象ユーザーUTを、飲食店の一覧LSを見ている対象ユーザーUTであるものと推定する。そして、これらの対象ユーザーUTの少なくともいずれか1人の瞼の動きが第1状態となった場合、処理装置103は、飲食店の一覧LSの表示部分の明るさを、他の投射画像PCの部分よりも暗くする。
すなわち、プロジェクター10において、疲労検出部103Dは、飲食店の一覧LSから距離Dx以内に、複数の対象ユーザーUT2~UT4が位置する場合に、対象ユーザーUT2~UT4のそれぞれの瞼の動きを検出する。また、画像処理制御部103Eは、複数の対象ユーザーUT2~UT4のいずれか1人の瞼の動きが第1状態である場合に、飲食店の一覧LSの明るさを、対象ユーザーUT2~UT4の全員の瞼の動きが第2状態である場合の飲食店の一覧LSの明るさよりも暗くする。例えば、対象ユーザーUT2は第1ユーザーの一例であり、対象ユーザーUT3は第2ユーザーの一例である。距離Dxは、第1距離の一例である。
図6の例では、処理装置103は、飲食店の一覧LSの幅方向端部から距離Dxを取り、飲食店の一覧LSから距離Dx以内に対向する位置にいる対象ユーザーUTを、飲食店の一覧LSを見ている対象ユーザーUTと推定する。飲食店の一覧LSから距離Dx以内に対向する位置にいる対象ユーザーUTとは、例えば、飲食店の一覧LSから距離Dx以内に対向する位置に両目が位置する対象ユーザーUTとする。この場合、図6の例では、対象ユーザーUT2~UT4は飲食店の一覧LSを見ている対象ユーザーUTと推定され、対象ユーザーUT5は飲食店の一覧LSを見ている対象ユーザーUTと推定されない。
対象ユーザーUT2~UT4のうち少なくとも1人の瞼の動きが第1状態となった場合、処理装置103は、飲食店の一覧LSの表示部分の明るさを他の部分より暗くする。すなわち、対象ユーザーUT2~UT4にとっては、飲食店の一覧LSが第1部分P1となる。一方、対象ユーザーUT5の瞼の動きが第1状態となった場合、処理装置103は、飲食店の一覧LSの表示部分の明るさを暗くしない。すなわち、対象ユーザーUT5にとっては、飲食店の一覧LSが第1部分P1とならない。
なお、上記のように、グループで飲食店の一覧LSを見ている場合に、グループ内で1人でも目が疲れた対象ユーザーUTがいたら飲食店の一覧LSの明るさを暗くする方法の他、例えば、タッチ操作を行っている対象ユーザーUTの目が疲れた場合にのみ、飲食店の一覧LSの明るさを暗くするようにしてもよい。この場合、主体的に画面を操作している対象ユーザーUTの目の状態に合わせて投射画像PCの表示画像の明るさを変化させることができる。特に、グループで投射画像PCを見ている場合には、投射画像PCの明るさが短期間で暗くなるのを回避することができる。また、対象ユーザーUTが1人で投射画像PCを見ている場合にも、タッチ操作を行ったユーザーUを識別することにより、対象ユーザーUTが見ている部分をより確実に特定することができる。
この場合、ユーザー検出部103Cは、第2キャリブレーションデータと、第2撮像装置14Bで撮像された第2撮像画像と、タッチ検出部103Aによって検出された投射領域FP上におけるタッチ位置TPに基づいて、タッチ位置TPをタッチしたユーザーUを特定する。第2キャリブレーションデータは、投射領域FP上の座標と、第2撮像画像上の座標とを対応づけるデータである。投射領域FP上の座標と、第2撮像画像データ上の座標とが対応づけられることで、投射領域FP上におけるタッチ位置TPをタッチしたユーザーUを特定することができる。具体的には、ユーザー検出部103Cは、例えば、第2撮像画像に写るユーザーUの手の動きを検出し、タッチ位置TPをタッチしたユーザーUを特定してもよい。
すなわち、画像処理制御部103Eは、対象ユーザーUTが投射領域FPをタッチし、かつ、対象ユーザーUTの瞼の動きが第1状態である場合に、第1部分P1の明るさを、対象ユーザーUTが投射領域FPをタッチし、かつ、対象ユーザーUTの瞼の動きが第2状態である場合の第1部分P1の明るさよりも、暗くしてもよい。
[設定例2:対象ユーザーUTの位置を基準とする]
上述のように、第1部分P1は、目が疲れた対象ユーザーUTが見ている部分を含むことが好ましい。一般に、対象ユーザーUTが見ている位置は、対象ユーザーUTの近傍である可能性が高い。よって、設定例2では、第1部分P1を、対象ユーザーUTから所定距離以内の投射画像PCの部分とする。
図7Aおよび図7Bは、対象ユーザーUT1が1人で投射画像PCを見ている場合を模
式的に示す図である。図7Aは、対象ユーザーUT1を後方から見た図であり、図7Bは
、対象ユーザーUT1を側方から見た図である。なお、図7Bにおいて投射画像PCを立
体的に図示しているが、これは図面上で第1部分P1を特定するためであり、投射画像P
Cは実際には壁面Wに投射されている。

例えば、対象ユーザーUT1の両目の中間点を基準点として、半径Rの球で特定される領域を特定領域SP1とする。半径Rは、例えば1m程度とすることができる。処理装置103は、対象ユーザーUT1の瞼の動きが第1状態となった場合には、対象ユーザーUT1の特定領域SP1と重なる投射画像PCの部分を第1部分P1とする。第1部分P1を網掛けで示す。この場合、第1部分P1は、対象ユーザーUT1が投射領域FPに近づくほど広くなる。また、第1部分P1は、対象ユーザーUT1が投射領域FPから半径R以上遠ざかると設定されなくなる。
このようにすることで、投射画像PCがタッチ操作によって変化するか否かに関わらず、第1部分P1を設定することができる。また、投射画像PCの表示内容に関係なく、対象ユーザーUTからの距離に基づいて、第1部分P1を設定するので、処理装置103における処理負荷を軽減することができる。
図8は、複数の対象ユーザーUT2~UT4が投射画像PCの近傍に位置する場合を模式的に示す図である。図8は、対象ユーザーUT2~UT4を後方から見た図である。図8においても、例えば、各対象ユーザーUT2~UT4の両目の中央部を基準点として、半径Rの球で特定される特定領域SP2~SP4が設定されている。処理装置103は、対象ユーザーUT2~UT4のいずれかの瞼の動きが第1状態となった場合には、当該対象ユーザーUTの特定領域SPと重なる投射画像PCの部分を第1部分P1とする。例えば、対象ユーザーUT4の瞼の動きが第1状態となった場合には、特定領域SP4と重なる投射画像PCの部分を第1部分P1として、明るさを暗くする。
ここで、複数の対象ユーザーUTが近接して位置しており、特定領域SPが重なるものとする。具体的には、図8において、対象ユーザーUT2の特定領域SP2と、対象ユーザーUT3の特定領域SP3とが重なる重複領域SWが存在する。この場合、処理装置103は、対象ユーザーUT2又はUT3のいずれかのみの瞼の動きが第1状態となった際には、瞼の動きが第1状態となった対象ユーザーUTの特定領域SPのうち、重複領域SWを除く部分を第1部分P1とする。例えば、対象ユーザーUT2の瞼の動きが第1状態となり、かつ、対象ユーザーUT3の瞼の動きが第1状態となっていない場合には、特定領域SP2と重なり、かつ重複領域SWに含まれない投射画像PCの部分を、第1部分P1として、明るさを暗くする。
このようにすることで、対象ユーザーUT2が見ている部分の大半は明るさが暗くなる一方で、対象ユーザーUT3が見ている部分の明るさは変更されない。すなわち、複数の対象ユーザーUTのうち一部のみの目が疲れた場合に、疲れ目の対象ユーザーUTの視野範囲を暗くする一方で、他の対象ユーザーUTの視野が暗くなるのを防止することができ、投射画像PCの見やすさを向上させることができる。
[5.まとめ]
以上説明したように、表示システム1は、対象ユーザーUTの瞼の動きに基づいて、投射画像PCののうち対象ユーザーUTに対応する部分である第1部分P1の明るさを、他の部分と異ならせる。すなわち、表示システム1は、複数のユーザーUが見る可能性がある投射画像PCのうち、対象ユーザーUTに対応する第1部分P1の明るさのみを、対象ユーザーUTの瞼の動きに基づいて変更する。これにより、投射画像PCの明るさを変更するに際して、対象ユーザーUT以外のユーザーに対する影響を抑制することができるので、複数のユーザーが投射画像PCを見る場合でも、利便性が低下しにくい。
また、表示システム1は、対象ユーザーUTの瞼の動きが第1状態である場合に、第1部分P1の明るさを、対象ユーザーUTの瞼の動きが第2状態である場合の第1部分P1の明るさよりも、暗くする。これにより、例えば、第1状態が対象ユーザーUTの眼精疲労を示す状態である場合に、対象ユーザーUTが見る部分の明るさを暗くして、対象ユーザーUTの眼精疲労を軽減することができる。
また、表示システム1において、投射領域FPへのタッチに連動して変化する投射画像の一部分を第1部分P1にしてもよい。これにより、対象ユーザーUTが見ている部分を精度よく特定することができ、第1部分P1の明るさを暗くした際の他のユーザーUへの影響を抑制することができる。
また、表示システム1において、投射画像PCの一部分から所定距離以内に複数の対象ユーザーUTがいる場合に、複数の対象ユーザーUTの少なくとも1人の瞼の動きが第1状態となった際には、投射画像PCの一部分の明るさを暗くしてもよい。これにより、グループで同じ投射画像PCを見ている際における利便性を向上させることができる。
また、表示システム1において、タッチ操作を行っている対象ユーザーUTの瞼の動きが第1状態となった際に、タッチ操作により変化した投射画像PCの一部分の明るさを暗くしてもよい。これにより、タッチ操作を行った対象ユーザーUTの瞼の状態のみが投射画像PCの明るさに反映され、投射画像PCの明るさを安定させることができ、複数のユーザーが投射画像PCを見る場合でも、利便性が低下しにくい。
また、表示システム1において、対象ユーザーUTが第1部分P1を見なくなった場合に、第1部分P1の明るさを元に戻すようにしてもよい。これにより、複数のユーザーUが使用する表示システム1において、ユーザーUが入れ替わった場合に、投射画像PCの明るさを初期状態に戻すことができ、複数のユーザーが投射画像PCを見る場合でも、利便性が低下しにくい。
また、表示システム1において、第1部分P1の明るさを異ならせた場合に、対象ユーザーUTにその旨を通知するようにしてもよい。これにより、投射画像PCの一部の明るさが暗くなった場合に、対象ユーザーUTが表示システム1の故障等を疑う可能性が低減し、表示システム1の使用時における利便性を向上させることができる。
1…表示システム、10…プロジェクター、12…ライトカーテン生成装置、14A…第1撮像装置、14B…第2撮像装置、100…入力装置、101…通信装置、102…記憶装置、103…処理装置、103A…タッチ検出部、103B…表示画像制御部、103C…ユーザー検出部、103D…疲労検出部、103E…画像処理制御部、105…投射装置、121…レーザー光源ユニット、122…射出制御装置、FP…投射領域、L…ライトカーテン、P1…:第1部分、P2…第2部分、PC…投射画像、U…ユーザー、UT…対象ユーザー。

Claims (8)

  1. 表示面に、画像を表示することと、
    前記表示面に顔を向けている第1ユーザーの瞼の動きに基づいて、前記画像のうち前記第1ユーザーに対応する部分である第1部分の明るさ又は色調を、前記画像のうち前記第1部分とは異なる第2部分の前記明るさ又は色調と異ならせることと、
    前記表示面がタッチされたことを検出することと、
    前記タッチに連動して前記画像の一部分を変化させることと、を含み、
    前記第1部分の明るさ又は色調を前記第2部分の前記明るさ又は色調と異ならせることは、前記第1ユーザーの瞼の動きが第1状態である場合に、前記第1部分の明るさを、前記第1ユーザーの瞼の動きが前記第1状態とは異なる第2状態である場合の前記第1部分の明るさよりも、暗くすることを含み、
    前記第1部分は、前記一部分を含む、
    表示方法。
  2. 前記一部分から第1距離以内に前記第1ユーザーと第2ユーザーとが位置する場合に、前記第1ユーザーの瞼の動きと、前記第2ユーザーの瞼の動きとを検出すること、を更に含み、
    前記第1部分の明るさ又は色調を前記第2部分の前記明るさ又は色調と異ならせることは、前記第1ユーザーの瞼の動きが前記第1状態である場合に、前記第1部分の明るさを、前記第1ユーザーの瞼の動き、および、前記第2ユーザーの瞼の動きが前記第2状態である場合の前記第1部分の明るさよりも、暗くすること、を含む、
    請求項に記載の表示方法。
  3. 前記第1部分の明るさ又は色調を前記第2部分の前記明るさ又は色調と異ならせることは、前記第1ユーザーが前記表示面をタッチし、かつ、前記第1ユーザーの瞼の動きが前記第1状態である場合に、前記第1部分の明るさを、前記第1ユーザーが前記表示面をタッチし、かつ、前記第1ユーザーの瞼の動きが前記第2状態である場合の前記第1部分の明るさよりも、暗くすること、を含む、
    請求項に記載の表示方法。
  4. 前記表示面がタッチされたことが検出されてから第1所定時間以内に、前記表示面のタッチされた位置から第2所定距離以内に再度タッチが行われなかった場合、前記第1ユーザーが前記表示面に顔を向けていない状態が第2所定時間以上継続した場合、および、前記第1ユーザーが前記表示面から第3所定距離以上離れた場合、のうちいずれかが生じた場合に、前記第1部分の明るさを、前記第1ユーザーの瞼の動きが前記第2状態である場合の前記第1部分の明るさに戻す、
    請求項1から3のいずれか1項に記載の表示方法。
  5. 前記第1部分の前記明るさ又は色調を異ならせた場合に、前記第1ユーザーに前記明るさ又は色調を異ならせたことを通知すること、を更に含む、
    請求項1からのいずれか1項に記載の表示方法。
  6. 表示面に画像を表示する表示装置と、
    前記表示面に顔を向けている第1ユーザーの瞼の動きに基づいて、前記画像のうち前記第1ユーザーに対応する部分である第1部分の明るさ又は色調を、前記画像のうち前記第1部分とは異なる第2部分の前記明るさ又は色調と異ならせた前記画像を示す信号を前記表示装置に出力することと、
    前記表示面がタッチされたことを検出することと、
    前記タッチに連動して前記画像の一部分を変化させることと、
    を実行する処理装置と、を備え、
    前記第1部分の明るさ又は色調を前記第2部分の前記明るさ又は色調と異ならせることは、前記第1ユーザーの瞼の動きが第1状態である場合に、前記第1部分の明るさを、前記第1ユーザーの瞼の動きが前記第1状態とは異なる第2状態である場合の前記第1部分の明るさよりも、暗くすることを含み、
    前記第1部分は、前記一部分を含む、
    表示システム。
  7. 前記表示面に対向する領域を撮像することによって、撮像画像を出力する撮像装置を備え、
    前記処理装置は、前記撮像画像に基づいて、前記第1ユーザーの瞼の動きを検出する、
    請求項に記載の表示システム。
  8. 処理装置に、
    表示面に画像を表示させることと、
    前記表示面に顔を向けている第1ユーザーの瞼の動きに基づいて、前記画像のうち前記第1ユーザーに対応する部分である第1部分の明るさ又は色調を、前記画像のうち前記第1部分とは異なる第2部分の前記明るさ又は色調と異ならせることと、
    前記表示面がタッチされたことを検出することと、
    前記タッチに連動して前記画像の一部分を変化させることと、
    を実行させ、
    前記第1部分の明るさ又は色調を前記第2部分の前記明るさ又は色調と異ならせることは、前記第1ユーザーの瞼の動きが第1状態である場合に、前記第1部分の明るさを、前記第1ユーザーの瞼の動きが前記第1状態とは異なる第2状態である場合の前記第1部分の明るさよりも、暗くすることを含み、
    前記第1部分は、前記一部分を含む、
    表示プログラム。
JP2021169378A 2021-10-15 2021-10-15 表示方法、表示システムおよび表示プログラム Active JP7416033B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021169378A JP7416033B2 (ja) 2021-10-15 2021-10-15 表示方法、表示システムおよび表示プログラム
CN202211252726.5A CN115988158A (zh) 2021-10-15 2022-10-13 显示方法、显示***以及记录介质
US17/965,993 US11854502B2 (en) 2021-10-15 2022-10-14 Display method, display system, and recording medium storing display program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021169378A JP7416033B2 (ja) 2021-10-15 2021-10-15 表示方法、表示システムおよび表示プログラム

Publications (2)

Publication Number Publication Date
JP2023059390A JP2023059390A (ja) 2023-04-27
JP7416033B2 true JP7416033B2 (ja) 2024-01-17

Family

ID=85957054

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021169378A Active JP7416033B2 (ja) 2021-10-15 2021-10-15 表示方法、表示システムおよび表示プログラム

Country Status (3)

Country Link
US (1) US11854502B2 (ja)
JP (1) JP7416033B2 (ja)
CN (1) CN115988158A (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015152757A (ja) 2014-02-14 2015-08-24 シャープ株式会社 眼の疲労度低減装置および制御方法
US20210082371A1 (en) 2019-09-12 2021-03-18 Logitech Europe S.A. Techniques for eye fatigue mitigation

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10187334A (ja) * 1996-12-26 1998-07-14 Canon Inc 情報入力方法および情報入力装置と情報入力用記憶媒体
JP2003076353A (ja) 2001-09-04 2003-03-14 Sharp Corp ヘッドマウント型表示装置
DE102012219433A1 (de) 2012-10-24 2014-05-08 Robert Bosch Gmbh Elektrisches Gerät, insbesondere Telekommunikationsgerät, mit einer Projektionseinrichtung und Verfahren zum Betrieb eines elektrischen Geräts
US9569992B2 (en) 2012-11-15 2017-02-14 Semiconductor Energy Laboratory Co., Ltd. Method for driving information processing device, program, and information processing device
JP6205249B2 (ja) 2012-11-30 2017-09-27 株式会社半導体エネルギー研究所 情報処理装置の駆動方法
JP6051828B2 (ja) 2012-12-10 2016-12-27 セイコーエプソン株式会社 表示装置、及び、表示装置の制御方法
US9904414B2 (en) 2012-12-10 2018-02-27 Seiko Epson Corporation Display device, and method of controlling display device
EP3035656B1 (en) * 2014-12-18 2021-08-04 Samsung Electronics Co., Ltd. Method and apparatus for controlling an electronic device
US20160334868A1 (en) * 2015-05-15 2016-11-17 Dell Products L.P. Method and system for adapting a display based on input from an iris camera
CN105824560A (zh) * 2016-03-16 2016-08-03 京东方科技集团股份有限公司 一种显示面板及其亮度调节方法、显示装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015152757A (ja) 2014-02-14 2015-08-24 シャープ株式会社 眼の疲労度低減装置および制御方法
US20210082371A1 (en) 2019-09-12 2021-03-18 Logitech Europe S.A. Techniques for eye fatigue mitigation

Also Published As

Publication number Publication date
US11854502B2 (en) 2023-12-26
JP2023059390A (ja) 2023-04-27
US20230119949A1 (en) 2023-04-20
CN115988158A (zh) 2023-04-18

Similar Documents

Publication Publication Date Title
TWI545947B (zh) 具有影像擷取及分析模組之顯示裝置
EP2002322B1 (en) Hotspots for eye track control of image manipulation
JP5293154B2 (ja) ヘッドマウントディスプレイ
EP3341818B1 (en) Method and apparatus for displaying content
RU2644265C2 (ru) Устройство отображения изображения и устройство для ввода информации
JP6652251B2 (ja) 表示装置、表示方法、および表示プログラム
US20140285404A1 (en) Head-mounted display device and method of controlling head-mounted display device
JP2010145861A (ja) ヘッドマウントディスプレイ
JP4951751B2 (ja) 瞳孔検出に基づくポインティング装置及び方法
CN107665039B (zh) 图像显示装置、图像形成装置和图像显示方法
JP2016206617A (ja) 表示システム
US20190287486A1 (en) System for providing hands-free input to a computer
CN113785258A (zh) 检测眼睛测量
CN115598842A (zh) 提升用户体验和注视互动准确度的光学***和相关方法
JPWO2020016970A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2009104331A (ja) 表示システムの輝度調整方法および表示システム
JP7416033B2 (ja) 表示方法、表示システムおよび表示プログラム
JP2016126687A (ja) ヘッドマウントディスプレイ、操作受付方法および操作受付プログラム
JP6143242B1 (ja) 画像表示装置
US11343420B1 (en) Systems and methods for eye-based external camera selection and control
KR101492832B1 (ko) 영상 제어 방법 및 이를 이용한 영상 표시 장치
JP6789377B2 (ja) 画像表示システム
US10691250B2 (en) Information processing device, information processing method, and program for preventing reflection of an operation in an output
US11874961B2 (en) Managing display of an icon in an eye tracking augmented reality device
WO2017122508A1 (ja) 情報表示システムおよび情報表示方法

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20211102

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220905

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220905

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230809

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230919

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231114

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231218

R150 Certificate of patent or registration of utility model

Ref document number: 7416033

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150