JP2019047250A - 映像表示システム、映像表示方法及び映像表示プログラム - Google Patents

映像表示システム、映像表示方法及び映像表示プログラム Download PDF

Info

Publication number
JP2019047250A
JP2019047250A JP2017166923A JP2017166923A JP2019047250A JP 2019047250 A JP2019047250 A JP 2019047250A JP 2017166923 A JP2017166923 A JP 2017166923A JP 2017166923 A JP2017166923 A JP 2017166923A JP 2019047250 A JP2019047250 A JP 2019047250A
Authority
JP
Japan
Prior art keywords
user
imaging
unit
video
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017166923A
Other languages
English (en)
Inventor
真治 谷口
Shinji Taniguchi
真治 谷口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fove Inc
Original Assignee
Fove Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fove Inc filed Critical Fove Inc
Priority to JP2017166923A priority Critical patent/JP2019047250A/ja
Priority to CN201810745800.4A priority patent/CN109429061A/zh
Priority to US16/038,293 priority patent/US10708652B2/en
Priority to TW107127049A priority patent/TW201921028A/zh
Priority to KR1020180092749A priority patent/KR20190024691A/ko
Publication of JP2019047250A publication Critical patent/JP2019047250A/ja
Priority to US16/888,298 priority patent/US20200296459A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43074Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of additional data with content streams on the same device, e.g. of EPG data or interactive icon with a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/658Transmission by the client directed to the server
    • H04N21/6587Control parameters, e.g. trick play commands, viewpoint selection
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Social Psychology (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Studio Devices (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

【課題】ユーザの視線方向に基づいて生成する次のフレームの生成時間に余裕のある映像表示システムを提供する。
【解決手段】
映像表示システムは、映像を受け付ける受付部と、受付部が受け付けた映像を表示する表示部と、ユーザの目に近赤外光を照射する照射部と、表示部に表示された映像を視認するユーザの目を、近赤外光に基づいて撮像する撮像部と、を備えるユーザが装置して映像を視聴する装着具と、撮像部が撮像した撮像画像に基づいて、ユーザの注視点を検出する視線検出部と、視線検出部が検出した注視点に基づいて、装着具に表示すべき映像を生成する映像生成部と、を備え、装着具は、表示部に表示される映像の各フレームが表示されるごとに、当該フレームをユーザが視認していると推定されるタイミングで撮像部による撮像が実行できるように撮像部に対して撮像の開始タイミングを指示する制御部とを備える。
【選択図】図1

Description

本発明は、ユーザの注視点に基づいて映像を生成して表示する映像表示システム、映像表示方法及び映像表示プログラムに関する。
従来、ユーザの頭部に装着して、映像を提示するものとして、ヘッドマウントディスプレイや、ウェアラブルグラスなどの開発が進められており、中には、ユーザの視線を検出するものもある。特許文献1には、ユーザの視線方向を検出可能な情報処理装置が開示されており、所定のタイミング毎にユーザの眼球画像を取得することを開示している。
特開2015−90569号公報
ところで、このような視線の検出は、例えば、映像においては、次のフレームの映像データの作成に利用されることがある。より具体的には、例えば、ユーザが360度映像を視聴しているような場合にユーザの視線を中心とした次のフレームの映像データを作成し、表示する。このとき、視線の特定には、映像を視聴するユーザの目を撮像した撮像画像を用いて行われるが、所定のタイミングごとの撮像では、当該撮像画像は、実際にユーザがそのフレームを見ていることを保証するものではないという問題があった。また、次のフレームを用意するにあたって、ユーザの目を撮像し、撮像して得られた撮像画像を解析して、注視点を特定するという工程を経てから、映像データを用意することになるので、映像データの準備に使用可能な時間が短いという問題もあった。
そこで、本発明は上記問題に鑑みてなされたものであり、より正確に各フレームを視聴しているユーザの目の撮像画像を得ることができ、ユーザが視聴する映像データの準備のための時間を従来よりも長く確保できる映像表示システムを提供することを目的とする。
上記課題を解決するために、本発明の一態様に係る映像表示システムは、映像を受け付ける受付部と、受付部が受け付けた映像を表示する表示部と、ユーザの目に近赤外光を照射する照射部と、表示部に表示された映像を視認するユーザの目を、近赤外光に基づいて撮像する撮像部と、を備えるユーザが装置して映像を視聴する装着具と、撮像部が撮像した撮像画像に基づいて、ユーザの注視点を検出する視線検出部と、視線検出部が検出した注視点に基づいて、装着具に表示すべき映像を生成する映像生成部と、を備え、装着具は、表示部に表示される映像の各フレームが表示されるごとに、当該フレームをユーザが視認していると推定されるタイミングで撮像部による撮像が実行できるように撮像部に対して撮像の開始タイミングを指示する制御部とを備える。
上記課題を解決するために、本発明の一態様に係る映像表示方法は、映像を受け付ける受付ステップと、受付ステップにおいて受け付けた映像を表示する表示ステップと、ユーザの目に近赤外光を照射する照射ステップと、表示ステップにおいて表示される映像のフレームが表示されるごとに、当該フレームをユーザが視認していると推定されるタイミングで撮像が実行できるように撮像の開始タイミングを指示する制御ステップと、表示ステップにおいて表示された映像を視認するユーザの目を、指示された開始タイミングに従って、近赤外光に基づいて撮像する撮像ステップと、撮像ステップにおいて撮像した撮像画像に基づいて、ユーザの注視点を検出する視線検出ステップと、視線検出ステップにおいて検出した注視点に基づいて、装着具に表示すべき映像を生成する映像生成ステップとを含む。
上記課題を解決するために、本発明の一態様に係る映像表示プログラムは、コンピュータに、映像を受け付ける受付機能と、受付機能が受け付けた映像を表示する表示機能と、ユーザの目に近赤外光を照射する照射機能と、表示機能が表示される映像のフレームが表示されるごとに、当該フレームをユーザが視認していると推定されるタイミングで撮像が実行できるように撮像の開始タイミングを指示する制御機能と、表示機能が表示された映像を視認するユーザの目を、指示された開始タイミングに従って、近赤外光に基づいて撮像する撮像機能と、撮像機能が撮像した撮像画像に基づいて、ユーザの注視点を検出する視線検出機能と、視線検出機能が検出した注視点に基づいて、装着具に表示すべき映像を生成する映像生成機能とを実現させる。
また、上記映像表示システムにおいて、受付部は、受け付けた映像の映像データを、表示部に表示するための形式に変換し、表示部は、受付部が変換した映像データの表示の開始を示す同期信号を出力し、制御部は、同期信号に基づいて撮像部に開始タイミングを指示する指示信号を撮像部に出力することとしてもよい。
また、上記映像表示システムにおいて、制御部は、ユーザが表示部にフレームの表示が開始されてから視認するまでの時間に応じて、指示信号を出力することとしてもよい。
また、上記映像表示システムにおいて、制御部は、更に、照射部が近赤外光をユーザの目に照射するタイミングを制御することとしてもよい。
本発明の一態様に係る映像表示システムは、ユーザの目を撮像するタイミングを制御することにより、より正確に映像を視聴しているユーザの目を撮像することができる。また、映像表示システムは、撮像のタイミング制御により撮像のタイミングの開始を従来よりも早めることで、次に視聴する映像データの準備に余裕を持たせることができる。
映像表示システムの構成例を示すブロック図である。 ヘッドマウントディスプレイをユーザが装着した様子を示す外観図である。 ヘッドマウントディスプレイの画像表示系の概観を模式的に示す斜視図である。 ヘッドマウントディスプレイの画像表示系の光学構成を模式的に示す図である。 視線方向の検出のためのキャリブレーションを説明する模式図である。 ユーザの角膜の位置座標を説明する模式図である。 映像表示システムの動作例を示すフローチャートである。 撮像タイミングのタイミング制御を行わなかった場合のタイミングチャートである。 撮像タイミングのタイミング制御を行った場合のタイミングチャートである。
以下、本発明に係る映像表示システムの一態様について、図面を参照しながら説明する。
<実施の形態>
本発明に係る映像表示システムは、図1に示すように、映像表示システム1は、映像を受け付ける受付部110と、受付部が受け付けた映像を表示する表示部102と、ユーザの目に近赤外光を照射する照射部135と、表示部102に表示された映像を視認するユーザの目を、近赤外光に基づいて撮像する撮像部140と、を備えるユーザが装置して映像を視聴する装着具100と、映像表示システムは、記撮像部が撮像した撮像画像に基づいて、ユーザの注視点を検出する視線検出装置200と、視線検出部220が検出した注視点に基づいて、装着具100に表示すべき映像を生成する映像生成部250と、を備え、装着具100は、表示部102に表示される映像の各フレームが表示されるごとに、当該フレームをユーザが視認していると推定されるタイミングで撮像部140による撮像が実行できるように撮像部140に対して撮像の開始タイミングを指示する制御部120とを備える。
即ち、映像表示システム1は、撮像部140による撮像タイミングを制御することにより、表示部102に表示された映像(フレーム)を実際にユーザが視認していると推定されるタイミングで撮像できるとともに、次にユーザが視認する映像(フレーム)を、ある程度余裕をもって生成することができる。以下、映像表示システム1について詳細に説明する。
図2は、実施の形態に係る映像表示システム1の概観を模式的に示す図である。実施の形態に係る映像表示システム1は、装着具100の一例として示したヘッドマウントディスプレイ100と視線検出装置200とを含む。以下においては、装着具100は、ヘッドマウントディスプレイ100と記載する。図2に示すように、ヘッドマウントディスプレイ100は、ユーザ300の頭部に装着して使用される。
視線検出装置200は、視線検出装置200は、ヘッドマウントディスプレイ100を装着したユーザの右目及び左目の少なくとも一方の視線方向を検出し、ユーザの焦点、すなわち、ユーザがヘッドマウントディスプレイに表示されている三次元画像において注視している箇所を特定する。また、視線検出装置200は、ヘッドマウントディスプレイ100が表示する映像を生成する映像生成装置としても機能する。限定はしないが、一例として、視線検出装置200は、据え置き型のゲーム機、携帯ゲーム機、PC、タブレット、スマートフォン、ファブレット、ビデオプレイヤ、テレビ等の映像を再生可能な装置である。視線検出装置200は、ヘッドマウントディスプレイ100と無線または有線で接続する。図2に示す例では有線(例えば、USBケーブル)により視線検出装置200がヘッドマウントディスプレイ100と接続している例を示しているが、これは、無線接続でもよい。無線接続の場合、視線検出装置200がヘッドマウントディスプレイ100と実行する無線接続は、例えば既知のWi−Fi(登録商標)やBluetooth(登録商標)等の無線通信技術を用いて実現できる。限定はしないが、一例として、ヘッドマウントディスプレイ100と視線検出装置200との間における映像の伝送は、Miracast(登録商標)やWiGig(登録商標)、WHDI(登録商標)等の規格に則って実行される。
なお、図2は、ヘッドマウントディスプレイ100と視線検出装置200とが異なる装置である場合の例を示している。しかしながら、視線検出装置200はヘッドマウントディスプレイ100に内蔵されてもよい。
ヘッドマウントディスプレイ100は、筐体150、装着具160、およびヘッドフォン170を備える。筐体150は、画像表示素子などユーザ300に映像を提示するための画像表示系や、図示しないWi−FiモジュールやBluetooth(登録商標)モジュール等の無線伝送モジュールを収容する。装着具160は、ヘッドマウントディスプレイ100をユーザ300の頭部に装着する。装着具160は例えば、ベルトや伸縮性の帯等で実現できる。ユーザ300が装着具160を用いてヘッドマウントディスプレイ100を装着すると、筐体150はユーザ300の眼を覆う位置に配置される。このため、ユーザ300がヘッドマウントディスプレイ100を装着すると、ユーザ300の視界は筐体150によって遮られる。
ヘッドフォン170は、視線検出装置200が再生する映像の音声を出力する。ヘッドフォン170はヘッドマウントディスプレイ100に固定されなくてもよい。ユーザ300は、装着具160を用いてヘッドマウントディスプレイ100を装着した状態であっても、ヘッドフォン170を自由に着脱することができる。
図3は、実施の形態に係るヘッドマウントディスプレイ100の画像表示系130の概観を模式的に示す斜視図である。より具体的に、図3は、実施の形態に係る筐体150のうち、ヘッドマウントディスプレイ100を装着したときにユーザ300の角膜302に対向する領域を示す図である。
図3に示すように、左目用凸レンズ114aは、ユーザ300がヘッドマウントディスプレイ100を装着したときに、ユーザ300の左目の角膜302aと対向する位置となるように配置される。同様に、右目用凸レンズ114bは、ユーザ300がヘッドマウントディスプレイ100を装着したときに、ユーザ300の右目の角膜302bと対向する位置となるように配置される。左目用凸レンズ114aと右目用凸レンズ114bとは、それぞれ左目用レンズ保持部152aと右目用レンズ保持部152bとに把持されている。
以下本明細書において、左目用凸レンズ114aと右目用凸レンズ114bとを特に区別する場合を除いて、単に「凸レンズ114」と記載する。同様に、ユーザ300の左目の角膜302aとユーザ300の右目の角膜302bとを特に区別する場合を除いて、単に「角膜302」と記載する。左目用レンズ保持部152aと右目用レンズ保持部152bとも、特に区別する場合を除いて「レンズ保持部152」と記載する。
レンズ保持部152には、複数の赤外光源103が備えられている。煩雑となることを避けるために、図3においてはユーザ300の左目の角膜302aに対して赤外光を照射する赤外光源をまとめて赤外光源103aで示し、ユーザ300の右目の角膜302bに対して赤外光を照射する赤外光源をまとめて赤外光源103bで示す。以下、赤外光源103aと赤外光源103bとを特に区別する場合を除いて「赤外光源103」と記載する。図3に示す例では、左目用レンズ保持部152aには6つの赤外光源103aが備えられている。同様に、右目用レンズ保持部152bにも6つの赤外光源103bが備えられている。このように、赤外光源103を凸レンズ114に直接配置せず、凸レンズ114を把持するレンズ保持部152に配置することにより、赤外光源103の取り付けが容易となる。一般にレンズ保持部152は樹脂等で構成されるため、ガラス等から構成される凸レンズ114よりも赤外光源103を取り付けるための加工が容易だからである。
上述したように、レンズ保持部152は凸レンズ114を把持する部材である。したがって、レンズ保持部152に備えられた赤外光源103は、凸レンズ114の周囲に配置されることになる。なお、ここでは、それぞれの眼に対して赤外光を照射する赤外光源103を6つとしているが、この数はこれに限定されるものではなく、それぞれの眼に対応して少なくとも1つあればよく、2以上配されているのが望ましい。
図4は、実施の形態に係る筐体150が収容する画像表示系130の光学構成を模式的に示す図であり、図3に示す筐体150を左目側の側面から見た場合の図である。画像表示系130は、赤外光源103、画像表示素子108、ホットミラー112、凸レンズ114、カメラ116、および出力部180を備える。
赤外光源103は、近赤外(700nm〜2500nm程度)の波長帯域の光を照射可能な光源である。近赤外光は、一般に、ユーザ300の肉眼では観測ができない非可視光の波長帯域の光である。
画像表示素子108は、ユーザ300に提示するための画像を表示する。画像表示素子108が表示する画像は、視線検出装置200内の映像生成部232が生成する。映像生成部232については後述する。画像表示素子108は、例えば既知のLCD(Liquid Crystal Display)や有機ELディスプレイ(Organic Electro Luminescence Display)等を用いて実現できる。
ホットミラー112は、ユーザ300がヘッドマウントディスプレイ100を装着したときに、画像表示素子108とユーザ300の角膜302との間に配置される。ホットミラー112は、画像表示素子108が生成する可視光は透過するが、近赤外光は反射する性質を持つ。
凸レンズ114は、ホットミラー112に対して、画像表示素子108の反対側に配置される。言い換えると、凸レンズ114は、ユーザ300がヘッドマウントディスプレイ100を装着したときに、ホットミラー112とユーザ300の角膜302との間に配置される。すなわち、凸レンズ114は、ヘッドマウントディスプレイ100がユーザ300に装着されたときに、ユーザ300の角膜302に対向する位置に配置される。
凸レンズ114はホットミラー112を透過する画像表示光を集光する。このため、凸レンズ114は、画像表示素子108が生成する画像を拡大してユーザ300に提示する画像拡大部として機能する。なお、説明の便宜上、図3では凸レンズ114をひとつのみ示しているが、凸レンズ114は、種々のレンズを組み合わせて構成されるレンズ群であってもよいし、一方が曲率を持ち、他方が平面の片凸レンズであってもよい。
複数の赤外光源103は、凸レンズ114の周囲に配置されている。赤外光源103は、ユーザ300の角膜302に向けて赤外光を照射する。
図示はしないが、実施の形態に係るヘッドマウントディスプレイ100の画像表示系130は画像表示素子108を二つ備えており、ユーザ300の右目に提示するための画像と左目に提示するための画像とを独立に生成することができる。このため、実施の形態に係るヘッドマウントディスプレイ100は、ユーザ300の右目と左目とに、それぞれ右目用の視差画像と左目用の視差画像とを提示することができる。これにより、実施の形態に係るヘッドマウントディスプレイ100は、ユーザ300に対して奥行き感を持った立体映像を提示することができる。
上述したように、ホットミラー112は、可視光を透過し、近赤外光を反射する。したがって、画像表示素子108が照射する画像光はホットミラー112を透過してユーザ300の角膜302まで到達する。
ユーザ300の角膜302に到達した赤外光は、ユーザ300の角膜302で反射され、再び凸レンズ114の方向に向かう。この赤外光は凸レンズ114を透過し、ホットミラー112で反射される。カメラ116は可視光を遮断するフィルタを備えており、ホットミラー112で反射された近赤外光を撮像する。すなわち、カメラ116は、赤外光源103から照射され、ユーザ300の眼で角膜反射された近赤外光を撮像する近赤外カメラである。
なお、図示はしないが、実施の形態に係るヘッドマウントディスプレイ100の画像表示系130は、カメラ116を二つ、すなわち、右目で反射された赤外光を含む画像を撮像する左目撮像カメラ116aと、左目で反射された赤外光を含む画像を撮像する右目撮像カメラ116bとを備える。これにより、ユーザ300の右目及び左目の双方の視線方向を検出するための画像を取得することができる。
出力部180は、カメラ116が撮像した画像を、ユーザ300の視線方向を検出する視線検出装置200に出力する。具体的には、出力部180は、カメラ116が撮像した画像を視線検出装置200に送信する。視線検出部220の詳細については後述するが、視線検出装置200のCPU(Central Processing Unit)が実行する視線検出プログラムによって実現される。なお、ヘッドマウントディスプレイ100がCPUやメモリ等の計算リソースを持っている場合には、ヘッドマウントディスプレイ100のCPUが視線方向検出部を実現するプログラムを実行してもよい。
詳細は後述するが、カメラ116が撮像する画像には、ユーザ300の角膜302で反射された近赤外光に起因する輝点と、近赤外の波長帯域で観察されるユーザ300の角膜302を含む眼の画像とが撮像されている。赤外光源からの近赤外光は、ある程度の指向性を有するものの、ある程度の拡散光も照射しており、ユーザ300の眼の画像は、当該拡散光により撮像される。
以上は、実施の形態に係る画像表示系130のうち主にユーザ300の左目に画像を提示するための構成について説明したが、ユーザ300の右目に画像を提示するための構成は上記と同様である。
図1に戻って、図1は、映像表示システム1の詳細構成を示すブロック図である。図1に示すように、映像表示システム1は、ヘッドマウントディスプレイ100と、視線検出装置200とを含む。
図1に示すようにヘッドマウントディスプレイ100は、受付部110と、表示部102と、制御部120と、照射部135と、撮像部140と、出力部180とを備える。受付部110と、表示部102と、制御部120と、照射部135と、撮像部140と、出力部180とは、互いに異なる回路により実現され、図に示すように接続される。
受付部110は、表示部102に表示すべき映像データを受け付ける機能を有する。受付部110は、入力端子111と、出力端子113とを備える。入力端子111は、映像データを例えば、ビデオ信号として受け付ける。そして、受付部110は、受け付けたビデオ信号をMIPI(Mobile Industry Processor Interface)形式に変換する。そして、変換後のビデオ信号を出力端子113から出力して、表示部102に伝達する。受付部110は、映像データを受け付ける入力インターフェースであり、入力端子111は、例えば、USB端子であってよい。なお、ここでは、受け付けたビデオ信号をMIPI形式に変換しているが、これは一例であり、LVDS(Low Voltage Differential Signalling)信号、ベースバンド信号などその他の形式の信号に変換するものであってもよく以降においても同様とする。また、入力端子についてもUSB端子は一例に過ぎず、その他の端子や入力機構であってよく、HDMI(登録商標)(High Definition Multimedia Interface)、ディスプレイポート、無線通信チップなどを用いてもよい。
表示部102は、受付部110で受け付けた映像データを表示する機能を有するディスプレイユニットである。表示部102は、伝達されたMIPI形式のビデオ信号を入力端子104で受け付け、受け付けたビデオ信号に基づく画像を画像表示素子108に表示する。また、表示部102は、書き込みの開始のトリガとして垂直同期信号を用いており、この垂直同期信号を出力するとともに、出力端子106から制御部120にも出力する。なお、ここでは、出力端子106から垂直同期信号を出力する構成を例示しているが、これは受付部110が有する同期用出力から制御部120に出力する構成を用いてもよい。また、表示部102は、映像生成部250から出力されたマーカー画像を画像表示素子108の指定されている座標に表示する。
制御部120は、撮像部140による撮像のタイミングを制御する機能を有する。また、制御部120は、照射部135による赤外光源103からの近赤外光の照射のタイミングを制御する機能も有する。制御部120は、入力端子121と、入力端子122と、照射遅延制御部123と、撮像遅延制御部124と、出力端子125と、出力端子126とを備える。制御部120は、例えば、マイクロプロセッサである。
入力端子121は、視線検出装置200と接続するための端子であり、視線検出装置200から、視認タイミングを受け付けて、照射遅延制御部123と、撮像遅延制御部124とに伝達する。ここで、視認タイミングとは、ユーザ300が映像の1フレームが表示部102により表示されて、実際に内容を視認して注視点が確定したときの時刻に関する情報のことである。視認タイミングは、ユーザ300によって、その反応速度の差に起因して、その時刻は変化(前後)する。
入力端子122は、表示部102から出力された垂直同期信号を受け付けるための端子であり、当該信号を受け付けたタイミングを撮像遅延制御部124に伝達する。
照射遅延制御部123は、照射部135の左目用LED103aと、右目用LED103bとを用いてユーザ300の目に近赤外光を照射する照射タイミングを制御する機能を有する。具体的には、照射遅延制御部123は、入力端子121から伝達された視認タイミングと、入力端子122から伝達された垂直同期信号のタイミングとに基づいて、ユーザの目を撮像すべきタイミングにおいて近赤外光が照射されているように、照射タイミング信号を生成し、出力端子125に伝達する。照射タイミングは、撮像部140による撮像のタイミングより若干早い方が望ましい。なお、照射タイミングは、厳密には、映像データの次のフレームにおけるユーザの目を撮像するタイミングにおいて近赤外光を照射するタイミングを示すものである。赤外光源103(LED103a、103b)から近赤外光を照射するタイミングを制御し、ON/OFFを行うことで、照射部135における省電力を図ることができる。
撮像遅延制御部124は、撮像部140が左目撮像カメラ116aと、右目撮像カメラ116bとのそれぞれにユーザの目を撮像すべきタイミングを制御する機能を有する。撮像遅延制御部124は、入力端子121から伝達された視認タイミングと、入力端子122から伝達された垂直同期信号のタイミングとに基づいて、撮像部140が撮像を開始すべき撮像タイミングを示す撮像タイミング信号を生成し、出力端子126に伝達する。撮像タイミング信号は、ユーザ300が表示部102により表示された映像の1フレームを実際に視認し注視点が確定したと推定されるタイミングで撮像が行われるように、撮像の起動を指示する信号であるともいえる。なお、撮像タイミングは、厳密には、映像データの次のフレームにおいてユーザの目を撮像するべきタイミングを示すものである。
出力端子125は、照射部135に対して、伝達された照射タイミング信号を伝達する機能を有する。
出力端子126は、撮像部140に対して、伝達された撮像タイミング信号を伝達する機能を有する。
照射部135は、ユーザの目に近赤外光を照射する機能を有する。照射部135は、左目用LED(近赤外光源)103aと、右目用LED(近赤外光源)103bとを備える。照射部135は、出力端子125から伝達された照射タイミング信号に従って、左目用LED103aと右目用LED103bとを点灯する。
撮像部140は、照射部135により照射された近赤外光に基づいて、ユーザ300の目を撮像する機能を有する。撮像部140は、左目撮像カメラ116aと、右目撮像カメラ116bとを備える。撮像部140は、出力端子126から伝達された撮像タイミング信号に従って、左目撮像カメラ116aと、右目撮像カメラ116bとを起動し、映像を視認するユーザ300の目を撮像する。撮像部140は、撮像した撮像画像を、出力部180に伝達する。なお、撮像タイミングの制御は、グローバルシャッターを開いているタイミングを制御するものであってもよい。
出力部180は、撮像部140が撮像した撮像画像を、視線検出装置200に出力する機能を有するインターフェースである。出力部180は、入力端子182と、出力端子181とを備える。出力部180は、入力端子182で撮像部140から受け付けた撮像画像を、出力端子181を介して、視線検出装置200に伝達する。出力端子181は、例えば、USB端子により実現することができる。
以上が、ヘッドマウントディスプレイ100の構成である。次に、視線検出装置200について説明する。
視線検出装置200は、入力端子210と、視線検出部220と、映像生成部250と、出力端子230と、出力端子240とを備える。
入力端子210は、ヘッドマウントディスプレイ100から送信された撮像画像の入力を受け付けるための端子である。入力端子210は、例えば、USB端子により実現することができる。入力端子210は、受信した撮像画像を視線検出部220に伝達する。
視線検出部220は、伝達された撮像画像に基づいて、ユーザ300の視線を検出する機能を有する。視線検出部220は、例えば、マイクロプロセッサにより実現することができる。視線検出部220は、画像解析部221と、検出部222と、撮像制御部223とを備える。
画像解析部221は、伝達された撮像画像から、ユーザ300の角膜位置などを特定する。
検出部222は、画像解析部221による撮像画像の解析結果を用いて、ユーザ300の映像における注視点を検出する。検出部222は、検出した注視点を映像生成部250に伝達する。
撮像制御部223は、ユーザ300が表示された映像を実際に視認するまでに要した時間を特定し、当該時間を視認タイミングとして、出力端子230に伝達する。撮像制御部223は、例えば、予め定められた一般的に人間が対象を明確に視認しているとされるまでに要する時間としてデフォルトの値を用いたり、画像変化のタイミングと注視点変化のタイミングとの時間間隔から得られる遅延推定値を用いたりして、視認するまでに要する時間を特定する。
視線検出部220によるユーザ300の視線の検出手法の更なる詳細については後述する。
映像生成部250は、検出部222から伝達されたユーザ300の注視点に基づいて、次のフレームの映像データを生成する。例えば、映像生成部250は、ユーザ300の注視点を中心とした所定範囲(例えば、ヘッドマウントディスプレイ100の画像表示素子108に表示可能な表示範囲)の映像データを生成する。また、映像生成部250は、例えば、ユーザ300の注視点を中心とした所定範囲を高解像度、当該所定範囲外を低解像度として映像データを生成することとしてもよい。そして、生成した映像データを出力端子240に伝達する。
出力端子230は、撮像制御部223から伝達された視認タイミングを、ヘッドマウントディスプレイ100に伝達する機能を有する。出力端子230は、例えば、USB端子により実現することができる。
出力端子240は、映像生成部250から伝達された映像データを、ビデオ信号として、ヘッドマウントディスプレイ100に伝達する機能を有する。出力端子240は、例えば、USB端子により実現することができるが、入力端子と同様に、HDMI、ディスプレイポートなども利用できる。また、出力端子240は、映像データを出力するタイミングを、撮像制御部223にも伝達する。これにより、出力する映像データに同期して撮像制御部223が視認タイミングを伝達することができるので、ヘッドマウントディスプレイ100は、視線検出装置200から出力される映像データに同期した撮像を実現することができる。
以上が視線検出装置200の構成の説明である。次に、ユーザの注視点の検出について説明する。
図5は、実施の形態に係る視線方向の検出のためのキャリブレーションを説明する模式図である。ユーザ300の視線方向は、カメラ116が撮像し出力部180が視線検出装置200に出力した映像を、視線検出装置200内の視線検出部220及び視線検出部220が解析することにより実現される。
映像生成部232は、図5に示すような点Q〜Qまでの9つの点(マーカー画像)を生成し、ヘッドマウントディスプレイ100の画像表示素子108に表示させる。視線検出装置200は、点Q〜点Qに到るまで順番にユーザ300に注視させる。このとき、ユーザ300は首を動かさずに極力眼球の動きのみで各点を注視するように求められる。カメラ116は、ユーザ300が点Q〜Qまでの9つの点を注視しているときのユーザ300の角膜302を含む画像を撮像する。
図6は、ユーザ300の角膜302の位置座標を説明する模式図である。視線検出装置200内の視線検出部220は、カメラ116が撮像した画像を解析して赤外光に由来する輝点105を検出する。ユーザ300が眼球の動きのみで各点を注視しているときは、ユーザがいずれの点を注視している場合であっても、輝点105の位置は動かないと考えられる。そこで視線検出部220は、検出した輝点105をもとに、カメラ116が撮像した画像中に2次元座標系306を設定する。
視線検出部220はまた、カメラ116が撮像した画像を解析することにより、ユーザ300の角膜302の中心Pを検出する。これは例えばハフ変換やエッジ抽出処理等、既知の画像処理を用いることで実現できる。これにより、視線検出部220は、設定した2次元座標系306におけるユーザ300の角膜302の中心Pの座標を取得できる。
図5において、画像表示素子108が表示する表示画面に設定された2次元座標系における点Q〜点Qの座標をそれぞれQ(x,y,Q(x,y・・・,Q(x,xとする。各座標は、例えば各点の中心に位置する画素の番号となる。また、ユーザ300が点Q〜点Qを注視しているときの、ユーザ300角膜302の中心Pを、それぞれ点P〜Pとする。このとき、2次元座標系306における点P〜Pの座標をそれぞれP(X,Y,P(X,Y,・・・,P(X,Yとする。なお、Tはベクトルまたは行列の転置を表す。
いま、2×2の大きさの行列Mを以下の式(1)のように定義する。
Figure 2019047250
このとき、行列Mが以下の式(2)を満たせば、行列Mはユーザ300の視線方向を画像表示素子108が表示する画像面に射影する行列となる。
=MP (N=1,・・・,9) (2)
上記式(2)を具体的に書き下すと以下の式(3)のようになる。
Figure 2019047250
式(3)を変形すると以下の式(4)を得る。
Figure 2019047250
ここで、
Figure 2019047250
とおくと、以下の式(5)を得る。
y=Ax (5)
式(5)において、ベクトルyの要素は視線検出部220が画像表示素子108に表示させる点Q〜Qの座標であるため既知である。また、行列Aの要素はユーザ300の角膜302の頂点Pの座標であるため取得できる。したがって、視線検出部220は、ベクトルyおよび行列Aを取得することができる。なお、変換行列Mの要素を並べたベクトルであるベクトルxは未知である。したがって、行列Mを推定する問題は、ベクトルyと行列Aとが既知であるとき、未知ベクトルxを求める問題となる。
式(5)は、未知数の数(すなわちベクトルxの要素数4)よりも式の数(すなわち、視線検出部220がキャリブレーション時にユーザ300に提示した点Qの数)が多ければ、優決定問題となる。式(5)に示す例では、式の数は9つであるため、優決定問題である。
ベクトルyとベクトルAxとの誤差ベクトルをベクトルeとする。すなわち、e=y−Axである。このとき、ベクトルeの要素の二乗和を最小にするという意味で最適なベクトルxoptは、以下の式(6)で求められる。
opt=(AA)−1y (6)
ここで「−1」は逆行列を示す。
視線検出部220は、求めたベクトルxoptの要素を用いることで、式(1)の行列Mを構成する。これにより、視線検出部220は、ユーザ300の角膜302の頂点Pの座標と行列Mとを用いることで、式(2)にしたがい、ユーザ300の右目が画像表示素子108に表示される動画像上のどこを注視しているかを推定できる。ここで、視線検出部220は、更に、ユーザの眼と、画像表示素子108間の距離情報をヘッドマウントディスプレイ100から受信し、その距離情報に応じて、推定したユーザが注視している座標値を修正する。なお、ユーザの眼と画像表示素子108との間の距離による注視位置の推定のずれは誤差の範囲として無視してもよい。これにより、視線検出部220は、画像表示素子108上の右目の注視点と、ユーザの右目の角膜の頂点とを結ぶ右目視線ベクトルを算出することができる。同様に、視線検出部220は、画像表示素子108上の左目の注視点と、ユーザの左目の角膜の頂点とを結ぶ左目視線ベクトルを算出することができる。なお、片目だけの視線ベクトルで2次元平面上でのユーザの注視点を特定することができ、両眼の視線ベクトルを得ることでユーザの注視点の奥行き方向の情報まで算出することができる。視線検出装置200はこのようにしてユーザの注視点を特定することができる。なお、ここに示した注視点の特定方法は一例であり、本実施の形態に示した以外の手法を用いて、ユーザの注視点を特定してもよい。
以上が映像表示システム1の構成である。
<動作>
図7は、映像表示システム1におけるヘッドマウントディスプレイ100の動作を示すフローチャートである。図7は、映像データの1フレームに対するヘッドマウントディスプレイ100の動作を示すものであり、図7に示す処理は繰り返し実行される。
図7に示すように、まず、ヘッドマウントディスプレイ100の受付部110は、視線検出装置200から映像データを受け付ける(ステップS701)。受付部110は、受け付けたビデオ信号をMIPI形式の信号に変換して、表示部102に伝達する。
表示部102は、受け付けたMIPI形式の映像信号の表示を開始し(ステップS702)、垂直同期信号を出力端子106から制御部120に出力し、制御部120は、入力端子122で当該垂直同期信号を受け取る。
一方、制御部120の入力端子121は、視線検出部220から、ユーザ300の視認タイミングの入力を受け付ける(ステップS703)。入力端子121は、受け付けた視認タイミングを、照射遅延制御部123と、撮像遅延制御部124とに伝達する。
照射遅延制御部123は、伝達された視認タイミングに基づいて、次のフレームにおける遅延量を決定する。また、撮像遅延制御部124は、伝達された視認タイミングと、垂直同期信号のタイミングとに基づいて、次のフレームにおける遅延量を決定する(ステップS704)。即ち、撮像遅延制御部124は、伝達された垂直同期信号に、視認タイミングに基づいて映像の表示開始からユーザが実際に視認するまでの時間を加算し、そこから撮像開始から実際に撮像を行うまでに要する時間を減算し、減算結果が負の値になる場合には、映像データにおけるフレームの1周期分の時間を加算して撮像タイミング信号を生成する。なお、照射と撮像のタイミングについての周期性を確立できた後には、照射遅延制御部123や撮像遅延制御部124は、垂直同期信号からの遅延時間を固定して、照射タイミング信号や撮像タイミング信号を生成することとしてもよい。
制御部120は、決定した遅延量に基づいて生成した照射タイミング信号を、照射部135に伝達するとともに、生成した撮像タイミング信号を撮像部140に伝達する(ステップS705)。
照射部135は、伝達された照射タイミング信号で示されるタイミングで、左目用LED103aと、右目用LED103bとを点灯して、ユーザ300の目に近赤外光を照射する(ステップS706)。
また、撮像部140は、伝達された撮像タイミング信号で示されるタイミングで、左目撮像カメラ116aと、右目撮像カメラ116bとによるユーザの目の撮像を開始し、撮像画像を得る(ステップS707)。
撮像部140は、撮像画像を出力部180に伝達し、出力部180は、伝達された撮像画像を、視線検出装置200に出力する(ステップS708)。
これにより、1フレーム分に対応するユーザの目を撮像した撮像画像を得ることができる。当該撮像画像を受信した視線検出装置200は、画像解析部221が解析してユーザ300の画像における角膜位置を特定し、画像解析部221の解析結果を受けて、検出部222がユーザ300の注視点を特定する。そして、映像生成部250は、視線検出部220が検出した注視点に基づいて次のフレームの映像データを生成し、出力端子240からヘッドマウントディスプレイ100に出力する。また、併せて、撮像制御部223が、視認タイミングを生成して、映像データの出力に同期して、当該視認タイミングをヘッドマウントディスプレイ100の制御部120に伝達する。
以上が、映像表示システム1の動作である。
<具体例>
ここから、信号の一具体例を用いて、映像表示システム1の動作とその効果を説明する。
図8は、撮像タイミングの制御を行わなかった場合のタイミングチャートを示し、図9は、撮像タイミングの制御を行った場合のタイミングチャートを示している。両図面において、横軸は時間軸を示し、ここでは、msのオーダーで時間の経過を示している。また、両図面において、左側には、映像表示システム1において、どこの信号であるかを示している。また、映像の1フレームを表示する周期をここでは11msであるとする。即ち、映像表示システム1においては、11msの間に、映像の1フレームを表示し、ユーザの目を撮像し、撮像画像からユーザの注視点を特定し、特定した注視点から次の1フレームのデータを生成するという処理まで行う必要があるものとする。
図8、図9において、各信号は、上から順に出力端子240から出力される信号S1のタイミング、入力端子111が信号を受け付けるタイミング、出力端子113から出力される信号S2のタイミング、入力端子104が信号を受け付けるタイミング、出力端子106から出力される信号S3のタイミング、入力端子122が信号を受け付けるタイミング、制御部120の出力端子126から出力される信号S4(撮像開始タイミングを規定する信号)のタイミング、撮像部140が信号を受け付けるタイミング、撮像部140から出力される信号S5のタイミングであって撮像画像が出力されるタイミング、入力端子182が撮像画像を受け取るタイミング、出力端子181から出力される信号S6のタイミングであって撮像画像がヘッドマウントディスプレイ100から視線検出装置200に送信されるタイミング、入力端子210が撮像画像を受信するタイミング、入力端子210から視線検出部220に出力される信号S7のタイミング、画像解析部221が信号を受け取るタイミング、画像解析部221から出力される信号S8のタイミング、出力端子240から出力される信号S1のタイミングをそれぞれ示している。
図8や図9に示すように、映像表示システム1においては、各種の処理遅延が発生する。図8の場合で言えば、受付部110におけるビデオ信号の形式変換により1ms程度の遅延(図8の0ms〜1msにおける信号S1と信号S2とを参照)、表示部102における映像データを受け付けてから垂直同期信号を出力するまでに発生する1ms程度の遅延(図8の1ms〜2msにおける信号S2と信号S3とを参照)、制御部120における0.5ms程度の処理遅延(図8の1ms〜2msにおける信号S3と信号S4とを参照)、撮像部140による撮像して撮像画像を出力するまでの0.5ms程度の処理遅延(図8の2ms前後における信号S4と信号S5とを参照)、出力部180における処理遅延(図8の2ms〜3msにおける信号S5と信号S6とを参照)、入力端子210から視線検出部220(画像解析部221)への0.5ms程度の伝達遅延(図8の3ms〜4msにおける信号S6と信号S7とを参照)、画像解析部221における解析による3ms程度の処理遅延(図8の3ms〜7msにおける信号S7と221とを参照)、画像解析部221からの出力処理による0.2ms程度の処理遅延(図8の6ms〜7msにおける221と信号S8とを参照)などの遅延が存在する。これらの遅延の結果、映像生成部250に対して注視点の情報が伝達されるのは、図8の例で言えば、7msの少し前ということになる。
したがって、撮像タイミング制御を行わなかった場合、映像生成部250は、図8の7ms〜11msにかけての4ms程度しか映像データを用意する時間がないことになる。
これに対して、本実施の形態に示したように、また、図9のタイミングチャートに示すように撮像タイミング制御を行ったとする。即ち、制御部120(撮像遅延制御部124)は、図9の矢印に示すように、撮像の開始タイミングを示す信号(S4)の出力を早める制御を行ったとする。すると、当然に映像生成部250に注視点が伝達されるタイミングも早めることができる。
なお、厳密には、1msにおける信号をトリガとして、それよりも前の時間の別の信号のトリガとはできないので、実際には、次のフレームの撮像開始タイミングを決定することになる。即ち、撮像遅延制御部124は、伝達された垂直同期信号のタイミングに応じて、次のフレームを視聴するユーザの目を撮像する撮像タイミング(図9の9msにおける信号S4参照)を決定することになる。この撮像タイミングに基づいて、11msにおいて信号S1に示される映像データを視認するユーザの目が撮像されることとなる。
よって、撮像タイミング制御を行うことにより、図9において、映像生成部250に注視点の情報が早めに伝達されることになる。したがって、映像生成部250は、3ms〜11msまでの間の8msもの時間をかけて、次のフレームの映像データを生成することができるようになり、映像生成部250の映像データの生成処理に余裕を持たせることができるようになる。
なお、図8、図9に示した各種処理や伝達により発生する遅延量はあくまで一例であり、使用する回路によって異なってくることは言うまでもなく、それぞれの処理による遅延量に応じて撮像タイミング信号で示す撮像の開始タイミングを変更する必要があることに留意されたい。
<まとめ>
本実施の形態に係る映像表示システムによれば、表示部102が新たなデータを受け付けて、その表示を開始する(垂直同期を行う)タイミングに基づいて、先んじて撮像部140によるユーザ300の目の撮像の開始を指示することができる。したがって、垂直同期を開始してから表示された映像をユーザ300が実際に視認したタイミングちょうどでユーザの目を撮像することができる。よって、表示部102が画像の表示を終了したタイミングから撮像部140による撮像を開始するよりも撮像画像の視線検出部220への伝達タイミングを早めることができるので、映像生成部250による映像データの生成に余裕を持たせることができる。
<補足>
上記実施の形態に係る映像表示システムは、上記実施の形態に限定されるものではなく、他の手法により実現されてもよいことは言うまでもない。以下、各種変形例について説明する。
(1) 上記実施の形態においては、装着具100と、視線検出装置200とを、USBケーブルにて接続することとしたが、これはその限りではなく、一部または全部(S1の経路、S6の経路、出力端子230から入力端子121への経路の内の一部または全部)が無線通信に置換されてもよい。また、装着具100と、視線検出装置200とを接続し、情報を伝達するためのケーブルは、図1に示すような複数のケーブルではなく、一つのケーブルにより実現することとしてもよい。
(2) 上記実施の形態においては、制御部120は、視線検出装置200からユーザの視認タイミングを受け付けて、撮像部140及び照射部135による照射タイミングを決定していたが、これはその限りではない。照射遅延制御部123は、固定の時間だけフィードフォワード(フィードバック)することとしてもよい。同様に、撮像遅延制御部124も、固定の時間だけフィードフォワードすることとしてもよい。また、あるいは制御部120は、ユーザの属性に応じて、複数の互いに異なる時間長の固定の時間を記憶しておき、例えば、ユーザの属性としてユーザの年齢に応じて固定の時間長を決定してフィードフォワードの時間としてもよい。固定の時間長は、ユーザ300の年齢が高いほど長くなるように設定されていてもよい。また、映像表示システム1にユーザ登録機能を設けることとしてもよく、この場合、各ユーザの視認タイミングを予め記憶しておくことで、撮像制御部223の処理を軽減することもできる。
(3) 上記実施の形態においては、視線検出装置200と装着具100とを別の装置として説明したが、上述した通り、視線検出装置200は、装着具100に内蔵されてもよい。また、このとき、視線検出装置200の一部の機能のみが装着具100に備えられてもよい。
(4) 上記実施の形態において、照射部135は、左目用LED103a、右目用LED103bを常時点灯することとしてもよい。
(5) 上記実施の形態においては、示していないが、装着具100は、映像データや、視認タイミング、撮像部140が撮像した撮像画像を記憶するための記憶部を備えてもよい。同様に、視線検出装置200も受信した撮像画像などを記憶するための記憶部を備えてもよい。
(6) 上記実施の形態においては、視線検出装置においてユーザの目を撮像するタイミングを制御する手法として、視線検出装置を構成する各プロセッサが所与の機能を実行することにより実現することとしているが、これは各回路を集積回路(IC(Integrated Circuit)チップ、LSI(Large Scale Integration))、FPGA(Field Programmable Gate Array)等に形成された論理回路(ハードウェア)や専用回路によって実現してもよい。また、これらの回路は、1または複数の集積回路により実現されてよく、上記実施の形態に示した複数の機能部の機能を1つの集積回路により実現されることとしてもよい。LSIは、集積度の違いにより、VLSI、スーパーLSI、ウルトラLSIなどと呼称されることもある。また、制御部120による撮像タイミング制御、照射タイミング制御は、制御部120がタイミング制御のためのタイミング制御プログラム(映像表示プログラム)を実行することにより、ソフトウェアにより実現することとしてもよい。
また、上記タイミング制御プログラムは、プロセッサが読み取り可能な記録媒体に記録されていてよく、記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記タイミング制御プログラムは、当該タイミング制御プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記プロセッサに供給されてもよい。本発明は、上記タイミング制御プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
なお、上記タイミング制御プログラムは、例えば、ActionScript、JavaScript(登録商標)などのスクリプト言語、Objective-C、Java(登録商標)、C++、C#、などのオブジェクト指向プログラミング言語、HTML5などのマークアップ言語などを用いて実装できる。
(7)上記実施の形態に示した構成並びに各(補足)を適宜組み合わせることとしてもよい。
1 映像表示システム、 100 装着具(ヘッドマウントディスプレイ)、 103a 赤外光源(右目用LED)、 103b 赤外光源(左目用LED)、 104 入力端子、 105 輝点、 106 出力端子、 108 画像表示素子、 111 入力端子、 112 ホットミラー、 113 出力端子、 114,114a,114b 凸レンズ、 116 カメラ、 116a 右目撮像カメラ、 116b 左目撮像カメラ、 120 制御部、 121 入力端子、 122 入力端子、 123 照射遅延制御部、 124 撮像遅延制御部、 125 出力端子、 126 出力端子、 130 画像表示系、 135 照射部、 140 撮像部、 150 筐体、 152a,152b レンズ保持部、 160 装着具、 170 ヘッドフォン、180 出力部、 181 出力端子、 182 入力端子、 200 視線検出装置、 210 入力端子、 220 視線検出部、 221 画像解析部、 222 検出部、 223 撮像制御部、 230 出力端子、 240 出力端子、 250 映像生成部。

Claims (6)

  1. 映像を受け付ける受付部と、
    前記受付部が受け付けた映像を表示する表示部と、
    ユーザの目に近赤外光を照射する照射部と、
    前記表示部に表示された映像を視認する前記ユーザの目を、前記近赤外光に基づいて撮像する撮像部と、を備える前記ユーザが装置して映像を視聴する装着具と、
    前記撮像部が撮像した撮像画像に基づいて、前記ユーザの注視点を検出する視線検出部と、
    前記視線検出部が検出した注視点に基づいて、前記装着具に表示すべき映像を生成する映像生成部と、を備え、
    前記装着具は、
    前記表示部に表示される映像の各フレームが表示されるごとに、当該フレームを前記ユーザが視認していると推定されるタイミングで前記撮像部による撮像が実行できるように前記撮像部に対して撮像の開始タイミングを指示する制御部とを備える映像表示システム。
  2. 前記受付部は、受け付けた映像の映像データを、前記表示部に表示するための形式に変換し、
    前記表示部は、前記受付部が変換した映像データの表示の開始を示す同期信号を出力し、
    前記制御部は、前記同期信号に基づいて前記撮像部に前記開始タイミングを指示する指示信号を前記撮像部に出力する
    ことを特徴とする請求項1に記載の映像表示システム。
  3. 前記制御部は、前記ユーザが前記表示部に前記フレームの表示が開始されてから視認するまでの時間に応じて、前記指示信号を出力する
    ことを特徴とする請求項2に記載の映像表示システム。
  4. 前記制御部は、更に、前記照射部が前記近赤外光を前記ユーザの目に照射するタイミングを制御する
    ことを特徴とする請求項1〜3のいずれか一項に記載の映像表示システム。
  5. 映像を受け付ける受付ステップと、
    前記受付ステップにおいて受け付けた映像を表示する表示ステップと、
    ユーザの目に近赤外光を照射する照射ステップと、
    前記表示ステップにおいて表示される映像のフレームが表示されるごとに、当該フレームを前記ユーザが視認していると推定されるタイミングで撮像が実行できるように撮像の開始タイミングを指示する制御ステップと、
    前記表示ステップにおいて表示された映像を視認する前記ユーザの目を、前記指示された開始タイミングに従って、前記近赤外光に基づいて撮像する撮像ステップと、
    前記撮像ステップにおいて撮像した撮像画像に基づいて、前記ユーザの注視点を検出する視線検出ステップと、
    前記視線検出ステップにおいて検出した注視点に基づいて、表示すべき映像を生成する映像生成ステップとを含む映像表示方法。
  6. コンピュータに、
    映像を受け付ける受付機能と、
    前記受付機能が受け付けた映像を表示する表示機能と、
    ユーザの目に近赤外光を照射する照射機能と、
    前記表示機能が表示される映像のフレームが表示されるごとに、当該フレームを前記ユーザが視認していると推定されるタイミングで撮像が実行できるように撮像の開始タイミングを指示する制御機能と、
    前記表示機能が表示された映像を視認する前記ユーザの目を、前記指示された開始タイミングに従って、前記近赤外光に基づいて撮像する撮像機能と、
    前記撮像機能が撮像した撮像画像に基づいて、前記ユーザの注視点を検出する視線検出機能と、
    前記視線検出機能が検出した注視点に基づいて、表示すべき映像を生成する映像生成機能とを実現させる映像表示プログラム。
JP2017166923A 2017-08-31 2017-08-31 映像表示システム、映像表示方法及び映像表示プログラム Pending JP2019047250A (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2017166923A JP2019047250A (ja) 2017-08-31 2017-08-31 映像表示システム、映像表示方法及び映像表示プログラム
CN201810745800.4A CN109429061A (zh) 2017-08-31 2018-07-09 影像显示***、影像显示方法及影像显示程序
US16/038,293 US10708652B2 (en) 2017-08-31 2018-07-18 Video display system, video display method, and video display program
TW107127049A TW201921028A (zh) 2017-08-31 2018-08-03 影像顯示系統、影像顯示方法及影像顯示程式
KR1020180092749A KR20190024691A (ko) 2017-08-31 2018-08-09 영상 표시 시스템, 영상 표시 방법 및 영상 표시 프로그램
US16/888,298 US20200296459A1 (en) 2017-08-31 2020-05-29 Video display system, video display method, and video display program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017166923A JP2019047250A (ja) 2017-08-31 2017-08-31 映像表示システム、映像表示方法及び映像表示プログラム

Publications (1)

Publication Number Publication Date
JP2019047250A true JP2019047250A (ja) 2019-03-22

Family

ID=65434280

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017166923A Pending JP2019047250A (ja) 2017-08-31 2017-08-31 映像表示システム、映像表示方法及び映像表示プログラム

Country Status (5)

Country Link
US (2) US10708652B2 (ja)
JP (1) JP2019047250A (ja)
KR (1) KR20190024691A (ja)
CN (1) CN109429061A (ja)
TW (1) TW201921028A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021043368A (ja) * 2019-09-12 2021-03-18 キヤノン株式会社 電子機器およびその制御方法

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10902627B2 (en) * 2018-11-30 2021-01-26 Hins Sas Head mounted device for virtual or augmented reality combining reliable gesture recognition with motion tracking algorithm
BE1027296B1 (nl) 2019-06-07 2021-02-05 Stereyo Akoestisch studio scherm
CN111193938B (zh) * 2020-01-14 2021-07-13 腾讯科技(深圳)有限公司 视频数据处理方法、装置和计算机可读存储介质
CN114035323B (zh) * 2021-10-29 2022-09-23 歌尔光学科技有限公司 一种用于眼球追踪的显示面板及智能眼镜

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7429108B2 (en) * 2005-11-05 2008-09-30 Outland Research, Llc Gaze-responsive interface to enhance on-screen user reading tasks
JP2015090569A (ja) 2013-11-06 2015-05-11 ソニー株式会社 情報処理装置及び情報処理方法
GB2536025B (en) * 2015-03-05 2021-03-03 Nokia Technologies Oy Video streaming method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021043368A (ja) * 2019-09-12 2021-03-18 キヤノン株式会社 電子機器およびその制御方法
JP7358130B2 (ja) 2019-09-12 2023-10-10 キヤノン株式会社 電子機器およびその制御方法

Also Published As

Publication number Publication date
US20190064923A1 (en) 2019-02-28
TW201921028A (zh) 2019-06-01
CN109429061A (zh) 2019-03-05
US10708652B2 (en) 2020-07-07
US20200296459A1 (en) 2020-09-17
KR20190024691A (ko) 2019-03-08

Similar Documents

Publication Publication Date Title
US11036284B2 (en) Tracking and drift correction
US10708652B2 (en) Video display system, video display method, and video display program
US20180004289A1 (en) Video display system, video display method, video display program
JP7036879B2 (ja) 仮想画像生成システムにおけるテキストをより効率的に表示するための技法
CN109074681B (zh) 信息处理装置、信息处理方法和程序
US20180007258A1 (en) External imaging system, external imaging method, external imaging program
JP6465672B2 (ja) 情報処理装置および情報処理方法
TW201802642A (zh) 視線檢測系統
US11665334B2 (en) Rolling shutter camera pipeline exposure timestamp error determination
US20200213467A1 (en) Image display system, image display method, and image display program
US20170371408A1 (en) Video display device system, heartbeat specifying method, heartbeat specifying program
JP2016140017A (ja) 情報処理装置、表示装置、および情報処理方法
US20200082626A1 (en) Methods and devices for user interaction in augmented reality
US20240031551A1 (en) Image capturing apparatus for capturing a plurality of eyeball images, image capturing method for image capturing apparatus, and storage medium
US20180182124A1 (en) Estimation system, estimation method, and estimation program
WO2017163649A1 (ja) 画像処理装置
JP2021068296A (ja) 情報処理装置、ヘッドマウントディスプレイ、およびユーザ操作処理方法
WO2022192306A1 (en) Image display within a three-dimensional environment

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20180809

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20180906

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190131

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20200402

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20200528