JP2022094223A - 立体表示用コントローラ - Google Patents

立体表示用コントローラ Download PDF

Info

Publication number
JP2022094223A
JP2022094223A JP2020207140A JP2020207140A JP2022094223A JP 2022094223 A JP2022094223 A JP 2022094223A JP 2020207140 A JP2020207140 A JP 2020207140A JP 2020207140 A JP2020207140 A JP 2020207140A JP 2022094223 A JP2022094223 A JP 2022094223A
Authority
JP
Japan
Prior art keywords
control means
image
stereoscopic display
display controller
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020207140A
Other languages
English (en)
Inventor
薫 草深
Kaoru Kusafuka
昭典 佐藤
Akinori Sato
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2020207140A priority Critical patent/JP2022094223A/ja
Priority to EP21906372.4A priority patent/EP4262199A4/en
Priority to PCT/JP2021/044310 priority patent/WO2022131009A1/ja
Priority to CN202180083271.6A priority patent/CN116569096A/zh
Priority to US18/266,681 priority patent/US20240048682A1/en
Publication of JP2022094223A publication Critical patent/JP2022094223A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/22Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】 利用者に提供する立体視の画質を向上しうる立体表示用コントローラを提供する。【解決手段】 視差画像を表示する表示装置2と、利用者の視点位置を入力可能に構成される入力部3と、左画像および右画像を混合して視差画像に合成する、第1合成処理および第2合成処理を含む合成処理を実行可能に構成される制御手段4と、を含む。制御手段4は、表示装置2に向けて視差画像を出力可能に構成され、制御手段4は、視差画像のフレーム周期に対応して、第1合成処理を実行可能に構成され、入力部2への視点位置の入力に対応して第2合成処理を実行可能に構成される。【選択図】 図1

Description

本開示は、立体表示用コントローラに関する。
従来、立体視を提供する画像表示装置において光学系の歪みを補正する構成が知られている(例えば、特許文献1等)。
特開2019-15823号公報
利用者に提供する立体視の画質をより一層向上することが求められる。
本開示は、利用者に提供する立体視の画質を向上しうる立体表示用コントローラを提供することを目的とする。
本開示に係る立体表示用コントローラは、視差画像を表示する表示装置と、利用者の視点位置を入力可能に構成される入力部と、左画像および右画像を混合して視差画像に合成する、第1合成処理および第2合成処理を含む合成処理を実行可能に構成される制御手段と、を含み、前記制御手段は、前記表示装置に向けて前記視差画像を出力可能に構成され、前記制御手段は、前記視差画像のフレーム周期に対応して、前記第1合成処理を実行可能に構成され、前記入力部への視点位置の入力に対応して前記第2合成処理を実行可能に構成される。
本発明によれば、利用者に提供する立体視の画質を向上しうる立体表示用コントローラを提供することができる。
本開示の立体表示コントローラの構成を示すブロック図である。 立体表示用コントローラ1のシーケンス図である。 制御手段の動作を説明するためのタイミングチャートである。
以下、添付図面を参照して、本開示の発光装置の実施形態について説明する。
(概要)
図1は、本開示の立体表示コントローラの構成を示すブロック図である。本実施形態の立体表示用コントローラ1は、視差画像を表示する表示装置2と、利用者の視点位置を入力可能に構成される入力部3と、左画像および右画像を混合して視差画像に合成する、第1合成処理および第2合成処理を含む合成処理を実行可能に構成される制御手段4と、を含む。制御手段4は、表示装置2に向けて視差画像を出力可能に構成され、制御手段4は、視差画像のフレーム周期に対応して、第1合成処理を実行可能に構成され、入力部2への視点位置の入力に対応して第2合成処理を実行可能に構成される。
制御手段4は、1つのフレームを表示する際に、1回の第1合成処理と、少なくとも1回の第2合成処理とを実行してよい。制御手段4は、1つのフレームを表示する際に、複数回の第2合成処理を実行してよい。
制御手段4は、左画像および右画像を画像合成するための合成テーブル5を有し、左画像および右画像を合成テーブル5を参照して画像合成し、その視差画像を生成するように構成されている。
制御手段4は、視点位置の入力があると、当該視点位置に対応させて前記合成テーブル5を更新する。制御手段4は、左画像および右画像の歪を補正する補正処理を実行するように構成された歪み補正部6を有している。
制御手段4は、第1制御手段4aと、第2制御手段4bとを含み、第1制御手段4aは、合成処理を実行するように構成され、第2制御手段4bは、補正処理を実行するように構成されている。
第2制御手段4bは、左画像および右画像の歪を補正するための補正テーブル6を有し、補正処理を、補正テーブル6を参照して補正するように構成されている。
制御手段4は、視点位置の入力があると、当該視点位置に対応させて補正テーブル6を更新する。
視点位置の入力周期は、フレーム周期よりも短い。制御手段4は、視点位置の単位時間あたりの変化量に基づいて視点位置の予測値を算出し、算出された前点位置の予測値に基づいて、第2合成処理を実行する。
表示装置2は、例えば、液晶パネルと、この液晶パネルの観察者側に配置される遮光バリアと、液晶パネルの背後に位置する面状光源と、で構成されてよい。遮光バリアとしては、TN型液晶パネルが用いられてよい。
前記液晶パネルは、光入射側ガラス基板と、光出射側ガラス基板と、これら基板間に設けられた液晶層と、光入射側ガラス基板に貼付された光入射側偏光板と、光出射側ガラス基板に貼付された光出射側偏光板と、を含んで構成されてよい。この液晶パネルは、例えばマトリクス駆動方式により駆動され、図示しない透明画素電極に画像信号に応じて電圧が印加されることによって画像が表示される。そして、液晶パネルに供給する映像信号を処理することにより、1縦ラインおきに表示制御部9によって2つのバッファ7,8が切換えられ、一方のバッファ7または8によって右眼用画像Rと左眼用画像Lが交互に表示装置2に与えられて表示される。
図2は、立体表示用コントローラ1のシーケンス図である。制御手段4は、1以上のプロセッサを含んでよい。プロセッサは、特定のプログラムを読み込ませて特定の機能を実行する汎用のプロセッサ、および特定の処理に特化した専用のプロセッサを含んでよい。専用のプロセッサは、特定用途向けIC(ASIC:Application Specific Integrated Circuit)を含んでよい。プロセッサは、プログラマブルロジックデバイス(PLD:Programmable Logic Device)を含んでよい。PLDは、FPGA(Field-Programmable Gate Array)を含んでよい。制御手段4は、1つまたは複数のプロセッサが協働するSoC(System-on-a-Chip)、およびSiP(System In a Package)のいずれかであってよい。制御手段4は、記憶部を備え、記憶部に各種情報、または3次元表示システム10の各構成要素を動作させるためのプログラム等を格納してよい。記憶部は、例えば半導体メモリ等で構成されてよい。記憶部は、制御手段4のワークメモリとして機能してよい。
制御手段4は、表示装置2の左可視領域に含まれる複数のサブピクセルに左眼画像を表示させ、左減光領域に含まれる複数のサブピクセルに右眼画像を表示させるように構成される。これによって、左眼は、左眼画像を視認し易く、左眼画像を視認し難くなる。制御手段4は、右可視領域含まれる複数のサブピクセルに右眼画像を表示させ、右減光領域に含まれる複数のサブピクセルに右眼画像を表示させるように構成される。これによって、右眼は、右眼画像を視認し易く、左眼画像を視認し難くなる。これにより、利用者の眼は、3次元画像を視認することができる。
検出装置11は、撮像した撮像画像から眼の像を検出し、画像空間における眼の像に基づいて、実空間における眼の位置を検出するように構成される。検出装置11は、実空間における眼の位置を含む位置データを立体表示用コントローラ1に送信するように構成される。検出装置11による眼の位置の検出、検出装置11から立体表示コントローラ1への位置データの送信、および受信した位置データに基づいて表示画像を変更してから反映するまでには、時間を要する。当該顔に含まれる眼の位置に基づいた画像を表示する表示時刻は、検出装置11が顔を撮像した撮像時刻と時差がある。時差は、検出時間、送信時間、反映時間を含む。時差は、検出装置11の性能、ならびに検出装置11および立体表示用コントローラの通信速度等に依存する。利用者の眼の移動に伴って表示画像を変更する制御単位長さを時差で割った速度より、利用者の眼の移動速度が速くなると、利用者は、眼の位置に対応していない画像を視認する。例えば制御単位長さが62.4mmであり、且つ時差が65msである場合、利用者の眼が、0.24mm/ms(millimeter per milli-second)(24cm/s(centimeter per second))以上の速さで移動すると、利用者は3次元画像に違和感をもつおそれがある。
このような3次元画像の視認しにくさを低減するために、制御手段4は、以降で説明する処理を行う。以降の説明において説明される「眼」は「左眼および右眼」を表してよい。
(位置データ記憶処理)
制御手段4は、入力部3によって入力された、眼の位置(実測位置)を示す位置データと、当該位置データを取得した順をメモリに記憶するように構成される。メモリには、所定の撮像時間間隔で撮像された複数の撮像画像それぞれに基づく眼の実測位置が順次記憶される。メモリには、当該実測位置に眼が位置した順を合わせて記憶してよい。所定の撮像時間間隔は、検出装置11の性能及び設計により適宜設定されうる、一の撮像画像と、当該一の撮像画像とが撮像される時間の間隔である。
(フィルタリング処理)
制御手段4は、メモリに記憶されている位置データを、例えば、ローパスフィルタを用いてフィルタリングするように構成されうる。制御手段4は、眼の位置の単位時間当たりの変化量が大きい位置データをフィルタリングしうる。制御手段4は、眼の位置の検出精度が低い位置データから実効的な位置データをフィルタリングにより抽出しうる。制御手段4は、予測関数を算出する際に、当該予測関数の精度をフィルタリングによって高めうる。制御手段4は、時刻に対する変化が小さい、具体的には、位置の変化の周波数が所定値より低い位置データのみを抽出するようにフィルタリングしてよい。所定値は、実験等により定められた、所望の精度を実現するために要求される位置の変化の周波数の最大値である。
(予測処理)
制御手段4は、メモリに記憶されている複数の位置データを用いて、未来の位置を予想位置として出力するように構成される。ここでいう未来とは、当該メモリに記憶された複数の位置データに対する未来をいう。制御手段4は、ローパスフィルタを用いてフィルタリング処理された複数の位置データを用いうる。制御手段4は、新しい複数の位置情報を用いて予測位置を出力するように構成されうる。制御手段4は、メモリに記憶されている位置データのうち、例えば、記憶時期の新しい複数の位置データと、表示への反映時間とに基づいて予測関数を算出するように構成されうる。制御手段4は、記憶時期の新しさを撮像時刻に基づいて判断するように構成されうる。制御手段4は、眼の実測位置と、取得部3によって位置データが取得された取得時刻と、予め実験等により見込まれている所定の反映時間とに基づいて、予測関数を算出するように構成されうる。
予測関数は、実測位置と当該実測の撮像タイミングとの複数のペアをフィッティングさせた関数としうる。予測関数は、この撮像タイミングとして撮像時刻を採用しうる。予測関数は、現時点に反映時間を加算した時刻における予測位置を出力するために用いられる。さらに具体的には、制御手段4は、取得時刻から反映時間を減じた時刻が実測位置に眼が位置していた時刻であるとして、眼の実測位置と、当該実測位置に眼が位置していた時刻とに基づいて、現時点より後の時刻と、当該時刻での眼の位置との関係を示す予測関数を算出するように構成される。予測関数は、撮像レートで並ぶ複数の実測位置をフィッティングさせた関数としうる。予測関数は、反映時間に基づいて、現在時刻との対応をつけてよい。
(予測処理)
制御手段4は、所定の出力時間間隔で、予測関数において、現時点に所定時間を加算した時刻に対応する、眼の予測位置を出力するように構成される。所定時間は、制御手段4が表示制御を開始してから、表示装置2に画像が表示されるまでに要すると見込まれる時間である表示処理時間に基づく時間である。所定の出力時間間隔は、所定の撮像時間間隔より短い時間間隔であってよい。
制御手段4は、表示装置2が所定の周波数で画像を更新するように定められた表示時間間隔で、直近に出力された予測位置に基づく可視領域に対応して各サブピクセルに画像を表示させる制御を開始するように構成される。制御手段4による表示の制御がそれぞれ開始されてから表示処理時間後に、表示に予測位置に基づく画像が表示され、更新される。
検出装置11は、例えば、20fpsで撮像するカメラを採用しうる。このカメラは、撮像時間間隔が50msとなる。制御手段4は、撮像時間間隔と同じ出力時間間隔で撮像画像を出力するように構成されうる。制御手段4は、撮像時間間隔と異なる出力時間間隔で出力するように構成されうる。出力時間間隔は、撮像時間間隔より多くしうる。出力時間間隔は、20msであってよい。この場合、制御手段4は、20msに1回(すなわち50sps(samples per second)で)、予測位置を出力する。制御手段4は、撮像時間間隔より短い時間間隔で出力される眼の予測位置に基づいて画像を表示することができる。したがって、表示装置2は、眼の位置のより細かな変化に対応した3次元画像を利用者に提供しうる。
出力時間間隔は、表示装置2に表示させる画像を更新する表示時間間隔より短くてよい。例えば、制御手段4が60Hz(Hertz)で表示装置2の画像を更新させる、すなわち、表示時間間隔が約16.7msである場合、出力時間間隔は、2msであってよい。この場合、制御手段4は、2msに1回(すなわち500sps)、予測位置を出力する。制御手段4は、前回に画像を表示させた時点よりも、表示時刻に近い時点での左眼および右眼の位置に基づいて画像を表示させることができる。したがって、表示装置2は、眼の位置の変化によって、利用者が適切に3次元画像を視認し難くなることをさらに低減させることができる。
(評価処理)
制御手段4は、予測関数を評価し、当該評価に基づいて修正してよい。具体的には、制御手段4は、予測関数に基づいて出力された眼の予測位置と、当該予測位置に対応する、実際に撮像された撮像画像から検出された眼の実測位置とを比較してよい。制御手段4は、記録された撮像時刻に基づいて、予測位置と実測位置とを対応させうる。制御手段4は、撮像時間間隔に基づいて、予測位置と実測位置とを対応させうる。制御手段4は、比較の結果に基づいて予測関数を修正してよい。制御手段4は、以降の予測処理において、修正された予測関数を用いて眼の位置を出力し、当該修正後の予測関数を用いた眼の予測位置に基づいて表示装置2に画像を表示させてよい。
図2は、立体表示用コントローラ1の動作を説明するためのシーケンス図である。まず、検出装置11は、カメラによって撮像された1の撮像画像を取得し、1の撮像画像が取得されると、検出装置11は、取得された1の撮像画像に基づいて、眼の位置を検出する。
眼の1の位置が検出されると、検出装置11は、当該眼の位置を示す位置データを表示装置2に送信する。位置データが送信されると、検出装置11は、終了指示が入力されたか否かを判定する。終了指示が入力されたと判定されると、検出装置11は、処理を終了する。終了指示が入力されていないと判定されると、検出装置11は、検出処理動作を繰り返す。
次に、表示装置1の制御手段4は、取得部3によって位置データが受信されたか否かを判定する位置データが受信されていないと判定されると、制御手段4は、待機状態となり、位置データが受信されたと判定されると、制御手段4は、位置データをメモリに記憶させる次の動作を実行することができる。
(1)ワーピング結果の画像は2つのバッファ7,8を用意してフレーム毎に交互に分ける。ここで、本実施形態においてワーピングとは、デジタル画像中のピクセルをサンプリングし、各ピクセルに対する新しい位置を計算し、次にマッピングされたデジタル画像を新しい位置のサブピクセルと結集すること、そして呼び出されたリサンプリングも含む。マッピング機能はサブピクセルの他の変換、たとえば輝度または色の変化も含むことができる。ピクセルの輝度マッピングはシェーディングとも呼ばれる。リサンプリングの間、ピクセル間の補間が所望される。補間は慣用的なアルゴリズムに従う最近接計算、線形計算または非線形計算を用いて実行できる。デジタル画像中の空間的位置とコンテンツに応じて白色レベル(コントラスト)、黒色レベル(輝度)、または他の画像パラメータを変化させるために、マッピング機能に空間変化フィルタが含まれうる。
(2)歪み補正画像をバッファ7または8に入れたら、そのバッファ7または8を読み出し許可し、もう一方を読み込み禁止にして、次の歪み補正画像を入れるようにする。
(3)3D画凹合成部は読み出し許可されている画像のバッファ画像を合成する。
(4)インデックス入力およびバッファ切換え連絡時に画像合成処理を実施する。
(5)転送が終わると、バッファ7,8の切換えを歪み補正部6に連絡する。
(6)バッファ切換え時のシングルバッファの書き換えは、Vブランク期間にできるようにする。2ms程度まで伸ばせる。
(7)検出装置11による瞳位置検出部分は、100fps(3D合成と非同期)であるため、1フレームの処理中に最大2回、検出結果が更新される。
(8)3画像合成部13は、画像合成H/Wを2系統使用し、瞳位置検出結果に合わせた合成処理を実行する。瞳位置とインデックス(位相)との情報は、検出装置11から3D画像合成部13に同時に送られてくる。その都度、歪み補正部6は左画像または右画像を歪み補正テーブル5を更新し、3D画像合成処理を実行し、合成画像出力部12から表示装置2に出力する。そして次のフレームの画像データ処理が始まり、(3D画像合成処理部13の画像合成処理にかかる時間分)前に3D画像合成処理を実行するように第2制御手段4bから3D画像合成部13に指示がくるので、次のフレームの画像データで3D画像合成処理を行う。
(9)この画凹合成処理期間は、一時的に2フレームの画像が混じるが、終了のタイミングに合わせると、表示には2フレーム混在に影響は出ない。表示装置2に画像データを送り終わる時間から3D画像合成処理にかかる時間分だけ遡って3D画像合成処理部13に画像合成処理を開始させる。
制御手段4は、メモリに記憶された位置データをフィルタリングする。制御手段4は、フィルタリングされた後の位置データに基づいて、予測関数を生成する。制御手段4は、再び、取得部3によって位置データが受信されたか否かを判定する。位置データが受信されていないと判定されると、制御手段4は、待機状態を維持し、位置データが受信されたと判定されると、制御手段4は、位置データをメモリに記憶させる。
制御手段4は、メモリに記憶された位置データをフィルタリングする。
制御手段4は、フィルタリングされた位置データが示す実測位置のうち、追って詳細に説明する表示処理において、画像を表示した表示時刻に撮像された眼の位置を示す位置データが示す眼の実測位置を用いて予測関数を修正する。制御手段4は、予測関数生成処理の終了指示が入力されたか否かを判定する。予測関数生成処理の終了指示が入力されたと判定されると、制御手段4は、予測関数生成処理を終了する。予測関数生成処理の終了指示が入力されていないと判定されると、制御手段4は、待機状態に戻る。制御手段4は、出力時間間隔で、前述した予測関数生成処理において、直近に予測または修正された予測関数に基づいて予測位置を出力する。
制御手段4は、表示時間間隔で、直近に出力された予測位置に基づいて表示画像を変更し、当該変更後の画像を表示装置2に表示させる。
制御手段4は、画像表示処理の終了指示が入力されたか否かを判定する。画像表示処理の終了指示が入力されたと判定されると、制御手段4は、画像表示処理を終了する。本実施形態の表示装置2は、メモリに記憶された位置データに基づいて、現在時刻より未来の表示時刻における眼の予測位置を出力し、予測された眼の位置に基づいて、表示パネルの各サブピクセルPに視差画像を表示させる。このため、従来のように、撮像された撮像画像に基づいて検出された眼の位置が取得された時点で、当該位置に基づいて画像を表示する制御を開始するより、表示時刻に近い時点での眼の位置に基づいて画像を表示することができる。したがって、表示装置2は、利用者の眼の位置が変化した場合も、利用者が3次元画像を視認し難くなることを低減することができる。
本実施形態の表示装置2は、メモリに記憶された位置データに基づいて、未来の表示時刻と、眼の位置との関係を示す予測関数を算出し、予測関数に基づいて、眼の予測位置を出力する。表示装置2は、カメラの撮像時刻によらないで眼の予測位置を出力することができる。カメラ内画像の着目の測定位置を使用して、将来の着目点が発見される場所を予測する。
本実施形態の表示装置2は、撮像時間間隔と異なる出力時間間隔で、予測関数に基づいて眼の予測位置を出力しうる。表示装置2は、カメラの撮像時間間隔によらない出力時間間隔で眼の予測位置を出力することができる。
本実施形態の表示装置2は、撮像時間間隔より短い出力時間間隔で、予測関数に基づいて眼の予測位置を出力しうる。表示装置2は、撮像時間間隔より短い時間間隔で生じる眼の位置の変化に応じた3次元画像を提供しうる。
本実施形態の表示装置2は、予測位置と実測位置との比較によって、予測関数を修正する。表示装置2は、都度修正された予測関数に基づいて適切に眼の予測位置を出力することができる。表示装置2は、適切な予測位置に基づいて画像を表示させることができる。表示装置2は、眼の位置の変化によって、利用者が適切に3次元画像を視認し難くなることを低減させることができる。
検出装置11は、例えば、環境光の状態、または利用者の眼とカメラとの間の光路上に位置する障害物の影響等により、眼の位置を検出できないことがある。取得部3は、検出装置が眼の位置を検出できなかった場合に、位置データの取得に失敗することがある。本実施形態の表示装置2では、制御手段4が以降で説明する処理を行うことによって、取得部3が位置データの取得に失敗した場合であっても、予測関数の精度の低下を低減しうる。表示装置2は、コントロール8が予測関数の精度を維持することで、利用者が適切に3次元画像を視認し難くなることを低減させることができる。
歪み補正部6は、表示装置2と同期させてもよいが、同期させなくてもよい。制御手段4は、前述のように、左画像および右画像を画像合成するための合成テーブル5を有し、左画像および右画像を合成テーブル5を参照して画像合成し、その視差画像を生成するように構成されている。歪み補正テテーブル5の更新は、視点位置の入力があると、当該視点位置に対応させて前記合成テーブル5を更新する。
1つのフレームを表示する際に、1回の前記第1合成処理と、少なくとも1回の前記第2合成処理とを実行するように構成されてよく、1つのフレームを表示する際に、複数の前記第2合成処理を実行するように構成されてよい。
(予測処理)
制御手段4は、取得部3が位置データの取得に失敗すると、メモリに記憶された複数の位置データを用いて、現在時刻の予測位置を出力するように構成されうる。制御手段4は、メモリに記憶された複数の位置データを用いて、現在時刻における眼の位置を予測するための予測関数を算出するように構成されうる。現在時刻における眼の位置を予測するための予測関数は、第1予測関数と称されうる。制御手段4は、第1予測関数に基づいて、現在時刻の予測位置を出力するように構成されうる。
制御手段4は、第1予測関数を算出するにあたって、ローパスフィルタを用いてフィルタリング処理された複数の位置データを用いうる。制御手段4は、新しい複数の位置情報を用いて予測位置を出力するように構成されうる。制御手段4は、メモリに記憶されている位置データのうち、例えば、記憶時期の新しい複数の位置データと、表示への反映時間とに基づいて第1予測関数を算出するように構成されうる。制御手段4は、記憶時期の新しさを撮像時刻、記憶順序、及び通し番号のいずれか1つ又は複数に基づいて判断するように構成されうる。一例において、メモリは、第1予測関数の算出に必要な位置情報のみを記憶するように構成され、制御手段4は、メモリに記憶されている全ての位置情報に基づいて第1予測関数を算出するように構成されうる。制御手段4は、眼の実測位置と、取得部3によって位置データが取得された取得時刻と、予め実験等により見込まれている所定の反映時間とに基づいて、第1予測関数を算出するように構成されうる。
制御手段4は、取得部3が位置データを取得した場合に、当該位置データと、メモリに記憶された複数の位置データのうち、記憶時期が最も新しい位置データとを比較するように構成されうる。制御手段4は、2つの位置データが同じ値を示す位置データである場合に、取得部3が位置データの取得に失敗したと判定しうる。言い換えれば、制御手段4は、取得部3が同じ値を示す位置データを連続して取得した場合に、取得部3が位置データの取得に失敗したと判断するように構成されうる。ここでいう同じ値を示す位置データとは、3次元空間における3つの座標値が完全に一致する2つの位置データであってよい。同じ値を示す位置データとは、3次元空間における3つの座標値の差分の和が閾値未満である2つの位置データであってよいし、3次元空間における3つの座標値の差分の最大値が閾値未満である2つの位置データであってよい。閾値は、予めの実験等によって定められてよい。
制御手段4は、取得部3が同じ値を示す位置データを連続して取得した場合、2つ目の位置データ、すなわち、連続して取得した2つの位置データのうち取得時刻が新しい位置データを破棄するように構成されうる。制御手段4は、連続して取得した2つの位置データのうち取得時刻が古い位置データを含む、複数の位置データに基づいて、現在時刻の予測位置を出力するように構成されうる。
(予測処理)
制御手段4は、現在時刻の予測位置を含む複数の位置データを用いて、未来時刻における眼の予測位置を出力するように構成される。ここでいう未来時刻とは、現在時刻より後の時刻をいう。制御手段4は、メモリに記憶された複数の位置データを用いて、現在時刻における眼の位置を予測するための予測関数を算出するように構成されうる。未来時刻における眼の位置を予測するための予測関数は、第2予測関数と称されうる。制御手段4は、第2予測関数に基づいて、未来時刻の予測位置を出力するように構成されうる。
制御手段4は、第2予測関数を算出するにあたって、ローパスフィルタを用いてフィルタリング処理された複数の位置データを用いうる。制御手段4は、新しい複数の位置情報を用いて予測位置を出力するように構成されうる。制御手段4は、メモリに記憶されている位置データのうち、例えば、記憶時期の新しい複数の位置データと、表示への反映時間とに基づいて第2予測関数を算出するように構成されうる。制御手段4は、記憶時期の新しさを撮像時刻、記憶順序、及び通し番号のいずれか1つ又は複数に基づいて判断するように構成されうる。制御手段4は、眼の実測位置と、取得部3によって位置データが取得された取得時刻と、予め実験等により見込まれている所定の反映時間とに基づいて、第2予測関数を算出するように構成されうる。第2予測関数は、第1予測関数と同じ関数であってよいし、第1予測関数と異なる関数であってよい。
(画像表示処理)
制御手段4は、表示装置2が所定の周波数で画像を更新するように定められた表示時間間隔で、直近に出力された予測位置に基づく可視領域5aに対応して各サブピクセルPに画像を表示させる制御を開始するように構成される。制御手段4による表示の制御がそれぞれ開始されてから表示処理時間後に、表示装置2に予測位置に基づく画像が表示され、更新される。
(評価処理)
制御手段4は、第2予測関数を評価し、当該評価に基づいて、第2予測関数を修正してよい。制御手段4は、第2予測関数に基づいて出力された眼の予測位置と、当該予測位置に対応する、実際に撮像された撮像画像から検出された眼の実測位置とを比較してよい。制御手段4は、記録された撮像時刻に基づいて、予測位置と実測位置とを対応させうる。制御手段4は、撮像時間間隔に基づいて、予測位置と実測位置とを対応させうる。制御手段4は、比較の結果に基づいて第2予測関数を修正してよい。制御手段4は、以降の予測処理において、修正された第2予測関数を用いて眼の位置を出力し、当該修正後の第2予測関数を用いた眼の予測位置に基づいて表示装置2に画像を表示させてよい。
続いて、図3のタイミングチャートを参照して、表示装置2が行う予測関数生成処理および画像表示処理の他の例について説明する。制御手段4は、検出装置11のカメラの撮像時間間隔より短い時間間隔毎に実行しうる。制御手段4は、入力部3によって位置データが受信されたか否かを判定する。位置データが受信されていないと判定されると、制御手段4は、メモリに記憶されている複数の位置データを用いて、第1予測関数を算出し、第1予測関数に基づいて、現在時刻の予測位置を出力する。制御手段4は、現在時刻の予測位置を含む、複数の位置データに基づいて、第2予測関数を算出し、第2予測関数に基づいて、未来時刻の予測位置を出力する。
制御手段4は、表示時間間隔で、未来時刻の予測位置に基づいて、表示画像を変更し、当該変更後の画像を表示装置2に表示させる。制御手段4は、画像表示処理の終了指示が入力されたか否かを判定する。画像表示処理の終了指示が入力されたと判定されると、制御手段4は、画像表示処理を終了する。画像表示処理の終了指示が入力されていないと判定されると、制御手段4は、待機状態に戻る。位置データが受信されていると判定されると、制御手段4は、同じ値を示す位置データを連続して取得したか否かを判定する。制御手段4は、受信した位置データと、メモリに記憶された複数の位置データのうち、撮像時刻が最も新しい位置データとを比較する。同じ値を示す位置データを連続して取得したと判定されると、制御手段4は、連続して取得した2つ目の位置データを破棄する。同じ値を示す位置データを連続して取得していないと判定すると、制御手段4は、入力部3が位置データの取得に失敗した場合、メモリに記憶されている複数の位置データに基づいて、現在時刻の眼の予測位置を算出し、当該予測位置を現在時刻の位置データとして出力する。このため、表示装置2は、検出装置11が眼の位置を検出できなかった場合に、現在時刻の眼の位置を精度よく予測することができる。
制御手段4は、現在時刻の予測位置を含む、複数の位置データに基づいて、未来時刻の眼の予測位置を出力し、当該予測位置に基づいて、表示装置2の各サブピクセルに視差画像を表示させる。このため、表示装置2は、検出装置11が眼の位置を検出できなかった場合であっても、未来時刻における眼の位置を精度よく予測することができる。表示装置2は、未来時刻における眼の予測位置に基づいて画像を表示させることができるため、利用者が3次元画像を視認し難くなることを低減することができる。
本実施形態では、制御手段4は、検出装置11がカメラから取得した撮像画像および当該撮像画像の撮像時刻に基づいて、当該撮像時刻より後の時刻における眼の位置を予測する。したがって、表示装置2は、制御手段4と検出装置11とが互いに非同期で動作するように構成されてよい。言い換えれば、表示装置2は、制御手段4および検出装置11が互いに分離したシステムであるように構成されてよい。これにより、表示装置2は、検出装置11および制御手段4に、それぞれが行う処理に適した周波数のクロック信号を供給することができるため、検出装置11および制御手段4を高速かつ正常に動作させることが可能となる。制御手段4と検出装置11とは、同じクロック信号に基づいて非同期に動作してよいし、別個のクロック信号に基づいて非同期に動作してよい。制御手段4および検出装置11は、一方が第1クロック信号に同期して動作し、他方が第1クロック信号を分周した第2クロック信号に同期して動作してよい。
上述の実施形態は代表的な例として説明したが、本開示の趣旨および範囲内で、多くの変更および置換ができることは当業者に明らかである。したがって、本開示は、上述の実施形態によって制限するものと解するべきではなく、特許請求の範囲から逸脱することなく、種々の変形および変更が可能である。例えば、実施形態および実施例に記載の複数の構成ブロックを1つに組合せたり、あるいは1つの構成ブロックを分割したりすることが可能である。
立体表示用コントローラによって制御される表示装置2としては、透過型の表示パネルに限られず、自発光型の表示パネル等他の表示パネルを使用することもできる。透過型の表示パネルは、液晶パネルの他に、MEMS(Micro Electro Mechanical Systems)シャッター式の表示パネルを含む。自発光型の表示パネルは、有機EL(electro-luminescence)、および無機ELの表示パネルを含む。表示装置2として、自発光型の表示パネルを使用した場合、照射器4は不要となる。表示装置2として、自発光型の表示パネルを使用した場合、パララックスバリア6は、表示装置2の画像光が射出される側に位置する。
本開示における「移動体」には、車両、船舶、航空機を含む。本開示における「車両」には、自動車および産業車両を含むが、これに限られず、鉄道車両および生活車両、滑走路を走行する固定翼機を含めてよい。自動車は、乗用車、トラック、バス、二輪車、およびトロリーバス等を含むがこれに限られず、道路上を走行する他の車両を含んでよい。産業車両は、農業および建設向けの産業車両を含む。産業車両には、フォークリフト、およびゴルフカートを含むがこれに限られない。農業向けの産業車両には、トラクター、耕耘機、移植機、バインダー、コンバイン、および芝刈り機を含むが、これに限られない。建設向けの産業車両には、ブルドーザー、スクレーパー、ショベルカー、クレーン車、ダンプカー、およびロードローラを含むが、これに限られない。車両は、人力で走行するものを含む。なお、車両の分類は、上述に限られない。例えば、自動車には、道路を走行可能な産業車両を含んでよく、複数の分類に同じ車両が含まれてよい。本開示における船舶には、マリンジェット、ボート、タンカーを含む。本開示における航空機には、固定翼機、回転翼機を含む。
以上、本開示の実施形態について詳細に説明したが、また、本開示は上述の実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲内において、種々の変更、改良等が可能である。上記各実施形態をそれぞれ構成する全部または一部を、適宜、矛盾しない範囲で組み合わせ可能であることは、言うまでもない。
1 立体表示用コントローラ
2 表示装置
4 制御手段
4a 第1制御手段
4b 第2制御手段
5 合成テーブル
6 歪み補正部
9 表示制御部
7,8 バッファ
11 検出装置
12 合成画像出力部
13 3D画像合成部
R 右眼用画像
L 左眼用画像

Claims (11)

  1. 視差画像を表示する表示装置と、
    利用者の視点位置を入力可能に構成される入力部と、
    左画像および右画像を混合して視差画像に合成する、第1合成処理および第2合成処理を含む合成処理を実行可能に構成される制御手段と、を含み、
    前記制御手段は、前記表示装置に向けて前記視差画像を出力可能に構成され、
    前記制御手段は、
    前記視差画像のフレーム周期に対応して、前記第1合成処理を実行可能に構成され、
    前記入力部への視点位置の入力に対応して前記第2合成処理を実行可能に構成される、立体表示用コントローラ。
  2. 請求項1に記載の立体表示用コントローラであって、
    前記制御手段は、1つのフレームを表示する際に、1回の前記第1合成処理と、少なくとも1回の前記第2合成処理とを実行する、立体表示用コントローラ。
  3. 請求項1に記載の立体表示用コントローラであって、
    前記制御手段は、1つのフレームを表示する際に、複数回の前記第2合成処理を実行する、立体表示用コントローラ。
  4. 請求項1~3のいずれか1項に記載の立体表示用コントローラであって、
    前記制御手段は、前記左画像および前記右画像を画像合成するための合成テーブルを有し、前記左画像および前記右画像を前記合成テーブルを参照して画像合成し、視差画像を生成するように構成されている、立体表示用コントローラ。
  5. 請求項3に記載の前記立体表示用コントローラであって、
    前記制御手段は、前記視点位置の入力があると、当該視点位置に対応させて前記合成テーブルを更新する、立体表示用コントローラ。
  6. 請求項1~5のいずれか1項に記載の立体表示用コントローラであって、
    前記制御手段は、前記左画像および前記右画像の歪を補正する補正処理を実行するように構成されている、立体表示用コントローラ。
  7. 請求項4に記載の立体表示用コントローラであって、
    制御手段は、第1制御手段と、第2制御手段とを含み、
    前記第1制御手段は、前記合成処理を実行するように構成され、
    前記第2制御手段は、前記補正処理を実行するように構成されている、立体表示用コントローラ。
  8. 請求項7に記載の立体表示用コントローラであって、
    前記第2制御手段は、前記左画像および前記右画像の歪を補正するための補正テーブルを有し、前記補正処理を、前記補正テーブルを参照して補正するように構成されている、立体表示用コントローラ。
  9. 請求項8に記載の立体表示用コントローラであって、
    前記制御手段は、前記視点位置の入力があると、当該視点位置に対応させて前記補正テーブルを更新する、立体表示用コントローラ。
  10. 請求項1~9のいずれか1項に記載の立体表示用コントローラであって、
    前記視点位置の入力周期は、前記フレーム周期よりも短い、立体表示用コントローラ。
  11. 請求項1~10のいずれか1項に記載の立体表示用コントローラであって、
    前記制御手段は、前記視点位置の単位時間あたりの変化量に基づいて前記視点位置の予測値を算出し、算出された前記視点位置の予測値に基づいて、前記第2合成処理を実行する、立体表示用コントローラ。
JP2020207140A 2020-12-14 2020-12-14 立体表示用コントローラ Pending JP2022094223A (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2020207140A JP2022094223A (ja) 2020-12-14 2020-12-14 立体表示用コントローラ
EP21906372.4A EP4262199A4 (en) 2020-12-14 2021-12-02 STEREOSCOPIC DISPLAY CONTROLLER
PCT/JP2021/044310 WO2022131009A1 (ja) 2020-12-14 2021-12-02 立体表示用コントローラ
CN202180083271.6A CN116569096A (zh) 2020-12-14 2021-12-02 立体显示用控制器
US18/266,681 US20240048682A1 (en) 2020-12-14 2021-12-02 Stereoscopic display controller

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020207140A JP2022094223A (ja) 2020-12-14 2020-12-14 立体表示用コントローラ

Publications (1)

Publication Number Publication Date
JP2022094223A true JP2022094223A (ja) 2022-06-24

Family

ID=82057607

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020207140A Pending JP2022094223A (ja) 2020-12-14 2020-12-14 立体表示用コントローラ

Country Status (5)

Country Link
US (1) US20240048682A1 (ja)
EP (1) EP4262199A4 (ja)
JP (1) JP2022094223A (ja)
CN (1) CN116569096A (ja)
WO (1) WO2022131009A1 (ja)

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005175973A (ja) * 2003-12-12 2005-06-30 Canon Inc 立体表示装置
KR101729556B1 (ko) * 2010-08-09 2017-04-24 엘지전자 주식회사 입체영상 디스플레이 시스템, 입체영상 디스플레이 장치 및 입체영상 디스플레이 방법, 그리고 위치 추적 장치
KR101970577B1 (ko) * 2013-04-09 2019-04-19 엘지디스플레이 주식회사 입체 영상 표시 장치 및 그의 아이-트랙킹 방법
JP2015231114A (ja) * 2014-06-04 2015-12-21 日本電信電話株式会社 映像表示装置
KR102333267B1 (ko) * 2014-12-10 2021-12-01 삼성전자주식회사 눈 위치 예측 장치 및 방법
JP6584664B2 (ja) * 2016-06-08 2019-10-02 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置および画像生成方法
JP6799507B2 (ja) 2017-07-05 2020-12-16 京セラ株式会社 3次元投影装置、3次元投影システム、および移動体
JP6895837B2 (ja) * 2017-07-25 2021-06-30 三菱電機株式会社 表示装置

Also Published As

Publication number Publication date
EP4262199A1 (en) 2023-10-18
US20240048682A1 (en) 2024-02-08
EP4262199A4 (en) 2024-04-24
WO2022131009A1 (ja) 2022-06-23
CN116569096A (zh) 2023-08-08

Similar Documents

Publication Publication Date Title
US10102666B2 (en) Electronic display stabilization for head mounted display
JP6409337B2 (ja) 表示装置
WO2021065826A1 (ja) 3次元表示装置、3次元表示システム、ヘッドアップディスプレイ、および移動体
JP2020017935A (ja) 表示装置、表示システムおよび移動体
CN117916706A (zh) 在行驶期间在机动车中运行智能眼镜的方法、可相应运行的智能眼镜及机动车
JPWO2018042976A1 (ja) 画像生成装置、画像生成方法、記録媒体、および画像表示システム
WO2022131009A1 (ja) 立体表示用コントローラ
WO2020090629A1 (ja) 画像表示装置、画像表示システム、及び移動体
US11983838B2 (en) Circuit apparatus, display system, and image processing method
WO2021106689A1 (ja) ヘッドアップディスプレイシステム及び移動体
CN112889274B (zh) 三维显示装置、平视显示器、移动体以及程序
EP4067150A1 (en) Head-up display, head-up display system, and mobile body
EP2811454B1 (en) Image transformation
JP7061943B2 (ja) 3次元表示装置、3次元表示システム、ヘッドアップディスプレイシステム、および移動体
CN112997110B (zh) 图像显示装置、图像显示***以及移动体
JP2021510221A (ja) 仮想カメラを自動車両のルームミラーに向けてシフトすることにより周囲環境の表示を生成するための方法、ならびにカメラ装置
JP7178413B2 (ja) 画像表示装置、画像表示システム、及び移動体
EP4024856A1 (en) Head-up display device, display system, and display method
WO2020031977A1 (ja) 画像表示装置、画像表示システム、及び移動体
JP2021056255A (ja) パララックスバリア、3次元表示装置、3次元表示システム、ヘッドアップディスプレイ、および移動体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230718

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240618