JP2019532535A - 単一深度追跡型の遠近調節−両眼転導ソリューション - Google Patents

単一深度追跡型の遠近調節−両眼転導ソリューション Download PDF

Info

Publication number
JP2019532535A
JP2019532535A JP2019506096A JP2019506096A JP2019532535A JP 2019532535 A JP2019532535 A JP 2019532535A JP 2019506096 A JP2019506096 A JP 2019506096A JP 2019506096 A JP2019506096 A JP 2019506096A JP 2019532535 A JP2019532535 A JP 2019532535A
Authority
JP
Japan
Prior art keywords
image
observer
virtual object
stereoscopic
eye
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019506096A
Other languages
English (en)
Other versions
JP7094266B2 (ja
Inventor
ナイナン,アジト
チー ワン,チュン
チー ワン,チュン
Original Assignee
ドルビー ラボラトリーズ ライセンシング コーポレイション
ドルビー ラボラトリーズ ライセンシング コーポレイション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ドルビー ラボラトリーズ ライセンシング コーポレイション, ドルビー ラボラトリーズ ライセンシング コーポレイション filed Critical ドルビー ラボラトリーズ ライセンシング コーポレイション
Priority claimed from PCT/US2017/045267 external-priority patent/WO2018027015A1/en
Publication of JP2019532535A publication Critical patent/JP2019532535A/ja
Priority to JP2021038211A priority Critical patent/JP7335285B2/ja
Application granted granted Critical
Publication of JP7094266B2 publication Critical patent/JP7094266B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/144Processing image signals for flicker reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/388Volumetric displays, i.e. systems where the image is built up from picture elements distributed through a volume
    • H04N13/395Volumetric displays, i.e. systems where the image is built up from picture elements distributed through a volume with depth sampling, i.e. the volume being constructed from a stack or sequence of 2D image planes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

観察者が第1の左画像および第1の右画像を含む第1の立体画像を観察しているときに、観察者の左眼の左転導角および前記観察者の右眼の右転導角が決定される。(i)前記観察者の左眼の左転導角および(ii)前記観察者の右眼の右転導角に少なくとも部分的に基づいて、仮想物体深度が決定される。前記観察者のための第2の左画像および第2の右画像を含む第2の立体画像が、1つ以上の画像ディスプレイに描画される。前記第2の立体画像は前記第1の立体画像よりも後に提示される。第2の立体画像は、1つ以上の画像ディスプレイから、前記仮想物体深度にある仮想物体面に投射される。

Description

本発明は、画像描画全般に関しており、特に、ディスプレイデバイスを用いた三次元(3D)および/またはマルチビューの画像描画に、単一深度追跡型の遠近調節−両眼転導ソリューションを適用することに関する。
網膜は、(例えば人間、観察者などの)眼の内表面のうちの、眼の瞳孔の反対側にある視覚センサー群を備えた主要部分を指す。中心窩(fovea)は、眼において最も鮮明な視覚および最も高感度な色認識が可能である多数の視覚センサー群を備えた、網膜のうちの比較的小さい中央部分を指す。
人間の脳は、両眼転導(vergence)プロセスを用いて、(人間の)観察者の両眼を、あるシーン中の任意の可視物体にむけて同時に輻輳または開散させるように外眼筋を制御することによって、その物体を3D物体として知覚することをサポートする。同時に、人間の脳は、遠近調節(accommodation)プロセスを用いて、両眼中の瞳孔の後ろにある水晶体の各々を、ある焦点距離(あるいは焦点屈折力(focal power)に順応させるように毛様体筋を制御することによって、その物体の明瞭視、すなわち中心視をサポートする。
実世界環境(あるいはシーン)における実世界の物体を観察するとき、人間の脳は、自然発生的で相互依存的な遠近調節および両眼転導のプロセスを用いて、毛様体筋および外眼筋を同時に制御して観察者の別々の水晶体の両焦点距離を順応させることにより、所定の空間的位置に位置する実世界の物体の明瞭な視覚(すなわち中心視)をサポートし、かつこれと同時に、その空間的位置にある実世界の物体に向けて両眼を輻輳および開散させることにより、その実世界の物体を含む実世界環境の知覚をサポートする。
これに対して、ニアアイディスプレイ(near−eye display)を用いて3D画像を観察するとき、人間の脳は、相反する遠近調節および両眼転導のプロセスを用いて毛様体筋および外眼筋を制御するために、再学習のプロセスを経なければならない。3D画像の観察時にこれらの相反する遠近調節および両眼転導のプロセスが毛様体筋および外眼筋を制御する方法は、実世界環境における実世界の物体の観察時に遠近調節および両眼転導のプロセスが毛様体筋および外眼筋を制御する方法とは非常に異なる。
より具体的には、人間の脳は、眼からある固定距離に位置するニアアイディスプレイに描画された画像の明瞭視(すなわち中心視)をサポートするために、観察者によって観察されている画像中に表される物体がどこに位置することになっているかによらず、観察者の眼の水晶体を一定の焦点距離に設定するように毛様体筋を制御する必要がある。明瞭な観察を行うために毛様体筋が水晶体の焦点距離をニアアイディスプレイに固定するとき、同時に、人間の脳は、ニアアイディスプレイからある距離に存在する画像中に表される物体に向けて同時に眼を輻輳または開散するように外眼筋を制御することで、その物体の3D物体としての知覚をサポートする必要がある。
これは、遠近調節−両眼転導の不整合(accommodation−vergence conflict)として知られている。すなわち、脳は、3D画像を観察する時には、実世界の物体を観察する時とは非常に異なる方法で毛様体筋および外眼筋を制御しなければならない。残念なことに、3D画像の観察における遠近調節−両眼転導の不整合は、3D画像の観察中およびその後において、吐き気、頭痛、見当識障害などの心理的な不快感・気持ち悪さを、高頻度にかつ深刻に引き起こし得る。
本節に記載されているアプローチは、探求し得るアプローチではあるが、必ずしもこれまでに着想または探求されてきたアプローチではない。従って、別途示唆のない限り、本節に記載されたアプローチのいずれも、本節に記載されているという理由だけで従来技術としての適格性を有すると考えるべきではない。同様に、別途示唆のない限り、1以上のアプローチに関して特定される問題が、本節に基づいて、いずれかの先行技術において認識されたことがあると考えるべきではない。
添付図面の各図において、本発明を限定する事なく例示する。同様の部材には同様の参照符号を付している。
一例としての人間の眼の断面図を示している。 左眼および右眼による物体平面内に位置する実世界の物体の観察の一例を示している。 左画像および右画像を含む立体画像に表される仮想物体の観察の一例を示している。 左画像および右画像を含む立体画像に表される仮想物体の観察の一例を示している。 立体画像の時間的シーケンスを観察する際の、観察者の転導角の追跡の一例を示している。 左画像および右画像を含む立体画像に表される仮想物体の観察の一例を示している。 ブラーフィルタの一例を示している。 ビデオストリーミングサーバーおよびクライアントの一例を示している。 ビデオストリーミングサーバーおよびクライアントの一例を示している。 ビデオストリーミングサーバーおよびクライアントの一例を示している。 プロセスフローの一例を示している。 本明細書に記載のコンピュータまたは計算装置が実装され得るハードウェアプラットフォームの一例を示す。
ディスプレイデバイスを用いた3Dおよび/またはマルチビューの画像描画に単一深度追跡型の遠近調節−両眼転導ソリューションを適用することに関連する例示的実施形態を、本明細書に記載する。以下の説明においては、便宜上、本発明を完全に理解できるように、多数の詳細事項を説明する。ただし、これらの詳細事項が無くても本発明を実施可能であることは明白であろう。他方、本発明の説明を不必要に煩雑にしたり、不明瞭にしたり、難読化したりしないように、周知の構造およびデバイスの細かな詳細までは説明しない。
本明細書において、以下の概略にしたがって例示的実施形態を記載する:
1.一般的概要
2.遠近調節および両眼転導
3.遠近調節と両眼転導との不整合
4.遠近調節と両眼転導との不整合の解決
5.転導角の追跡
6.ビデオストリーミングサーバーおよびクライアントの例
7.プロセスフローの例
8.実装メカニズム−ハードウェア概要
9.均等物、拡張物、代替物、その他
1.一般的概要
本概要は、本発明のある例示的実施形態が有するいくつかの側面について、基本的説明を提示する。本概要は、例示的実施形態が有する諸側面についての広範かつ網羅的な要約ではない、ということに留意すべきである。さらに留意すべきは、本概要は、例示的実施形態が有する任意の特に重要な側面または要素を示すものとして理解されるようには意図されておらず、その特定の例示的実施形態あるいは広く本発明の何らの範囲をも規程するものとして理解されるようにも意図されていない。本概要は、単に、例示的実施形態に関するいくつかの概念を凝縮された簡素な形式で提示するものであって、以下に続く例示的実施形態についてのより詳細な説明に対する単なる概念的な前置きとして理解されるべきである。別個の実施形態が本明細書において述べているが、本明細書に述べた実施形態の任意の組み合わせおよび/または部分的な実施形態は、組み合わせられてさらなる実施形態を形成し得ることに留意されたい。
本明細書に記載の例示的実施形態は、自動調整レンズを介して、3D画像(またはマルチビュー画像)の描画および観察における遠近調節−両眼転導の不整合を解決することに関する。観察者が第1の左画像および第1の右画像を含む第1の立体画像を観察しているときに、前記観察者の左眼の左転導角および前記観察者の右眼の右転導角が決定される。(i)前記観察者の左眼の左転導角および(ii)前記観察者の右眼の右転導角に少なくとも部分的に基づいて、仮想物体深度が決定される。前記観察者のための、第2の左画像および第2の右画像を含む第2の立体画像が、1つ以上の画像ディスプレイに描画される。前記第2の立体画像は前記第1の立体画像よりも後に提示される。前記第2の立体画像は、前記1つ以上の画像ディスプレイから、前記仮想物体深度にある仮想物体面に投射される。
いくつかの実施形態において、入力左画像および入力右画像中に表される視認対象物体のアスペクト比を、前記仮想物体深度にある前記仮想物体面に投射された前記第2の左画像および前記第2の右画像に表される視認対象物体の変更後のアスペクト比に調整する、1回以上のアスペクト比調整演算を適用することによって、前記第2の左画像および前記第2の右画像は、前記入力左画像および前記入力右画像から生成される。
いくつかの実施形態において、入力左画像および入力右画像中に表される視認対象物体の深度を、前記仮想物体深度にある前記仮想物体面に投射された前記第2の左画像および前記第2の右画像中に表される前記視認対象物体の変更後の深度に変換する、1回以上の深度補正演算を適用することによって、前記第2の左画像および前記第2の右画像は、前記入力左画像および前記入力右画像から生成される。
いくつかの実施形態において、前記第2の左画像および前記第2の右画像の1つ以上の空間領域を入力左画像および入力右画像に対してぼやけさせる1回以上のブラーフィルタリング演算を適用することによって、前記第2の左画像および前記第2の右画像は、前記入力左画像および前記入力右画像から生成され、前記第2の左画像および前記第2の右画像の前記1つ以上の空間領域は、前記観察者の中心視から離れている。
いくつかの例示的実施形態において、本明細書に記載された機構は、以下を含むがこれに限定されないメディア処理システムの一部を形成する。すなわち、ニアアイディスプレイ、クラウドベースのサーバー、モバイルデバイス、仮想現実システム、拡張現実システム、ヘッドアップディスプレイデバイス、ヘルメットマウンテッドディスプレイデバイス、zSpaceディスプレイ、CAVEタイプシステムすなわち壁サイズのディスプレイ、テレビゲーム装置、ディスプレイデバイス、メディアプレイヤー、メディアサーバー、メディア制作システム、カメラシステム、ホーム用システム、通信デバイス、映像処理システム、ビデオコーデックシステム、スタジオシステム、ストリーミングサーバー、クラウドベースのコンテンツサービスシステム、ハンドヘルドデバイス、ゲーム機器、テレビ、劇場ディスプレイ(cinema display)、ラップトップコンピュータ、ネットブックコンピュータ、タブレットコンピュータ、携帯無線電話、電子ブックリーダー、POS端末(point of sale terminal)、デスクトップコンピュータ、コンピュータワークステーション、コンピュータサーバー、コンピュータキオスク、または様々な他の種類の端末およびメディア処理ユニットである。
本明細書中に記載の好ましい実施形態ならびに一般的な原則や特徴に対する様々な変更は、当該分野の当業者にとっては容易に明らかであろう。よって、本開示は提示された実施形態に限定されるように意図されているのではなく、本明細書中に記載の原則および特徴に合致する最も広い範囲を与えられるべきである。
2.遠近調節および両眼転導
図1Aは、一例としての観察者の有する人間の眼100を、観察者の頭部の真上から見た断面図を示す。図示されるように、眼(100)は、眼(100)の前部に位置する瞳孔104の中心点と、眼(100)の後部にある網膜110に位置する中心窩106の中心点とを通過する、光軸102(横線112に垂直である)を有する。瞳孔(104)の後ろに位置する水晶体108を通って集められた光は、水晶体(108)によって、中心窩(106)に投射され得る。例示目的にすぎないが、水晶体(108)は、眼球焦点距離によって光学的に特徴付けられ得る。水晶体は、単一の焦点距離を有する光学レンズを表現している場合としていない場合とが有り得るため、本明細書における眼球焦点距離は、以下のうちの1つを指す。すなわち、光軸(102)近くの光に対する焦点距離、水晶体の中央部の平均焦点距離、光軸(102)近くの光に対する実効焦点距離、中心窩に投射された光に関する焦点距離、または、中心視に対して局所的には完全に近いレンズ(locally near perfect lens)の焦点距離などである。様々な実施形態において、水晶体は単一のレンズまたは複数のレンズとしてモデル化することができ、このうちの1つ、一部、または全部が、例えば眼(100)内のあるいは眼(100)に関連する毛様体筋を通じて制御可能な、可変焦点レンズを有し得ることに留意されたい。
図1Bは、観察者の左眼100−1および右眼100−2による、物体平面116内に位置する実世界の物体114の観察の例を示す。図示されるように、物体平面(116)(実世界の物体(114)が位置している)は、観察者の正面観察方向118に垂直であり、観察者の瞳孔間線120に平行である。
左眼(100−1)の左中心窩(106−1)および右眼(100−2)の右中心窩(106−2)の両方を介して実世界の物体(114)の明瞭視を実現するために、観察者の脳は、両眼転導プロセス(例えば開散プロセス、輻輳プロセスなど)を用いて両眼における外眼筋を同時に制御することにより、左眼(100−1)および右眼(100−2)を実世界の物体(114)に向ける。もし観察者の光軸(102−1および102−2、それぞれ横線112−1および112−2に垂直である)が実世界の物体(114)よりも近くの空間上の点に前もって向けられていたならば、観察者の脳は開散プロセスを用いて両眼における外眼筋を制御することにより、左眼(100−1)および右眼(100−2)を同時に実世界の物体(114)に向けて開散させる。逆にもし観察者の光軸(102−1および102−2)が実世界の物体(114)よりも遠くの空間上の点に前もって向けられていたならば、観察者の脳は輻輳プロセスを用いて両眼における外眼筋を制御することにより、左眼(100−1)および右眼(100−2)を同時に実世界の物体(114)に向けて輻輳させる。
その結果、左眼(100−1)の左光軸(102−1)および右眼(100−2)の右光軸(102−2)(例えば正常な視覚を有する)が実世界の物体(114)に交わるることにより、実世界の物体(114)からの光は、左眼(100−1)の左中心窩(106−1)および右眼(100−2)の右中心窩(106−2)の両方に投射される。
実世界環境・シーンにおける実世界の物体を観察する際、遠近調節および両眼転導プロセス・機能は独立的ではなく、むしろ観察者の脳において相互依存的に、ある物体に転導(輻輳・開散)し、かつ同時に(例えば順応して)その同じ物体にフォーカスするように、筋肉を制御する。例えば、両眼転導プロセスを用いて両眼における外眼筋を制御して左眼(100−1)および右眼(100−2)を同時に実世界の物体(114)に向けると同時に、観察者の脳は、遠近調節プロセスを用いて両眼における毛様体筋を同時に制御して左眼(100−1)および右眼(100−2)を実世界の物体(114)にフォーカスさせる。左眼(100−1)および右眼(100−2)の焦点距離は、遠近調節プロセスによって、実世界の物体(114)からの光(例えば発光、反射等された光)が左中心窩(106−1)および右中心窩(106−2)に交わる像平面(すなわち網膜)にフォーカスするように調節され得る。より具体的には、左眼(100−1)の焦点距離は、実世界の物体(114)と左水晶体(108−1)との間の(左)距離122−1に少なくとも部分的に基づいて、実世界の物体(114)からの光が左中心窩(106−1)に交わる左像面(すなわち左網膜)にフォーカスされるように、遠近調節プロセスによって設定され得る。一方、右眼(100−2)の焦点距離は、実世界の物体(114)と右水晶体(108−2)との間の(右)距離122−2に少なくとも部分的に基づいて、実世界の物体(114)からの光が右中心窩(106−2)に交わる右像面(すなわち右網膜)にフォーカスされるように、遠近調節プロセスによって設定され得る。実世界の物体(114)が、観察者の眼から瞳孔間線(120)に沿った観察者の瞳孔間距離(観察者の両眼間の距離)よりも遥かに(例えば10倍など)大きい距離に位置している状況においては、左眼(100−1)および右眼(100−2)の焦点距離は、遠近調節プロセスによって同じ焦点距離またはほぼ同じ焦点距離に調節され得る。
3.遠近調節と両眼転導との不整合
いくつかの実施形態において、本明細書に記載の立体画像またはマルチビュー画像は、1つ以上の空間環境において用いられる1つ以上のカメラシステムによって撮像され得る。空間環境の例は、これらのみに限定されないが、物理的空間環境、シミュレートされた空間環境、映画スタジオ、屋外シーン、屋内シーン、トンネル、通り、乗り物、船、飛行機、大気圏外空間などがある。カメラシステムの例としては、これらのみに限定されないが、3Dカメラ、マルチビューカメラ、ライトフィールドカメラ、重複する視野および/または重複しない視野を有する複数のカメラ、デジタルカメラ、アナログカメラ、ウェブカメラなどがある。
本明細書に記載の立体画像またはマルチビュー画像における、左画像、右画像、複数の異なるビュー中の特定のビューの画像は、1画像フレーム中の画素上に分配された画素値として、記録または整理され得る。
図2Aは、左画像202−1および右画像202−2を含む立体画像中に表される仮想物体214の観察の一例を示す。立体画像中において、仮想物体(214)は、観察者の左眼(100−1)および右眼(100−2)にとって、仮想物体面216内に位置するように表現され得る。例示目的にすぎないが、仮想物体面(216)(ここに仮想物体(214)が(仮想的に)位置している)は、観察者の正面観察方向(118)に垂直であり、かつ観察者の瞳孔間線(120)に平行である。
左眼(100−1)の左中心窩(106−1)および右眼(100−2)の右中心窩(106−2)の両方を介して仮想物体(214)の明瞭視を実現するために、観察者の脳は、両眼転導プロセス(例えば開散プロセス、輻輳プロセスなど)を用いて両眼における外眼筋を同時に制御することにより、左眼(100−1)および右眼(100−2)を仮想物体(214)に向ける。もし観察者の光軸(102−1および102−2)が仮想物体(214)よりも近くの仮想空間上の点(立体画像中に表されている)に前もって向けられていたならば、観察者の脳は開散プロセスを用いて両眼における外眼筋を制御することにより、左眼(100−1)および右眼(100−2)を同時に仮想物体(214)に向けて開散させる。逆にもし観察者の光軸(102−1および102−2)が仮想物体(214)よりも遠くの仮想空間上の点(立体画像中に表されている)に前もって向けられていたならば、観察者の脳は輻輳プロセスを用いて両眼における外眼筋を制御することにより、左眼(100−1)および右眼(100−2)を同時に仮想物体(214)に向けて輻輳させる。
この結果、左眼(100−1)の左光軸(102−1)および右眼(100−2)の右光軸(102−2)が仮想物体(214)に交わることにより、仮想物体(214)を表す、左画素224−1(左画像(202−1)内)および右画素224−2(右画像(202−2)内)からの光が、それぞれ左眼(100−1)の左中心窩(106−1)および右眼(100−2)の右中心窩(106−2)に投射される。
両眼転導プロセスを用いて両眼における外眼筋を制御して左眼(100−1)および右眼(100−2)を同時に仮想物体(214)に向けると同時に、観察者の脳は、遠近調節プロセスを用いて両眼における毛様体筋を同時に制御して左眼(100−1)および右眼(100−2)をそれぞれ、仮想物体(214)を表している左画素(224−1)および右画素(224−2)上にフォーカスさせる。左眼(100−1)および右眼(100−2)の焦点距離は、遠近調節プロセスによって、仮想物体(214)を表す左画素(224−1)および右画素(224−2)からの光が、各像面(すなわち網膜)に交わる左中心窩(106−1)および右中心窩(106−2)にフォーカスされるように調節され得る。より具体的には、左眼(100−1)の焦点距離は、左画素(224−1)と左水晶体(108−1)との間の(左)距離222−1に少なくとも部分的に基づいて、左画素(224−1)からの光が左中心窩(106−1)に交わる左像面(すなわち左網膜)にフォーカスされるように、遠近調節プロセスによって設定され得る。一方、右眼(100−2)の焦点距離は、右画素(224−2)と右水晶体(108−2)との間の(右)距離222−2に少なくとも部分的に基づいて、右画素(224−2)からの光が右中心窩(106−2)に交わる右像面(すなわち右網膜)にフォーカスされるように、遠近調節プロセスによって設定され得る。左右の画像(202−1および202−2)が瞳孔間線(120)に沿った観察者の瞳孔間距離(観察者の両眼間の距離)と同程度の距離に観察者の眼から位置している状況においては、左眼(100−1)および右眼(100−2)の焦点距離は、遠近調節プロセスによってそれぞれ異なる焦点距離に調節され得る。
図2Aにおいて観察者の脳が用いる遠近調節および両眼転導のプロセス・機能は、図1Bにおいて観察者の脳が用いる遠近調節および両眼転導のプロセス・機能とは全く異なった動作を行う。
例えば、前述のように、図1Bに例示するような実世界の物体を観察する際には、観察者の脳は、自然な遠近調節および両眼転導のプロセスを用いることにより、ある物体に転導(輻輳・開散)し、かつ同時に(例えば順応して)その同じ物体にフォーカスするように、筋肉を制御する。より具体的には、図1Bの遠近調節プロセスは、実世界の物体(114)と左右水晶体(108−1および108−2)との距離に基づいて、左水晶体(108−1)および右水晶体(108−2)の焦点距離を調節する。これらの距離は、自己矛盾なく、左眼(100−1)および右眼(100−2)の光軸(102−1および102−2)の交差点に合致、すなわちそこで完結・終結する。さらに、大抵の場合、これらの距離は瞳孔間距離の何倍もの大きさであるため、図1Bにおける遠近調節プロセスによって設定される左水晶体(108−1)および右水晶体(108−2)の焦点距離は、実質的に同一である。
一方で、図2Aに例示されるような仮想物体を観察する際には、観察者の脳は、新しく不自然な遠近調節および両眼転導のプロセスを用いて、仮想物体に向けて転導(輻輳・開散)し、同時に、相反するように、仮想的な空間的位置における仮想物体ではなく、仮想物体を表している(ディスプレイ(単数または複数)上の)画素にフォーカスするように、筋肉を制御しなければならない。より具体的には、図2Aにおける遠近調節プロセスは、左画素(224−1)と左水晶体(108−1)との間の距離、および右画素(224−2)と右水晶体(108−2)との間の距離に基づいて、左水晶体(108−1)および右水晶体(108−2)の焦点距離を調節することにより、左右の画素(224−1および224−2)が描画されるディスプレイ(単数または複数)上に、最も鮮明な視覚を固定する。これらの距離は、左眼(100−1)および右眼(100−2)の光軸(102−1および102−2)の交差点とは合致しない、すなわちそこで完結・終結しない。左水晶体(108−1)および右水晶体(108−2)は、左中心窩(106−1)および右中心窩(106)とともに、2つの異なるディスプレイにそれぞれ位置する(あるいは同じディスプレイ上の異なる空間上の位置に位置する)2つの異なるグループの画素に、実質的に強制的に向けられることになる。
また、左右の画像(202−1および202−2)が観察者の眼(100−1および100−2)の近くに描画される場合、左画素(224−1)と左水晶体(108−1)との間の距離、および右画素(224−2)と右水晶体(108−2)との間の距離が瞳孔間距離と同程度であるため、図2Aにおける遠近調節プロセスによって設定される左水晶体(108−1)の焦点距離と右水晶体(108−2)の焦点距離とが十分に異なり、その結果、観察者の脳に、眼の追加的な新たな制御を強制的に再学習させて、遠近調節−両眼転導の不整合の解消の一環として、水晶体の異なる焦点レンズ(focal lenses)を用いさせることになり得る。
4.遠近調節と両眼転導との不整合の解決
図2Bは、(a)左画像(252−1)および右画像(252−2)が描画される1つ以上の画像ディスプレイと(b)観察者の眼(100−1および100−2)との間に配置された、1つ以上の自動調整レンズ228−1、228−2等を介した、左画像(252−1)および右画像(252−2)を含む立体画像中に表される仮想物体(214)の観察の一例を示す。いくつかの実施形態において、画像ディスプレイのうちのいくつかまたは全部が、観察者に対して固定されており(例えば観察者に対して固定距離にあるなど)、かつ瞳孔間線(120)に平行(または実質的に平行)である。例示目的にすぎないが、自動調整レンズは、左画像(252−1)と左眼(100−1)との間に配置された左自動調整レンズ228−1、および、右画像(252−2)と右眼(100−2)との間に配置された右自動調整レンズ228−2を有する。本明細書に記載の自動調整レンズの例としては、必ずしも以下のものに限定されないが、機械的制御が可能な自動調整レンズ、電子的制御が可能な自動調整レンズ、液体ベースの自動調整レンズなどがある。
本明細書に記載の画像処理システムは、以下を含むがこれらに限定されない様々なディスプレイ用途において用いられ得る。すなわち、3Dディスプレイ用途、マルチビューディスプレイ用途、球体画像ディスプレイ用途、仮想現実(VR)用途、拡張現実(AR)用途、リモートプレゼンス用途などである。画像処理システムは、リアルタイムで視線追跡演算(および/または眼球追跡演算)を行うことにより、観察者によって観察される3Dまたはマルチビュー画像を描画するディスプレイ用途において、観察者の眼が任意の時点において仮想空間上のどの特定の位置を見ているかを決定するように構成され得る。例示目的として、視線・眼球追跡演算の結果に基づき、画像処理システムは、仮想物体(214)が位置する仮想空間上の特定の位置を、決定・推測する。視線・眼球追跡演算は、1つ以上の(例えばリアルタイムの)視線・眼球追跡方法の任意の組み合わせに基づき得る。例えば、これらの視線・眼球追跡方法は、以下のうちのうち1つ以上を用いて動作し得る。すなわち、アイアタッチメント、光センサ、眼球像の取得および分析(eye image acquisition and analyses)、電界測定、赤外光などである。
様々な実施形態において、仮想空間上の特定の位置は、観察者が位置する画像描画環境内において表現される任意の空間座標系(例えばデカルト座標系、極座標系、ワールド座標系、相対座標系など)によって表現され得る。
任意の時点における仮想空間上の特定の位置に基づき、画像処理システムは、仮想空間上の特定の位置(または仮想物体(214))がその任意の時点において位置している仮想物体面216を、特定・決定する。例えば、任意の時点における仮想空間上の特定の位置に基づき、画像処理システムは、任意の時点において仮想物体面(216)に対する単一深度236(すなわち仮想物体深度)を算出してもよい。単一深度(236)は、必ずしもこれに限定されないが、仮想物体面(216)と自動調整レンズ(228−1および228−2)との距離によって表現されてもよい。画像描画平面に描画された左画像(252−1)および右画像(252−2)の両方が、左自動調整レンズ(228−1)および右自動調整レンズ(228−2)によって仮想物体面(216)にそれぞれ投射されてもよい。
いくつかの実施形態において、画像処理システムは、レンズ方程式(単数または複数)を用いて、左右自動調整レンズ(228−1および228−2)の焦点距離(単数または複数)を決定する。
限定的ではない実装例において、レンズ方程式を用いて単一の焦点距離を算出してもよい。左右の自動調整レンズ(228−1および228−2)の両方が、同じ算出された単一の焦点距離に自動調整されてもよい。この単一の焦点距離を算出する際におけるレンズ方程式に対する入力は、(a)仮想物体面(216)と自動調整レンズ(228−1および228−2)との距離によって表現される単一深度(236)、および、(b)自動調整レンズ(228−1および228−2)と左画像(252−1)および右画像(252−2)が描画される画像ディスプレイとの距離によって表現される画像表示深度(242)を含み得る。単一深度(236)はレンズ方程式において画像距離(d2)として用いられ、画像表示深度(242)はレンズ方程式において対物距離(d1)として用いられ得る。本明細書に記載の自動調整レンズの焦点距離を算出するためのレンズ方程式の一例を、以下に示す:
Figure 2019532535
自動調整レンズ(228−1および228−2)の存在により、左画像(252−1)および右画像(252−2)が実際に描画される画像ディスプレイから、左画像(252−1)および右画像(252−2)が自動調整レンズ(228−1および228−2)によって投射される仮想的な画像ディスプレイ(仮想物体面(216)によって表現される)まで、画像が実質的に移動する。
左眼(100−1)の左中心窩(106−1)および右眼(100−2)の右中心窩(106−2)の両方を介して仮想物体(214)の明瞭視を実現するために、観察者の脳は、両眼転導プロセス(例えば開散プロセス、輻輳プロセスなど)を用いて両眼における外眼筋を同時に制御することにより、左眼(100−1)および右眼(100−2)を仮想物体(214)に向ける。
その結果、左眼(100−1)の左光軸(102−1)および右眼(100−2)の右光軸(102−2)が仮想物体(214)に交わることにより、仮想物体(214)からの光が、左眼(100−1)の左中心窩(106−1)および右眼(100−2)の右中心窩(106−2)に投射される。より具体的には、仮想物体(214)からの光は、(a)左自動調整レンズ(228−1)によって左画素234−1から投射される左光部分(左画像(252−1)中)および、(b)右自動調整レンズ(228−2)によって右画素234−2から投射される右光部分(右画像(252−2)中)を含み、左画素(234−1)および右画素(234−2)は仮想物体(214)を表している。左画素(234−1)の仮想画像部分に対応する左光部分は左眼(100−1)の左中心窩(106−1)によって受け取られ、右画素(234−2)の仮想画像部分に対応する右光部分は、右眼(100−2)の右中心窩(106−2)によって受け取られる。
両眼転導プロセスを用いて両眼における外眼筋を制御して左眼(100−1)および右眼(100−2)を同時に仮想物体(214)に向けると同時に、観察者の脳は、遠近調節プロセスを用いて両眼における毛様体筋を同時に制御して左眼(100−1)および右眼(100−2)を仮想物体面(216)における仮想物体(214)にそれぞれフォーカスさせる。左眼(100−1)および右眼(100−2)の焦点距離は、仮想物体(214)からの光が左中心窩(106−1)および右中心窩(106−2)に交わるそれぞれの像面にフォーカスされるように、遠近調節プロセスによって調節され得る。より具体的には、左眼(100−1)の焦点距離は、仮想物体(214)が位置する仮想空間上の位置と左水晶体(108−1)との(左)距離に少なくとも部分的に基づいて、仮想物体(214)からの光の左光部分を左中心窩(106−1)に交わる左像面にフォーカスさせるように、遠近調節プロセスによって設定され得る。一方、右眼(100−2)の焦点距離は、仮想物体(214)が位置する仮想空間上の位置と右水晶体(108−2)との(右)距離に少なくとも部分的に基づいて、仮想物体(214)からの光の右光部分を右中心窩(106−2)に交わる右像面にフォーカスさせるように、遠近調節プロセスによって設定され得る。仮想物体(214)が位置している仮想空間上の位置が瞳孔間線(120)に沿った観察者の瞳孔間距離(観察者の両眼間の距離)よりも遥かに大きい距離に観察者の眼から位置している状況においては、左眼(100−1)および右眼(100−2)の焦点距離は、同じかほぼ同じであってもよい。
図2Bにおいて観察者の脳によって用いられる遠近調節プロセスは、図1Bにおいて観察者の脳によって用いられる遠近調節プロセスと同一か、実質的に同じである。例えば、図1Bと同様に、図2Bの遠近調節プロセスは、観察者の中心視にある仮想物体(214)と左右の水晶体(108−1および108−2)との距離に基づいて、左水晶体(108−1)および右水晶体(108−2)の焦点距離を調節する。図1Bにおける距離と同様に、図2Bにおけるこれらの距離は自己矛盾なく左眼(100−1)および右眼(100−2)の光軸(102−1および102−2)の交差点に合致、すなわちそこで完結・終結する。さらに、図1Bにおける場合と同様に、大抵の場合、これらの距離は瞳孔間距離の何倍もの大きさであるため、図1Bにおける遠近調節プロセスによって設定される左水晶体(108−1)および右水晶体(108−2)の焦点距離は、実質的に同一である。
いくつかのアプローチにおいては、1つの立体画像に対して、複数の描画された画像(例えば6つの異なる深度における6つの描画された画像、12の異なる深度における12個の描画された画像、連続的に可変である深度において描画された画像など)を生成し、複数の深度で表示してもよい。立体画像中に表される物体は、複数の描画された画像の深度に対する当該表される物体の深度に基づいて、複数の描画された画像のうちの1つの中に表示されればよい。この結果得られるディスプレイシステムにおいては、多数の描画された画像が生成されて表示され、複数の深度の間で表される物体のいくつかは不正確に表現されていたり、かつ/または複数の描画された画像の複数の深度に対してミスマッチングな深度を有する表される物体を補間するための多大な演算を要したりする。あるディスプレイシステムのある与えられたフレームリフレッシュレート(例えば毎秒60フレーム、毎秒120フレームなど)について、1つの立体画像に対して複数の描画された画像を複数の異なる深度において表示することは、知覚され得るような画像のジャダーを生成しやすい。
これに対して、本明細書に記載の技術を用いれば、観察者が現在どこを見ているかに基づいて、1つの立体またはマルチビュー画像が表示されるべき単一深度を決定することができる。これにより、本明細書に記載の技術を実装するディスプレイシステムは、例えば1つ以上の自動調整レンズを用いることによって、左画像および右画像を単一深度または非常に少ない数の深度に提示・投射することが可能となる。この技術は、効果的に遠近調節−両眼転導の不整合を解決し得る。なぜなら、遠近調節および両眼転導のプロセスは、例えば物体・人物を表す立体画像の画像細部がある同じ空間上の位置に向けて、観察者の眼を順応させることができるからである。さらに、本明細書に記載の技術は、以下を含むが必ずしもこれのみに限られない、広範なディスプレイシステムにおいて用いられることができる。すなわち、ニアアイディスプレイ、ヘッドマウントディスプレイ、zSpaceディスプレイ、劇場ディスプレイ、大型ディスプレイシステム、医療用ディスプレイシステム、高フレームレートのディスプレイシステム、比較的低フレームレートのディスプレイシステム、3Dグラス、TV、などである。
いくつかの実施形態において、自動調整レンズ(例えば228−1、228−2など)は1つのレンズ素子を備えており、この1つのレンズ素子の焦点距離は、画像(例えば252−1、252−2)が自動調整レンズによってどこに投射されるべきかに基づき、調節されることができる。
いくつかの実施形態において、1つの自動調整レンズ(例えば228−1、228−2など)は複数のレンズ素子を備えており、複数のレンズ素子の焦点距離の一部または全部は、画像(例えば252−1、252−2)が自動調整レンズによってどこに投射されるべきかに基づき、調節されることができる。例えば、自動調整レンズの1つ以上のレンズ素子が、本明細書に記載の画像処理システムによって、画像の一部を仮想物体面(216)に投射するように決定・選択されることができる。ここで画像の当該一部は、観察者の中心視(例えば106−1、106−2など)内にある、仮想空間上の特定の位置(仮想物体面(216)上の)を含む。仮想空間上の特定の位置とレンズ素子との距離(例えば232−1、232−2など)は、仮想物体面(216)と、自動調整レンズが位置する平面(例えばレンズ素子の位置、自動調整レンズの位置など)との間の幾何学的関係(例えば単一深度(236)など)に基づき、決定されることができる。仮想空間上の特定の位置とレンズ素子との距離に少なくとも部分的に基づいて、レンズ素子の焦点距離を1つ以上のレンズ方程式において決定することができる。
いくつかの実施形態において、1つの自動調整レンズを用いて、1つ以上の画像ディスプレイ上の左画像および右画像の両方を、任意の時点において、単一深度で、ある仮想物体面に投射する。
異なる観察者は、異なる視覚特性(近視、遠視、正常な立体視覚、正常でない立体視覚、眼鏡装用、眼鏡非装用、コンタクトレンズ装用などを含む)を有し得る。追加的、選択的、または代替的に、異なる観察者は、異なる頭部寸法特性(瞳孔間距離、目−自動調整レンズ距離などを含む)を有し得る。いくつかの実施形態において、画像処理システムは、特定の視覚特性および/または特定の頭部寸法特性を有するある特定の観察者に対して、固有にキャリブレーションされる能力を有していてもよい。例えば、画像処理システムをディスプレイ用途における3Dまたはマルチビューの画像を観察するために用いる前のキャリブレーションセッション中において、画像処理システムは、テスト立体画像を、完全・基準視覚をもつ基準観察者に対応する単一深度の付近に分布する異なる深度で、観察者に提示してもよい。その観察者に固有の、補正された深度が、自動的に、ユーザーの入力有りまたは無しで決定されてもよい。完全・基準視覚を備えた基準観察者に対応して、複数の深度の各々についてこのプロセスを観察者に対し繰り返してもよい。曲線、ルックアップテーブル(LUT)などが、キャリブレーションセッションにおいて決定され得る。完全・基準視覚をもつ基準観察者に対しランタイム計算された深度を調節することで、観察者の特定の深度を算出してもよい。追加的、選択的、または代替的に、正確な視線・眼球追跡と、画像処理システムの1つ以上の自動調整レンズによって異なる時点における画像が投射されるべき仮想物体面の正確な配置とを行う目的で、観察者の特定の頭部寸法特性を、測定または画像処理システムに入力してもよい。
左画像(252−1)および右画像(252−2)に表される仮想物体(214)を含む物体・人物は、自動調整レンズ(228−1および228−2)によって拡大されてもよいことに留意されたい。いくつかの実施形態において、単一深度(236)に少なくとも部分的に基づいて、画像処理システムは拡大率を決定する。例えば、拡大率は、単一深度(236)の画像表示深度(242)に対する比として決定され得る。画像処理システムは、仮想物体面(216)の単一深度(236)に関連して決定される拡大率に基づき、アスペクト比調整演算を行うことができる。例えば、画像処理システムは、入力された映像信号から、左画像(252−1)および右画像(252−2)を導出するために用いられる入力左画像および入力右画像を受け取るかまたは復号化してもよい。画像処理システムは、拡大率の逆数を入力左画像および入力右画像に適用することにより、自動調整レンズ(228−1および228−2)の存在下で知覚された左画像(252−1)および右画像(252−2)中に表される物体・人物(これは仮想物体面(216)に位置していてもしていなくてもよい)が、アスペクト比、サイズなどに関して、自動調整レンズ(228−1および228−2)の存在無しに知覚された入力左画像および入力左画像中に表される同じ物体・人物にマッチしているように、左画像(252−1)および右画像(252−2)を生成してもよい。
自動調整レンズ(228−1および228−2)の存在無しに画像ディスプレイにおいて知覚された左画像(252−1)および右画像(252−2)の深度情報は、自動調整レンズ(228−1および228−2)の存在下で仮想物体面(216)において知覚される投射画像における新しい深度情報に、変更され得る。
いくつかの実施形態において、深度情報は、入力された左右の画像に関連する視差画像(単数または複数)、入力された左右の画像を取得・生成・作成する(仮想または現実の)カメラシステムのカメラ幾何情報など、の組み合わせから導出されることができる。いくつかの実施形態において、深度情報は、入力された左右の画像とともに受け取られた深度マップ(単数または複数)から、直接読み出され得る。視差画像(単数または複数)、深度マップ(単数または複数)、カメラ幾何情報などのうち一部または全部は、入力された映像信号中において、左右の画像とともに受け取られることができる。
追加的、選択的、または代替的に、いくつかの実施形態において、左画像(252−1)および右画像(252−2)を生成するとき、画像処理システムは、入力左画像および入力右画像に深度補正演算を適用することによって、自動調整レンズ(228−1および228−2)の存在下で知覚された左画像(252−1)および右画像(252−2)中に表される物体・人物(これは仮想物体面(216)上に位置していてもしていなくてもよい)の新たな深度情報が、自動調整レンズ(228−1および228−2)の存在無しに知覚された入力左画像および入力左画像中に表される同じ物体・人物の入力深度情報にマッチしているようにする。
追加的、選択的、または代替的に、いくつかの実施形態において、(例えば低強度のなど)可変空間解像度を有するブラーフィルタを、左画像(252−1)および右画像(252−2)を生成する画像処理演算に適用することにより、観察者の中心視の外に位置する左画像(252−1)および右画像(252−2)から高空間周波数成分を様々に激減させ得る。ブラーフィルタは、観察者の網膜によって実現されるぼやけ機能をシミュレートするために用いられ得る。仮想物体面(例えば216−1など)上に表現される画像細部の、観察者の中心視に対する距離が増加するにしたがって、ブラーフィルタの強度を増大してもよい。
いくつかの実施形態において、ブラーフィルタは、観察者の中心視(例えば106−1、106−2など)を包含する画像細部においてゼロまたはわずかなぼやけを付与し、観察者の中心視からより遠い画像細部、例えば網膜(例えば110−1110−2など)のうち観察者の中心視(例えば106−1、106−2など)の外側の領域などに対してはより強いぼやけを付与する。
例えば、図2Eに示すように、第1のブラーフィルタを用いて、仮想物体面(例えば216−1など)の左中心視領域256に投射される左画像(252−1)中の画像細部に対して、ゼロまたはわずかなぼやけを付与し得る。仮想物体面の左中心視領域(256)は、観察者の左中心視(106−1)を包含する。この第1のブラーフィルタを用いて、仮想物体面(例えば216−1など)の1つ以上の左の非中心視領域258に投射される左画像(252−1)中の画像細部に対して、より強いぼやけを付与することができる。仮想物体面の左の非中心視領域(258)は、観察者の左中心視(106−1)中には無い。
同様に、第2のブラーフィルタを用いて、仮想物体面(例えば216−1など)の右中心視領域(不図示)に投射される右画像(252−2)中の画像細部に対して、ゼロまたはわずかなぼやけを付与することができる。仮想物体面の右中心視領域は、観察者の右中心視(106−2)を包含する。この第2のブラーフィルタを用いて、仮想物体面(例えば216−1など)の1つ以上の右の非中心視領域(不図示)に投射される右画像(252−2)中の画像細部に対して、より強いぼやけを付与することができる。仮想物体面の右の非中心視領域は、観察者の右中心視(106−2)中には無い。
5.転導角の追跡
図2Cは、立体画像の時間的シーケンスを観察する際の、観察者の転導角の追跡の一例を示す。立体画像の時間的シーケンスは、1つ以上のシーン、シーンの一部分、グループオブピクチャ(GOP)などを表し得る。立体画像の各々は、2つの3D画像の組み合わせ、または2つ以上のマルチビュー画像の組み合わせによって表現され得る。本明細書において、転導角とは、観察者の個々の眼(例えば左眼、右眼など)の視野角を言う。本明細書に記載の技術によって追跡される転導角の例としては、必ずしも以下のものに限定されないが、 左転導角(すなわち左眼の転導角)、右転導角(すなわち右眼の転導角)、観察者の瞳孔間線(120)、観察者の正面観察方向(118)などのうちの一つなどの基準方向に対する転導角、観察者の水平観察平面または観察者の顔面の(鉛直方向の)正中線に対する仰角などがある。
例示目的にすぎないが、本明細書に記載の画像処理システムは、第1の時点において、立体画像の時間的シーケンスを表現する画像が描画されている画像ディスプレイから仮想物体面(216)に画像処理システムの1つ以上の自動調整レンズによって投射された、第1の左画像および第2の右画像の組み合わせを含む第1の立体画像において、観察者の眼が仮想物体面(216)に位置する仮想物体(214)を見ていることを決定または測定する。
第1の時点から第2の時点にかけて、観察者の眼は、立体画像の時間的シーケンスにおいて表される第2の仮想物体面216−1における第2の仮想物体214−1に対して、輻輳または開散する。
第2の時点は、以下のうちの1つの時点であり得る。すなわち、第1の時点の直後、第1の時点より1つ以上のフレーム時間間隔だけ後(各フレーム時間間隔は1画像フレームを表示することに相当)、第1の時点より1フレーム時間間隔の分数だけ後などである。
図2Cに示すように、第2の時点において、観察者の左眼は第2の仮想物体(214−1)に向けて輻輳(内側に移動)する。一方、観察者の右眼は第2の仮想物体(214−1)に向けて開散(外側に移動)する。様々な状況において、観察者の眼が両方とも輻輳する場合や、両方とも開散する場合もあることに留意されたい。
いくつかの実施形態において、画像処理システムは、第2の時点における観察者の転導角を測定・追跡することができる。第2の時点における観察者の転導角に基づき、画像処理システムは、観察者が第2の仮想物体面(216−1)に位置する第2の仮想物体(214−1)を見ていることを判断できる。
観察者が第2の仮想物体面(216−1)に位置する第2の仮想物体(214−1)を見ていると判断すると、画像処理システムは、第2の左画像および第2の右画像の組み合わせによって表現される第2の立体画像を、第2の仮想物体面(216−1)に投射することができる。第2の立体画像は、第1の立体画像の直後、第1の立体画像より1つ以上のフレーム時間間隔だけ後(各フレーム時間間隔は1画像フレームを表示することに相当)、第1の立体画像よりも(例えば厳密に)固定された時間長以内だけ後、などの1つで提示される(立体画像の時間的シーケンス中の)1つの立体画像であり得る。
図2Dは、左画像(252−1)および右画像(252−2)を含む立体画像を、(a)左画像(252−1)および右画像(252−2)が描画される1つ以上の画像ディスプレイ、および(b)観察者の眼(100−1および100−2)の間に配置された1つ以上の自動調整レンズ228−1、228−2等を通じて観察することの一例を示す。図示されるように、左画像(252−1)および右画像(252−2)の画像ディスプレイは、単一のディスプレイスクリーン254によって提供され得る。一例において、単一のディスプレイスクリーン(254)は、携帯電話、携帯情報端末(PDA)、eブックリーダー、TVなどのディスプレイスクリーンであり得る。
いくつかの実施形態において、本明細書に記載の立体画像(例えば入力立体画像、入力立体画像から導出される変更後の立体画像など)の左画像(例えば252−1)および右画像(例えば252−2)は、1つ以上の画像ディスプレイ(互いに重なり合っていても重なり合っていなくてもよい)において同時またはフレームシーケンシャルに描画され得る。追加的、選択的、または代替的に、本明細書に記載の立体画像の描画に用いられる複数の画像ディスプレイは、単一のディスプレイスクリーンまたは複数のディスプレイスクリーンによって提供され得る。
いくつかの実施形態において、立体画像の左画像および右画像を描画するために2つの画像ディスプレイを用い、これらはそれぞれ2つの異なるディスプレイスクリーン(例えば1つのニアアイディスプレイデバイスにおける2つのディスプレイスクリーンなど)によって提供される。これらの実施形態において、左画像および右画像は、観察者に対して同時に表示され得る。追加的、選択的、または代替的に、左画像および右画像は、左画像および右画像のうち一方をまず表示し、その後左画像および右画像のうち他方を表示することで、フレームシーケンシャルに観察者に対して表示され得る。
いくつかの実施形態において、立体画像の左画像および右画像を描画するために2つの画像ディスプレイを用い、これらはそれぞれ単一のディスプレイスクリーン上の2つの空間的部分(例えば1つのiPhoneのスクリーン上の2つの空間的部分など)によって提供される。いくつかの実施形態において、これらの2つの空間的部分は、重なり合っていなくてもよい。いくつかの実施形態において、これらの2つの空間的部分は、少なくとも部分的に重なり合っていてもよい。これらのすべての実施形態において、左画像および右画像は、観察者に対して同時に表示され得る。追加的、選択的、または代替的に、左画像および右画像は、左画像および右画像のうち一方をまず表示し、その後、左画像および右画像のうち他方を表示することで、フレームシーケンシャルに観察者に対して表示されてもよい。
いくつかの実施形態において、立体画像の左画像および右画像を描画するために1つの画像ディスプレイが用いられ、当該ディスプレイは、単一のディスプレイスクリーン(例えばTVなど)によって提供される。左画像および右画像は、観察者に対して同時に表示され得る。同時に表示された画像は、異なる光波長、異なるレンチキュラービュー、異なる光偏光などを用いて識別され得る。追加的、選択的、または代替的に、左画像および右画像は、左画像および右画像のうちの一方をまず表示し、その後左画像および右画像のうちの他方を表示することで、フレームシーケンシャルに観察者に対して表示されてもよい。
様々な実施形態において、本明細書に記載の立体画像(またはマルチビュー画像)の異なるビュー(例えば左右の画像など)は、以下のうちの1つ以上を用いて画像処理システムにより識別され得る。すなわち、異なるディスプレイスクリーン、単一のディスプレイスクリーンの異なる空間的部分、異なる時点にある異なるフレーム、異なるビューに対して割り当てられた異なる(例えば重なり合わない)光波長、異なるビューに対して割り当てられた異なるレンチキュラービュー、異なるビューに対する異なる光偏光などである。
6.ビデオストリーミングサーバーおよびクライアントの例
図3Aは、画像プロセッサ302、深度ベースの画像生成器312などを備えたビデオストリーミングサーバー300の一例を示す。いくつかの実施形態において、画像プロセッサ(302)は、画像受信器306、データリポジトリ310などを備える。ビデオストリーミングサーバー(300)の構成要素の一部または全部は、1つ以上のデバイス、モジュール、ユニットなどによって、ソフトウェア、ハードウェア、ソフトウェアとハードウェアとの組み合わせなどとして実装され得る。
いくつかの実施形態において、画像受信器(306)は、クラウドベースの画像ソースなどの画像ソースや、VR用途、AR用途、リモートプレゼンス用途、3Dディスプレイ用途、マルチビューディスプレイ用途などに関連するカメラシステムから入力画像ストリーム304を受け取り、この入力画像ストリーム(304)を、1つ以上の入力立体画像(例えば入力立体画像のシーケンス、入力マルチビュー画像のシーケンスなど)に復号化するように構成された、ソフトウェア、ハードウェア、ソフトウェアとハードウェアの組み合わせなどを含む。いくつかの実施形態において、入力画像ストリーム(304)は、画像受信器(306)によって入力画像ストリーム(304)から復号化され得る、画像メタデータ(例えばカメラ幾何情報など)を保持し得る。
いくつかの実施形態において、データリポジトリ(310)は、入力立体画像、画像メタデータなどの一部または全部について、記憶、更新、検索、削除などの動作をサポートするように構成された、1つ以上のデータベース、1つ以上のデータ記憶ユニット・モジュール・デバイスなどを表す。いくつかの実施形態において、入力立体画像は、入力画像ストリーム(304)でなくデータリポジトリ(310)から深度ベースの画像生成器(308)によって取り出される。
いくつかの実施形態において、深度ベースの画像生成器(308)は、双方向データフロー314を介して、ユーザー(または観察者)の転導角などを経時的に受け取り、深度ベースの立体画像および深度制御メタデータを含む出力映像ストリームを生成し、双方向データフロー314を介して出力映像ストリームを、(例えば直接的にまたは中間デバイスを通じて間接的に)立体視ビデオストリーミングクライアント、ディスプレイデバイス、記憶装置などに提供・送信するように構成された、ソフトウェア、ハードウェア、ソフトウェアとハードウェアの組み合わせなどを含む。様々な実施形態において、深度ベースの立体画像は、入力立体画像(例えばビデオストリーミングサーバー(300)などによって受け取られる)、あるいは入力立体画像から導出された変更後の立体画像を指すことがある。
深度制御メタデータは、単一深度の時間的な関数を表し得る。任意の時点における深度制御メタデータが示す単一深度は、ユーザーの転導角およびその他の画像ディスプレイなどに関する寸法情報(例えば画像ディスプレイとユーザーの眼との距離、画像ディスプレイと自動調整レンズとの距離など)に少なくとも部分的に基づいて決定・算出され得、そして単一深度が決定・算出された対応立体画像を投射するように、ユーザーが立体画像の観察に用いている画像描画装置における1つ以上の自動調整レンズの1つ以上の焦点距離を制御するために用いられ得る。
追加的、選択的、または代替的に、アスペクト比調整演算、深度補正演算、ブラーフィルタリング、シーンカット検出、座標系間の変換、時間減衰(temporal dampening)、ディスプレイマネジメント、コンテンツマッピング、カラーマッピング、視野管理などの画像処理演算の一部または全部は、立体視ビデオストリーミングサーバー(300)によって、深度ベースの立体画像および出力映像ストリーム中に符号化された深度制御メタデータを生成する目的で実行されてもよい。
ビデオストリーミングサーバー(300)は、リアルタイム視覚用途、準リアルタイム視覚用途、非リアルタイム視覚用途、仮想現実、拡張現実、ヘルメットマウンテッドディスプレイ用途、ヘッズアップディスプレイ用途、ゲーム、2Dディスプレイ用途、3Dディスプレイ用途、マルチビューディスプレイ用途などをサポートするために用いられ得る。
図3Bは、深度ベースの画像受信器316、転導角追跡器326、自動調整レンズ制御器318、1つ以上の画像ディスプレイ320などを備える、画像描画システム324−1の一例を示す。画像描画システム(324−1)の構成要素の一部または全部は、1つ以上のデバイス、モジュール、ユニットなどによって、ソフトウェア、ハードウェア、ソフトウェアとハードウェアの組み合わせなどとして実装され得る。
ユーザー(または観察者)は、ユーザーの転導角を、異なる深度の画像細部(すなわち立体画像中に表されている視認対象物体・人物)に、ランタイムの異なる時点においてそれぞれ移動し得る。いくつかの実施形態において、転導角追跡器(326)は、ユーザーの転導角などを経時的に追跡するように構成された、ソフトウェア、ハードウェア、ソフトウェアとハードウェアの組み合わせなどを含む。ユーザーの経時的な転導角は、比較的細かい時間スケール(例えばミリ秒毎、5ミリ秒毎など)でサンプルまたは測定され得る。
いくつかの実施形態において、深度ベースの画像受信器(316)は、双方向データフロー314を介して、ユーザーの転導角、その他の寸法情報(例えば画像ディスプレイとユーザーの眼との距離、画像ディスプレイと自動調整レンズとの距離など)などを送り、深度ベースの立体画像およびその深度ベースの立体画像に対応する深度制御メタデータを含む映像ストリーム(例えば上流側のデバイスなどから出力される)を受け取るなどの動作を行うように構成された、ソフトウェア、ハードウェア、ソフトウェアとハードウェアとの組み合わせなどを含む。
画像描画システム(324−1)は、受け取った映像ストリームを深度ベースの立体画像および深度制御メタデータに復号化し、受け取った映像ストリームから復号化された深度ベースの立体画像(例えばそれぞれが左右の画像を含む)を画像ディスプレイ320に描画するように構成されている。
いくつかの実施形態において、自動調整レンズ制御器(318)は、深度制御メタデータを用いて1つ以上の自動調整レンズを制御することにより、画像ディスプレイ(320)に描画された立体画像を、異なる深度における仮想画像にそれぞれ異なる時点(例えば1ミリ秒、10ミリ秒、フレーム時間の分数などのリアルタイム処理遅延による)で投射するように構成された、ソフトウェア、ハードウェア、ソフトウェアとハードウェアの組み合わせなどを含む。
追加的、選択的、または代替的に、視線・眼球追跡、アスペクト比調整演算、深度補正演算、ブラーフィルタリング、シーンカット検出、時間とともに変化する画像パラメータの時間減衰、その他画像パラメータの任意の時間的操作、ディスプレイマネジメント、コンテンツマッピング、トーンマッピング、カラーマッピング、視野管理、予測、マウス、トラックボール、キーボード、フットトラッカー、実際の身体モーションなどを介したナビゲーションなどの画像描画演算の一部または全部が、画像描画システム(324−1)によって行われても良い。
画像描画システム(324−1)は、リアルタイム、準リアルタイム(near real time)、または非リアルタイム視覚用途、準リアルタイム視覚用途、非リアルタイム視覚用途、仮想現実、拡張現実、ヘルメットマウンテッドディスプレイ用途、ヘッズアップディスプレイ用途、ゲーム、2Dディスプレイ用途、3Dディスプレイ用途、マルチビューディスプレイ用途、などをサポートするために使用され得る。
本明細書に記載の技術は、様々なシステムアーキテクチャによって実装され得る。本明細書に記載の一部または全部の画像処理演算は、クラウドベースのビデオストリーミングサーバー、ビデオストリーミングクライアントに付随して配置されるかこれに内包されるビデオストリーミングサーバー、画像描画システム、画像描画システム、ディスプレイデバイスなどのうちの1つ以上の任意の組み合わせによって実装され得る。受信側デバイスの視覚アプリケーションのタイプ、帯域幅・ビットレート制約、演算能力、リソース、負荷など、ならびにビデオストリーミングサーバーおよび/またはコンピュータネットワークの演算能力、リソース、負荷などの1つ以上のファクターに基づき、いくつかの画像処理演算をビデオストリーミングサーバーによって行い、他のいくつかの画像処理演算をビデオストリーミングクライアント、画像描画システムディスプレイデバイスなどによって行ってもよい。
図3Cは、深度ベースの画像生成器(例えば312など)がエッジビデオストリーミングサーバー324−2に導入される構成例を示す。いくつかの実施形態において、図3Cの画像プロセッサ302は、クラウドベースであってもよい。いくつかの実施形態において、画像プロセッサ(302)は、エッジビデオストリーミングサーバー(324−2)などのエッジデバイスとは別の、コアネットワーク中に位置していてもよい。図3Aのように、画像プロセッサ(302)は、画像受信器306、データリポジトリ310などを有していてもよい。画像プロセッサ(302)は、比較的早いビットレートでエッジビデオストリーミングサーバー(324−2)と通信する、上流側のビデオストリーミングサーバーを表し得る。画像プロセッサ(302)および/またはエッジビデオストリーミングサーバー(324−2)の構成要素の一部または全部は、1つ以上のデバイス、モジュール、ユニットなどによって、ソフトウェア、ハードウェア、ソフトウェアとハードウェアの組み合わせなどとして実装され得る。
いくつかの実施形態において、画像プロセッサ(302)は、データフロー322中のの入力立体画像を、下流側のデバイス(そのうち1つはエッジビデオストリーミングサーバー(324−2)であってもよい)に送るように構成される。
いくつかの実施形態において、エッジビデオストリーミングサーバー(324−2)、またはその中の深度ベースの画像生成器(312)は、ユーザーの転導角、その他の寸法情報などを経時的に決定し、深度ベースの立体画像および深度制御メタデータを含む出力映像ストリームを生成し、出力映像ストリームを双方向データフロー314を介して(直接または中間デバイスを通じて間接的になど)ビデオストリーミングクライアント、ディスプレイデバイス、記憶装置など提供・送信するように構成された、ソフトウェア、ハードウェア、ソフトウェアとハードウェアの組み合わせなどを含む。
7.プロセスフロー例
図4は、本発明の例示的実施形態によるプロセスフローの例を示す。いくつかの例示的実施形態において、1つ以上の計算装置または構成要素がこのプロセスフローを実行し得る。ブロック402において、観察者が第1の左画像および第1の右画像を含む第1の立体画像を観察しているときに、画像処理システム(例えば図3Aから図3Cのビデオストリーミングサーバーまたはビデオストリーミングクライアントの任意の組み合わせなど)が、観察者の左眼の左転導角および前記観察者の右眼の右転導角を決定する。
ブロック404において、画像処理システムは、(i)前記観察者の左眼の左転導角および(ii)前記観察者の右眼の右転導角に少なくとも部分的に基づいて、仮想物体深度を決定する。
ブロック406において、画像処理システムは、前記観察者のための第2の左画像および第2の右画像を含む第2の立体画像を、1つ以上の画像ディスプレイに描画する。前記第2の立体画像は前記第1の立体画像よりも後に提示される。
ブロック408において、画像処理システムは、前記第2の立体画像を前記1つ以上の画像ディスプレイから前記仮想物体深度にある仮想物体面に投射する。
一実施形態において、入力左画像および入力右画像中に表される視認対象物体のアスペクト比を、前記仮想物体深度にある前記仮想物体面に投射された前記第2の左画像および前記第2の右画像中に表される前記視認対象物体の変更後のアスペクト比に調整する、1回以上のアスペクト比調整演算を適用することにより、前記第2の左画像および前記第2の右画像は前記入力左画像および前記入力右画像から生成される。
一実施形態において、入力左画像および入力右画像中に表される視認対象物体の深度を、前記仮想物体深度にある前記仮想物体面に投射された前記第2の左画像および前記第2の右画像中に表される前記視認対象物体の変更後の深度に変換する、1回以上の深度補正演算の適用することにより、前記第2の左画像および前記第2の右画像は、前記入力左画像および前記入力右画像から生成される。
一実施形態において、前記第2の左画像および前記第2の右画像の1つ以上の空間領域を入力左画像および入力右画像に対してぼやけさせる1回以上のブラーフィルタリング演算を適用することにより、前記第2の左画像および前記第2の右画像は、前記入力左画像および前記入力右画像から生成される。ここで、前記第2の左画像および前記第2の右画像の前記1つ以上の空間領域は、前記観察者の中心視から離れている。
一実施形態において、前記第2の立体画像の前記第2の左画像および前記第2の右画像は、同時に描画されて前記観察者によって観察される。
一実施形態において、前記第2の立体画像の前記第2の左画像および前記第2の右画像は、フレームシーケンシャルに描画されて前記観察者によって観察される。
一実施形態において、前記第2の立体画像は、前記観察者に観察されるために描画される立体画像のシーケンス中において、前記第1の立体画像の時間的に直後に提示される。
一実施形態において、前記第2の立体画像を前記仮想物体深度にある前記仮想物体面に投射するために1つ以上の自動調整レンズが用いられ、前記仮想物体深度に少なくとも部分的に基づいて、前記1つ以上の自動調整レンズの1つ以上の焦点距離が決定される。
一実施形態において、前記第2の立体画像は入力立体画像のシーケンス中における第2の入力立体画像から生成され、前記第2の立体画像以外の立体画像は、前記第2の入力立体画像から生成されず、前記第2の立体画像は、前記仮想物体深度以外の仮想物体深度では投射されない。
一実施形態において、前記第2の立体画像の前記第2の左画像および前記第2の右画像はそれぞれ、第1の画像ディスプレイおよび第2の画像ディスプレイに描画される。
一実施形態において、前記第2の立体画像の前記第2の左画像および前記第2の右画像は1つの画像ディスプレイに描画される。
一実施形態において、前記第2の立体画像の前記第2の左画像および前記第2の右画像の少なくとも一方は、単一のレンズ素子を有する自動調整レンズに基づいて前記仮想物体面に投射される。
一実施形態において、前記第2の立体画像の前記第2の左画像および前記第2の右画像の少なくとも一方は、複数のレンズ素子を有する自動調整レンズに基づいて前記仮想物体面に投射される。
一実施形態において、前記第2の立体画像の前記第2の左画像は、前記観察者の左眼にのみ視認可能であり、前記第2の立体画像の前記第2の右画像は、前記観察者の右眼にのみ視認可能である。
一実施形態において、画像処理システムはさらに、以下を行うように構成される:前記観察者が前記第2の左画像および前記第2の右画像を含む前記第2の立体画像を観察しているときに、前記観察者の左眼の第2の左転導角および前記観察者の右眼の第2の右転導角を決定することと、(i)前記観察者の左眼の第2の左転導角および(ii)前記観察者の右眼の第2の右転導角に少なくとも部分的に基づいて、第2の仮想物体深度を決定することと、前記観察者のための第3の左画像および第3の右画像を含む第3の立体画像を、前記1つ以上の画像ディスプレイに描画することであって、前記第3の立体画像は前記第2の立体画像よりも後に提示される、描画することと、前記第3の立体画像を前記1つ以上の画像ディスプレイから前記第2の仮想物体深度にある第2の仮想物体面に投射することなど。
一実施形態において、前記仮想物体深度は、前記観察者の固有の視覚特性に少なくとも部分的に基づいて調節される。
様々な例示的実施形態において、装置、システム、装置、または1つ以上の他の計算装置が、記載した前述の方法のうちのいずれかまたはその一部を実行する。一実施形態において、非一時的なコンピュータ読み取り可能な記憶媒体がソフトウェア命令を格納しており、これらが1つ以上のプロセッサにより実行されたとき、本明細書に記載の方法を実行させる。
別個の実施形態が本明細書で述べられているが、本明細書に述べられた実施形態の任意の組み合わせおよび/または部分的な実施形態は、組み合わせられてさらなる実施形態を形成し得ることに留意されたい。
8.実装メカニズム−ハードウェア概要
一実施形態によれば、本明細書に説明されている技術は、1つ以上の専用の計算装置によって実施される。専用の計算装置は、当該技術を実行するようにハードワイヤードで接続され得るか、または、当該技術を実行するように持続的にプログラムされた1つ以上の特定用途向け集積回路(ASIC)またはフィールドプログラマブルゲートアレイ(FPGA)のようなデジタル電子デバイスを含み得るか、または、ファームウェア、メモリ、その他の格納装置、または何らかの組み合わせにおけるプログラム指令に従って技術を実行するようにプログラムされた、1つ以上の汎用のハードウェアプロセッサを含み得る。そのような専用の計算装置はまた、カスタムハードワイヤードロジック、ASIC,またはFPGAとカスタムプログラミングとを組み合わせることにより、技術を実現し得る。専用の計算装置は、デスクトップコンピュータシステム、ポータブルコンピュータシステム、携帯用のデバイス、ネットワーキングデバイス、またはハードワイヤードおよび/またはプログラムロジックを組み込むことにより技術を実施する、任意の他のデバイスであり得る。
例えば、図5は、発明の例示的実施形態が実施され得るコンピュータシステム500を例示するブロック図である。コンピュータシステム500は、情報通信のためのバス502または他の通信機構と、情報処理のためにバス502と結合されたハードウェアプロセッサ504とを含む。ハードウェアプロセッサ504は、例えば、汎用のマイクロプロセッサであり得る。
コンピュータシステム500はまた、ランダムアクセスメモリ(RAM)または他の動的記憶装置のようなメインメモリ506を含み、メインメモリ506は、バス502と結合されることにより、情報およびプロセッサ504により実行される指令を格納する。メインメモリ506はまた、プロセッサ504で実行される指令の実行中に、一時変数または他の中間情報を格納するために用いられ得る。そのような指令は、プロセッサ504がアクセスできる非一時的な記憶媒体に格納された場合、コンピュータシステム500を、当該指令で指定された動作を実行するカスタマイズされた専用マシーンにする。
コンピュータシステム500は、プロセッサ504に対する静的な情報および指令を格納するようにバス502に接続された、読み出し専用メモリ(ROM)508または他の静的記憶装置をさらに含む。
磁気ディスクまたは光学ディスク、ソリッドステートRAMのような記憶装置510が提供され、情報および指令を格納するようにバス502に接続される。
コンピュータシステム500は、バス502を経由して液晶ディスプレイのようなディスプレイ512に接続されることにより、情報をコンピュータユーザーに表示する。英数字および他のキーを含む入力装置514は、バス502に接続されることにより、情報およびコマンド選択をプロセッサ504に伝達する。別のタイプのユーザー入力装置は、マウス、トラックボールまたはカーソル方向キーのようなカーソルコントロール516であり、方向情報およびコマンド選択をプロセッサ504に伝達し、ディスプレイ512上のカーソルの動きを制御する。この入力装置は、典型的には、2つの軸、第1の軸(例えば、x)および第2の軸(例えば、y)において、2つの自由度を有することにより、装置は平面内の場所を特定できる。
コンピュータシステム500は、当該コンピュータシステムと組み合わせられたとき、コンピュータシステム500を専用のマシーンにしたり、専用のマシーンになるようにプログラムする、デバイス固有のハードワイヤードロジック、1つ以上のASICSまたはFPGA、ファームウェアおよび/またはプログラムロジックを用いて、本明細書に説明されている技術を実行することができる。一実施形態によれば、本明細書の技術は、メインメモリ506に含まれる1つ以上の指令の1つ以上のシーケンスを実行するプロセッサ504に応答して、コンピュータシステム500によって実行される。そのような指令は、記憶装置510のような別の記憶媒体から、メインメモリ506に読み込まれ得る。メインメモリ506に含まれる指令シーケンスの実行により、プロセッサ504は、本明細書に説明されているプロセスステップを実行する。別の実施形態では、ハードワイヤード回路は、ソフトウェア指令の代わりに、またはソフトウェア指令と組み合わせて用いられ得る。
本明細書に用いられる用語「記憶媒体」は、マシーンを特定の形態で動作させるデータおよび/または指令を格納する、任意の非一時的な媒体をいう。そのような記憶媒体は、不揮発性媒体および/または揮発性媒体を含み得る。不揮発性媒体は、例えば、記憶装置510のような光学または磁気ディスクを含む。揮発性媒体は、メインメモリ506のような動的メモリを含む。記憶媒体の一般的な形態は、例えば、フロッピーディスク、プレキシブルディスク、ハードディスク、ソリッドステートドライブ、磁気テープまたは任意の他の磁気データ記憶媒体、CD−ROM、任意の他の光学データ記憶媒体、穴のパターンを有する任意の物理的な媒体、RAM、PROM,およびEPROM,FLASH−EPROM、NVRAM、任意の他のメモリチップまたはカートリッジを含む。
記憶媒体は、伝達媒体とは別個のものであるが、伝達媒体と併せて用いられ得る。伝達媒体は、記憶媒体間の情報転送に関与する。例えば、伝達媒体は、バス502を含むワイヤを含む、同軸ケーブル、銅線、光ファイバを含む。伝達媒体はまた、ラジオ波または赤外データ通信時において生成されるような、音波または光波の形態を取り得る。
1つ以上の指令の1つ以上のシーケンスを実行するためにプロセッサ504に転送する際に、様々な形態の媒体が関与し得る。例えば、指令は、最初、リモートコンピュータの磁気ディスクまたはソリッドステートドライブ上に担持され得る。リモートコンピュータは、指令を自身の動的メモリに読み込み、モデムを用いて指令を電話線に送り得る。コンピュータシステム500に固有のモデムは、電話線上においてデータを受け取り、赤外線送信機を用いることにより、データを赤外線信号に変換し得る。赤外線検知器は、赤外線信号で送られたデータを受け取り、そして適切な回路がデータをバス502上に配置し得る。バス502は、データをメインメモリ506に送り、プロセッサ504はメインメモリ506から指令を取り出し実行する。メインメモリ506によって受け取られた指令は、オプションとして、プロセッサ504により実行される前または後において、記憶装置510に格納され得る。
コンピュータシステム500はまた、バス502に接続された通信インターフェース518を含む。通信インターフェース518は、ローカルネットワーク522と接続されたネットワークリンク520との、双方向のデータ通信接続を提供する。例えば、通信インターフェース518は、サービス総合デジタル網(ISDN)カード、ケーブルモデム、衛星モデムまたはモデムであり、対応するタイプの電話線にデータ通信接続を提供し得る。別の例として、通信インターフェース518は、ローカルエリアネットワーク(LAN)カードであり、適合性のあるLANへのデータ通信接続を提供する。無線リンクも実施され得る。そのような任意の実施において、通信インターフェース518は、様々なタイプの情報を表すデジタルデータストリームを送る、電気的、電磁気的または光学的な信号を送受信する。
ネットワークリンク520は、典型的には、データ通信を1つ以上のネットワークを介して他のデータ装置に提供する。例えば、ネットワークリンク520は、ローカルネットワーク522を介して、ホストコンピュータ524への接続、または、インターネットサービスプロバイダ(ISP)526によって動作されるデータ装置への接続を提供する。そして、ISP526は、現在一般に「インターネット」528と呼ばれている全世界的なパケットデータ通信ネットワークを介して、データ通信サービスを提供する。ローカルネットワーク522およびインターネット528の両方とも、デジタルデータストリームを搬送する、電気的、電磁気的、または光学的な信号を用いる。様々なネットワークを介した信号、および、ネットワークリンク520上および通信インターフェース518を介した信号は、コンピュータシステム500とデジタルデータをやり取りするものであり、伝達媒体の形態の例である。
コンピュータシステム500は、ネットワーク、ネットワークリンク520および通信インターフェース518を介して、メッセージを送り、プログラムコードを含むデータを受け取ることができる。インターネットを例に挙げると、サーバー530は、インターネット528、ISP526、ローカルネットワーク522および通信インターフェース518を介して、アプリケーションプログラムのために要求されるコードを伝達し得る。
受け取られたコードは、受信されてそのままプロセッサ504によって実行されてもよく、且つ/または、後で実行するために記憶装置510または他の不揮発性記憶装置に保存されてもよい。
9.均等物、拡張物、代替物、その他
この明細書において、態様毎に異なり得る多数の詳細事項に言及しながら本発明の実施形態を説明した。従って、本発明が何たるか、また、本出願人が本発明であると意図するものを示す唯一且つ排他的な指標は、本願が特許になった際の請求の範囲(今後出されるあらゆる補正を含む、特許された特定の請求項)である。当該請求項に含まれる用語について本明細書中に明示したあらゆる定義が、請求項において使用される当該用語の意味を決定するものとする。よって、請求項において明示されていない限定事項、要素、性質、特徴、利点または属性は、その請求項の範囲をいかなる意味においても限定すべきではない。従って、本明細書および図面は、限定的ではなく、例示的であるとみなされるものである。
本発明の様々な側面は、以下の列挙された例示的実施形態(enumerated example embodiments)(EEE)から理解することができる。
EEE1. 観察者が第1の左画像および第1の右画像を含む第1の立体画像を観察しているときに、観察者の左眼の左転導角および前記観察者の右眼の右転導角を決定することと、
(i)前記観察者の左眼の左転導角および(ii)前記観察者の右眼の右転導角に少なくとも部分的に基づいて、仮想物体深度を決定することと、
前記観察者のための第2の左画像および第2の右画像を含む第2の立体画像を1つ以上の画像ディスプレイにおいて描画することであって、前記第2の立体画像は前記第1の立体画像よりも後に提示される、描画することと、
前記第2の立体画像を前記1つ以上の画像ディスプレイから前記仮想物体深度にある仮想物体面に投射すること、
を含む方法。
EEE2.前記入力左画像および前記入力右画像中に表される視認対象物体のアスペクト比を、前記仮想物体深度にある前記仮想物体面に投射された前記第2の左画像および前記第2の右画像中に表される前記視認対象物体の変更後のアスペクト比に調整する、1回以上のアスペクト比調整演算を適用することによって、前記第2の左画像および前記第2の右画像は入力左画像および入力右画像から生成される、EEE1に記載の方法。
EEE3.前記入力左画像および前記入力右画像中に表される視認対象物体の深度を、前記仮想物体深度にある前記仮想物体面に投射された前記第2の左画像および前記第2の右画像中に表される前記視認対象物体の変更後の深度に変換する、1回以上の深度補正演算の適用することによって、前記第2の左画像および前記第2の右画像は入力左画像および入力右画像から生成される、EEE1に記載の方法。
EEE4.前記第2の左画像および前記第2の右画像の1つ以上の空間領域を前記入力左画像および前記入力右画像に対してぼやけさせる1回以上のブラーフィルタリング演算を適用することにより、前記第2の左画像および前記第2の右画像は入力左画像および入力右画像から生成され、前記第2の左画像および前記第2の右画像の前記1つ以上の空間領域は、前記観察者の中心視から離れている、EEE1に記載の方法。
EEE5.前記第2の立体画像の前記第2の左画像および前記第2の右画像は、同時に描画されて前記観察者によって観察される、EEE1に記載の方法。
EEE6.前記第2の立体画像の前記第2の左画像および前記第2の右画像は、フレームシーケンシャルに描画されて前記観察者によって観察される、EEE1に記載の方法。
EEE7.前記第2の立体画像は、前記観察者に観察されるために描画される立体画像のシーケンス中において、前記第1の立体画像の時間的に直後に提示される、EEE1に記載の方法。
EEE8.前記第2の立体画像を前記仮想物体深度にある前記仮想物体面に投射するために1つ以上の自動調整レンズが用いられ、前記仮想物体深度に少なくとも部分的に基づいて、前記1つ以上の自動調整レンズの1つ以上の焦点距離が決定される、EEE1に記載の方法。
EEE9.前記第2の立体画像は入力立体画像のシーケンス中における第2の入力立体画像から生成され、前記第2の立体画像以外の立体画像は前記第2の入力立体画像から生成されず、前記第2の立体画像は、前記仮想物体深度以外の仮想物体深度では投射されない、EEE1に記載の方法。
EEE10.前記第2の立体画像の前記第2の左画像および前記第2の右画像は、それぞれ、第1の画像ディスプレイおよび第2の画像ディスプレイに描画される、EEE1に記載の方法。
EEE11.前記第2の立体画像の前記第2の左画像および前記第2の右画像は、1つの画像ディスプレイに描画される、EEE1に記載の方法。
EEE12.前記第2の立体画像の前記第2の左画像および前記第2の右画像の少なくとも一方は、単一のレンズ素子を有する自動調整レンズに基づいて前記仮想物体面に投射される、EEE1に記載の方法。
EEE13.前記第2の立体画像の前記第2の左画像および前記第2の右画像の少なくとも一方は、複数のレンズ素子を有する自動調整レンズに基づいて前記仮想物体面に投射される、EEE1に記載の方法。
EEE14.前記第2の立体画像の前記第2の左画像は、前記観察者の左眼にのみ視認可能であり、前記第2の立体画像の前記第2の右画像は、前記観察者の右眼にのみ視認可能である、EEE1に記載の方法。
EEE15.前記観察者が前記第2の左画像および前記第2の右画像を含む前記第2の立体画像を観察しているときに、前記観察者の左眼の第2の左転導角および前記観察者の右眼の第2の右転導角を決定することと、
(i)前記観察者の左眼の前記第2の左転導角および(ii)前記観察者の右眼の前記第2の右転導角に少なくとも部分的に基づいて、第2の仮想物体深度を決定することと、
前記観察者のための第3の左画像および第3の右画像を含む第3の立体画像を、前記1つ以上の画像ディスプレイにおいて描画することであって、前記第3の立体画像は前記第2の立体画像よりも後に提示される、描画することと、
前記第3の立体画像を前記1つ以上の画像ディスプレイから前記第2の仮想物体深度にある第2の仮想物体面に投射することと、をさらに含む、EEE1に記載の方法。
EEE16.前記仮想物体深度は、前記観察者の固有の視覚特性に少なくとも部分的に基づいて調節される、EEE1に記載の方法。
EEE17.EEE1から16に記載の方法のうちいずれかを実行する、装置。
EEE18.EEE1から16に記載の方法のうちいずれかを実行する、システム。
EEE19.1つ以上のプロセッサにより実行されたとき、EEE1から16のいずれかに記載の方法を実行させるソフトウェア命令を格納した、非一時的なコンピュータ読み取り可能な記憶媒体。
EEE20.1つ以上のプロセッサと、1つ以上のプロセッサにより実行されたとき、EEE1から16のいずれかに記載の方法を実行させる、1組の命令を格納した1つ以上の記憶媒体とを備えた、計算装置。

Claims (23)

  1. 観察者が第1の左画像および第1の右画像を含む第1の立体画像を観察しているときに、観察者の左眼の左転導角および前記観察者の右眼の右転導角を決定することと、
    (i)前記観察者の左眼の左転導角および(ii)前記観察者の右眼の右転導角に少なくとも部分的に基づいて、仮想物体深度を決定することと、
    前記観察者のための第2の左画像および第2の右画像を含む第2の立体画像を1つ以上の画像ディスプレイに描画することであって、前記第2の立体画像は前記第1の立体画像よりも後に提示される、描画することと、
    前記第2の立体画像を前記1つ以上の画像ディスプレイから前記仮想物体深度にある仮想物体面に投射することであって、前記第2の左画像および前記第2の右画像の1つ以上の空間領域を入力左画像および入力右画像に対してぼやけさせる1回以上のブラーフィルタリング演算を適用することにより、前記第2の左画像および前記第2の右画像は前記入力左画像および前記入力右画像から生成され、前記第2の左画像および前記第2の右画像の前記1つ以上の空間領域は、前記観察者の中心視から離れている、投射することと、
    を含む方法。
  2. 前記ブラーフィルタリング演算は、可変空間解像度を有するブラーフィルタによって実装される、請求項1に記載の方法。
  3. 前記ブラーフィルタリング演算は、ある強度でぼやけを付与することを含み、前記ぼやけの強度は、前記仮想物体面に表現された前記第2の左画像および前記第2の右画像における画像細部の、前記観察者の中心視に対する距離が増加するにしたがって増大する、請求項1または2に記載の方法。
  4. 前記ブラーフィルタリング演算は、
    前記観察者の中心視を包含する画像細部において最小限またはゼロのぼやけを付与することと、
    前記観察者の中心視からより遠い画像細部においてより強いぼやけを付与することと、
    を含む、請求項3に記載の方法。
  5. 前記ブラーフィルタは、第1および第2のブラーフィルタを含み、前記第1のブラーフィルタは、前記仮想物体面の左中心視領域に投射された前記第2の左画像中の画像細部においてゼロまたは最小限のぼやけを生じさせるように構成され、前記第2のブラーフィルタは、前記仮想物体面の右中心視領域に投射された前記第2の右画像中の画像細部においてゼロまたは最小限のぼやけを生じさせるように構成されている、
    請求項2から4のいずれかに記載の方法。
  6. 前記第1および第2のブラーフィルタは、前記仮想物体面の1つ以上の左右それぞれの非中心視領域に投射される前記第2の左画像および前記第2の右画像の中の画像細部において、より強いぼやけを生じさせるように構成されている、請求項5に記載の方法。
  7. 前記入力左画像および前記入力右画像中に表される視認対象物体のアスペクト比を、前記仮想物体深度にある前記仮想物体面に投射される前記第2の左画像および前記第2の右画像中に表される前記視認対象物体の変更後のアスペクト比に調整する、1回以上のアスペクト比調整演算を適用することにより、前記第2の左画像および前記第2の右画像は入力左画像および入力右画像から生成される、請求項1から6のいずれかに記載の方法。
  8. 前記入力左画像および前記入力右画像中に表される視認対象物体の深度を、前記仮想物体深度にある前記仮想物体面に投射された前記第2の左画像および前記第2の右画像中に表される前記視認対象物体の変更後の深度に変換する、1回以上の深度補正演算の適用することによって、前記第2の左画像および前記第2の右画像は入力左画像および入力右画像から生成される、請求項1から7のいずれかに記載の方法。
  9. 前記第2の立体画像の前記第2の左画像および前記第2の右画像は、同時に描画されて前記観察者によって観察される、請求項1から8のいずれかに記載の方法。
  10. 前記第2の立体画像の前記第2の左画像および前記第2の右画像は、フレームシーケンシャルに描画されて前記観察者によって観察される、請求項1から9のいずれかに記載の方法。
  11. 前記第2の立体画像は、前記観察者に観察されるために描画される立体画像のシーケンス中において、前記第1の立体画像の時間的に直後に提示される、請求項1から10のいずれかに記載の方法。
  12. 前記第2の立体画像を前記仮想物体深度にある前記仮想物体面に投射するために1つ以上の自動調整レンズが用いられ、前記仮想物体深度に少なくとも部分的に基づいて、前記1つ以上の自動調整レンズの1つ以上の焦点距離が決定される、請求項1から11のいずれかに記載の方法。
  13. 前記第2の立体画像は、入力立体画像のシーケンス中における第2の入力立体画像から生成され、前記第2の立体画像以外の立体画像は、前記第2の入力立体画像から生成されず、前記第2の立体画像は、前記仮想物体深度以外の仮想物体深度では投射されない、請求項1から12のいずれかに記載の方法。
  14. 前記第2の立体画像の前記第2の左画像および前記第2の右画像は、それぞれ、第1の画像ディスプレイおよび第2の画像ディスプレイに描画される、請求項1から13のいずれかに記載の方法。
  15. 前記第2の立体画像の前記第2の左画像および前記第2の右画像は、1つの画像ディスプレイに描画される、請求項1から13のいずれかに記載の方法。
  16. 前記第2の立体画像の前記第2の左画像および前記第2の右画像の少なくとも一方は、単一のレンズ素子を有する自動調整レンズに基づいて前記仮想物体面に投射される、請求項1から15のいずれかに記載の方法。
  17. 前記第2の立体画像の前記第2の左画像および前記第2の右画像のうち少なくとも一方は、複数のレンズ素子を有する自動調整レンズに基づいて前記仮想物体面に投射される、請求項1から15のいずれかに記載の方法。
  18. 前記第2の立体画像の前記第2の左画像は、前記観察者の左眼にのみ視認可能であり、前記第2の立体画像の前記第2の右画像は、前記観察者の右眼にのみ視認可能である、請求項1から17のいずれかに記載の方法。
  19. 前記観察者が前記第2の左画像および前記第2の右画像を含む前記第2の立体画像を観察しているときに、前記観察者の左眼の第2の左転導角および前記観察者の右眼の第2の右転導角を決定することと、
    (i)前記観察者の左眼の前記第2の左転導角および(ii)前記観察者の右眼の前記第2の右転導角に少なくとも部分的に基づいて、第2の仮想物体深度を決定することと、
    前記観察者のための第3の左画像および第3の右画像を含む第3の立体画像を、前記1つ以上の画像ディスプレイに描画することであって、前記第3の立体画像は前記第2の立体画像よりも後に提示される、描画することと、
    前記第3の立体画像を前記1つ以上の画像ディスプレイから前記第2の仮想物体深度にある第2の仮想物体面に投射することと、
    をさらに含む、請求項1から18のいずれかに記載の方法。
  20. 前記仮想物体深度は、前記観察者の少なくとも1つの特性に少なくとも部分的に基づいて調整され、前記特性は、{近視、遠視、正常な立体視覚、正常でない立体視覚、眼鏡装用、眼鏡非装用、コンタクトレンズ装用、瞳孔間距離、および目−自動調整レンズ距離}からなる群から選択される、請求項1から19のいずれかに記載の方法。
  21. 請求項1から20のいずかに記載の方法を実行するように構成された装置。
  22. 1つ以上のプロセッサによって実行されたとき、請求項1から20のいずれかに記載の方法を実行させるソフトウェア命令を格納した、非一時的なコンピュータ読み取り可能な記憶媒体。
  23. 1つ以上のプロセッサと、1つ以上のプロセッサによって実行されたとき、請求項1から20のいずかに記載の方法を実行させる、1組の命令を格納した1つ以上の記憶媒体とを備えた、計算装置。
JP2019506096A 2016-08-04 2017-08-03 単一深度追跡型の遠近調節-両眼転導ソリューション Active JP7094266B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021038211A JP7335285B2 (ja) 2016-08-04 2021-03-10 単一深度追跡型の遠近調節-両眼転導ソリューション

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201662370901P 2016-08-04 2016-08-04
EP16182719 2016-08-04
US62/370,901 2016-08-04
EP16182719.1 2016-08-04
PCT/US2017/045267 WO2018027015A1 (en) 2016-08-04 2017-08-03 Single depth tracked accommodation-vergence solutions

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021038211A Division JP7335285B2 (ja) 2016-08-04 2021-03-10 単一深度追跡型の遠近調節-両眼転導ソリューション

Publications (2)

Publication Number Publication Date
JP2019532535A true JP2019532535A (ja) 2019-11-07
JP7094266B2 JP7094266B2 (ja) 2022-07-01

Family

ID=59626699

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019506096A Active JP7094266B2 (ja) 2016-08-04 2017-08-03 単一深度追跡型の遠近調節-両眼転導ソリューション
JP2021038211A Active JP7335285B2 (ja) 2016-08-04 2021-03-10 単一深度追跡型の遠近調節-両眼転導ソリューション

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2021038211A Active JP7335285B2 (ja) 2016-08-04 2021-03-10 単一深度追跡型の遠近調節-両眼転導ソリューション

Country Status (6)

Country Link
US (2) US10943359B2 (ja)
EP (1) EP3494695B1 (ja)
JP (2) JP7094266B2 (ja)
KR (1) KR102239686B1 (ja)
CN (2) CN113240601B (ja)
PL (1) PL3494695T3 (ja)

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3062142B1 (en) 2015-02-26 2018-10-03 Nokia Technologies OY Apparatus for a near-eye display
US10650552B2 (en) 2016-12-29 2020-05-12 Magic Leap, Inc. Systems and methods for augmented reality
EP3343267B1 (en) 2016-12-30 2024-01-24 Magic Leap, Inc. Polychromatic light out-coupling apparatus, near-eye displays comprising the same, and method of out-coupling polychromatic light
US11164352B2 (en) * 2017-04-21 2021-11-02 Intel Corporation Low power foveated rendering to save power on GPU and/or display
US10578870B2 (en) 2017-07-26 2020-03-03 Magic Leap, Inc. Exit pupil expander
CN116990888A (zh) 2017-12-10 2023-11-03 奇跃公司 光波导上的抗反射涂层
US11187923B2 (en) 2017-12-20 2021-11-30 Magic Leap, Inc. Insert for augmented reality viewing device
WO2019178567A1 (en) * 2018-03-15 2019-09-19 Magic Leap, Inc. Image correction due to deformation of components of a viewing device
CN208044203U (zh) * 2018-04-28 2018-11-02 北京京东方光电科技有限公司 显示设备、光学***和虚拟现实头戴显示设备
EP3803488A4 (en) 2018-05-30 2021-07-28 Magic Leap, Inc. COMPACT VARIABLE FOCUS CONFIGURATIONS
WO2019231850A1 (en) 2018-05-31 2019-12-05 Magic Leap, Inc. Radar head pose localization
WO2019236495A1 (en) 2018-06-05 2019-12-12 Magic Leap, Inc. Homography transformation matrices based temperature calibration of a viewing system
JP7421505B2 (ja) 2018-06-08 2024-01-24 マジック リープ, インコーポレイテッド 自動化された表面選択設置およびコンテンツ配向設置を用いた拡張現実ビューア
WO2020010097A1 (en) 2018-07-02 2020-01-09 Magic Leap, Inc. Pixel intensity modulation using modifying gain values
WO2020010226A1 (en) 2018-07-03 2020-01-09 Magic Leap, Inc. Systems and methods for virtual and augmented reality
US11856479B2 (en) 2018-07-03 2023-12-26 Magic Leap, Inc. Systems and methods for virtual and augmented reality along a route with markers
EP4270016A3 (en) 2018-07-24 2024-02-07 Magic Leap, Inc. Temperature dependent calibration of movement detection devices
WO2020023543A1 (en) 2018-07-24 2020-01-30 Magic Leap, Inc. Viewing device with dust seal integration
US11112862B2 (en) 2018-08-02 2021-09-07 Magic Leap, Inc. Viewing system with interpupillary distance compensation based on head motion
WO2020028191A1 (en) 2018-08-03 2020-02-06 Magic Leap, Inc. Unfused pose-based drift correction of a fused pose of a totem in a user interaction system
CN112955073A (zh) 2018-08-22 2021-06-11 奇跃公司 患者观察***
JP7472127B2 (ja) 2018-11-16 2024-04-22 マジック リープ, インコーポレイテッド 画像鮮明度を維持するための画像サイズによってトリガされる明確化
EP4369151A2 (en) 2019-02-06 2024-05-15 Magic Leap, Inc. Target intent-based clock speed determination and adjustment to limit total heat generated by multiple processors
JP2022523852A (ja) 2019-03-12 2022-04-26 マジック リープ, インコーポレイテッド 第1および第2の拡張現実ビューア間でのローカルコンテンツの位置合わせ
US11445232B2 (en) 2019-05-01 2022-09-13 Magic Leap, Inc. Content provisioning system and method
JP7426413B2 (ja) 2019-05-23 2024-02-01 マジック リープ, インコーポレイテッド ブレンドモード3次元ディスプレイシステムおよび方法
JP2022542363A (ja) 2019-07-26 2022-10-03 マジック リープ, インコーポレイテッド 拡張現実のためのシステムおよび方法
KR20220093041A (ko) * 2019-11-06 2022-07-05 에이치이에스 아이피 홀딩스, 엘엘씨 깊이를 갖는 오브젝트를 디스플레이하기 위한 시스템 및 방법
JP2023502927A (ja) 2019-11-15 2023-01-26 マジック リープ, インコーポレイテッド 外科手術環境において使用するための視認システム
CN112929643B (zh) * 2019-12-05 2022-06-28 北京芯海视界三维科技有限公司 3d显示设备、方法及终端
WO2021113482A1 (en) 2019-12-06 2021-06-10 Magic Leap, Inc. Virtual, augmented, and mixed reality systems and methods
EP4070153A4 (en) * 2019-12-06 2023-01-18 Magic Leap, Inc. VIRTUAL, AUGMENTED AND MIXED REALITY SYSTEMS AND PROCEDURES
JP2023539962A (ja) 2020-08-14 2023-09-21 ヒーズ アイピー ホールディングス エルエルシー リアルタイム画像上に仮想画像を重ね合わせるためのシステムおよび方法
US11774759B2 (en) * 2020-09-03 2023-10-03 Hes Ip Holdings, Llc Systems and methods for improving binocular vision
JP2023544704A (ja) * 2020-09-30 2023-10-25 アキュセラ インコーポレイテッド 近視の予測、診断、計画、および監視デバイス
CN116420104A (zh) 2020-09-30 2023-07-11 海思智财控股有限公司 用于虚拟实境及扩增实境装置的虚拟影像显示***
CN113093402B (zh) * 2021-04-16 2022-12-02 业成科技(成都)有限公司 立体显示器及其制造方法与立体显示***

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006287813A (ja) * 2005-04-04 2006-10-19 Fuji Photo Film Co Ltd 3次元画像表示装置
JP2008078846A (ja) * 2006-09-20 2008-04-03 Taro Isayama 立体表示処理装置および立体表示処理方法
JP2011125692A (ja) * 2009-11-18 2011-06-30 Panasonic Corp 視線検出装置、視線検出方法、眼電位計測装置、ウェアラブルカメラ、ヘッドマウントディスプレイ、電子めがねおよび眼科診断装置
JP2013090180A (ja) * 2011-10-19 2013-05-13 Nippon Hoso Kyokai <Nhk> 立体映像撮影表示装置
JP2013254358A (ja) * 2012-06-07 2013-12-19 Sony Corp 画像処理装置、画像処理方法およびプログラム
JP2014071230A (ja) * 2012-09-28 2014-04-21 Pioneer Electronic Corp 画像表示装置、制御方法、プログラム及び記憶媒体
JP2014219621A (ja) * 2013-05-10 2014-11-20 株式会社タイトー 表示装置、表示制御プログラム
US20150016674A1 (en) * 2013-07-12 2015-01-15 Samsung Electronics Co., Ltd. Method and apparatus for connecting devices using eye tracking
WO2016105521A1 (en) * 2014-12-23 2016-06-30 Meta Company Apparatuses, methods and systems coupling visual accommodation and visual convergence to the same plane at any depth of an object of interest

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0468340A3 (en) 1990-07-24 1992-12-16 Biocontrol Systems, Inc. Eye directed controller
JP3802630B2 (ja) 1996-12-28 2006-07-26 オリンパス株式会社 立体画像生成装置および立体画像生成方法
US7428001B2 (en) 2002-03-15 2008-09-23 University Of Washington Materials and methods for simulating focal shifts in viewers using large depth of focus displays
US7872635B2 (en) 2003-05-15 2011-01-18 Optimetrics, Inc. Foveated display eye-tracking system and method
KR20090014927A (ko) 2007-08-06 2009-02-11 삼성전자주식회사 깊이 조절을 이용한 양안식 영상의 재생 방법 및 장치
EP2309310A1 (en) 2009-10-01 2011-04-13 Koninklijke Philips Electronics N.V. 3D spectacles
US20110228051A1 (en) 2010-03-17 2011-09-22 Goksel Dedeoglu Stereoscopic Viewing Comfort Through Gaze Estimation
US9292973B2 (en) * 2010-11-08 2016-03-22 Microsoft Technology Licensing, Llc Automatic variable virtual focus for augmented reality displays
WO2012086362A1 (ja) * 2010-12-22 2012-06-28 コニカミノルタホールディングス株式会社 画像処理装置、そのプログラム、および画像処理方法
US8953242B2 (en) 2011-03-31 2015-02-10 Honeywell International Inc. Varible focus stereoscopic display system and method
GB201110661D0 (en) 2011-06-23 2011-08-10 Univ Durham Apparatus and method for displaying images
JP5214040B2 (ja) 2012-01-30 2013-06-19 学校法人 文教大学学園 ズーミング可能な立体写真ビューア
EP2893388B1 (en) * 2012-09-03 2016-08-03 SensoMotoric Instruments Gesellschaft für innovative Sensorik mbH Head mounted system and method to compute and render a stream of digital images using a head mounted system
US9137524B2 (en) 2012-11-27 2015-09-15 Qualcomm Incorporated System and method for generating 3-D plenoptic video images
GB201310256D0 (en) 2013-06-10 2013-07-24 Univ Durham Stereoscopic display and method
KR102126532B1 (ko) 2013-09-30 2020-06-24 엘지디스플레이 주식회사 멀티뷰 영상 생성 방법과 이를 이용한 입체 영상 표시 장치
US10330935B2 (en) 2016-09-22 2019-06-25 Apple Inc. Predictive, foveated virtual reality system

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006287813A (ja) * 2005-04-04 2006-10-19 Fuji Photo Film Co Ltd 3次元画像表示装置
JP2008078846A (ja) * 2006-09-20 2008-04-03 Taro Isayama 立体表示処理装置および立体表示処理方法
JP2011125692A (ja) * 2009-11-18 2011-06-30 Panasonic Corp 視線検出装置、視線検出方法、眼電位計測装置、ウェアラブルカメラ、ヘッドマウントディスプレイ、電子めがねおよび眼科診断装置
JP2013090180A (ja) * 2011-10-19 2013-05-13 Nippon Hoso Kyokai <Nhk> 立体映像撮影表示装置
JP2013254358A (ja) * 2012-06-07 2013-12-19 Sony Corp 画像処理装置、画像処理方法およびプログラム
JP2014071230A (ja) * 2012-09-28 2014-04-21 Pioneer Electronic Corp 画像表示装置、制御方法、プログラム及び記憶媒体
JP2014219621A (ja) * 2013-05-10 2014-11-20 株式会社タイトー 表示装置、表示制御プログラム
US20150016674A1 (en) * 2013-07-12 2015-01-15 Samsung Electronics Co., Ltd. Method and apparatus for connecting devices using eye tracking
WO2016105521A1 (en) * 2014-12-23 2016-06-30 Meta Company Apparatuses, methods and systems coupling visual accommodation and visual convergence to the same plane at any depth of an object of interest

Also Published As

Publication number Publication date
US11694353B2 (en) 2023-07-04
CN109644261B (zh) 2021-06-01
PL3494695T3 (pl) 2024-02-19
CN113240601A (zh) 2021-08-10
JP7335285B2 (ja) 2023-08-29
KR20190026004A (ko) 2019-03-12
CN113240601B (zh) 2024-03-26
KR102239686B1 (ko) 2021-04-13
JP2021122109A (ja) 2021-08-26
JP7094266B2 (ja) 2022-07-01
EP3494695A1 (en) 2019-06-12
CN109644261A (zh) 2019-04-16
US20210264631A1 (en) 2021-08-26
US10943359B2 (en) 2021-03-09
US20190172216A1 (en) 2019-06-06
EP3494695B1 (en) 2023-09-27

Similar Documents

Publication Publication Date Title
JP7335285B2 (ja) 単一深度追跡型の遠近調節-両眼転導ソリューション
CN108051925B (zh) 具有焦点可调透镜的眼镜设备
JP7109509B2 (ja) 眼と異なるレンズの位置を補正する、実際のシーンを見るための仮想眼鏡セット
CN106484116B (zh) 媒体文件的处理方法和装置
CN105894567B (zh) 放缩三维场景中的用户控制的虚拟对象的像素深度值
KR20150090183A (ko) 3-d 플레놉틱 비디오 이미지들을 생성하는 시스템 및 방법
JP2013106355A (ja) コリメートされたステレオディスプレイシステム
US20140035918A1 (en) Techniques for producing baseline stereo parameters for stereoscopic computer animation
WO2019109323A1 (zh) 图像显示方法、穿戴式智能设备及存储介质
WO2022262839A1 (zh) 现场演出的立体显示方法、装置、介质及***
WO2018010677A1 (zh) 一种信息处理方法、穿戴式电子设备、处理装置及***
KR20170055930A (ko) 3d 디스플레이 시스템에서 입체 이미지 디스플레이 방법 및 장치
TW201733351A (zh) 3d自動對焦顯示方法及其系統
CN104216126A (zh) 一种变焦3d显示技术
CN109298793B (zh) 一种屏幕位置调节方法及装置
KR102358240B1 (ko) 단일 깊이 추적 순응-수렴 솔루션
WO2018027015A1 (en) Single depth tracked accommodation-vergence solutions
JP6200316B2 (ja) 画像生成方法、画像生成装置及び画像生成プログラム
Wartell et al. Characterizing Image Fusion Techniques in Stereoscopic HTDs.
US12015758B1 (en) Holographic video sessions
US20220232201A1 (en) Image generation system and method
CN109313823A (zh) 信息处理装置、信息处理方法和程序
US20240205553A1 (en) Utilising different apertures for different eyes
WO2023146882A1 (en) Display system with machine learning (ml) based stereoscopic view synthesis over a wide field of view
US9609313B2 (en) Enhanced 3D display method and system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190404

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200424

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200526

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200826

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20201110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210310

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20210310

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20210318

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20210323

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20210409

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20210413

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20211109

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20220104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220404

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20220419

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20220524

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20220524

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220621

R150 Certificate of patent or registration of utility model

Ref document number: 7094266

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150