JP2016042689A - 映像処理方法及び装置 - Google Patents

映像処理方法及び装置 Download PDF

Info

Publication number
JP2016042689A
JP2016042689A JP2015141193A JP2015141193A JP2016042689A JP 2016042689 A JP2016042689 A JP 2016042689A JP 2015141193 A JP2015141193 A JP 2015141193A JP 2015141193 A JP2015141193 A JP 2015141193A JP 2016042689 A JP2016042689 A JP 2016042689A
Authority
JP
Japan
Prior art keywords
pixel
panel
sub
subpixel
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015141193A
Other languages
English (en)
Other versions
JP6681675B2 (ja
Inventor
柱 容 朴
Ju Yong Park
柱 容 朴
東 ▲ぎょん▼ 南
Dong-Kyung Nam
東 ▲ぎょん▼ 南
碩 李
Seok Lee
碩 李
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2016042689A publication Critical patent/JP2016042689A/ja
Application granted granted Critical
Publication of JP6681675B2 publication Critical patent/JP6681675B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/349Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/27Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving lenticular arrays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/305Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using lenticular lenses, e.g. arrangements of cylindrical lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/324Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/30Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving parallax barriers
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/33Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving directional light or back-light sources

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Generation (AREA)

Abstract

【課題】 3次元ディスプレイ装置のための映像処理方法及び装置を提供する。
【解決手段】 実施形態は、第2パネル基盤3次元ディスプレイ装置のための映像を生成するために、第1パネルのための映像データを処理する。
【選択図】 図1

Description

以下の実施形態は映像処理方法及び装置に関し、より具体的に、3次元ディスプレイ装置のための映像処理方法及び装置に関する。
現在の商用化されているほとんどの3次元ディスプレイ装置は、ユーザの両目に互いに異なる映像を再生することで深さを与える原理を用いる。しかし、このような方式はユーザに両眼の視差情報のみを与えるだけであって、焦点調整、運動視差などの単眼の深さの認知要因を伝達することができない。そのため、3次元映像がナチュラルではなく、目の疲労を与えることが懸念される。
疲労感のないナチュラルな3次元映像を表示する技術として、光線の空間角度(spatio−angular)分布、すなわち、ライトフィールド(light field)を再生する3次元ディスプレイ技術が挙げられる。ここで、ライトフィールドは、物体からの光線の位置ごと又は方向ごとの分布を指す。このようなライトフィールドを任意の面で光学的に再生すれば、その後ろに位置するユーザは実際に物体があるような光線分布を経験するため、ナチュラルな物体の3次元映像を見ることができる。
実施形態の目的は、第1パネル用映像データを処理することで、第2パネル基盤の3次元ディスプレイのための映像を生成する技術を提供する。
一側面に係る映像処理方法は、第1パネルのための映像データを受信するステップと、3次元ディスプレイ装置のための第2パネルの光学的特性、及び前記第2パネル内複数のサブピクセルのサブピクセル構造に基づいて前記映像データを処理するステップとを含む。
前記光学的特性は、前記第2パネル内のサブピクセルの光線方向に関する特性を含んでもよい。前記光学的特性は、前記第2パネルと光学レイヤとの間の距離と、前記第2パネル内の前記複数のサブピクセルのうち少なくとも1つのサブピクセルの位置と、前記光学レイヤ内の光学素子のうち、前記少なくとも1つのサブピクセルから出力された光が通過する光学素子の位置と、のうち少なくとも1つに基づいて算出されてもよい。
前記第2パネルのサブピクセル構造は、前記第2パネル内のサブピクセルの色(各サブピクセルは色に関する)と、前記色に基づいて前記第2パネル内のサブピクセルが配置される形態と、前記第2パネル内の各色のサブピクセルの大きさと、前記第2パネル内の各色のサブピクセルの数のうち少なくとも1つを含んでもよい。
前記第1パネルはRGBストライプパネルであり、前記第2パネルは前記RGBストライプパネルと異なるパネルであってもよい。
前記映像データが第1パネル用の多視点映像を含む場合、前記処理するステップは、前記光学的特性に基づいて、前記第2パネル内の選択されたサブピクセルに対応する視点を取得するステップと、前記光学的特性に基づいて、前記視点の映像内の前記選択されたサブピクセルに対応する領域を取得するステップ(前記領域は、前記選択されたサブピクセル周辺の隣接サブピクセルを含む)と、前記多視点映像に基づいて、前記選択されたサブピクセル及び前記隣接サブピクセルの第1パネルサブピクセル値を抽出するステップと、前記第2パネルのサブピクセル構造に基づいて、前記抽出された第1パネルサブピクセル値をフィルタリングすることで、前記選択されたサブピクセルの第2パネル値を生成するステップとを含んでもよい。
前記視点を取得するステップは、予め備えられたテーブルから前記視点を取得するステップを含み、前記領域を取得するステップは、前記テーブルから前記領域を取得するステップを含んでもよい。
前記視点を取得するステップは、前記選択されたサブピクセルの光線方向に基づいて、前記多視点映像内の複数の視点のいずれか1つの視点を選択するステップと、前記多視点映像のカメラパラメータに基づいて、前記選択された視点の映像内の前記選択されたサブピクセルに対応する位置を決定するステップとを含んでもよい。
前記カメラパラメータは、複数の視点それぞれのカメラの画角と、前記複数の視点それぞれのカメラの撮影方向と、前記複数の視点それぞれのカメラと被写体との間の距離のうち少なくとも1つを含んでもよい。
前記抽出された第1パネルサブピクセル値は、前記選択されたピクセルと同じ色を有する隣接ピクセルの第1パネルサブピクセル値であってもよい。
前記視点を取得するステップは、前記選択されたサブピクセルが複数の視点に対応する場合、前記選択されたサブピクセルに対応する前記複数の視点を決定するステップと、前記複数の視点で前記選択されたサブピクセルに対応する複数の領域を決定するステップ(前記複数の領域それぞれは、前記選択されたサブピクセル周辺の隣接サブピクセルを含む)とを含んでもよい。
前記抽出するステップは、前記複数の領域それぞれ内の前記選択されたサブピクセルと同じ色を有する隣接サブピクセルの第1サブピクセル値を抽出するステップと、前記複数の領域の間で前記第1パネルサブピクセル値を補間するステップとを含んでもよい。
前記生成するステップは、前記サブピクセル構造に基づいて前記抽出された第1パネルサブピクセル値の加重値を取得するステップと、前記加重値を用いて、前記抽出された第1パネルサブピクセル値を加重合算することで、前記選択されたサブピクセルの前記第1パネル値を算出するステップとを含んでもよい。
前記映像処理方法は、ユーザの両目の位置を取得するステップと、前記両目の位置に基づいて、前記選択されたサブピクセルが左側の目又は右側の目に対応するか否かを決定するステップとをさらに含み、前記領域を決定するステップは、前記選択されたサブピクセルに対応する目の位置に基づいて、前記多視点映像内の複数の視点のいずれか1つの視点を選択するステップと、前記多視点映像のカメラパラメータに基づいて、前記選択された視点の映像内の前記選択されたサブピクセルに対応する位置を決定するステップとを含んでもよい。
前記映像データが3次元モデルを含む場合、前記処理するステップは、前記光学的特性に基づいて、前記第2パネル内の選択されたサブピクセルに対応する視点を取得するステップと、前記光学的特性に基づいて前記視点の映像内の前記選択されたサブピクセルに対応する領域を取得するステップ(前記領域は、前記選択されたサブピクセル周辺の隣接サブピクセルを含む)と、前記3次元モデルに基づいて、前記選択されたサブピクセル及び前記隣接サブピクセルの第1パネルサブピクセル値を生成するステップと、前記第2パネルのサブピクセル構造に基づいて前記生成された第1パネルサブピクセル値をフィルタリングすることで、前記選択されたサブピクセルの第1パネル値を生成するステップとを含んでもよい。
前記視点を取得するステップは、予め備えられたテーブルから前記視点を取得するステップを含み、前記領域を取得するステップは、前記テーブルから前記領域を取得するステップを含んでもよい。
前記視点を取得するステップは、前記選択されたサブピクセルの光線方向に応じて前記3次元モデルを見るように前記視点を決定するステップと、前記光線方向に伝搬する光が前記決定された視点のための仮想カメラに入射される位置に基づいて、前記決定された視点の映像内の前記選択されたサブピクセルに対応する位置を決定するステップとを含んでもよい。
前記生成された値は、前記選択されたサブピクセルと同じ色を有する隣接サブピクセルの第1パネルサブピクセル値であってもよい。
前記生成するステップは、前記サブピクセル構造に基づいて前記生成された第1パネルサブピクセル値の加重値を取得するステップと、前記加重値を用いて、前記生成された第1パネルサブピクセル値を加重合算することで、前記選択されたサブピクセルの第2パネル値を算出するステップとを含んでもよい。
前記映像データが第1パネル用の立体映像を含む場合、ユーザの両目の位置を取得するステップをさらに含み、前記処理するステップは、前記両目の位置に基づいて、第2パネル内の選択されたサブピクセルが左側映像又は右側映像に対応するか否かを決定するステップと、前記選択されたサブピクセルが対応する映像から、前記選択されたサブピクセルに対応する領域内の第1パネルサブピクセル値を抽出するステップと、前記第2パネルのサブピクセル構造に基づいて、前記抽出された第1パネルサブピクセル値をフィルタリングすることで、前記選択されたサブピクセルの第2パネル値を生成するステップとを含んでもよい。
前記選択されたサブピクセルの光線方向に沿って伝搬する光が前記ユーザの右側の目よりも前記ユーザの左側の目にさらに近く到達する場合、前記選択されたサブピクセルは前記左側映像に対応し、前記光が前記左側の目よりも前記右側の目にさらに近く到達する場合、前記選択されたサブピクセルは前記右側映像に対応してもよい。
前記抽出された第1パネルサブピクセル値は、前記選択されたサブピクセルと同じ色を有する隣接サブピクセルの第1パネルサブピクセル値であってもよい。
前記生成するステップは、前記サブピクセル構造に基づいて前記抽出された第1パネルサブピクセル値の加重値を取得するステップと、前記加重値を用いて、前記抽出された第1パネルサブピクセル値を加重合算することで、前記選択されたサブピクセルの第2パネル値を算出するステップとを含んでもよい。
一実施形態に係る映像処理装置は、第1パネルのための映像データを受信する受信部と、3次元ディスプレイ装置の第2パネルの光学的特性、及び前記第2パネル内複数のサブピクセルのサブピクセル構造に基づいて前記映像データを処理する処理部とを含む。
一実施形態に係る第1サブピクセル構造を有する第1パネル内の選択されたサブピクセルのサブピクセル値を生成する方法は、前記第1サブピクセル構造と異なる第2サブピクセル構造を有する第2パネルに関する映像データを取得するステップと、前記選択されたサブピクセルに対応する視点に基づいて、少なくとも一部の映像データを前記選択されたサブピクセルのサブピクセル値に変換することで前記映像データを処理するステップとを含む。
前記処理するステップは、前記映像データに基づいて前記選択されたサブピクセルに対応する前記視点を決定するステップ(前記視点は映像に関する)と、前記映像内の選択されたサブピクセルに対応する領域を決定するステップ(前記サブピクセル値は前記領域に基づく)とを含んでもよい。
前記処理するステップは、前記領域に基づいて第2パネルサブピクセルのサブピクセル値を決定するステップと、前記第2パネルサブピクセルの前記サブピクセル値に基づいて、前記選択されたサブピクセルのサブピクセル値を決定するステップとを含んでもよい。
本発明によると、第1パネル用映像データを処理することで、第2パネル基盤3次元ディスプレイのための映像を生成する技術を提供することができる。
一実施形態に係る映像処理装置を説明する図である。 一実施形態に係る映像処理装置を説明する図である。 一実施形態に係る映像処理装置を説明する図である。 一実施形態に係る映像処理装置を説明する図である。 一実施形態に係る映像処理装置を説明する図である。 一実施形態に係る映像処理装置を説明する図である。 一実施形態に係る映像処理装置を説明する図である。 実施形態に係る視点選択動作を説明する図である。 実施形態に係る視点選択動作を説明する図である。 実施形態に係る位置決定動作を説明する図である。 実施形態に係る位置決定動作を説明する図である。 実施形態に係る位置決定動作を説明する図である。 実施形態に係る位置決定動作を説明する図である。 実施形態に係る領域決定動作を説明する図である。 実施形態に係る領域決定動作を説明する図である。 実施形態に係るフィルタリング動作を説明する図である。 実施形態に係るフィルタリング動作を説明する図である。 実施形態に係るフィルタリング動作を説明する図である。 実施形態に係るフィルタリング動作を説明する図である。 実施形態に係るフィルタリング動作を説明する図である。 実施形態に係るフィルタリング動作を説明する図である。 実施形態に係るフィルタリング動作を説明する図である。 実施形態に係るフィルタリング動作を説明する図である。 一実施形態に係るライトフィールドレンダリング方法を示す動作フローチャートである。 一実施形態に係る補間動作を説明する図である。 一実施形態に係る補間動作を説明する図である。 一実施形態に係る補間動作を説明する図である。 一実施形態に係る補間動作を説明する図である。 他の実施形態に係るライトフィールドレンダリング装置を説明する図である。 他の実施形態に係るライトフィールドレンダリング装置を説明する図である。 他の実施形態に係るライトフィールドレンダリング装置を説明する図である。 他の実施形態に係るライトフィールドレンダリング装置を説明する図である。 更なる実施形態に係るライトフィールドレンダリング装置を説明する図である。 更なる実施形態に係るライトフィールドレンダリング装置を説明する図である。 更なる実施形態に係るライトフィールドレンダリング装置を説明する図である。 更なる実施形態に係るライトフィールドレンダリング装置を説明する図である。 更なる実施形態に係るライトフィールドレンダリング装置を説明する図である。 更なる実施形態に係るライトフィールドレンダリング装置を説明する図である。 更なる実施形態に係るライトフィールドレンダリング装置を説明する図である。 更なる実施形態に係るライトフィールドレンダリング装置を説明する図である。
以下、実施形態を添付する図面を参照しながら詳細に説明する。各図面に提示された同一の参照符号は同一の部材を示す。下記で説明される実施形態は、ライトフィールドディスプレイ方式のためのレンダリングに用いてもよい。ライトフィールドディスプレイ方式は、3次元映像を表現する無メガネ方式であって、例えば、3Dテレビ、3Dモニター、3Dデジタル情報ディスプレイ(Digital Information Display、DID)、及び3Dモバイル機器などに適用されてもよい。
図1〜図7は、一実施形態に係る映像処理装置を説明する図である。映像処理装置は、ライトフィールドディスプレイ方式を用いて映像を処理する装置であり、例えば、ライトフィールドレンダリング装置を含んでもよい。以下、説明の便宜のため、映像処理装置はライトフィールドレンダリング装置と称する。
図1を参照すると、一実施形態に係るライトフィールドレンダリング装置110は、受信部111と処理部112を含む。受信部111は、第1パネルのための映像データ120を受信する。一実施形態によると、第1パネルのための映像データ120は第1パネル用の多視点映像を含んでもよい。
処理部112は、第2パネル基盤3次元ディスプレイ装置130のための映像を生成するため、第1パネルのための映像データ120を処理する。第2パネル基盤3次元ディスプレイ装置130は、ライトフィールドディスプレイ方式を用いて3次元映像を再生する装置であり、例えば、第2パネル基盤ライトフィールドディスプレイ装置を含んでもよい。以下、説明の便宜のために、第2パネル基盤3次元ディスプレイ装置130は、第2パネル基盤ライトフィールドディスプレイ装置と称する。
処理部112は、第2パネル基盤3次元ディスプレイ装置の光学的特性及び第2パネルのサブピクセル構造に基づいて第1パネルのための映像データ120を処理することで、第2パネル基盤ライトフィールドディスプレイ装置のための映像を生成してもよい。第2パネル基盤3次元ディスプレイ装置の光学的特性は、第2パネルに含まれたサブピクセルの光線方向に関する特性を含んでもよい。
より具体的に、一実施形態に係るライトフィールドレンダリング装置110は、第1パネル用の多視点映像を用いて第2パネル基盤ライトフィールドディスプレイ装置に含まれた第2パネルのサブピクセル値を生成してもよい。ライトフィールドレンダリング装置110は、ライトフィールドをレンダリングするための各種のモジュールから構成されてもよい。ライトフィールドレンダリング装置110を構成する各種のモジュールは、ハードウェアモジュール、ソフトウェアモジュール、または、その組み合わせで実現されてもよい。ソフトウェアモジュールは、少なくとも1つのプロセッサによって駆動されてもよい。
第1パネルのサブピクセル構造と第2パネルのサブピクセル構造は互いに異なってもよい。任意のパネルのサブピクセル構造は、そのパネルに含まれたサブピクセルの色、そのパネルに各色のサブピクセルが配置される形態、そのパネルに含まれた各色のサブピクセルの大きさ、及びそのパネルに含まれた各色のサブピクセルの数などを含んでもよい。
例えば、第1パネルは一般的なRGBパネルであり、第2パネルはペンタイルTMパネルであってもよい。一般的なRGBパネルのサブピクセル構造とペンタイルTMパネルのサブピクセル構造は互いに異なる。より具体的に、一般的なRGBパネルは、1つのピクセルに互いに同一の大きさを有するR(red)サブピクセル、G(green)サブピクセル、及びB(blue)サブピクセルが含まれているサブピクセル構造を有する。例えば、一般的なRGBパネルは、RGBストライプ(stripe)構造で実現されてもよい。
一方、ペンタイルTMパネルは、1つのピクセルに大きさの互いに同一であるRサブピクセル、Gサブピクセル、及びBサブピクセルが含まれているサブピクセル構造を有しない。ペンタイルTMパネルは様々な形態に実現されてもよい。一例として、ペンタイルTMパネルは、図2に示すようなサブピクセル構造を有してもよい。図2に示すサブピクセル構造は、ダイヤモンドペンタイルTM構造と称してもよい。図2は、ダイヤモンドペンタイルTMサブピクセル構造を有する複数のピクセル200−200を示す。図2を参照すると、1つのピクセル(例えば、ピクセル200)は2つのサブピクセルを含む。それぞれのピクセルは、Rサブピクセル、Gサブピクセル、及びBサブピクセルを全ては含まない。それぞれのピクセルは、Rサブピクセル及びGサブピクセルを含んだり、Bサブピクセル及びGサブピクセルを含む。Gサブピクセルの大きさは、Rサブピクセルの大きさ及びBサブピクセルの大きさよりも小さいこともある。1つのピクセル内でGサブピクセルとRサブピクセルは対角方向に配置されてもよい。また、1つのピクセル内でGサブピクセルとBサブピクセルは対角方向に配置されてもよい。1つのピクセル内のサブピクセルの配置は様々に変形されてもよい。また、Rサブピクセル、Gサブピクセル、及びBサブピクセルそれぞれの大きさ及び形態は様々に変形されてもよい。
他の例として、ペンタイルTMパネルは図3に示すようなサブピクセル構造を有してもよい。図3は、他のペンタイルTMサブピクセル構造を有する複数のピクセル300−300を示す。図3を参照すると、1つのピクセル(例えば、ピクセル300)は2つのサブピクセルを含む。それぞれのピクセルは、Rサブピクセル、Gサブピクセル、及びBサブピクセルを全ては含まない。それぞれのピクセルは、Rサブピクセル及びGサブピクセルを含んだり、Bサブピクセル及びGサブピクセルを含む。Rサブピクセルの大きさ、Gサブピクセルの大きさ、及びBサブピクセルの大きさは互いに異なってもよい。1つのピクセル内でGサブピクセルとRサブピクセルは縦方向に配置されてもよい。また、1つのピクセル内でGサブピクセルとBサブピクセルは縦方向に配置されてもよい。1つのピクセル内のサブピクセルの配置は様々に変形されてもよい。また、Rサブピクセル、Gサブピクセル、及びBサブピクセルそれぞれの大きさ及び形態は様々に変形されてもよい。
更なる例として、ペンタイルTMパネルは、図4に示すようなサブピクセル構造を有してもよい。図4は、他のペンタイルTMサブピクセル構造を有する複数のピクセル400−400を示す。図4を参照すると、ペンタイルTMパネルは、Rサブピクセル、Gサブピクセル、及びBサブピクセルの他にも、Wサブピクセルをさらに含んでもよい。それぞれのピクセルは、Rサブピクセル、Gサブピクセル、Bサブピクセル、及びWサブピクセルを全ては含まない。それぞれのピクセルはRサブピクセル及びGサブピクセルを含んだり、Bサブピクセル及びWサブピクセルを含む。1つのピクセル内でGサブピクセルとRサブピクセルは横方向に配置されてもよい。また、1つのピクセル内でBサブピクセルとWサブピクセルは横方向に配置されてもよい。1つのピクセル内のサブピクセルの配置は様々に変形されてもよい。また、Rサブピクセル、Gサブピクセル、Bサブピクセル、及びWサブピクセルのそれぞれの大きさ及び形態は様々に変形されてもよい。
以上で、説明の便宜のために第2パネルがペンタイルTM(登録商標)パネルの場合を説明したが、第2パネルは、ペンタイルTMパネルの他にも一般的なRGBパネルと異なる構造のパネルであってもよい。
ライトフィールドレンダリング装置110は、第1パネル用の多視点映像を用いて第2パネル基盤ライトフィールドディスプレイ装置に含まれた第2パネルのサブピクセル値を生成することで、ライトフィールドをレンダリングしてもよい。例えば、図5を参照すると、第2パネル基盤ライトフィールドディスプレイ装置は、一定の空間に存在する点で様々な方向に出力される光をそのまま表現することができる。第2パネル基盤ライトフィールドディスプレイ装置は、実際に物体が一点で様々な方向に光を生成したり照り返す原理を用いる。
第2パネル基盤ライトフィールドディスプレイ装置は、サブピクセルを含む第2パネル501及びサブピクセルから出力される光が通過する光学レイヤ502を含む。ここで、光学レイヤ502は、レンチキュラレンズ(Lenticular Lens)、パララックスバリア(Parallex Barrier)、レンズアレイ、及びマイクロレンズアレイなど光学フィルタを含んでもよい。また、光学レイヤ502は、指向性バックライトユニット(directional back light unit)を含んでもよい。以下、説明の便宜のために光学レイヤ502がレンズアレイである場合を説明するが、実施形態は前述した光学フィルタに限定されることなく、ディスプレイの前面又は後面に配置する全ての形態の光学レイヤを用いてもよい。
第2パネル501に含まれたサブピクセルから出力される光の方向は光学レイヤ502を介して決定されてもよい。サブピクセルそれぞれから出力される光は、光学レイヤ502を通過しながら特定方向に放射されてもよい。このような過程により第2パネル基盤ライトフィールドディスプレイ装置は、立体映像又は多視点映像を表現してもよい。
光学レイヤ502は複数の素子を含んでもよい。それぞれの素子は3D画素と称されてもよい。1つの3D画素は、様々な方向に他の情報を含む光線を出力してもよい。例えば、光学レイヤ502に含まれた1つの3D画素で15×4方向の光線503が出力されてもよい。第2パネル基盤ライトフィールドディスプレイ装置は、複数の3D画素を用いて3次元空間上の点などを表現してもよい。
ここで、第2パネル501のサブピクセル構造に応じて第2パネル501内のサブピクセルの位置及び/又は大きさが変わるため、第2パネル501のサブピクセル構造に応じて第2パネル501内各サブピクセルから出力される光線の方向が変わる。そのため、第1パネル用の多視点映像のサブピクセル値を第2パネル501のサブピクセル値に決定する場合、多視点映像を充分に表現することができない。例えば、一般的なRGBパネルのサブピクセル構造に応じて、ライトフィールドレンダリングされたパネル映像をペンタイルTMパネルのサブピクセル構造に適するように単純変換する場合、ペンタイルTMパネルのサブピクセル構造に応じてサブピクセルの光線方向が変更される点が無視されることで、意図した映像を充分表現することができない。
ライトフィールドレンダリング装置110は、任意のサブピクセル構造を有する第2パネルを用いるライトフィールドディスプレイ装置のためのレンダリング方式を提供する。例えば、ライトフィールドレンダリング装置110は、第2パネルのサブピクセル構造に基づいて第1パネル用の多視点映像から第2パネルのサブピクセルの値を生成してもよい。ライトフィールドレンダリング装置110の動作に関するより詳細な説明は後述する。
そのため、実施形態は、ライトフィールドディスプレイ装置を様々なパネルに実現する技術を提供することができる。以下で詳細に説明するが、ライトフィールドレンダリング装置110は、第2パネルのサブピクセル構造に適するようにサブピクセル構造変換する演算を最小限にするため、第2パネル基盤ライトフィールドディスプレイ装置で実際に用いられるサブピクセルについてのみ、サブピクセル構造変換を行うアルゴリズムを提供することができる。
図6を参照すると、一実施形態に係るライトフィールドレンダリング装置110は、受信部610、決定部620、抽出部630、及び生成部640を含む。受信部610は、第1パネル用の多視点映像を受信する。受信部610は図1に示す受信部111に対応する。決定部620は、第2パネルに含まれたサブピクセルに対応する視点及びその視点の映像内でサブピクセルに対応する領域を決定する。抽出部630は、多視点映像から、決定された視点及び決定された領域に対応するサブピクセル値を抽出する。生成部640は、抽出されたサブピクセル値を第2パネルのサブピクセル構造に基づいてフィルタリングすることで、サブピクセルの値を生成する。決定部620、抽出部630、及び生成部640は、図1に示す処理部112に対応する。
決定部620、抽出部630、及び生成部640は、ハードウェア、ファームウェア、ソフトウェアを実行する装置、または、この様々な組み合わせであってもよい。決定部620、抽出部630、及び生成部640のうち少なくとも1つは、中央処理ユニット(CPU)、デジタル信号プロセッサ(DSP)、アプリケーション特化集積回路(ASIC)、または、フィールドプログラマブルゲートアレイ(FPGA)から構成されたり、決定部620、抽出部630、及び生成部640のうち少なくとも1つの機能実行に特化された装置で構成されてもよい。CPU、DSP、ASIC、FGPAは処理装置のように包括的に称してもよい。
決定部620、抽出部630、及び生成部640のうち少なくとも1つは、格納媒体113に格納されたソフトウェアを実行するプロセッサで構成されてもよい。プロセッサは、決定部620、抽出部630、及び生成部640のうち少なくとも1つの機能を行う。
決定部620は、サブピクセルの光線方向に基づいてサブピクセルに対応する視点及びサブピクセルに対応する領域を決定する。図7を参照すると、決定部620は、サブピクセル711の値をレンダリングするため、サブピクセル711の光線方向を算出する。例えば、サブピクセル711から出力された光は、光学レイヤ720内の素子721の中心を通過する方向に伝搬(propagate)する。決定部620は、第2パネル710と光学レイヤ720との間の距離、第2パネル710内のサブピクセル711の位置、及び光学レイヤ720内の素子のうち、サブピクセル711から出力された光が通過する素子721の位置に基づいて、サブピクセル711の光線方向を算出してもよい。以下、サブピクセルから出力された光は、LEDのようにそれ自体が発光するサブピクセルから出力される光のみならず、LCDのようにバックライトの光を透過させるサブピクセルから出力される光を全て含んでもよい。
サブピクセル711の光線方向に沿って伝搬する光は、多視点映像の視点730のいずれか1つと対応する。多視点映像は、複数の視点に対応する視点映像から構成されてもよい。決定部620は、サブピクセル711の光線方向に応じて伝搬する光が到達する位置に対応する視点731を選択してもよい。視点選択動作に関するより詳細な説明は、図8及び図9を参照して後述する。
決定部620は、多視点映像のカメラパラメータに基づいて、選択された視点731の映像740内のサブピクセルに対応する位置741を決定してもよい。カメラパラメータは多視点映像を撮影した多視点カメラのパラメータであり、例えば、それぞれの視点のカメラの画角、それぞれの視点のカメラの撮影方向、それぞれの視点のカメラと被写体との間の距離を含んでもよい。カメラパラメータは多視点映像に含まれ、決定部620は多視点映像からカメラパラメータを取得してもよい。位置決定動作に関するより詳細な説明は、図10〜図13を参照して後述する。
決定部620は、選択された視点731の映像740内の位置741を含む領域742をサブピクセル711に対応する領域として決定してもよい。領域742は、映像740内で位置741を中心にする予め決定した大きさの領域であってもよい。領域決定動作に関するより詳細な説明は、図14及び図15を参照して後述する。
以上、決定部620がサブピクセルの光線方向に基づいてサブピクセルに対応する視点及びサブピクセルに対応する領域を決定する動作方式を説明したが、実施形態は、決定部620が予め備えられたテーブルからサブピクセルに対応する視点及びサブピクセルに対応する領域を取得する動作方式に変形されてもよい。例えば、多視点映像を撮影する距離、多視点映像を撮影する画角、多視点映像を撮影する方向、または、多視点映像のカメラパラメータなど多視点映像を撮影する条件が標準化される場合、任意のサブピクセルに対応する視点及び当該サブピクセルに対応する領域は予め決定されてもよい。予め備えられたテーブルは、第2パネルのサブピクセル構造に応じて第2パネルに含まれたサブピクセルに対応する視点及び領域に関する情報を格納してもよい。この場合、決定部620は、予め備えられたテーブルを参照することでサブピクセルに対応する視点及びサブピクセルに対応する領域を決定してもよい。
テーブルは全てのサブピクセルに対して、当該サブピクセルが表現する視点とサブピクセルの値を取得するためにフィルタリングしなければならないRGBパネルの領域情報を予め算出して格納してもよい。多視点映像が入力される場合、テーブル内視点情報は視点を指示する視点番号であってもよい。3次元モデルデータが用いられる場合、テーブル内視点情報は、3次元モデルデータをレンダリングするために指定する仮想カメラの中心の位置、カメラが見る方向、カメラの視点であってもよい。
さらに、当該視点映像の解像度に基づいて、ペンタイルTMパネルのサブピクセルの値を取得するために、フィルタリングする視点映像内の領域情報もテーブルに格納されてもよい。テーブル内に格納空間の数はサブピクセルの数に対応する。前述した視点情報、仮想カメラ情報、フィルタリングのために必要な視点映像内の位置、及び範囲情報はそれぞれ格納空間に格納されてもよい。格納された情報は、ペンタイルパネルのサブピクセル値を算出するとき検出されて用いてもよい。
入力映像のフォーマットが同一である場合、サブピクセルの方向及び位置に応じて視点情報及びフィルタリングのための領域情報は毎回算出される必要はない。したがって、このような情報は1回算出されて格納され、続いて入力される次の情報に同一に適用される。
仮想カメラは、3Dモデルを2Dレンダリングするために用いるカメラの位置、方向、視野(Field of view)などの情報を有する仮想(現実ではない)カメラを称する。
仮想カメラの生成とは、このようなカメラの情報が生成されることを意味する。サブピクセルが表現する光の方向を延長した線の上にカメラの投射中心が位置し、サブピクセルによって表現される光の方向が視点内に含まれれば、カメラ情報は様々な形態に変形されてもよい。ただし、便宜のために、当該仮想カメラの上向きベクトル(up vector)がディスプレイの垂直方向と同じように上側を向くか、仮想カメラの視点の中心に向かう方向(投射方向)がディスプレイ面と垂直であるか、などの制約条件が予め設定されてもよい。
仮想カメラは、当該サブピクセルからの光と正確に一致する方向の光線情報をキャプチャーできるように設定されてもよい。
再び図7を参照すると、抽出部630は、多視点映像から視点731及び領域742に対応するサブピクセル値を抽出する。例えば、抽出部630は、多視点映像を構成する複数の視点映像のうち、視点731に対応する視点映像を検出してもよい。抽出部630は、検出された視点映像から領域742に含まれたサブピクセルの値を抽出してもよい。
ここで、抽出部630は、領域742に含まれたサブピクセルのうち、サブピクセル711の色と同じ色のサブピクセルの値を選択的に抽出する。例えば、サブピクセル711はRサブピクセルであってもよく、領域742にはRサブピクセル、Gサブピクセル、及びBサブピクセルが含まれてもよい。この場合、抽出部630は領域742内のRサブピクセル、Gサブピクセル、及びBサブピクセルのうちRサブピクセルの値のみを選択的に抽出してもよい。
生成部640は、領域742に基づいてサブピクセル711の値を生成する。生成部640は、領域742から抽出されたサブピクセル値をフィルタリングすることで、サブピクセル711の値を生成する。例えば、生成部640は、第2パネル710のサブピクセル構造に基づいて加重値を決定してもよい。生成部640は、加重値を用いて領域742から抽出されたサブピクセル値を加重合算することで、サブピクセル711の値を算出してもよい。生成された値は、サブピクセル711に印加されてもよい。フィルタリング動作に関する詳細な説明は図16〜図23を参照して後述する。
図8及び図9は、実施形態に係る視点選択動作を説明する図である。図8を参照すると、サブピクセル810は様々な方向に光を出力してもよく、出力された光は、光学レイヤ820を通過しながら光線方向が量子化される形態に表現される。例えば、サブピクセル810から出力される光の方向は、光学レイヤ820に含まれた素子それぞれの中心を通過する方向に量子化されてもよい。
決定部(図示せず)は、量子化された光線方向のうち、多視点映像を構成する視点に対応する光線方向をサブピクセル810の光線方向として決定する。例えば、第1光線方向841は多視点映像を構成する視点のうち視点830に対応し、第2光線方向842は多視点映像を構成する視点のいずれにも対応しない場合がある。第1光線方向841は、サブピクセル810から出力された光が素子821の中心を通過する方向であり、第2光線方向842は、サブピクセル810から出力された光が素子822の中心を通過する方向である。この場合、決定部は、第1光線方向841をサブピクセル810の光線方向に決定してもよい。
場合に応じて、複数の光線方向が多視点映像を構成する視点に対応する。この場合、決定部は、多視点映像の中心位置に近い視点に対応する光線方向を当該サブピクセルの光線方向に決定してもよい。多視点映像の中心位置は、多視点映像を構成する複数の視点が分布する領域の中心に該当する位置であってもよい。
図9を参照すると、一実施形態に係る第2パネル910のサブピクセルそれぞれの光線方向は、光学レイヤ920内のいずれか1つの素子の中心を通過する方向として決定されてもよい。各光線方向は、多視点映像を構成する複数の視点930のいずれか1つに対応する。
図10〜図13は、実施形態に係る位置決定動作を説明する図である。図10を参照すると、第2パネルのサブピクセル1010から出力される光は、光学レイヤの素子1020を介して出力され、視点1030に対応する。決定部(図示せず)は、多視点映像のカメラパラメータに基づいて視点1030の映像1040内でサブピクセル1010に対応する位置を決定してもよい。
例えば、決定部は、カメラパラメータに基づいて視点1030のための仮想カメラ1050を設定し、光線方向1025に沿って伝搬する光が視点1030のための仮想カメラ1050の撮影空間内のどの位置に入射するのかを算出してもよい。ここで、視点1030のための仮想カメラ1050の撮影空間は視点1030の映像1040に該当し、光線方向1025に沿って伝搬する光は映像1040内の位置1041に入射してもよい。決定部は、位置1041をサブピクセル1010に対応する位置として決定してもよい。
図11を参照すると、一実施形態に係る決定部(図示せず)は、カメラパラメータに基づいて視点1030のための仮想カメラ1060を図10に示す仮想カメラ1050と異なるように設定してもよい。この場合、光線方向1025に沿って伝搬する光が視点1030の映像1040内の他の位置に入射してもよい。例えば、光線方向1025に沿って伝搬する光は、視点1030の映像1040内の位置1042に入射してもよい。決定部は、位置1042をサブピクセル1010に対応する位置として決定してもよい。
図10〜図11に示すように、仮想カメラ1050の投射方向はディスプレイ面と垂直に設定され、仮想カメラ1060の投射方向はサブピクセルから出る光線の方向と一致するように設定されてもよい。
カメラパラメータが決定されれば、カメラの位置、投射方向、視点などが決定部620によって決定されてもよい。そのため、カメラが空間上の光をキャプチャーする唯一の設定が決定されてもよい。この状態で、カメラがディスプレイ面を撮影すると、カメラが撮影した映像内の特定サブピクセルの位置が決定部620によって決定されてもよい。
図10に示すように、サブピクセル1010からの光が斜めに仮想カメラ1050に入射し、入射した光は仮想カメラ1050で撮影した映像1040内の位置1041でキャプチャーされてもよい。図11に示すように、仮想カメラ1060の投射方向がサブピクセル1010に向かっているため、サブピクセル1010は、カメラ1060が撮影した映像1040の中央に該当する位置1042でキャプチャーされてもよい。
図12を参照すると、一実施形態に係るサブピクセル1210から出力される光は光学レイヤの素子1220を介して出力され、視点1030に対応する。ここで、光線方向1225に沿って伝搬する光は、視点1030のための仮想カメラ1050の中心1031に正確に入射されず、他の位置1032に入射されてもよい。この場合、決定部(図示せず)は、素子1220と仮想カメラ1050の中心1031の間の仮想の光線を用いてサブピクセル1210に対応する位置を決定する。
例えば、図13を参照すると、決定部は素子1220の中心から仮想カメラ1050の中心1031に向かう光線方向1226を設定してもよい。決定部は、光線方向1226に沿って光が伝搬する場合、当該光が視点1030の映像1040に入射する位置1043を算出してもよい。決定部は、位置1043をサブピクセル1210に対応する位置として決定してもよい。
図14及び図15は、実施形態に係る領域決定動作を説明する図である。図14を参照すると、第1パネル用映像1400は複数のピクセルで構成されてもよい。第1パネル用映像1400に含まれたピクセルそれぞれは、当該ピクセルの色を表現するRサブピクセル値、Gサブピクセル値、及びBサブピクセル値を含んでもよい。第1パネル用映像1400は、多視点映像を構成する複数の視点のいずれか1つの視点に対応する映像であってもよい。
決定部(図示せず)は、第1パネル用映像1400内で決定された位置を含む領域1410を決定してもよい。決定された位置は、第1パネル用映像1400に含まれた複数のピクセルのいずれか1つのピクセル1411に該当し、領域1410は、ピクセル1411及び周辺ピクセルを含む3×3の大きさのピクセルグループであってもよい。
ピクセル1411を含むように決定される領域の大きさは3×3の大きさに制限されることなく、様々に設定されてもよい。例えば、図15を参照すると、決定部は、ピクセル1411及び周辺ピクセルを含む5×5の大きさのピクセルグループに領域1510を決定してもよい。または、ピクセル1411を含む領域は、円形などの様々な形態に設定されてもよい。以下、説明の便宜のためにサブピクセルに対応する領域は3×3の大きさのピクセルグループの場合を仮定してフィルタリング動作を説明するが、実施形態は様々な大きさ及び/又は様々な形態の領域にもそのまま適用されてもよい。
図16〜図23は、実施形態に係るフィルタリング動作を説明する図である。図16を参照すると、生成部(図示せず)は、サブピクセルの値を生成するため、第2パネルのサブピクセル構造に基づいて加重値を決定する。例えば、生成部は、サブピクセル1610の値を生成するため、サブピクセル1610及びその周辺サブピクセルの加重値を決定してもよい。サブピクセル1610はRサブピクセルであり、サブピクセル1610の上下左右にはRサブピクセルが配置されることなく、サブピクセル1610の対角線方向にはRサブピクセルが配置されている。
生成部は、このようなサブピクセル構造に基づいて加重値マップ1620を決定してもよい。加重値マップ1620は3×3の大きさのマトリクスとして、視点映像内で決定された領域の大きさと同一であってもよい。図16に示す加重値マップ1620は一例として、加重値マップ1620に設定された加重値は、第2パネルのサブピクセル構造を反映する様々な方式によってそれぞれ異なるように決定されてもよい。
上述したように、決定部(図示せず)は、視点映像内で決定された領域からサブピクセル1610の色と同じ色に該当するサブピクセル値を抽出してもよい。生成部は、視点映像内で決定された領域から抽出されたサブピクセル値1630を加重値マップ1620により加重合算することで、サブピクセル1610の値を生成する。例えば、サブピクセル1610の値は、数式1640のように算出されてもよい。
図17を参照すると、サブピクセル1710はGサブピクセルであり、サブピクセル1710の上下左右及び対角線方向にはGサブピクセルが配置されている。生成部は、このようなサブピクセル構造に基づいて加重値マップ1720を決定してもよい。生成部は、視点映像内で決定された領域から抽出されたサブピクセル値1730を加重値マップ1720により加重合算することで、サブピクセル1710の値を生成する。例えば、サブピクセル1710の値は、数式1740のように算出されてもよい。サブピクセル構造に応じて、第2パネルの全てのピクセルにGサブピクセルが含まれているため、Gサブピクセルは実質的にフィルタリングされないこともある。
図18を参照すると、サブピクセル1810はBサブピクセルであり、サブピクセル1810の上下左右にはBサブピクセルが配置されることなく、サブピクセル1810の対角線方向にはBサブピクセルが配置されている。生成部はこのようなサブピクセル構造に基づいて加重値マップ1820を決定してもよい。生成部は、視点映像内で決定された領域から抽出されたサブピクセル値1830を加重値マップ1820により加重合算することで、サブピクセル1810の値を生成する。例えば、サブピクセル1810の値は数式1840のように算出されてもよい。
図19を参照すると、生成部(図示せず)は、RGBWペンタイルTMパネルのためにW(白色)サブピクセル値を生成する。例えば、生成部は、RGB映像に該当する第1サブピクセル値1910から第2サブピクセル値1920のWサブピクセル値を生成する。例えば、任意のピクセルのためWサブピクセル値は、当該ピクセルのRサブピクセル値、Gサブピクセル値、及びBサブピクセル値のうちの最小値に決定されてもよい。第1サブピクセル値1910は、視点映像内で決定された領域から抽出されたRサブピクセル値、Gサブピクセル値、及びBサブピクセル値である。第2サブピクセル値1920は、RGBWペンタイルTMパネルのWサブピクセルの値を生成するために用いてもよい。
図20を参照すると、生成部(図示せず)は、サブピクセル2010の値を生成するために、サブピクセル2010及びその周辺サブピクセルの加重値を決定してもよい。サブピクセル2010はRサブピクセルであり、サブピクセル2010の上下左右にはRサブピクセルが配置されることなく、サブピクセル2010の対角線方向にはRサブピクセルが配置されている。生成部は、このようなサブピクセル構造に基づいて加重値マップ2020を決定してもよい。生成部は、視点映像内で決定された領域から抽出されたサブピクセル値2030を加重値マップ2020により加重合算することで、サブピクセル2010の値を生成する。例えば、サブピクセル2010の値は、数式2040のように算出されてもよい。
図21を参照すると、サブピクセル2110はGサブピクセルであり、サブピクセル2110の上下左右にはGサブピクセルが配置されることなく、サブピクセル2110の対角線方向にはGサブピクセルが配置されている。生成部は、このようなサブピクセル構造に基づいて加重値マップ2120を決定してもよい。生成部は、視点映像内で決定された領域から抽出されたサブピクセル値2130を加重値マップ2120により加重合算することで、サブピクセル2110の値を生成する。例えば、サブピクセル2110の値は、数式2140のように算出されてもよい。
図22を参照すると、サブピクセル2210はBサブピクセルであり、サブピクセル2210の上下左右にはBサブピクセルが配置されることなく、サブピクセル2210の対角線方向にはBサブピクセルが配置されている。生成部は、このようなサブピクセル構造に基づいて加重値マップ2220を決定してもよい。生成部は、視点映像内で決定された領域から抽出されたサブピクセル値2230を加重値マップ2220により加重合算することで、サブピクセル2210の値を生成する。例えば、サブピクセル2210の値は数式2240のように算出されてもよい。
図23を参照すると、サブピクセル2310はWサブピクセルであり、サブピクセル2310の上下左右にはWサブピクセルが配置されることなく、サブピクセル2310の対角線方向にはWサブピクセルが配置されている。生成部は、このようなサブピクセル構造に基づいて加重値マップ2320を決定してもよい。生成部は、図19を参照して説明したように、生成されたサブピクセル値2330を加重値マップ2320により加重合算することで、サブピクセル2310の値を生成する。例えば、サブピクセル2310の値は数式2340のように算出されてもよい。
図24は、一実施形態に係るライトフィールドレンダリング方法を示す動作フローチャートである。図24を参照すると、ライトフィールドレンダリング方法は、第1パネル用の多視点映像を受信するステップS2410、第2パネルに含まれたサブピクセルに対応する視点を決定するステップS2420、決定された視点の映像内のサブピクセルに対応する領域を決定するステップS2430、多視点映像から、決定された視点及び決定された領域に対応するサブピクセル値を抽出するステップS2440、及び第2パネルのサブピクセル構造に基づいて抽出されたサブピクセル値をフィルタリングすることで、サブピクセルの値を生成するステップS2450を含む。図24に示された各ステップには、図1〜図23を参照して説明した事項がそのまま適用されているため、より詳細な説明は省略する。
図25〜図28は、一実施形態に係る補間動作を説明する図である。図25を参照すると、第2パネルのサブピクセル2510から出力された光は、光学レイヤの素子2520を通過する光線方向2530に伝搬してもよい。ここで、光線方向2530に伝搬する光は、いずれか1つの視点に正確に対応できない場合がある。例えば、光線方向2530に伝搬する光は、第1視点2540のための仮想カメラ位置2541と第2視点2550のための仮想カメラ位置2551との間で入射されてもよい。この場合、サブピクセル2510は、第1視点2540及び第2視点2550など複数の視点に対応するものと表現されてもよい。
図26を参照すると、サブピクセル2510の値を生成するために、光線方向2530に伝搬する光に正確に対応する仮想カメラ2610が設定されてもよい。多視点映像には、仮想カメラ2610によって撮影された映像が含まれていないため、補間方式に基づいて仮想カメラ2610によって撮影された映像が生成されてもよい。例えば、図27を参照すると、決定部(図示せず)は、複数の視点でサブピクセル2510に対応する領域を決定してもよい。決定部は、素子2520から第1視点2540のための仮想カメラ位置2541に伝搬する光線方向2710に基づいて、第1視点2540の映像2730内のサブピクセル2510に対応する第1領域2731を決定してもよい。また、決定部は、素子2520から第2視点2550のための仮想カメラ位置2551に伝搬する光線方向2720に基づいて、第2視点2550の映像2740内のサブピクセル2510に対応する第2領域2741を決定してもよい
図28を参照すると、抽出部(図示せず)は、多視点映像から第1領域2731のサブピクセル値を抽出し、第2領域2741のサブピクセル値を抽出してもよい。抽出部は、第1領域2731と第2領域2741との間で、互いに対応するサブピクセルの値を補間してもよい。例えば、抽出部は、第1領域2731の中心に位置するサブピクセル値2732と第2領域2741の中心に位置するサブピクセル値2742を補間することで、第3領域2810の中心に位置するサブピクセル値2811を生成してもよい。第3領域2810は、図26に示す仮想カメラ2610によって撮影された映像内でサブピクセル2510に対応する領域である。生成部(図示せず)は、第3領域2810のサブピクセル値をフィルタリングすることで、サブピクセル2510の値を生成してもよい。
以上で、2つの視点を用いる補間方式を説明したが、実施形態は3個以上の視点を用いる補間方式に拡張してもよい。この場合、サブピクセル2510の光線方向に基づいて3個以上の視点が決定され、各視点の映像内でサブピクセル2510に対応する領域が決定されてもよい。
図29〜図32は、他の実施形態に係るライトフィールドレンダリング装置を説明する図である。図29を参照すると、ライトフィールドレンダリング装置2910は、3次元モデルを含むデータ2920を用いて第2パネル基盤ライトフィールドディスプレイ装置2930に含まれた第2パネルのサブピクセル値を生成してもよい。第2パネルは、一般的なRGBパネルと異なるパネルであって、例えば、ペンタイルTMパネルであってもよい。ライトフィールドレンダリング装置2910は、3次元モデルを用いて第2パネル基盤ライトフィールドディスプレイ装置2930に含まれた第2パネルのサブピクセル値を生成することで、ライトフィールドをレンダリングしてもよい。
図30を参照すると、ライトフィールドレンダリング装置2910は、受信部3010、決定部3020、第1生成部3030、及び第2生成部3040を含む。受信部3010は、3次元モデルを含むデータを受信する。受信部3010は、図1に示す受信部111に対応する。決定部3020は、第2パネルに含まれたサブピクセルに対応する視点及びその視点の映像内でサブピクセルに対応する領域を決定してもよい。第2パネルは、ペンタイルTMパネルであってもよい。決定部3020、第1生成部3030、及び第2生成部3040は、図1に示す処理部112に対応する。
決定部3020、第1生成部3030、及び第2生成部3040は、ハードウェア、ファームウェア、ソフトウェアを実行する装置、または、その組み合わせであってもよい。決定部3020、第1生成部3030、及び第2生成部3040のうち少なくとも1つは、中央処理ユニット(CPU)、デジタル信号プロセッサ(DSP)、アプリケーション特化集積回路(ASIC)、または、フィールドプログラマブルゲートアレイ(FPGA)で構成されたり、決定部3020、第1生成部3030、及び第2生成部3040のうち少なくとも1つの機能実行に特化された装置で構成されてもよい。CPU、DSP、ASIC、FGPAは、処理装置と包括的に称してもよい。
決定部3020、第1生成部3030、及び第2生成部3040のうち少なくとも1つは、格納媒体113に格納されたソフトウェアを実行するプロセッサで構成されてもよい。プロセッサは、決定部3020、第1生成部3030、及び第2生成部3040のうち少なくとも1つの機能を行う。
第1生成部3030は、3次元モデルに基づいて決定された視点及び決定された領域に対応するサブピクセル値を生成する。第2生成部3040は、生成されたサブピクセル値を第2パネルのサブピクセル構造に基づいてフィルタリングすることで、サブピクセルの値を生成してもよい。第1生成部3030によって生成されるサブピクセル値は、一般的なRGBパネルの値であり、第2生成部3040によって生成されるサブピクセルの値は、ペンタイルTMパネルの値であってもよい。
決定部3020は、サブピクセルの光線方向に基づいてサブピクセルに対応する視点及びサブピクセルに対応する領域を決定してもよい。図31を参照すると、決定部3020は、サブピクセル3110の値をレンダリングするために、サブピクセル3110の光線方向を算出してもよい。例えば、サブピクセル3110から出力された光は、光学レイヤ内の素子3120の中心を通過する方向に伝搬してもよい。決定部3020は、第2パネルと光学レイヤとの間の距離、第2パネル内のサブピクセル3110の位置、及び光学レイヤ内の素子のうち、サブピクセル3110から出力された光が通過する素子3120の位置に基づいて、サブピクセル3110の光線方向3125を算出してもよい。
決定部3020は、光線方向3125により3次元モデル3105を見るように視点を決定してもよい。決定部3020は、光線方向3125で伝搬する光が決定された視点のため、仮想カメラ3130に入射される位置に基づいてサブピクセル3110に対応する位置を決定してもよい。決定部3020は、決定された位置を含む領域3140を決定してもよい。
以上で、決定部3020がサブピクセルの光線方向に基づいてサブピクセルに対応する視点及びサブピクセルに対応する領域を決定する動作方式を説明したが、実施形態は、決定部3020が予め備えられたテーブルからサブピクセルに対応する視点及びサブピクセルに対応する領域を取得する動作方式に変形されてもよい。例えば、ディスプレイのピクセルの大きさ、解像度、光学レイヤのパラメータ、及び位置などディスプレイ関連情報が決定されている場合、各サブピクセルに対応する視点のための仮想カメラの位置、撮影方向、画角が予め決定されてもよく、これにより撮影映像内に当該サブピクセルに対応する領域も予め決定されてもよい。予め備えられたテーブルは、第2パネルのサブピクセル構造に応じて第2パネルに含まれたサブピクセルに対応する視点のための仮想カメラの位置、撮影方向、画角、及び視点映像内の当該サブピクセルに対応する領域に関する情報を格納してもよい。この場合、決定部は、予め備えられたテーブルを参照することで、サブピクセルに対応する視点のための仮想カメラ情報及びサブピクセルに対応する領域を決定することができる。
第1生成部3030は、3次元モデル3105に基づいて領域3140に対応するサブピクセル値を生成する。例えば、第1生成部3030は、3次元モデル3105に基づいて領域3140に含まれるRGBピクセル値をレンダリングしてもよい。ここで、第1生成部3030は、領域3140に含まれたサブピクセルのうちサブピクセル3110の色と同じ色のサブピクセルの値を選択的に生成してもよい。例えば、サブピクセル3110はRサブピクセルであってもよく、領域3140には、Rサブピクセル、Gサブピクセル、及びBサブピクセルが含まれてもよい。この場合、第1生成部3030は、領域3140内のRサブピクセル、Gサブピクセル、及びBサブピクセルのうちRサブピクセルの値のみを選択的に生成してもよい。
第2生成部3040は、領域3140内のサブピクセル値を第2パネルのサブピクセル構造に基づいてフィルタリングすることで、サブピクセル3110の値を生成する。例えば、第2生成部3040は、サブピクセル構造に基づいて領域3140内のサブピクセル値の加重値を決定するか、決定された加重値を読み出し、領域3140内のサブピクセル値を加重合算することで、サブピクセル3110の値を算出することができる。
図32を参照すると、一実施形態に係るライトフィールドレンダリング方法は、3次元モデルを含むデータを受信するステップS3210、第2パネルに含まれたサブピクセルに対応する視点を決定するステップS3220、その視点の映像内のサブピクセルに対応する領域を決定するステップS3230、3次元モデルに基づいて、決定された視点及び決定された領域に対応するサブピクセル値を生成するステップS3240、及び第2パネルのサブピクセル構造に基づいて領域に対応するサブピクセル値をフィルタリングすることで、第2パネルに含まれたサブピクセルの値を生成するステップS3250を含む。図32に示された各ステップには、図29〜図31を参照して説明した事項がそのまま適用されているため、より詳細な説明は省略する。
図33〜図36は、更なる実施形態に係るライトフィールドレンダリング装置を説明する図である。図33を参照すると、ライトフィールドレンダリング装置3310は、第1パネル用の立体映像3320及びユーザの両目の位置3330を用いて、第2パネル基盤ライトフィールドディスプレイ装置3340に含まれた第2パネルのサブピクセル値を生成してもよい。第1パネルは一般的なRGBパネルであり、第2パネルは第1パネルと異なるパネルであり、例えば、ペンタイルTMパネルであってもよい。ライトフィールドレンダリング装置3310は、第1パネル用の立体映像3320及びユーザの両目の位置3330を用いて、第2パネル基盤ライトフィールドディスプレイ装置3340に含まれた第2パネルのサブピクセル値を生成することで、ライトフィールドをレンダリングしてもよい。
図34を参照すると、ライトフィールドレンダリング装置3400は、第1受信部3410、第2受信部3420、決定部3430、抽出部3440、及び生成部3450を含む。第1受信部3410は第1パネル用の立体映像を受信する。第1パネル用の立体映像は、左側の目のための左側映像及び右側の目のための右側映像を含んでもよい。第2受信部3420は、ユーザの両目の位置を受信してもよい。例えば、第2受信部3420は、ユーザの両目の位置を追跡するセンサからユーザの両目の位置に関する情報を含む信号を受信してもよい。第1受信部3410及び第2受信部3420は、図1に示す受信部111に対応する。
決定部3430はユーザの両目の位置に基づいて、第2パネルに含まれたサブピクセルが左側映像又は右側映像に対応するか否かを決定する。例えば、図35を参照すると、サブピクセルの光線方向に沿って伝搬する光がユーザの右側の目よりもユーザの左側の目にさらに近く到達すると判断される場合、当該サブピクセルは左側映像に対応するものと決定されてもよい。また、サブピクセルの光線方向に沿って伝搬する光がユーザの左側の目よりもユーザの右側の目にさらに近く到達すると判断される場合、当該サブピクセルは右側映像に対応するものと決定されてもよい。
決定部3430は、サブピクセルが対応する映像内で、サブピクセルに対応する領域を決定する。例えば、決定部3430は、第2パネル内のサブピクセルの位置を把握できる。決定部3430は、第2パネル内のサブピクセルの位置をサブピクセルが対応する映像内のサブピクセルに対応する位置として決定し、決定された位置の周辺領域をサブピクセルに対応する領域として決定してもよい。
抽出部3440は、サブピクセルが対応する映像から、サブピクセルに対応する領域に含まれたサブピクセル値を抽出する。ここで、抽出部3440は、サブピクセルの色と同じ色のサブピクセル値を選択的に抽出してもよい。
生成部3450は、サブピクセルに対応する領域から抽出されたサブピクセル値を第2パネルのサブピクセル構造に基づいてフィルタリングすることで、サブピクセルの値を生成する。例えば、生成部3450は、サブピクセル構造に基づいてサブピクセル値の加重値を決定したり、決定された加重値を読み出して加重値を用いてサブピクセル値を加重合算することで、サブピクセルの値を算出することができる。
決定部3430、抽出部3440、及び生成部3450は、図1に示す処理部112に対応する。
決定部3430、抽出部3440、及び生成部3450は、ハードウェア、ファームウェア、ソフトウェアを実行する装置、または、その組み合わせであってもよい。決定部3430、抽出部3440、及び生成部3450のうち少なくとも1つは、中央処理ユニット(CPU)、デジタル信号プロセッサ(DSP)、アプリケーション特化集積回路(ASIC)、または、フィールドプログラマブルゲートアレイ(FPGA)に構成されたり、決定部3430、抽出部3440、及び生成部3450のうち少なくとも1つの機能実行に特化された装置に構成してもよい。CPU、DSP、ASIC、FGPAは処理装置と包括的に称する。
決定部3430、抽出部3440、及び生成部3450のうち少なくとも1つは、格納媒体113に格納されたソフトウェアを実行するプロセッサで構成されてもよい。プロセッサは、決定部3430、抽出部3440、及び生成部3450のうち少なくとも1つの機能を行う。
図36を参照すると、一実施形態に係るライトフィールドレンダリング方法は、第1パネル用の立体映像を受信するステップS3610、ユーザの両目の位置を受信するステップS3620、両目の位置に基づいて第2パネルに含まれたサブピクセルが左側映像又は右側映像に対応するか否かを決定するステップS3630、サブピクセルが対応する映像からサブピクセルに対応する領域に含まれたサブピクセル値を抽出するステップS3640、及び第2パネルのサブピクセル構造に基づいて抽出されたサブピクセル値をフィルタリングすることで、サブピクセルの値を生成するステップS3650を含む。図36に示された各ステップには、図33〜図35を参照して説明した事項がそのまま適用されているため、より詳細な説明は省略する。
図37〜図40は、更なる実施形態に係るライトフィールドレンダリング装置を説明する図である。図37を参照すると、ライトフィールドレンダリング装置3710は、第1パネル用の多視点映像3720及びユーザの両目の位置3730を用いて、第2パネル基盤ライトフィールドディスプレイ装置3740に含まれた第2パネルのサブピクセル値を生成してもよい。第1パネルは一般的なRGBパネルであり、第2パネルは第1パネルと異なるパネルであり、例えば、ペンタイルTMパネルであってもよい。ライトフィールドレンダリング装置3710は、第1パネル用の多視点映像3720及びユーザの両目の位置3730を用いて、第2パネル基盤ライトフィールドディスプレイ装置3740に含まれた第2パネルのサブピクセル値を生成することで、ライトフィールドをレンダリングする。
図38を参照すると、ライトフィールドレンダリング装置3800は、受信部3810、第2受信部3850、決定部3820、第2決定部3860、抽出部3830、及び生成部3840を含む。受信部3810は、第1パネル用の多視点映像を受信する。第1パネル用の多視点映像は複数の視点で構成されてもよい。第2受信部3850はユーザの両目の位置を受信する。例えば、第2受信部3850は、ユーザの両目の位置を追跡するセンサからユーザの両目の位置に関する情報を含む信号を受信してもよい。受信部3810及び第2受信部3850は、図1に示す受信部111に対応する。
第2決定部3860は、ユーザの両目の位置に基づいて、第2パネルに含まれたサブピクセルが左側の目又は右側の目に対応するか否かを決定する。例えば、図39を参照すると、サブピクセル3911の光線方向3931に沿って伝搬する光がユーザの右側の目よりもユーザの左側の目にさらに近く到達すると判断される場合、サブピクセル3911は左側映像に対応するものと決定してもよい。また、サブピクセル3912の光線方向3932に沿って伝搬する光がユーザの左側の目よりもユーザの右側の目にさらに近く到達すると判断される場合、サブピクセル3912は右側映像に対応するものと決定してもよい。
決定部3820は、サブピクセルが対応する目の位置に基づいて視点映像に含まれた複数の視点のいずれか1つの視点を選択してもよい。例えば、図39を参照すると、サブピクセル3911から出力された光は、光学レイヤの素子3921を通過してユーザの左側の目に対応する。決定部3820は、素子3921からユーザの左側の目に向かう方向3941に基づいて、多視点映像に含まれた複数の視点のうち視点3952を選択してもよい。また、サブピクセル3912から出力された光は、光学レイヤの素子3922を通過してユーザの右側の目に対応する。決定部3820は、素子3922からユーザの右側の目に向かう方向3942に基づいて、多視点映像に含まれた複数の視点の中の一の視点3953を選択してもよい。
決定部3820は、選択された視点の映像内のサブピクセルに対応する領域を決定する。例えば、決定部3820は、カメラパラメータに基づいて選択された視点の映像内のサブピクセルに対応する位置を決定し、決定された位置を含む予め決定した大きさの領域をサブピクセルに対応する領域として決定してもよい。
抽出部3830は、選択された視点の映像から、サブピクセルに対応する領域に含まれたサブピクセル値を抽出する。ここで、抽出部3830は、サブピクセルの色と同じ色のサブピクセル値を選択的に抽出してもよい。
生成部3840は、選択された視点の映像から抽出されたサブピクセル値を第2パネルのサブピクセル構造に基づいてフィルタリングすることで、サブピクセルの値を生成する。例えば、生成部3840は、サブピクセル構造に基づいて、サブピクセル値の加重値を決定するか、決定された加重値を読み出し、加重値を用いてサブピクセル値を加重合算することでサブピクセルの値を算出することができる。
決定部3820、第2決定部3860、抽出部3830、及び生成部3840は図1の処理部112に対応する。
図40を参照すると、一実施形態に係るライトフィールドレンダリング方法は、第1パネル用の多視点映像を受信するステップS4010、ユーザの両目の位置を受信するステップS4020、両目の位置に基づいて、第2パネルに含まれたサブピクセルが左側の目又は右側の目に対応するか否かを決定するステップS4030、サブピクセルに対応する目の位置に基づいて、多視点映像に含まれた複数の視点のいずれか1つの視点を選択するステップS4040、選択された視点の映像内のサブピクセルに対応する領域を決定するステップS4050、多視点映像から決定された領域に対応するサブピクセル値を抽出するステップS4060、及び第2パネルのサブピクセル構造に基づいて抽出されたサブピクセル値をフィルタリングすることで、サブピクセルの値を生成するステップS4070を含む。図40に示された各ステップには、図37〜図39を参照して説明した事項がそのまま適用されているため、より詳細な説明は省略する。
図1〜図40において、ライトフィールドレンダリング装置の構成は、組み合わせたり分離できるものと理解しなければならない。例えば、第1受信部3810と第2受信部3850は単一受信部であってもよい。
実施形態は、平板ディスプレイ(Flat Panel Display、FPD)基盤ライトフィールドディスプレイ方式を提供してもよい。実施形態は、一般的なRGBパネルのサブピクセル構造と異なるサブピクセル構造を有するペンタイルTMパネルを基盤とするライトフィールドディスプレイ方式を提供する。
実施形態は、ライトフィールドディスプレイを構成するFPDの種類を多様化し、新しいサブピクセル構造のためのライトフィールドレンダリング時にサブピクセル構造の変換演算を最小限にする技術を提供する。そのため、実施形態は、効率的にライトフィールドをレンダリングする技術を提供することができる。また、実施形態は、FPD基盤ライトフィールドディスプレイ装置でユーザの両目の位置に適するように映像を表現するレンダリングアルゴリズムを提供することができる。
以上で説明された実施形態は、ハードウェア構成要素、ソフトウェア構成要素、及び/又はハードウェア構成要素及びソフトウェア構成要素の組合で実現してもよい。例えば、プロセッサ、コントローラ、ALU(arithmetic logic unit)、デジタル信号プロセッサ(digital signal processor)、マイクロコンピュータ、FPA(field programmable array)、PLU(programmable logic unit)、マイクロプロセッサー、または、命令(instruction)を実行して応答できる異なる装置のように、1つ以上の汎用コンピュータまたは特殊目的のコンピュータを用いて実現されてもよい。処理装置は、オペレーティングシステム(OS)及び前記オペレーティングシステム上で行われる1つ以上のソフトウェアアプリケーションを行ってもよい。また、処理装置は、ソフトウェアの実行に応答してデータをアクセス、格納、操作、処理及び生成してもよい。理解の便宜のために、処理装置は1つ使用されるものと説明される場合もあるが、当該の技術分野で通常の知識を有する者は、処理装置が複数の処理要素(processing element)及び/又は複数類型の処理要素を含んでいることが分かる。例えば、処理装置は、複数のプロセッサまたは1つのプロセッサ及び1つのコントローラを含んでもよい。また、並列プロセッサ(parallel processor)のような、他の処理構成も可能である。
ソフトウェアはコンピュータプログラム、コード、命令、またはこのうちの1つ以上の組合せを含んでもよく、希望の通りに動作するよう処理装置を構成したり独立的または結合的に処理装置を命令してもよい。ソフトウェア及び/又はデータは、処理装置によって解釈されたり処理装置に命令またはデータを提供するためどのような類型の機械、構成要素、物理的装置、仮想装置、コンピュータ格納媒体または装置、送信される信号波に永久的または一時的に具体化できる。ソフトウェアは、ネットワークに接続されたコンピュータシステム上に分散し、分散された方法で格納されたり実行されてもよい。ソフトウェア及びデータは1つ以上のコンピュータで読み出し可能な記録媒体に格納されてもよい。
実施形態に係る方法は、多様なコンピュータ手段を介して様々な処理を実行することができるプログラム命令の形態で実現され、コンピュータで読取可能な記録媒体に記録されてもよい。コンピュータ読取可能な媒体は、プログラム命令、データファイル、データ構造などのうち1つまたはその組合せを含んでもよい。媒体に記録されるプログラム命令は、本発明の目的のために特別に設計されて構成されたものでもよく、コンピュータソフトウェア分野の技術を有する当業者にとって公知のものであり、使用可能なものであってもよい。コンピュータ読取可能な記録媒体の例としては、ハードディスク、フロッピー(登録商標)ディスク及び磁気テープのような磁気媒体、CD−ROM、DVDのような光記録媒体、光ディスクのような光磁気媒体、及びROM、RAM、フラッシュメモリなどのようなプログラム命令を保存して実行するように特別に構成されたハードウェア装置が含まれてもよい。プログラム命令の例には、コンパイラによって作られるような機械語コードだけでなく、インタープリタなどを用いてコンピュータによって実行できる高級言語コードが含まれる。前記したハードウェア装置は、本発明の動作を行うために1つ以上のソフトウェアモジュールとして動作するように構成されてもよく、その逆も同様である。
上述したように、本発明を限定された実施形態と図面によって説明したが、本発明は、上記の実施形態に限定されることなく、本発明が属する分野における通常の知識を有する者であれば、このような実施形態から多様な修正及び変形が可能である。
したがって、本発明の範囲は、開示された実施形態に限定されるものではなく、特許請求の範囲だけではなく特許請求の範囲と均等なものなどによって定められるものである。
110 ライトフィールドレンダリング装置
111 受信部
112 処理部
120 第1パネルのための映像データ
130 第2パネル基盤3次元ディスプレイ装置
501 第2パネル
502 光学レイヤ
503 光線
610 受信部
620 決定部
630 抽出部
640 生成部
710 第2パネル
711 サブピクセル
720 光学レイヤ
721 素子
730 視点
731 視点
740 映像
741 位置
742 領域
810 サブピクセル
820 光学レイヤ
821 素子
822 素子
830 視点
841 光線方向
842 光線方向
910 第2パネル
920 光学レイヤ
930 視点
1010 サブピクセル
1020 素子
1025 光線方向
1030 視点
1031 中心
1032 位置
1040 映像
1041 位置
1042 位置
1043 位置
1050 仮想カメラ
1060 仮想カメラ
1210 サブピクセル
1220 素子
1225 光線方向
1226 光線方向
1400 第1パネル用映像
1410 領域
1411 ピクセル
1510 領域
1610 サブピクセル
1620 加重値マップ
1630 サブピクセル値
1640 数式
1710 サブピクセル
1720 加重値マップ
1730 サブピクセル値
1740 数式
1810 サブピクセル
1820 加重値マップ
1830 サブピクセル値
1840 数式
1910 第1サブピクセル値
1920 第2サブピクセル値
2010 サブピクセル
2020 加重値マップ
2030 サブピクセル値
2040 数式
2110 サブピクセル
2120 加重値マップ
2130 サブピクセル値
2140 数式
2210 サブピクセル
2220 加重値マップ
2230 サブピクセル値
2240 数式
2310 サブピクセル
2320 加重値マップ
2330 サブピクセル値
2340 数式
2510 サブピクセル
2520 素子
2530 光線方向
2540 第1視点
2541 仮想カメラ位置
2550 第2視点
2551 仮想カメラ位置
2610 仮想カメラ
2730 映像
2731 第1領域
2732 サブピクセル値
2740 映像
2741 第2領域
2742 サブピクセル値
2810 第3領域
2811 サブピクセル値
2910 ライトフィールドレンダリング装置
2920 3次元モデルデータ
2930 第2パネル基盤ライトフィールドディスプレイ装置
3010 受信部
3020 決定部
3030 第1生成部
3040 第2生成部
3105 3次元モデル
3110 サブピクセル
3120 素子
3125 光線方向
3130 仮想カメラ
3140 領域
3310 ライトフィールドレンダリング装置
3320 第1パネル用の立体映像
3330 ユーザの両目の位置
3340 第2パネル基盤ライトフィールドディスプレイ装置
3400 ライトフィールドレンダリング装置
3410 第1受信部
3420 第2受信部
3430 決定部
3440 抽出部
3450 生成部
3710 ライトフィールドレンダリング装置
3720 第1パネル用の多視点映像
3730 ユーザの両目の位置
3740 第2パネル基盤ライトフィールドディスプレイ装置
3810 受信部
3820 決定部
3830 抽出部
3840 生成部
3850 第2受信部
3860 第2決定部
3911 サブピクセル
3912 サブピクセル
3921 素子
3922 素子
3931 光線方向
3932 光線方向
3941 方向
3942 方向
3952 視点
3953 視点

Claims (30)

  1. 第1パネルのための映像データを受信するステップと、
    3次元ディスプレイ装置の第2パネルの光学的特性、及び前記第2パネル内の複数のサブピクセルのサブピクセル構造に基づいて前記映像データを処理するステップと、
    を含む、ことを特徴とする映像処理方法。
  2. 前記光学的特性は、前記第2パネル内のサブピクセルの光線方向に関する特性を含む、ことを特徴とする請求項1に記載の映像処理方法。
  3. 前記光学的特性は、
    前記第2パネルと光学レイヤとの間の距離と、
    前記第2パネル内の前記複数のサブピクセルのうち少なくとも1つのサブピクセルの位置と、
    前記光学レイヤ内の光学素子のうち、前記少なくとも1つのサブピクセルから出力された光が通過する光学素子の位置と、
    のうち少なくとも1つに基づいて算出される、ことを特徴とする請求項1又は2に記載の映像処理方法。
  4. 前記第2パネルのサブピクセル構造は、
    前記第2パネル内のサブピクセルの色と、
    前記色に基づいて前記第2パネル内のサブピクセルが配置される形態と、
    前記第2パネル内の各色のサブピクセルの大きさと、
    前記第2パネル内の各色のサブピクセルの数と、
    のうち少なくとも1つを含む、ことを特徴とする請求項1乃至3のうちのいずれか一項に記載の映像処理方法。
  5. 前記第1パネルはRGBストライプパネルであり、前記第2パネルは前記RGBストライプパネルと異なるパネルである、ことを特徴とする請求項1乃至4のうちのいずれか一項に記載の映像処理方法。
  6. 前記映像データが第1パネル用の多視点映像を含み、
    前記処理するステップは、
    前記光学的特性に基づいて、前記第2パネル内の選択されたサブピクセルに対応する視点を取得するステップと、
    前記光学的特性に基づいて、前記視点の映像内の前記選択されたサブピクセルに対応する領域を取得するステップであって、前記領域は、前記選択されたサブピクセル周辺の隣接サブピクセルを含むステップと、
    前記多視点映像に基づいて、前記選択されたサブピクセル及び前記隣接サブピクセルの第1パネルサブピクセル値を抽出するステップと、
    前記第2パネルのサブピクセル構造に基づいて、前記抽出された第1パネルサブピクセル値をフィルタリングすることで、前記選択されたサブピクセルの第2パネル値を生成するステップと、
    を含む、ことを特徴とする請求項1乃至5のうちのいずれか一項に記載の映像処理方法。
  7. 前記視点を取得するステップは、予め備えられたテーブルから前記視点を取得するステップを含み、
    前記領域を取得するステップは、前記テーブルから前記領域を取得するステップを含む、ことを特徴とする請求項6に記載の映像処理方法。
  8. 前記視点を取得するステップは、
    前記選択されたサブピクセルの光線方向に基づいて、前記多視点映像内の複数の視点のいずれか1つの視点を選択するステップと、
    前記多視点映像のカメラパラメータに基づいて、前記選択された視点の映像内の前記選択されたサブピクセルに対応する位置を決定するステップと、
    を含む、ことを特徴とする請求項6又は7に記載の映像処理方法。
  9. 前記カメラパラメータは、
    複数の視点それぞれのカメラの画角と、
    前記複数の視点それぞれのカメラの撮影方向と、
    前記複数の視点それぞれのカメラと被写体との間の距離と、
    のうち少なくとも1つを含む、ことを特徴とする請求項8に記載の映像処理方法。
  10. 前記抽出された第1パネルサブピクセル値は、前記選択されたピクセルと同じ色を有する隣接ピクセルの第1パネルサブピクセル値である、ことを特徴とする請求項6乃至9のうちのいずれか一項に記載の映像処理方法。
  11. 前記前記視点を取得するステップは、
    前記選択されたサブピクセルが複数の視点に対応する場合、前記選択されたサブピクセルに対応する前記複数の視点を決定するステップと、
    前記複数の視点で前記選択されたサブピクセルに対応する複数の領域を決定するステップであって、前記複数の領域それぞれは、前記選択されたサブピクセル周辺の隣接サブピクセルを含むステップと、
    を含む、ことを特徴とする請求項6乃至10のうちのいずれか一項に記載の映像処理方法。
  12. 前記抽出するステップは、
    前記複数の領域それぞれ内の前記選択されたサブピクセルと同じ色を有する隣接サブピクセルの第1サブピクセル値を抽出するステップと、
    前記複数の領域の間で前記第1パネルサブピクセル値を補間するステップと、
    を含む、ことを特徴とする請求項11に記載の映像処理方法。
  13. 前記生成するステップは、
    前記サブピクセル構造に基づいて前記抽出された第1パネルサブピクセル値の加重値を取得するステップと、
    前記加重値を用いて、前記抽出された第1パネルサブピクセル値を加重合算することで、前記選択されたサブピクセルの前記第1パネル値を算出するステップと、
    を含む、ことを特徴とする請求項6に記載の映像処理方法。
  14. ユーザの両目の位置を取得するステップと、
    前記両目の位置に基づいて、前記選択されたサブピクセルが左側の目又は右側の目に対応するか否かを決定するステップと、
    をさらに含み、
    前記領域を決定するステップは、
    前記選択されたサブピクセルに対応する目の位置に基づいて、前記多視点映像内の複数の視点のいずれか1つの視点を選択するステップと、
    前記多視点映像のカメラパラメータに基づいて、前記選択された視点の映像内の前記選択されたサブピクセルに対応する位置を決定するステップと、
    を含む、ことを特徴とする請求項6に記載の映像処理方法。
  15. 前記映像データが3次元モデルを含み、
    前記処理するステップは、
    前記光学的特性に基づいて、前記第2パネル内の選択されたサブピクセルに対応する視点を取得するステップと、
    前記光学的特性に基づいて前記視点の映像内の前記選択されたサブピクセルに対応する領域を取得するステップであって、前記領域は、前記選択されたサブピクセル周辺の隣接サブピクセルを含むステップと、
    前記3次元モデルに基づいて、前記選択されたサブピクセル及び前記隣接サブピクセルの第1パネルサブピクセル値を生成するステップと、
    前記第2パネルのサブピクセル構造に基づいて前記生成された第1パネルサブピクセル値をフィルタリングすることで、前記選択されたサブピクセルの第1パネル値を生成するステップと、
    を含む、ことを特徴とする請求項1乃至14のうちのいずれか一項に記載の映像処理方法。
  16. 前記視点を取得するステップは、予め備えられたテーブルから前記視点を取得するステップを含み、
    前記領域を取得するステップは、前記テーブルから前記領域を取得するステップを含む、ことを特徴とする請求項15に記載の映像処理方法。
  17. 前記視点を取得するステップは、
    前記選択されたサブピクセルの光線方向に応じて前記3次元モデルを見るように前記視点を決定するステップと、
    前記光線方向に伝搬する光が前記決定された視点のための仮想カメラに入射される位置に基づいて、前記決定された視点の映像内の前記選択されたサブピクセルに対応する位置を決定するステップと、
    を含む、ことを特徴とする請求項15に記載の映像処理方法。
  18. 前記生成された値は、前記選択されたサブピクセルと同じ色を有する隣接サブピクセルの第1パネルサブピクセル値である、ことを特徴とする請求項15又は16に記載の映像処理方法。
  19. 前記生成するステップは、
    前記サブピクセル構造に基づいて前記生成された第1パネルサブピクセル値の加重値を取得するステップと、
    前記加重値を用いて、前記生成された第1パネルサブピクセル値を加重合算することで、前記選択されたサブピクセルの第2パネル値を算出するステップと、
    を含む、ことを特徴とする請求項15乃至18のうちのいずれか一項に記載の映像処理方法。
  20. 前記映像データが第1パネル用の立体映像を含む場合、ユーザの両目の位置を取得するステップをさらに含み、
    前記処理するステップは、
    前記両目の位置に基づいて、第2パネル内の選択されたサブピクセルが左側映像又は右側映像に対応するか否かを決定するステップと、
    前記選択されたサブピクセルが対応する映像から、前記選択されたサブピクセルに対応する領域内の第1パネルサブピクセル値を抽出するステップと、
    前記第2パネルのサブピクセル構造に基づいて、前記抽出された第1パネルサブピクセル値をフィルタリングすることで、前記選択されたサブピクセルの第2パネル値を生成するステップと、
    を含む、ことを特徴とする請求項1乃至19のうちのいずれか一項に記載の映像処理方法。
  21. 前記選択されたサブピクセルの光線方向に沿って伝搬する光が前記ユーザの右側の目よりも前記ユーザの左側の目にさらに近く到達する場合、前記選択されたサブピクセルは前記左側映像に対応し、
    前記光が前記左側の目よりも前記右側の目にさらに近く到達する場合、前記選択されたサブピクセルは前記右側映像に対応する、ことを特徴とする請求項20に記載の映像処理方法。
  22. 前記抽出された第1パネルサブピクセル値は、前記選択されたサブピクセルと同じ色を有する隣接サブピクセルの第1パネルサブピクセル値である、ことを特徴とする請求項20又は21に記載の映像処理方法。
  23. 前記生成するステップは、
    前記サブピクセル構造に基づいて前記抽出された第1パネルサブピクセル値の加重値を取得するステップと、
    前記加重値を用いて、前記抽出された第1パネルサブピクセル値を加重合算することで、前記選択されたサブピクセルの第2パネル値を算出するステップと、
    を含む、ことを特徴とする請求項20乃至22のうちのいずれか一項に記載の映像処理方法。
  24. 請求項1〜請求項23のいずれか一項に記載の方法を実行させるためのプログラムが記録されたコンピュータ読み出し可能な記録媒体。
  25. 第1パネルのための映像データを受信する受信部と、
    3次元ディスプレイ装置の第2パネルの光学的特性、及び前記第2パネル内複数のサブピクセルのサブピクセル構造に基づいて前記映像データを処理する処理部と、
    を含む、ことを特徴とする映像処理装置。
  26. 第1サブピクセル構造を有する第1パネル内の選択されたサブピクセルのサブピクセル値を生成する方法において、
    前記第1サブピクセル構造と異なる第2サブピクセル構造を有する第2パネルに関する映像データを取得するステップと、
    前記選択されたサブピクセルに対応する視点に基づいて、少なくとも一部の映像データを前記選択されたサブピクセルのサブピクセル値に変換することで前記映像データを処理するステップと、
    を含む、ことを特徴とする方法。
  27. 前記処理するステップは、
    前記映像データに基づいて前記選択されたサブピクセルに対応する前記視点を決定するステップであって、前記視点は映像に関するステップと、
    前記映像内の選択されたサブピクセルに対応する領域を決定するステップであって、前記サブピクセル値は前記領域に基づくステップと、
    を含む、ことを特徴とする請求項26に記載の方法。
  28. 前記処理するステップは、
    前記領域に基づいて第2パネルサブピクセルのサブピクセル値を決定するステップと、
    前記第2パネルサブピクセルの前記サブピクセル値に基づいて、前記選択されたサブピクセルのサブピクセル値を決定するステップと、
    を含む、ことを特徴とする請求項27に記載の方法。
  29. 前記第2パネルサブピクセルは前記選択されたサブピクセルを取り囲む、ことを特徴とする請求項28に記載の方法。
  30. 前記第1パネルは3次元ディスプレイ装置のために構成される、ことを特徴とする請求項26乃至29のうちいずれか一項に記載の方法。
JP2015141193A 2014-08-18 2015-07-15 映像処理方法及び装置 Active JP6681675B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2014-0107172 2014-08-18
KR1020140107172A KR102240568B1 (ko) 2014-08-18 2014-08-18 영상 처리 방법 및 장치

Publications (2)

Publication Number Publication Date
JP2016042689A true JP2016042689A (ja) 2016-03-31
JP6681675B2 JP6681675B2 (ja) 2020-04-15

Family

ID=53793978

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015141193A Active JP6681675B2 (ja) 2014-08-18 2015-07-15 映像処理方法及び装置

Country Status (5)

Country Link
US (1) US9936192B2 (ja)
EP (1) EP2988497B1 (ja)
JP (1) JP6681675B2 (ja)
KR (1) KR102240568B1 (ja)
CN (1) CN105376545B (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017229067A (ja) * 2016-06-23 2017-12-28 トムソン ライセンシングThomson Licensing 少なくとも1つのライトフィールドカメラにより一対の立体画像を生成する方法及び装置
JP6264493B1 (ja) * 2017-05-19 2018-01-24 大日本印刷株式会社 表示装置
JP6308323B1 (ja) * 2017-08-08 2018-04-11 大日本印刷株式会社 表示装置
WO2018199252A1 (ja) * 2017-04-28 2018-11-01 大日本印刷株式会社 表示装置
JP2018189742A (ja) * 2017-04-28 2018-11-29 大日本印刷株式会社 表示装置

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160381274A1 (en) * 2015-06-25 2016-12-29 Novatek Microelectronics Corp. Image Sensing Module
EP3420535B1 (en) * 2016-02-26 2022-09-07 University Of Southern California Optimized volumetric imaging with selective volume illumination and light field detection
US10565780B2 (en) * 2016-11-28 2020-02-18 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium
DE102017106033A1 (de) 2017-03-21 2018-09-27 Osram Opto Semiconductors Gmbh Anzeigevorrichtung
DE102017117540A1 (de) 2017-08-02 2019-02-07 Osram Opto Semiconductors Gmbh Lichtemittierender Halbleiterchip und Anzeigevorrichtung
DE102017123402A1 (de) * 2017-10-09 2019-04-11 Osram Opto Semiconductors Gmbh Optoelektronisches Modul und Anzeigeelement
DE102018107628B4 (de) * 2018-03-29 2022-09-29 OSRAM Opto Semiconductors Gesellschaft mit beschränkter Haftung Strahlungsemittierende vorrichtung
JP7188981B2 (ja) * 2018-11-05 2022-12-13 京セラ株式会社 3次元表示装置、3次元表示システム、ヘッドアップディスプレイ、及び移動体
KR102154263B1 (ko) * 2018-12-28 2020-09-09 세종대학교산학협력단 시분할 라이트 필드 기술을 이용한 3 차원 증강 현실 디바이스의 해상도 및 주사율 향상 방법
KR20220067950A (ko) 2020-11-18 2022-05-25 삼성전자주식회사 디스플레이 장치 및 그의 제어 방법

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7274383B1 (en) 2000-07-28 2007-09-25 Clairvoyante, Inc Arrangement of color pixels for full color imaging devices with simplified addressing
US7123277B2 (en) 2001-05-09 2006-10-17 Clairvoyante, Inc. Conversion of a sub-pixel format data to another sub-pixel data format
US7825921B2 (en) 2004-04-09 2010-11-02 Samsung Electronics Co., Ltd. System and method for improving sub-pixel rendering of image data in non-striped display systems
JP2007081562A (ja) * 2005-09-12 2007-03-29 Toshiba Corp 立体画像表示装置、立体画像表示プログラムおよび立体画像表示方法
GB0716776D0 (en) 2007-08-29 2007-10-10 Setred As Rendering improvement for 3D display
KR101587606B1 (ko) 2009-09-07 2016-01-25 삼성디스플레이 주식회사 데이터 처리 장치, 이를 갖는 표시 시스템 및 데이터 처리 방법
JP4478992B1 (ja) 2009-09-18 2010-06-09 健治 吉田 映像変換装置、映像出力装置、映像変換システム、映像、記録媒体、映像変換方法
KR101629479B1 (ko) * 2009-11-04 2016-06-10 삼성전자주식회사 능동 부화소 렌더링 방식 고밀도 다시점 영상 표시 시스템 및 방법
JP5306275B2 (ja) * 2010-03-31 2013-10-02 株式会社東芝 表示装置及び立体画像の表示方法
KR101675961B1 (ko) * 2010-12-29 2016-11-14 삼성전자주식회사 적응적 부화소 렌더링 장치 및 방법
KR101953686B1 (ko) 2011-11-30 2019-05-23 삼성전자주식회사 부화소를 렌더링하는 영상 처리 장치 및 방법
KR20130070303A (ko) 2011-12-19 2013-06-27 한국전자통신연구원 다시점 무안경 입체영상 렌더링 방법 및 그 장치
JP5752638B2 (ja) * 2012-04-26 2015-07-22 株式会社東芝 画像処理装置、方法、及びプログラム、並びに、立体画像表示装置
KR101944911B1 (ko) 2012-10-31 2019-02-07 삼성전자주식회사 영상 처리 방법 및 영상 처리 장치
US9118890B2 (en) * 2012-11-09 2015-08-25 Samsung Display Co., Ltd. 3D display
KR20130014459A (ko) 2012-12-15 2013-02-07 최수영 썸스터드 폴딩 시리얼버스 메모리

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017229067A (ja) * 2016-06-23 2017-12-28 トムソン ライセンシングThomson Licensing 少なくとも1つのライトフィールドカメラにより一対の立体画像を生成する方法及び装置
WO2018199252A1 (ja) * 2017-04-28 2018-11-01 大日本印刷株式会社 表示装置
JP2018189742A (ja) * 2017-04-28 2018-11-29 大日本印刷株式会社 表示装置
JP6264493B1 (ja) * 2017-05-19 2018-01-24 大日本印刷株式会社 表示装置
JP2018194806A (ja) * 2017-05-19 2018-12-06 大日本印刷株式会社 表示装置
JP2018194814A (ja) * 2017-05-19 2018-12-06 大日本印刷株式会社 表示装置
JP2022070877A (ja) * 2017-05-19 2022-05-13 大日本印刷株式会社 表示装置
JP7067049B2 (ja) 2017-05-19 2022-05-16 大日本印刷株式会社 表示装置
JP7215612B2 (ja) 2017-05-19 2023-01-31 大日本印刷株式会社 表示装置
JP6308323B1 (ja) * 2017-08-08 2018-04-11 大日本印刷株式会社 表示装置
JP2019032434A (ja) * 2017-08-08 2019-02-28 大日本印刷株式会社 表示装置

Also Published As

Publication number Publication date
CN105376545B (zh) 2019-04-05
US9936192B2 (en) 2018-04-03
KR102240568B1 (ko) 2021-04-16
EP2988497B1 (en) 2022-01-12
JP6681675B2 (ja) 2020-04-15
CN105376545A (zh) 2016-03-02
US20160050409A1 (en) 2016-02-18
EP2988497A1 (en) 2016-02-24
KR20160021968A (ko) 2016-02-29

Similar Documents

Publication Publication Date Title
JP6681675B2 (ja) 映像処理方法及び装置
JP6886253B2 (ja) 複数のユーザのためのレンダリング方法及び装置
TWI670521B (zh) 近眼顯示系統、演現系統及在近眼顯示系統中使用之方法
KR101944911B1 (ko) 영상 처리 방법 및 영상 처리 장치
US8503764B2 (en) Method for generating images of multi-views
US20100033479A1 (en) Apparatus, method, and computer program product for displaying stereoscopic images
KR20120075829A (ko) 적응적 부화소 렌더링 장치 및 방법
KR20130061042A (ko) 부화소를 렌더링하는 영상 처리 장치 및 방법
JP6406853B2 (ja) 光フィールド映像を生成する方法及び装置
US9477305B2 (en) Stereoscopic image display apparatus and computer-readable recording medium storing program thereon
JP4928476B2 (ja) 立体像生成装置、その方法およびそのプログラム
JP2014131266A (ja) 深さ情報を取得する方法及びディスプレイ装置
JP2015070618A (ja) ユーザの目の位置に基づくレイヤードディスプレイ方式のための映像生成装置及びディスプレイ装置
JP6717576B2 (ja) 映像レンダリング装置及び方法
CN109782452B (zh) 立体影像产生方法、成像方法与***
US20140362197A1 (en) Image processing device, image processing method, and stereoscopic image display device
WO2014119555A1 (ja) 画像処理装置、表示装置及びプログラム
JP5746908B2 (ja) 医用画像処理装置
JP2016224656A (ja) 視点位置用要素画像生成装置およびそのプログラム、ならびに、インテグラル立体シミュレーションシステム
KR102608466B1 (ko) 영상 처리 방법 및 영상 처리 장치
KR20150039060A (ko) 사용자의 눈의 위치에 기초하는 레이어드 디스플레이 기법을 위한 영상 생성 장치 및 디스플레이 장치
JP6025519B2 (ja) 画像処理装置および画像処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180702

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190823

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190903

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200310

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200324

R150 Certificate of patent or registration of utility model

Ref document number: 6681675

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250