JP5238887B2 - 多視点画像生成方法および装置 - Google Patents

多視点画像生成方法および装置 Download PDF

Info

Publication number
JP5238887B2
JP5238887B2 JP2011532839A JP2011532839A JP5238887B2 JP 5238887 B2 JP5238887 B2 JP 5238887B2 JP 2011532839 A JP2011532839 A JP 2011532839A JP 2011532839 A JP2011532839 A JP 2011532839A JP 5238887 B2 JP5238887 B2 JP 5238887B2
Authority
JP
Japan
Prior art keywords
image
viewpoint
viewpoint image
depth value
shift
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011532839A
Other languages
English (en)
Other versions
JPWO2011036761A1 (ja
Inventor
快行 爰島
明 森下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Publication of JPWO2011036761A1 publication Critical patent/JPWO2011036761A1/ja
Application granted granted Critical
Publication of JP5238887B2 publication Critical patent/JP5238887B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/27Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving lenticular arrays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/27Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving lenticular arrays
    • G02B30/29Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving lenticular arrays characterised by the geometry of the lenticular array, e.g. slanted arrays, irregular arrays or arrays of varying shape or size
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Geometry (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Description

本発明は、多視点画像の生成方法に関する。
従来から、インテグラルイメージング方式などにより多視点画像を用いて立体画像を表示させる場合、多視点画像を構成する複数の単視点画像をタイル状に配置して1の中間画像を形成する。中間画像に対して符号化などの処理を施す。表示の際には、中間画像の画素配列を並べ替えて、単視点画像の位置が対応する画素に対してインターリーブされた多視点合成画像に変換する(特許文献1)。この手法は、CG(コンピュータグラフィックス)の立体画像を描画する際にも用いて好適である(特許文献2)。
CGを描画するには、予めオブジェクトを描画した多視点画像を四角形ポリゴンに貼り付けて、複数の視点からリアルタイムに描画する(特許文献3)。
特許第3358466号公報 特開2009−75869号公報 特開2009−80578号公報
しかし、複数の視点における複数の単視点画像を、多視点画像の各タイルに描画する処理が発生する。立体画像として表示するオブジェクトの数が増加するに連れ、当該オブジェクトの単視点画像が増加してタイル状の多視点画像への描画回数が増加し、多視点画像の描画速度が遅くなってしまう。
本発明は、上記に鑑みてなされたものであって、多視点画像の描画をより高速に行うことができる多視点画像生成方法および装置を提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明は、合成部が、複数の画像それぞれに対応付けられた、画像の奥行き方向の位置を示すデプス値に基づき、複数の画像のうちデプス値が同一の画像を1の画像に合成する合成ステップと、シフト部が、合成ステップで合成された画像を、それぞれ異なる視差を与える複数の視点毎に、視点と画像に対応するデプス値とに応じたシフトベクトルに従い、シフトベクトルが示す方向および量でシフトさせて視差を与えた画像を生成するシフトステップと、生成部が、シフトステップでシフトされた複視差を与えた画像を予め決められたフォーマットで配置した多視点画像を生成する生成ステップとを有することを特徴とする。
本発明によれば、単多視点画像の描画をより高速に行うことができるという効果を奏する。
本実施形態に適用可能な表示部の構造。 多視点画像の説明。 単視点画像上のオブジェクトの例。 単視点画像上のオブジェクトの例。 単視点画像上のオブジェクトの例。 多視点スプライト。 単視点スプライト。 単視点スプライトの別の例。 オブジェクトを縦横方向にシフトさせた画像を生成する方法。 単視点スプライトによる複数オブジェクトの描画。 単視点スプライトによる複数オブジェクトの描画。 単視点スプライトによる複数オブジェクトの描画。 単視点スプライトによる複数オブジェクトの描画。 単視点スプライトによる複数オブジェクトの描画。 本実施形態による画像処理装置の機能を示すブロック図。 オブジェクトの配置位置とデプス値との関係。 シフト情報テーブルの説明。 本実施形態による画像処理装置のハードウェア構成。 本実施形態による単視点画像の合成処理のフローチャート。 本実施形態による単視点画像の合成処理のフローチャート。 本実施形態による単視点画像の合成処理。 本実施形態による単視点画像の合成処理。 本実施形態による単視点画像の合成処理。
以下に添付図面を参照して、この発明に係る画像処理方法の一実施の形態を詳細に説明する。先ず、本実施の形態に係る多視点画像生成方法により生成された多視点画像を表示可能な立体画像表示装置について説明する。
図1は、本実施の形態に係る多視点画像生成方法により生成された多視点画像を表示可能な立体画像表示装置における表示部300の構造の一例を概略的に示した斜視図である。ここでは、視点数n=9として説明する。図1に例示されるように、表示部300は、表示デバイス301と、当該表示デバイス301の表示面の前面に配置された光線制御素子としてのレンチキュラー板304とを備える。表示デバイス301としては、例えばLCD(Liquid Crystal Display)を用いることができる。
表示デバイス301の表示面には、縦横比が3:1のサブ画素302が横方向に直線状に1行に並んでいる。各サブ画素302は同一行内で横方向に赤(R)、緑(G)、青(B)が交互に並ぶようにマトリクス状に配列されている。一方、サブ画素302は、垂直方向にも直線上に一列に並んでいる。各サブ画素302は、同一列内でR、G、Bが交互に並ぶように配列されている。なお、サブ画素行の縦周期(3Pp)は、サブ画素302の横周期Ppの3倍である。
一般的なカラー画像表示装置において1実効画素は、横に並んだRGBの3個のサブ画素302を有する。輝度と色とが任意に設定できる最小単位が構成されることから、サブ画素302は縦横比が3:1となっている。図1の表示面では、縦に並んだRGBの3個のサブ画素302で1実効画素が構成され、水平方向に隣接する9の実効画素で、1の単位画素群303(図1において枠を付して示す)が構成される。
なお、単位画素群303は、多視点画像を構成する複数の単視点画像における同一位置の画素による画像が表示される画素群である。すなわち、単位画素群303は、視差を発生させる1組の画素データが表示される。
レンチキュラー板304を構成するシリンドリカルレンズ305は、単位画素群303のほぼ正面に配置される。なお、図1の例では、シリンドリカルレンズ305の水平ピッチ(Ps)は、表示面内に配列されたサブ画素の横周期(Pp)の9倍となっている。このような構成により、シリンドリカルレンズ越しに拡大されて見えるサブ画素302が、水平位置の観察位置の変動に応じて切り替わる。各単位画素群303に表示される多視点合成画像の見え方が切り替わることで、観察者に立体映像を視認させることができる。なお、ここでいう多視点合成画像は、複数の単視点画像の位置が対応する画素に対してインターリーブされて1の画像とされたものをいう。
図2を用いて、図1に例示した構造の表示部300に表示させる多視点画像について説明する。図2は、視点数n=9である多視点画像の例である。多視点画像は、それぞれ異なる視点#0〜#8による単視点画像を所定フォーマット(例えばタイル状)に配置した中間画像である。中間画像における単視点画像の配置は、図2に例示されるタイル状に限られない。例えば、各単視点画像を一列に並べてもよい。多視点画像を構成する複数の単視点画像を一纏まりに扱うことができれば、他の配置でもよい。
多視点画像の符号化、記憶、伝送および復号などの処理は、この中間画像に対して行われる。1の多視点画像を構成する各視点の単視点画像をタイル状に配置した中間画像は、画像の空間的な相関を利用した圧縮符号化方式(例えばMPEG(Moving Pictures Experts Group)方式やJPEG(Joint Photographic Experts Group)方式)の適用が可能となる。各タイルにおける同一位置の画素201A〜201Iを、1の単位画素群303内の9の実効画素(図1)にそれぞれ表示させる。
図3A〜図3Cを用いて、単視点画像上のオブジェクトの例について概略的に説明する。図3Aに例示される単視点画像260は、画像情報を、画素毎に輝度Yおよび色差UV成分、あるいは、三原色RGBによる各色成分として持つと共に、属性情報Aを持つ。属性情報Aは、画素毎に、不透明度を示すα値を含む。α値は、その範囲を0≦α≦1とするとき、値が0でその画素が透明であり、値が1でその画素が完全に不透明であることを示す。図3Aの例では、オブジェクト261は、構成する画素のα値が0以外の値、例えば1に設定される。単視点画像210のオブジェクト261以外の領域262の画素は、α値が0に設定され透明領域となっている。
このα値を用いて、画像の合成を行う。例えば、画像情報が輝度Yおよび色差UV成分で表現され、前景である第1の画像の画素nの輝度を輝度Y1とし、当該画素に所定のα値が設定されているものとする。また、背景である第2の画像における、画素nに位置が対応する画素mの輝度を輝度Y2とする。第1の画像と第2の画像とを合成した際の、画素nおよび画素mが合成された輝度Yは、0≦α≦1とするとき、例えば下記の式(1)のように求められる。このような、α値を用いた画像の合成を、アルファブレンディングと呼ぶ。
Y=(1−α)×Y2+α×Y1 …(1)
図3Bは、α値が0に設定されている画素による領域を持つ複数の単視点画像260および263を重ねて合成する例を示す。手前側の単視点画像260は、オブジェクト261を構成する画素がα=1とされ、オブジェクト261以外の領域262の画素がα=0とされる。単視点画像263についても同様に、オブジェクト264を構成する画素がα=1とされ、それ以外の領域265の画素がα=0とされている。
図3Cは、図3Bに例示する単視点画像260および263を合成した例を示す。合成された単視点画像266に対して、合成前の単視点画像260のオブジェクト261が配置される。それと共に、単視点画像260に対して背面側から合成される単視点画像263のオブジェクト264が、手前側の単視点画像260(合成前)における透明領域262を透過して単視点画像266に配置される。
CGによる多視点画像をタイル状に描画する第1〜第3の方法について、詳細に説明する。第1の方法は、ポリゴンメッシュなどによって表現されたオブジェクト(キャラクタ)を、複数の視点からリアルタイムに描画する。ポリゴンの形状をリアルタイムで変えることで、インタラクティブな表示が可能である。この方法は、家庭用ゲームソフトなどの高いインタラクティビティが要求されるアプリケーションに適している。一方で、処理量が多いためリアルタイムすなわち限られた時間内に高画質な多視点画像を描画することが難しい。
第2の方法は、図4に例示するように、四角形ポリゴンに対して予め作成された多視点画像を貼り付けて、複数の視点からリアルタイムに描画する。各視点の描画は、多視点画像から該当する視点に対応する画像が選択されて、四角形ポリゴンにテクスチャとして貼り付けられる。すなわち、視点によって異なるテクスチャが四角形ポリゴンに貼り付けられる。この第2の方法を、多視点スプライトと呼ぶ。
多視点スプライトは、ユーザの操作に応じてキャラクタの動作を変えるなどのインタラクティビティを表現するには適していない。一方で、作り込まれた高画質な多視点画像を高速に描画することができ、ムービーなどの用途に適している。この多視点スプライトでは、各視点の画像の各画素に異なる視差を付けることができるため、多視点画像に描画されるオブジェクトの立体感(膨らみや凹み)を再現することが可能である。一方で、事前に描画した多視点画像を全てメモリに記憶しておく必要があるため、大容量のメモリを必要とする。
第3の方法は、図5に例示するように、予め作成した1の単視点画像を四角形ポリゴンに貼り付けて、複数の視点からリアルタイムに描画する。各視点の描画においては、ある1の視点(典型的には中央の視点)から描画された単視点画像が四角形ポリゴンにテクスチャとして貼り付けられる。すなわち、全ての視点において同じテクスチャが四角形ポリゴンに貼り付けられる。この第3の方法を、単視点スプライトと呼ぶ。
この単視点スプライトでは、各視点における画像の全ての画素が同一の視差となる。多視点画像により表示されるオブジェクト自体の立体感を再現することはできない。しかし、単視点スプライトでは、オブジェクト全体の平面的な奥行き、すなわち、3次元空間に画像面として配置するときのデプス(奥行き)を表現することが可能である。また、単視点スプライトは、多視点スプライトに比べてメモリ消費量が少なくて済む。
アミューズメント施設の遊技機などで用いるコンテンツでは、予め多数のオブジェクトを別々の画像として描画しておき、それらを任意のタイミングで重ね合わせて観察者へ提示することにより、インタラクティビティを表現している。
このようなコンテンツを、インテグラルイメージング方式(以下、II方式と略称する)などによる立体画像表示装置に表示する方法として、多視点スプライトを用いる方法が考えられる。しかし、既に述べたように、多視点スプライトはメモリ消費量が多い。多数のオブジェクトを全て多視点スプライトで描画すると、多くのメモリを消費するため現実的ではない。一方、多くのコンテンツにおいて、必ずしも全てのオブジェクトを立体的に表示する必要はない。したがって、例えばコンテンツを盛り上げたい場面で観察者の方向に飛び出して表示させたいオブジェクトだけを多視点スプライトで描画し、それ以外のオブジェクトを単視点スプライトで描画し、メモリ消費量と高いインタラクティビティを両立することができる。
<本発明の実施の形態>
次に、本発明の一実施形態について説明する。第3の方法による単視点スプライトの描画方法を実現するために、3次元CGを描画可能なLSIを用いる。すなわち、単視点画像を四角形ポリゴンに貼り付けて水平方向に順次ずらして描画する処理を高速に行うために、3次元CG用のLSIによりハードウェア的に行う。近年では、例えば大部分の家庭用ゲーム機器には3次元CG用のLSIが搭載されているので、図5を用いて説明した単視点スプライトと同等の描画に3次元CG用のLSIを用いることが可能である。
一方、アミューズメント施設に設置される遊技機などには、より低コストで低消費電力な2次元CG用のLSIが搭載されていることが多い。本実施の形態では、このような2次元CG用のLSIでも単視点スプライトによる描画を行うことを可能とする。図6に例示するように、予め描画した1の単視点画像210を縦横方向にシフトさせて、タイル状の多視点画像211における各視点#0〜#8によるタイル212A〜212Iにそれぞれコピーする。
視点(コピー先のタイル)、ならびに、単視点画像210によるオブジェクトを配置するデプス量(奥行き方向の位置)によってシフトの方向とシフト量とを変える。これにより、タイルにコピーされた単視点画像に対し、図5の如く3次元CG用LSIを用いて異なる視点から描画する場合と同様の視差を与えることができる。この、本実施形態による単視点スプライトを、以下では、2次元単視点スプライトと呼ぶ。
図6を用いて説明したような、単視点画像210によるオブジェクトを縦横方向にシフトさせた画像を生成する一例の方法について、図7を用いて説明する。各タイル212A〜212Iのそれぞれよりも大きなサイズで中央の視点からの単視点画像250を作成しておく。当該単視点画像250からタイルの大きさの画像を切り抜いて、切り抜いた画像をタイルにコピーする。画像を切り抜く際に、切り抜く位置を各視点#0〜#8に応じて縦横方向にずらすことで、同一の画像を異なる視点から描画した画像を得ることができる。画像における有効な表示範囲を移動させることで、画像のシフトを行う。
表示部300が水平方向の視差に対応している場合、図7に例示されるように、タイルより水平方向にサイズの大きい単視点画像250の中央部分から、タイルの大きさの画像251を切り抜く。中央視点の単視点画像210を得ることができる。また、単視点画像250の中心から水平方向(この例では右方向)に、視点およびデプス量に応じたベクトルv1だけシフトさせた位置を中心としてタイルの大きさの画像252を切り抜く。水平方向に視点がシフトされた単視点画像を得る。こうして得られた単視点画像を、それぞれ各タイル212A〜212Iのうち対応する視点のタイルにコピーする。
同様に、タイルより垂直方向にサイズが大きい単視点画像の中心から、垂直方向に、視点およびデプス量に応じたベクトルだけシフトさせた位置を中心としてタイルの大きさの画像を切り抜く。垂直方向に視点がシフトされた単視点画像を得ることができる。この場合は、垂直方向の視差に対応できる。また、この垂直方向に視点がシフトされた単視点画像の生成方法と、上述した水平方向に視点がシフトされた単視点画像の生成方法とを組み合わせることで、任意の方向の視差に対応可能にできる。
ここで、この本実施形態による2次元単視点スプライトによる描画を複数のオブジェクトに対して行う場合について、図8〜図12を用いて説明する。例えば中央の視点の画像(オブジェクト)が予め描画された複数の単視点画像のそれぞれを、タイル状の多視点画像の各タイルに対し、デプス量および視点に応じてそれぞれシフトさせてコピーする。
ここで、図8〜図12において、中央の視点による各単視点画像230A〜230Eは、互いに異なるオブジェクトが描画され、オブジェクト以外の領域はα=0とされ透明とされていると共に、それぞれデプス量が設定されている。
先ず、図8に例示されるように、単視点画像230Aをデプス量および視点#0〜#8に応じてそれぞれシフトさせて、タイル状の多視点画像231の各タイル232A〜232Iに対してそれぞれコピーする。次に、図9に例示されるように、単視点画像230Bをデプス量および視点#0〜#8に応じてそれぞれシフトさせて、タイル状の多視点画像231の各タイル232A〜232Iに対してコピーする。このとき、各タイル232A〜232Iに対してコピーする各画像が、当該各タイル232A〜232Iに既にコピーされている各画像に対して、α値に基づきアルファブレンディングにより合成される。単視点画像230C〜230Eについても、図10〜図12にそれぞれ例示されるように、同様にしてデプス量に応じてシフトさせて、タイル状の多視点画像の各タイルに対してそれぞれコピーおよび合成する。
なお、多視点画像230A〜230Eが互いに同期した動画像であれば、上述した多視点画像230A〜230Eそれぞれから、タイル状の多視点画像の各タイルに対するコピーは、少なくとも動画像の1フレーム周期以内で完了する必要がある。
このように、本実施の形態による2次元単視点スプライトは、元の画像からタイルにコピーする画像を切り抜く位置を、視点およびデプス量に応じてずらす。2次元CG用LSIでも容易に実現可能である。その一方で、この2次元単視点スプライトでも、表示させるオブジェクト数が増えるのに従い単視点画像のコピー回数が増加する課題がある。したがって、表示させるオブジェクトが多くなると、多視点画像の描画速度が遅くなってしまう。例えば、表示に遅延を来したり、システムの負荷が大きくなったりするおそれがある。
そこで、本実施の形態では、同じデプスに配置されるオブジェクトが、各視点において同じ方向に、同じ量だけシフトされることに着目する。同じデプスに配置されるオブジェクトの単視点画像を1枚の画像に合成した後、その合成された1枚の画像をデプス量および視点に応じてシフトさせて、タイル状の多視点画像の各タイルにコピーする。これにより、単視点画像のコピー回数を大幅に削減し、より描画速度を向上させることが可能となる。
次に、このような処理を行うための、本実施形態による画像処理方法について説明する。図13は、本実施形態による多視点画像生成方法を実行する多視点画像生成装置100の機能を示す一例の機能ブロック図である。図13に例示されるように、多視点画像生成装置100は、入力部110、単視点画像記憶部111、デプス情報記憶部112、単視点画像合成部113、シフト情報取得部114、シフト情報記憶部115、複数の単視点画像シフト部116、多視点画像記憶部117、提示部118および制御部119を備える。制御部119は、この多視点画像生成装置100の各部を制御する。
予めオブジェクトが描画された複数の単視点画像と、各オブジェクトのデプス量を示すデプス値とが入力部110に対して入力される。単視点画像およびデプス値は、ハードディスクや揮発性または不揮発性のメモリから入力部110に対して入力されてもよいし、カメラなどの画像生成装置から入力されるようにもできる。画像再生装置などのデコーダを介して入力されるようにしてもよい。また、単視点画像およびデプス値は、互いの対応関係が明確であれば、それぞれ別個のデータとして入力することができる。勿論、デプス値を、対応する単視点画像の属性情報Aに含めて入力してもよい。
ここで、図14を用いて、各オブジェクトの配置位置とデプス値との関係について、概略的に説明する。図14に示されるように、単視点画像270A、270Bおよび270Cのそれぞれに対して、オブジェクト271A、271Bおよび271Cが描画される。図14の例では、オブジェクト271Aが最も手前側に配置され、オブジェクト271Cが最も奥側に配置される。オブジェクト271Bは、オブジェクト271Aおよび271Cの間に配置される。このような場合に、最も手前側に配置されるオブジェクト271Aのデプス量が最も小さく、最も小さい値のデプス値が設定される。また、奥側に向かうに連れ、デプス量が大きくなりより大きい値のデプス値が設定される。
入力部110に入力された複数の単視点画像は、単視点画像記憶部111に記憶される。各単視点画像は、描画されているオブジェクトのデプス値が、奥側を先頭として手前側へ向けて配置順に並ぶように整列されて単視点画像記憶部111に記憶される。これに限らず、手前側を先頭として奥側に向けてデプス値が並ぶように、各単視点画像を記憶してもよい。
例えば、デプス値に従った順番で入力部110に対して単視点画像を入力するように、予め決めておく。これに限らず、入力部110が単視点画像記憶部111のアドレス制御を行うようにし、入力された単視点画像を、デプス値に応じたアドレスに記憶させるようにもできる。
一方、入力部110に入力された複数のデプス値は、デプス情報記憶部112に記憶される。各デプス値は、描画されているオブジェクトのデプス値が、奥側を先頭として手前側へ向けて配置順に並ぶように整列されてデプス情報記憶部112に記憶される。これに限らず、手前側を先頭として奥側に向けてデプス値が並ぶようにしてもよい。
すなわち、各デプス値は、デプス情報記憶部112において、デプス値の大小に応じてソートされて記憶される。このとき、各デプス値の並び順が、上述した単視点画像記憶部111におけるオブジェクトの配置順と対応するようにソートされる。換言すれば、デプス値は、デプス情報記憶部112における並び順によって、単視点画像記憶部111に記憶される複数の単視点画像のそれぞれと対応付けられる。
単視点画像合成部113は、単視点画像記憶部111から単視点画像を先頭から順次読み出す。単視点画像合成部113は、デプス情報記憶部112からデプス値を先頭から順次読み出す。また、単視点画像合成部113は、デプス値が同一の単視点画像同士を合成して、合成単視点画像として出力する。合成処理は、例えばα値に基づくアルファブレンディングにより行われる。デプス値に対して1の単視点画像のみが対応する場合は、当該単視点画像がそのまま出力される。単視点画像合成部113から出力された合成単視点画像または単視点画像は、視点の数nだけ設けられた単視点画像シフト部1161、1162、…、116nにそれぞれ供給される。
なお、以下では、特に記載のない限り、合成単視点画像または単視点画像を単視点画像で代表させて記述する。
単視点画像合成部113は、単視点画像を出力すると共に、出力する単視点画像に対応するデプス値をシフト情報取得部114に供給する。シフト情報取得部114は、供給されたデプス値に基づきシフト情報記憶部115を参照し、デプス値に対応する各視点#0〜#nのシフトベクトルをそれぞれ取得する。取得された各視点#0〜#nのシフトベクトルは、それぞれ視点が対応する単視点画像シフト部1161、1162、…、116nに供給される。後述するように、単視点画像シフト部1161、1162、…、116nにより、タイル状の多視点画像を生成する多視点画像生成部130が構成される。
図15は、シフト情報記憶部115の一例の構成を示す。シフト情報記憶部115は、シフト情報テーブル120を記憶する。シフト情報テーブル120は、単視点画像のシフト量およびシフト方向を表すシフトベクトルが、各視点#0〜#8毎およびデプス値毎に予め格納される。シフトベクトルは、より具体的には、例えば中央視点による単視点画像を、多視点画像を構成する各視点のタイルにコピーする際に、当該単視点画像をシフトする方向を指し示す2次元ベクトルであり、その大きさがシフト量を表す。シフトベクトルは、視点と、オブジェクトを配置するデプス量を示すデプス値とにより異なる。シフト情報テーブルは、デプス値をインデクスとして、各視点#0〜#nそれぞれのシフトベクトルを参照できるように構成されている。
視点の数nと同じ数だけ設けられた単視点画像シフト部1161〜116nのそれぞれは、シフト情報取得部114から供給されたシフトベクトルに基づいて、単視点画像合成部113から供給された単視点画像をシフトさせる。シフトは、例えば図7を用いて説明したような方法を用いる。単視点画像シフト部1161〜116nでシフトされた単視点画像は、それぞれ後段の多視点画像記憶部117に供給され、タイル状の多視点画像における対応する視点のタイルにコピーされる。コピー対象のタイルに既に単視点画像がコピーされている場合は、アルファブレンディングによる合成を行うことができる。これにより、入力部110に入力された単視点画像に基づく多視点画像が生成される。
多視点画像記憶部117に記憶される多視点画像は、提示部118に供給される。提示部118は、多視点画像記憶部117から供給された多視点画像を立体画像表示装置に対して出力する。この場合、提示部118は、例えば、多視点画像を構成する各タイルの単視点画像を、単位画素群303毎にインターリーブして出力する。これに限らず、提示部118は、多視点画像記憶部117から供給された多視点画像を記録媒体に記録してもよいし、ネットワークやシリアルインターフェイスを介して他の機器に伝送してもよい。また、単位画素群303毎にインターリーブした多視点画像を、プリンタによりプリントアウトしてもよい。
本実施形態では、上述したように、単視点画像合成部113において、同じデプスに配置されるオブジェクトの単視点画像を1枚の画像に合成した後、その1枚の画像をデプス量に応じてシフトさせて、タイル状の多視点画像の各タイルにコピーする。
一例として、単視点画像合成部113は、最初に、単視点画像記憶部111から、デプス値順に整列されて記憶されている単視点画像のうち先頭の単視点画像を読み出す。それと共に、単視点画像合成部113は、デプス情報記憶部112から、デプス値順に整列されて記憶されているデプス値のうち先頭のデプス値を読み出す。
次に、単視点画像合成部113は、デプス情報記憶部112から2番目のデプス値を読み出す。単視点画像合成部113は、この2番目のデプス値と、先に読み出しておいたデプス値とを比較し、比較結果に基づき両者が同一であると判定されたら、単視点画像記憶部111から2番目の単視点画像を読み出して、先に読み出しておいた単視点画像と合成し、新たな単視点画像を生成する。
次に、単視点画像合成部113は、デプス情報記憶部112から、デプス値順に整列されて記憶されているデプス値のうち3番目のデプス値を読み出す。単視点画像合成部113は、この3番目のデプス値と、先に読み出した2番目のデプス値とを比較し、比較結果に基づき両者が同一であると判定されたら、単視点画像記憶部111から3番目の単視点画像を読み出して、直前に合成された単視点画像と合成し、新たな単視点画像を生成する。
単視点画像合成部113は、デプス情報記憶部112から読み出したデプス値が、直前に読み出したデプス値と異なる値になるまで、上述の処理を繰り返す。これにより、同じデプスに配置されるオブジェクトの単視点画像を1枚に合成することができる。この1枚に合成された単視点画像は、後段の単視点画像シフト部1161、1162、…、116nのうち視点が対応する単視点画像シフト部に供給され、視点およびデプス値に応じてシフトされる。
図16は、本実施形態による多視点画像生成装置100を適用可能な画像処理装置400の一例のハードウェア構成を示す。図16において、画像処理装置400は、CPU(Central Processing Unit)401、GPU(Graphic Processing Unit)402、ROM(Read Only Memory)403、RAM(Random Access Memory)404およびVRAM(Video RAM)405を備える。
CPU401は、図13に示す制御部119に対応し、この画像処理装置400の動作を制御する。CPU401は、制御に際しRAM404をワークメモリとして用いる。CPU401が動作するためのプログラムは、ROM403に予め記憶されている。このプログラムは、ROM403に予め記憶しておくのに限らず、ディスク記憶媒体や着脱可能で不揮発性の半導体メモリ、ネットワークを介してなど、他の方法で画像処理装置400に対して供給してもよい。
CPU401は、プログラムに従いGPU402に対してコマンドを渡す。GPU402は、画像処理専用に設計されたプロセッサである。GPU402は、CPU401からのコマンドに従い動作し、画像処理を高速に実行する機能を有する。例えば、GPU402は、CPU401からのコマンドに従い、VRAM405に書き込まれた画像データに対する処理を行う。この図16の例では、GPU402は、特に2次元の画像データに対する処理に特に適応させて設計されているものとする。
一例として、CPU401は、本実施形態による多視点画像生成方法を実行するプログラムが例えばROM403から読み出され実行されると、当該プログラムに従いコマンドをGPU402に送り、GPU402を上述した各部(単視点画像合成部113およびシフト情報取得部114、ならびに、単視点画像シフト部1161〜116n)として機能させる。
例えばH.264/AVC方式で圧縮符号化された動画像データがデコーダ450で復号され、輝度Y、色差UVの各成分と、属性情報AとからなるYUVA画像データとして画像処理装置400に入力される。ここでは、属性情報Aがα値およびデプス値を含むものとする。これに限らず、デプス値を、デコーダ450の出力と同期的に、別のデータとして画像処理装置400に入力してもよい。画像処理装置400に入力されたYUVA画像データは、RAM404の領域410に一時的に格納する。その後、YUVA画像データは、CPU401の制御によりVRAM405に転送される。
VRAM405に転送されたYUVA画像データは、VRAM405の領域411に書き込まれる。この領域411は、上述した図13の機能ブロック図における単視点画像記憶部111およびデプス情報記憶部112に対応する。GPU402は、CPU401のコマンドに従い、このYUVA画像データを、三原色RGBの各成分と属性情報Aとを含むRGBA画像データに変換する。GPU402は、RGBA画像データをVRAM405上の領域であるワークバッファ412に書き込む。詳細は後述するが、このとき、GPU402は、CPU401のコマンドに従い、上述した、同一のデプス値を持つ単視点画像の合成処理を行う。
また、VRAM405には、シフト情報テーブル120が書き込まれる。シフト情報テーブル120は、例えば、ROM403に予め記憶されている。シフト情報テーブル120は、この画像処理装置400の起動に伴いROM403から読み出され、RAM404を介してVRAM405に書き込まれる。
GPU402は、CPU401のコマンドに従い、コピーを行おうとする視点におけるシフトベクトルを取得する。GPU402は、ワークバッファ412に書き込まれた単視点画像に対応するデプス値をインデクスとしてシフト情報テーブル120を参照する。GPU402は、CPU401のコマンドに従い、ワークバッファ412に書き込まれた単視点画像を、視点およびデプス値に応じたシフトベクトルに従いシフトさせる。GPU402は、VRAM405の領域413における、タイル状の多視点画像のタイル414A〜414Iのうち視点が対応するタイルに対してコピーする。
上述のように、CPU401のコマンドに従い動作するGPU402は、図13に示す単視点画像合成部113、シフト情報取得部114、単視点画像シフト部1161〜116nに対応する。また、VRAM405における領域413は、図13に示す多視点画像記憶部117に対応する。
図17Aおよび図17Bは、本実施形態による単視点画像の合成処理の一例を示すフローチャートである。以下に示す各処理は、例えばプログラムに基づくCPU401のコマンドに従い、GPU402により実行される。
デコーダ450から出力された、単視点画像によるオブジェクトが画像処理装置400に入力され、RAM404の領域410に一時的に格納される。ここで、デコーダ450は、例えば動画の1フレーム周期に複数枚の単視点画像を出力可能とされ、当該複数の単視点画像は、デプス値順に、奥側から手前側に向けた順序で並べられて出力されるものとする。
先ず、ステップS10において、GPU402は、RAM404の領域410から最初のオブジェクトの単視点画像を入力する。最初のオブジェクトの単視点画像を、VRAM405の領域411を介してRGBA画像データに変換してワークバッファ412に書き込む。それと共に、この最初の単視点画像に対応するデプス値を取得し、デプス値depth1とする。例えばGPU402は、当該単視点画像によるRGBA画像データの属性情報Aからデプス値を取得する。
次のステップS11で、GPU402は、次のオブジェクトの単視点画像があるか否かを判定する。例えば、CPU401がRAM404における領域410の状態を監視する。領域410に次のオブジェクトの単視点画像があるか否かを判定し、その判定結果をGPU402に通知する。若し、次のオブジェクトの単視点画像がある場合、処理はステップS12に移行され、当該次のオブジェクトの単視点画像のデプス値がGPU402によって取得される。例えば、CPU401が領域410に格納される次のオブジェクトの単視点画像における属性情報Aを抽出し、GPU402に渡す。このステップS12で取得されたデプス値を、デプス値depth2とする。
次のステップS13で、デプス値depth1とデプス値depth2とが同一であるか否かを判定する。若し、同一である場合、処理はステップS14に移行される。ステップS14では、GPU402は、デプス値depth2のオブジェクトの単視点画像を、ワークバッファ412に書き込まれている単視点画像に対してアルファブレンディングなどを用いて合成する。α値は、当該単視点画像の属性情報Aから抽出する。そして、次のステップS15でデプス値depth2をデプス値depth1に代入して、処理がステップS11に戻される。
一方、上述のステップS13で、デプス値depth1とデプス値depth2とが異なる場合、処理はステップS16に移行される。ステップS16では、ワークバッファ412に書き込まれている単視点画像を、視点およびデプス値に応じてシフトさせて、タイル状の多視点画像の各タイル414A〜414Iにコピーする。このステップS16の処理の詳細は、後述する。
ステップS16でワークバッファ412の多視点画像の各タイル414A〜414Iへのコピーが行われたら、処理はステップS17に移行される。ステップS17では、GPU402は、デプス値depth2のオブジェクトの単視点画像をRAM404の領域410から読み出してVRAM405に入力する。デプス値depth2のオブジェクトの単視点画像を、領域411を介してRGBA画像データに変換して、ワークバッファ412に書き込む。そして、処理がステップS15に移行され、デプス値depth2をデプス値depth1に代入して、処理がステップS11に戻される。
上述のステップS11で、次のオブジェクトが無い場合、処理はステップS18に移行される。ステップS18の処理は、上述したステップS16の処理と同一である。すなわち、ステップS18では、ワークバッファ412に書き込まれている単視点画像を、視点およびデプス値に応じてシフトさせて、タイル状の多視点画像の各タイル414A〜414Iにコピーする処理が行われる。このステップS18の処理の詳細は、後述する。
図17Bは、上述したステップS16およびステップS18の、単視点画像をタイル状の多視点画像の各タイルにコピーする一例の処理を示すフローチャートである。ここでは、上述のステップS10またはステップS15に従い、デプス値depth1に対応する単視点画像が処理対象となる。また、視点数をnとする。以下に示す各処理は、例えばプログラムに基づくCPU401のコマンドに従い、GPU402により実行される。
先ず、最初のステップS20で、ループ変数iが0に初期化される。次のステップS21で、GPU402は、視点#iを選択し、ステップS22で、デプス値depth1をインデクスとしてシフト情報テーブル120を参照し、視点#iのシフトベクトルを取得する。
次のステップS23で、GPU402は、ステップS22で取得したシフトベクトルに従い、ワークバッファ412に書き込まれている単視点画像をシフトさせる。シフトした単視点画像を、タイル状の多視点画像の視点#iのタイルにコピーする。このとき、当該タイルに既に書き込まれている画像があれば、その画像に対し、当該単視点画像をアルファブレンディングなどを用いて合成する。
ステップS23で単視点画像をタイルへコピーがする。ステップS24でループ変数iに1を加算する。ステップS25で、GPU402は、ループ変数iと視点数nとが等しいか否かを判定する。若し、等しいと判定されたら、全ての視点での処理が終了したと判定し、図17Bのフローチャートによる処理を抜け、上述の図17Aのフローチャートの処理に戻る。一方、ループ変数iが視点数nと異なり、全ての視点について処理が終了していないと判定されたら、処理がステップS21に戻され、次の視点について処理が行われる。
上述した図17Aおよび図17Bのフローチャートによる処理について、図18、図19および図20を用いて具体的に説明する。以下では、例えば、それぞれ異なるオブジェクトによる、中央視点の単視点画像250A〜250Eが画像処理装置400に入力される。このとき、単視点画像250Aのデプス値が1.0、単視点画像250B、250Cおよび250Dのデプス値がそれぞれ0.5、単視点画像250Eのデプス値が0.2であるものとする。これら単視点画像250A〜250Eは、デプス値の大きい順に整列して入力される。また、視点数n=9であるものとする。
単視点画像250A〜250Eが順次、画像処理装置400に入力され、RAM404の領域410にバッファリングされる。GPU402は、領域410から最初のオブジェクトの単視点画像250Aを読み出してVRAM405に入力し、ワークバッファ412に書き込む。それと共に、GPU402は、当該単視点画像250Aのデプス値=1.0を取得し、デプス値depth1とする(図17AのステップS10)。
RAM404の領域410に次のオブジェクトの単視点画像250Bが存在するので、GPU402は、当該単視点画像250Bのデプス値=0.5を取得し、デプス値depth2とする(図17AのステップS11、ステップS12)。デプス値depth1とデプス値depth2とが異なるので、GPU402は、ワークバッファ412に書き込まれている単視点画像250Aを、タイル状の多視点画像の各タイル414A〜414Iに対し、デプス値および視点に応じてシフトさせてコピーする(図17AのステップS13、ステップS16)。
すなわち、デプス値depth1をインデクスとして視点#0のシフトベクトルを取得し(ステップS21、ステップS22)、取得したシフトベクトルに従い単視点画像250Aを例えば横方向にシフトさせた画像を生成する。そして、生成された画像をVRAM405内の領域413における視点#0のタイル414Aに書き込む(ステップS23)。この処理を、残りの視点#1〜#8に対してそれぞれ行う(ステップS24、ステップS25)。
単視点画像250Aの各タイル414A〜414Iへのコピーが完了したら、GPU402は、RAM404の領域410から、デプス値depth2に対応する単視点画像250Bを読み出し、ワークバッファ412に書き込む(図17AのステップS17)。なお、各タイル414A〜414Iへのコピーが完了した単視点画像250Aは、例えばワークバッファ412から破棄される。GPU402は、デプス値depth2=0.5を新たなデプス値depth1とする(ステップS15)。
RAM404の領域410に次のオブジェクトの単視点画像250Cが存在するので、GPU402は、当該単視点画像250Cのデプス値=0.5を取得し、新たなデプス値depth2とする(図17AのステップS11、ステップS12)。
デプス値depth1とデプス値depth2とが等しいので、GPU402は、RAM404の領域410から単視点画像250Cを読み出す。この単視点画像250Cと、ワークバッファ412に書き込まれている単視点画像250Bとをα値に基づきアルファブレンディングにより合成し、合成単視点画像253を生成する(図17AのステップS14)。その後、GPU402は、デプス値depth2=0.5を新たなデプス値depth1とする(図17AのステップS15)。
RAM404の領域410に次のオブジェクトの単視点画像250Dが存在するので、GPU402は、当該単視点画像250Dのデプス値=0.5を取得し、新たなデプス値depth2とする(図17AのステップS11、ステップS12)。
デプス値depth1とデプス値depth2とが等しいので、GPU402は、RAM404の領域410から単視点画像250Dを読み出す。この単視点画像250Dと、ワークバッファ412に書き込まれている合成単視点画像253とをα値に基づきアルファブレンディングにより合成し、合成単視点画像253を更新する(図17AのステップS14)。すなわち、合成単視点画像253は、オブジェクトの中央視点による単視点画像250B、250Cおよび250Dが合成されたものとなる。その後、GPU402は、デプス値depth2を新たなデプス値depth1とする(ステップS15)。
RAM404の領域410に次のオブジェクトの単視点画像250Eが存在するので、GPU402は、当該単視点画像250Cのデプス値=0.2を取得し、新たなデプス値depth2とする(図17AのステップS11、ステップS12)。
デプス値depth1とデプス値depth2とが異なるので、GPU402は、ワークバッファ412に書き込まれている合成単視点画像253を、タイル状の多視点画像の各タイル414A〜414Iに対し、デプス値および視点に応じてシフトさせてコピーする(図17AのステップS13、ステップS16)。
ここで、各タイル414A〜414Iには、既に単視点画像250Aがデプス値および視点に応じてシフトされて書き込まれている。GPU402は、合成単視点画像253を各タイル414A〜414Iにコピーする際に、各視点の合成単視点画像を、既に書き込まれている各視点の単視点画像250Aに対して、α値に基づきアルファブレンディングによりそれぞれ合成する。
その後、GPU402は、RAM404の領域410から、デプス値depth2に対応する単視点画像250Eを読み出し、ワークバッファ412に書き込む(図17AのステップS17)。なお、各タイル414A〜414Iへのコピーが完了した合成単視点画像は、例えばワークバッファ412から破棄される。GPU402は、デプス値depth2=0.2を新たなデプス値depth1とする(ステップS15)。
ここで、RAM404の領域410に次のオブジェクトの単視点画像が無い状態となる。そのため、GPU402は、図20に例示されるように、ワークバッファ412に書き込まれている単視点画像250Eを、タイル状の多視点画像の各タイル414A〜414Iに対し、デプス値および視点に応じてシフトさせてコピーする(図17AのステップS18)。
各タイル414A〜414Iには、既に単視点画像250Aと合成単視点画像253とが、デプス値および視点に応じてシフトされ、視点毎に合成されて書き込まれている。GPU402は、単視点画像250Eを各タイル414A〜414Iにコピーする際に、図20に例示されるように、各視点の単視点画像250Eを、既に書き込まれている各視点の合成単視点画像に対して、α値に基づきアルファブレンディングによりそれぞれ合成する。合成が行われると、一連の処理が終了される。
上述したように、本実施形態に係る画像処理装置400によれば、同一のデプス値を持つオブジェクトの単視点画像を合成して1の合成単視点画像に纏める。そして、この合成単視点画像をデプス値および視点に応じてシフトさせて、タイル状の多視点画像の各タイルにコピーするようにしている。そのため、単視点画像をタイル状の多視点画像の各タイルにコピーする回数を大幅に削減することができる。その結果、多数のオブジェクトを含む多視点画像を高速に描画することが可能になる。
例えば、タイル状の多視点画像の各タイルに単視点画像のコピーを行う処理を、単視点画像毎に行う場合、コピー回数は、単視点画像数×視点数nとなる。図8〜図12の例では、単視点画像数=5、視点数n=9なので、コピー回数は、5×9=45回となる。この場合、オブジェクト数が増え、単視点画像の数が増えるに従い、コピー回数が増加することになる。視点数が増加すると、コピー回数の増加はより顕著なものとなる。
これに対して、本実施形態の方法によれば、例えば図18〜図20の例では、デプス値が同一の単視点画像250B〜250Dにおいて、これら単視点画像250B〜250Dを合成する際のコピー回数の3回と、合成単視点画像をタイル状の多視点画像の各タイルにコピーする際のコピー回数の9回との合計12回で済むことになる。これは、単視点画像毎に各タイルへのコピーを行う際のコピー回数27回(3×9回)に比べて格段に少ない。図18〜図20の例全体を通しても、30回(12回+2×9回)で済むことになり、45回に比べて格段に少なく、コピー回数が大幅に削減されている。
100 多視点画像生成装置
111 単視点画像記憶部
112 デプス情報記憶部
113 単視点画像合成部
114 シフト情報取得部
115 シフト情報記憶部
1161〜116n 単視点画像シフト部
117 多視点画像記憶部
120 シフト情報テーブル
200,211,231,251 多視点画像
212A〜212I タイル
232A〜232I タイル
252A〜252I タイル
300 表示部
400 画像処理装置
401 CPU
402 GPU
403 ROM
404 RAM
405 VRAM
412 ワークバッファ

Claims (6)

  1. 合成部が、複数の画像それぞれに対応付けられた、画像の奥行き方向の位置を示すデプス値に基づき、該複数の画像のうち該デプス値が同一の画像を1の画像に合成する合成ステップと、
    シフト部が、前記合成ステップで合成された画像を、それぞれ異なる視差を与える複数の視点毎に、該視点と該画像に対応する前記デプス値とに応じたシフトベクトルに従い、該シフトベクトルが示す方向および量でシフトさせて視差を与えた画像を生成するシフトステップと、
    生成部が、前記シフトステップでシフトされた前記複視差を与えた画像を予め決められたフォーマットで配置した多視点画像を生成する生成ステップと
    を有する
    ことを特徴とする多視点画像生成方法。
  2. 前記デプス値と、前記シフトベクトルとが対応付けられて格納されるシフト情報テーブルを、デプス情報記憶部に記憶される前記デプス値をインデックスとして参照して、前記シフトベクトルを取得するシフト情報取得ステップをさらに有し、
    前記シフトステップは、
    前記シフト情報取得ステップで取得された前記シフトベクトルに従い、該シフトベクトルが示す方向および量で、前記合成ステップにより合成された前記画像をシフトさせる
    ことを特徴とする請求項1に記載の多視点画像生成方法。
  3. 制御部の制御に基づきメモリを用いて画像処理を行う画像処理部が、前記合成ステップと、前記シフトステップと、前記生成ステップとを実行する
    ことを特徴とする請求項1に記載の多視点画像生成方法。
  4. 前記合成ステップは、画像記憶部に記憶された前記複数の画像それぞれと対応付けてデプス情報記憶部に記憶された前記デプス値に基づき、該画像記憶部に記憶される該複数の画像のうち該デプス値が同一の画像を1の画像に合成し、
    前記画像記憶部および前記デプス情報記憶部は、前記メモリ内に設けられる
    ことを特徴とする請求項3に記載の多視点画像生成方法。
  5. 前記合成ステップは、
    バッファ記憶部に記憶された第1画像と前記デプス値が同一の第2画像を該バッファ記憶部上で該第1画像に対して合成し、合成された画像を新たな第1画像として合成し、
    前記シフトステップは、
    前記新たな第1画像を前記バッファ記憶部から読み出して、読み出した該新たな第1画像を、それぞれ異なる視差を与える複数の視線毎に、該視点と該第1画像に対応する前記デプス値とに応じたシフトベクトルに従い、該シフトベクトルが示す方向および量でシフトさせて視差を与えた画像を生成する
    ことを特徴とする請求項1に記載の多視点画像生成方法。
  6. 制御部と、メモリと、該制御部の制御に基づき該メモリを用いて画像処理を行う画像処理部とを含む多視点画像生成装置であって、
    複数の画像を記憶する、前記メモリに設けられる画像記憶部と、
    前記画像記憶部に記憶された前記複数の画像それぞれの奥行き方向の位置を示すデプス値を、該複数の画像のそれぞれに対応付けられて記憶する、前記メモリに設けられるデプス情報記憶部と、
    前記デプス情報記憶部に記憶される前記デプス値に基づき、前記画像記憶部に記憶される前記複数の画像のうち該デプス値が同一の画像を1の画像に合成する、前記画像処理部に含まれる合成部と、
    前記合成部で合成された画像を、それぞれ異なる視差を与える複数の視点毎に、該視点と該画像に対応する前記デプス値とに応じたシフトベクトルに従い、該シフトベクトルが示す方向および量でシフトさせて視差を与えた画像を生成する、前記画像処理部に含まれるシフト部と、
    前記シフト部でシフトされた前記視差を与えた画像を、予め決められたフォーマットで配置して生成する、前記画像処理部に含まれる生成部と
    を有する
    ことを特徴とする多視点画像生成装置。
JP2011532839A 2009-09-25 2009-09-25 多視点画像生成方法および装置 Expired - Fee Related JP5238887B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2009/066618 WO2011036761A1 (ja) 2009-09-25 2009-09-25 多視点画像生成方法および装置

Publications (2)

Publication Number Publication Date
JPWO2011036761A1 JPWO2011036761A1 (ja) 2013-02-14
JP5238887B2 true JP5238887B2 (ja) 2013-07-17

Family

ID=43795532

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011532839A Expired - Fee Related JP5238887B2 (ja) 2009-09-25 2009-09-25 多視点画像生成方法および装置

Country Status (3)

Country Link
US (1) US8666147B2 (ja)
JP (1) JP5238887B2 (ja)
WO (1) WO2011036761A1 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120236114A1 (en) * 2011-03-18 2012-09-20 Te-Hao Chang Depth information generator for generating depth information output by only processing part of received images having different views, and related depth information generating method and depth adjusting apparatus thereof
JP5907368B2 (ja) * 2011-07-12 2016-04-26 ソニー株式会社 画像処理装置および方法、並びにプログラム
JP5572647B2 (ja) * 2012-02-17 2014-08-13 任天堂株式会社 表示制御プログラム、表示制御装置、表示制御システム、および表示制御方法
KR20130098122A (ko) * 2012-02-27 2013-09-04 세종대학교산학협력단 영상 부호화/복호화 장치 및 영상을 부호화/복호화하는 방법
WO2013129822A1 (ko) 2012-02-27 2013-09-06 세종대학교산학협력단 영상 부호화와 복호화 장치 및 영상을 부호화와 복호화하는 방법
JP6031260B2 (ja) * 2012-05-31 2016-11-24 日本放送協会 画像符号化装置および画像復号装置
WO2013187129A1 (ja) * 2012-06-12 2013-12-19 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム
DE102012016865B4 (de) 2012-08-25 2022-12-15 Connaught Electronics Ltd. Verbessertes Alpha-Blending von Bildern eines Kamerasystems eines Kraftfahrzeugs
KR101856568B1 (ko) * 2013-09-16 2018-06-19 삼성전자주식회사 다시점 영상 디스플레이 장치 및 제어 방법
EP2860975A1 (en) * 2013-10-09 2015-04-15 Thomson Licensing Method for processing at least one disparity map, corresponding electronic device and computer program product
KR102153605B1 (ko) * 2013-11-27 2020-09-09 삼성디스플레이 주식회사 입체 영상 표시 장치
US20150213784A1 (en) * 2014-01-24 2015-07-30 Amazon Technologies, Inc. Motion-based lenticular image display
JP6611531B2 (ja) * 2015-09-16 2019-11-27 キヤノン株式会社 画像処理装置、画像処理装置の制御方法、およびプログラム
JP6979290B2 (ja) * 2017-06-14 2021-12-08 日本放送協会 画像符号化装置および画像復号化装置、並びに、画像符号化プログラムおよび画像復号化プログラム

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005229560A (ja) * 2003-11-28 2005-08-25 Hirobumi Ito 立体画像表示方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3358466B2 (ja) 1996-10-18 2002-12-16 凸版印刷株式会社 視差画像のデータ処理方法および装置
EP0896301A1 (en) * 1997-08-06 1999-02-10 Victor Company Of Japan, Limited Stereoscopic image interpolating apparatus and method
JP2009075869A (ja) 2007-09-20 2009-04-09 Toshiba Corp 多視点画像描画装置、方法及びプログラム
JP2009080578A (ja) 2007-09-25 2009-04-16 Toshiba Corp 多視点データ生成装置、方法及びプログラム
US8774512B2 (en) * 2009-02-11 2014-07-08 Thomson Licensing Filling holes in depth maps

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005229560A (ja) * 2003-11-28 2005-08-25 Hirobumi Ito 立体画像表示方法

Also Published As

Publication number Publication date
JPWO2011036761A1 (ja) 2013-02-14
US8666147B2 (en) 2014-03-04
WO2011036761A1 (ja) 2011-03-31
US20120170833A1 (en) 2012-07-05

Similar Documents

Publication Publication Date Title
JP5238887B2 (ja) 多視点画像生成方法および装置
JP4392060B2 (ja) 視差深度依存画素シフト
JP4047387B2 (ja) 立体画像ディスプレイ駆動装置
US9083963B2 (en) Method and device for the creation of pseudo-holographic images
JP5567562B2 (ja) 多用途三次元画像フォーマット
EP2347597B1 (en) Method and system for encoding a 3d image signal, encoded 3d image signal, method and system for decoding a 3d image signal
JP3230745B2 (ja) 3次元画像生成装置及び生成方法
US20070057944A1 (en) System and method for rendering 3-d images on a 3-d image display screen
JP4982862B2 (ja) プログラム、情報記憶媒体及び画像生成システム
WO2004019621A1 (ja) 立体視用画像を作成する方法および装置
JP2009124768A (ja) マルチメディア情報生成装置およびマルチメディア情報再生装置
JP2013539256A (ja) 3次元コンテンツに関する画像を合成する方法
KR20080100206A (ko) 온 더 플라이 하드웨어 기반 인터디지테이션
JPH11514118A (ja) 立体画像の発生
JP4523368B2 (ja) 立体視画像生成装置およびプログラム
JP2005175566A (ja) 立体表示システム
JPH11510940A (ja) 3次元画像テクスチュアマッピング
WO2011105048A1 (ja) コンピュータ・グラフィックス映像合成装置と方法、及び表示装置
JP2009516205A (ja) オートステレオスコープ表示装置上で少なくとも1つの画像領域をモノスコープ方式で表現するための方法および機構ならびに該機構を有する情報再現装置
Schwerdtner et al. Dresden 3D display (D4D)
JP4703635B2 (ja) 立体視画像生成方法、その装置、及び立体視画像表示装置
CN110597577A (zh) 一种头戴可视设备及其分屏显示方法和装置
JP2009064355A (ja) プログラム、情報記憶媒体及び画像生成システム
CN103024414A (zh) 一种基于WinXP***的3D显示方法
Zinger et al. iGLANCE project: free-viewpoint 3D video

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130401

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160405

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees