JP2012034215A - 画像処理装置および方法、並びにプログラム - Google Patents

画像処理装置および方法、並びにプログラム Download PDF

Info

Publication number
JP2012034215A
JP2012034215A JP2010172503A JP2010172503A JP2012034215A JP 2012034215 A JP2012034215 A JP 2012034215A JP 2010172503 A JP2010172503 A JP 2010172503A JP 2010172503 A JP2010172503 A JP 2010172503A JP 2012034215 A JP2012034215 A JP 2012034215A
Authority
JP
Japan
Prior art keywords
signal
image
unit
imaging
addition signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2010172503A
Other languages
English (en)
Inventor
Tsuneo Hayashi
恒生 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2010172503A priority Critical patent/JP2012034215A/ja
Priority to CA2804362A priority patent/CA2804362A1/en
Priority to US13/811,752 priority patent/US20130120530A1/en
Priority to PCT/JP2011/004318 priority patent/WO2012014494A1/en
Priority to EP11812091.4A priority patent/EP2599320A4/en
Priority to MX2013000939A priority patent/MX2013000939A/es
Priority to AU2011284087A priority patent/AU2011284087A1/en
Priority to CN2011800361451A priority patent/CN103026714A/zh
Priority to BR112013001730A priority patent/BR112013001730A2/pt
Priority to RU2013103037/08A priority patent/RU2013103037A/ru
Publication of JP2012034215A publication Critical patent/JP2012034215A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/08Stereoscopic photography by simultaneous recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

【課題】より簡単に3D映像の輻輳点のずれの発生を抑制できるようにする。
【解決手段】撮像部23−1および撮像部23−2は、光学系22から入射した光を光電変換することにより、立体画像を表示するための左眼用のL画像と右眼用のR画像を撮像する。和信号演算部25は、L画像とR画像の和を求めて、和信号を生成し、信号切り替え部30を介して表示部31に供給する。表示部31は、供給された和信号に基づいて画像を表示させる。和信号に基づく画像は、L画像とR画像を重ね合わせたものであるから、被写体の撮像中に和信号に基づく画像を表示することで、ユーザは左右の映像のずれを確認しながら、より高精度にフォーカス調整をすることができ、その結果、輻輳点のずれの発生を抑制することができる。本発明は、カメラに適用することができる。
【選択図】図1

Description

本発明は画像処理装置および方法、並びにプログラムに関し、特に、より簡単に3D映像の輻輳点のずれの発生を抑制することができるようにした画像処理装置および方法、並びにプログラムに関する。
いわゆる単レンズステレオ3Dカメラで撮像される立体映像では、主題となるフォーカスのあっている被写体は、その立体映像が表示される表示画面の位置に定位するという特徴がある。すなわち、立体映像を構成する左眼映像と右眼映像を表示画面に表示させたときに、それらの左右の映像のフォーカスのあっている同じ被写体が、表示画面上において殆ど重なることになる。
そのため、偏光眼鏡やシャッタ眼鏡等が利用されて立体映像が視聴される表示装置においては、ユーザが偏光眼鏡等を装着せずに、表示装置に表示された映像を鑑賞すると、その映像は2D(2次元)映像として見える。また、ユーザが、偏光眼鏡等を装着して、表示装置に表示された映像を鑑賞すると、その映像は3D(3次元)映像として見える(例えば、特許文献1参照)。このように、偏光眼鏡等を利用する表示装置は、2D映像と3D映像の互換性を持つという特徴を有している。
特開2010−62767号公報
ところで、単レンズステレオ3Dカメラで立体映像が撮像される場合、撮影者は、左眼映像または右眼映像の何れかをビューワに表示させて、ビューワに表示された片眼の映像を確認しながら、フォーカス、ズーム、アイリス等のレンズ調整を行なう。このように、片眼の映像を見ながら撮像を行なうと、わずかなフォーカスずれが生じてしまうことがある。
単レンズステレオ3Dカメラにおいて、微小なフォーカス調整のずれが生じると、得られた立体映像を表示装置に表示させた場合に、左眼映像と右眼映像の輻輳点の位置も表示画面からずれてしまい、2D映像と3D映像の互換性が失われてしまう。
本発明は、このような状況に鑑みてなされたものであり、より簡単に3D映像の輻輳点のずれの発生を抑制することができるようにするものである。
本発明の第1の側面の画像処理装置は、被写体を立体表示するための互いに視差を有する画像を撮像して、前記画像の画像信号を生成する撮像手段と、前記視差を有する画像の画像信号を加算することで加算信号を生成する加算信号演算手段と、前記視差を有する画像の撮像中に、前記加算信号に基づく画像を表示する表示手段とを備える。
画像処理装置には、前記画像信号の差を求めることで差信号を生成する差信号演算手段と、前記加算信号および前記差信号を符号化する符号化手段とをさらに設けることができる。
前記符号化手段には、前記加算信号および前記差信号を階層符号化させることができる。
画像処理装置には、前記画像信号に基づく画像、前記加算信号に基づく画像、または前記差信号に基づく画像の何れかが前記表示手段に表示されるように、画像の表示を切り替える切り替え手段をさらに設けることができる。
前記撮像手段には、光学系を介して前記被写体から入射した異なる光束を受光することで、前記視差を有する画像を撮像する複数の撮像部を設けることができる。
前記加算信号演算手段には、3以上の前記画像信号を加算して得られた信号を、加算した前記画像信号の数で除算することにより前記加算信号を生成させ、前記画像信号と前記加算信号の差を求めることで差信号を生成する差信号演算手段と、前記加算信号および前記差信号を符号化する符号化手段とをさらに設けることができる。
本発明の第1の側面の画像処理方法またはプログラムは、被写体を立体表示するための互いに視差を有する画像の撮像を制御して、前記画像の画像信号を生成させ、前記視差を有する画像の画像信号を加算することで加算信号を生成し、前記視差を有する画像の撮像中に、前記加算信号に基づく画像を表示させるステップを含む。
本発明の第1の側面においては、被写体を立体表示するための互いに視差を有する画像が撮像されて、前記画像の画像信号が生成され、前記視差を有する画像の画像信号を加算することで加算信号が生成され、前記視差を有する画像の撮像中に、前記加算信号に基づく画像が表示される。
本発明の第2の側面の画像処理装置は、被写体を立体表示するための互いに視差を有する画像を撮像して得られた画像信号を加算して生成された加算信号であって、所定の符号化方式により符号化されている加算信号を受信する受信手段と、受信された前記加算信号を復号する復号手段と、復号された前記加算信号に基づく画像を表示する表示手段とを備える。
前記加算信号を階層符号化し、前記復号手段には、階層符号化により得られた各階層の前記加算信号のうち、最下層から、指定された解像度の画像が得られる階層までの前記加算信号を復号させることができる。
前記受信手段には、前記被写体を撮像する撮像装置から前記加算信号を受信させ、前記表示手段には、前記撮像装置における前記被写体の撮像中に、前記加算信号に基づく画像を表示させることができる。
本発明の第2の側面の画像処理方法またはプログラムは、被写体を立体表示するための互いに視差を有する画像を撮像して得られた画像信号を加算して生成された加算信号であって、所定の符号化方式により符号化されている加算信号の受信を制御し、受信された前記加算信号を復号し、復号された前記加算信号に基づく画像の表示を制御するステップを含む。
本発明の第2の側面においては、被写体を立体表示するための互いに視差を有する画像を撮像して得られた画像信号を加算して生成された加算信号であって、所定の符号化方式により符号化されている加算信号が受信され、受信された前記加算信号が復号され、復号された前記加算信号に基づく画像が表示される。
本発明の第1の側面および第2の側面によれば、より簡単に3D映像の輻輳点のずれの発生を抑制することができる。
本発明を適用した撮像装置の一実施の形態の構成例を示す図である。 撮像処理を説明するフローチャートである。 信号再生装置の構成例を示す図である。 再生処理を説明するフローチャートである。 信号再生装置の他の構成例を示す図である。 再生処理を説明するフローチャートである。 信号再生部の構成例を示す図である。 編集点記録処理を説明するフローチャートである。 撮像装置の構成例を示す図である。 撮像処理を説明するフローチャートである。 撮像装置の構成例を示す図である。 撮像処理を説明するフローチャートである。 信号再生装置の構成例を示す図である。 再生処理を説明するフローチャートである。 コンピュータの構成例を示すブロック図である。
以下、図面を参照して、本発明を適用した実施の形態について説明する。
〈第1の実施の形態〉
[撮像装置の構成]
図1は、本発明を適用した撮像装置の一実施の形態の構成例を示す図である。
撮像装置11は、いわゆる単レンズステレオ3Dカメラであり、被写体からの光を撮像して、左眼用の画像信号であるL信号と、右眼用の画像信号であるR信号とから構成される立体画像信号を得る。
ここで、左眼用のL信号とは、立体画像信号に基づいて立体画像を表示させる場合に、ユーザの左眼に観察される画像を表示させる信号であり、右眼用のR信号とは、ユーザの右眼に観察される画像を表示させる信号である。また、立体画像信号は動画像信号である。
撮像装置11は、同期信号生成部21、光学系22、撮像部23−1、撮像部23−2、ガンマ変換部24−1、ガンマ変換部24−2、和信号演算部25、差信号演算部26、符号化部27、信号転送部28、記録部29、信号切り替え部30、および表示部31から構成される。
同期信号生成部21は、外部から、所定周波数のクロックである外部同期信号の供給を受け、供給された外部同期信号と同じ周波数および位相の同期信号を生成し、撮像部23−1および撮像部23−2に供給する。なお、同期信号生成部21に外部同期信号が供給されない場合には、同期信号生成部21が、いわゆる自走式で予め定めた周波数の同期信号を生成するようにしてもよい。
光学系22は、例えば複数のレンズなどから構成され、被写体から入射した光を撮像部23−1および撮像部23−2に導く。例えば、光学系22の入射瞳には、被写体から入射した光を2つの光束に分離するミラーなどが設けられており、分離された2つの光束がそれぞれ撮像部23−1と撮像部23−2に導かれる。より具体的には、光学系22の入射瞳に入射した光は、その光の光路上に配置された傾斜方向の異なる2つのミラーにより、2つの光束に分離される(例えば、特開2010−81580号公報参照)。
撮像部23−1および撮像部23−2は、同期信号生成部21から供給された同期信号に同期して、光学系22から入射した光を光電変換することで、L信号およびR信号を生成し、ガンマ変換部24−1およびガンマ変換部24−2に供給する。
ガンマ変換部24−1およびガンマ変換部24−2は、撮像部23−1および撮像部23−2から供給されたL信号およびR信号にガンマ変換を施し、和信号演算部25、差信号演算部26、および信号切り替え部30に供給する。
なお、以下、撮像部23−1および撮像部23−2を個々に区別する必要のない場合、単に撮像部23とも称し、ガンマ変換部24−1およびガンマ変換部24−2を個々に区別する必要のない場合、単にガンマ変換部24とも称する。
和信号演算部25は、ガンマ変換部24−1およびガンマ変換部24−2から供給されたL信号とR信号の和を求め、その結果得られた和信号を符号化部27および信号切り替え部30に供給する。差信号演算部26は、ガンマ変換部24−1およびガンマ変換部24−2から供給されたL信号とR信号の差を求め、その結果得られた差信号を符号化部27および信号切り替え部30に供給する。
符号化部27は、和信号演算部25からの和信号を符号化する和信号符号化部41と、差信号演算部26からの差信号を符号化する差信号符号化部42とを備えており、符号化により得られた和信号および差信号を、記録部29と信号転送部28に供給する。
信号転送部28は、符号化部27から供給された和信号と差信号を、図示せぬインターネット等の通信網や、ケーブルなどを介して接続されている装置に転送(送信)する。また、記録部29は、ハードディスク等から構成され、符号化部27から供給された和信号と差信号を記録する。
信号切り替え部30は、ガンマ変換部24から供給されたL信号とR信号、和信号演算部25から供給された和信号、および差信号演算部26から供給された差信号のうちの何れか1つの信号を表示部31に供給し、表示させる。
[撮像処理の説明]
ところで、ユーザが撮像装置11を操作して、被写体の撮像開始を指示すると、撮像装置11は撮像処理を開始して被写体を撮像し、立体画像信号を生成する。以下、図2のフローチャートを参照して、撮像装置11による撮像処理について説明する。
ステップS11において、撮像部23は被写体を撮像する。すなわち、光学系22は、被写体から入射してきた被写体を集光して2つの光束に分離させ、撮像部23−1と撮像部23−2に入射させる。
撮像部23−1と撮像部23−2は、同期信号生成部21から供給された同期信号に同期して、光学系22から入射した光を光電変換することで、被写体を撮像する。この同期信号により、L信号とR信号の同じフレームの画像が、常に同じ時刻に撮像されることになる。撮像部23−1と撮像部23−2は、光電変換により得られたL信号とR信号を、ガンマ変換部24−1およびガンマ変換部24−2に供給する。
ステップS12において、ガンマ変換部24−1およびガンマ変換部24−2は、撮像部23−1および撮像部23−2から供給されたL信号とR信号に対して、ガンマ変換を行なう。これにより、L信号とR信号はガンマ補正される。ガンマ変換部24−1およびガンマ変換部24−2は、ガンマ変換を施したL信号とR信号を、和信号演算部25、差信号演算部26、および信号切り替え部30に供給する。
例えば、ガンマ変換では、入力値、すなわちガンマ変換前のL信号またはR信号の値をxとし、出力値、すなわちガンマ変換後のL信号またはR信号の値をyとしたときに、y=x(1/2.2)とされる。したがって、入力値を横軸とし、出力値を縦軸としたときのガンマ変換の入出力特性を示す曲線は、縦軸の上方向にふくらんだ形状(上方向に凸)の曲線となる。なお、ガンマ変換におけるべき指数は、(1/2.2)に限らず、他の値であってもよい。
なお、ガンマ変換部24において、L信号やR信号に対して、ガンマ変換の他、画質改善のために欠陥補正、ホワイトバランス調整、シェーディング調整などの補正処理が行われるようにしてもよい。
ステップS13において、和信号演算部25は、ガンマ変換部24から供給されたL信号とR信号の和を求めることで和信号を生成し、和信号符号化部41および信号切り替え部30に供給する。すなわち、和信号演算部25は、所定のフレームのL信号とR信号について、L信号の画像(以下、L画像とも称する)上の画素の画素値と、その画素と同じ位置にあるR信号の画像(以下、R画像とも称する)上の画素の画素値との和を求め、求めた和を和信号の画像の画素の画素値とする。
なお、和信号の画像の各画素の画素値は、同じフレームの同じ位置にあるL画像の画素の画素値とR画像の画素の画素値の和であると説明したが、L画像とR画像の同じ位置にある画素の画素値の和を正規化して得られる値を、和信号の画素の画素値としてもよい。L画像とR画像の画素の和を和信号の画素とする場合も、L画像とR画像の画素の和を正規化して得られた値(例えば平均値)を和信号の画素とする場合も、結局は和信号の画像は、L画像とR画像を重ね合わせた画像となる。つまり、画像のダイナミックレンジのみが異なることになる。
ステップS14において、差信号演算部26は、ガンマ変換部24から供給されたL信号とR信号の差を求めることで差信号を生成し、差信号符号化部42および信号切り替え部30に供給する。すなわち、差信号演算部26は、所定のフレームのL信号とR信号について、L画像上の画素の画素値から、その画素と同じ位置にあるR画像上の画素の画素値を減算し、その結果得られた画素値の差を差信号の画像の画素の画素値とする。
なお、差信号においても和信号の場合と同様に、L画像とR画像の差が正規化されて、差信号の画素の画素値とされてもよい。また、後段の符号化器(差信号符号化部42)の入力として負の値をとれない場合には、差信号が負の値をとらないように、予め定められたオフセット値を加えてもよい。
ステップS15において、信号切り替え部30は、ガンマ変換部24からのL信号とR信号、和信号演算部25からの和信号、および差信号演算部26からの差信号のうち、ユーザにより指定された信号を表示部31に供給し、表示させる。
これにより、ユーザは、撮像装置11を操作して被写体を撮像しているときに、L信号、R信号、和信号、または差信号のうちの何れか1つの信号の画像を表示部31に表示させることができる。したがって、ユーザは、表示される画像を所望のものに切り替えて、表示部31に表示された画像を見ながら、被写体の撮像を行なうことができる。
例えば、表示部31に和信号の画像が表示された場合、和信号の画像は、L画像とR画像を重ね合わせた画像であるから、ユーザは、左眼用のL画像と右眼用のR画像とにずれがないかを確認しながら、撮像を行なうことができる。
単レンズステレオ3Dカメラである撮像装置11では、光学系22のフォーカス位置と輻輳点が一致する特徴がある。そのため、ユーザが表示部31に表示された和信号の画像を見ながら、輻輳点が表示部31の表示画面の位置となるように、つまり和信号の画像上において、L画像とR画像のそれぞれに含まれる同一被写体が重なるように、光学系22のレンズ調整を行なうことは、フォーカス位置を高精度に合わせることに相当する。
したがって、ユーザは、表示部31に表示される和信号の画像を見ながら、その画像上において、注目する被写体の左右の画像が重なるように光学系22のレンズ調整を行なうという簡単な操作で、注目する被写体に確実にフォーカスを合わせることができる。撮像装置11では、簡単な操作で、高精度に注目する被写体にフォーカスを合わせることができるので、得られた立体画像を再生したときに、その注目する被写体を表示画面に定位させることができる。つまり、より簡単に立体画像の輻輳点のずれの発生を抑制することができる。
このように、和信号の画像を表示部31に表示させれば、ユーザは、フォーカス位置だけでなく、L画像とR画像のずれ量も確認しながら、立体画像を撮像することができる。
また、例えば、表示部31に表示される画像信号を、L信号やR信号に切り替えれば、ユーザは、従来と同様に、L画像やR画像を見ながら、片眼の映像のフォーカスを合わせるレンズ操作をしながら、立体画像の撮像を行うことができる。さらに、表示部31の表示を、差信号に切り替えれば、ユーザは、L画像とR画像のずれ成分のみを表示させて、高精度に左右の画像のずれをなくすように、光学系22のレンズ操作を行なうことができる。
ステップS15において、ユーザにより指定された信号の画像が表示部31に表示されると、ステップS16において、符号化部27は、和信号と差信号を符号化して信号転送部28と記録部29に供給する。
すなわち、和信号符号化部41は、和信号演算部25から供給された和信号を所定の符号化方式で符号化し、差信号符号化部42は、差信号演算部26から供給された差信号を所定の符号化方式で符号化する。
ここで、和信号と差信号の符号化時における符号化方式は、例えば、MPEG(Moving Picture Experts Group)やJPEG2000(Joint Photographic Experts Group)、AVC(Advanced Video Coding)などとすることができる。例えば、符号化方式としてJPEG2000など、ウェーブレット変換を利用して、同一画像を解像度の異なる複数の画像に分割して階層符号化する方式を採用すれば、和信号と差信号の転送先において、必要な解像度の画像を、少ない処理量で得ることができる。
ステップS17において、信号転送部28は、符号化部27から供給された和信号と差信号を他の装置に転送する。また、記録部29は、符号化部27から供給された和信号と差信号を記録する。
ステップS18において、撮像装置11は、被写体の撮像を終了するか否かを判定する。例えば、ユーザにより撮像の終了が指示された場合、終了すると判定される。
ステップS18において、終了しないと判定された場合、処理はステップS11に戻り、上述した処理が繰り返される。これに対して、ステップS18において、終了すると判定された場合、撮像装置11の各部は行っている処理を停止し、撮像処理は終了する。
このようにして、撮像装置11は、被写体の撮像中に、被写体の撮像により得られたL信号とR信号から、それらの和信号を生成し、和信号に基づく画像を表示する。このように、被写体の撮像中に和信号に基づく画像を表示させることで、左右の画像のずれ量を確認しながら被写体の撮像を行なうことができ、より簡単かつ高精度にフォーカス調整を行なうことができる。その結果、撮像により得られる立体画像の輻輳点のずれの発生を抑制することができ、立体画像に2D映像と3D映像の互換性を持たせることができる。
なお、以上においては、撮像装置11として単レンズステレオ3Dカメラを例に説明したが、本発明は、左眼映像と右眼映像の輻輳点およびフォーカス位置が、表示画面の奥行き方向の所定位置で一致するように構成された2レンズ3Dカメラにも適用することができる。2レンズ3Dカメラは、輻輳点の調整とフォーカス位置の調整は、それぞれ独立に調整が行なわれるが、左眼映像と右眼映像の重ね合わせ映像を表示して、撮影者がレンズ操作を行なえば、立体画像に2D映像と3D映像の互換性を持たせることができる。
[信号再生装置の構成]
また、図1の撮像装置11から出力された和信号と差信号は、例えば図3に示す信号再生装置61に受信され、再生される。
図3に示す信号再生装置61は、信号転送部71、記録再生部72、切り替え部73、復号部74、逆ガンマ変換部75−1、逆ガンマ変換部75−2、L信号生成部76、R信号生成部77、および表示部78から構成される。
信号転送部71は、撮像装置11から送信された和信号と差信号を受信して切り替え部73に供給する。なお、信号転送部71により受信された和信号と差信号は、記録再生部72に供給されて記録されてもよい。
記録再生部72は、記録している和信号と差信号を切り替え部73に供給する。切り替え部73は、信号転送部71または記録再生部72の何れか一方から供給された和信号と差信号を復号部74に供給する。
復号部74は、切り替え部73からの和信号を復号する和信号復号部81と、切り替え部73からの差信号を復号する差信号復号部82を備えており、復号された和信号と差信号を、逆ガンマ変換部75−1と逆ガンマ変換部75−2に供給する。ここで、復号部74における復号方式は、撮像装置11における符号化方式に対応する方式とされる。
逆ガンマ変換部75−1および逆ガンマ変換部75−2は、復号部74から供給された和信号と差信号を逆ガンマ変換し、L信号生成部76およびR信号生成部77に供給する。なお、以下、逆ガンマ変換部75−1および逆ガンマ変換部75−2を個々に区別する必要のない場合、単に逆ガンマ変換部75とも称する。
L信号生成部76は、逆ガンマ変換部75−1および逆ガンマ変換部75−2から供給された和信号と差信号からL信号を生成し、表示部78に供給する。R信号生成部77は、逆ガンマ変換部75−1および逆ガンマ変換部75−2から供給された和信号と差信号からR信号を生成し、表示部78に供給する。
表示部78は、L信号生成部76から供給されたL信号と、R信号生成部77から供給されたR信号とに基づいて、例えば偏光眼鏡を利用して立体画像を視聴する所定の表示方式で、画像を立体表示する。すなわち、偏光眼鏡等を装着しているユーザの右眼にR画像が観察され、左眼にL画像が観察されるように、L画像とR画像を表示する。
[再生処理の説明]
図3に示した信号再生装置61は、ユーザにより立体画像の表示が指示されると、その指示に応じて再生処理を行い、立体画像を表示する。以下、図4のフローチャートを参照して、信号再生装置61による再生処理について説明する。
ステップS41において、切り替え部73は、再生が指示された立体画像の立体画像信号を取得する。すなわち、切り替え部73は、信号転送部71または記録再生部72から、ユーザにより指定された立体画像信号を構成する和信号と差信号を取得して復号部74に供給する。
ステップS42において、復号部74は、切り替え部73から供給された和信号と差信号を復号し、逆ガンマ変換部75に供給する。具体的には、和信号復号部81により和信号が復号されて逆ガンマ変換部75−1に供給され、差信号復号部82により差信号が復号されて逆ガンマ変換部75−2に供給される。
ステップS43において、逆ガンマ変換部75−1および逆ガンマ変換部75−2は、和信号復号部81および差信号復号部82から供給された和信号と差信号に対して、逆ガンマ変換を行い、L信号生成部76およびR信号生成部77に供給する。
例えば、逆ガンマ変換では入力値、すなわち逆ガンマ変換前の和信号または差信号の値をxとし、出力値、すなわち逆ガンマ変換後の和信号または差信号の値をyとしたときに、y=x(2.2)とされる。したがって、入力値を横軸とし、出力値を縦軸としたときの逆ガンマ変換の入出力特性を示す曲線は、縦軸の下方向にふくらんだ形状(下方向に凸)の曲線となる。なお、逆ガンマ変換におけるべき指数は、(2.2)に限らず、他の値であってもよい。
ステップS44において、L信号生成部76は、逆ガンマ変換部75から供給された和信号と差信号の和を2で除算することによりL信号を生成し、表示部78に供給する。また、ステップS45において、R信号生成部77は、逆ガンマ変換部75から供給された和信号と差信号の差を2で除算することによりR信号を生成し、表示部78に供給する。すなわち、和信号から差信号が減算されて2で除算される。
ステップS46において、表示部78は、L信号生成部76およびR信号生成部77から供給されたL信号とR信号に基づいて、立体画像を表示させ、再生処理は終了する。なお、表示部78における立体画像の表示方式は、偏光眼鏡方式、時分割シャッタ方式、レンチキュラ方式など、どのような方式であってもよい。
このようにして信号再生装置61は、符号化された和信号と差信号を復号して、L信号とR信号を演算により抽出し、立体画像を表示させる。なお、信号再生装置61においても、立体画像、L画像、R画像、和信号の画像、または差信号の画像の何れかが表示されるように、表示の切り替えが行なわれてもよい。
〈第2の実施の形態〉
[信号再生装置の構成]
また、例えば、撮像装置11が遠隔制御される場合などには、信号再生装置61において、フォーカス操作のために和信号の画像が表示されるようにしてもよい。そのような場合、信号再生装置61は、例えば図5に示すように構成される。なお、図5において、図3における場合と対応する部分には、同一の符号を付してあり、その説明は適宜省略する。
図5の信号再生装置61は、信号転送部71、和信号復号部81、逆ガンマ変換部75、および表示部78から構成される。この信号再生装置61では、信号転送部71で受信された和信号が和信号復号部81で復号された後、逆ガンマ変換部75で逆ガンマ変換され、表示部78に表示される。
[再生処理の説明]
次に、図6のフローチャートを参照して、図5の信号再生装置61により行なわれる再生処理について説明する。
ステップS71において、信号転送部71は、撮像装置11から送信されてきた和信号を受信し、和信号復号部81に供給する。
ステップS72において、和信号復号部81は、信号転送部71から供給された和信号を復号し、逆ガンマ変換部75に供給する。
例えば、和信号が階層符号化されている場合、和信号復号部81は、ユーザにより指定された解像度の画像が得られるように、和信号の必要なデータを用いて復号を行なう。具体的には、階層符号化された和信号のうち、復号に欠くことのできない、最低解像度の画像を得るための最下層のデータから、指定された解像度の画像を得るための階層のデータまでの各階層のデータが用いられて、和信号の復号が行なわれる。
このように、和信号の必要な解像度成分だけを復号すれば、和信号を受信してから表示するまでの処理量をより少なくすることができ、より迅速に和信号の画像を表示させることができる。
なお、ユーザにより和信号の解像度(階層)が指定された場合に、信号転送部71が、和信号の最下層から指定された階層までの符号化データを撮像装置11に要求して、復号に必要な和信号のデータだけが受信されるようにしてもよい。
ステップS73において、逆ガンマ変換部75は、和信号復号部81から供給された和信号に逆ガンマ変換を行なって表示部78に供給する。なお、ステップS73における逆ガンマ変換では、図4のステップS43の処理と同様の処理が行われる。そして、ステップS74において、表示部78は、逆ガンマ変換部75から供給された和信号に基づいて画像を表示して、再生処理は終了する。
ユーザは、表示部78に表示された和信号の画像を確認しながら、撮像装置11の遠隔操作等を行なう。この場合においても、図2を参照して説明した撮像処理と同様に、ユーザは被写体の撮像中に、表示された和信号の画像を見て左右の画像のずれ量を確認しながら被写体の撮像を行なうことができ、より簡単にフォーカスずれの発生を抑制することができる。
図5の信号再生装置61は、和信号のみを復号および表示する構成とされているので、この信号再生装置61によれば、装置の小型化、低コスト化、省電力化、および処理の高速化を実現することができる。
〈第3の実施の形態〉
[信号再生部の構成]
また、撮像装置11で符号化された和信号と差信号を利用する装置として、和信号と差信号からなる立体画像(動画像)の編集を行なう編集装置などが考えられる。図7は、そのような編集装置に組み込まれる信号再生部の構成例を示す図である。
信号再生部111は、入力部121、制御部122、記録再生部72、和信号復号部81、逆ガンマ変換部75、および表示部78から構成される。なお、図7において、図3における場合と対応する部分には、同一の符号を付してあり、その説明は適宜省略する。
入力部121は、ユーザにより操作されると、その操作に応じた信号を制御部122に供給する。制御部122は、入力部121からの信号に応じて、和信号復号部81に和信号の復号を指示したり、記録再生部72に記録されている和信号と差信号を編集したりする。記録再生部72は、撮像装置11による被写体の撮像で得られた和信号と差信号を記録する。
[編集点記録処理の説明]
このような信号再生部111をユーザが操作し、記録再生部72に記録されている和信号と差信号の編集を指示すると、信号再生部111は編集点記録処理を開始する。以下、図8のフローチャートを参照して、信号再生部111により行なわれる編集点記録処理について説明する。
ステップS101において、和信号復号部81は、表示すべき立体画像の和信号を記録再生部72から取得して、復号する。すなわち、ユーザが入力部121を操作して立体画像を指定し、その立体画像の編集の開始を指示すると、制御部122は、ユーザにより指定された立体画像を構成する和信号の復号を、和信号復号部81に指示する。すると、和信号復号部81は、制御部122の指示に従って和信号を復号し、逆ガンマ変換部75に供給する。ここで、例えば和信号が階層符号化されており、ユーザにより、表示する和信号の画像の解像度が指定された場合には、必要な解像度の和信号の復号が行なわれる。
ステップS102において、逆ガンマ変換部75は、和信号復号部81からの和信号に逆ガンマ変換を施し、表示部78に供給する。なお、ステップS102における逆ガンマ変換では、図4のステップS43の処理と同様の処理が行われる。そして、ステップS103において、表示部78は、逆ガンマ変換部75から供給された和信号に基づいて、和信号の画像を表示する。
このようにして、和信号の画像が表示されると、ユーザは、適宜、入力部121を操作して、表示された画像の早送りや早戻し再生等を行ないながら、立体画像の編集点、すなわち切り出そうとするシーンの開始点と終了点の指定を行なう。
ステップS104において、制御部122は、ユーザにより編集点が指定されたか否かを判定する。ステップS104において、編集点が指定されたと判定された場合、ステップS105において、制御部122は、入力部121からの信号に基づいて、立体画像における指定された編集点を記録再生部72に記録する。すなわち、編集点として指定された、立体画像の開始点と終了点の再生時刻が記録される。
ステップS105において編集点が記録されたか、またはステップS104において、編集点が指定されなかったと判定された場合、ステップS106において、制御部122は、処理を終了するか否かを判定する。例えば、ユーザが立体画像の全ての編集点を指定して、編集の終了を指示した場合、処理を終了すると判定される。
ステップS106において、処理を終了しないと判定された場合、処理はステップS101に戻り、上述した処理が繰り返される。すなわち、立体画像の次のフレームが復号されて表示され、ユーザの操作に応じて編集点が記録される。
これに対して、ステップS106において、処理を終了すると判定された場合、編集点記録処理は終了する。
また、信号再生部111は、編集点記録処理の終了後、記録再生部72に記録された編集点に基づいて立体画像の編集を行なう。すなわち、編集点記録処理が終了した時点では、立体画像から切り出される各シーンを特定する編集点のみが指定されており、実際には立体画像は編集されていない。
そこで、信号再生部111は、編集点記録処理の実行後、ユーザにより指定された編集点に基づいて、記録再生部72に記録されている立体画像を構成する和信号と差信号のそれぞれから、編集点により特定されるシーンを切り出して、編集を行なう。すなわち、和信号におけるユーザにより指定された各シーンが切り出されて接続され、新たな和信号とされるとともに、差信号におけるユーザにより指定された各シーンが切り出されて接続され、新たな差信号とされる。そして、このようにして得られた新たな和信号と差信号からなる動画像が、編集後の立体画像とされる。
以上のようにして、信号再生部111は、記録している立体画像を構成する和信号と差信号のうち、和信号のみを読み出して復号し、表示させるとともにユーザの操作に応じて編集点を記録する。そして、信号再生部111は、全ての編集点を記録し、編集点記録処理が終了すると、その後、ユーザの操作によらず、記録している編集点に基づいて立体画像の編集を行なう。
このように、信号再生部111では、編集点の指定時には、和信号のみが復号されて表示されるので、和信号と差信号の両方を復号して立体画像を表示させる場合と比べて、より少ない処理で、迅速に編集に必要な画像を表示させることができる。特に、和信号が階層符号化されている場合には、必要な解像度の画像を得ることができればよく、全階層の和信号を復号する必要はないので、より少ない処理量で迅速に和信号の画像を表示することができる。
また、実際の編集処理は、編集点が指定されて編集点記録処理が終了した後、信号再生部111により行なわれるので、ユーザは特に何もする必要がなく、編集作業に必要な時間をより短くすることができる。
なお、和信号の画像には、L画像上の被写体とR画像上の被写体とが表示されるので、ユーザは和信号の画像を見ながら、左眼用のL画像と右眼用のR画像とにずれがないかなどを確認しながら切り出すべきシーンを選ぶことができる。
例えば、パーソナルコンピュータ等の計算機ベースの編集システムでは、立体画像の編集時に、L画像とR画像の両方を復号して立体画像を表示しようとすると、計算機の処理能力が不足することがある。そうすると、実時間、つまり撮像に要した時間と同じ時間で立体画像の復号と表示を行なえなくなってしまう恐れがある。
これに対して、信号再生部111では、和信号のみを復号して表示させるので、従来のようにL画像とR画像の両方を復号する場合と比べて、復号に必要な計算能力が半分ですみ、より高速に和信号の復号と表示を行なうことができる。
さらに、信号再生部111は、和信号のみを復号および表示する構成とされているので、この信号再生部111によれば、装置の小型化、低コスト化、省電力化、および処理の高速化を実現することができる。
〈第4の実施の形態〉
[撮像装置の構成]
また、図1では2つの撮像部23が、それぞれL画像とR画像を撮像する例について説明したが、1つの撮像部により被写体を撮像して得られた画像を分割することで、L画像とR画像を得るようにしてもよい。
そのような場合、撮像装置は、例えば図9に示すように構成される。なお、図9において、図1における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
図9の撮像装置151は、同期信号生成部21、光学系161、撮像部162、映像分離部163、和信号演算部25、差信号演算部26、符号化部27、信号転送部28、記録部29、および表示部31から構成される。
光学系161は、例えばレンズや偏光素子から構成され、被写体からの光を撮像部162に導く。撮像部162は、光学系161から入射した光を光電変換することにより、被写体の観察位置(視点位置)が異なるL画像とR画像を撮像する。
より詳細には、撮像部162の受光面の各画素には、被写体からの光のうち、L画像を得るための光が入射する画素と、R画像を得るための光が入射する画素とがある。例えば、光学系161を構成する偏光素子は、特定の偏光方向の光のみを抽出することで、被写体からの光を、L画像を得るための光とR画像を得るための光に分離し、それらの光を各画素に入射させる。
つまり、光学系161の入射瞳の位置に設けられた偏光素子と、撮像部162の受光面の各画素に設けられた偏光素子とによって、撮像部162の各画素には、L画像を得るための光、またはR画像を得るための光の何れか一方のみが入射するようになされている。したがって、撮像部162での撮像により得られた1つの画像には、L画像成分とR画像成分とが含まれることになる。撮像部162により撮像された画像は、映像分離部163に供給される。
映像分離部163は、撮像部162から供給された画像から、L画像成分とR画像成分をそれぞれ抽出することにより、撮像部162からの画像をL画像とR画像に分離し、和信号演算部25および差信号演算部26に供給する。
なお、撮像装置151では、表示部31にはL画像とR画像から得られた和信号の画像のみが表示される。また、撮像装置151に、L画像やR画像に対するガンマ変換を行なうガンマ変換部が設けられるようにしてもよい。
[撮像処理の説明]
次に、撮像装置151の動作について説明する。
ユーザが撮像装置151を操作して、被写体の撮像開始を指示すると、撮像装置151は撮像処理を開始して被写体を撮像し、立体画像信号を生成する。以下、図10のフローチャートを参照して、撮像装置151による撮像処理について説明する。
ステップS131において、撮像部162は被写体を撮像する。すなわち、光学系161は、被写体から入射した光を、L画像を得るための光とR画像を得るための光に分離して、それらの光を撮像部162の各画素に入射させる。撮像部162は、同期信号生成部21から供給された同期信号に同期して、光学系161から入射した光を光電変換することで、被写体を撮像し、その結果得られた画像を映像分離部163に供給する。
ステップS132において、映像分離部163は、撮像部162から供給された画像のL画像成分とR画像成分とを分離し、必要に応じて補完処理を行なうことにより、L画像とR画像を生成して和信号演算部25および差信号演算部26に供給する。
ステップS133において、和信号演算部25は、映像分離部163から供給されたL画像とR画像から和信号を生成し、符号化部27および表示部31に供給する。そして、ステップS134において、差信号演算部26は、映像分離部163から供給されたL画像とR画像から差信号を生成し、符号化部27に供給する。
ステップS135において、表示部31は、和信号演算部25から供給された和信号に基づいて画像を表示する。さらに、ステップS136において、符号化部27は、和信号演算部25および差信号演算部26から供給された和信号および差信号を符号化し、信号転送部28と記録部29に供給する。
その後、ステップS137およびステップS138の処理が行われて撮像処理は終了するが、これらの処理は図2のステップS17およびステップS18の処理と同様であるので、その説明は省略する。
このようにして、撮像装置151は、1つの撮像部162で撮像された画像から、L画像とR画像を生成する。
なお、光学系161では、偏光素子を利用して、L画像を得るための光とR画像を得るための光を分離すると説明したが、シャッタを利用して、光学系161の入射瞳に入射した光束の右半分と左半分とを、時分割で交互に撮像部162に入射させるようにしてもよい(例えば、特開2001−61165号公報参照)。そのような場合、撮像部162において、L画像とR画像とが交互に撮像されることになる。
〈第5の実施の形態〉
[撮像装置の構成]
また、図1においては、L画像とR画像とからなる立体画像を撮像する例について説明したが、視聴する位置によって異なる視点の立体画像が表示される、多視点画像を撮像するようにしてもよい。そのような場合、例えば撮像装置は図11に示すように構成される。
例えば、図11の撮像装置191は、N視点画像を撮像するライトフィールドカメラなどとされる。撮像装置191は、同期信号生成部21、光学系201、撮像部202、映像分離部203、平均信号演算部204、差信号演算部205−1乃至差信号演算部205−(N−1)、符号化部206、信号転送部28、記録部29、および表示部31から構成される。なお、図11において、図1における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
光学系201は、例えば複数のレンズなどから構成され、被写体から入射した光を撮像部202に導く。撮像部202は、同期信号生成部21から供給された同期信号に同期して、光学系201から入射した光を光電変換することで、N個(但し、3≦N)の異なる視点の画像成分が含まれる多視点信号を生成し、映像分離部203に供給する。
例えば、撮像部202の受光面の各画素には、被写体からの光のうちのどの視点の光束が入射するかが定められており、光学系201に設けられたマイクロレンズアレイにより、被写体からの光が複数の各視点の光束に分割されて、撮像部202の画素に導かれる。
映像分離部203は、撮像部202における各視点の画素の配置に基づいて、撮像部202から供給された多視点信号を視点ごとの画像信号に分離して、平均信号演算部204および差信号演算部205−1乃至差信号演算部205−(N−1)に供給する。なお、以下、多視点信号から分離された、N個の各視点の画像信号のそれぞれを、画像信号P1乃至画像信号PNと呼ぶこととする。
平均信号演算部204は、映像分離部203から供給された画像信号P1乃至画像信号PNの各画素の画素値の平均値を求めて、求めた平均値を新たな画素の画素値とすることにより、平均信号を生成する。この平均信号に基づく画像(以下、平均画像と称する)の各画素は、N個の各視点の画像の同じ位置にある画素の平均値である。
平均信号演算部204は、生成した平均信号を表示部31、符号化部206、および差信号演算部205−1乃至差信号演算部205−(N−1)に供給する。
差信号演算部205−1乃至差信号演算部205−(N−1)は、映像分離部203から供給された画像信号P1乃至画像信号P(N−1)と、平均信号演算部204から供給された平均信号との差を求めることにより、差信号D1乃至差信号D(N−1)を生成し、符号化部206に供給する。
なお、以下、差信号演算部205−1乃至差信号演算部205−(N−1)を個々に区別する必要のない場合、単に差信号演算部205とも称する。また、以下、画像信号P1乃至画像信号PNを個々に区別する必要のない場合、単に画像信号Pとも称し、差信号D1乃至差信号D(N−1)を個々に区別する必要のない場合、単に差信号Dとも称する。
符号化部206は、平均信号演算部204からの平均信号を符号化する平均信号符号化部211と、差信号演算部205からの差信号Dを符号化する差信号符号化部212−1乃至差信号符号化部212−(N−1)とを備えている。符号化部206は、符号化により得られた平均信号と差信号Dを、記録部29と信号転送部28に供給する。
なお、以下、差信号符号化部212−1乃至差信号符号化部212−(N−1)のそれぞれを個々に区別する必要のない場合、単に差信号符号化部212と称する。
[撮像処理の説明]
ところで、ユーザが撮像装置191を操作して、被写体の撮像開始を指示すると、撮像装置191は撮像処理を開始して被写体を撮像し、多視点信号を生成する。以下、図12のフローチャートを参照して、撮像装置191による撮像処理について説明する。
ステップS161において、撮像部202は被写体を撮像する。すなわち、光学系201は、被写体から入射してきた各視点の光束を集光して撮像部202に入射させ、撮像部202は、光学系201から入射した各光束を光電変換することで、被写体を撮像する。そして、撮像部202は、撮像により得られた多視点信号を映像分離部203に供給する。
ステップS162において、映像分離部203は、撮像部202から供給された多視点信号を、視点ごとの画像信号Pに分離して、平均信号演算部204および差信号演算部205に供給する。なお、映像分離部203において、各視点の画像信号Pにガンマ変換や、欠陥補正、ホワイトバランス調整等の補正処理が施されるようにしてもよい。
ステップS163において、平均信号演算部204は、映像分離部203から供給された画像信号P1乃至画像信号PNの平均値を求めることで、平均信号を生成し、表示部31、平均信号符号化部211、および差信号演算部205に供給する。すなわち、各画像信号Pの和が、視点数N(画像信号Pの数)で除算されて平均信号が生成される。
ステップS164において、差信号演算部205は、映像分離部203から供給された画像信号Pから、平均信号演算部204から供給された平均信号を減算して、差信号Dを生成し、差信号符号化部212に供給する。例えば差信号演算部205−1では、画像信号P1と平均信号の差が求められ、差信号D1が生成される。
ステップS165において、表示部31は、平均信号演算部204から供給された平均信号に基づいて、平均画像を表示する。この平均画像は、各視点から見た被写体の画像を重ね合わせた画像であるから、ユーザは、表示部31に表示された平均画像を見て、各視点の画像にずれがないかを確認しながら、撮像を行なうことができる。これにより、より簡単に多視点画像の輻輳点のずれの発生を抑制することができる。
ステップS166において、符号化部206は、平均信号演算部204からの平均信号と、差信号演算部205からの差信号Dとを符号化し、信号転送部28および記録部29に供給する。すなわち、平均信号符号化部211により平均信号が符号化され、差信号符号化部212により差信号Dが符号化される。
ステップS167において、信号転送部28は、符号化部206から供給された平均信号と差信号Dを他の装置に転送する。また、記録部29は、符号化部206から供給された平均信号と差信号Dを記録する。
ステップS168において、撮像装置191は、被写体の撮像を終了するか否かを判定する。例えば、ユーザにより撮像の終了が指示された場合、終了すると判定される。
ステップS168において、終了しないと判定された場合、処理はステップS161に戻り、上述した処理が繰り返される。これに対して、ステップS168において、終了すると判定された場合、撮像装置191の各部は行っている処理を停止し、撮像処理は終了する。
このようにして、撮像装置191は、被写体の撮像中に、被写体の撮像により得られた各視点の画像信号Pから平均信号を生成し、平均画像を表示する。このように、被写体の撮像中に平均画像を表示させることで、各視点の画像のずれ量を確認しながら被写体の撮像を行なうことができ、より簡単かつ高精度にフォーカス調整を行なうことができる。その結果、撮像により得られる多視点画像の輻輳点のずれの発生を抑制することができる。
なお、撮像装置191は、1つの光学系201と撮像部202とから、複数の視点の成分が含まれる多視点信号を得る構成とされているが、視点ごとに光学系201と撮像部202とを設けるようにしてもよい。この場合、被写体の撮像により、直接、N個の各視点の画像信号Pが得られるため、映像分離部203を設ける必要がなくなる。
[信号再生装置の構成]
また、図11の撮像装置191から出力された平均信号と差信号Dは、例えば図13に示す信号再生装置241に受信され、再生される。
図13に示す信号再生装置241は、信号転送部71、記録再生部72、切り替え部73、復号部251、信号生成部252−1乃至信号生成部252−N、および表示部253から構成される。なお、図13において、図3における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
復号部251は、切り替え部73からの平均信号を復号する平均信号復号部261と、切り替え部73からの差信号D1乃至差信号D(N−1)を復号する差信号復号部262−1乃至差信号復号部262−(N−1)を備えている。復号部251は、復号により得られた平均信号と差信号Dを信号生成部252−1乃至信号生成部252−Nに供給する。
なお、以下、差信号復号部262−1乃至差信号復号部262−(N−1)を個々に区別する必要のない場合、単に差信号復号部262と称する。
信号生成部252−1乃至信号生成部252−Nは、復号部251から供給された平均信号と差信号Dとから、各視点の画像信号Pを生成し、表示部253に供給する。なお、以下、信号生成部252−1乃至信号生成部252−Nを個々に区別する必要のない場合、単に信号生成部252とも称する。
表示部253は、信号生成部252から供給された、各視点の画像信号Pに基づいて、N視点画像を表示する。
[再生処理の説明]
図13に示した信号再生装置241は、ユーザによりN視点画像の表示が指示されると、その指示に応じて再生処理を行い、N視点画像を表示する。以下、図14のフローチャートを参照して、信号再生装置241による再生処理について説明する。
ステップS191において、切り替え部73は、再生が指示されたN視点画像を取得する。すなわち、切り替え部73は、信号転送部71または記録再生部72からユーザにより指定されたN視点画像の信号、すなわち平均信号と差信号Dを取得して復号部251に供給する。
ステップS192において、復号部251は、切り替え部73から供給された平均信号と差信号Dを復号し、信号生成部252に供給する。具体的には、平均信号復号部261により平均信号が復号され、差信号復号部262により差信号Dが復号される。
ステップS193において、信号生成部252は、復号部251から供給された平均信号と差信号Dとに基づいて、各視点の画像信号Pを生成し、表示部253に供給する。
例えば、信号生成部252−1は、差信号D1と平均信号の和を求めることにより、画像信号P1を生成する。同様に、信号生成部252−2乃至信号生成部252−(N−1)は、差信号D2乃至差信号D(N−1)と平均信号の和を求めることにより、画像信号P2乃至画像信号P(N−1)を生成する。さらに、信号生成部252−Nは、平均信号から、差信号D1乃至差信号D(N−1)の和を減算することにより、画像信号PNを生成する。
ステップS194において、表示部253は、信号生成部252から供給された各視点の画像信号P1乃至画像信号PNに基づいて、レンチキュラ方式等によりN視点画像を表示し、再生処理は終了する。
このようにして信号再生装置241は、符号化された平均信号と差信号を復号して、各視点の画像信号を演算により抽出し、N視点画像を表示させる。
また、上述した撮像装置11、信号再生装置61、信号再生部111、撮像装置151、撮像装置191、および信号再生装置241の各部は、全てハードウェアにより実現することが可能である。また、そのような場合、これらの装置において行なわれる各処理は、並列に行うことが可能である。
上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。
図15は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
コンピュータにおいて、CPU(Central Processing Unit)301,ROM(Read Only Memory)302,RAM(Random Access Memory)303は、バス304により相互に接続されている。
バス304には、さらに、入出力インターフェース305が接続されている。入出力インターフェース305には、キーボード、マウス、マイクロホンなどよりなる入力部306、ディスプレイ、スピーカなどよりなる出力部307、ハードディスクや不揮発性のメモリなどよりなる記録部308、ネットワークインターフェースなどよりなる通信部309、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア311を駆動するドライブ310が接続されている。
以上のように構成されるコンピュータでは、CPU301が、例えば、記録部308に記録されているプログラムを、入出力インターフェース305及びバス304を介して、RAM303にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU301)が実行するプログラムは、例えば、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)等)、光磁気ディスク、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア311に記録して、あるいは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供される。
そして、プログラムは、リムーバブルメディア311をドライブ310に装着することにより、入出力インターフェース305を介して、記録部308にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部309で受信し、記録部308にインストールすることができる。その他、プログラムは、ROM302や記録部308に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
なお、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
11 撮像装置, 23−1,23−2,23 撮像部, 25 和信号演算部, 26 差信号演算部, 27 符号化部, 30 信号切り替え部, 31 表示部, 61 信号再生装置, 74 復号部, 76 L信号生成部, 77 R信号生成部, 78 表示部, 161 光学系, 162 撮像部, 163 映像分離部, 191 撮像装置, 201 光学系, 202 撮像部, 203 映像分離部, 204 平均信号演算部, 205−1乃至205−(N−1),205 差信号演算部, 206 符号化部

Claims (13)

  1. 被写体を立体表示するための互いに視差を有する画像を撮像して、前記画像の画像信号を生成する撮像手段と、
    前記視差を有する画像の画像信号を加算することで加算信号を生成する加算信号演算手段と、
    前記視差を有する画像の撮像中に、前記加算信号に基づく画像を表示する表示手段と
    を備える画像処理装置。
  2. 前記画像信号の差を求めることで差信号を生成する差信号演算手段と、
    前記加算信号および前記差信号を符号化する符号化手段と
    をさらに備える請求項1に記載の画像処理装置。
  3. 前記符号化手段は、前記加算信号および前記差信号を階層符号化する
    請求項2に記載の画像処理装置。
  4. 前記画像信号に基づく画像、前記加算信号に基づく画像、または前記差信号に基づく画像の何れかが前記表示手段に表示されるように、画像の表示を切り替える切り替え手段をさらに備える
    請求項2に記載の画像処理装置。
  5. 前記撮像手段は、光学系を介して前記被写体から入射した異なる光束を受光することで、前記視差を有する画像を撮像する複数の撮像部を有する
    請求項1に記載の画像処理装置。
  6. 前記加算信号演算手段は、3以上の前記画像信号を加算して得られた信号を、加算した前記画像信号の数で除算することにより前記加算信号を生成し、
    前記画像信号と前記加算信号の差を求めることで差信号を生成する差信号演算手段と、
    前記加算信号および前記差信号を符号化する符号化手段と
    をさらに備える請求項1に記載の画像処理装置。
  7. 被写体を立体表示するための互いに視差を有する画像を撮像して、前記画像の画像信号を生成する撮像手段と、
    前記視差を有する画像の画像信号を加算することで加算信号を生成する加算信号演算手段と、
    前記視差を有する画像の撮像中に、前記加算信号に基づく画像を表示する表示手段と
    を備える画像処理装置の画像処理方法であって、
    前記撮像手段が前記視差を有する画像を撮像し、
    前記加算信号演算手段が、前記加算信号を生成し、
    前記表示手段が前記加算信号に基づく画像を表示する
    ステップを含む画像処理方法。
  8. 被写体を立体表示するための互いに視差を有する画像の撮像を制御して、前記画像の画像信号を生成させ、
    前記視差を有する画像の画像信号を加算することで加算信号を生成し、
    前記視差を有する画像の撮像中に、前記加算信号に基づく画像を表示させる
    ステップを含む処理をコンピュータに実行させるプログラム。
  9. 被写体を立体表示するための互いに視差を有する画像を撮像して得られた画像信号を加算して生成された加算信号であって、所定の符号化方式により符号化されている加算信号を受信する受信手段と、
    受信された前記加算信号を復号する復号手段と、
    復号された前記加算信号に基づく画像を表示する表示手段と
    を備える画像処理装置。
  10. 前記加算信号は階層符号化されており、
    前記復号手段は、階層符号化により得られた各階層の前記加算信号のうち、最下層から、指定された解像度の画像が得られる階層までの前記加算信号を復号する
    請求項9に記載の画像処理装置。
  11. 前記受信手段は、前記被写体を撮像する撮像装置から前記加算信号を受信し、
    前記表示手段は、前記撮像装置における前記被写体の撮像中に、前記加算信号に基づく画像を表示する
    請求項9に記載の画像処理装置。
  12. 被写体を立体表示するための互いに視差を有する画像を撮像して得られた画像信号を加算して生成された加算信号であって、所定の符号化方式により符号化されている加算信号を受信する受信手段と、
    受信された前記加算信号を復号する復号手段と、
    復号された前記加算信号に基づく画像を表示する表示手段と
    を備える画像処理装置の画像処理方法であって、
    受信手段が、前記加算信号を受信し、
    前記復号手段が、前記加算信号を復号し、
    前記表示手段が、前記加算信号に基づく画像を表示する
    ステップを含む画像処理方法。
  13. 被写体を立体表示するための互いに視差を有する画像を撮像して得られた画像信号を加算して生成された加算信号であって、所定の符号化方式により符号化されている加算信号の受信を制御し、
    受信された前記加算信号を復号し、
    復号された前記加算信号に基づく画像の表示を制御する
    ステップを含む処理をコンピュータに実行させるプログラム。
JP2010172503A 2010-07-30 2010-07-30 画像処理装置および方法、並びにプログラム Withdrawn JP2012034215A (ja)

Priority Applications (10)

Application Number Priority Date Filing Date Title
JP2010172503A JP2012034215A (ja) 2010-07-30 2010-07-30 画像処理装置および方法、並びにプログラム
CA2804362A CA2804362A1 (en) 2010-07-30 2011-07-29 Image processing apparatus and method and program
US13/811,752 US20130120530A1 (en) 2010-07-30 2011-07-29 Image processing apparatus and method and program
PCT/JP2011/004318 WO2012014494A1 (en) 2010-07-30 2011-07-29 Image processing apparatus and method and program
EP11812091.4A EP2599320A4 (en) 2010-07-30 2011-07-29 IMAGE PROCESSING APPARATUS AND METHOD AND PROGRAM
MX2013000939A MX2013000939A (es) 2010-07-30 2011-07-29 Aparato de procesamiento de imagenes.
AU2011284087A AU2011284087A1 (en) 2010-07-30 2011-07-29 Image processing apparatus and method and program
CN2011800361451A CN103026714A (zh) 2010-07-30 2011-07-29 图像处理设备和方法以及程序
BR112013001730A BR112013001730A2 (pt) 2010-07-30 2011-07-29 método implementado por computador processamento de imagens, dispositivo eletrônico para processamento de imagens, e, mídia de armazenamento legível por computador não temporária tangivelmente incorporada
RU2013103037/08A RU2013103037A (ru) 2010-07-30 2011-07-29 Устройство и способ обработки изображения и программа

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010172503A JP2012034215A (ja) 2010-07-30 2010-07-30 画像処理装置および方法、並びにプログラム

Publications (1)

Publication Number Publication Date
JP2012034215A true JP2012034215A (ja) 2012-02-16

Family

ID=45529720

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010172503A Withdrawn JP2012034215A (ja) 2010-07-30 2010-07-30 画像処理装置および方法、並びにプログラム

Country Status (10)

Country Link
US (1) US20130120530A1 (ja)
EP (1) EP2599320A4 (ja)
JP (1) JP2012034215A (ja)
CN (1) CN103026714A (ja)
AU (1) AU2011284087A1 (ja)
BR (1) BR112013001730A2 (ja)
CA (1) CA2804362A1 (ja)
MX (1) MX2013000939A (ja)
RU (1) RU2013103037A (ja)
WO (1) WO2012014494A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014021232A1 (ja) * 2012-07-31 2014-02-06 旭硝子株式会社 マイクロレンズアレイ、撮像素子パッケージおよびマイクロレンズアレイの製造方法

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104247413B (zh) * 2012-04-23 2017-12-29 Lg 电子株式会社 用于3d服务的信号处理设备和方法
US10244223B2 (en) * 2014-01-10 2019-03-26 Ostendo Technologies, Inc. Methods for full parallax compressed light field 3D imaging systems
EP3264761A1 (en) * 2016-06-23 2018-01-03 Thomson Licensing A method and apparatus for creating a pair of stereoscopic images using least one lightfield camera

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59140788A (ja) * 1983-01-31 1984-08-13 Sony Corp 疑似立体像表示装置
JPH0746630A (ja) * 1993-07-28 1995-02-14 Victor Co Of Japan Ltd 立体映像信号圧縮装置
JPH09116882A (ja) * 1995-10-13 1997-05-02 Ricoh Co Ltd オーディオビジュアル通信端末装置
JPH11355624A (ja) * 1998-06-05 1999-12-24 Fuji Photo Film Co Ltd 撮影装置
JP4512276B2 (ja) * 2001-01-18 2010-07-28 オリンパス株式会社 撮像装置
JP4306638B2 (ja) * 2005-04-14 2009-08-05 ソニー株式会社 画像処理システム,撮像装置,撮像方法,画像再生装置および画像再生方法
JP4172504B2 (ja) * 2006-06-22 2008-10-29 ソニー株式会社 画像処理装置、撮像装置、および方法
JP4757812B2 (ja) * 2007-02-20 2011-08-24 富士フイルム株式会社 立体撮影装置および方法並びにプログラム
JP4720785B2 (ja) * 2007-05-21 2011-07-13 富士フイルム株式会社 撮像装置、画像再生装置、撮像方法及びプログラム
JP4851406B2 (ja) * 2007-08-31 2012-01-11 富士フイルム株式会社 多眼撮影システムにおける調整用画像表示方法および多眼撮影システム
US8300086B2 (en) * 2007-12-20 2012-10-30 Nokia Corporation Image processing for supporting a stereoscopic presentation

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014021232A1 (ja) * 2012-07-31 2014-02-06 旭硝子株式会社 マイクロレンズアレイ、撮像素子パッケージおよびマイクロレンズアレイの製造方法
JPWO2014021232A1 (ja) * 2012-07-31 2016-07-21 旭硝子株式会社 マイクロレンズアレイ、撮像素子パッケージおよびマイクロレンズアレイの製造方法
US9470820B2 (en) 2012-07-31 2016-10-18 Asahi Glass Company, Limited Microlens array, image pickup element package, and method for manufacturing microlens array

Also Published As

Publication number Publication date
RU2013103037A (ru) 2014-07-27
BR112013001730A2 (pt) 2016-05-31
AU2011284087A1 (en) 2013-02-07
CN103026714A (zh) 2013-04-03
CA2804362A1 (en) 2012-02-02
EP2599320A1 (en) 2013-06-05
MX2013000939A (es) 2013-02-15
EP2599320A4 (en) 2014-07-16
WO2012014494A1 (en) 2012-02-02
US20130120530A1 (en) 2013-05-16

Similar Documents

Publication Publication Date Title
US9716873B2 (en) Image processing device and image processing method
JP5137340B2 (ja) 映像ディスプレイモードの転換方法及び装置
JP5328082B2 (ja) 映像送信及び受信方法と装置、及びその伝送ストリーム構造
US10055814B2 (en) Image processing device and image processing method
US8810565B2 (en) Method and system for utilizing depth information as an enhancement layer
US20120050478A1 (en) Method and System for Utilizing Multiple 3D Source Views for Generating 3D Image
US10122986B2 (en) Image processing device and image processing method
JP2008109267A (ja) 立体画像生成装置及び立体画像復号装置
WO2012029615A1 (ja) 画像処理装置および画像処理方法
US8941718B2 (en) 3D video processing apparatus and 3D video processing method
JP2012034215A (ja) 画像処理装置および方法、並びにプログラム
EP2485494A1 (en) Method and system for utilizing depth information as an enhancement layer
JP2013051637A (ja) 符号化装置及び符号化方法
US20140072271A1 (en) Recording apparatus, recording method, reproduction apparatus, reproduction method, program, and recording reproduction apparatus
KR101044952B1 (ko) 영상 송신 및 수신 방법과 장치 및 이의 전송 스트림 구조
JP2004242000A (ja) 符号化装置および方法、並びに復号装置および方法
KR101303719B1 (ko) 깊이 정보를 강화 계층으로 이용하기 위한 방법 및 시스템
JP2014090252A (ja) 画像処理装置およびその制御方法、撮像装置およびその制御方法、並びに画像処理プログラム
EP2485493A2 (en) Method and system for error protection of 3D video
TW201309027A (zh) 再生裝置、再生方法、及程式
KR20120089604A (ko) 3d 비디오의 오류 보호를 위한 방법 및 시스템

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20131001