JP2013051637A - 符号化装置及び符号化方法 - Google Patents

符号化装置及び符号化方法 Download PDF

Info

Publication number
JP2013051637A
JP2013051637A JP2011189689A JP2011189689A JP2013051637A JP 2013051637 A JP2013051637 A JP 2013051637A JP 2011189689 A JP2011189689 A JP 2011189689A JP 2011189689 A JP2011189689 A JP 2011189689A JP 2013051637 A JP2013051637 A JP 2013051637A
Authority
JP
Japan
Prior art keywords
image
sub
encoding
picture
main image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011189689A
Other languages
English (en)
Inventor
Shigeki Mochizuki
成記 望月
Jun Otsuki
純 大槻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2011189689A priority Critical patent/JP2013051637A/ja
Publication of JP2013051637A publication Critical patent/JP2013051637A/ja
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

【課題】立体映像として表示される主画像及び副画像を効率良く符号化できるようにする。
【解決手段】撮影時のカメラ情報、具体的には、撮像素子のサイズ情報、焦点距離情報、レンズ間距離情報、及び被写体距離情報を用いて左眼用画像と右眼用画像との重複領域及び非重複領域を算出する。そして、符号化する際には、左眼用画像の重複領域及び非重複領域と、右眼用画像の重複領域とをそれぞれを独立して符号化し、2次元画像を表示したい場合に、左眼用画像の重複領域及び非重複領域を復号化できるようにするとともに、3次元画像を表示したい場合に、左眼用画像及び右眼用画像の重複領域を復号化できるようにする。
【選択図】図1

Description

本発明は符号化装置、符号化方法及びプログラムに関し、特に、立体映像に用いられる主画像及び副画像を符号化するために用いて好適な技術に関する。
従来、2眼式立体映像テレビにおいては、2台のカメラにより異なる2方向から撮影された左眼用画像と右眼用画像とを同一画面に合成して表示することにより立体映像として表示することができる。
このような立体映像の表示方式の1つとしては、左眼用画像と右眼用画像とを表示装置において偏光表示し、偏光眼鏡を掛けて立体映像を視聴する方式がある。また、他の表示方式としては、表示装置側でフレーム単位に左眼用画像と右眼用画像とを交互に切り換えて表示するとともに、その切り替えに同期して左右のシャッターを開閉させ、液晶シャッター眼鏡を掛けて立体映像を視聴する眼鏡方式などがある。さらに、表示装置にレンチキュラーレンズや視差バリアーを配置し、裸眼で立体映像を視聴する裸眼方式が一般的に知られている。
一方、このような立体映像を符号化する方法として、一般的に主画像(例えば、左眼用画像)と副画像(例えば、右眼用画像)との差分画像を符号化する方法が知られている。この方法を用いる場合、副画像のみを復号化するためには、先に主画像を復号化する必要があるため、各視点で共通となる画像を生成し、その共通画像との差分画像を符号化する方法が提案されている(例えば、特許文献1参照)。また、立体映像を符号化する方法として、通常の符号化にも用いられるカメラ毎の画像間の動き予測を用いた符号化方法だけでなく、左眼用カメラと、右眼用カメラとの視差を用いた符号化方法が知られている(例えば、特許文献2参照)。
特開2006−352261号公報 特開2008−211502号公報
2台のカメラを用いて立体映像を撮影する場合、カメラのレンズ間で所定の距離を設けて撮影する。これにより、右眼用カメラと左眼用カメラとの間で、撮像される被写体に対して共通となる重複領域とそれぞれのカメラでしか撮像できない非重複領域とが発生する。立体映像を表示する場合は、重複領域が立体視として有効な領域となる。
一方、非重複領域は、主画像と副画像とで相関性のない画像領域であり、立体映像を視聴する上でチラツキの原因となる領域である。したがって、立体映像を符号化する場合には、このような非重複領域を含めて符号化を行っていたため、非効率である。また、非重複領域が存在することにより他方のカメラで撮影した映像を参照して動きベクトル探索処理を行うなど余分な演算が発生し、非効率である。
本発明は前述の問題点に鑑み、立体映像として表示される主画像及び副画像を効率良く符号化できるようにすることを目的としている。
本発明の符号化装置は、撮影位置が異なる主画像及び副画像がそれぞれ撮影された時のカメラ情報に基づいて、前記主画像と前記副画像との間で共通に撮像されている重複領域を算出する算出手段と、前記算出手段により算出された重複領域と非重複領域とに分割して、前記主画像と前記副画像とに対して符号化を行う符号化手段とを備えることを特徴とする。
本発明によれば、余分な領域での符号化を不要にして、立体映像として表示される主画像及び副画像を効率良く符号化することができる。
第1の実施形態に係る立体撮像信号記録再生装置の構成例を示すブロック図である。 2つの撮像部と被写体との距離の関係を示す図である。 第1の実施形態における左眼用画像と右眼用画像と間の重複領域及び符号化領域を示す図である。 第1の実施形態において、記憶媒体に記録される画像ファイル及び管理ファイルの記録例を示す図である。 第1の実施形態において、2次元画像または3次元画像として復号化する領域を説明する図である。 左眼用画像及び右眼用画像をそれぞれ水平方向へ2分の1に縮小する手順を説明する図である。 視差バリアーを設けた場合の両目に映る領域を説明する図である。 第2の実施形態における左眼用画像と右眼用画像と間の重複領域及び符号化領域を示す図である。 第2の実施形態において、記憶媒体に記録される画像ファイル及び管理ファイルの記録例を示す図である。 第2の実施形態において、2次元画像または3次元画像として復号化する領域を説明する図である。 第3の実施形態に係る立体映像符号化装置の構成例を示すブロック図である。 第3の実施形態における左眼用の予測方法決定部の詳細な構成例を示すブロック図である。 2つのカメラ部と被写体との距離の関係を示す図である。 第3の実施形態における右眼用の予測方法決定部の詳細な構成例を示すブロック図である。 第3の実施形態において、符号化対象ブロックが重複領域である場合の動きベクトルの探索範囲を説明する図である。
以下、本発明の実施形態について図面を参照しながら説明する。また、以下の説明では、左眼用画像を主画像とし、右眼用画像を副画像として説明する。
(第1の実施形態)
図1は、本実施形態に係る立体撮像信号記録再生装置100の構成例を示すブロック図である。なお、図1に示す符号の末尾a及びbはそれぞれ左眼用、右眼用であることを示しており、互いに同期して動作するものとする。また、左眼用及び右眼用のそれぞれの構成は共通であるため、その説明も共通に行うものとする。
図1において、操作部101は、立体撮像信号記録再生装置100に対するコントローラーであり、ユーザーの操作により操作部101から入力される信号に基づいてCPU102は、立体撮像信号記録再生装置100を構成する各部を制御する。操作部101には、記録・再生等を指示する操作キーや、各種設定を行うためのメニュー・ボタンが含まれる。
撮像部103a(撮像部103b)には、光学レンズ、絞り、フォーカス制御及びレンズ駆動部から構成されるレンズ光学系と、レンズ光学系からの光情報を電気信号に変換する撮像素子とが含まれる。さらに、撮像素子によって得られた撮像信号をディジタル信号へ変換するA/D(アナログ・ディジタル変換)が含まれる。
撮像信号処理部104a(撮像信号処理部104b)は、撮像部103a(撮像部103b)からそれぞれ供給されるディジタル信号を記録フォーマットで定義された画面解像度の映像信号へ変換し、映像表示処理部105へ供給する。
映像表示処理部105は、記録時には、撮像信号処理部104a(撮像信号処理部104b)から供給される映像信号を符号化・復号化処理部107a(符号化・復号化処理部107b)へ供給するとともに、右眼用映像及び左眼用映像を表示部106へ供給する。一方、再生時には、符号化・復号化処理部107a、107bからそれぞれ供給される右眼用映像及び左眼用映像を表示部106へ供給する。
表示部106は、映像表示処理部105から入力される映像信号を表示するディスプレイである。本実施形態では、液晶シャッター眼鏡を用いたフレームシーケンシャル方式、もしくは視差バリアー又はレンチキュラーレンズを用いた裸眼式の立体映像表示デバイスを用いてもよく、いずれの方式であってもよい。
符号化・復号化処理部107a(符号化・復号化処理部107b)は、記録時には、映像表示処理部105から供給される映像信号をMPEG−2(ISO/IEC13818)方式で符号化し、符号化データを記録再生処理部108へ供給する。一方、再生時には、記録再生処理部108から供給される符号化データを復号化し、復号化した映像信号を映像表示処理部105へ供給する。
記録再生処理部108は、記録時には、符号化・復号化処理部107a、107bからそれぞれ供給される符号化データを所定のフォーマットに変換し、ハードディスクドライブ、又は不揮発性メモリ等で構成される記憶媒体109へ記録する。一方、再生時には、記憶媒体109から指定された記録データを読み出し、符号化・復号化処理部107a、107bへ供給する。
ここで、本実施形態に係る立体撮像信号記録再生装置100では、撮影時に得られるカメラ情報として以下の情報が含まれる。具体的には、撮像部103a、103bにおける撮像素子のサイズ情報である対角線の長さLa、及び焦点距離情報である撮影時の焦点距離Lbが含まれる。さらに、レンズ間距離情報として、撮影位置が異なる2つの撮像部103a、103bにおけるレンズ間の基線長Lc、及び被写体距離情報である撮影時に測定されたレンズから被写体までの距離Ldが含まれる。CPU102は、これらの情報を用いて撮像部103a、103bで撮影された映像に対する重複領域及び非重複領域を算出し、重複領域と非重複領域とを独立した画像として符号化し、記録する。
まず、撮像部103a、103bで撮影された映像に対する重複領域の算出方法について説明する。
図2は、本実施形態に係る立体撮像信号記録再生装置100における撮影時の撮像部103a、103bと被写体との距離の関係を示す図である。
図2において、左眼用の撮像部103aに着目し、レンズの中心と撮像素子の対角の両端とを結んだ三角形201に対し、撮像素子の対角線の長さLa、及び焦点距離Lbを用いて、以下の式(1)により画角の2分の1となる角度θを算出する。
θ=arctan(La/2*Lb)・・・・式(1)
次に、算出した画角「θ×2」から、レンズの中心から被写体までの距離で構成される三角形202の垂線であるレンズから被写体までの距離Ldを用いて、以下の式(2)により三角形202の底辺の長さLeを算出する。
Le=2Ldtanθ・・・・式(2)
続いて、左眼用の撮像部103aのレンズの中心から被写体までの距離で構成される三角形202と、右眼用の撮像部103bのレンズの中心から被写体までの距離で構成される三角形203の重複領域となる三角形204の底辺の長さLfを算出する。三角形202の底辺の長さLeから三角形204の底辺の長さLfを引いた長さは、左眼用の撮像部103a及び右眼用の撮像部103bのレンズ間の距離Lcに等しいため、以下の式(3)により三角形204の底辺の長さLfが算出される。
Lf=Le−Lc・・・・式(3)
以上のように算出した三角形204の底辺の長さLfと、左眼用の撮像部103a及び右眼用の撮像部103bのレンズ間の距離Lcとの比率が、左眼用の撮像部103a及び右眼用の撮像部103bで撮影される重複領域と非重複領域との比率となる。
図3(a)は、画面上の重複領域及び非重複領域を説明する図である。
算出された重複領域と非重複領域との比率を、記録されている映像の水平画素数Hに掛け合わせることにより、以下の式(4)及び式(5)により重複領域の水平画素数Haと非重複領域の水平画素数Hbを算出することができる。この時、重複領域の水平画素数Haは、符号化画素ブロックの単位であるマクロブロックの水平画素数である16画素単位にアラインメントされる。
Ha=H*La/(La+Lb)・・・・式(4)
Hb=H−Ha・・・・式(5)
ここで、本実施形態の立体撮像信号記録再生装置100が光学ズームレンズを備えている場合にズーム操作が行われると、焦点距離が変動してしまう。この場合、撮像して得られる左眼用画像と右眼用画像との重複領域及び非重複領域が変動してしまうため、撮影開始時に光学ズームの機能を禁止する。これにより、動画における重複領域及び非重複領域を固定化することも可能である。
ところが、焦点距離が変動したり被写体が移動することによって被写体までの距離が変動したりする場合も考えられる。このような場合には、フレームごとに重複領域を算出すると重複領域が変動しまうことから、重複領域の算出には、画像の先頭のカメラ情報を用いる。また、表示対象となる動画のうち、重複領域が最小となるカメラ情報を予め特定し、そのカメラ情報により重複領域を算出してもよい。
続いて、算出した重複領域及び非重複領域の水平画素数に基づいて個別の領域に分割し、独立した画像として符号化して記録する方法について説明する。図3(a)に示す重複領域の水平画素数Haが示す領域が、撮像部103a及び撮像部103bの両方で重複して撮影されている領域となり、この部分に関してのみ立体視として有効となる。
図3(b)は、実際に撮像して得られる左眼用画像及び右眼用画像を示す図である。左眼用画像の左端には、非重複領域の水平画素数Hbに相当する非重複領域が存在し、右眼用画像の右端にも同様に、非重複領域の水平画素数Hbに相当する非重複領域が存在する。これらの非重複領域はそれぞれの撮像部でしか撮影されていない領域となるため、立体映像として表示する場合には利用しない画像領域となる。したがって、図3(c)に示すように、画素数Ha×Vに相当する重複領域と画素数Hb×Vに相当する非重複領域とを個別の画像として符号化し、記録する。
撮像部103aで撮影された左眼用画像に対しては、符号化・復号化処理部107aにおいて、画素数Hb×Vに相当する非重複領域を画像#1とし、画素数Ha×Vに相当する重複領域を画像#2として符号化する。一方、撮像部103bで撮影された右眼用画像に対しては、符号化・復号化処理部107bにおいて、画素数Ha×Vに相当する重複領域のみを画像#3として符号化する。このように符号化された画像は、3つの画像ファイルと1つの管理ファイルとを一組として記憶媒体109へ記録される。
図4(a)は、記憶媒体109に記録される画像ファイル及び管理ファイルの記録例を示す図である。
図4(a)に示すように、ルートディレクトリの直下に、「img」ディレクトリと「mng」ディレクトリとが置かれており、それぞれ動画像ファイル、管理ファイルが格納される。「img」ディレクトリ内の"mov_0001a.mpg"ファイル、"mov_0001b.mpg"ファイル、及び"mov_0001c.mpg"ファイルは、それぞれ画像#1、画像#2、画像#3を符号化した動画像ファイルである。一方、「mng」ディレクトリ内の"mov_0001.mng"ファイルは、動画像ファイルに対する管理情報を記録した管理ファイルであり、2次元画像として表示する場合と3次元画像として表示する場合に必要な管理情報が記録されている。
管理ファイルの内容は、「BL」、「2D」及び「3D」の3つのパラメータで構成されている。「BL」は、非重複領域となる画像が右側"R"であるか、左側"L"であるかの情報、及びその非重複領域の水平方向のマクロブロック数の情報を示している。「2D」は、左眼用映像を2次元画像として表示する場合に必要な2つのファイルを指している。また、「3D」は、左眼用映像と右眼用映像とを3次元映像として表示する場合に必要な左眼用映像及び右眼用映像の重複領域の符号化データとなる2つファイルを指している。
図4(b)は、図4(a)に示した"mov_0001.mng"ファイルの具体的な内容を示す図である。
図4(b)において、「BL="L"、"4"」は、非重複領域が左側にあり、その水平サイズが4マクロブロック、即ち64画素であることを示している。2次元画像として表示する場合には、符号化・復号化処理部107aは、図5(a)に示すように「2D」で指している"mov_0001a.mpg"ファイル及び"mov_0001b.mpg"ファイルを復号化する。そして、映像表示処理部105は、これらの復号化した画像を水平方向64画素の位置から始まる画像として1画面を構成するように表示部106に表示する。
左眼用映像と右眼用映像とを3次元画像として表示する場合には、符号化・復号化処理部107a、107bはそれぞれ、図5(b)に示す「3D」で指す"mov_0001b.mpg"ファイル及び"mov_0001c.mpg"ファイルを復号化する。映像表示処理部105は、非重複領域の水平画素サイズを考慮し、例えば、図5(b)に示すように画面の両端から非重複領域の水平画素数の2分の1ブランク領域を所定色に置き換え、センタリングした表示画像を構成する。そして、このように構成された左眼用画像と右眼用画像とを立体映像表示デバイスに応じた立体映像として合成して表示部106に表示する。
例えば、液晶シャッター眼鏡を用いたフレームシーケンシャル方式の表示デバイスを用いる場合は、復号化された左眼用画像と右眼用画像とを2倍のフレーム周波数でフレーム単位に交互に表示する。また、パララックスバリア方式やレンチキュラーレンズ方式で立体映像を表示する表示デバイスを用いる場合は、左眼用画像及び右眼用画像をそれぞれ水平方向へ2分の1に縮小する。そして、水平方向の奇数画素と偶数画素とにそれぞれの縮小した画像を多重合成することにより立体映像を表示する。
図6は、左眼用画像及び右眼用画像をそれぞれ水平方向へ2分の1に縮小する手順を説明する図である。
図6に示すように、左眼用画像については、水平画素数Haを2分の1へ縮小し、右眼用画像についても水平画素数Haを2分の1へ縮小する。そして、このように縮小された左眼用画像を水平方向の偶数画素へ配置し、縮小された右眼用画像を奇数画素へ配置する。さらに、非重複領域の水平画素数Hbの2分の1画素に相当する両端の領域を所定の色で塗り潰す。
また、表示部106がパララックスバリア方式やレンチキュラーレンズ方式で立体映像を表示する表示デバイスである場合は、表示デバイスに視差バリアーが設けられている。したがって、図7に示すように右眼には右眼用画像のみが映るようにすることができ、左眼には左眼用画像のみが映るようにすることができるため、立体映像として視聴することができる。
以上のように本実施形態によれば、撮影時のカメラ情報を用いて左眼用画像と右眼用画像との重複領域を算出し、それぞれを独立して符号化するようにした。これにより、立体映像として表示される左眼用画像及び右眼用画像を効率良くかつ正確に符号化することができる。また、立体映像を表示する際には非重複領域を所定の色で置き換えるようにしたので、非重複領域によるチラツキを押さえた立体映像を視聴することができる。
(第2の実施形態)
以下、本発明の第2の実施形態について説明する。本実施形態に係る立体撮像信号記録再生装置の構成は、第1の実施形態で示した図1に示す立体撮像信号記録再生装置100と同様の構成であるため、説明は省略する。一方、本実施形態では、符号化方式、符号化方法及び記録方法のみが異なっている。また、左眼用画像及び右眼用画像の重複領域及び非重複領域の算出方法も同様であるため、説明は省略する。
本実施形態に係る立体撮像信号記録再生装置100では、MPEG−4AVC(ISO/IEC14496−10)方式で符号化を行い、算出した左眼用画像及び右眼用画像の重複領域及び非重複領域を個別のスライスに分割して符号化することができる。そこで、左眼用画像及び右眼用画像の重複領域及び非重複領域を個別の領域に分割し、1つの画像としてスライス分割して符号化し、記録する方法について説明する。
図8は、左眼用画像及び右眼用画像の重複領域及び非重複領域を個別の領域に分割し、1つの画像としてスライス分割する手順を説明する図である。
ここで、MPEG−4AVC方式では、同じスライスに含まれるマクロブロックの集合をスライスグループと呼び、このスライスグループのタイプが以下に示すように7種類定義されている。
タイプ0:Interleaved
タイプ1:Dispersed
タイプ2:Foreground / Leftover
タイプ3:Box-out
タイプ4:Raster
タイプ5:Wipe
タイプ6:Explicit
本実施形態では、タイプ5(Wipe)を利用することによりマクロブロックを縦に並べることが可能となり、画面領域を左右に分割したスライス構造で符号化することが可能となる。図8に示すように、画素数Ha×Vに相当する重複領域と画素数Hb×Vに相当する非重複領域とを個別のスライスとして分割する。
撮像部103aで撮影された左眼用画像に対しては、符号化・復号化処理部107aにおいて、図8に示すように、画素数Hb×Vに相当する非重複領域を画像#1のスライス#0とする。そして、画素数Ha×Vに相当する重複領域を画像#1のスライス#1とする。そして、それぞれのスライスを符号化する。一方、撮像部103bで撮影された右眼用画像に対しては、符号化・復号化処理部107bにおいて、画素数Ha×Vに相当する重複領域のみを画像#2として符号化する。このように符号化された画像は、2つの画像ファイルと1つの管理ファイルとを一組として記憶媒体109へ記録される。
図9(a)は、記憶媒体109に記録される画像ファイル及び管理ファイルの記録例を示す図である。
図9(a)に示すように、ルートディレクトリの直下に、「img」ディレクトリと「mng」ディレクトリとが置かれており、それぞれ動画像ファイル、管理ファイルが格納される。「img」ディレクトリ内の"mov_0001a.avc"ファイル、及び"mov_0001b.avc"ファイルは、それぞれ画像#1、画像#2を符号化した動画像ファイルである。一方、「mng」ディレクトリ内の"mov_0001.mng"は、動画像ファイルに対する管理情報を記録した管理ファイルであり、2次元画像として表示する場合及び3次元画像として表示する場合に必要な管理情報が記録されている。
管理ファイルの内容は、「SK」、「2D」及び「3D」の3つのパラメータで構成されている。「SK」は、非重複領域となるスライス番号と水平方向のマクロブロック数とを示している。「2D」は、左眼用映像を2次元画像として表示する場合に必要なファイルを指しており、「3D」は、左眼用映像と右眼用映像とを3次元映像として表示する場合に必要な左眼用映像及び右眼用映像の重複領域の符号化データとなる2つファイルを指している。
図9(b)は、図9(a)に示した"mov_0001.mng"ファイルの具体的な内容を示す図である。
図9(b)において、「SK="0"、"4"」は、非重複領域はスライス#0であり、その水平サイズが4マクロブロック、即ち64画素であることを示している。2次元画像として表示する場合には、符号化・復号化処理部107aは、図10(a)に示すように、「2D」で指している"mov_0001a.avc"ファイルのスライス#0及びスライス#1を復号化する。そして、映像表示処理部105は、これらのスライスを合体させて表示部106にその画像を表示する。
左眼用映像と右眼用映像とを3次元画像として表示する場合は、符号化・復号化処理部107a、107bはそれぞれ、図10(b)に示す「3D」で指す"mov_0001a.avc"ファイル及び"mov_0001b.avc"ファイルを復号化する。このとき、左眼用画像である"mov_0001a.avc"ファイルは、非重複領域を含む画像ファイルであるため、「SK」に従い、スライス#0の復号化をスキップし、スライス#1のみ復号化を行う。そして、映像表示処理部105は、図10(b)に示すように、画面の両端から非重複領域の水平画素数の2分の1に相当するブランクを設け、センタリングした画像を構成する。
一方、右眼用画像である"mov_0001b.avc"ファイルは、非重複領域を含まないため、復号化した画像を画面の両端から非重複領域の水平画素数の2分の1に相当するブランクを設けて所定色に置き換え、センタリングした画像を構成する。このように構成された左眼用画像と右眼用画像とを表示デバイスに応じた立体映像として合成し、表示部106に表示する。
以上のように本実施形態によれば、撮影時のカメラ情報を用いて左眼用画像と右眼用画像との重複領域を算出し、それぞれをスライス分割して符号化するようにした。これにより、立体映像として表示される左眼用画像及び右眼用画像を効率良くかつ正確に符号化することができる。
(第3の実施形態)
以下、本発明の第3の実施形態について説明する。本実施形態では、カメラ情報から重複領域を算出し、重複領域か非重複領域かによって動き補償の処理方法を切り替える例について説明する。
図11は、本実施形態に係る立体映像符号化装置1100の構成例を示すブロック図である。なお、図11に示す符号の末尾a及びbはそれぞれ左眼用、右眼用であることを示している。
図11において、カメラ部1101a(カメラ部1101b)は、撮影レンズと、結像した被写体像を光電変換するための撮像素子とを含む。また、撮像素子から読み出したアナログ信号をディジタル信号へ変換するA/D変換部等を含む。さらに、カメラ部1101a(カメラ部1101b)は、変換されたディジタル信号から輝度信号や色差信号を生成して第1のメモリ1103a(第2のメモリ1103b)へ画像データを書き込む。
カメラ制御部1102は、カメラ部1101a、1101bのズーム等の制御を行い、重複領域算出部1104へ撮影時のズーム距離情報や被写体との距離情報等の撮影時のカメラ情報を送る。カメラ情報の内容としては、第1の実施形態と同様である。差分計算部1105a(差分計算部1105b)は、第1のメモリ1103a(第2のメモリ1103b)から画像データを読み出す。そして、予測画像生成部1119a(予測画像生成部1119b)により生成された予測画像データとの差分値を算出して差分値データを生成する。なお、予測画像生成部1119a、1119bにおける予測画像データの生成方法については後述する。
直交変換部1106a(直交変換部1106b)は、差分計算部1105a(差分計算部1105b)より出力された画像データと予測画像データとの差分値データを入力する。そして、画素ブロック単位(8×8画素又は、4×4画素ブロック単位)に整数精度離散コサイン変換、及び離散アダマール変換による直交変換処理を行う。量子化部1107a(量子化部1107b)は、直交変換部1106a(直交変換部1106b)により直交変換されたデータに対して量子化処理を行う。
可変長符号化部1108a(可変長符号化部1108b)は、入力された量子化後のデータに対してエントロピー符号化処理を行い、符号化データを符号化データメモリ1109に書き込む。エントロピー符号化処理の1つとしては、CAVLC(Context-based Adaptive Variable Length Coding)がある。さらには、CABAC(Context-based Adaptive Binary Arithmetic Coding)などがある。メモリカード制御部1110は、符号化データメモリ1109に書き込まれたデータを記録媒体となるメモリカード1111に書き込む。
次に、予測画像データを生成する処理について説明する。逆量子化部1112a(逆量子化部1112b)は、量子化部1107a(量子化部1107b)より出力された量子化後のデータに対して逆量子化処理を行う。逆直交変換部1113a(逆直交変換部1113b)は、逆量子化されたデータに対して逆直交変換処理を行う。
加算器1114a(加算器1114b)は、予測画像生成部1119a(予測画像生成部1119b)より出力される予測画像データを入力し、逆直交変換処理されたデータを加算する。そして、加算器1114a(加算器1114b)は、加算したデータを参照画像データとしてデブロッキングフィルタ処理部1115a(デブロッキングフィルタ処理部1115b)及び第3のメモリ1116a(第4のメモリ1116b)へ出力する。
デブロッキングフィルタ処理部1115a(デブロッキングフィルタ処理部1115b)は、デブロッキングフィルタ処理を施し、そのデータを参照画像データとして第5のメモリ1117a(第6のメモリ1117b)へ格納する。このように、第3のメモリ1116a及び第4のメモリ1116bには、デブロッキングフィルタ処理前のデータが格納され、第5のメモリ1117a及び第6のメモリ1117bには、デブロッキングフィルタ処理後のデータが格納される。
図12は、左眼用の予測方法決定部1118aの詳細な構成例を示すブロック図である。
図12に示すように、予測方法決定部1118aは、画面内予測方法決定部1201、画面間予測方法決定部1202及び予測方法比較部1211を有する。
画面内予測方法決定部1201では、予測モード選択部1206にて選択された予測モードに応じて、画面内予測画像生成部1205は、第3のメモリ1116aより参照画像データを読み出し、予測画像データを生成する。そして、画面内差分計算部1203は、第1のメモリ1103aより読み出した符号化対象の画像データと、画面内予測画像生成部1205にて生成された予測画像データとの差分値を算出する。予測モード比較部1204は、画面内差分計算部1203にて算出された差分値を基に符号化効率を算出して予測モード毎の符号化効率を比較し、符号化効率の最も高い予測モードを決定する。
画面間予測方法決定部1202では、動き探索部1210は、第1のメモリ1103aから読み出した符号化対象の画像データと、第5のメモリ1117aから読み出した参照画像データとから動き探索を行い、動きベクトル情報を出力する。画面間予測画像生成部1209は、動き探索部1210にて出力された動きベクトル情報と、第5のメモリ1117aから読み出した参照画像データとから予測画像データを生成する。
画面間差分計算部1207は、第1のメモリ1103aより読み出した符号化対象の画像データと、画面間予測画像生成部1209にて生成された予測画像データとから差分値を算出する。このとき、動き探索部1210にて、参照画像データの探索位置を変動させながら、画面間差分計算部1207にてそれぞれの差分値を算出する。画面間比較部1208は、これらの差分値情報より符号化効率を比較して、最適な符号化効率情報と動きベクトルとを算出する。
予測方法比較部1211は、符号化対象の画像データがPピクチャまたはBピクチャの場合には、画面内予測方法決定部1201にて出力された符号化効率情報と、画面間予測方法決定部1202にて出力された符号化効率情報とを比較する。そして、最適な符号化方法を決定する。また、符号化対象の画像データがIピクチャの場合には、画面間予測方法決定部1202による処理は行わず、画面内予測方法決定部1201の出力値を予測方法決定部1118aより出力する。
図11の説明に戻り、予測画像生成部1119aでは、予測方法決定部1118aより出力される予測方法に基づき、第3のメモリ1116aまたは第5のメモリ1117aより参照画像データを読み出し、予測画像データを生成する。
重複領域算出部1104は、図13に示すように、左眼用画像領域1301と右眼用画像領域1302との重複領域1303を算出する。算出方法については第1の実施形態と同様である。重複/非重複判定部1120は、重複領域算出部1104により得られた重複領域の情報に基づき、第2のメモリ1103bから読み出した符号化対象の画像データの符号化対象ブロックが重複領域であるか否かを判定する。
図14は、右眼用の予測方法決定部1118bの詳細な構成例を示すブロック図である。
図14に示すように、予測方法決定部1118bは、画面内予測方法決定部1401、画面間予測方法決定部1402、及び予測方法比較部1411を有する。なお、画面内予測方法決定部1401は、図12に示した左眼用の画面内予測方法決定部1201と同等の構成である。したがって、予測モード選択部1406、画面内予測画像生成部1405、画面内差分計算部1403及び予測モード比較部1404の構成の詳細な説明は省略する。
画面間予測方法決定部1402では、動き探索部1410は、第2のメモリ1103bから読み出した符号化対象の画像データと、第6のメモリ1117bから読み出した参照画像データとから動き探索を行い、動きベクトル情報を出力する。画面間予測画像生成部1409は、動き探索部1410にて出力された動きベクトル情報と、第6のメモリ1117bから読み出した参照画像データより予測画像データを生成する。
画面間差分計算部1407では、第2のメモリ1103bより読み出した符号化対象の画像データと、画面間予測画像生成部1409にて生成された予測画像データとから差分値を算出する。このとき、動き探索部1410にて、参照画像データの探索位置を変えながら、画面間差分計算部1407にてそれぞれの差分値を算出する。また、画面間予測方法決定部1402では、重複/非重複判定部1120による判定の結果、符号化対象ブロックが重複領域である場合には、動き探索部1410において以下の制御を行う。
図15は、動き探索部1410における動きベクトルの探索範囲を説明する図である。
ここで、符号化対象ブロックが、右眼用画像領域1302内の位置1501にある場合に、位置1501の領域を中心として、左眼用画像領域1301内の領域1502を探索範囲として探索処理を行う。また、例えば、位置1503のように符号化対象ブロックの位置が、右眼用画像領域1302内の端となる場合には、探索範囲を調整して、探索範囲が重複領域1303からはみ出ないように領域1504を探索範囲として調整する。
このように動き探索部1410は、上記探索範囲に対して動き探索を行い、動きベクトル情報を出力する。そして、画面間予測画像生成部1409は、動き探索部1410にて出力された動きベクトル情報と、第1のメモリ1103aから読み出した参照画像データとから予測画像データを生成する。画面間差分計算部1407では、第2のメモリ1103bより読み出した符号化対象の画像データと、画面間予測画像生成部1409にて生成された予測画像データとから差分値を算出する。そして、画面間比較部1408にて、差分値情報より符号化効率を比較して、最適な符号化効率情報と動きベクトルとを算出する。
次に、予測方法比較部1411は、符号化対象の画像データがPピクチャまたはBピクチャの場合には、画面内予測方法決定部1401にて出力された符号化効率情報と、画面間予測方法決定部1402にて出力された符号化効率情報とを比較する。そして、最適な符号化方法を決定する。一方、符号化対象の画像データがIピクチャの場合には、画面間予測方法決定部1402による処理は行わず、画面内予測方法決定部1401の出力値を予測方法決定部1118bより出力する。
予測画像生成部1119bは、予測方法決定部1118bより出力される予測方法に基づき、第4のメモリ1116bまたは第6のメモリ1117bより参照画像データを読み出し、予測画像データを生成する。
以上のように画面間予測方法決定部1402では、重複/非重複判定部1120にて、重複領域と判定された場合には、2種類の予測画像データを生成する。すなわち、第6のメモリ1117bから読み出した参照画像データから生成した予測画像データと、第1のメモリ1103aから読み出した画像データから生成した予測画像データを生成する。そして、これらの予測画像データのうち、符号化効率のより良い方を選択している。一方、重複領域と判定された場合には、第1のメモリ1103aから読み出した画像データから生成した予測画像データのみを用いてもよい。つまり、重複領域と判定された場合には、左眼用画像と右眼用画像とを用いた動き補償のみを用いることとなる。
以上のように本実施形態によれば、左眼用のカメラ部と右眼用のカメラ部とで撮影された画像の重複領域及び非重複領域の情報を用いて、動き補償の方法を変えるようにした。これにより、探索範囲の最適化するとともに予測方法の最適化を実現し、効率良く動きベクトル算出処理を行うことができる。また、重複領域における動き探索では、重複領域のみで動き探索を行うようにしたので、正確な動き探索を行うことができる。
(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
102 CPU
107a、107b 符号化・復号化処理部

Claims (13)

  1. 撮影位置が異なる主画像及び副画像がそれぞれ撮影された時のカメラ情報に基づいて、前記主画像と前記副画像との間で共通に撮像されている重複領域を算出する算出手段と、
    前記算出手段により算出された重複領域と非重複領域とに分割して、前記主画像と前記副画像とに対して符号化を行う符号化手段とを備えることを特徴とする符号化装置。
  2. 前記符号化手段は、前記主画像又は前記副画像のいずれか一方の非重複領域に対して符号化を行うことを特徴とする請求項1に記載の符号化装置。
  3. 前記符号化手段は、MPEG−4AVC方式に従って前記重複領域と前記非重複領域とをスライス分割して符号化することを特徴とする請求項1又は2に記載の符号化装置。
  4. 撮影位置が異なる主画像及び副画像がそれぞれ撮影された時のカメラ情報に基づいて、前記主画像と前記副画像との間で共通に撮像されている重複領域を算出する算出手段と、
    前記主画像と前記副画像とに対して符号化を行う符号化手段とを備え、
    前記符号化手段は、前記副画像のPピクチャまたはBピクチャにおける符号化対象のブロックが前記算出手段により算出された重複領域である場合は、前記副画像を用いた動き補償、または前記主画像と前記副画像とを用いた前記重複領域における動き補償を行い、前記副画像のPピクチャまたはBピクチャにおける符号化対象のブロックが前記重複領域でない場合は、前記副画像を用いた動き補償を行うことを特徴とする符号化装置。
  5. 撮影位置が異なる主画像及び副画像がそれぞれ撮影された時のカメラ情報に基づいて、前記主画像と前記副画像との間で共通に撮像されている重複領域を算出する算出手段と、
    前記主画像と前記副画像とに対して符号化を行う符号化手段とを備え、
    前記符号化手段は、前記副画像のPピクチャまたはBピクチャにおける符号化対象のブロックが前記算出手段により算出された重複領域である場合は、前記主画像と前記副画像とを用いた前記重複領域における動き補償を行い、前記副画像のPピクチャまたはBピクチャにおける符号化対象のブロックが前記重複領域でない場合は、前記副画像を用いた動き補償を行うことを特徴とする符号化装置。
  6. 前記カメラ情報は、撮像素子のサイズ情報、焦点距離情報、レンズ間距離情報、及び被写体距離情報を含むことを特徴とする請求項1〜5の何れか1項に記載の符号化装置。
  7. 前記主画像は左眼用画像であり、前記副画像は右眼用画像であることを特徴とする請求項1〜6の何れか1項に記載の符号化装置。
  8. 撮影位置が異なる主画像及び副画像がそれぞれ撮影された時のカメラ情報に基づいて、前記主画像と前記副画像との間で共通に撮像されている重複領域を算出する算出工程と、
    前記算出工程において算出された重複領域と非重複領域とに分割して、前記主画像と前記副画像とに対して符号化を行う符号化工程とを備えることを特徴とする符号化方法。
  9. 撮影位置が異なる主画像及び副画像がそれぞれ撮影された時のカメラ情報に基づいて、前記主画像と前記副画像との間で共通に撮像されている重複領域を算出する算出工程と、
    前記主画像と前記副画像とに対して符号化を行う符号化工程とを備え、
    前記符号化工程においては、前記副画像のPピクチャまたはBピクチャにおける符号化対象のブロックが前記算出工程において算出された重複領域である場合は、前記副画像を用いた動き補償、または前記主画像と前記副画像とを用いた前記重複領域における動き補償を行い、前記副画像のPピクチャまたはBピクチャにおける符号化対象のブロックが前記重複領域でない場合は、前記副画像を用いた動き補償を行うことを特徴とする符号化方法。
  10. 撮影位置が異なる主画像及び副画像がそれぞれ撮影された時のカメラ情報に基づいて、前記主画像と前記副画像との間で共通に撮像されている重複領域を算出する算出工程と、
    前記主画像と前記副画像とに対して符号化を行う符号化工程とを備え、
    前記符号化工程においては、前記副画像のPピクチャまたはBピクチャにおける符号化対象のブロックが前記算出工程において算出された重複領域である場合は、前記主画像と前記副画像とを用いた前記重複領域における動き補償を行い、前記副画像のPピクチャまたはBピクチャにおける符号化対象のブロックが前記重複領域でない場合は、前記副画像を用いた動き補償を行うことを特徴とする符号化方法。
  11. 撮影位置が異なる主画像及び副画像がそれぞれ撮影された時のカメラ情報に基づいて、前記主画像と前記副画像との間で共通に撮像されている重複領域を算出する算出工程と、
    前記算出工程において算出された重複領域と非重複領域とに分割して、前記主画像と前記副画像とに対して符号化を行う符号化工程とをコンピュータに実行させることを特徴とするプログラム。
  12. 撮影位置が異なる主画像及び副画像がそれぞれ撮影された時のカメラ情報に基づいて、前記主画像と前記副画像との間で共通に撮像されている重複領域を算出する算出工程と、
    前記主画像と前記副画像とに対して符号化を行う符号化工程とをコンピュータに実行させ、
    前記符号化工程においては、前記副画像のPピクチャまたはBピクチャにおける符号化対象のブロックが前記算出工程において算出された重複領域である場合は、前記副画像を用いた動き補償、または前記主画像と前記副画像とを用いた前記重複領域における動き補償を行い、前記副画像のPピクチャまたはBピクチャにおける符号化対象のブロックが前記重複領域でない場合は、前記副画像を用いた動き補償を行うことを特徴とするプログラム。
  13. 撮影位置が異なる主画像及び副画像がそれぞれ撮影された時のカメラ情報に基づいて、前記主画像と前記副画像との間で共通に撮像されている重複領域を算出する算出工程と、
    前記主画像と前記副画像とに対して符号化を行う符号化工程とをコンピュータに実行させ、
    前記符号化工程においては、前記副画像のPピクチャまたはBピクチャにおける符号化対象のブロックが前記算出工程において算出された重複領域である場合は、前記主画像と前記副画像とを用いた前記重複領域における動き補償を行い、前記副画像のPピクチャまたはBピクチャにおける符号化対象のブロックが前記重複領域でない場合は、前記副画像を用いた動き補償を行うことを特徴とするプログラム。
JP2011189689A 2011-08-31 2011-08-31 符号化装置及び符号化方法 Withdrawn JP2013051637A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011189689A JP2013051637A (ja) 2011-08-31 2011-08-31 符号化装置及び符号化方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011189689A JP2013051637A (ja) 2011-08-31 2011-08-31 符号化装置及び符号化方法

Publications (1)

Publication Number Publication Date
JP2013051637A true JP2013051637A (ja) 2013-03-14

Family

ID=48013339

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011189689A Withdrawn JP2013051637A (ja) 2011-08-31 2011-08-31 符号化装置及び符号化方法

Country Status (1)

Country Link
JP (1) JP2013051637A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014212436A (ja) * 2013-04-18 2014-11-13 キヤノン株式会社 符号化装置、符号化方法およびプログラム、並びに撮像装置
CN112235561A (zh) * 2020-10-16 2021-01-15 深圳市时代华影科技股份有限公司 Led显示屏、显示方法及装置、计算机可读存储介质
WO2021200226A1 (ja) * 2020-03-30 2021-10-07 ソニーグループ株式会社 情報処理装置、情報処理方法及びプログラム
WO2024066802A1 (zh) * 2022-09-26 2024-04-04 神顶科技(南京)有限公司 一种双目视觉***的运行方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014212436A (ja) * 2013-04-18 2014-11-13 キヤノン株式会社 符号化装置、符号化方法およびプログラム、並びに撮像装置
WO2021200226A1 (ja) * 2020-03-30 2021-10-07 ソニーグループ株式会社 情報処理装置、情報処理方法及びプログラム
CN112235561A (zh) * 2020-10-16 2021-01-15 深圳市时代华影科技股份有限公司 Led显示屏、显示方法及装置、计算机可读存储介质
CN112235561B (zh) * 2020-10-16 2022-07-22 深圳市时代华影科技股份有限公司 Led显示屏、显示方法及装置、计算机可读存储介质
WO2024066802A1 (zh) * 2022-09-26 2024-04-04 神顶科技(南京)有限公司 一种双目视觉***的运行方法

Similar Documents

Publication Publication Date Title
CN109076245B (zh) 对视频数据进行译码的方法和装置
US9552633B2 (en) Depth aware enhancement for stereo video
KR101939971B1 (ko) 입체 및 무안경 입체 디스플레이들을 위한 프레임 호환가능한 깊이 맵 전달 포맷들
JP6698351B2 (ja) ビュー内でのおよびビューにわたる深度ルックアップテーブルの予測コーディング
US20110304618A1 (en) Calculating disparity for three-dimensional images
US9924197B2 (en) Image encoding method, image decoding method, image encoding apparatus, image decoding apparatus, image encoding program, and image decoding program
US8994788B2 (en) Image coding apparatus, method, program, and circuit using blurred images based on disparity
JP5092011B2 (ja) 動画像復号装置及び動画像復号方法
Van Wallendael et al. 3D video compression based on high efficiency video coding
WO2013040170A1 (en) Frame-compatible full resolution stereoscopic 3d compression and decompression
KR20150079905A (ko) 화상 부호화 방법, 화상 복호 방법, 화상 부호화 장치, 화상 복호 장치, 화상 부호화 프로그램, 화상 복호 프로그램 및 기록 매체
JP5395911B2 (ja) ステレオ画像符号化装置、方法
WO2011114755A1 (ja) 多視点画像符号化装置
JP2013051637A (ja) 符号化装置及び符号化方法
US20130120530A1 (en) Image processing apparatus and method and program
Avramelos et al. Light field image compression using versatile video coding
JP5869839B2 (ja) 画像処理装置およびその制御方法
WO2012165218A1 (ja) 記録装置、記録方法、再生装置、再生方法、プログラム、および記録再生装置
JP2012028960A (ja) 画像復号装置、画像復号方法および画像復号プログラム
JP6046923B2 (ja) 画像符号化装置、画像符号化方法及びプログラム
JP2012178818A (ja) 映像符号化装置および映像符号化方法
WO2015141977A1 (ko) 3d 비디오 부호화/복호화 방법 및 장치
Yang Integral Video Coding
JP5442688B2 (ja) 動画像符号化装置および方法、並びに動画像復号化装置および方法
Rosário Lucas et al. Image and Video Coding Standards

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20141104