JP5493055B2 - 立体画像検査装置、立体画像処理装置、および立体画像検査方法 - Google Patents

立体画像検査装置、立体画像処理装置、および立体画像検査方法 Download PDF

Info

Publication number
JP5493055B2
JP5493055B2 JP2013519657A JP2013519657A JP5493055B2 JP 5493055 B2 JP5493055 B2 JP 5493055B2 JP 2013519657 A JP2013519657 A JP 2013519657A JP 2013519657 A JP2013519657 A JP 2013519657A JP 5493055 B2 JP5493055 B2 JP 5493055B2
Authority
JP
Japan
Prior art keywords
image
stereoscopic image
depth
occlusion
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013519657A
Other languages
English (en)
Other versions
JPWO2013108310A1 (ja
Inventor
健太郎 松本
裕樹 小林
悠樹 丸山
康伸 小倉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2013519657A priority Critical patent/JP5493055B2/ja
Application granted granted Critical
Publication of JP5493055B2 publication Critical patent/JP5493055B2/ja
Publication of JPWO2013108310A1 publication Critical patent/JPWO2013108310A1/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)

Description

本開示は、立体画像を検査する立体画像検査装置、および、その検査結果を用いて立体画像を補正する立体画像処理装置に関する。
特許文献1には、立体画像として複数のカメラ等で撮影された画像を比較して奥行き情報等を取得する際に、オクルージョン部分等を特定する方法について記載されている。
特開平3−3080号公報
本開示は、立体画像、あるいはその一部が、左右反転している場合を判定する立体画像検査装置を提供する。
本開示における立体画像検査装置は、立体画像の奥行き情報を取得する奥行き取得部と、立体画像の左眼用画像および右眼用画像の少なくともいずれか一方から、オクルージョン領域を検出するオクルージョン検出部と、検出されたオクルージョン領域と、当該オクルージョン領域に隣接する隣接領域との画像連続性を評価し、評価した画像連続性に基づいて、隣接領域の中からオクルージョン領域が属する第1領域を特定し、奥行き情報に含まれた第1領域の奥行き位置を基にして、立体画像の奥行き矛盾の有無を判定する判定部とを備えている。
ここで、オクルージョン領域とは、左眼用画像と右眼用画像とに共通する画像範囲において、対象物と左右視点との位置関係によって、左眼用画像と右眼用画像の一方の画像には映し出されているが、他方の画像には映し出されていない領域のことをいう。
なお、本開示では、立体画像の左眼用画像と右眼用画像とが入れ替わっていることを、立体画像が「左右反転」している、あるいは、立体画像の左右画像が「反転」している、と表現している。
本開示における立体画像検査装置は、立体画像、あるいはその一部が、左右反転している場合に、これを検出することができる。
立体画像処理装置の一例としての、表示装置の機能構成例を示す図 図1の構成における映像処理部の機能構成例を示す図 立体画像におけるオクルージョンを説明するための図 図2の映像処理部における検査部の機能構成例を示す図 オクルージョン領域と隣接領域との画像連続性の評価方法を説明するための図 実施形態における検査処理を示すフローチャート 図2の映像処理部における検査部の他の機能構成例を示す図 オクルージョン領域と隣接領域との画像連続性の評価方法の他の例を説明するための図 追加情報を含む立体画像の例を示す図
立体画像信号において左眼用画像と右眼用画像とが誤って入れ替わってしまった場合、表示された立体画像は、奥行きが反転して、視聴者には非常に見づらいものになる。これは、左眼用画像が右眼で視聴され、右眼用画像が左眼で視聴されるため、画像全体の奥行きが不自然なものになるからである。
また、立体画像に編集過程や表示装置で重畳させる字幕が、左眼用画像と右眼用画像とで反転して挿入される場合がある。このような場合、字幕が挿入された立体画像は、部分的に、奥行き感に矛盾が感じられる画像となり、非常に見づらい立体画像となる。
以下、適宜図面を参照しながら、実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。
なお、発明者(ら)は、当業者が本開示を十分に理解するために添付図面および以下の説明を提供するのであって、これらによって特許請求の範囲に記載の主題を限定することを意図するものではない。
(実施の形態1)
[1−1.基本構成]
図1は立体画像処理装置の一例としての、立体画像を表示可能な表示装置100である。図1の表示装置100は、HDMI部101と、BD部102と、チューナ部103と、MPEGデコーダ104と、アナログ入力部105と、アナログ/デジタル変換部(A/Dコンバータ)106と、映像処理部107と、CPU108と、RAM109と、ROM110と、表示パネル111と、を備える。
HDMI部101は、表示装置100の外部からHDMIケーブル等で映像信号等が入力される入力インタフェースである。BD部102は、Blu−rayディスク等の映像が記録された記録媒体から映像信号を読み出す。チューナ部103は、放送局やケーブルテレビ局から配信された放送信号を受信、復調し所望の映像信号を抽出して出力する。アナログ入力部105は、表示装置100の外部からの映像をアナログ信号で受信するインタフェースである。なお、HDMI部101、BD部102、チューナ部103およびアナログ入力部105は、必ずしもその全てが必要ではなく、また、他の入力手段を設けてもかまわない。
MPEGデコーダ104は、BD部102やチューナ部103等から入力された符号化された映像信号を復号する。A/Dコンバータ106は、アナログ入力部105から入力されたアナログ映像信号をデジタル信号に変換する。
映像処理部107は、HDMI部101、MPEGデコーダ104、A/Dコンバータ106等から入力された映像信号に、各種の処理を行う。具体的な処理内容等については、後述する。
CPU108は、表示装置100全体を制御するものであり、特に、映像処理部107へ各種の制御指示を出し、好適な映像信号処理を実行させる。RAM109は、CPU108がプログラム等を実行する際の各種変数の一時保持の場所等として使用される記憶領域である。ROM110は、CPU108が動作するために必要なプログラム等を保持しておく記憶領域である。
表示パネル111は、映像処理部107で処理された映像信号を、利用者等に表示する。表示パネル111は、具体的にはプラズマ表示パネル(PDP)や、液晶表示パネル(LCD)等を用いることが可能である。
図2は映像処理部107内部の機能構成を示した図である。図2では、映像処理部107は、検査部201と、補正部202と、3D高画質化処理部203と、を有する。
検査部201は、入力された立体画像における奥行き矛盾の有無を判定する。補正部202は、検査部201による判定結果を用いて、立体画像に奥行き矛盾があるときは、検査結果に基づいて立体画像を補正して出力する。検査部201および補正部202の具体的な処理内容については後述する。
3D高画質化処理部203は、表示する立体画像に対して高画質化処理を行う。高画質化処理として、例えばノイズ除去処理、クロストークキャンセル処理、輪郭強調処理、色補正処理等がある。この3D高画質化処理部203の処理内容は従来と同様であるため、ここでは詳細な説明を省略する。
[1−2.検査部の構成および動作]
図3は立体画像におけるオクルージョンを説明するための図である。図3(a)は立体画像の撮影時におけるカメラと対象物の位置関係の例であり、上方向から見た場合を示している。図3(a)では、左眼用画像撮影カメラCALと右眼用画像撮影カメラCARが、背景BGの前に存在する被写体SBを撮影している。被写体SBは立体画像の主対象物であり、左右方向(カメラCAL,CARを結ぶ方向と平行)にある程度の寸法を有している。ただし、前後方向の寸法は短く、撮影距離からすると十分小さいものとする。
図3(b)は左眼用画像撮影カメラCALで撮影した画像、図3(c)は右眼用画像撮影カメラCARで撮影した画像である。図3(b)において、領域OCLは左眼用画像撮影カメラCALのみで撮影できた領域である。図3(c)において、領域OCRは同様に右眼用画像撮影カメラCARのみで撮影できた領域である。これらの領域OCL,OCRは、両方の撮影カメラCAL,CARの撮影範囲内に入っているものの、カメラCAL,CARと被写体SBとの位置関係によって、被写体SBに隠れてしまい、一方のカメラに映らなくなってしまっている部分である。このような現象を「オクルージョン」といい、このような現象が生じている領域を「オクルージョン領域(遮蔽領域)」という。なお、図3(b)の領域E1、および図3(c)の領域E2は、オクルージョン領域ではなく、単に、他方のカメラの撮影範囲に含まれていない領域である。
本開示では、立体画像におけるオクルージョン領域を利用して、立体画像の奥行き矛盾の有無を判定する。
図4は図2の映像処理部107における検査部201のブロック図である。検査部201は、奥行き取得部401と、オクルージョン検出部402と、エッジ検出部403と、判定部404と、を有する。
奥行き取得部401は、入力された立体画像の奥行き情報を取得し、判定部404に出力する。奥行き情報は、立体画像の領域毎の奥行き位置(視差の情報)を示すものである。立体画像は通常、左右方向に視差が与えられており、各領域の左右ずれの大きさから、その領域の奥行き位置が特定される。このため、奥行き位置は一般に、左右画像の領域ごとの対応関係から取得することができる。例えば、左眼用画像内のある領域(基準領域)に対応する、右眼用画像内の領域(特定領域)を特定する。そして、基準領域の左眼用画像内での位置と、特定領域の右眼用画像内での位置とに基づいて、基準領域の奥行き位置を決定することができる。
奥行き取得部401は、各領域の被写体の奥行き位置(深度)を数値化する。この数値化の際にどの奥行き位置を基準とするかは任意である。そして奥行き取得部401は、画像全体の奥行き値を表す奥行き情報を判定部404に出力する。なお、例えば取得した奥行き位置を、手前ほど小さい値、奥ほど大きい値として設定し、小さい値ほど黒い色、大きい値ほど白い色、として画面全体で表示すれば、奥行き位置を視覚的に把握できる奥行き画像を得ることができる。
なお、ここで紹介した方法は、立体画像が有する奥行き位置を取得する1つの方法であり、奥行き位置の取得方法を限定するものではない。例えば、立体画像とともに奥行き情報が送られてくる場合は、その奥行き情報をそのまま利用してもかまわない。
オクルージョン検出部402は、左右画像から、オクルージョン領域を検出し、検出したオクルージョン領域を特定する情報を判定部404に出力する。ここでの検出は、例えば次のような方法で行う。左眼用画像のオクルージョン領域を検出する場合、上述した奥行き位置を取得する方法と同様に、左眼用画像内の基準領域に対応する、右眼用画像の特定領域を探索する。この際、対応する特定領域が見つからない領域がある。図3(b)の例では、左端の領域E1や領域OCLである。そして、領域E1については、左右画像の視点の位置から、右眼用画像の範囲に含まれていないことが予め分かるので、除外される。一方、領域OCLは、左右画像の範囲に共通に含まれているが、右眼用画像内には見つからず、左眼用画像のみに出現する部分である。このような領域を左眼用画像のオクルージョン領域として特定する。右眼用画像のオクルージョン領域についても、同様に、右眼用画像内の基準領域に対応する、左眼用画像の特定領域を探索することによって特定できる。
なお、オクルージョン領域の検出は、上述した方法に限定されるものではなく、他の方法を用いてもかまわない。例えば、立体画像とともに奥行き情報が送られてくる場合は、その奥行き情報から、奥行き位置が検出されていない領域をオクルージョン領域と判断してもよい。また、上述した方法では、一方の画像内の基準領域に対応する、他方の画像内の特定領域を探索する処理は、奥行き位置の検出とオクルージョン領域の検出とで共通している。このため、奥行き位置の検出とオクルージョン領域の検出とを併せて行ってもかまわない。
エッジ検出部403は、入力される立体画像から当該立体画像内のエッジ(輪郭)を抽出する。エッジの抽出は、従来方法のDCTやソーベルフィルタ等を用いて実現できる。エッジ検出部403は、検出した立体画像のエッジ(輪郭)情報を判定部404へ出力する。
判定部404は、奥行き取得部401から送られた奥行き情報、オクルージョン検出部402から送られたオクルージョン領域を特定する情報、およびエッジ検出部403から送られたエッジ情報に基づいて、立体画像における奥行き矛盾の有無を判定する。判定部404は、エッジ情報を基にして、検出されたオクルージョン領域と、当該オクルージョン領域に隣接する隣接領域との画像連続性を評価し、隣接領域の中から、オクルージョン領域が属する領域を特定する。そして、奥行き情報に含まれた、この領域の奥行き位置を基にして、立体画像に奥行き矛盾があるか否かを判定する。
図3(b)の例では、オクルージョン領域OCLと被写体SBとの境界のエッジ強度(輪郭の強さ)が、オクルージョン領域OCLと背景BGとの境界のエッジ強度よりも大きくなる。これは、オクルージョン領域OCLは通常、背景側に含まれているため、画像でも連続した領域となるのに対して、被写体SBと背景BGとは対象が異なっており、オクルージョン領域OCLと被写体SBとは異なる奥行き位置を有しているからである。このため、オクルージョン領域OCLと被写体SB(前景側)との境界は不連続となり、エッジ強度が相対的に大きくなる。
図5は図3(b)の画像におけるオクルージョン領域周辺を拡大した図である。図5を用いて、判定部404の処理の例を具体的に説明する。オクルージョン領域OCLに隣接する領域として、隣接領域A1〜A4がある。隣接領域A1〜A4はそれぞれ、オクルージョン領域OCLの上、左、下および右に隣接している。判定部404は、オクルージョン領域OCLと隣接領域A1〜A4との境界付近において比較的大きいエッジが存在するか否かを、エッジ情報を基にして判断する。ここでは、右側の隣接領域A4との境界付近で大きなエッジが生じていることが分かる。これは、上述したとおり、オクルージョン領域OCLの右に、オクルージョン領域OCLよりも奥行き位置が手前(前景側)にある被写体SBが存在するためである。一方、オクルージョン領域OCLと隣接領域A1〜A3との境界付近では、エッジ強度が所定値よりも小さい。
この結果から、判定部404は、オクルージョン領域OCLは、隣接領域A4には属さず、他の隣接領域A1〜A3に属するものと判定する。そして、オクルージョン領域OCLの奥行き位置は、隣接領域A1〜A3の奥行き位置と近く、隣接領域A4の奥行き位置とは異なるものと判定する。なお、ここでは、オクルージョン領域OCLと上下左右に隣接する領域とについて、画像連続性を評価するものとしたが、例えば、オクルージョンの発生原理を鑑みれば、左右方向に隣接する領域との画像連続性を評価するだけでもかまわない。ただし、上下方向を含め、オクルージョン領域の周囲をより大きな範囲で画像連続性を評価する方が、判定精度の面で好ましいといえる。
そして、判定部404は、奥行き情報から、各隣接領域A1〜A4の奥行き位置を読み出す。そして、例えば、オクルージョン領域OCLが属する隣接領域A1〜A3の奥行き位置が背景側にあり、オクルージョン領域OCLが属さない隣接領域A4の奥行き位置が前景側にあるときは、奥行き矛盾はなく、立体画像は正常である、と判定する。一方、オクルージョン領域OCLが属する隣接領域A1〜A3の奥行き位置が前景側にあり、オクルージョン領域OCLが属さない隣接領域A4の奥行き位置が背景側にあるときは、奥行き矛盾があり、立体画像は正常ではない、と判定する。この場合は、視聴者には、被写体SBが背景BGにめり込んだような立体画像が知覚される。このような場合には、立体画像の左眼用画像と右眼用画像が入れ替わっていると推定される。
なお、上の説明では、オクルージョン領域が属する隣接領域とオクルージョン領域が属さない隣接領域とで奥行き位置を比較することによって、奥行き矛盾の有無を判定している。ただしこの他にも例えば、オクルージョン領域が属する隣接領域は通常は背景に近いので、オクルージョン領域が属する隣接領域の奥行き位置を所定のしきい値と比較することによって、奥行き矛盾の有無を判定してもよい。
なお、判定部404の処理は、左眼用画像と右眼用画像のいずれか一方について実行してもよいし、両方について実行してもかまわない。両方について実行する場合は、例えば左右画像で奥行き矛盾と判定された場合に立体画像は正常ではないと判定することによって、判定結果の信頼度はより高まる。左眼用画像と右眼用画像の一方について実行する場合は、判定処理の負荷をより軽減できる。なお、左眼用画像と右眼用画像のいずれか一方について実行する場合は、オクルージョン検出部402はその一方の画像についてオクルージョン領域を検出すればよい。
以上説明したような処理の結果、検査部201から、奥行き矛盾判定情報が出力される。図6は上記の処理の流れを示すフローチャートである。なお、図6に示す処理は、図1の映像処理部107の代わりに、CPU108が実行するプログラムとして実現されてもよい。
(ステップS11)入力された立体画像の奥行き位置に関する奥行き情報を取得する。
(ステップS12)入力された立体画像のオクルージョン領域を検出する。
(ステップS13)入力された立体画像の左右画像からエッジを検出する。なお、ステップS11〜S13は、この順序で行う必要はなく、異なる順序で行ってもよいし、並行して行ってもよい。
(ステップS14)奥行き情報、オクルージョン領域情報、およびエッジ情報に基づいて、オクルージョン領域が属する領域を特定し、その領域の奥行き位置に基づいて、立体画像の奥行き矛盾の有無を判定する。
[1−3.補正部の動作]
補正部202は、検査部201から出力された奥行き矛盾判定情報に基づいて、立体画像を補正する。例えば、補正部202は、検査部201によって立体画像に奥行き矛盾があると判定されたときは、立体画像の左眼用画像と右眼用画像とを入れ替える。これにより、誤って左右画像が入れ替わってしまっている立体画像を、検査部201によって奥行き矛盾を検出することによって、補正して出力することが可能となる。
[1−4.効果]
以上のように本実施形態では、立体画像の奥行き情報を取得し、立体画像の左右画像の少なくともいずれか一方から、オクルージョン領域を検出する。そして、エッジ情報を用いて、オクルージョン領域とその隣接領域との画像連続性を評価し、オクルージョン領域が属する領域を特定する。この特定した領域の奥行き位置を基にして、立体画像の奥行き矛盾の有無を判定する。
これにより、入力された立体画像の左右画像が反転していた場合であっても、立体画像の奥行き矛盾から、この反転を自動的に検出することができる。そして、奥行き矛盾を有する立体画像については、例えば左右画像を反転してから、後段の処理を行うことによって、誤って左右反転していた立体画像であっても、視聴者に好適な表示が可能となる。
(変形例1)
上述した実施形態では、オクルージョン領域と隣接領域との画像連続性の評価を、エッジ情報を用いて行うものとした。ただし、画像連続性の評価は、他の情報を用いても可能である。例えば、輝度情報、色分布情報、画像の周波数成分などを用いてもよい。あるいは、これらの組み合わせを用いてもよい。
ここでは、輝度情報を用いて、オクルージョン領域と隣接領域との画像連続性を評価する方法を説明する。図7はこの場合の検査部201の構成を示す図である。図4との相違は、エッジ検出部403の代わりに輝度算出部703を、判定部404の代わりに判定部704を、備えている点である。
輝度算出部703は、オクルージョン検出部402によって検出されたオクルージョン領域と、このオクルージョン領域に隣接する領域の輝度を算出する。具体的には例えば、オクルージョン領域や隣接領域の、平均輝度、最大輝度、最小輝度、輝度幅等を算出するる。算出した値は、輝度情報として判定部704に出力される。
判定部704は、輝度算出部703から出力された輝度情報を用いて、オクルージョン領域と隣接領域との画像連続性を評価する。図8は図3(b)の画像におけるオクルージョン領域周辺を拡大した図である。図8を用いて、判定部704の処理の例を具体的に説明する。
図8では、オクルージョン領域OCLと隣接領域A1〜A4について、括弧内に平均輝度を示している。オクルージョン領域OCLの平均輝度は230、隣接領域A1〜A3の平均輝度は255、隣接領域A4の平均輝度は120である。判定部704は、平均輝度から、オクルージョン領域OCLは、隣接領域A1〜A3と連続姓が高く、隣接領域A4とは連続性が低いと判断する。それ以降は、上述した方法と同様に、隣接領域A1〜A4の奥行き位置を用いて、立体画像の奥行き矛盾の有無を判定すればよい。
被写体と背景との色合いや被写体の形状等に起因して画像上でエッジが見えにくい場合であっても、輝度を用いれば、オクルージョン領域周辺の画像連続性をより正確に判断できる可能性がある。このため例えば、エッジと輝度を組み合わせて画像連続性を評価すれば、評価精度はより一層向上する。
(変形例2)
上述した実施形態では、補正部202は、検査部201によって立体画像に奥行き矛盾があると判定されたときは、立体画像の左眼用画像と右眼用画像とを入れ替えるものとしたが、補正部202の処理はこれに限定されるものではない。
例えば補正部202は、立体画像に奥行き矛盾があると判定されたとき、立体画像に警告情報を挿入してもよい。すなわち、立体画像を補正しないで、OSD(On Screen Display)等を用いて、立体画像の左右が反転していることを視聴者に通知するようにしてもよい。この場合、視聴者からの明示的な操作を受けて、立体画像の左右画像を入れ替える処理を行うようにしてもよい。これにより、意図的に左右画像を反転させたような試験的立体画像について、表示装置100が勝手に左右画像を入れ替えることを防ぐことができる。
さらに、別の方法として、補正部202は、立体画像に奥行き矛盾があると判定されたとき、立体画像の左眼用画像と右眼用画像のいずれか一方のみを出力してもよい。すなわち、立体画像の左右が反転しているとき、立体画像の表示を中止し、従来の2D方式で画像を表示するようにしてもよい。この場合には、視聴者は不快に立体映像を視聴することなく、従来通りの2D映像を視聴することができる。この場合でも、OSD等を用いて立体映像の左右が反転していることを通知してもよい。
(実施の形態2)
本実施の形態では、実施の形態1と相違する部分を中心に説明する。実施の形態1と実質的に同様の部分については、重複説明を省略する場合がある。
例えば図9に示すように、立体画像には、撮影時の被写体以外に、字幕等の追加情報901が含まれている場合がある。このような追加情報901には、立体画像を撮影後に映像編集等の段階で映像に挿入された情報、例えば字幕や、Closed Captionなどが該当する。そして、撮影され表示された立体画像は正常であるものの、字幕等の追加情報901の表示のみが左右反転しており、奥行き矛盾を有している場合がある。このような場合に対処するために、本実施の形態では、立体画像を所定の領域に分割し、実施形態1で説明した検査部201および補正部202の処理を、当該領域ごとについて行う。そして例えば、奥行き矛盾を有する領域についてのみ、左右画像の入れ替えを行う。
なお、追加情報901の表示位置が予め特定されている場合は、当該部分のみにおいて、実施の形態1で説明した処理を行ってもよい。
また、追加情報901の部分のみが左右反転しており、立体画像そのものは正常である場合、補正部202は、追加情報901の部分を特定の色で表示し、当該部分の映像が奥行き矛盾を有していることを視聴者に通知してもよい。また別の方法として、補正部202は、追加情報901の部分の表示を、左右画像のいずれか一方の表示に統一してもよい。これにより、少なくとも当該部分は2D画像と同じ表示になり、違和感を解消することができる。
(他の実施の形態)
以上のように、本出願において開示する技術の例示として、実施の形態1,2を説明した。しかしながら、本開示における技術は、これに限定されず、適宜、変更、置き換え、付加、省略などを行った実施の形態にも適用可能である。
実施の形態1,2では、本開示に係る立体画像処理装置を、3D画像を表示可能な表示装置100として実現する場合を例にとって説明したが、本開示はこれに限定されない。例えば、本開示に係る立体画像処理装置を、立体画像を記録・再生する記録再生装置として実現してもよい。すなわち、上述したような検査部201および補正部202を備え、与えられた立体画像に奥行き矛盾があるときは、これを補正して出力する立体画像処理装置であればよい。この立体画像処理装置は、与えられた立体画像が左右反転したものであっても、正常な立体画像を出力することができる。
また、本開示の内容は、例えば、上述した検査部201を備え、与えられた立体画像が奥行き矛盾を有しているか否かの検査結果を出力する立体画像検査装置として実現することも可能である。この立体画像検査装置を用いれば、立体画像が正常であるか否かを容易に判別できる。そして、この立体画像検査装置と、上述した補正部202とを組み合わせることによって、本開示の立体画像処理装置が実現される。
さらに、実施の形態1,2で説明した方法を、CPU108などで処理するプログラムとして実現することもできる。この場合には、図1で示した映像処理部107の実体がプログラムとして実現され、CPU108上で実行される。
また、実施の形態1,2で説明した方法を、PLD(Plogrammable LogicDevice)や集積回路(IC)などハードウェア構成によって実現するものであってもよい。この場合は、ソフトウェアプログラムと比較して、処理を比較的短時間で実現できる場合が多い。
以上のように、本開示における技術の例示として、実施の形態を説明した。そのために、添付図面および詳細な説明を提供した。
したがって、添付図面および詳細な説明に記載された構成要素の中には、課題解決のために必須な構成要素だけでなく、上記技術を例示するために、課題解決のためには必須でない構成要素も含まれ得る。そのため、それらの必須ではない構成要素が添付図面や詳細な説明に記載されていることをもって、直ちに、それらの必須ではない構成要素が必須であるとの認定をするべきではない。
また、上述の実施の形態は、本開示における技術を例示するためのものであるから、特許請求の範囲またはその均等の範囲において種々の変更、置き換え、付加、省略などを行うことができる。
本開示は、立体画像の左右反転を検出する立体画像処理装置や立体画像検査装置に適応可能である。具体的には、立体画像を表示するTV装置、立体画像を記録・再生等する記録再生装置などに、本開示は適用可能である。
107 映像処理部
201 検査部
202 補正部
401 奥行き取得部
402 オクルージョン検出部
403 エッジ検出部
404 判定部
703 輝度算出部
704 判定部

Claims (7)

  1. 立体画像の奥行き情報を取得する奥行き取得部と、
    前記立体画像の左眼用画像および右眼用画像の少なくともいずれか一方から、オクルージョン領域を検出するオクルージョン検出部と、
    検出された前記オクルージョン領域と、当該オクルージョン領域に隣接する隣接領域との画像連続性を評価し、評価した画像連続性に基づいて、画像連続性がある隣接領域前記オクルージョン領域が属する第1領域として特定し、前記奥行き情報に基づいて、前記第1領域の奥行き位置が、他の隣接領域の奥行き位置よりも前景側にあるときに、前記立体画像奥行き矛盾があると判定する判定部とを備えた
    ことを特徴とする立体画像検査装置。
  2. 請求項1記載の立体画像検査装置において、
    前記オクルージョン領域と前記隣接領域との画像連続性を、前記立体画像の輪郭情報、輝度情報、色分布情報、および、周波数成分のうち少なくともいずれか1つを用いて、評価する
    ことを特徴とする立体画像検査装置。
  3. 請求項1記載の立体画像検査装置と、
    前記判定部による判定結果に基づいて、前記立体画像を補正する補正部とを備えた
    ことを特徴とする立体画像処理装置。
  4. 請求項3記載の立体画像処理装置において、
    前記補正部は、前記判定部が、前記立体画像に奥行き矛盾があると判定したとき、前記立体画像の左眼用画像と右眼用画像とを入れ替える
    ことを特徴とする立体画像処理装置。
  5. 請求項3記載の立体画像処理装置において、
    前記補正部は、前記判定部が、前記立体画像に奥行き矛盾があると判定したとき、前記立体画像に警告情報を挿入する
    ことを特徴とする立体画像処理装置。
  6. 請求項3記載の立体画像処理装置において、
    前記補正部は、前記判定部が、前記立体画像に奥行き矛盾があると判定したとき、前記立体画像の左眼用画像および右眼用画像のいずれか一方のみを出力する
    ことを特徴とする立体画像処理装置。
  7. 立体画像の奥行き情報を取得し、
    前記立体画像の左眼用画像および右眼用画像の少なくともいずれか一方から、オクルージョン領域を検出し、
    検出した前記オクルージョン領域と、当該オクルージョン領域に隣接する隣接領域との画像連続性を評価し、
    評価した画像連続性に基づいて、画像連続性がある隣接領域前記オクルージョン領域が属する第1領域として特定し、
    前記奥行き情報に基づいて、前記第1領域の奥行き位置が、他の隣接領域の奥行き位置よりも前景側にあるときに、前記立体画像奥行き矛盾があると判定する
    ことを特徴とする立体画像検査方法。
JP2013519657A 2012-01-18 2012-09-25 立体画像検査装置、立体画像処理装置、および立体画像検査方法 Expired - Fee Related JP5493055B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013519657A JP5493055B2 (ja) 2012-01-18 2012-09-25 立体画像検査装置、立体画像処理装置、および立体画像検査方法

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2012007624 2012-01-18
JP2012007624 2012-01-18
PCT/JP2012/006084 WO2013108310A1 (ja) 2012-01-18 2012-09-25 立体画像検査装置、立体画像処理装置、および立体画像検査方法
JP2013519657A JP5493055B2 (ja) 2012-01-18 2012-09-25 立体画像検査装置、立体画像処理装置、および立体画像検査方法

Publications (2)

Publication Number Publication Date
JP5493055B2 true JP5493055B2 (ja) 2014-05-14
JPWO2013108310A1 JPWO2013108310A1 (ja) 2015-05-11

Family

ID=48798769

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013519657A Expired - Fee Related JP5493055B2 (ja) 2012-01-18 2012-09-25 立体画像検査装置、立体画像処理装置、および立体画像検査方法

Country Status (3)

Country Link
US (1) US9883162B2 (ja)
JP (1) JP5493055B2 (ja)
WO (1) WO2013108310A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150271471A1 (en) * 2014-03-19 2015-09-24 Htc Corporation Blocking detection method for camera and electronic apparatus with cameras
CN104639934B (zh) * 2015-01-22 2017-11-21 深圳超多维光电子有限公司 立体图像反视处理方法及显示装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0927969A (ja) * 1995-05-08 1997-01-28 Matsushita Electric Ind Co Ltd 複数画像の中間像生成方法及び視差推定方法および装置
JPH1023311A (ja) * 1996-07-05 1998-01-23 Canon Inc 画像情報入力方法及び装置
JP2010068121A (ja) * 2008-09-09 2010-03-25 Sony Corp 画像データ解析装置、および画像データ解析方法、並びにプログラム
JP2011139339A (ja) * 2009-12-28 2011-07-14 Sanyo Electric Co Ltd 立体画像表示装置
JP2011211551A (ja) * 2010-03-30 2011-10-20 Fujifilm Corp 画像処理装置および画像処理方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH033080A (ja) 1989-05-31 1991-01-09 Fujitsu Ltd 画像の構造化による対応付け前処理方式
US5764871A (en) 1993-10-21 1998-06-09 Eastman Kodak Company Method and apparatus for constructing intermediate images for a depth image from stereo images using velocity vector fields
US6445363B1 (en) * 1999-02-12 2002-09-03 Canon Kabushiki Kaisha Head-mounted display apparatus
KR100519782B1 (ko) 2004-03-04 2005-10-07 삼성전자주식회사 스테레오 카메라를 이용한 사람 검출 방법 및 장치
KR100888459B1 (ko) * 2007-03-14 2009-03-19 전자부품연구원 피사체의 깊이 정보 검출 방법 및 시스템
US20080278633A1 (en) 2007-05-09 2008-11-13 Mikhail Tsoupko-Sitnikov Image processing method and image processing apparatus
JP4607208B2 (ja) 2007-05-23 2011-01-05 コワングウーン ユニバーシティー リサーチ インスティテュート フォー インダストリー コーオペレーション 立体映像ディスプレイ方法
JP5024962B2 (ja) 2008-07-11 2012-09-12 日本電信電話株式会社 多視点距離情報符号化方法,復号方法,符号化装置,復号装置,符号化プログラム,復号プログラムおよびコンピュータ読み取り可能な記録媒体
WO2010048632A1 (en) 2008-10-24 2010-04-29 Real D Stereoscopic image format with depth information
US20110050857A1 (en) * 2009-09-03 2011-03-03 Electronics And Telecommunications Research Institute Apparatus and method for displaying 3d image in 3d image system
US8684531B2 (en) 2009-12-28 2014-04-01 Vision3D Technologies, Llc Stereoscopic display device projecting parallax image and adjusting amount of parallax
JP4991890B2 (ja) * 2010-03-01 2012-08-01 株式会社東芝 補間フレーム生成装置及び方法
KR20120076029A (ko) * 2010-12-29 2012-07-09 삼성전자주식회사 3차원 영상 데이터 처리 방법 및 이를 수행하는 표시 장치

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0927969A (ja) * 1995-05-08 1997-01-28 Matsushita Electric Ind Co Ltd 複数画像の中間像生成方法及び視差推定方法および装置
JPH1023311A (ja) * 1996-07-05 1998-01-23 Canon Inc 画像情報入力方法及び装置
JP2010068121A (ja) * 2008-09-09 2010-03-25 Sony Corp 画像データ解析装置、および画像データ解析方法、並びにプログラム
JP2011139339A (ja) * 2009-12-28 2011-07-14 Sanyo Electric Co Ltd 立体画像表示装置
JP2011211551A (ja) * 2010-03-30 2011-10-20 Fujifilm Corp 画像処理装置および画像処理方法

Also Published As

Publication number Publication date
US20130258061A1 (en) 2013-10-03
JPWO2013108310A1 (ja) 2015-05-11
US9883162B2 (en) 2018-01-30
WO2013108310A1 (ja) 2013-07-25

Similar Documents

Publication Publication Date Title
JP5575891B2 (ja) 自動三次元ビデオフォーマット変換方法及びその装置
TWI536801B (zh) 三維視訊格式偵測
US8817020B2 (en) Image processing apparatus and image processing method thereof
CN110268712B (zh) 用于处理图像属性图的方法和装置
US8913107B2 (en) Systems and methods for converting a 2D image to a 3D image
US8558875B2 (en) Video signal processing device
US20130076872A1 (en) System and Method of Detecting and Correcting an Improper Rendering Condition in Stereoscopic Images
TW201328315A (zh) 將平面視訊轉換為立體視訊的系統
US20130272582A1 (en) Apparatus and method for determining a disparity estimate
US20140168385A1 (en) Video signal processing apparatus and video signal processing method
KR101797035B1 (ko) 오버레이 영역의 3d 영상 변환 방법 및 그 장치
JP5493055B2 (ja) 立体画像検査装置、立体画像処理装置、および立体画像検査方法
US9111352B2 (en) Automated detection and correction of stereoscopic edge violations
EP2537346B1 (en) Stereo logo insertion
US20120075417A1 (en) Letterbox margin processing method for identifying letterbox margins of target frame according to frame packing type corresponding to 3d video input and related letterbox margin processing apparatus thereof
ES2533051T3 (es) Procedimiento y dispositivo para determinar una imagen de profundidad
WO2012120880A1 (ja) 立体画像出力装置及び立体画像出力方法
JP5647741B2 (ja) 画像信号処理装置および画像信号処理方法
WO2014025295A1 (en) 2d/3d image format detection
Knee Getting machines to watch 3d for you
KR20140069266A (ko) 디스패리티 맵을 필터링하기 위한 방법 및 디바이스
Delis et al. Automatic 3d defects identification in stereoscopic videos
Liu et al. Efficient automatic detection of 3D video artifacts
RU2431939C1 (ru) Способ выявления двумерного экранного меню на стерео видеопоследовательности
Jung et al. Detection of the Single Image from DIBR Based on 3D Warping Trace and Edge Matching

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140303

R151 Written notification of patent or utility model registration

Ref document number: 5493055

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees