JP5197683B2 - 奥行き信号生成装置及び方法 - Google Patents

奥行き信号生成装置及び方法 Download PDF

Info

Publication number
JP5197683B2
JP5197683B2 JP2010149721A JP2010149721A JP5197683B2 JP 5197683 B2 JP5197683 B2 JP 5197683B2 JP 2010149721 A JP2010149721 A JP 2010149721A JP 2010149721 A JP2010149721 A JP 2010149721A JP 5197683 B2 JP5197683 B2 JP 5197683B2
Authority
JP
Japan
Prior art keywords
image
composition
evaluation value
depth
depth signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010149721A
Other languages
English (en)
Other versions
JP2012015744A (ja
Inventor
雄志 三田
直 三島
賢一 下山
隆介 平井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2010149721A priority Critical patent/JP5197683B2/ja
Priority to US13/052,194 priority patent/US8805020B2/en
Publication of JP2012015744A publication Critical patent/JP2012015744A/ja
Application granted granted Critical
Publication of JP5197683B2 publication Critical patent/JP5197683B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/35Categorising the entire scene, e.g. birthday party or wedding scene
    • G06V20/38Outdoor scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/35Categorising the entire scene, e.g. birthday party or wedding scene
    • G06V20/38Outdoor scenes
    • G06V20/39Urban scenes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Signal Processing (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本実施形態は、奥行き信号を生成する装置及び方法に関する。
二次元画像から立体画像を生成するため、二次元画像の奥行き構造を推定して生成した奥行き信号を利用する手法がある。これらの手法を利用した立体画像生成装置は、奥行き信号生成装置を備えている。例えば、生成された奥行き信号を使用して、入力された二次元画像を撮影した視点とは異なる視点の二次元画像を生成し、多視点の二次元画像を含む立体画像信号を生成する。従来の奥行き信号生成装置は、複数の奥行き信号を合成して出力していた。しかしながら、複数の奥行き信号を合成すると、奥行きの急激な時間変化が生じにくい代わりに、奥行き信号のコントラストが劣化する。その結果、生成された立体画像を表示した際に、立体画像の奥行き感及び立体感が損なわれる。
特開平11−239364号公報 特許第4214527号公報
本発明が解決しようとする課題は、高いコントラストを保持しながらも、急激な時間変化が抑制された奥行き信号を生成することにある。
上記課題を解決するために、実施形態の奥行き信号生成装置は、時系列の画像から奥行き信号を生成するために、算出部、補正部、選択部、生成部を備える。算出部は、前記時系列の画像のうち第1画像内の特定領域に含まれる画素値の統計量を算出し、あらかじめ用意された奥行き構造パターンを示す構図毎に、前記第1画像と適合する前記構図を選択するための第1の評価値を前記統計量に基づいて算出する。補正部は、前記構図毎に、前記第1画像の前記第1の評価値を補正して前記第1画像の第2の評価値を取得する補正部であって、前記時系列の画像のうち既に処理済の第2画像の前記第2の評価値と、前記構図間の類似度を示す第1の類似度とに基づいて、前記第1画像の前記第2の評価値を取得する。選択部は、前記第1画像の前記第2の評価値が最大である前記構図を選択する。生成部は、前記選択された構図に基づいて、前記奥行き信号を生成する。
実施形態に係る奥行き信号生成装置を概略的に示すブロック図。 (a)は構図の一例を示す模式図であり、(b)は構図の他の例を示す模式図であり、(c)は構図のさらに他の例を示す模式図である。 算出領域間の類似度に基づく構図推定を説明するための説明図。 図2(a)の構図が選択された場合における図1の奥行き信号生成部の動作の一例に示す機能ブロック図。 図1に示した奥行き信号生成装置が奥行き信号を生成する手順の一例を示すフローチャート。
以下、必要に応じて図面を参照しながら、実施形態に係る奥行き信号生成装置を説明する。
(第1の実施形態)
図1は、第1の実施形態に係る奥行き信号生成装置を概略的に示している。この奥行き信号生成装置は、構図評価値算出部102、評価値補正部103、構図選択部104、奥行き信号生成部105及び記憶部106を備えている。記憶部106には、予め用意された複数の構図に関する情報が格納されている。各構図は、固有の奥行き構造パターンを示す。本実施形態では、入力される時系列の画像が非立体画像である例について述べるが、互いに異なる視点から撮像された視差画像からなる画像であっても構わない。
入力信号である時系列の非立体画像(例えば、二次元画像)101は、例えば表示すべき順序に従って、構図評価値算出部102へ送られる。構図評価値算出部102は、予め用意された構図の中から、受け取った非立体画像101に最も適合する構図を選択するための構図評価値を算出する。評価値補正部103は、処理対象の非立体画像101に関して算出された構図評価値を、既に処理済の非立体画像101(例えば、直前の非立体画像)から得られた補正後の構図評価値を再帰的に使用して補正する。
構図選択部104は、評価値補正部103が補正した構図評価値に応じた構図を、記憶部106に予め用意された構図の中から選択する。奥行き信号生成部105は、選択された構図に基づいて奥行き信号を生成する。本実施形態では、奥行き信号は、非立体画像101に含まれる画素の各々に対して算出された奥行き値を含む。ここで、入力された二次元画像内の画素が配置される平面(xy平面)に垂直な方向を奥行き方向とする。生成された奥行き信号は、後に説明するように、例えば、処理対象の非立体画像101を撮像した視点とは異なる視点からの非立体画像、即ち、視差画像を生成する際に使用される。
図2(a)〜(c)は、予め用意される構図の例を模式的に示している。図2(a)は、水平線又は地平線201を含む構図200を示す。この構図200は、水平線又は地平線を含む非立体画像に対応し、空に対応する平面202、及び水面又は地面に対応する平面203を含む。
図2(b)は、画像内で左側から右側向かうに従い奥行きが大きくなる構図210を示す。図2(c)は、図2(b)に示す構図とは反対に、画像内で右側から左側向かうに従い奥行きが大きくなる構図220を示す。これらの構図210、220は、例えば、建物の壁面を斜め方向から撮影した非立体画像に対応する。
一例として、処理対象の非立体画像101に適合する構図として図2(a)に示す構図200が選択された場合に、奥行き信号を生成する処理を簡略化して説明する。この場合、非立体画像101から水平線(又は地平線)が検出され、検出された水平線(又は地平線)を境界として、非立体画像101を2つの領域に分割する。空に対応する領域には、大きな奥行き値が一様に与えられる。ここで、奥行き値は、その値が大きければ大きいほど奥行きが深いことを示す。例えば、奥行き値0が最も手前を表し、奥行き値100が最も奥を表す。また、水面(又は地面)に対応する領域には、画像の下端から水平線(又は地平線)に向かって連続的に増大するように、奥行き値が与えられる。
再び図1を参照して、奥行き信号を生成する処理を詳細に説明する。
構図評価値算出部102は、処理対象の非立体画像101内の所定領域(以下、算出領域と称す)に含まれる画素の各々の画素値の統計量を算出する。算出領域は、複数の画素を含む画素ブロックである。本実施形態では、図3に示されるように、非立体画像101の四隅に位置する部分領域(矩形状の画素ブロック)301〜304を算出領域に設定する例について述べる。部分領域の設定方法は適宜変更してかまわない。例えば、非立体画像全体を1つの算出領域に設定してもよい。なお、非立体画像101に最もよく適合する構図を推定する精度を向上させるためには、複数の算出領域を設定することが好ましい。算出領域の数及び位置は、例えば、予め用意される構図の種類に応じて決定することが好ましい。構図評価値算出部102は、算出領域毎に、画素値の統計量を算出する。画素値の統計量としては、例えば、色又はテクスチャ等のヒストグラムを使用することができる。構図評価値算出部102は、算出した統計量に基づいて、算出領域間の類似度を算出する。続いて、構図評価値算出部102は、算出した類似度に基づいて構図評価値を求める。
本実施形態では、算出領域内の画素値の統計量としてRGB色信号に基づくヒストグラムを求め、類似度としてヒストグラムインタセクションを使用する例を、数式を用いて説明する。
まず、構図評価値算出部102は、RGBの各色信号をN段階に量子化する。ここで、Nは自然数である。色信号を量子化することにより、ノイズ及び照明による色の変動を緩和することができる。256階調の信号を8段階に量子化する場合、量子化は、下記数式(1)に従って実行することができる。
r = R >> 5
g = G >> 5 (1)
b = B >> 5
ここで、R、G及びBは、夫々赤、緑及び青の画素値(入力信号)を表し、r、g及びbは、夫々赤、緑及び青の量子化された画素値を表し、「 >> 」は、ビットシフト演算を表す。色ヒストグラムは、量子化後の信号のビット数の3乗個のビン、即ち、512のビンを含む。各ビンのインデックスiは、下記数式(2)により算出することができる。
i = r × 8 × 8 + g × 8 + b (2)
算出領域301から算出された色ヒストグラムをh1(i)とし、算出領域302から算出された色ヒストグラムをh2(i)とすると、算出領域301と算出領域302との間の類似度s12は、下記数式(3)に示すヒストグラムインタセクションで定義することができる。
Figure 0005197683
同様に、構図評価値算出部102は、数式(3)に定義される類似度を、他の算出領域の組み合わせに関して算出する。例えば、構図評価値算出部102は、算出領域301と算出領域303との類似度s13、算出領域302と算出領域304との類似度s24、並びに算出領域303と算出領域304との類似度s34を算出する。当然ながら、構図評価値算出部102は、算出領域302と算出領域303との類似度s23、算出領域301と算出領域304との類似度s14を算出して、構図評価値の算出に使用してもよい。
続いて、構図評価値算出部102は、数式(4)のように、算出した類似度s12、s13、s24及びs34を含む特徴ベクトルvを作成し、この特徴ベクトルによって処理対象の非立体画像101を表現する。
v = (s12, s13, s24, s34) (4)
特徴ベクトルvにより表現される非立体画像101が、予め用意された構図200、210、220のいずれに近いかを評価する。評価方法には、例えば、パターン識別においてよく用いられるサポートベクターマシン(SVM:Support Vector Machine)を利用することができる。SVMは、2クラス識別器である。本実施形態では、構図200とそれ以外の構図、構図210とそれ以外の構図というように、対象構図とそれ以外の構図とを識別する3つのSVMが用意される。SVMは、構図毎に対応する多数のサンプル画像を事前に収集することにより、予め学習させておく。必要となるSVMの数は、予め用意される構図の数に依存する。構図評価値算出部102は、3つのSVMからの出力値y1、y2及びy3を構図評価値として得る。構図評価値は、予め用意された構図毎に算出される。一例として、SVMの出力値y1、y2及びy3が夫々構図200、210及び220に関する構図評価値として出力される。
なお、図2(a)〜(c)及び図3をあわせて参照すると、4つの算出領域301、302、303、304が、各構図200、210、220において奥行きが大きく異なる領域の組み合わせを含むように設定されていることが分かる。このように、用意された構図に応じて算出領域を設定して、これらの算出領域間の類似度を評価することで、構図推定を高精度に行うことができる。
なお、構図推定は、算出領域間の類似度を算出することなしに、画素値の統計量を特徴量として使用して実行されてもよい。しかしながら、類似度に基づく構図推定の方が、統計量に基づく構図推定より、高精度の構図推定を実現することができる。例えば、図2の構図200のような水平線又は地平線201を含むシーンでは、算出領域301及び302は、空であり、算出領域303及び304は、水面又は地面である場合が多い。この場合、算出領域301と算出領域302との類似度s12、並びに、算出領域303と算出領域304との類似度s34は、いずれも大きくなることが容易に予想することができる。一方、算出領域301と算出領域303との類似度s13、算出領域302と算出領域304との類似度s24は、小さくなると予想することができる。
時間経過とともに、空の領域は、水色や灰色、ときには白に変化し、水面の領域は青、地面の領域は、緑や茶色に変化する。算出領域間の類似度を用いると、各領域の時間変化に左右されずに、構図推定を安定化することができる。
次に、評価値補正部103が構図評価値を補正する処理を具体的に説明する。
評価値補正部103は、既に処理済みの非立体画像から得られた補正後の構図評価値と、構図間の類似度とを加味して、構図評価値算出部102で算出された構図評価値の各々を補正する。以下、構図評価値の補正について、数式を用いて具体的に説明する。
本実施形態では、奥行き信号を生成する対象となっている非立体画像を、時刻tの非立体画像とする。既に処理済みの非立体画像は、時刻tより前の非立体画像、例えば、時刻t−1の非立体画像を指す。時刻tの非立体画像に関して算出された構図xの構図評価値は、時刻tより前の非立体画像から得られた補正後の構図評価値に基づいて補正される。補正された構図評価値P(x|z,…,z)は、下記数式(5)のように、定義することができる。
Figure 0005197683
ここで、P(z|x)は、時刻tの画像から得られた構図xの構図評価値を表し、例えば、上述したSVMの出力値(若しくは、その出力値を確率で表現した数値)である。また、構図評価値P(z|x)内のインデックスzは、構図評価値P(z|x)が時刻tの画像から得られたものであることを示す。構図評価値P(z|x)のみを使用して構図推定を行う場合、選択される構図が時間経過とともに頻繁に変わる状況が発生する可能性があり、その結果、奥行き信号の時間変化が大きくなる場合がある。このような奥行き信号の急激な変化を回避するために、評価値補正部103は、数式(5)に示すように、構図評価値P(z|x)に下記数式(6)に示す補正項を乗算して、構図評価値P(z|x)を補正している。
Figure 0005197683
ここで、P(x|xt−1)は、構図間の類似度であり、より具体的には、時刻t−1から時刻tにかけて、構図が構図xt−1から構図xに移行する可能性を示す。また、P(xt−1|z,…,zt−1)は、時刻t−1の非立体画像に関して得られた、補正された構図評価値である。数式(6)の補正項は、時刻t−1まで再帰的に得られた補正後の構図評価値とともに、構図間の類似度を考慮した補正項であり、時刻tの非立体画像に関する構図評価値をどれぐらい補正すべきかの補正量を示す。
構図間の類似度P(x|xt−1)としては、構図毎に分類されたサンプル画像を入力した場合であって、補正部で構図評価値を補正しない場合に、構図選択部が各構図を選択した割合から得られた選択率を用いてもよく、或いは、SVM識別器が様々な構図のサンプル画像を評価したときの選択率を用いてもよい。例えば、SVM識別器によって、本来構図Aに属するサンプル画像が構図Aと正しく判定される確率、誤って構図Bが選択される確率というように各構図の選択率を計算することにより、構図の数の2乗個の要素を有する行列が得られる。この行列は、SVM識別器の誤りやすさを表す行列である。誤った構図が選択される確率は、構図が互いに似ていれば似ているほど大きくなる。
また、構図間の類似度P(x|xt−1)の他の算出方法としては、各構図に対応する奥行き信号間の距離を使用してもよい。例えば、構図間の類似度P(x|xt−1)は、下記数式(7)及び数式(8)のように、構図x内のi番目の画素の奥行き値dx(i)と構図xt−1内のi番目の画素の奥行き値dxt−1(i)との二乗距離Dに基づいて、定義することができる。二乗距離Dを算出する際に使用する奥行き値dx(i)及びdxt−1(i)は、用意された構図に予め設定されており、即ち、各構図は、画素毎に所定の奥行き値を保持している。
Figure 0005197683
Figure 0005197683
このように、構図間の類似度P(x|xt−1)は、構図xと構図xt−1とが似ていれば似ているほど大きくなるように、定義される。数式(6)に示されるような補正項を乗算して構図評価値を補正することにより、連続する非立体画像間において同一の又は似た構図が選択される可能性が高くなり、その結果、奥行き信号の急激な変化が抑制され、滑らかに変化する奥行き信号を生成することができる。
次に、処理対象の非立体画像に適合する構図を選択し、奥行き信号を生成する方法を説明する。
構図選択部104は、下記数式(9)のように、補正された構図評価値P(x|z,…,z)が最大となる構図xを選択する。
Figure 0005197683
奥行き信号生成部105は、選択された構図xに対応する奥行き信号を生成する。奥行き信号は、予め格納されている基準奥行きパターンを使用して生成されてもよく、或いは、予め定められた生成規則を処理対象の非立体画像に適用して生成してもよい。基準奥行きパターンを使用する方法は、画一的な奥行きパターンを当てはめるため、即ち、構図が保持している所定の奥行き値を当てはめるため、処理対象の非立体画像にフィットするとは限らず、違和感を生じさせる可能性がある。本実施形態では、生成規則に基づいて奥行き信号を生成する方法について、図2に示す構図200を例に挙げて説明する。
構図200は、水平線201を含む構図であり、水平線201を境界とする2枚の平面202、203により奥行きを表現している。図4には、処理対象の非立体画像に適合する構図として構図200が選択された場合に奥行き信号を生成するための構成要素が示されている。まず、水平線検出部401が処理対象の非立体画像101に含まれる水平線を検出する。水平線の検出では、水平なエッジにのみ反応するようなエッジオペレータを走査し、各画素においてエッジ強度を求める。次に、画像の各水平ライン上の画素のエッジ強度を加算し、ラインごとのエッジ強度を求める。このエッジ強度が最大となるラインが水平線として検出される。次に、平面当てはめ部402は、下記数式(10)のように、検出された水平線の上下に異なる奥行き値を与える。
Figure 0005197683
例えば、i番目の画素のy座標y(i)が検出された水平線位置hより小さい(画像上部にある)場合、即ち、i番目の画素が平面202に対応する画素である場合、この画素に最も奥を表す値100を奥行き値として与える。それ以外の画素(平面203に対応する画素)に対しては、y(i)の値に応じた小さい奥行き値を与える。このように、奥行き信号生成部105は、処理対象の非立体画像内の検出された水平線位置に応じて画素毎に適切な奥行き値を算出して、奥行き信号を生成する。奥行き信号は、選択された1つの構図に基づいて生成されるため、奥行き値に関して高いコントラストを保持することができる。
なお、本実施形態の奥行き信号生成装置により生成された奥行き信号は、他の手法で生成された奥行き信号と合成して利用されてもよい。奥行き信号を生成する他の手法としては、例えば、Y.J. Jeong et al., “Depth-image-based rendering (DIBR) using disocclusion area restoration,” SID, 11.3, 2009.に記述されている運動視差(motion parallax)に基づく推定手法がある。合成には、単純な奥行き信号値の平均又はより手前の奥行き値を採用する方法を使用することができる。
次に、上記の手順で生成した奥行き信号を利用して立体画像を生成する方法について説明する。立体画像を得るために、図示しない立体画像生成装置は、奥行き信号に基づいて、処理対象の非立体画像に対する視差画像を生成する。この視差画像は、各画素の奥行き値dに応じてシフト量sを算出することによって求めることができる。以下に、最も単純な幾何モデルに従ったシフト量sの算出方法を上記文献(Y.J. Jeong et al., “Depth-image-based rendering (DIBR) using disocclusion area restoration,” SID, 11.3, 2009.)を参照しながら説明する。
奥行き値dは、下記数式(11)に基づきシフト量sに変換される。ここでbは観測者の眼間距離であり、vは観測者からディスプレイまでの距離である.
Figure 0005197683
立体画像生成装置は、処理対象の非立体画像に含まれる各画素に対して数式(11)のシフト量sを計算し、処理対象の非立体画像に含まれる各画素をシフト量sだけシフトさせた視差画像を生成する。一例として、立体画像生成装置は、処理対象の非立体画像及び生成した視差画像を、夫々左目用画像及び右目用画像として含む立体画像信号を生成する。
図5は、奥行き信号を生成する手順を概略的に示す。まず、ステップS500において、構図評価値算出部102が処理対象の非立体画像101を受け取る。ステップS501では、処理対象の非立体画像101内の所定の算出領域から画素値の統計量が、構図評価値算出部102によって算出される。画素値の統計量は、例えば、画像の4隅における色ヒストグラムである。次に、ステップS502では、算出された画素統計量に基づいて、構図評価値が構図評価値算出部102によって算出される。構図評価値の算出には、例えば、事前に学習されたサポートベクターマシンに基づく識別器が使用される。
ステップS503では、構図評価値が評価値補正部103によって補正される。評価値の補正には、過去の補正後の構図評価値、及び構図間の類似度が利用される。
ステップS504では、最大の評価値を与える構図が、構図選択部104によって選択され、選択された構図が図2(a)に示すような水平線を含む構図であるか否かが判断される。選択された構図が水平線を含まない場合、ステップS505に進み、選択された構図に基づいて、奥行き信号が奥行き信号生成部105によって生成される。
ステップS504において、選択された構図が水平線を含むと判断された場合、ステップS506に進み、ステップS506において、エッジ強度が奥行き信号生成部105によって算出される。ステップS507では、算出されたエッジ強度に基づいて、水平線位置が検出される。ステップS505では、検出された水平線位置に基づいて、奥行き信号が奥行き信号生成部105によって生成される。
ステップS508では、図示しない立体画像生成装置は、生成された奥行き信号に応じたシフト量を算出して、立体画像信号を生成する。
以上のように、本実施形態に係る奥行き信号生成装置においては、奥行き信号を生成する対象となっている非立体画像から算出された構図評価値を、既に処理済の非立体画像の補正後の構図評価値を使用して補正することにより、非立体画像に適合する構図として選択される構図が頻繁に変わることが抑制され、従って、奥行き信号の急激な変化を抑制することができる。また、予め用意された構図から、処理対象の非立体画像101に適合する1つの構図を選択し、選択された1つの構図に基づいて奥行き信号を生成することから、生成された奥行き信号は、高いコントラストを保持している。
上述した第1の実施形態によれば、高いコントラストを保持しながらも、急激な時間変化が抑制された奥行き信号を生成する奥行き信号生成装置を提供することができる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
102…構図評価値算出部、103…評価値補正部、104…構図選択部、105…奥行き信号生成部、106…記憶部、200,210,220…構図、301,302,303,304…算出領域、401…水平線検出部、402…平面当てはめ部。

Claims (6)

  1. 時系列の画像から奥行き信号を生成する奥行き信号生成装置であって、
    前記時系列の画像のうち第1画像内の1以上の特定領域毎に、当該特定領域に含まれる画素の画素値に関するヒストグラムを算出し、あらかじめ用意された奥行き構造パターンを示す構図毎に、前記第1画像と適合する構図を選択するための第1の評価値を前記特定領域毎に算出したヒストグラムに基づいて算出する算出部と、
    前記構図毎に、前記第1画像の前記第1の評価値を補正して前記第1画像の第2の評価値を取得する補正部であって、前記時系列の画像のうち前記第1画像より前の時刻の画像である第2画像の第2の評価値と、前記構図間の時系列的な移り変わりやすさを示す第1の類似度と、から補正値を算出し、前記第1の画像の前記第1の評価値に前記補正値を乗じることにより前記第1画像の前記第2の評価値を取得する前記補正部と、
    前記第1画像の前記第2の評価値が最大である構図を選択する選択部と、
    前記選択された構図に基づいて、前記奥行き信号を生成する生成部と、
    を具備する奥行き信号生成装置。
  2. 前記補正部は、前記第1画像として前記構図毎に分類されたサンプル画像を入力した場合に、前記補正部を使用せずに前記選択部が前記各構図を選択した割合から得られた選択率から前記第1の類似度を算出する請求項1に記載の奥行き信号生成装置。
  3. 前記補正部は、前記構図の各々の奥行き信号間の距離に基づいて、前記第1の類似度を算出する請求項1に記載の奥行き信号生成装置。
  4. 前記特定領域は複数であり、前記算出部は、前記特定領域毎に算出したヒストグラムを比較して、前記特定領域間の類似度を示す第2の類似度を求め、当該第2の類似度に基づいて前記第1評価値を算出する請求項1に記載の奥行き信号生成装置。
  5. 前記算出部は、前記各構図において、奥行きが異なる領域の組み合わせを含むように、前記特定領域を設定する請求項4に記載の奥行き信号生成装置。
  6. 時系列の画像から奥行き信号を生成する奥行き信号生成方法であって、
    前記時系列の画像のうち第1画像内の1以上の特定領域毎に、当該特定領域に含まれる画素の画素値に関するヒストグラムを算出し、あらかじめ用意された奥行き構造パターンを示す構図毎に、前記第1画像と適合する構図を選択するための第1の評価値を前記特定領域毎に算出したヒストグラムに基づいて算出することと、
    前記構図毎に、前記第1画像の前記第1の評価値を補正して前記第1画像の第2の評価値を取得することであって、前記時系列の画像のうち前記第1画像より前の時刻の画像である第2画像の第2の評価値と、前記構図間の時系列的な移り変わりやすさを示す第1の類似度と、から補正値を算出し、前記第1の画像の前記第1の評価値に前記補正値を乗じることにより前記第1画像の前記第2の評価値を取得することと、
    前記第1画像の前記第2の評価値が最大である構図を選択することと、
    前記選択された構図に基づいて、前記奥行き信号を生成することと、
    を具備する奥行き信号生成方法。
JP2010149721A 2010-06-30 2010-06-30 奥行き信号生成装置及び方法 Expired - Fee Related JP5197683B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010149721A JP5197683B2 (ja) 2010-06-30 2010-06-30 奥行き信号生成装置及び方法
US13/052,194 US8805020B2 (en) 2010-06-30 2011-03-21 Apparatus and method for generating depth signal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010149721A JP5197683B2 (ja) 2010-06-30 2010-06-30 奥行き信号生成装置及び方法

Publications (2)

Publication Number Publication Date
JP2012015744A JP2012015744A (ja) 2012-01-19
JP5197683B2 true JP5197683B2 (ja) 2013-05-15

Family

ID=45399748

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010149721A Expired - Fee Related JP5197683B2 (ja) 2010-06-30 2010-06-30 奥行き信号生成装置及び方法

Country Status (2)

Country Link
US (1) US8805020B2 (ja)
JP (1) JP5197683B2 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012144162A1 (ja) * 2011-04-22 2012-10-26 パナソニック株式会社 3次元撮像装置、光透過部、画像処理装置、およびプログラム
US9557836B2 (en) * 2011-11-01 2017-01-31 Microsoft Technology Licensing, Llc Depth image compression
US8897542B2 (en) * 2011-12-15 2014-11-25 Sony Corporation Depth map generation based on soft classification
EP2618586B1 (en) 2012-01-18 2016-11-30 Nxp B.V. 2D to 3D image conversion
JP5349671B1 (ja) 2012-04-27 2013-11-20 株式会社東芝 画像処理装置、画像表示装置および方法
JP5703255B2 (ja) * 2012-04-27 2015-04-15 株式会社東芝 画像処理装置、画像処理方法およびプログラム
WO2013186882A1 (ja) * 2012-06-13 2013-12-19 株式会社エム・ソフト 立体視画像生成方法および立体視画像生成システム
WO2013186881A1 (ja) * 2012-06-13 2013-12-19 株式会社エム・ソフト 立体視画像生成方法および立体視画像生成システム
CN102724527B (zh) * 2012-06-19 2014-07-16 清华大学 可配置多场景模型的深度估计方法及使用该方法的***
CN103679683B (zh) * 2012-09-07 2016-12-21 珠海扬智电子科技有限公司 基于块深度传递的深度图产生方法与相关装置
US9609242B2 (en) * 2015-06-25 2017-03-28 Intel Corporation Auto-correction of depth-sensing camera data for planar target surfaces
CN111814759B (zh) * 2020-08-24 2020-12-18 腾讯科技(深圳)有限公司 人脸质量标签值的获取方法、装置、服务器及存储介质

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04214527A (ja) 1990-12-12 1992-08-05 Mitsubishi Electric Corp 光変調器の製作方法
JPH08331607A (ja) * 1995-03-29 1996-12-13 Sanyo Electric Co Ltd 三次元表示画像生成方法
JP3276931B2 (ja) 1996-08-07 2002-04-22 三洋電機株式会社 3次元映像の立体感調整方法及び立体感調整装置
JP2000261828A (ja) * 1999-03-04 2000-09-22 Toshiba Corp 立体映像生成方法
JP2001359119A (ja) * 2000-06-15 2001-12-26 Toshiba Corp 立体映像生成方法
US7184071B2 (en) * 2002-08-23 2007-02-27 University Of Maryland Method of three-dimensional object reconstruction from a video sequence using a generic model
US6847728B2 (en) * 2002-12-09 2005-01-25 Sarnoff Corporation Dynamic depth recovery from multiple synchronized video streams
JP4179938B2 (ja) * 2003-02-05 2008-11-12 シャープ株式会社 立体画像生成装置、立体画像生成方法、立体画像生成プログラムおよび立体画像生成プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2004320189A (ja) * 2003-04-14 2004-11-11 Sharp Corp 2次元画像の3次元化方法
JP4214976B2 (ja) * 2003-09-24 2009-01-28 日本ビクター株式会社 擬似立体画像作成装置及び擬似立体画像作成方法並びに擬似立体画像表示システム
JP4214527B2 (ja) 2004-12-27 2009-01-28 日本ビクター株式会社 擬似立体画像生成装置及び擬似立体画像生成プログラム並びに擬似立体画像表示システム
DE102005034597A1 (de) * 2005-07-25 2007-02-08 Robert Bosch Gmbh Verfahren und Anordnung zur Erzeugung einer Tiefenkarte
JP2007264722A (ja) * 2006-03-27 2007-10-11 Victor Co Of Japan Ltd 画像処理装置
JP4952657B2 (ja) * 2007-07-19 2012-06-13 株式会社Jvcケンウッド 擬似立体画像生成装置、画像符号化装置、画像符号化方法、画像伝送方法、画像復号化装置及び画像復号化方法
JP5425897B2 (ja) * 2008-05-28 2014-02-26 トムソン ライセンシング 前方及び後方の深度予測を伴う、画像の深度抽出のシステム及び方法
US20100053310A1 (en) * 2008-08-31 2010-03-04 Maxson Brian D Transforming 3d video content to match viewer position
KR101650702B1 (ko) * 2008-12-19 2016-08-24 코닌클리케 필립스 엔.브이. 이미지들로부터의 깊이 맵들의 생성
KR20100135032A (ko) * 2009-06-16 2010-12-24 삼성전자주식회사 2차원 영상의 3차원 영상 변환 장치 및 방법
US9014462B2 (en) * 2010-11-10 2015-04-21 Panasonic Intellectual Property Management Co., Ltd. Depth information generating device, depth information generating method, and stereo image converter

Also Published As

Publication number Publication date
US20120002862A1 (en) 2012-01-05
US8805020B2 (en) 2014-08-12
JP2012015744A (ja) 2012-01-19

Similar Documents

Publication Publication Date Title
JP5197683B2 (ja) 奥行き信号生成装置及び方法
US9030469B2 (en) Method for generating depth maps from monocular images and systems using the same
KR101483660B1 (ko) 깊이-관련 정보 전파를 위한 방법 및 장치
US8488868B2 (en) Generation of a depth map from a monoscopic color image for rendering stereoscopic still and video images
KR101198320B1 (ko) 2차원에서 3차원으로의 영상 변환 방법 및 장치
US9922441B2 (en) Image processing device, image processing method, and program
US20120169722A1 (en) Method and apparatus generating multi-view images for three-dimensional display
US9154762B2 (en) Stereoscopic image system utilizing pixel shifting and interpolation
JP5238767B2 (ja) 視差画像生成方法及び装置
JP2014056466A (ja) 画像処理装置及び方法
US8565513B2 (en) Image processing method for providing depth information and image processing system using the same
JP5755571B2 (ja) 仮想視点画像生成装置、仮想視点画像生成方法、制御プログラム、記録媒体、および立体表示装置
TWI712990B (zh) 用於判定影像之深度圖之方法與裝置、及非暫時性電腦可讀取儲存媒體
US10074209B2 (en) Method for processing a current image of an image sequence, and corresponding computer program and processing device
KR20080047673A (ko) 입체영상 변환 장치 및 그 방법
CN102026012B (zh) 平面视频立体化转换深度图生成方法和装置
CN107170007B (zh) 具有图像散焦功能的图像装置及其产生散焦图像的方法
JP2014035597A (ja) 画像処理装置、コンピュータプログラム、記録媒体及び画像処理方法
CN104982032B (zh) 3d图像数据分割的方法和装置
JP2011113177A (ja) 被写体3次元モデルを構築する方法およびプログラム
KR20160114983A (ko) 영상 변환 장치 및 방법
WO2021245930A1 (ja) 画像処理装置、画像処理方法、および画像処理プログラム
JP2019045996A (ja) 画像処理装置、画像処理方法及びプログラム
CN106600573B (zh) 一种图像处理方法
JP2010134567A (ja) 画像処理装置ならびにその動作制御方法およびその動作制御プログラム

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120409

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120417

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120615

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130205

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160215

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160215

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees