JP2001320731A - 2次元映像を3次元映像に変換する装置及びその方法 - Google Patents

2次元映像を3次元映像に変換する装置及びその方法

Info

Publication number
JP2001320731A
JP2001320731A JP2000109211A JP2000109211A JP2001320731A JP 2001320731 A JP2001320731 A JP 2001320731A JP 2000109211 A JP2000109211 A JP 2000109211A JP 2000109211 A JP2000109211 A JP 2000109211A JP 2001320731 A JP2001320731 A JP 2001320731A
Authority
JP
Japan
Prior art keywords
amount
region
parallax
video signal
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2000109211A
Other languages
English (en)
Inventor
Shiyuugo Yamashita
周悟 山下
Haruhiko Murata
治彦 村田
Toshiya Iinuma
俊哉 飯沼
Mitsuo Nakajima
三生 中島
Takayuki Mori
孝幸 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2000109211A priority Critical patent/JP2001320731A/ja
Priority to EP00977933A priority patent/EP1235438B1/en
Priority to DE60014420T priority patent/DE60014420T2/de
Priority to PCT/JP2000/008315 priority patent/WO2001039512A1/ja
Priority to AT00977933T priority patent/ATE278298T1/de
Priority to TW089125162A priority patent/TW521519B/zh
Priority to US10/130,427 priority patent/US7161614B1/en
Publication of JP2001320731A publication Critical patent/JP2001320731A/ja
Withdrawn legal-status Critical Current

Links

Landscapes

  • Studio Circuits (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Picture Signal Circuits (AREA)

Abstract

(57)【要約】 【課題】 この発明は、MTD法とCID法との併用し
て2次元映像を3次元映像に変換する場合に、入力映像
により変換映像の立体感が大きく異なるといったことを
回避できる2次元映像を3次元映像に変換する方法を提
供することを目的とする。 【解決手段】 視差量算出手段で算出された各領域毎の
視差量を動きベクトル検出手段で検出された各領域毎の
動きベクトルの大きさに応じて修正する視差量修正手
段、ならびに視差量修正手段で修正された各領域の視差
量に基づいて、切替手段で出力された右目用映像及び左
目用映像の各領域の位相を修正して、立体映像信号とし
て出力する位相制御手段を備えている。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、2次元映像を3次
元映像に変換する装置とその方法に関する。
【0002】
【従来の技術】従来、2次元映像を3次元映像に変換す
る装置及びその方法は、特開平9−107562号公報
及び特開平10−51812号公報に記載されている。
【0003】まず、特開平9−107562号公報に記
載されている概要を、図12に基づいて説明する。
【0004】2次元映像(2D映像)では、鳥が山の前
を左から右へ飛んでいる様子を画像1から5に示すよう
に、撮像したとする。
【0005】まず、画像1から画像2に移行する際の動
きベクトル、画像2から画像3に移行するための動きベ
クトル等のように、各画像間の動きベクトルを抽出す
る。次に、抽出した動きベクトルから被写体(鳥)と背
景(山)とを決定する。そして、被写体が背景の前に来
るように基準画像を右または左目画像の一方に決め、動
きベクトルの大きさに応じてフィールド数遅延させた画
像を他方として決める。
【0006】例えば、基準画像、即ち現在の画像が画像
4とすると、画像3と画像4とから得られた動きベクト
ルの大きさに応じてフィールド遅延させた画像、即ち遅
延画像を画像2とし、動きベクトルの方向から基準画像
を左目用画像、また遅延画像を右目画像に見せている。
【0007】この動作を繰り返し実行することにより、
立体感のある映像、即ち3次元映像を表示するのであ
る。この方法は、以下MTD法と呼ぶことにする。
【0008】また、特開平10−51812号公報に記
載されている概要を、図13に基づいて説明する。
【0009】まず、2次元画像を複数の領域に分割し、
各領域毎に色成分、高周波成分、コントラストを抽出、
即ち画像特徴を抽出する。次に色情報等により分割した
各領域をグループ化する。そして、グループ化した領域
単位で、その領域の平均コントラスト及び平均高周波成
分等の情報により、奥行き推定を行い視差量を算出す
る。この算出した視差量に基づいて、分割した各領域毎
に左目用画像と右目用画像を反対方法に水平シフトさせ
て、3次元映像を生成している。
【0010】このようにして作成した左目用映像及び右
目用映像を立体表示手段に表示させて立体表示するので
ある。この方法は、CID法と呼ぶことにする。
【0011】MTD法およびCID法について、さらに
詳しく説明する。
【0012】1.MTD法 MTD法では、画面内の動きに応じて、左右いずれかの
目に入る映像を遅延させて立体感を作りだす。この際、
映像にとって最適である(目標となる)フィールド遅延
量(目標遅延量dly _target)は、被写体背景判別によ
って得た被写体領域の水平方向ベクトルの平均値obj _
xvec [pixel / field]と背景領域の水平方向ベクトルbg
_xvec [pixel / field]を用い、次式1により決定す
る。なお、ベクトルは右方向の動きに対して正の値を取
る。
【0013】
【数1】
【0014】ここで、Mdly_sisaはMTD法によって生
成する立体感を決定する視差量[pixel] を表し、その値
はユーザーインターフェース等を介し予め設定される。
【0015】なお、左右いずれの目を遅延させるかとい
う遅延方向は、目標遅延量dly _targetを用い次式2に
より決定される。
【0016】
【数2】
【0017】ここでは、便宜上、目標遅延量を例に遅延
量の説明を行ったが実際の制御では、目標遅延量を時間
的に平滑化した実遅延量delay により遅延するフィール
ド数と遅延方向を決定する。
【0018】2.被写***置制御 被写***置制御は、MTD法を行った場合に生じる管面
に対する物体呈示位置のあいまいさを是正するために使
用する。すなわち、MTD法では、図14に示すように
被写体が動くか背景が動くかによって、見え方が異な
る。このため、被写***置制御の中央割り振り中央基準
では、被写体が動く場合は、右眼映像の呈示位置を右に
シフトし、左目映像の呈示位置を左にシフトすることで
画面全体を奥方向にもっていくことによって、被写体か
ら管面の画素数と管面から背景の画素数が等しくなるよ
うにしている。また、背景が動く場合は、右眼映像の呈
示位置を左にシフトし、左目映像の呈示位置を右にシフ
トすることで画面全体を手前方向にもっていくことによ
って、被写体から管面の画素数と管面から背景の画素数
が等しくなるようにしている。
【0019】この被写***置制御の中央割り振り中央基
準によって算出される右眼の水平位相量phr と左眼の水
平位相量phl は、フィールド遅延により発生する被写体
の位相量obj _sisaと背景の位相量bg_sisaを次式3で
表した場合、以下の式4で表現できる。
【0020】
【数3】
【0021】
【数4】
【0022】なお、実遅延量delay は目標遅延量dly _
targetを時間的に平滑化しているため、MTD法により
生成される視差量dly _sisa(=obj _sisa - bg _sis
a) [pixel] (dly_sisaは飛び出している場合は正の値
を、奥まっている場合は負の値を取る。) の絶対値とユ
ーザ設定によって予め決定したMdly_sisa[pixel] とは
完全に一致しない。また、遅延がない(dly _target =
0)場合は、dly _sisa=0となる。
【0023】3.CID法 CID法は、一画面を複数の領域に分割し、各々の領域
から得た画像情報及び構図から各領域の奥行きを推定
し、この推定した奥行きを基に画面内の各画素をシフト
することによって両眼視差を生成する手法である。
【0024】また、本出願人は、既に開発したCID法
をさらに改良したCID法をも開発している。
【0025】図15は、改良後のCID法(公知ではな
い)の制御手順を示している。
【0026】まず、一画面を複数の領域に分割し、各々
の領域から高周波、輝度コントラスト、色(B-Y、R-Y 成
分) の情報を得る(ステップ61)。そして、これらの
情報及び構図から推定した各領域の奥行き推定値を求め
る(ステップ62)。求めた奥行き推定値を単にシフト
量に変換すると変換画像に歪みが目立つため、歪み抑圧
処理を行う(ステップ63)。歪み抑圧処理後の奥行き
推定値に距離スケール変換を施す(ステップ64)。
【0027】歪み抑圧処理について説明する。CID法
では、2D画像を変形し左右画像を生成する。この変形
が大きくなりすぎると不自然な映像となるため、CID
法では、隣接する領域間の位相量の差が、ユーザによっ
て予め定められた変換画像の歪み許容範囲h _supp_le
v[Pixel]以下になるよう制御している。すなわち、推定
した奥行きをMfrontとMrear との間に割り当てることに
よって求めた各領域の位相量から隣接する領域の位相量
の差を求める。この差の最大値をh _dv_max[pixel]と
し、h _dv_max が歪み許容範囲h _supp_lev[pixel]
を越える場合は、次式5を満足するまでMfrontとMrear
を0[pixel] に近づける方向に小さくする。
【0028】
【数5】
【0029】従って、h _dv_max がh _supp_lev よ
り大きい場合は、図16の右側の図に示すように、変換
映像の飛び出し位相量front[Pixel]と奥まり位相量rear
[Pixel] を、次式6の線形演算により、ユーザが予め定
めた最大飛び出し位相量Mfront[Pixel] と最大奥まり位
相量Mrear[Pixel]より小さくする。
【0030】
【数6】
【0031】逆に、h _dv_max がh _supp_lev より
小さい場合は、変換画像の歪みは許容範囲内であるか
ら、図16の左側の図に示すように、次式7が成り立
つ。
【0032】
【数7】
【0033】つまり、h _dv_max がh _supp_lev よ
り小さい場合は、変換映像の位相のダイナミックレンジ
dv_range(=front rear) と、ユーザが予め定めた位相
のダイナミックレンジMdv _range(=Mfront Mrear) と
は等しくなる。
【0034】なお、実機におけるこのダイナミックレン
ジを抑圧する歪み抑圧処理は、CPU負荷を軽減するた
めh _supp_lev を推定した奥行きの単位に置き換えて
行っているが、ここでは便宜上、画素の単位系を用いて
説明を行った。
【0035】距離スケール変換方法について説明する。
【0036】2眼式立体ディスプレイでは、右眼用画像
(R画像)と左眼用画像(L画像)の対応点の視差量W
とその融像位置(実際に見える管面からの距離)Ypと
は、非線形の関係にある。
【0037】すなわち、ディスプレイ面上で視差W[mm]
を持つR画像およびL画像を管面から距離K[mm]離れた
位置から観察した場合、管面からの融像位置までの距離
Yp[mm]は次式8で表される。
【0038】
【数8】
【0039】上記数式8において、各変数は以下の値を
表す。 K :ディスプレイ管面からの観察者までの距離 [mm] E :眼間の1/2 の長さ [mm] W :ディスプレイ面上での左眼用画像と右眼用画像の対
応点の視差量 [mm] Yp:管面から融像位置までの距離[mm]
【0040】K=1000mm, 2E=65mm として上記数式8をグ
ラフで表すと、図17のようになる。
【0041】図17より、奥行き推定値を線形的に画素
の単位に置き換えただけでは、融像する映像には空間的
な歪みを生じることが分かる。そこで、距離スケール手
法では、空間歪みを考慮して、奥行き推定値を画素の単
位に変換する。
【0042】以下、距離スケール変換手法について簡単
に説明する。
【0043】今、ディスプレイ上の1画素の幅をU[mm]
とし、対応点がα画素分の視差Wがあるとすると、視差
Wは次式9で表される。
【0044】
【数9】
【0045】上記数式9を上記数式8に代入することに
より、次式10に示すように、画素と融像位置の関係が
求まる。
【0046】
【数10】
【0047】また、上式10を変形し次式11を得る。
【0048】
【数11】
【0049】完全距離スケール変換では、管面からの最
大飛び出し量Ymax' と管面からの最大奥まり量Ymin' を
指定すると、奥行き推定値depth (0〜100の値を持
つ)が決まれば対応する奥行きYpは次式12で表される
単純なスケール変換で得ることができる。
【0050】
【数12】
【0051】そして、Ypに対応する視差量αは、上記1
1により求められる。これにより、空間歪みを考慮し
て、奥行き推定値を画素の単位に変換することができ
る。
【0052】完全距離スケール変換において、256段
の視差量変換テーブルW" を用いる場合は、図18に示
すように、まず、Ymax' 〜Ymin' の間を256等分し、
各奥行き値Yp毎に対応した視差量変換テーブルW''[pixe
l]を上記式11に基づいて求める。
【0053】この場合、W"[255] がYmax' に対応した視
差量となり、W"[0] がYmin' に対応した視差量となる。
そして、奥行き推定値depth が決まれば、対応する視差
量αは次式13より求まる。
【0054】
【数13】
【0055】ここで、lev は視差量変換テーブル上の段
数を表し、次式14で与えられる。
【0056】
【数14】
【0057】ここまで、2D/3D変換における完全距
離スケール変換手法について述べたが、この手法には以
下に示す2つの問題がある。
【0058】(1) 奥行きYpが飽和する所まで最大飛び
出し量Ymax' を大きくすると、Ymax'近傍の奥行き値を
持つ部分において、変換画像自体の歪み( R画像、L画
像自体の歪み) が大きくなる。
【0059】(2) 奥行き再現空間のダイナミックレン
ジを大きく取ろうとすると、最大奥まり量Ymin' を小さ
くするしかないので、管面より前に飛び出す領域が極端
に少なくなる。
【0060】上記の問題を回避するためには、奥行きと
視差量がある程度比例関係にある領域のみ使用して変換
する必要がある。しかし、それでは画素スケール変換と
ほぼ同じになってしまい、複雑な処理を行う関係上、完
全距離スケール変換はもはや有用とは言い難い。
【0061】そこで、考案したのが次に紹介する折れ線
距離スケール変換である。折れ線距離スケール変換で
は、図19に示すように、飛び出し量比C[%] を導入
し、Ymax' 〜0 を255*C/100 等分し、0 〜Ymin' を255
{(1-C)/100)}等分することで、視差量変換テーブルを
求める。
【0062】すなわち、飛び出し量比Cを制御すること
で、管面より前の飛び出し量を変え、かつ、最大飛び出
しとなる部分での変換画像自体の歪みを抑えることがで
きる。なお、折れ線距離スケール変換において上記式1
2に対応する式は、次式15となる。
【0063】
【数15】
【0064】また、視差量変換テーブルW" の段数を表
す上記式14に対応する式は、次式16となる。
【0065】
【数16】
【0066】ここで、Dlevは、次式17で定義され、管
面に対応する視差量変換テーブル上の段数を表す。
【0067】
【数17】
【0068】折れ線距離スケール変換は管面より前と、
管面より奥において、それぞれ空間的な歪みが出ないよ
うになっている。逆に言えば、管面において空間的な歪
みがでることになる。これは、「立体映像を見た場合、
管面前後で見え方が違う。」という多くの視聴者から得
た言葉より、空間的な歪みは管面近傍で最も分かりづら
くなるという仮説に基づいている。
【0069】なお、実際に使用している値は、管面前後
での奥行き視差量変換テーブルの傾向(ステップ幅)が
大きく違わないようYmax',Ymin',C を決定している。
【0070】4.MTD法とCID法との併用 一般に、人は、目の位置の視差により生じる左右の死角
部の差により立体視の距離感などを知覚している。この
点、MTD法では、カバーできる反面、動きのない映像
や動きの複雑な映像ではうまく3次元映像に変換できな
かった。また、CID法では左右目用画像の視差量は自
由に変更できる反面、人の左右の目にはその視差により
被写体の影になる死角部分が異なって見えるように見せ
ることができなかった。
【0071】そこで、動画に対して効果的なMTD法
と、静止画も変換可能なCID法を併用して、2D/3
D変換を行なうことが考えられる。この場合には、MT
D法で得られた視差とCID法で得られた視差を単純に
加算することが考えられる。
【0072】しかしながら、MTD法による視差とCI
D法による視差を個別に制御しているため、変換によっ
て生成される視差は入力映像の動きの有無によって大き
く左右される。すなわち、入力映像が動画の場合はMT
D法の視差とCID法の視差が変換映像に反映される
が、静止画の場合はMTD法の視差はなくCID法の視
差のみとなる。
【0073】このように入力映像により変換映像の立体
感が大きく異なる現象は、ユーザーが立体感を調整する
際に都合が悪い。
【0074】
【発明が解決しようとする課題】この発明は、MTD法
とCID法とを併用して2次元映像を3次元映像に変換
する場合に、入力映像により変換映像の立体感が大きく
異なるといったことを回避できる2次元映像を3次元映
像に変換する方法を提供することを目的とする。
【0075】
【課題を解決するための手段】この発明による2次元映
像を3次元映像に変換する装置は、映像信号源から入力
された2次元映像信号をフィールド毎に記憶するフィー
ルドメモリ、入力映像信号のフィールド間の動きに応じ
た動きベクトルを、入力映像の各領域毎に検出する動き
ベクトル検出手段、フィールドメモリに格納された映像
信号のうちから、入力映像信号に対して、動きベクトル
検出手段によって検出された各領域の動きベクトルから
求められた遅延量だけ遅延した映像信号をフィールドメ
モリから読み出す読み出し手段、動きベクトル検出手段
で検出された各領域の動きベクトルの水平成分の方向に
基づいて、入力映像信号とフィールドメモリから読み出
された映像信号とのうち、一方の映像信号を左目映像信
号として、他方の映像信号を右目映像信号として出力す
る切替手段、入力映像信号から映像特徴量を、入力映像
の各領域毎に抽出する特徴量抽出手段、特徴量抽出手段
で抽出された各領域毎の画像特徴量に基づいて、入力映
像の各領域毎に奥行き量を算出し、算出した各領域毎の
奥行き量から各領域毎の視差量を算出する視差量算出手
段、視差量算出手段で算出された各領域毎の視差量を動
きベクトル検出手段で検出された各領域毎の動きベクト
ルの大きさに応じて修正する視差量修正手段、ならびに
視差量修正手段で修正された各領域の視差量に基づい
て、切替手段で出力された右目用映像及び左目用映像の
各領域の位相を修正して、立体映像信号として出力する
位相制御手段を備えていることを特徴とする。
【0076】視差量修正手段としては、たとえば、視差
量算出手段によって算出された各領域毎の視差量から、
対応する領域の動きベクトルの大きさに応じた視差量を
減算した差分視差量を各領域毎に算出する手段、および
隣接領域間の差分視差量の差の最大値が所定範囲内とな
るように、ダイナミックレンジを変更して各領域毎の差
分視差量を算出する手段を備えているものが用いられ
る。
【0077】視差量修正手段によって得られた各領域毎
の差分視差量と対応する領域の動きベクトルの大きさに
応じた視差量との和が所定範囲を越える場合には、その
余剰視差量に応じた量だけ、遅延量を減少させる手段を
設けることが好ましい。
【0078】この発明による2次元映像を3次元映像に
変換する方法は、映像信号源から入力された2次元映像
信号をフィールド毎にフィールドメモリに記憶させる第
1ステップ、入力映像信号のフィールド間の動きに応じ
た動きベクトルを、入力映像の各領域毎に検出する第2
ステップ、フィールドメモリに格納された映像信号のう
ちから、入力映像信号に対して、第2ステップによって
検出された各領域の動きベクトルから求められた遅延量
だけ遅延した映像信号をフィールドメモリから読み出す
第3ステップ、第2ステップで検出された各領域の動き
ベクトルの水平成分の方向に基づいて、入力映像信号と
フィールドメモリから読み出された映像信号とのうち、
一方の映像信号を左目映像信号として、他方の映像信号
を右目映像信号として出力する第4ステップ、入力映像
信号から映像特徴量を、入力映像の各領域毎に抽出する
第5ステップ、第5ステップで抽出された各領域毎の画
像特徴量に基づいて、入力映像の各領域毎に奥行き量を
算出し、算出した各領域毎の奥行き量から各領域毎の視
差量を算出する第6ステップ、第6ステツプで算出され
た各領域毎の視差量を第2ステップで検出された各領域
毎の動きベクトルの大きさに応じて修正する第7ステッ
プ、ならびに第7ステップで修正された各領域の視差量
に基づいて、第4ステップで出力された右目用映像及び
左目用映像の各領域の位相を修正して、立体映像信号と
して出力する第8ステップを備えていることを特徴とす
る。
【0079】第7ステップとしては、たとえば、第6ス
テップによって算出された各領域毎の視差量から、対応
する領域の動きベクトルの大きさに応じた視差量を減算
した差分視差量を各領域毎に算出するステップ、および
隣接領域間の差分視差量の差の最大値が所定範囲内とな
るように、ダイナミックレンジを変更して各領域毎の差
分視差量を算出するステップを備えているものが用いら
れる。
【0080】第7ステップによって得られた各領域毎の
差分視差量と対応する領域の動きベクトルの大きさに応
じた視差量との和が所定範囲を越える場合には、その余
剰視差量に応じた量だけ、遅延量を減少させるステップ
を備えていることが好ましい。
【0081】
【発明の実施の形態】以下、この発明の実施の形態につ
いて説明する。
【0082】〔1〕第1の実施の形態の説明 まず、図1および図2を参照して、この発明の第1の実
施の形態について説明する。
【0083】図1において、1はVTR、CD−RO
M、TV放送等の映像信号供給手段となる映像供給源、
2は映像供給源1から供給された2次元映像信号を3次
元映像信号、即ち左目用映像信号L及び右目用映像信号
Rに変換する2D/3D変換装置、3は2D/3D変換
装置2から出力された3次元映像信号を表示するイメー
ジスプリッター方式等を使用した立体表示手段である。
【0084】2D/3D変換装置2の構成について説明
する。
【0085】4は、該映像供給源1からの映像信号を1
フィールド単位で映像を記憶するフィールドメモリ、5
は映像供給源1からの映像信号から動きベクトルを検出
する動きベクトル検出手段である。
【0086】6は映像供給源1から供給される映像から
色成分を抽出する色抽出手段、7は映像供給源1の映像
からコントラストを抽出するコントラスト抽出手段、8
は映像信号源1の映像から高周波成分を抽出する高周波
成分抽出手段である。かかる色抽出手段6、コントラス
ト抽出手段7、高周波成分抽出手段8は、本発明の画像
特徴量抽出手段に相当する。
【0087】9は動きベクトル検出手段5で検出した動
きベクトルから動きの方向とその動き量(動きベクトル
の大きさ)とを求めて、出力する動き量算出手段、10
は現在の画像を基準として動き量算出手段9から出力さ
れた動き量に応じたフィールド数遅延した画像をフィー
ルドメモリ4から読みだすメモリ制御手段、11は動き
量算出手段9から出力された動きの方向に基づいて、基
準画像即ち現在の画像を左目用映像信号Lまたは右目用
映像信号Rのいずれにするのか切り換え3次元映像信号
を出力する切換手段である。
【0088】12は映像供給源1の映像から色抽出手段
6の色成分及び動き量算出手段9で算出した動き量及び
方向により被写体や背景などのように同じ物体と判断で
きる部分をグループ化し、グループ化情報を出力するグ
ループ化手段、13は動き量算出手段9で算出した動き
量とグループ化手段でグループ化した各領域情報とから
奥行き情報を算出し、一画面の奥行きマップを作成する
第1奥行きマップ作成手段である。
【0089】14は該グループ化手段12でグループ化
した領域毎に前記コントラスト抽出手段7で抽出したコ
ントラスト情報より奥行き情報を算出し、一画面の奥行
きマップを作成する第2奥行きマップ作成手段、15は
前記グループ化手段12でグループ化した領域毎に前記
高周波成分抽出手段8で抽出した高周波成分情報より奥
行き情報を算出し、一画面の奥行きマップを作成する第
3奥行きマップ作成手段、16は予め設定された構図情
報とグループ化手段12でグループ化された領域情報と
から奥行き情報を算出し、一画面の奥行きマップを作成
する第4奥行きマップ作成手段である。
【0090】17は第1から第4奥行きマップ作成手段
13、14、15,16で作成した奥行きマップを加重
加算して合成し、合成マップを作成する合成マップ作成
手段、18は該合成マップ作成手段17で作成した合成
マップより各領域毎の視差量を算出する視差量算出手
段、19は視差量算出手段18で算出した視差量に基づ
き、切換手段11から出力された左右目用画像の各領域
を、たとえば画素単位で水平方向にシフトさせ、合成す
る水平位置設定手段である。
【0091】なお、前記視差量算出手段18は、動き量
算出手段9で算出された動き量に基づいてフレーム遅延
が行われる分を考慮するため、前記動き量に応じて水平
位置設定手段19に出力する視差量を修正、即ち減少さ
せている。したがって、本発明の視差量修正手段にも相
当する。
【0092】かかる構成による動作を図2に基づいて説
明する。
【0093】ステップ1では、映像供給源1の映像信号
を1フィールド単位でフィールドメモリ4に記憶させ
る。ステップ2では動きベクトル検出手段5で映像供給
源1の2次元映像信号の動きベクトルを検出する。具体
的には、現在の画像と1フィールド前の画像とを比較
し、画像内の被写体の移動量とその方向とを動きベクト
ルとして抽出する。そして、動き量算出手段9で動きベ
クトルの動き量及びその方向を算出する。
【0094】ステップ3では、ステップ2で検出した動
きベクトルの動き量に応じてフィールド数遅延させた画
像をフィールドメモリ4から読み出し、切換手段11か
ら3次元映像信号として出力する。この時、切換手段1
1は、基準映像を映像供給源1からの2次元映像信号、
また遅延画像をフィールドメモリ4から読み出された映
像信号とし、ステップ2で検出した動きベクトルの動き
の方向に基づいて左目用映像信号L及び右目用映像信号
Rに切り換えて出力している。
【0095】上記ステップ1〜ステップ3の動作は、M
TD法の動作に相当する。次にステップ4では、映像供
給源1からの2次元映像信号から画像特徴を抽出する。
【0096】具体的には、画像を複数の領域に分割し、
各領域の色情報を色抽出手段6で抽出し、またコントラ
スト情報をコントラスト抽出手段7で抽出し、さらに高
周波成分情報を高周波抽出手段8で抽出し、画像特徴と
している。
【0097】また、本ステップ4では、被写体や背景な
どの判別に使用するために、色情報及びステップ2の動
き量からグループ化手段12が画像内の領域をグループ
化している。
【0098】ステップ5ではステップ4で抽出したコン
トラスト及び高周波成分について、グループ化手段12
でグループ化情報に応じて第2及び第3奥行きマップ作
成手段14,15で各奥行きマップを作成する。また、
ステップS2で算出した動き量及びグループ化手段12
のグループ化情報に応じた奥行きマップを第1奥行きマ
ップ作成手段13で作成する。さらに、予め設定された
画面の構図(たとえば風景画が主体であれば画面下部が
地面で、画面上部が空、画面中央部に被写体という構
図)及びグループ化手段12のグループ化情報に応じた
奥行きマップを第4奥行きマップ作成手段16で作成す
る。
【0099】ステップ6では合成マップ作成手段17
が、第1乃至第4奥行きマップ作成手段13、14、1
5、16で作成した奥行きマップを加重加算し、合成し
て合成マップを作成する。
【0100】ステップ7では視差量算出手段18がステ
ップ6で作成した合成マップに基づいて左目用画像の視
差量及び右目用画像の視差量を算出する。
【0101】以上ステップ4及びステップ7は、CID
法の動作に相当する。
【0102】ステップ8では、視差量算出手段18が、
ステップ2で検出した動きベクトルの動き量に応じて、
ステップS7で算出した各視差量を修正する。具体的に
は、ステップ3から出力した3次元映像信号の視差量分
を考慮し、その分視差量を減少させるように修正するの
である。
【0103】ステップ9では、水平位置設定手段19が
ステップ3から出力された3次元映像信号をステップ8
で修正された視差量に基づいて各領域を水平シフトし、
合成する。具体的には、ステップ3で出力した3次元映
像信号の右目用映像信号Rをステップ7の右目用画像の
視差量に基づき、また左目用映像信号Lをステップ7の
左目用画像の視差量に基づいて画面の各領域毎に水平シ
フトを施す。
【0104】そして、ステップ10では、立体表示手段
3に水平位置設定手段19で合成した3次元映像信号を
出力し、立体表示させるのである。
【0105】〔2〕第2の実施の形態の説明
【0106】図3〜図11を参照して、この発明の第2
の実施の形態について説明する。図3は、2次元映像を
3次元映像に変換する装置(2D/3D変換装置)の構
成を示している。
【0107】図3において、101はVTR、CD−R
OM、TV放送等の映像信号供給手段となる映像供給
源、102は映像供給源1から供給された2次元映像信
号を3次元映像信号、即ち左目用映像信号L及び右目用
映像信号Rに変換する2D/3D変換装置、103は2
D/3D変換装置2から出力された3次元映像信号を表
示するイメージスプリッター方式等を使用した立体表示
手段である。
【0108】2D/3D変換装置102の構成について
説明する。
【0109】104は、該映像供給源101からの映像
信号を1フィールド単位で記憶するフィールドメモリ、
105は映像供給源101からの映像信号から動きベク
トルを検出する動きベクトル検出手段である。
【0110】106は映像供給源101から供給される
映像から色成分、コントラスト、高周波成分等の画像特
徴量を領域毎に抽出する画像特徴抽出手段である。
【0111】110は、動きベクトル検出手段105で
検出した動きベクトルから遅延量を算出する遅延量算出
手段である。107は現在の入力画像を基準として遅延
量算出手段110によって算出された遅延量に応じたフ
ィールド数遅延した画像(遅延画像)をフィールドメモ
リ104から読みだすメモリ制御手段である。108は
遅延量算出手段110から出力された動きの方向に基づ
いて、入力画像および遅延画像のうちの、いずれを左目
用映像信号Lとし、いずれを右目用映像信号Rとするか
を切り換える切換手段である。
【0112】109は画像特徴抽出手段106によって
抽出された領域毎の画像特徴量に基づいて、奥行き推定
値を領域毎に算出する奥行き推定値算出手段である。1
11は奥行き推定値算出手段によって算出された領域毎
の奥行き推定値に基づいて、領域毎のCID法による視
差量(位相量)を算出するとともに、遅延量算出手段1
10から出力されたMTD法の視差量に基づいて、CI
D法による視差量を修正して統合視差量(統合位相量)
を算出する視差量算出手段である。
【0113】113は視差量算出手段111で算出した
統合視差量に基づき、切換手段108から出力された左
右目用画像の各領域(たとえば画素単位)を、水平方向
にシフトさせ、合成する立体映像合成手段である。
【0114】112は、視差量算出手段111で算出し
た統合視差量および遅延量算出手段110から出力され
たMTD法の視差量に基づいて、遅延量を制御するため
の視差量監視手段である。
【0115】この実施の形態では、CID法で得た奥行
き推定値をベースに立体空間の再現を行う。すなわち、
CID法にMTD法によるオクルージョンを付加した立
体映像の提示を行う。具体的な方法としては、CID法
で算出した各領域の位相(視差量)からMTD法の位相
(視差量:フィールド遅延によって結果として生成され
る位相)を減算することによって、MTD法とCID法
を併用した後でも各領域の位相はCID法による位相と
等しくなるようにする。このため、下記の優先順位によ
りMTD法とCID法によって生成される位相量を制御
する。
【0116】優先順位1 ユーザが設定する位相量の最
大レンジUrange[pixel] 優先順位2 変換画像における位相シフトに伴う画像歪
みの制限h _supp_lev[pixel] 優先順位3 CID法によって推定される奥行き形状
(奥行き推定値の形状) 優先順位4 Urangeを越えないMTD法によって生成さ
れる位相量dly _sisa[pixel] 優先順位5 CID法によって生成される位相量 [pixe
l]
【0117】以下、この優先順位の意味づけについて説
明する。
【0118】最も優先順位が高い優先順位1は、統合位
相がユーザが設定する位相量の最大レンジUrangeを越え
ないことを保証する。
【0119】優先順位2は、統合位相制御(特にCID
法)によって生成される画像の歪みが、ある限界値内(h
_supp_lev 以内) であることを保証する。
【0120】優先順位3は、CID法によって算出され
る各領域に対する奥行き推定値(奥行きの形状)がMT
D法とCID法を併用した後も保全されることを意味す
る。
【0121】優先順位4は、MTD法によって生成され
る視差量がUrangeを越えないことを保証する。
【0122】最も優先順位が低い優先順位5は、CID
法によって生成される位相は、MTD法と併用すること
によってCID法単独で生成した位相と異なる値になる
ことを意味する。
【0123】図4は、CID法の奥行き形状を保った統
合位相制御処理手順を示している。また、図5は、実施
時の位相の振る舞いを示している。
【0124】まず、画像特徴抽出手段106によって画
像特徴量を抽出する(ステップ21)。奥行き推定値算
出手段109は、画像特徴抽出手段106によって抽出
された画像特徴量に基づいて、CID法の奥行き推定を
行なう(ステップ22)。すなわち、算出周波数、コン
トラスト、構図重み、被写体背景判別結果重みを適当な
割合で加算し、奥行き推定値を求める。
【0125】なお、統合位相制御では、CID法は動画
に対しても使用するため、この加算比率は映像内の動き
の速さに応じ可変とする。具体的には、速い動きによる
高周波成分の値が下がる傾向を補償するため、動きが速
くなる程、高周波成分を加算する割合を減らしている。
【0126】そして、このようにして求めた奥行き推定
値をUfrontとUrear 内に距離スケール変換(完全距離ス
ケール変換または折れ線距離スケール変換)し、CID
法による各領域の位相量を求める(ステップ23)。こ
のCID法の位相からMTD法の位相(=フィールド遅
延量×その領域の水平方向動きベクトル値) を引いた差
分位相を求め(ステップ24)、この差分位相に対して
隣接する領域の位相量の差がh _supp_lev[pixel]以下
となるよう歪み抑圧処理を施す(ステップ25)。
【0127】なお、図5の差分位相(=CID位相−M
TD位相)においてMTD位相の右端とCID位相の左
端がオーバラップしているのは、領域毎に両手法の位相
が異なるためである。これは、図6に示すCID法の各
領域の位相ph_cidjからMTD法の各領域の位相ph_mt
djを引いた各領域の差分位相ph_diffj (= ph_cidj−
ph_mtdj)の振る舞いから明らかである。jは領域番号
を表す。
【0128】図6では、上側の3行4列の値は各領域の
位相量[pixel] を表し、下側の図で各領域の位相量を一
列に並べて視覚的に分かりやすくしている。
【0129】また、図5の歪み抑圧処理後の位相は、差
分位相に対して歪み抑圧処理を行うことを示している。
上記の歪み抑圧処理後のMTD法とCID法を統合した
位相(統合位相)の最大飛び出し位相量ufront[pixel]
と最大奥まり位相量urear[pixel]とは、図7に示すルー
プ処理によって求められる。
【0130】図7は、図4のステップ23、24、25
の処理の詳細を示している。これらの処理は、視差量算
出手段111によって行なわれる。
【0131】まず、変数Ufront' とUrear'に、ユーザが
設定したUfrontとUrear を設定した後(ステップ3
1)、Ufront' とUrear'とによって規定されるダイナミ
ックレンジで距離スケール変換を施し、CID位相量を
得る(ステップ32)。次に、CID位相からMTD位
相を引いた仮の差分位相を求める(ステップ33)。こ
の仮の差分位相量から求めた隣接領域間の位相差の最大
値h _dv_max [pixel] 、(各隣接領域間での差分位相
量の差のうちの最大値)を求める(ステップ34)。そ
して、ステップ35に進む。
【0132】後述するように、隣接領域間の位相差の最
大値h _dv_max [pixel] が歪み許容範囲h _supp_le
v [pixel] 内でない場合には、当該隣接領域間の位相差
が歪み許容範囲内になるように、ダイナミックレンジが
小さくした後、再び上記ステップ32、33、34の処
理が行なわれる。
【0133】ステップ35では、このようなループ処理
が行なわれた場合に前回のステップ34で算出された位
相差の最大値h _dv_max [pixel] が、今回のステップ
34で算出された位相差の最大値h _dv_max [pixel]
より小さいか否かを判別する。
【0134】上記ループ処理が行なわれてない時点で
は、ステップ35でNOとなり、今回のステップ34で
算出された位相差の最大値h _dv_max [pixel] が、歪
み許容範囲h _supp_lev [pixel] 内であるか否かを判
定する(ステップ36)。範囲内であるなら、仮の差分
位相を真の目標位相とする(ステップ42)。
【0135】逆に、範囲外であるなら、CPU負荷を軽
減するために、ループ回数が制限ループ回数内であるか
否かを判定する(ステップ37)。ループ回数が制限ル
ープ回数より大きい場合は、仮の差分位相に対する後述
する強制歪み抑圧処理により真の目標位相を求める(ス
テップ43)。
【0136】また、ループ回数が制限ループ回数より少
ない場合は、仮の差分位相を退避した後(ステップ3
8)、隣接領域間の位相差がh _supp_lev 以下になる
まで、Ufront' とUrear'によって規定されるダイナミッ
クレンジを段階的に小さくすることによって最適なufro
nt、urear 値を得る(ステップ39)。この処理を、以
下、逐次探索処理ということにする。逐次探索処理の詳
細については後述する。
【0137】逐次探索処理で求めたufrontとurear との
距離比がユーザ指定の距離比になるよう変更する(ステ
ップ40)。そして、得られたufrontおよびurear を、
Ufront' およびUrear'に設定することにより、ダイナミ
ックレンジを変更した後(ステップ41)、ステップ3
2に戻って、再度、距離スケール変換を行う。
【0138】ステップ32〜ステップ41の一連の処理
を隣接領域間の位相差の最大値h _dv_max[pixel]が歪
み許容範囲h _supp_lev [pixel] 内になるか、途中で
中断されるまで繰り返し、最終的な目標位相量を得る。
【0139】図7における2種類のループの中断につい
て順に説明する。
【0140】まず、第1の中断は、ステップ37におい
て、CPU負荷を軽減するためにループ回数が制限ルー
プ回数に達したときに発生する。この条件によって中断
した場合は、仮の差分位相に対し、次式18に示すよう
な、上記式6と同意義の画素スケール的な歪み抑圧処理
を行いufront,urear値を決定し、このレンジ内に奥行き
推定値をレンジ変換する。
【0141】
【数18】
【0142】ここで、df_ufront、df_urear はそれぞ
れ仮の差分位相の最大値と最小値を表し、差分位相に対
する隣接領域間の最大位相差を算出する段階で取得する
ものとする。そして、このようにして新たに求められた
レンジ内に差分位相が収まるようにする。なお、上記式
18のufrontとurear に対し、次式19で表される距離
比維持の処理を行っても何等問題はない。
【0143】
【数19】
【0144】第2の中断は、ステップ35において、ス
テップ32〜ステップ41のループ処理が行なわれた場
合に前回のステップ34で算出された位相差の最大値h
_dv_max [pixel] が、今回のステップ34で算出され
た位相差の最大値h _dv_max [pixel] より小さい場合
に発生する。
【0145】この中断が起こるのは、現ループでの隣接
領域間の位相差の最大値h _dv_max が、ダイナミック
レンジを十分小さくしたにも関わらず、1つ前のループ
で得た際の値より小さくならない場合である。これは、
歪み抑圧処理によりMTD法によって生成される位相が
変更されないことにより起こる。すなわち、図8に示す
ように、MTD法によって生成される被写体と背景の位
相の差が大きい場合は、ループ数を増やしてもMTD位
相の位相差が邪魔をしダイナミックレンジが小さくなら
ず、結果として差分位相が、h _supp_lev 以下にはな
らない。
【0146】このような場合は、処理を中断し、ステッ
プ43と同様な処理によって、ダイナミックレンジ変更
を行う(ステップ44)。ただし、この場合には、ステ
ップ38で退避された仮の退避差分位相に対しダイナミ
ックレンジ変更を行う。ここで仮の退避差分位相に対し
てダイナミックレンジを変更しているのは、歪み抑圧の
ループを重ねるごとにMTD法の位相が差分位相の形状
に影響を及ぼしかつ差分位相のダイナミックレンジが減
少する傾向を緩和するためである。
【0147】しかし、このような手法はあくまで対症療
法であり、根本的にMTD法の位相によって引き起こさ
れる強制歪み抑圧処理の発生頻度を下げるまでには至ら
ない。
【0148】このような現象の発生頻度を下げるために
は、MTD位相自体の隣接領域間の位相差を小さくする
必要がある。このため、統合位相制御では、各領域のM
TD位相ph_mtdjとして、本来その領域が持つ視差量
(=フィールド遅延量×その領域の水平方向動きベクト
ル値) を隣接領域間と平滑化した後の値を用いている。
【0149】また、強制歪み抑圧処理の発生頻度を下げ
るためには、MTD法とCID法の位相の形状を似せる
必要がある。このため、統合位相では図4に示すよう
に、MTD位相が大きくなる領域ではCID位相も大き
くなるように被写体背景判別の結果を考慮して奥行き推
定を行っている。
【0150】図7のステップ39のダイナミックレンジ
の逐次探索処理について説明する。
【0151】差分位相の隣接領域間の位相差が最大と
なる領域を決定する。
【0152】探索の方向を決定する。具体的には、
で決定した位相差が互いに最大となる2領域のCID位
相の値に応じて探索の方向を決定する。
【0153】ufront値ないしurear 値を管面の値に近
づける。
【0154】上記2領域に対して、更新後のufront値
およびurear 値で規定されるダイナミックレンジを用い
た距離スケール変換を行なって、上記2領域のCID位
相を算出する。
【0155】2領域の差分位相(=CID位相−MTD
位相) を算出する。
【0156】両領域間の差分位相の位相差h _dv_ma
x を算出する。
【0157】で求めた位相差h _dv_max を下記の
順で判定する。 1). h_dv_max がh _supp_lev 以下の場合は、処理
を終了する。 2). h_dv_max が1つ前のループのh _dv_max より
大きくなる場合は、求める値を1つ前のループで使用し
たufront値ないしurear 値として、処理を終了する。 3). h_dv_max がh _supp_lev より大きい場合は、
に飛ぶ。
【0158】次に、視差量監視手段112によって行な
われる、MTD法によって生成される視差(位相)の制
御方法について説明する。
【0159】CID法の立体再現性を保った統合位相制
御では、MTD法では被写***置制御を用いていない。
このため、MTD法によって生成される位相はユーザが
予め定めた最大飛び出し位相量Ufront[pixel] と最大奥
まり位相量Urear[pixel]を越えることがある。このよう
な現象が起きる場合の位相の振る舞いを図9に示す。図
中の右端のOKマークは、MTD位相と差分位相との和
である統合位相が、ユーザによって予め定められたダイ
ナミックレンジUrange内であることを表し、NGマーク
は統合位相がダイナミックレンジUrangeを越えることを
表す。
【0160】NGのケースでは、以下に示す問題が発生
する。
【0161】Urear が眼間と同程度である場合、距離ス
ケールでは眼間以上の奥行きが規定できない。また、N
Gの現象が歪み抑圧処理後も維持する場合は、統合位相
はその大前提であるUrange内の立体再現の原則が守られ
ない。
【0162】このような問題を解決するため、MTD法
によって生成する立体感を決定する視差量Mdly_sisaを
予め小さく設定し、NGの現象が起こらないようにする
ことも可能であるが、この方法はMTD法による立体感
を損なうため好ましいとは言い難い。そこで、Mdly_si
saを大きく取る代償としてNGの現象の発生をある程度
認め、Ufront、Urear を越える位相が発生した場合にの
み目標遅延量dly _targetを小さくするという制御が必
要となる(図10参照)。
【0163】なお、この方法でUrange内に位相を抑える
ためには、最初からユーザ設定値のUfront、Urear の代
わりに、MTD併用時に発生するUrangeのオーバー分を
見込んで、各々の値より絶対値が小さくなるような値を
内部的なUfrontとUrear として処理する必要がある。ま
た、視差量変換テーブルを用いて距離スケール変換を行
う手法では、変換テーブル外となる位相量に対しては変
換テーブルに収まるよう丸める必要がある。
【0164】図11は、図10の処理を実現する制御処
理手順(視差量監視手段112によって行なわれる制御
処理手順)を示している。
【0165】図11では、各領域の統合位相(実位相と
実遅延量による位相との和)がUfront、Urear を越える
場合に目標遅延量を小さくする。
【0166】このため、毎フィールド被写体領域及び背
景領域それぞれのMTD法による位相量を算出する必要
がある(ステップ51)。現フィールドの位相量の算出
には、精度を高めるため実位相phase[pixel]及び実遅延
量delay [field] を用いて行う。
【0167】実際の制御では、まず、MTD法のフィー
ルド遅延によって生じる被写体領域の実視差obj _sis
a'[pixe] 及び背景領域の実視差bg_sisa'[pixel]、い
ずれの領域に属するか不明のNG領域の実視差ng_sis
a'[piexel] を、次式20で求める。
【0168】
【数20】
【0169】次式21に示すように、これらと各領域の
真の目標位相量を時間的に平滑化した実位相量rph _di
ffj[pixel]を加算することによって、各領域の実統合位
相量u _phasej [pixel]を求める(ステップ52)。
【0170】
【数21】
【0171】そして、この実統合位相量u _phase がユ
ーザの設定したUfrontからUrear の範囲に入るか否かを
計るため、範囲外の場合はその領域の位相がユーザ設定
からどのくらい離れているかを表す位相量over_phase
[pixel]を次式22により求める(ステップ53)。
【0172】
【数22】
【0173】次に1画面を構成する各領域のover_phas
e の最大値over_maxp[pixel] を求め、over_maxpが0
でない場合は、目標遅延量を小さくする目標遅延量抑圧
処理を行う(ステップ54)。
【0174】目標遅延量抑圧処理では、まずフィールド
遅延によって発生する現フィールドの実視差量dly _si
sa'[pixel]の絶対値から上記式22で求めたover_maxp
を引き、MTD法が生成可能な視差量dly _sisa" を次
式23により求める。
【0175】
【数23】
【0176】そして、このdly _sisa" を基に抑圧した
目標遅延量dly _tartget'を次式24により求める。
【0177】
【数24】
【0178】実遅延量の推移速度が実遅延量と目標遅延
量との差に応じて変化する手法に備え、dly _target'
と抑圧前の目標遅延量dly _targetの大きさを比較し、
より小さい方を最終的な抑圧後の目標遅延量dly _targ
et" とする。つまり、最終的な抑圧後の目標遅延量dly
_target" は、次式25で表される。
【0179】
【数25】
【0180】ここでは、実遅延量と実視差によりMTD
法の位相の抑圧を行ったが、精度よりCPUへの負荷を
優先させる場合は、目標位相、目標遅延量により行うこ
とも可能である。
【0181】
【発明の効果】本発明によれば、動きのない映像や動き
の複雑な映像に対して、人によく立体感を知覚させるこ
とができるようになる。
【図面の簡単な説明】
【図1】第1の実施の形態である2D/3D変換装置の
概略構成を示す図である。
【図2】図1の2D/3D変換装置の動作を示すフロー
チャートである。
【図3】第2の実施の形態である2D/3D変換装置の
概略構成を示す図である。
【図4】統合位相制御の全体的な制御処理手順を示すフ
ローチャートである。
【図5】統合位相制御の全体的な振る舞いを示す模式図
である。
【図6】統合位相制御時の各領域の振る舞いを示す模式
図である。
【図7】図4のステップ23、24、25の詳細な処理
手順を示すフローチャートである。
【図8】統合位相制御において行なわれる歪み抑圧例を
示す模式図である。
【図9】MTD法による位相の調整が必要な場合と必要
でない場合とを示す模式図である。
【図10】MTD法の位相抑圧処理を説明するための模
式図である。
【図11】遅延量抑圧処理手順を示すフローチャートで
ある。
【図12】従来のMTD法を説明するための模式図であ
る。
【図13】従来のCID法を説明するための模式図であ
る。
【図14】被写***置制御を説明するための模式図であ
る。
【図15】従来のCID法の制御処理手順を示すフロー
チャートである。
【図16】従来のCID法におけるダイナミックレンジ
の抑圧処理を説明するための模式図である。
【図17】視差量Wとその融像位置Ypとの関係を示すグ
ラフである。
【図18】完全距離スケール変換を説明するためのグラ
フである。
【図19】折れ線距離スケール変換を説明するためのグ
ラフである。
【符号の説明】
1、101 映像供給源 2、102 2D/3D変換装置 3、103 立体表示手段 4、104 フィールドメモリ 5、105 動きベクトル検出手段 9 動き量算出手段 11、108 切換手段 18、111 視差量算出手段 19 水平位置設定手段 106 画像特徴抽出手段 109 奥行き推定値算出手段 110 遅延量算出手段 112 視差量監視手段 113 立体映像合成手段
───────────────────────────────────────────────────── フロントページの続き (72)発明者 飯沼 俊哉 大阪府守口市京阪本通2丁目5番5号 三 洋電機株式会社内 (72)発明者 中島 三生 大阪府大東市三洋町1番1号 三洋電子部 品株式会社内 (72)発明者 森 孝幸 大阪府大東市三洋町1番1号 三洋電子部 品株式会社内 Fターム(参考) 5B057 AA20 CA01 CA12 CB13 CD14 DA11 DB02 DB06 DC16 5C021 PA53 PA54 PA58 PA77 PA79 RA01 RA02 RA06 RA15 ZA00 5C023 AA10 AA34 AA37 AA38 BA01 BA02 BA04 BA11 CA02 DA04 5C061 AA21 AA25 AB08 AB18 5L096 AA02 BA20 GA08 HA04

Claims (6)

    【特許請求の範囲】
  1. 【請求項1】 映像信号源から入力された2次元映像信
    号をフィールド毎に記憶するフィールドメモリ、 入力映像信号のフィールド間の動きに応じた動きベクト
    ルを、入力映像の各領域毎に検出する動きベクトル検出
    手段、 フィールドメモリに格納された映像信号のうちから、入
    力映像信号に対して、動きベクトル検出手段によって検
    出された各領域の動きベクトルから求められた遅延量だ
    け遅延した映像信号をフィールドメモリから読み出す読
    み出し手段、 動きベクトル検出手段で検出された各領域の動きベクト
    ルの水平成分の方向に基づいて、入力映像信号とフィー
    ルドメモリから読み出された映像信号とのうち、一方の
    映像信号を左目映像信号として、他方の映像信号を右目
    映像信号として出力する切替手段、 入力映像信号から映像特徴量を、入力映像の各領域毎に
    抽出する特徴量抽出手段、 特徴量抽出手段で抽出された各領域毎の画像特徴量に基
    づいて、入力映像の各領域毎に奥行き量を算出し、算出
    した各領域毎の奥行き量から各領域毎の視差量を算出す
    る視差量算出手段、 視差量算出手段で算出された各領域毎の視差量を動きベ
    クトル検出手段で検出された各領域毎の動きベクトルの
    大きさに応じて修正する視差量修正手段、ならびに視差
    量修正手段で修正された各領域の視差量に基づいて、切
    替手段で出力された右目用映像及び左目用映像の各領域
    の位相を修正して、立体映像信号として出力する位相制
    御手段、 を備えていることを特徴とする2次元映像を3次元映像
    に変換する装置。
  2. 【請求項2】 視差量修正手段は、 視差量算出手段によって算出された各領域毎の視差量か
    ら、対応する領域の動きベクトルの大きさに応じた視差
    量を減算した差分視差量を各領域毎に算出する手段、お
    よび隣接領域間の差分視差量の差の最大値が所定範囲内
    となるように、ダイナミックレンジを変更して各領域毎
    の差分視差量を算出する手段、 を備えていることを特徴とする請求項1に記載の2次元
    映像を3次元映像に変換する装置。
  3. 【請求項3】 視差量修正手段によって得られた各領域
    毎の差分視差量と対応する領域の動きベクトルの大きさ
    に応じた視差量との和が所定範囲を越える場合には、そ
    の余剰視差量に応じた量だけ、遅延量を減少させる手段
    を備えていることを特徴とする請求項2に記載の2次元
    映像を3次元映像に変換する装置。
  4. 【請求項4】 映像信号源から入力された2次元映像信
    号をフィールド毎にフィールドメモリに記憶させる第1
    ステップ、 入力映像信号のフィールド間の動きに応じた動きベクト
    ルを、入力映像の各領域毎に検出する第2ステップ、 フィールドメモリに格納された映像信号のうちから、入
    力映像信号に対して、第2ステップによって検出された
    各領域の動きベクトルから求められた遅延量だけ遅延し
    た映像信号をフィールドメモリから読み出す第3ステッ
    プ、 第2ステップで検出された各領域の動きベクトルの水平
    成分の方向に基づいて、入力映像信号とフィールドメモ
    リから読み出された映像信号とのうち、一方の映像信号
    を左目映像信号として、他方の映像信号を右目映像信号
    として出力する第4ステップ、 入力映像信号から映像特徴量を、入力映像の各領域毎に
    抽出する第5ステップ、 第5ステップで抽出された各領域毎の画像特徴量に基づ
    いて、入力映像の各領域毎に奥行き量を算出し、算出し
    た各領域毎の奥行き量から各領域毎の視差量を算出する
    第6ステップ、 第6ステツプで算出された各領域毎の視差量を第2ステ
    ップで検出された各領域毎の動きベクトルの大きさに応
    じて修正する第7ステップ、ならびに第7ステップで修
    正された各領域の視差量に基づいて、第4ステップで出
    力された右目用映像及び左目用映像の各領域の位相を修
    正して、立体映像信号として出力する第8ステップ、 を備えていることを特徴とする2次元映像を3次元映像
    に変換する方法。
  5. 【請求項5】 第7ステップは、 第6ステップによって算出された各領域毎の視差量か
    ら、対応する領域の動きベクトルの大きさに応じた視差
    量を減算した差分視差量を各領域毎に算出するステッ
    プ、および隣接領域間の差分視差量の差の最大値が所定
    範囲内となるように、ダイナミックレンジを変更して各
    領域毎の差分視差量を算出するステップ、 を備えていることを特徴とする請求項5に記載の2次元
    映像を3次元映像に変換する方法。
  6. 【請求項6】 第7ステップによって得られた各領域毎
    の差分視差量と対応する領域の動きベクトルの大きさに
    応じた視差量との和が所定範囲を越える場合には、その
    余剰視差量に応じた量だけ、遅延量を減少させるステッ
    プを備えていることを特徴とする請求項5に記載の2次
    元映像を3次元映像に変換する方法。
JP2000109211A 1999-11-26 2000-04-11 2次元映像を3次元映像に変換する装置及びその方法 Withdrawn JP2001320731A (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP2000109211A JP2001320731A (ja) 1999-11-26 2000-04-11 2次元映像を3次元映像に変換する装置及びその方法
EP00977933A EP1235438B1 (en) 1999-11-26 2000-11-24 Method for converting two-dimensional video to three-dimensional video
DE60014420T DE60014420T2 (de) 1999-11-26 2000-11-24 Verfahren zur 2d/3d videoumwandlung
PCT/JP2000/008315 WO2001039512A1 (en) 1999-11-26 2000-11-24 Device and method for converting two-dimensional video to three-dimensional video
AT00977933T ATE278298T1 (de) 1999-11-26 2000-11-24 Verfahren zur 2d/3d videoumwandlung
TW089125162A TW521519B (en) 1999-11-26 2000-11-24 Apparatus and method for converting a two dimensional image to a three dimensional image
US10/130,427 US7161614B1 (en) 1999-11-26 2000-11-24 Device and method for converting two-dimensional video to three-dimensional video

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP33682499 1999-11-26
JP2000-58047 2000-03-02
JP11-336824 2000-03-02
JP2000058047 2000-03-02
JP2000109211A JP2001320731A (ja) 1999-11-26 2000-04-11 2次元映像を3次元映像に変換する装置及びその方法

Publications (1)

Publication Number Publication Date
JP2001320731A true JP2001320731A (ja) 2001-11-16

Family

ID=27340801

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000109211A Withdrawn JP2001320731A (ja) 1999-11-26 2000-04-11 2次元映像を3次元映像に変換する装置及びその方法

Country Status (1)

Country Link
JP (1) JP2001320731A (ja)

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003241137A (ja) * 2002-02-18 2003-08-27 Fuji Photo Film Co Ltd 表示装置
JP2004521405A (ja) * 2000-08-04 2004-07-15 パルセント コーポレイション 画像における相対zオーダリングを決定する方法、および相対zオーダリングの使用方法
WO2004071102A1 (ja) 2003-01-20 2004-08-19 Sanyo Electric Co,. Ltd. 立体視用映像提供方法及び立体映像表示装置
WO2006028125A1 (ja) * 2004-09-10 2006-03-16 Kazunari Era 立体視画像生成装置
JP2010063083A (ja) * 2008-08-06 2010-03-18 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
JP2010515303A (ja) * 2006-12-22 2010-05-06 クゥアルコム・インコーポレイテッド 複雑適応2D−to−3Dビデオシーケンス変換
JP2011124935A (ja) * 2009-12-14 2011-06-23 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
CN102209248A (zh) * 2010-03-31 2011-10-05 株式会社东芝 视差图像生成装置和方法
KR20110113923A (ko) * 2010-04-12 2011-10-19 삼성전자주식회사 영상 변환 장치 및 이를 포함하는 입체 영상 표시 장치
KR20110113924A (ko) * 2010-04-12 2011-10-19 삼성전자주식회사 영상 변환 장치 및 이를 포함하는 입체 영상 표시 장치
JP2011217294A (ja) * 2010-04-02 2011-10-27 Sharp Corp ノイズ低減処理装置
JP2011216076A (ja) * 2011-02-07 2011-10-27 Toshiba Corp 画像処理装置、画像処理方法および画像表示装置
JP2011223284A (ja) * 2010-04-09 2011-11-04 Victor Co Of Japan Ltd 擬似立体画像生成装置及びカメラ
JP2012034339A (ja) * 2010-07-08 2012-02-16 Toshiba Corp 立体画像生成装置及び方法
JP2012034214A (ja) * 2010-07-30 2012-02-16 Casio Comput Co Ltd 画像処理装置、画像処理方法、投影装置及びプログラム
JP2012039484A (ja) * 2010-08-10 2012-02-23 Nikon Corp 表示装置、表示方法およびプログラム
JP2012080348A (ja) * 2010-10-01 2012-04-19 Toshiba Corp 多視差画像受信装置
JP2012099956A (ja) * 2010-10-29 2012-05-24 Toshiba Corp 映像再生装置及び映像再生方法
JP2012138787A (ja) * 2010-12-27 2012-07-19 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
JP2012205169A (ja) * 2011-03-28 2012-10-22 Sony Corp 画像処理装置および画像処理方法
JP2012227724A (ja) * 2011-04-19 2012-11-15 Toshiba Corp 再生装置、再生方法、およびプログラム
WO2012169217A1 (ja) * 2011-06-10 2012-12-13 シャープ株式会社 映像生成装置、映像表示装置、テレビ受像装置、映像生成方法及びコンピュータプログラム
JP2013509104A (ja) * 2009-10-23 2013-03-07 クゥアルコム・インコーポレイテッド 2dビデオデータの3dビデオデータへの変換のための深度マップ生成技法
WO2013080697A1 (ja) * 2011-11-29 2013-06-06 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
JP2014506768A (ja) * 2011-02-23 2014-03-17 コーニンクレッカ フィリップス エヌ ヴェ 三次元シーンの深さデータの処理
CN103686118A (zh) * 2012-09-19 2014-03-26 珠海扬智电子科技有限公司 影像深度调整方法与装置
CN104025585A (zh) * 2011-11-01 2014-09-03 皇家飞利浦有限公司 基于突出性的视差映射
JP2016500975A (ja) * 2012-11-01 2016-01-14 グーグル インコーポレイテッド 結合された深度キューに基づく平面視画像からの深度マップの生成
JP2018160853A (ja) * 2017-03-23 2018-10-11 直人 横内 動画変換システム、動画変換方法及び動画変換プログラム

Cited By (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004521405A (ja) * 2000-08-04 2004-07-15 パルセント コーポレイション 画像における相対zオーダリングを決定する方法、および相対zオーダリングの使用方法
JP4698926B2 (ja) * 2000-08-04 2011-06-08 アルテラ コーポレイション 画像における相対zオーダリングを決定する方法、および相対zオーダリングの使用方法
JP2003241137A (ja) * 2002-02-18 2003-08-27 Fuji Photo Film Co Ltd 表示装置
WO2004071102A1 (ja) 2003-01-20 2004-08-19 Sanyo Electric Co,. Ltd. 立体視用映像提供方法及び立体映像表示装置
US7403201B2 (en) 2003-01-20 2008-07-22 Sanyo Electric Co., Ltd. Three-dimensional video providing method and three-dimensional video display device
JP4523368B2 (ja) * 2004-09-10 2010-08-11 株式会社マーキュリーシステム 立体視画像生成装置およびプログラム
JP2006080982A (ja) * 2004-09-10 2006-03-23 Kazunari Era 立体視画像生成装置およびプログラム
AU2005280997B2 (en) * 2004-09-10 2009-11-12 Mercury Systems Co., Ltd 3D image reproduction device
WO2006028125A1 (ja) * 2004-09-10 2006-03-16 Kazunari Era 立体視画像生成装置
US7945088B2 (en) 2004-09-10 2011-05-17 Kazunari Era Stereoscopic image generation apparatus
JP2010515303A (ja) * 2006-12-22 2010-05-06 クゥアルコム・インコーポレイテッド 複雑適応2D−to−3Dビデオシーケンス変換
US8330801B2 (en) 2006-12-22 2012-12-11 Qualcomm Incorporated Complexity-adaptive 2D-to-3D video sequence conversion
JP2010063083A (ja) * 2008-08-06 2010-03-18 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
US8860784B2 (en) 2008-08-06 2014-10-14 Sony Corporation Image processing apparatus, image processing method, and program
JP2013509104A (ja) * 2009-10-23 2013-03-07 クゥアルコム・インコーポレイテッド 2dビデオデータの3dビデオデータへの変換のための深度マップ生成技法
JP2011124935A (ja) * 2009-12-14 2011-06-23 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
US8866884B2 (en) 2009-12-14 2014-10-21 Sony Corporation Image processing apparatus, image processing method and program
US20110242280A1 (en) * 2010-03-31 2011-10-06 Nao Mishima Parallax image generating apparatus and method
JP2011215949A (ja) * 2010-03-31 2011-10-27 Toshiba Corp 視差画像生成装置、及びその方法
CN102209248A (zh) * 2010-03-31 2011-10-05 株式会社东芝 视差图像生成装置和方法
US8665319B2 (en) * 2010-03-31 2014-03-04 Kabushiki Kaisha Toshiba Parallax image generating apparatus and method
CN102209248B (zh) * 2010-03-31 2014-12-10 株式会社东芝 视差图像生成装置和方法
JP2011217294A (ja) * 2010-04-02 2011-10-27 Sharp Corp ノイズ低減処理装置
JP2011223284A (ja) * 2010-04-09 2011-11-04 Victor Co Of Japan Ltd 擬似立体画像生成装置及びカメラ
JP2011223566A (ja) * 2010-04-12 2011-11-04 Samsung Electronics Co Ltd 画像変換装置及びこれを含む立体画像表示装置
KR101674568B1 (ko) * 2010-04-12 2016-11-10 삼성디스플레이 주식회사 영상 변환 장치 및 이를 포함하는 입체 영상 표시 장치
KR20110113924A (ko) * 2010-04-12 2011-10-19 삼성전자주식회사 영상 변환 장치 및 이를 포함하는 입체 영상 표시 장치
KR20110113923A (ko) * 2010-04-12 2011-10-19 삼성전자주식회사 영상 변환 장치 및 이를 포함하는 입체 영상 표시 장치
KR101690297B1 (ko) * 2010-04-12 2016-12-28 삼성디스플레이 주식회사 영상 변환 장치 및 이를 포함하는 입체 영상 표시 장치
JP2012034339A (ja) * 2010-07-08 2012-02-16 Toshiba Corp 立体画像生成装置及び方法
JP2012034214A (ja) * 2010-07-30 2012-02-16 Casio Comput Co Ltd 画像処理装置、画像処理方法、投影装置及びプログラム
JP2012039484A (ja) * 2010-08-10 2012-02-23 Nikon Corp 表示装置、表示方法およびプログラム
JP2012080348A (ja) * 2010-10-01 2012-04-19 Toshiba Corp 多視差画像受信装置
JP2012099956A (ja) * 2010-10-29 2012-05-24 Toshiba Corp 映像再生装置及び映像再生方法
JP2012138787A (ja) * 2010-12-27 2012-07-19 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
JP2011216076A (ja) * 2011-02-07 2011-10-27 Toshiba Corp 画像処理装置、画像処理方法および画像表示装置
JP2014506768A (ja) * 2011-02-23 2014-03-17 コーニンクレッカ フィリップス エヌ ヴェ 三次元シーンの深さデータの処理
US9338424B2 (en) 2011-02-23 2016-05-10 Koninklijlke Philips N.V. Processing depth data of a three-dimensional scene
JP2012205169A (ja) * 2011-03-28 2012-10-22 Sony Corp 画像処理装置および画像処理方法
US9779539B2 (en) 2011-03-28 2017-10-03 Sony Corporation Image processing apparatus and image processing method
JP2012227724A (ja) * 2011-04-19 2012-11-15 Toshiba Corp 再生装置、再生方法、およびプログラム
WO2012169217A1 (ja) * 2011-06-10 2012-12-13 シャープ株式会社 映像生成装置、映像表示装置、テレビ受像装置、映像生成方法及びコンピュータプログラム
JP2013004989A (ja) * 2011-06-10 2013-01-07 Sharp Corp 映像生成装置、映像表示装置、テレビ受像装置、映像生成方法及びコンピュータプログラム
CN104025585A (zh) * 2011-11-01 2014-09-03 皇家飞利浦有限公司 基于突出性的视差映射
JP2015503258A (ja) * 2011-11-01 2015-01-29 コーニンクレッカ フィリップス エヌ ヴェ 突出ベース視差マッピング
CN104025585B (zh) * 2011-11-01 2016-06-01 皇家飞利浦有限公司 基于突出性的视差映射
TWI574544B (zh) * 2011-11-01 2017-03-11 皇家飛利浦電子股份有限公司 基於顯著性之像差映射
WO2013080697A1 (ja) * 2011-11-29 2013-06-06 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
CN103686118A (zh) * 2012-09-19 2014-03-26 珠海扬智电子科技有限公司 影像深度调整方法与装置
JP2016500975A (ja) * 2012-11-01 2016-01-14 グーグル インコーポレイテッド 結合された深度キューに基づく平面視画像からの深度マップの生成
JP2018160853A (ja) * 2017-03-23 2018-10-11 直人 横内 動画変換システム、動画変換方法及び動画変換プログラム

Similar Documents

Publication Publication Date Title
JP2001320731A (ja) 2次元映像を3次元映像に変換する装置及びその方法
EP1235438B1 (en) Method for converting two-dimensional video to three-dimensional video
US6466255B1 (en) Stereoscopic video display method and apparatus, stereoscopic video system, and stereoscopic video forming method
KR101856805B1 (ko) 화상 처리 장치 및 화상 처리 방법, 및 프로그램
US8803947B2 (en) Apparatus and method for generating extrapolated view
KR20000067890A (ko) 2차원 영상을 3차원 영상으로 변환하는 장치 및 방법
US8610707B2 (en) Three-dimensional imaging system and method
US20120320045A1 (en) Image Processing Method and Apparatus Thereof
US20130293533A1 (en) Image processing apparatus and image processing method
JP4214529B2 (ja) 奥行き信号生成装置、奥行き信号生成プログラム、擬似立体画像生成装置、及び擬似立体画像生成プログラム
US8976171B2 (en) Depth estimation data generating apparatus, depth estimation data generating method, and depth estimation data generating program, and pseudo three-dimensional image generating apparatus, pseudo three-dimensional image generating method, and pseudo three-dimensional image generating program
JP5692051B2 (ja) 奥行き推定データの生成装置、生成方法及び生成プログラム、並びに疑似立体画像の生成装置、生成方法及び生成プログラム
US7027664B2 (en) Method for removing noise regions in stereo 3D display system
JP5127973B1 (ja) 映像処理装置、映像処理方法および映像表示装置
WO2012098974A1 (ja) 画像処理装置および方法、画像表示装置および方法
JP2004320189A (ja) 2次元画像の3次元化方法
KR101329069B1 (ko) 깊이 추정 데이터 생성 장치, 깊이 추정 데이터 생성 프로그램이 기록된 컴퓨터 판독 가능한 기록 매체 및, 의사 입체 화상 표시 장치
JP4036599B2 (ja) 2次元映像を3次元映像に変換する方法
JP2018191191A (ja) 立体映像生成装置
JP2000092516A (ja) 2次元映像を3次元映像に変換する装置および方法
US8941647B2 (en) Depth estimation data generating apparatus, depth estimation data generating method, and depth estimation data generating program, and pseudo three-dimensional image generating apparatus, pseudo three-dimensional image generating method, and pseudo three-dimensional image generating program
EP3871408B1 (en) Image generating apparatus and method therefor
JPH1198530A (ja) 2次元映像を3次元映像に変換する装置
JPH11110180A (ja) 二次元画像を三次元画像に変換する方法及び装置
JP2012142852A (ja) 擬似立体画像生成装置、擬似立体画像生成プログラム及び擬似立体画像表示装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041206

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20070727