JP3477023B2 - 多視点画像伝送方法および多視点画像表示方法 - Google Patents

多視点画像伝送方法および多視点画像表示方法

Info

Publication number
JP3477023B2
JP3477023B2 JP08359997A JP8359997A JP3477023B2 JP 3477023 B2 JP3477023 B2 JP 3477023B2 JP 08359997 A JP08359997 A JP 08359997A JP 8359997 A JP8359997 A JP 8359997A JP 3477023 B2 JP3477023 B2 JP 3477023B2
Authority
JP
Japan
Prior art keywords
parallax
image
point
images
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP08359997A
Other languages
English (en)
Other versions
JPH1032840A (ja
Inventor
健夫 吾妻
謙也 魚森
森村  淳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP08359997A priority Critical patent/JP3477023B2/ja
Publication of JPH1032840A publication Critical patent/JPH1032840A/ja
Application granted granted Critical
Publication of JP3477023B2 publication Critical patent/JP3477023B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、多視点画像の伝送
方法及び多視点画像の表示方法に関する。また、本発明
は、多視点画像の中間視点画像生成方法及び視差推定方
法及びその装置に関するものである。
【0002】
【従来の技術】従来、立体映像方式には様々なものが提
案されているが、特殊な眼鏡をかけることなく立体動画
像を複数人数で観察できる方式として、多視点画像によ
る多眼式立体映像方式が有望である。多眼式立体映像方
式においては、使用するカメラ台数及び表示装置台数が
多いほど、観察者に対して自然な運動視差を感じさせる
ことができ、また、多人数での観察が容易になる。しか
しながら、撮像系の規模やカメラの光軸の設定等の制約
により、実用的に用いることができるカメラ台数には限
度がある。また、伝送、蓄積過程においては、カメラ台
数に比例して増大する情報量を低減することが望まれ
る。
【0003】そこで、表示側において、2眼式ステレオ
画像から中間視点画像を生成することにより多眼式立体
画像を表示できれば、撮像系の負担を軽減し、伝送、蓄
積時の情報量を低減することができることになる。視点
の異なる複数の画像から、その異なる視点間の任意の視
点で見えるべき中間視点画像を生成するためには、画像
間で画素の対応を求めて奥行きを推定する必要がある。
【0004】また、動画像をデジタル伝送するための画
像圧縮方式として、MPEG−1、MPEG−2が提案
されている。さらに、MPEG−2を拡張して多視点画
像を伝送する試みも行われている(ISO/IEC13818-2/PDA
M3)。図28は、MPEG−2シンタックスの概略図で
ある。MPEG−2による伝送は、Sequence、GOP
(Group Of Picture)、Picture という階層構造を持つ
画像データの符号化、復号化によって行われる。ISO/IE
C13818-2/PDAM3によると、MPEG−2の拡張による多
視点画像の伝送は、(明記されていないためはっきりし
ないが)GOP層を拡張して実現されるようである。
【0005】図29は、伝送される多視点画像の時空間
方向の関係を示すものである。従来のMPEG−2で用
いられてきた動き補償に加えて、視差補償を用いること
によって符号化効率を高めようとしている。多視点画像
を伝送する際には、各カメラに関する情報(カメラの位
置、カメラの光軸の向き等のカメラパラメータ)を付加
して伝送する必要がある。ISO/IEC13818-2/PDAM3には、
カメラパラメータは図28のPic.Extension(Picture層
の拡張)に含めて伝送することが述べられているが、具
体的なカメラパラメータの記述については述べられてい
ない。
【0006】カメラパラメータの記述に関しては、CG
言語であるOpenGLにおいて、カメラの位置、カメ
ラの光軸の向き、カメラの位置と画像面との距離がカメ
ラパラメータとして定義されている(「オープン ジー
エル プログラミングガイド」(OpenGL Programming Gu
ide,The Official Guide to Learning OpenGL,Release
1,Addison-Wesley Publishing Company,1993))。
【0007】図30は、OpenGLによるカメラパラ
メータの定義を示す説明図である。図30において、A
はレンズ中心、Bは画像面(すなわち撮像面)の中心、
CはBから画像上端におろした垂線と画像上端の交点を
示す。A,B,Cの座標値はそれぞれ、(optical_cent
er_X,optical_center_Y,optical_center_Z),(image_p
lane_center_X,image_plane_center_Y,image_plane_cen
ter_Z),(image_plane_vertical_X,image_plane_verti
cal_Y,image_plane_vertical_Z)として定義されてい
る。
【0008】上記のOpenGLで定義されるカメラパ
ラメータの情報をPic.Extensionに付加して多視点画像
を伝送することが容易に考えられる。
【0009】
【発明が解決しようとする課題】しかしながら上記のよ
うな従来の方法では、画像内の最近点、最遠点(すなわ
ち被写体の最近点、最遠点)に関する情報がないため、
表示時に目の疲れにくい表示(例えば視差制御)を行お
うとする際に、どの奥行き範囲に対して行えばよいのか
わからないという課題を有していた。
【0010】また、多視点画像を表示する際には、撮影
時の視野角や撮像面のサイズ、レンズ中心と撮像面との
距離等の条件をもとに、観察距離を適切に決定する必要
がある(視差がつきすぎて違和感のある表示や、逆に立
体感の乏しい表示にならないようにするため)。しか
し、OpenGLでは、撮像面の大きさ(CCDの物理
的なサイズ)が定義されておらず、また、レンズ中心と
結像面との距離をレンズの焦点距離と常に等しいものと
して扱っている。そのため、撮像時の視野角の大きさが
表示側ではわからず、表示時の適切な視野角すなわち適
切な観察距離を決定できず、違和感のある立体表示とな
る可能性があるという課題を有していた。
【0011】本発明はかかる点に鑑み、画像内の最近
点、最遠点(即ち被写体の最近点、最遠点)に関する情
報と、撮像面の大きさに関する情報とを画像情報に付加
して伝送を行うことにより、表示側で違和感の少ない立
体表示を行うことが容易な多視点画像の伝送及び表示方
法を提供することを目的とする。
【0012】また、中間視点画像生成のための画像間の
対応づけにおける根本的な問題は、奥行きが不連続に変
化する物体輪郭線において、オクルージョンが生じるた
めに画像間の対応を精度よく求めるのは困難なことであ
る。しかし、この物体輪郭線近傍での視差の推定値は、
生成される中間視点画像における物体の輪郭位置を決定
するため、中間視点画像の合成時には非常に重要であ
る。すなわち、視差推定時に物体輪郭線近傍で視差の推
定誤差が生じると、前景領域の画素が背景側にはりつい
たり、逆に背景領域の画素が前景にはりつき、物体の輪
郭線が乱れたり、物体輪郭線近傍の背景領域に偽輪郭が
生じることになる。
【0013】本発明はかかる点に鑑み、物体輪郭線近傍
での視差の急激な変化(不連続な変化)を精度よく推定
する視差推定方法およびその装置を提供することを目的
とする。
【0014】
【課題を解決するための手段】本発明は、多視点画像の
ヘッダに、画像内の最近点、最遠点(すなわち被写体の
最近点、最遠点)に関する情報と、撮像面の大きさに関
する情報とを含む画像伝送方法により、画像内の最近
点、最遠点(すなわち被写体の最近点、最遠点)に関す
る情報と、撮像面の大きさに関する情報とを付加した多
視点画像の伝送を行い、表示側における画像サイズ、観
察距離を考慮した表示を可能とすることができる。
【0015】
【0016】
【発明の実施の形態】以下に、本発明をその実施の形態
を示す図面に基づいて説明する。 (第1の実施の形態)図4は、本発明の第1の実施の形
態における画像伝送方法で定義するパラメータを示す図
である。図4において、A1,A2はカメラのレンズ中心の
位置を示し、B1,B2は撮像面の中心を示す(説明を簡単
にするために、撮像面をレンズ中心に対して被写体側に
折り返して考えている)。
【0017】OpenGLでは図4のA1B1,A2B2の距離
をカメラのレンズの焦点距離として定義しているが、本
発明においては、カメラのレンズ中心と撮像面の距離を
該レンズの焦点距離とは独立に定義する。この定義によ
り、合焦時のレンズ中心と撮像面との距離を被写体の距
離に応じて計算でき、正確な視野角を計算できる。視野
角は、撮像面のサイズと、レンズ中心と撮像面との距離
から計算できる。
【0018】以下に図2を用いて、合焦時のレンズ中心
と撮像面との距離が、被写体とレンズ中心との距離によ
って変化することを説明する。図2は、被写体の位置、
合焦時の撮像面の位置と焦点距離の関係を示す図であ
る。図2において、Aは被写体の位置、BはAからの光
が結像する点、Oはレンズの中心、Fは平行光がレンズ
により結像する点、aは被写体とレンズ中心Oとの距
離、bはAからの光が結像する点Bとレンズ中心Oとの
距離、fはレンズの焦点距離を示す。a,b,fの間に
は(数1)の関係が成り立つことが知られている。
【0019】
【数1】
【0020】(数1)より、被写体が焦点距離を無視で
きるくらいレンズから遠い(a>>f)場合には、1/a
→ 0となりb = fと近似できる。しかし、被写体が
比較的レンズに近い場合には、1/aの項を無視でき
ず、b≠fとなる。従って、被写体が比較的レンズに近
い場合にも正しく視野角を計算するためには、レンズ中
心と結像面との距離を焦点距離とは独立に定義する必要
がある。そして、撮像面の幅をwin、高さをhinとする
と、撮像時の視野角は(数2)で表される。
【0021】
【数2】
【0022】よって、表示時の画像の幅をwout、高さ
をhoutとすると、撮像時の視野角を再現する観察距離
は、
【0023】
【数3】
【0024】となる。
【0025】次に、画像内の最近点、最遠点に基づく表
示側における見やすさの改善について説明する。図3
は、2つのプロジェクタを用いて輻輳投影をする場合の
輻輳距離、最近点、最遠点の位置関係を説明するための
図である。図3において、Cは輻輳点、Aは最近点、B
は最遠点を示す。
【0026】輻輳のある投射においては、観察者が輻輳
点Cを見る場合に視差が0となる(図3において、両眼
とも画像の中心を見ることになるので、左右の目が見る
画像内の相対的な位置の違いはなくなる)。そして、最
近点Aを見る場合にはいわゆる寄り目の状態となり、画
像上で寄り目の方向にDaの視差が生じる。図3におい
て観察者は、輻輳点Cを見るときと比べて、両目とも内
側にDa/2ずれた点を見る。また、逆に最遠点Bを見
る場合にはいわゆる離れ目の状態となり、画像上で離れ
目の方向にDbの視差が生じる。
【0027】また、図1は平行投影の場合の最近点、最
遠点、観察者の輻輳と調節が一致する点の位置関係を示
す図である。図1において、Aは表示される画像の最近
点、Bは最遠点、Cは観察者の輻輳と調節が一致する点
を示す。図1に示す平行投影の場合、Dc の視差がある
画像を表示すると、スクリーン上では同じ点に表示さ
れ、観察者の輻輳と調節が一致する。
【0028】上述の図3と図1の画像内における視差
は、観察者にスクリーン面(Cを含む面)に対して手前
か奥かという立体感として知覚されるが、視差が大きく
なると融合しなくなったり(2重に見える状態)、観察
者に違和感・不快感を与えたりする。
【0029】観察者の見やすさの改善は、最近点、最遠
点、撮像時の輻輳点をもとに、画像を図3に示す方向
(画像1、画像2を各々の投射軸の垂直面内で水平方
向)にずらすことにより、輻輳点と最遠距離、最近距離
との位置関係を変化させることで可能となる。画像のず
らし方については、例えば画像間の視差の平均値を相殺
するようにずらすことによって、画像全体を均一に見や
すくできる。
【0030】図5は、そのような処理のブロック図であ
る。図5では、簡単のために2眼式(2視点)のデータ
についての例を示している。図5において、1は画像復
号手段、2は視差推定手段、3は平均視差演算手段、4
a,4bは画像シフト手段、5a,5bは画像表示手段
である。以下に各手段の動作について説明する。
【0031】画像復号手段1は、送信側で符号化された
多視点画像データを受信し、これを復号する。画像復号
手段1により復号された左右の画像は視差推定手段2に
送られる。視差推定手段2は、画像復号手段1によって
復号された左右の画像から各画素における視差(視差地
図)を計算する。例えば、左画像を基準としてブロック
マッチングにより視差を計算する場合について、図6を
用いて以下に説明する。まず、左画像中に窓領域を設定
する。次に、(数4)に示す残差平方和(SSD)を計算
する。
【0032】
【数4】
【0033】(数4)の計算は、dminからdmaxの範囲の
dについて1画素間隔で計算する。そして、dminからdm
axの範囲でSSDを最小にするdの値を、設定した窓領
域での視差とする。画像の各画素における視差は、窓領
域を順次ずらして設定し、上記の計算をすることによっ
て得られる。
【0034】SSDを計算する範囲dmin、dmaxは、最近
点、最遠点の情報より計算できる。図7、図8を用い
て、平行撮影時と輻輳撮影時の場合のdmin、dmaxの求め
方について以下に説明する。
【0035】図7は、平行撮影の場合を示す図である。
図7に示す座標系において、左右のレンズ中心の座標値
を(−D/2,0)、(D/2,0)、撮像面とレンズ
中心との距離をb、3次元空間中の物***置の水平座標
値をX0 、奥行き方向の座標値をZ0 、左右の撮像面で
位置(X0、Z0)の物体からの光が撮像される水平位置
をそれぞれxl0, xr0とする(xl0, xr0はカメラの光
軸と撮像面の交点を原点とする平面座標系の水平座標)
と、図形的な関係より、
【0036】
【数5】
【0037】となる。よって、左右の画像を基準とした
視差はそれぞれ、(数6)に示す式で表される。
【0038】
【数6】
【0039】ここで、画像中の最近点の奥行き値をZmi
n、最遠点の奥行き値をZmaxとすると、SSDを計算す
る範囲の上限dmaxと下限dminは(数7)で表される。
【0040】
【数7】
【0041】また、図8は輻輳撮影の場合を示す図であ
る。図8に示す座標系において、輻輳点(左右のカメラ
の光軸の交点)の座標値を(0,C)、左右のレンズ中
心の座標値を(−D/2,0)、(D/2,0)、撮像
面とレンズ中心との距離をb、3次元空間中の物***置
の水平座標値をX0、奥行き方向の座標値をZ0、左右の
撮像面で位置(X0、Z0)の物体からの光が撮像される
水平位置をそれぞれxl0,xr0とする(xl0,xr0はカ
メラの光軸と撮像面の交点を原点とする平面座標系の水
平座標)と、図形的な関係より、
【0042】
【数8】
【0043】となる。したがって、左右の画像を基準と
した時の視差はそれぞれ、(数9)に示す式で表され
る。
【0044】
【数9】
【0045】(数9)の式中にX0が残っていることか
ら、輻輳撮像では奥行きが同じであっても、水平方向の
位置によって視差が異なる(即ち、再生される立体像が
歪む)ことがわかる。今、簡単のためにX0=0(即ち
Z軸)上の点における視差を考えると、(数9)にX0
=0を代入して(数10)を得る。
【0046】
【数10】
【0047】(数10)より、画像中の最近点の奥行き
値Zmin、最遠点の奥行き値Zmax、輻輳点の奥行き値C
の位置関係と、水平画素数nx、撮像面(CCD)の幅w
inから視差の上限画素数dmax、下限画素数dminを決定で
きる。
【0048】Z軸上以外の点における視差を考慮する場
合には、(数9)の最大値、最小値を計算することによ
って、視差の上限dmax、下限dminを決定できる。
【0049】以上説明したように、画像中の最近点の奥
行き値、最遠点の奥行き値、カメラの位置、カメラの光
軸の向きが与えられると、視差の取るべき値の範囲を計
算でき、視差演算時にSSDを計算する範囲を決定でき
る。平均視差演算手段3は、視差推定手段2によって計
算された視差地図の平均を演算する。視差地図の平均は
(数11)を計算することによって得られる。
【0050】
【数11】
【0051】画像シフト手段4a、4bは、平均視差演
算手段3によって得られる平均視差を有する奥行きの点
が、表示面と同じ奥行き(すなわち表示面上で視差0と
なるように)に表示されるように画像をシフトする。
【0052】平行投影による表示を示す図1において、
Aは表示する画像中の最近点の奥行き、Bは最遠点の奥
行き、Cは平均視差の奥行きを示す。図1から、平行投
影では左右の画像間で(数12)で示すDc の視差があ
る場合に、スクリーン上で視差がなくなり、輻輳と調節
が一致した自然な表示となることがわかる。
【0053】
【数12】
【0054】画像シフト手段4aは、(数13)に示す
シフト量(右方向へのシフトを正としている)だけ左画
像をシフトする。
【0055】
【数13】
【0056】そして、画像シフト手段4bは、逆方向に
同じ量だけ右画像をシフトする。画像シフト手段4aお
よび4bによるシフトの結果、平均視差を有する点がス
クリーンと同一の奥行きに表示されるようになる。
【0057】また、輻輳投影による表示を示す図3にお
いて、Aは表示する画像中の最近点の奥行き、Bは最遠
点の奥行き、Cは平均視差の奥行きを示す。輻輳投影で
は、画像の中心で視差が0の場合に、スクリーンと同一
の奥行きに表示されることになる。したがって、輻輳投
影の場合画像シフト手段4aおよび4bは平均視差を−
1/2倍した値だけ左右の画像をシフトする。
【0058】以上のように本実施の形態によれば、多視
点画像を伝送する際に、画像内の最近点、最遠点の情報
を付加することにより、表示側で目の疲れない表示(視
差制御)を行うことができる。
【0059】また、カメラの撮像面(CCD)のサイ
ズ、撮像面とレンズ中心との距離、及びレンズの焦点距
離に関する情報を付加して伝送することにより、撮影時
の視野角に応じた表示を行おうとする際、被写体に接近
して撮影した映像についても、表示側で撮影時の視野角
を精度よく計算することができる。
【0060】なお、多視点画像中の最近点、最遠点に関
する情報を付加せずに伝送する場合には、最近点、最遠
点に関する情報の変わりに、最近点、最遠点に関する情
報が付加されていないことを示す専用の符号を付加して
伝送し、表示側において、予め設定した範囲内で視差の
計算を行うことにより、画像内の最近点、最遠点での視
差を推定することができ、本発明に含まれる。
【0061】さらに、伝送側において、多視点画像中の
最近点、最遠点に関する情報を特定の奥行き値に設定す
ることにより、その設定された特定の奥行き範囲での視
差が融合範囲に入るように視差制御することができ、本
発明に含まれる。
【0062】また、本発明においては視差の計算を表示
側で行う例について説明したが、符号化された画像中に
含まれる視差を用いてもよく、本発明に含まれる。図1
0を用いてそのような例について説明する。
【0063】図10において、画像復号手段6以外の構
成の動作は、図5に示す視差制御方式と同一であるので
説明を省略し、以下画像復号手段6の動作について説明
する。画像復号手段6は、符号化された画像データを復
号し、左右の画像と左画像を基準とした視差を出力す
る。MPEG−2による多視点画像伝送方式で2眼式画
像を伝送する際には、左画像を基準とする視差補償によ
り圧縮率を高めている。符合化された画像データ中から
視差を取り出すことにより、表示側で視差の計算をする
必要がなくなり、表示側での演算量を低減できる。
【0064】なお、平均視差演算手段3による視差の平
均の計算は、画面の中央部を重視して(数14)による
重み付け平均値を用いてもよい。こうのようにすれば、
画像の中心部で、より融合しやすい視差制御を行え、本
発明に含まれる。
【0065】
【数14】
【0066】図9(a)(b)(c)は、(数14)に
よる重み付け平均の計算に用いる重みの分布の例を示
す。簡単のため1次元的に示しているが、実際には、画
像中央部で周辺部よりも大きな値となる2次元的な分布
である。また、重みの値はすべて0以上の値(負でない
値)である。 (第2の実施の形態)図11は、本発明の第2の実施の
形態における視差制御方式のブロック図である。図11
において、頻度計算手段7、シフト量演算手段8以外の
構成は、第1の実施の形態におけるものと同一の動作を
行うものであるため、第1の実施の形態での説明図と同
一の符号を付し、説明を省略する。以下に頻度計算手段
7、シフト量演算手段8の動作について説明する。
【0067】頻度計算手段7は、画像復号手段6によっ
て復号された左画像基準の視差の頻度を計算する。視差
の頻度とは、画像のある領域(たとえば、画像全体でも
よいし、いっての基準で決めた特定の領域でもよい)内
における視差の各値毎に計算した画素数である。シフト
量演算手段8は、頻度計算手段7によって計算された
(画像間での)視差の頻度と画像の視野角に応じた人の
目の融合範囲とから、融合範囲内の視差の頻度の和が最
大になるシフト量を演算し、画像シフト手段4a, 4b
に出力する。
【0068】図12は、シフト演算手段8の構成の一例
を示す。図12において、9はMPU、10は融合範囲
テーブルである。MPU9は画像表示面の幅と観察距離
から(数15)に示す水平方向の視野角を計算し、該視
野角における融合範囲を融合範囲テーブル10から読み
出す。
【0069】
【数15】
【0070】図13は融合範囲テーブルの特性の1例を
示す。図13において、横軸は画像表示面の水平方向の
視野角であり、縦軸は視差の融合範囲((数16)によ
り角度換算している)である。
【0071】
【数16】
【0072】なお、図13の縦軸の符号は負の側が表示
面よりも手前に知覚される視差、正の側が表示面よりも
奥に知覚される視差を示している。図14は、(数1
6)の図形的な意味を示す図である。図14は、角度換
算した視差θは画像表示面上での視差Δを視野角に換算
したものであることを示す。
【0073】一方、図1および図3に示す平行投影と輻
輳投影において、画像の位置(例えば液晶プロジェクタ
であれば液晶上の画素の位置)xl1,xr1 と表示面上で
の位置Xl,Xr の位置関係は、それぞれ(数17)(数
19)となり、表示面上での視差は(数18)(数2
0)となる。
【0074】
【数17】
【0075】
【数18】
【0076】
【数19】
【0077】
【数20】
【0078】そして、撮影時の撮影面上での座標値(x
l0,yl0),(xr0,yr0)と、投影時の画像の位置(x
l1,yl0),(xr1,yr1)(例えば液晶プロジェクタで
あれば液晶上の画素の位置)との関係は、(数21)で
表される。
【0079】
【数21】
【0080】ここで、撮像面の幅winはカメラパラメー
タから得られ、表示時の画像幅woutは表示系固有の値
である。
【0081】撮像時の条件(平行撮影/輻輳撮影)に応
じて(数5)もしくは(数8)を用いてxl0,xr0を計
算し、(数21)によりxl1,xr1に変換する。更に、
投影時の条件(平行投影/輻輳投影)に応じて、(数1
8)もしくは(数20)を計算することにより、撮像条
件、投影条件の双方を考慮して、表示画面上での視差を
計算できる。
【0082】MPU9は、融合範囲テーブル10から読
み出した融合範囲を表示面上での視差(距離)に換算し、
画像表示面上での視差の融合範囲を決定する。そして、
MPU9は、上述した画像データにおける視差と画像表
示面上での視差の関係とを用いて、融合範囲内の視差の
頻度の和が最大になるような、画像データに対するシフ
ト量を計算する(視差制御による画像のシフトは、視差
の頻度分布を図15において水平方向に移動させること
を意味する)。
【0083】画像シフト手段4a,4bによって該出力
シフト量だけ逆方向に画像をシフトし、画像表示手段5
a,5bによって表示することにより、融合範囲内での
視差の頻度の和が最大(すなわち画像内で融合する画素
の面積が最大)になる表示を行うことができる。
【0084】以上説明したように、本実施の形態によれ
ば、人の目の融合範囲に応じた視差制御を行うことによ
って、表示時に画像のより多くの部分で視差を融合範囲
内に入るようにすることができる。
【0085】なお、本実施の形態では、融合範囲内での
視差頻度の和が最大になる視差制御について説明した
が、視差の平均値が融合範囲の中央になるように視差制
御してもほぼ同等の効果を得ることができ、本発明に含
まれる。
【0086】また、伝送側において、最近点及び最遠点
を、実際の画像中の最近点及び最遠点とは異なる値に設
定し、表示側において該設定値の最近点及び最遠点に相
当する各々の視差の平均の視差が、融合範囲の中央にな
るように視差制御することにより、画像作成者の意図す
る奥行きでの画像を優先的に観察者に提示することがで
き、本発明に含まれる。 (第3の実施の形態)本発明の第3の実施の形態は、1
組の画像対を入力し、初期視差と初期視差の信頼性とを
計算し、基準画像と初期視差の信頼性とから物体輪郭線
を検出し、初期視差と初期視差の信頼性と検出された物
体輪郭線とから、物体輪郭線近傍の初期視差の信頼性の
低い領域での視差を決定する。このとき視差は、物体輪
郭線において変化し、かつ、周囲の視差とは滑らかに接
続するように決定する視差推定方法およびその装置であ
る。
【0087】本実施の形態では前述した構成により、基
準画像と参照画像の1組の画像対から、初期視差と初期
視差の信頼性とを計算し、基準画像と初期視差の信頼性
とから物体輪郭線を検出し、初期視差と初期視差の信頼
性と検出された物体輪郭線とから、物体輪郭線近傍の初
期視差の信頼性の低い領域での視差が、物体輪郭線にお
いて変化し、かつ、周囲の視差とは滑らかに接続するよ
うに決定する。
【0088】図16は、本発明の第3の実施の形態にお
ける視差推定装置のブロック図である。
【0089】図16において、201はブロックマッチ
ングによる初期視差を計算する初期視差推定部、202
は初期視差推定時の信頼性評価部、203は輪郭検出
部、204は物体輪郭付近での視差推定部である。
【0090】以下に上記構成の動作について説明する。
【0091】初期視差推定部201は、(数22)に示
す残差平方和(Sum of Squared diff
erences 以下SSD)の計算を行う。(数2
2)によるSSDの値は、基準画像に設定した窓領域と
参照画像中に設定した窓領域内の画素値の分布が似てい
るところでは小さな値となり、逆に双方の窓領域内での
画素値の分布が異なるところでは大きな値となる。初期
視差推定部201は、所定の探索範囲内でSSDの値を
最小とする画像間のずれ量dを着目点(x,y)におけ
る視差とし、その視差の値を物体輪郭付近での視差推定
部204に出力し、探索範囲内でのSSDの最小値を初
期視差推定時の信頼性評価部202に出力する。
【0092】
【数22】
【0093】図17は、初期視差推定部201による上
記初期視差推定(ブロックマッチング)を説明する図で
ある。図17において、着目点(x,y)を中心にして
設定した窓領域が、(数22)の積分領域Wを示す。窓
領域を順次ずらして設定し、上記のSSDの計算を行う
ことにより画像全体での初期視差を得ることができる。
【0094】初期視差推定時の信頼性評価部202は、
初期視差推定部201による視差計算で得られたSSD
の探索範囲中での最小値、窓領域(ブロック)内の画素
数、画像間のノイズの分散、窓領域内での基準画像の水
平垂直方向の輝度こう配の2乗の平均値から、(数2
3)に示す対応付けの信頼性評価値を計算する。
【0095】
【数23】
【0096】(数23)の値は、小さいほど視差推定の
信頼性が高いことを示し、逆に大きいほど信頼性が低い
ことを示す。
【0097】図18は、輪郭検出部203の構成の一例
を示すブロック図である。図18において、205は基
準画像を輝度成分と色成分に分離するYC分離回路、2
06A,206B,206Cは、上記分離された輝度成
分Y、色成分R−Y,B−Yからそれぞれエッジを検出
するエッジ検出回路、207はエッジ検出結果の稜線に
おける強度のみを出力する稜線検出部、208は初期視
差推定値の信頼性の低い領域で1の重みを出力し、初期
視差推定値の信頼性の高い領域では0の重みを出力する
重み発生回路である。
【0098】以下に上記構成の動作について説明する。
【0099】YC分離回路205は、基準画像を輝度成
分Y、色成分R−Y,B−Yに分離し出力する。
【0100】エッジ検出回路206A,206B,20
6Cはそれぞれ、上記Y,R−Y,B−Y成分からエッ
ジ成分を検出する。図19は、エッジ検出回路206の
構成の一例を示すブロック図である。図19において、
209A,209B,209Cはそれぞれ低空間周波数
域、中空間周波数域、高空間周波数域におけるエッジ成
分を検出する方向別フィルタ群である。210、21
1、212、213は、それぞれの方向別フィルタ群を
構成する方向別フィルタである。図20は、上記方向別
フィルタの空間的な重みの一例であり。図20(a),
(b),(c)は垂直方向に連続するエッジを、
(d),(e),(f)は斜め方向のエッジを検出する
ものである。
【0101】尚、(a),(d)が高空間周波数域、
(b),(e)が中空間周波数域、(c),(f)が低
空間周波数域用の重みの分布の一例を示す。水平および
他方の斜め方向のエッジ検出は、図20の計数の配置を
90度回転させればよい。また、エッジの方向は45度
刻みに限る必要はなく、30度刻みなどでもよいのは当
然である。
【0102】また、方向別フィルタの空間的な重みは図
20に示すものに限る必要はなく、方向毎についての微
分型の重み分布になっていればよいのは当然である。各
方向別のエッジ強度の算出法を式で示すと(数24)に
なる。
【0103】
【数24】
【0104】統合部214は方向別フィルタ210,2
11,212,213の出力を統合する。統合部214
による統合の一例を式で示すと(数25)になる。
【0105】
【数25】
【0106】尚、統合部214による統合は(数25)
で示される2乗和の形式のものに限る必要はなく、絶対
値和の形式のものなどでもよいのは当然である。
【0107】輝度成分Y、色成分R−Y,B−Yについ
て、高空間周波数域、中空間周波数域、低空間周波数域
でそれぞれ統合部214A,214B,214Cにより
統合されたエッジ強度は、乗算され出力される。そし
て、Y,R−Y,B−Y各成分についての上記エッジ強
度は、加算され稜線検出部7に転送される。
【0108】尚、輪郭検出部203における基準画像の
輝度成分、色成分への分離はY,R−Y,B−Yに限る
必要はなく、R,G,B等他の成分へ分離してもよいの
は当然である。また、Y,R−Y,B−Yについての上
記エッジ強度は加算後に稜線検出部207に転送するも
のに限る必要はなく、乗算後に稜線検出部207に転送
してもよい。
【0109】図18に戻って、稜線検出部207は、上
記Y,R−Y,B−Yについて加算されたエッジ強度の
稜線における値のみを出力する。図21は、稜線検出部
207の構成の一例である。図21において、水平稜線
検出回路215は着目画素でのエッジ強度が着目点の上
下の画素でのエッジ強度の双方よりも大きい場合に1を
出力し、そうでない場合には0を出力する。
【0110】同様に、垂直稜線検出回路216は着目画
素でのエッジ強度が着目点の左右の画素でのエッジ強度
の双方よりも大きい場合に1を出力し、そうでない場合
には0を出力する。水平稜線検出回路215と垂直稜線
検出回路216の出力は、OR演算され、更に入力信号
と乗算して出力される。すなわち、稜線検出部207
は、水平方向もしくは垂直方向に隣接する画素でのエッ
ジ強度よりも強いエッジ強度を有する画素(すなわち稜
線となっている画素)におけるエッジ強度のみを出力
し、その他の画素については0を出力する。
【0111】再び図18に戻って、重み発生回路208
は、初期視差推定値の信頼性評価値がしきい値以上の時
1を出力し、しきい値未満の時には0を出力する。重み
発生回路208の出力を稜線検出部207の出力と乗算
することにより、初期視差推定値の信頼性が低いところ
でのエッジ、すなわち視差が不連続に変化する物体輪郭
線を抽出できる。また、重み発生回路208の出力は、
後述する物体輪郭付近での視差推定部204の演算領域
メモリに記憶される。物体輪郭線の抽出を式で示すと
(数26)となる。
【0112】
【数26】
【0113】尚、エッジ検出結果206A,206B,
206Cの出力を加算して稜線検出部7に入力するよう
に限る必要はなく、乗算して稜線検出部207に入力し
てもよい。また、稜線検出部207の出力と乗算される
重み発生回路208による重み発生の方法は、0と1の
2値に限る必要はなく、初期視差推定時の信頼性に応じ
て連続的な値を出力してもよいのは当然である。
【0114】物体輪郭付近での視差推定部204は、物
体輪郭線近傍の初期視差推定値の信頼性の低い領域での
視差を、輪郭強度、初期視差から再計算する。物体輪郭
付近での視差推定部204は、(数27)で定義される
視差の分布についてのエネルギーを最小化する視差分布
を計算する。
【0115】
【数27】
【0116】重み関数w(x,y)は滑らかさのパラメ
ータと輪郭強度により(数28)として定義する。
【0117】
【数28】
【0118】(数27)を最小にする視差分布の条件は
(数29)である。
【0119】
【数29】
【0120】(数29)の微分方程式は、有限要素法
(FEM)等の公知の技術によって数値的に解くことが
できる。
【0121】図22は、物体輪郭付近での視差推定部2
04の構成の一例を示すブロック図である。図22にお
いて、217は視差分布エネルギー用の重みを発生する
視差分布エネルギー用重み発生回路、218は演算領域
メモリ、219は視差メモリ、220は重みメモリ、2
21はFEM演算回路である。
【0122】視差分布エネルギー用重み発生回路217
は、輪郭強度と滑らかさのパラメータλから(数28)
の重み関数の値を計算し、重みメモリ220に書き込
む。FEM演算回路221は、(数29)を有限要素法
により解き、視差分布を計算する。
【0123】以上のように本実施の形態によれば、ブロ
ックマッチングによる視差推定値の信頼性が低い領域に
おいて、物体輪郭線を検出し、検出した物体輪郭線の所
で視差が不連続に変化するように視差推定を行うことが
できる。
【0124】また、本実施の形態によれば、任意の形状
の物体輪郭線の所で視差が不連続に変化するように視差
推定を行うことができる。
【0125】尚、物体輪郭付近での視差推定は、視差が
物体輪郭線の所で変化し、かつ、周囲の視差と滑らかに
接続すればよく、(数27)に示すエネルギーを最小化
する視差として計算する方法に限る必要はない。そのよ
うな例について、以下に説明する。 (第4の実施の形態)図23は、本発明の第4の実施の
形態における視差推定装置の構成を示すブロック図であ
る。図23において、201はブロックマッチングによ
る初期視差を計算する初期視差推定部、202は初期視
差推定時の信頼性評価部、222は輪郭検出部、223
は物体輪郭付近での視差推定部である。
【0126】上記構成において、輪郭検出部222、物
体輪郭付近での視差推定部223以外の構成の動作は本
発明の第3の実施の形態と同一であるので説明を省略
し、以下に輪郭検出部222、物体輪郭付近での視差推
定部223の動作について説明する。
【0127】まず、輪郭検出部222は、本発明の第3
の実施の形態における輪郭検出部と同様の輪郭検出を行
ない、検出結果を2値化(例えば、0と1)して出力す
る。物体輪郭付近での視差推定部223は、物体輪郭線
近傍の初期視差推定値の信頼性の低い領域での視差を、
初期視差と輪郭検出部222によって検出された物体輪
郭線とから計算する。
【0128】図24は、物体輪郭付近での視差推定部2
23による視差推定の様子を示す図である。図24にお
いて、291は初期視差推定値の信頼性の低い領域、2
92は輪郭検出部222によって検出された物体輪郭
線、293は初期視差推定値の信頼性の高い領域、29
4は視差を計算しようとする着目点、295は着目点を
含むように設定した窓領域である。
【0129】着目点294(x,y)における視差は、
設定窓領域内で初期視差推定値の信頼性の低い領域29
1と接する周囲の領域(この場合は、初期視差推定値の
信頼性の高い領域293a)での視差を用い、着目点2
94での視差が、周囲の領域と着目点294との距離に
応じて、周囲の領域での視差の値の影響を受けるように
決定する。この時、周囲の領域における視差は、物体輪
郭線292を越えて着目点294に影響を与えないよう
にすることにより、物体輪郭線292の所で変化し、か
つ、周囲の視差と滑らかに接続するするように視差を決
定できる。物体輪郭付近での視差推定部223による視
差推定を一例として式で表すと(数30)となる。
【0130】
【数30】
【0131】ただし、物体輪郭付近での視差推定部22
3による視差推定は、(数30)に限る必要はなく、視
差が物体輪郭線で変化し、かつ、周囲の視差と滑らかに
接続するものであればよいのは当然である。
【0132】以上のように本実施の形態によれば、ブロ
ックマッチングによる視差推定値の信頼性が低い領域に
おいて、物体輪郭線を検出し、検出した物体輪郭線の所
で視差が不連続に変化するように視差推定を行うことが
できる。
【0133】また、本実施の形態によれば、任意の形状
の物体輪郭線の所で視差が不連続に変化するように視差
推定を行うことができる。
【0134】さらに、本実施の形態によれば、初期視差
推定値の信頼性の低い領域において、着目点近傍で比較
的少数の周囲の視差を参照して視差を計算することによ
り、少ないメモリ容量と演算量で視差の計算を行うこと
ができる。
【0135】また、第3と第4の実施の形態で説明した
視差推定の結果を用いて、左右の画像をシフトし統合す
ることにより、それら左右の画像に対応する各々の視点
の間の所定の中間視点における画像を生成できる。ここ
で、視差推定と中間視点画像生成とは異なる場所で行っ
てもよい。以下に、視差推定と中間視点画像生成とを異
なる場所で行う際の伝送、受信方法について説明する。 (第5の実施の形態)図25は、本発明の第5の実施の
形態において、送信側で視差推定(もしくは動き推定)
を行うシステムの送信ブロックの一例である。
【0136】図25において、170は左画像を基準と
した視差VL を推定する視差推定手段、171は右画像
を基準とした視差VR を推定する視差推定手段、172
a〜dは符号化器、173a,bは復号化器、174は
左画像Lと左画像を基準とした視差VL から右画像Rを
予測する予測手段、175は左画像を基準とした視差V
Lから右画像を基準とした視差VRを予測する予測手段、
176a,bは視差が正しく推定されない領域での視差
を決定する穴埋め手段である。以下に上記構成の動作に
ついて説明する。
【0137】まず、左画像Lは符号化器172aによっ
て符号化される。また、視差推定手段170、171に
よって左右の画像をそれぞれ基準とした視差VL,VRが
推定される。オクルージョン等により視差が正しく推定
されない領域については、第3または第4の実施の形態
で説明した視差推定方法を用いた穴埋め手段176a,
176bによって視差が決定される。
【0138】次に、左画像を基準とした穴埋め後の視差
は符号化器172bにより符号化される。符号化された
左画像を基準とした穴埋め後の視差は、復号化器173
aにより復号化され、予測器174による右画像Rの予
測と、予測器175による穴埋め後の右画像を基準とし
た視差の予測に用いられる。予測器175による右画像
を基準とした視差VR の予測は、左画像を基準とした視
差を用いて、(数31)として計算する。
【0139】
【数31】
【0140】右画像Rは予測器174による予測画像と
の残差をとり、符号化器172dによって符号化され
る。右画像を基準とした穴埋め後の視差VR は、予測器
175による予測視差との残差をとり、符号化器172
cにより符号化される。
【0141】図26は、受信側で視差推定を行うシステ
ムの受信ブロックの一例である。図26において、18
1a〜dは復号化器、174は右画像Rの予測器、17
5は右画像を基準とした視差の予測器である。符号化さ
れた左画像L、左画像基準の視差VL、右画像基準の視
差VRの予測誤差、右画像Rの予測誤差はそれぞれ復号
化器181a〜181dにより復号化される。右画像R
は予測器174による予測結果と復号化された右画像の
予測誤差とを加算して復元される。右画像基準の視差V
R は、予測器175による予測結果と復号化された予測
誤差とを加算して復元される。
【0142】左画像L、右画像R、左画像基準の視差V
L、右画像基準の視差VRが復元されると、例えば特願平
7−109821号に示される中間視点画像生成方法に
より左右の画像の中間視点での画像を生成することがで
き、左画像、右画像と併せて多視点画像として表示する
ことができる。
【0143】以上説明したように、上記の構成により、
送信側で視差推定と穴埋め処理を行うことにより、受信
側での演算量を低減することができ、受信側の装置規模
を縮小することができる。
【0144】また、多視点画像を伝送する際に、送信側
で中間視点画像生成を行うことにより伝送量を低減した
画像伝送を行うことができる。そのような例について以
下に説明する。 (第6の実施の形態)図27は、本発明の第6の実施の
形態における多視点画像圧縮伝送システムの送信側の構
成図である。図27において、101a〜101dは各
視点位置での画像を撮像するカメラ、102はカメラ1
の画像とカメラ4の画像を圧縮し符号化する画像圧縮符
号化部、103aは画像圧縮符号化部102が圧縮符号
化した画像データを復号化伸長する復号化画像伸長部、
104aは復号化画像伸長部103aが復号化伸長した
カメラ1の画像とカメラ4の画像から、カメラ2の視点
とカメラ3の視点での画像を予測し生成する中間視点画
像生成部、105はカメラ2の画像とカメラ3の画像に
ついて中間視点画像生成部104aが生成した画像との
残差を圧縮し符号化する残差圧縮符号化部である。以下
に上記構成の動作について説明する。
【0145】画像圧縮符号化部102は、多視点画像中
の複数の画像(本実施の形態では4視点の画像の両端の
視点の画像)を、画像間のブロック相関等を利用した既
存の技術により圧縮し符号化する。図31は、画像圧縮
符号化部102の構成の一例を示す。図31において、
107a,107bは8×8画素もしくは16×16画
素毎にDCT計算を行いDCT係数を計算するDCT手
段、108a,108bはDCT係数を量子化する量子
化手段、109aは逆量子化手段、110aは逆DCT
計算をおこなう逆DCT手段、111は視差検出手段、
112aは視差補償手段、113aは量子化されたDC
T係数と視差を符号化する符号化手段である。以下に上
記構成の動作について説明する。
【0146】DCT手段107aは、カメラ1の画像を
ブロック毎に処理し、各ブロックについてDCT係数を
計算する。量子化手段108aは、そのDCT係数を量
子化する。逆量子化手段109aは、その量子化された
DCT係数を逆量子化する。逆DCT手段110aは、
その逆量子化されたDCT係数を逆変換し、受信側で得
られるカメラ1の画像を復元する。視差検出手段111
は復元されたカメラ1の画像とカメラ4の画像間でブロ
ックマッチングを行い、カメラ1の画像を基準とした視
差をブロック毎に計算する。視差補償手段112aは、
上記復元されたカメラ1の画像とブロック毎の視差を用
いてカメラ4の画像を予測する(すなわち、動画像の動
き補償に相当する処理を行う)。DCT手段107b
は、カメラ4の画像と上記予測画像の残差をブロック毎
に処理しDCT係数を計算する。量子化手段108bは
その残差のDCT係数を量子化する。符号化手段113
aは、カメラ1の画像の量子化されたDCT係数、ブロ
ック毎の視差、視差補償の残差の量子化されたDCT係
数を符号化する。
【0147】また、復号化画像伸長部103aは、画像
圧縮符号化部102によって圧縮符号化された画像デー
タを復号化し伸長する。図32は、復号化画像伸長部1
03aの構成の一例を示す図である。図32において、
114aは復号化手段、109b、109cは逆量子化
手段、110b,110cは逆DCT手段、112bは
視差補償手段である。以下に上記構成の動作について説
明する。
【0148】復号化手段114aは、圧縮符号化された
データを復号化し、カメラ1の画像の量子化されたDC
T係数、ブロック毎の視差、視差補償の残差の量子化さ
れたDCT係数を伸長する。カメラ1の画像の量子化さ
れたDCT係数は、逆量子化手段109bによって逆量
子化され、逆DCT手段110bによって画像として伸
長される。動き補償手段112bは、その伸長されたカ
メラ1の画像と復号化された視差から、カメラ4の予測
画像を生成する。そして、逆量子化手段109c、逆D
CT手段110cによって伸長された残差を上記予測画
像に加えることにより、カメラ4の画像を伸長する。
【0149】中間視点画像生成部104aは、本発明の
第3もしくは第4のいずれかの実施の形態に示す方法に
よって、カメラ1とカメラ4の画像から画素毎の視差を
計算し、カメラ2とカメラ3の画像を予測し生成する。
【0150】残差圧縮符号化部105は、カメラ2とカ
メラ3の画像と上記予測画像の残差を圧縮し符号化す
る。中間視点画像生成部104aは、視差を画素毎に計
算するため、ブロックマッチングによるブロック毎の視
差計算と比較して、精度よく視差を推定できる。その結
果、中間視点画像の予測誤差(すなわち残差)を小さく
することができ、圧縮効率を高めることができるととも
に、より有効なビット割り当てを行うことができ、画質
を維持した圧縮を行える。図33は、残差圧縮符号化部
の構成の一例を示す。図33において、107c,10
7dはDCT手段、108c,108dは量子化手段、
113bは符号化手段である。カメラ2、カメラ3の画
像の残差はそれぞれDCT手段107c,107dによ
ってDCT係数に変換され、量子化手段108c,10
8dによって量子化され、符号化手段113bによって
符号化される。
【0151】図34は、本発明の第6の実施の形態にお
ける多視点画像圧縮伝送システムの受信側の構成図であ
る。図34において、103bは送信側の画像圧縮符号
化部102が圧縮符号化したカメラ1とカメラ4の画像
データを復号化伸長する復号化画像伸長部、104bは
復号化画像伸長部103bが復号化伸長したカメラ1と
カメラ4の画像から、カメラ2とカメラ3の視点での画
像を予測し生成する中間視点画像生成部、106はカメ
ラ2とカメラ3の視点での予測画像の予測誤差(残差)
を復号化し伸長する復号化残差伸長部である。復号化画
像伸長部103bおよび中間視点画像生成部104bの
動作については、送信側の復号化画像伸長部103aお
よび中間視点画像生成部104aの動作と同一であるの
で説明を省略し、以下に復号化残差伸長部の動作につい
て説明する。
【0152】復号化残差伸長部106は、送信側の残差
圧縮符号化部105によって圧縮符号化されたカメラ2
とカメラ3の視点での予測画像の予測誤差(残差)を復
号化し伸長する。図35は、復号化残差伸長部106の
構成の一例を示す。図35において、114bは復号化
手段、109d,109eは逆量子化手段、110d,
110eは逆DCT手段である。圧縮符号化されたカメ
ラ2とカメラ3の画像の残差データは、復号化手段11
4bによって復号化され、それぞれ、逆量子化手段10
9d,109eにより逆量子化され、逆DCT手段11
0d,110eにより伸長される。復号化伸長されたカ
メラ2とカメラ3の画像の残差を、中間視点画像生成部
104bによって生成された画像にそれぞれ重畳するこ
とにより、カメラ2とカメラ3の視点の画像を復元す
る。
【0153】以上のように、本実施の形態によれば、送
信側で、多視点画像中の隣接しない2つの画像からその
中間視点の画像を生成し、その生成した中間視点画像と
その中間視点の実際の画像との残差を求め、上記2つの
画像と中間視点画像の残差とを圧縮符号化して伝送す
る。受信側で、伝送されてきた2つの画像と中間視点画
像の残差とを復号化伸長し、2つの画像から中間視点の
画像を生成し、復号化伸長した中間視点画像の残差を重
畳して中間視点での実際の画像に対応する画像を復元す
る。このようにすることにより、多視点画像を効率よ
く、また、画質を維持して圧縮伝送することができる。
【0154】なお、中間視点画像の生成は、多視点画像
の両端の2視点(カメラ1とカメラ4の視点)での画像
から中間視点での画像を生成する構成に限る必要はな
く、例えば、カメラ2とカメラ4の画像からカメラ1と
カメラ3の視点での画像を生成してもよく、カメラ1と
カメラ3の画像からカメラ2とカメラ4の視点での画像
を生成してもよい。更には、カメラ2とカメラ3の画像
からカメラ1とカメラ4の視点での画像を生成してもよ
く、それぞれ本発明に含まれる。
【0155】また、多視点画像の視点数は4視点に限る
必要はなく、また、2視点以上の視点での画像からそれ
ぞれの視点間の中間視点画像を生成してもよいのは明ら
かであり、本発明に含まれる。
【0156】また、本発明の第3および第4の実施の形
態において、初期視差推定値の信頼性評価値としては、
(数23)に示すものに限る必要はなく、(数23)の
分子のみを信頼性評価値としても、参照画像の輝度こう
配の影響を受けるがほぼ同様の効果を得ることができ本
発明に含まれる。
【0157】また、画像のノイズレベルが低い場合に
は、信頼性評価値としてノイズ項を無視した値を計算し
ても同様の効果が得られるのは当然であり本発明に含ま
れる。
【0158】さらに簡略化して、信頼性評価値として、
1画素当たりの残差平方和の最小値、あるいは残差平方
和の最小値を用いてもよく、より簡単な回路で計算が可
能となり、本発明に含まれる。
【0159】また、初期視差推定値の信頼性評価値とし
ては、(数32)に示す双方向に推定した視差の差異を
用いてもよく、本発明に含まれる。
【0160】
【数32】
【0161】また、初期視差推定の信頼性評価値として
は、上記のものを2つ以上組み合わせて用いることによ
り、より安定した信頼性評価をすることができ、本発明
に含まれる。
【0162】また、本発明の第3および第4の実施の形
態において、初期視差推定のための画像間の相関演算は
残差平方和(SSD)に限る必要はなく、残差絶対値和
(SAD)を用いても同様の効果を得ることができ、そ
のような実施の形態ももちろん本発明に含まれる。
【0163】また、本発明の第6の実施の形態におい
て、隣接しない2つの視点での画像の圧縮符号化の方法
としては、画像間(視点間)の相関を利用したものに限
る必要はなく、時間方向の相関を利用したものを用いて
もよく、本発明に含まれる。
【0164】
【発明の効果】以上のように本発明によれば、カメラの
撮像面(CCD)のサイズと、撮像面とレンズ中心との
距離と、レンズの焦点距離に関する情報とを付加して伝
送することにより、撮影時の視野角に応じた表示を行お
うとする際、被写体に接近して撮影した映像について
も、表示側で撮影時の視野角を精度よく計算することが
でき、撮影時と同一の視野角を再現する観察距離を精度
よく決定できる。
【0165】また、多視点画像を伝送する際に画像内の
最近点、最遠点の情報を付加することにより、表示時に
目の疲れない表示(視差制御)を行うことができる。
【0166】また、人の目の融合範囲に応じた視差制御
を行うことによって、表示時に画像のより多くの部分で
視差を融合範囲内に入るようにすることができる。
【0167】また、伝送側において、付加する最近点、
最遠点の情報として、実際の画像中の最近点、最遠点と
は異なる値を設定し、表示側において該設定値の最近点
に相当する視差と、最遠点に相当する視差の平均の視差
が、融合範囲の中央になるように視差制御することによ
り、画像作成者の意図する奥行きでの画像を優先的に観
察者に提示することができる。
【0168】また、本発明によれば、ブロックマッチン
グによる視差推定値の信頼性が低い領域において、物体
輪郭線を検出し、検出した物体輪郭線の所で視差が不連
続に変化するように視差推定を行うことができる。
【0169】また、任意の形状の物体輪郭線の所で視差
が不連続に変化するように視差推定を行うことができ
る。。
【0170】また、送信側で視差の穴埋め処理(本発明
による、視差が物体輪郭線の所で変化し、かつ、周囲の
視差と滑らかに接続する視差推定処理)を行うことによ
り、受信側での演算量を低減することができ、受信側の
装置規模を縮小することができる。
【0171】また、多視点画像伝送システムの送信側と
受信側の双方で中間視点画像の生成を行うことにより、
中間視点画像の伝送量(残差の伝送量)を少なくするこ
とができ、その結果多視点画像を効率よく、また、画質
を維持して圧縮伝送することができる。
【図面の簡単な説明】
【図1】本発明の第1の実施の形態における平行投影の
場合の最近点、最遠点、観察者の輻輳と調節が一致する
点の位置関係を示す図
【図2】同被写体の位置、合焦時の撮像面の位置と焦点
距離の関係を示す図
【図3】同2つのプロジェクタを用いて輻輳投影をする
場合の輻輳距離、最近点、最遠点の位置関係を示す図
【図4】本発明の第1の実施の形態における画像伝送方
法で定義するパラメータを示す図
【図5】画像間の視差の平均値を相殺するようにずらす
処理のブロック図
【図6】左画像を基準としてブロックマッチングにより
視差を計算する場合を示す図
【図7】平行撮影の場合を示す図
【図8】輻輳撮影の場合を示す図
【図9】(a)〜(c)は、(数14)による重み付け
平均の計算に用いる重みの分布の例を示す図
【図10】画像復号手段の動作を示す図
【図11】本発明の第2の実施の形態における視差制御
方式のブロック図
【図12】シフト演算手段の構成の一例を示す図
【図13】融合範囲テーブルの特性図
【図14】(数16)の図形的な意味を示す図
【図15】視差の頻度分布図
【図16】本発明の第3の実施の形態による視差推定装
置の構成図
【図17】同ブロックマッチングを示す図
【図18】同輪郭検出部の構成図
【図19】同エッジ検出部の構成の一例を示す構成図
【図20】(a)〜(f)は、同方向別のフィルタの重
み係数の例を示す図
【図21】同稜線検出部の構成図
【図22】同物体輪郭付近での視差推定部の構成図
【図23】本発明の第4の実施の形態による視差推定装
置の構成図
【図24】同物体輪郭線近傍での視差推定を示す図
【図25】本発明の第5の実施の形態で送信側で視差推
定を行うシステムの送信部の構成図
【図26】本発明の第5の実施の形態で送信側で視差推
定を行うシステムの受信部の構成図
【図27】本発明の第6の実施の形態における多視点画
像伝送システムの送信部の構成図
【図28】MPEG−2シンタックスの概略図
【図29】伝送される多視点画像の時空間方向の関係図
【図30】OpenGLによるカメラパラメータの定義
を示す図
【図31】本発明の第6の実施の形態における多視点画
像伝送システムの画像圧縮符号化部の構成の一例を示す
【図32】本発明の第6の実施の形態における多視点画
像伝送システムの復号化画像伸長部の構成の一例を示す
【図33】本発明の第6の実施の形態における多視点画
像伝送システムの残差圧縮符号化部の構成の一例を示す
【図34】本発明の第6の実施の形態における多視点画
像伝送システムの受信部の構成図
【図35】本発明の第6の実施の形態における多視点画
像伝送システムの復号化残差伸長部の構成の一例を示す
【符号の説明】
A 表示される画像の最近点 B 最遠点 C 観察者の輻輳と調節が一致する点 A1,A2 カメラのレンズ中心 B1,B2 画像面の中心 C1 輻輳点 201 初期視差推定部 202 初期視差推定時の信頼性評価部 203 輪郭検出部 204 物体輪郭付近での視差推定部
───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 平8−9421(JP,A) 特開 平7−167633(JP,A) (58)調査した分野(Int.Cl.7,DB名) H04N 13/00

Claims (6)

    (57)【特許請求の範囲】
  1. 【請求項1】 2視点以上の画像の伝送において、最近点の奥行き値と最遠点の奥行き値を 付加して伝送
    し、 その伝送された前記最近点の奥行き値と最遠点の奥行き
    と、融合範囲とを考慮して前記画像を表示することを
    特徴とする多視点画像伝送及び表示方法であって、 前記画像間の視差毎の頻度を求め、その視差毎の頻度が
    前記融合範囲内で最大となるように視差制御して前記2
    視点以上の画像を表示することを特徴とする多視点画像
    伝送及び表示方法。
  2. 【請求項2】 2視点以上の画像の伝送において、最近点の奥行き値と最遠点の奥行き値を 付加して伝送
    し、 その伝送された前記最近点の奥行き値と最遠点の奥行き
    と、融合範囲とを考慮して前記画像を表示することを
    特徴とする多視点画像伝送及び表示方法であって、 前記画像間の視差の平均を求め、その視差の平均が前記
    融合範囲の中央と一致するように視差制御して前記2視
    点以上の画像を表示することを特徴とする多視点画像伝
    送及び表示方法。
  3. 【請求項3】2視点以上の画像の伝送において、最近点の奥行き値と最遠点の奥行き値を 付加して伝送
    し、 その伝送された前記最近点の奥行き値と最遠点の奥行き
    と、融合範囲とを考慮して前記画像を表示することを
    特徴とする多視点画像伝送及び表示方法であって、 伝送側において最近点及び最遠点を、画像中の最近点及
    び最遠点とは異なる値に設定し、 表示側において該最近点に相当する視差と最遠点に相当
    する視差の平均が融合範囲の中央と一致するように視差
    制御して前記2視点以上の画像を表示することにより、 画像作成者が意図する奥行きでの画像を優先的に見やす
    く表示することを特徴とする多視点画像伝送及び表示方
    法。
  4. 【請求項4】 2視点以上の画像の伝送において、最近点の奥行き値と最遠点の奥行き値を 付加して伝送
    し、 その伝送された前記最近点の奥行き値と最遠点の奥行き
    と、融合範囲とを考慮して融合範囲内に納まるように
    前記画像を表示することを特徴とする多視点画像伝送及
    び表示方法であって、 前記画像間の視差毎の頻度を求め、その視差毎の頻度が
    前記融合範囲内で最大となるように視差制御して前記2
    視点以上の画像を表示することを特徴とする多視点画像
    伝送及び表示方法。
  5. 【請求項5】 2視点以上の画像の伝送において、最近点の奥行き値と最遠点の奥行き値を 付加して伝送
    し、 その伝送された前記最近点の奥行き値と最遠点の奥行き
    と、融合範囲とを考慮して融合範囲内に納まるように
    前記画像を表示することを特徴とする多視点画像伝送及
    び表示方法であって、 前記画像間の視差の平均を求め、その視差の平均が前記
    融合範囲の中央と一致するように視差制御して前記2視
    点以上の画像を表示することを特徴とする多視点画像伝
    送及び表示方法。
  6. 【請求項6】 2視点以上の画像の伝送において、最近点の奥行き値と最遠点の奥行き値を 付加して伝送
    し、 その伝送された前記最近点の奥行き値と最遠点の奥行き
    と、融合範囲とを考慮して融合範囲内に納まるように
    前記画像を表示することを特徴とする多視点画像伝送及
    び表示方法であって、 伝送側において最近点及び最遠点を、画像中の最近点及
    び最遠点とは異なる値に設定し、 表示側において該最近点に相当する視差と最遠点に相当
    する視差の平均が融合範囲の中央と一致するように視差
    制御して前記2視点以上の画像を表示することにより、 画像作成者が意図する奥行きでの画像を優先的に見やす
    く表示することを特徴とする多視点画像伝送及び表示方
    法。
JP08359997A 1996-04-05 1997-04-02 多視点画像伝送方法および多視点画像表示方法 Expired - Fee Related JP3477023B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP08359997A JP3477023B2 (ja) 1996-04-05 1997-04-02 多視点画像伝送方法および多視点画像表示方法

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP8368896 1996-04-05
JP11871196 1996-05-14
JP8-83688 1996-05-14
JP8-118711 1996-05-14
JP08359997A JP3477023B2 (ja) 1996-04-05 1997-04-02 多視点画像伝送方法および多視点画像表示方法

Related Child Applications (3)

Application Number Title Priority Date Filing Date
JP2003154400A Division JP3733358B2 (ja) 1996-04-05 2003-05-30 画像伝送装置、送信装置、受信装置、送信方法および受信方法
JP2003154401A Division JP3733359B2 (ja) 1996-04-05 2003-05-30 視差推定方法、画像伝送方法、画像表示方法、多視点画像伝送方法、多視点画像復元方法および視差推定装置
JP2003154399A Division JP3735617B2 (ja) 1996-04-05 2003-05-30 多視点画像伝送方法、多視点画像表示方法および多視点画像表示装置

Publications (2)

Publication Number Publication Date
JPH1032840A JPH1032840A (ja) 1998-02-03
JP3477023B2 true JP3477023B2 (ja) 2003-12-10

Family

ID=27304273

Family Applications (1)

Application Number Title Priority Date Filing Date
JP08359997A Expired - Fee Related JP3477023B2 (ja) 1996-04-05 1997-04-02 多視点画像伝送方法および多視点画像表示方法

Country Status (1)

Country Link
JP (1) JP3477023B2 (ja)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6205241B1 (en) 1998-06-01 2001-03-20 Canon Kabushiki Kaisha Compression of stereoscopic images
US8369607B2 (en) 2002-03-27 2013-02-05 Sanyo Electric Co., Ltd. Method and apparatus for processing three-dimensional images
US7324594B2 (en) * 2003-11-26 2008-01-29 Mitsubishi Electric Research Laboratories, Inc. Method for encoding and decoding free viewpoint videos
US8204133B2 (en) 2004-10-12 2012-06-19 Electronics And Telecommunications Research Institute Method and apparatus for encoding and decoding multi-view video using image stitching
JP4825983B2 (ja) * 2005-07-26 2011-11-30 国立大学法人名古屋大学 画像情報圧縮方法及び自由視点テレビシステム
KR101244911B1 (ko) * 2005-10-11 2013-03-18 삼성전자주식회사 카메라 파라미터를 이용한 다시점 동영상 부호화 및 복호화장치 및 방법과 이를 수행하기 위한 프로그램이 기록된기록매체
JP2009516447A (ja) * 2005-11-17 2009-04-16 ノキア コーポレイション 3次元画像データを生成、転送および処理するための方法および装置
TW200806040A (en) * 2006-01-05 2008-01-16 Nippon Telegraph & Telephone Video encoding method and decoding method, apparatuses therefor, programs therefor, and storage media for storing the programs
JP2008034893A (ja) * 2006-03-28 2008-02-14 Victor Co Of Japan Ltd 多視点画像復号装置
JP2008034892A (ja) * 2006-03-28 2008-02-14 Victor Co Of Japan Ltd 多視点画像符号化装置
KR101419979B1 (ko) * 2008-01-29 2014-07-16 톰슨 라이센싱 2d 이미지 데이터를 스테레오스코픽 이미지 데이터로 변환하기 위한 방법 및 시스템
US9124874B2 (en) 2009-06-05 2015-09-01 Qualcomm Incorporated Encoding of three-dimensional conversion information with two-dimensional video sequence
JP2011029905A (ja) * 2009-07-24 2011-02-10 Fujifilm Corp 撮像装置、方法およびプログラム
JP5663857B2 (ja) * 2009-10-08 2015-02-04 株式会社ニコン 画像表示装置および画像表示方法
JP5494283B2 (ja) * 2010-06-24 2014-05-14 ソニー株式会社 立体表示装置及び立体表示装置の制御方法
JP2012044308A (ja) * 2010-08-16 2012-03-01 Sharp Corp 3d画像出力装置及び3d画像表示装置
JP5002047B2 (ja) * 2010-11-05 2012-08-15 シャープ株式会社 立体画像データ再生装置
JP5879713B2 (ja) 2010-12-09 2016-03-08 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
WO2012086298A1 (ja) 2010-12-24 2012-06-28 富士フイルム株式会社 撮影装置、方法及びプログラム
JP2012138787A (ja) * 2010-12-27 2012-07-19 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
KR101202014B1 (ko) * 2011-02-18 2012-11-15 주식회사 넥서스칩스 영상 처리장치, 입체영상 디스플레이 장치 및 이를 이용한 영상 처리방법
JP2013089981A (ja) * 2011-10-13 2013-05-13 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
CN104185985A (zh) * 2012-03-30 2014-12-03 富士胶片株式会社 拍摄装置、方法、存储介质以及程序
EP2845384A1 (en) * 2012-05-02 2015-03-11 Koninklijke Philips N.V. Quality metric for processing 3d video
JP2014235615A (ja) * 2013-06-03 2014-12-15 富士通株式会社 画像処理装置、画像処理回路、画像処理プログラム、及び画像処理方法

Also Published As

Publication number Publication date
JPH1032840A (ja) 1998-02-03

Similar Documents

Publication Publication Date Title
JP3477023B2 (ja) 多視点画像伝送方法および多視点画像表示方法
US6163337A (en) Multi-view point image transmission method and multi-view point image display method
US8116557B2 (en) 3D image processing apparatus and method
JP5414947B2 (ja) ステレオ撮影装置
US7944444B2 (en) 3D image processing apparatus and method
JP5140210B2 (ja) 撮影装置および画像処理方法
US5625408A (en) Three-dimensional image recording/reconstructing method and apparatus therefor
JP5204350B2 (ja) 撮影装置、再生装置、および画像処理方法
JP5204349B2 (ja) 撮影装置、再生装置、および画像処理方法
JP3769850B2 (ja) 中間視点画像生成方法および視差推定方法および画像伝送方法
JP5320524B1 (ja) ステレオ撮影装置
EP2873241B1 (en) Methods and arrangements for supporting view synthesis
US20080278569A1 (en) Automatic Conversion from Monoscopic Video to Stereoscopic Video
JPH0927969A (ja) 複数画像の中間像生成方法及び視差推定方法および装置
EP2647207A1 (en) Hybrid reality for 3d human-machine interface
Pourazad et al. An H. 264-based scheme for 2D to 3D video conversion
JP3733359B2 (ja) 視差推定方法、画像伝送方法、画像表示方法、多視点画像伝送方法、多視点画像復元方法および視差推定装置
JP3733358B2 (ja) 画像伝送装置、送信装置、受信装置、送信方法および受信方法
US9210396B2 (en) Stereoscopic image generation apparatus and stereoscopic image generation method
JP3735617B2 (ja) 多視点画像伝送方法、多視点画像表示方法および多視点画像表示装置
CN113014902B (zh) 3d-2d同步显示方法及***
Lagendijk et al. Stereoscopic image processing
Joachimiak et al. Complete processing chain for 3D video generation using Kinect sensor
KR20000001039A (ko) 가상 세계 모델링 언어에 의해 표현된 영상의 입체화방법 및그 장치
IL166305A (en) Method for converting a sequence of monoscopic images to a sequence of stereoscopic images

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees