JP6610535B2 - 画像処理装置および画像処理方法 - Google Patents

画像処理装置および画像処理方法 Download PDF

Info

Publication number
JP6610535B2
JP6610535B2 JP2016512665A JP2016512665A JP6610535B2 JP 6610535 B2 JP6610535 B2 JP 6610535B2 JP 2016512665 A JP2016512665 A JP 2016512665A JP 2016512665 A JP2016512665 A JP 2016512665A JP 6610535 B2 JP6610535 B2 JP 6610535B2
Authority
JP
Japan
Prior art keywords
image
unit
pseudo
depth
view
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2016512665A
Other languages
English (en)
Other versions
JPWO2015156149A1 (ja
Inventor
青司 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2015156149A1 publication Critical patent/JPWO2015156149A1/ja
Application granted granted Critical
Publication of JP6610535B2 publication Critical patent/JP6610535B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/006Pseudo-stereoscopic systems, i.e. systems wherein a stereoscopic effect is obtained without sending different images to the viewer's eyes

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Processing Or Creating Images (AREA)

Description

本開示は、画像処理装置および画像処理方法に関し、特に、奥行き画像を用いて画像の撮影方法を擬似的に変更することができるようにした画像処理装置および画像処理方法に関する。
近年、フラットパネルディスプレイは大型化している。視距離が一定である場合、フラットパネルディスプレイが大型になるほど、広視野画像の観視により臨場感(没入感)が向上する。なお、本明細書において、臨場感とは、画像が表す世界に実際に居るかのような感覚を指す。
また、近年、4K解像度や8K解像度等の高解像度のディスプレイの実用化が始まろうとしている。ディスプレイの高解像度化は、実物に近い画像表現を実現可能にし、実物感を向上させる。なお、本明細書において、実物感とは、画像が表すものが実際に存在するかのような感覚を指す。
高解像度の大型ディスプレイに画像を表示する場合、表示対象の画像の解像度は、ディスプレイの解像度以下になる場合、例えば、ディスプレイの解像度は4k解像度であるが、表示対象の画像の解像度は2k解像度である場合が多いと考えられる。
この場合、例えば、ディスプレイに搭載されている線形または非線形のスケーリング技術を用いて、表示対象の画像の解像度がディスプレイの解像度にアップコンバートされ、表示される。非線形のスケーリング技術は、例えば、特許文献1乃至4並びに非特許文献1および2に記載されている。
特開2007−264456号公報 特開2008−242048号公報 特開2008−233765号公報 特開2009−162899号公報
"Seam Carving for Content-Aware Image Resizing",Avidan et al, SIGGRAPH 2007 "Multi-scale ultrawide foveated video extrapolation",A.Adies,T. Avraham, and Y. Schechner. Israel Institute of Technology In ICCP, 2011
ところで、画像の各画素の被写体の奥行き方向の位置を表す画素値からなる奥行き画像を用いて、画像の撮影方法を擬似的に変更することは考えられていなかった。
本開示は、このような状況に鑑みてなされたものであり、奥行き画像を用いて画像の撮影方法を擬似的に変更することができるようにするものである。
本開示の第1の側面の画像処理装置は、画像の特徴に基づいて決定されたパラメータの値と前記画像の被写体の奥行き方向の位置を表す奥行き画像とに基づいて、前記画像から、所定の撮影方法で前記被写体を撮影した撮影画像の予測値を擬似撮影画像として生成する擬似画像生成部を備える画像処理装置である。
本開示の第1の側面の画像処理方法は、本開示の第1の側面の画像処理装置に対応する。
本開示の第1の側面においては、画像の特徴に基づいて決定されたパラメータの値と前記画像の被写体の奥行き方向の位置を表す奥行き画像とに基づいて、前記画像から、所定の撮影方法で前記被写体を撮影した撮影画像の予測値が擬似撮影画像として生成される。
本開示の第2の側面の画像処理装置は、画像と前記画像の被写体の奥行き方向の位置を表す奥行き画像とに基づいて、前記画像の撮影画角を推定する撮影画角推定部と、前記撮影画角推定部により推定された前記撮影画角と、擬似撮影画像の観視画角とに基づいて、前記画像から、前記観視画角と同一の画角で撮影した場合の撮影画像の予測値を擬似撮影画像として生成する生成部とを備える画像処理装置である。
本開示の第2の側面の画像処理方法は、本開示の第2の側面の画像処理装置に対応する。
本開示の第2の側面においては、画像と前記画像の被写体の奥行き方向の位置を表す奥行き画像とに基づいて、前記画像の撮影画角が推定され、推定された前記撮影画角と、擬似撮影画像の観視画角とに基づいて、前記画像から、前記観視画角と同一の画角で撮影した場合の撮影画像の予測値が擬似撮影画像として生成される。
なお、第1および第2の側面の画像処理装置は、コンピュータにプログラムを実行させることにより実現することができる。
また、第1および第2の側面の画像処理装置を実現するために、コンピュータに実行させるプログラムは、伝送媒体を介して伝送することにより、又は、記録媒体に記録して、提供することができる。
本開示の第1および第2の側面によれば、画像を生成することができる。また、本開示の第1の側面によれば、奥行き画像を用いて画像の撮影方法を擬似的に変更することができる。
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本開示を適用した画像処理装置の第1実施の形態の構成例を示すブロック図である。 図1の周辺生成部の構成例を示すブロック図である。 外挿補間のホールド方式、ミラー方式、および平行シフト方式を説明する図である。 外挿補間情報を説明する図である。 図2の調整部の構成例を示すブロック図である。 コントラストゲインの例を示す図である。 彩度ゲインの例を示す図である。 図5の精細度調整部における平滑化フィルタのタップ数の例を示す図である。 図5の明るさ調整部による明るさ調整におけるオフセット値の例を示す図である。 周辺領域の内側からの距離を表す図である。 図1の合成部による入力画像の合成を説明する図である。 図1の解析部の構成例を示すブロック図である。 図12の推定部による重要度マップの生成について説明する図である。 図1の決定部の構成例を示すブロック図である。 バイナリマップの例を示す図である。 図15のバイナリマップから検出される重要領域の例を示す図である。 被写体の3次元位置と画像上の2次元位置の関係を示す図である。 パラメータの決定方法の第1の例を説明する図である。 パラメータの決定方法の第2の例を説明する図である。 パラメータの決定方法の第3の例を説明する図である。 図1の擬似画像生成部の構成例を示すブロック図である。 図1の画像処理装置の処理を説明するフローチャートである。 パラメータの決定方法の第4の例を説明する図である。 パラメータの決定方法の第4の例を説明する図である。 パラメータの決定方法の第5の例を説明する図である。 本開示を適用した画像処理装置の第2実施の形態の構成例を示すブロック図である。 図26の解析部の構成例を示すブロック図である。 図27のアングル推定部の構成例を示すブロック図である。 図28の消失点解析部による消失情報に基づく仮想視点のディスプレイにおける垂直方向の位置の決定を説明する図である。 図26の決定部の構成例を示すブロック図である。 図26の画像処理装置の処理を説明するフローチャートである。 本開示を適用した画像処理装置の第3実施の形態の構成例を示すブロック図である。 図32の解析部の構成例を示すブロック図である。 図33の撮影画角推定部の構成例を示すブロック図である。 顔ベースパース強度を説明する図である。 人物ベースパース強度を説明する図である。 オブジェクトベースパース強度を説明する図である。 パース強度ベース撮影画角を説明する図である。 被写界深度ベース撮影画角を説明する図である。 図32の決定部の構成例を示すブロック図である。 図40の分析部における撮影画角の決定方法を説明する図である。 図32の中心生成部の構成例を示すブロック図である。 図32の周辺生成部の構成例を示すブロック図である。 広視野画像の例を示す図である。 図32の画像処理装置の画像処理を説明するフローチャートである。 画像処理装置による効果を説明する図である。 コンピュータのハードウエアの構成例を示すブロック図である。
以下、本開示を実施するための形態(以下、実施の形態という)について説明する。なお、説明は以下の順序で行う。
1.第1実施の形態:画像処理装置(図1乃至図25)
2.第2実施の形態:画像処理装置(図26乃至図31)
3.第3実施の形態:画像処理装置(図32乃至図45)
4.第1乃至第3実施の形態の効果(図46)
5.第4実施の形態:コンピュータ(図47)
<第1実施の形態>
(画像処理装置の第1実施の形態の構成例)
図1は、本開示を適用した画像処理装置の第1実施の形態の構成例を示すブロック図である。
図1の画像処理装置10は、奥行き画像生成部11、周辺生成部12、合成部13、解析部14、決定部15、および擬似画像生成部16により構成される。画像処理装置10は、外部から入力される画像である入力画像から、撮影方法を擬似的に変更した擬似撮影画像を生成する。
具体的には、画像処理装置10の奥行き画像生成部11は、入力画像から奥行き画像を生成し、周辺生成部12と合成部13に供給する。奥行き画像の生成方法としては、例えば、特開2013−172214号公報に記載されている方法を用いることができる。
周辺生成部12には、外部から、予め決められた外挿補間する領域を示す補間領域情報が入力される。周辺生成部12は、補間領域情報に基づいて、入力画像を用いて入力画像の周辺領域の画像(以下、周辺画像という)を外挿補間する。また、周辺生成部12は、補間領域情報に基づいて、奥行き画像生成部11から供給される奥行き画像を用いて奥行き画像の周辺領域の奥行き画像(以下、周辺奥行き画像という)を外挿補間する。周辺生成部12は、周辺画像および周辺奥行き画像を合成部13に供給する。
合成部13は、周辺生成部12から供給される周辺画像と入力画像とを合成し、合成画像を生成する。また、合成部13は、周辺生成部12から供給される周辺奥行き画像と、奥行き画像生成部11から供給される奥行き画像とを合成し、合成画像の奥行き画像(以下、合成奥行き画像という)を生成する。合成部13は、合成画像と合成奥行き画像を擬似画像生成部16に供給する。
解析部14は、入力画像に関する情報に基づいて、入力画像から、入力画像の特徴として所定の領域を抽出する。解析部14は、その領域に基づいて、入力画像を構成する各画素の重要度を画素値で表す重要度マップを生成し、決定部15に供給する。
決定部15は、外部から入力される入力画像の属性を表す属性信号と、解析部14から供給される重要度マップとに基づいて、最終的な重要度マップを決定する。決定部15は、最終的な重要度マップに基づいて、重要領域が擬似撮影画像を観視する観視者の中心視野内に収まるようにパラメータの値を決定し、擬似画像生成部16に供給する。
なお、観視者の中心視野とは、例えば、推奨される視位置(例えば、画面の高さの1.5倍)を中心としたときの角度が±30度以内となる画面内の領域である。中心視野の基になる視位置は、推奨される視位置ではなく、観視者により設定された視位置、図示せぬカメラやセンサなどにより測定された実際の観視者の視位置などであってもよい。
擬似画像生成部16は、合成部13からの合成奥行き画像と決定部15からのパラメータの値とに基づいて、合成部13から供給される合成画像から擬似撮影画像を生成する。擬似撮影画像とは、実際に撮影された入力画像から生成される合成画像の被写体を、入力画像の撮影方法とは異なる撮影方法で撮影したときの撮影画像の予測値である。擬似画像生成部16は、擬似撮影画像を図示せぬ外部のディスプレイに出力する。
なお、パラメータは、水平方向および垂直方向の両方について決定されるが、説明を簡単にするため、以下では、水平方向のパラメータのみが決定されるものとする。垂直方向のパラメータは、水平方向のパラメータと同様に決定される。
(周辺生成部の構成例)
図2は、図1の周辺生成部12の構成例を示すブロック図である。
図2の周辺生成部12は、外挿部31、精細度調整部32、外挿部33、および調整部34により構成される。
周辺生成部12の外挿部31は、外挿部33からの外挿補間情報と外部から入力される補間領域情報とに基づいて、外挿部33で入力画像を用いて実行された外挿補間と同一の方法で、図1の奥行き画像生成部11から供給される奥行き画像を用いて外挿補間を行う。
なお、外挿補間情報は、外挿部33による入力画像の外挿補間に関する情報であり、外挿部33による外挿補間の方式等を表す。外挿補間の方式としては、非特許文献2に記載されている方式、ホールド方式、ミラー方式、平行シフト方式などを用いることができる。また、“Display pixel caching”,Clemens Birklbauer, 他. SIGGRAPH ‘11 ACM SIGGRAPH 2011 Talks Article No. 45に記載されているように、過去や未来のフレームの画像を用いて外挿補間を行う方式を用いることもできる。外挿部31は、外挿補間の結果生成される周辺奥行き画像を精細度調整部32に供給する。
精細度調整部32は、外挿部33から供給される入力画像の外挿補間結果の確からしさを示す外挿信頼度に基づいて、外挿部31から供給される周辺奥行き画像の精細度を調整する。具体的には、精細度調整部32は、周辺奥行き画像に対して、外挿信頼度に基づいて設定されるタップ数の平滑化フィルタ(例えば、ガウシアンフィルタ)を用いたフィルタ処理を行う。精細度調整部32は、調整後の周辺奥行き画像を図1の合成部13に供給する。
外挿部33は、外部から入力される補間領域情報に基づいて、入力画像を用いた外挿補間を行い、周辺画像を生成する。外挿部33は、周辺画像を調整部34に供給する。また、外挿部33は、外挿補間情報を生成し、外挿部31に供給する。さらに、外挿部33は、外挿信頼度を生成する。例えば、外挿部33は、外挿補間におけるマッチングの精度を0以上1以下の値で表し、外挿信頼度とする。外挿部33は、外挿信頼度を精細度調整部32および調整部34に供給する。
調整部34は、外挿部33から供給される外挿信頼度と補間領域情報とに基づいて、外挿部33から供給される周辺画像を調整し、調整後の周辺奥行き画像を図1の合成部13に供給する。
(外挿補間の方式の説明)
図3は、外挿補間のホールド方式、ミラー方式、および平行シフト方式を説明する図である。
図3の左側に示すように、外挿部33においてホールド方式の外挿補間が行われる場合、入力画像の周辺領域内の最も内側の画素と隣接する入力画像内の画素の画素値Cが、その入力画像の周辺領域内の最も内側の画素とその画素より外側の画素の画素値とされる。
一方、図3の中央に示すように、外挿部33においてミラー方式の外挿補間が行われる場合、入力画像の周辺領域内の最も内側の画素と入力画像内の画素の境界を中心として画素値が対称となるように、入力画像の周辺領域内の画素の画素値が決定される。
図3の例では、入力画像の周辺領域内の最も内側の画素と入力画像内の画素の境界から1つ目の入力画像内の画素の画素値が画素値Cであるため、その境界から1つ目の入力画像の周辺領域内の画素の画素値が画素値Cに決定されている。同様に、境界から2つ目の入力画像内の画素の画素値が画素値Bであるため、その境界から2つ目の入力画像の周辺領域内の画素の画素値が画素値Bに決定されている。
また、図3の右側に示すように、外挿部33において平行シフト方式の外挿補間が行われる場合、入力画像の周辺領域内の最も内側の画素と入力画像内の画素の境界から所定の範囲の画素の画素値が、入力画像の周辺領域内の最も外側の画素から最も内側の画素までの画素の画素値に決定される。
図3の例では、入力画像の周辺領域内の最も内側の画素と入力画像内の画素の境界から1つ目の入力画像内の画素の画素値が画素値Cであるため、入力画像の周辺領域内の最も外側の画素の画素値は、画素値Cに決定されている。同様に、境界から2つ目の入力画像内の画素の画素値が画素値Bであるため、入力画像の周辺領域内の最も外側から2つ目の画素の画素値は、画素値Bに決定されている。
なお、図3では、入力画像に対する各方式の外挿補間について説明したが、奥行き画像に対する各方式の外挿補間も同様である。
(外挿補間情報の説明)
図4は、外挿補間情報を説明する図である。
図4に示すように、入力画像51の外挿補間の方式として、非特許文献2に記載されている入力画像内の画素を参照して外挿補間する周辺領域の画素を予測するマッチング方式が採用された場合、外挿部33は、マッチング方式を表す外挿補間情報を生成する。
この場合、外挿部31は、外挿補間情報が表すマッチング方式で奥行き画像52の外挿補間を行う。具体的には、外挿部31は、奥行き画像52内の画素52aを参照して外挿補間する周辺領域の画素52bを予測する。
なお、このとき、奥行き画像における参照元の画素52aと参照先の画素52bの空間的な位置関係が、入力画像における参照元の画素51aと参照先の画素51bの空間的な位置の関係と同一になるように予測が行われる。これにより、周辺画像と周辺奥行き画像の間の整合性を保つことができる。
(調整部の構成例)
図5は、図2の調整部34の構成例を示すブロック図である。
図5の調整部34は、コントラスト調整部71、彩度調整部72、精細度調整部73、および明るさ調整部74により構成される。
調整部34のコントラスト調整部71は、図2の外挿部33から供給される外挿信頼度に基づいて、外挿部33から供給される周辺画像のダイナミックレンジを変更し、コントラストを調整する。具体的には、コントラスト調整部71は、周辺画像の各画素の輝度成分に対して以下の式(1)の演算を行うことにより、コントラスト調整後の周辺画像の各画素の輝度成分を求める。
Figure 0006610535
式(1)において、LCnst_Yは、コントラスト調整後の周辺画像の各画素の輝度成分であり、EYは、コントラスト調整前の周辺画像の各画素の輝度成分である。AVE_Yは、コントラスト調整前の周辺画像の輝度成分の平均値であり、CnstGainは、外挿信頼度に基づいて設定されるコントラストゲインである。
コントラスト調整部71は、コントラスト調整後の周辺画像の各画素の輝度成分と、外挿部33から供給される周辺画像の各画素の色差成分とからなる画像を、コントラスト調整後の周辺画像として彩度調整部72に供給する。
彩度調整部72は、外挿信頼度に基づいて、コントラスト調整部71から供給される周辺画像の彩度を調整する。具体的には、彩度調整部72は、周辺画像の各画素の彩度成分に対して、外挿信頼度に基づいて設定される彩度ゲインを乗算することにより、周辺画像の彩度を調整する。彩度調整部72は、彩度調整後の周辺画像を精細度調整部73に供給する。
精細度調整部73は、外挿信頼度に基づいて、彩度調整部72から供給される周辺画像の精細度を調整する。具体的には、精細度調整部73は、周辺画像に対して、外挿信頼度に基づいて設定されるタップ数の平滑化フィルタ(例えば、ガウシアンフィルタ)を用いたフィルタ処理を行う。精細度調整部73は、フィルタ処理後の周辺画像を明るさ調整部74に供給する。
明るさ調整部74は、外挿信頼度と補間領域情報に基づいて、精細度調整部73から供給される周辺画像の明るさを調整する。具体的には、明るさ調整部74は、周辺画像の各画素の輝度(または明度)成分に対して以下の式(2)の演算を行うことにより、明るさ調整後の各画素の輝度成分を算出する。
Figure 0006610535
式(2)において、PYは、明るさ調整後の各画素の輝度成分であり、SmthYは、明るさ調整前の各画素の輝度成分である。DarkOffsetPredは、外挿信頼度に基づいて設定されるオフセット値である。また、DarkOffsetDistは、補間領域情報に基づいて設定されるオフセット値である。
明るさ調整部74は、明るさ調整後の各画素の輝度成分と、精細度調整部73から供給される周辺画像の各画素の色差成分とからなる画像を、明るさ調整後の周辺画像として、図1の合成部13に供給する。
(コントラストゲインの例)
図6は、コントラストゲインの例を示す図である。
図6に示すように、コントラストゲインは、外挿信頼度が大きいほど大きくなるように設定される、0より大きく1以下である値である。従って、外挿信頼度が低い場合、コントラストゲインは小さくなり、周辺画像のコントラストが小さくなる。その結果、周辺画像は目立たなくなる。
(彩度ゲインの例)
図7は、彩度ゲインの例を示す図である。
図7に示すように、彩度ゲインは、外挿信頼度が大きいほど大きくなるように設定される、0より大きく1以下である値である。従って、外挿信頼度が低い場合、彩度ゲインが小さくなり、周辺画像の彩度が小さくなる。その結果、周辺画像は目立たなくなる。
(平滑化フィルタのタップ数の例)
図8は、図5の精細度調整部73における平滑化フィルタのタップ数の例を示す図である。
図8に示すように、平滑化フィルタのタップ数は、外挿信頼度が小さいほど大きくなるように設定される1以上の値である。従って、外挿信頼度が低い場合平滑化フィルタのタップ数が大きくなり、フィルタ処理後の周辺画像のボケ感が強くなる。その結果、周辺画像は目立たなくなる。
なお、図示は省略するが、図2の精細度調整部32における平滑化フィルタのタップ数も、図8の場合と同様に、外挿信頼度が小さいほど大きくなるように設定される1以上の値である。
(明るさ調整におけるオフセット値の例)
図9は、図5の明るさ調整部74による明るさ調整におけるオフセット値DarkOffsetPredとオフセット値DarkOffsetDistの例を示す図である。
図9のAに示すように、オフセット値DarkOffsetPredは、外挿信頼度が大きいほど小さくなるように設定される。一方、図9のBに示すように、オフセット値DarkOffsetDistは、対応する画素の、周辺領域の内側からの距離が大きいほど大きくなるように設定される。
即ち、図10に示すように、入力画像91の周辺領域92の内側には、入力画像91と重複する重複領域93が存在する。オフセット値DarkOffsetDistは、対応する画素の、周辺領域92の内側、即ち重複領域93の内側からの距離dが大きいほど大きくなるように設定される。
以上により、外挿信頼度が低い場合、オフセット値DarkOffsetPredが大きくなり、周辺画像が暗くなる。その結果、周辺画像は目立たなくなる。また、距離dが大きいほどオフセット値DarkOffsetDistは大きいので、より外側の画素ほど暗くなる。その結果、外挿補間によるアーティファクトを軽減することができる。
(入力画像の合成の説明)
図11は、図1の合成部13による入力画像の合成を説明する図である。
合成部13は、周辺生成部12から供給される入力画像のうちの周辺領域と重複する重複領域以外の領域の画像を、その領域の合成画像とする。また、合成部13は、周辺生成部12から供給される周辺画像のうちの入力画像と重複する重複領域以外の領域の画像を、その領域の合成画像とする。
さらに、合成部13は、入力画像のうちの重複領域の画像と、周辺画像のうちの重複領域の画像を、以下の式(3)により画素ごとに合成し、重複領域の合成画像とする。
Figure 0006610535
式(3)において、Blendは、重複領域の合成画像の各画素の画素値である。また、Psigは、周辺画像のうちの重複領域の各画素の画素値であり、Csigは、入力画像のうちの重複領域の各画素の画素値である。
また、Wp,Wcは、入力画像の周辺領域の内側から各画素までの水平方向または垂直方向の距離に基づく重み係数であり、重み係数WpとWcの和は1である。具体的には、画素値Blendに対応する画素が、入力画像の左右に存在する重複領域内の画素である場合、重み係数WpおよびWcとしては、水平方向の距離に基づく重み係数が用いられる。一方、画素値Blendに対応する画素が、入力画像の上下に存在する重複領域内の画素である場合、重み係数WpおよびWcとしては、垂直方向の距離に基づく重み係数が用いられる。
また、例えば、入力画像の周辺領域の最も内側の水平方向(または垂直方向)の位置を0としたとき、重み係数Wpは、図11に示すように、対応する画素の水平方向(または垂直方向)の位置が重複領域の最も外側の水平方向(または垂直方向)の位置-dwである場合に1となる。そして、重み係数Wpは、対応する画素の水平方向(または垂直方向)の位置が、重複領域の最も内側の水平方向(または垂直方向)の位置である0に近づくにつれて小さくなり、位置が0である場合0となる。
一方、重み係数Wcは、図11に示すように、対応する画素の水平方向(または垂直方向)の位置が位置-dwである場合に0となり、その位置が0に近づくにつれて大きくなり、位置が0である場合1となる。
なお、図11では、入力画像の合成について説明したが、奥行き画像の合成についても同様に行われる。
(解析部の構成例)
図12は、図1の解析部14の構成例を示すブロック図である。
図12の解析部14は、字幕テロップ検出部191、顔検出部192、人物検出部193、顕著度検出部194、および推定部195により構成される。
解析部14の字幕テロップ検出部191は、入力画像のOSD(On Screen Display)情報等に基づいて、入力画像の字幕またはテロップの領域である字幕テロップ領域を検出する。字幕テロップ検出領域の検出方法としては、例えば、”A comprehensive method for multilingual video text detection",Lyu, M.R.:Jiqiang Song;Min Cai:localization, and extraction.IEEE Transactions on Circuits and Systems for Video Technology 15(2), 243-255(2005)に記載されている方法を用いることができる。
字幕テロップ検出部191は、検出された字幕テロップ領域の位置、大きさ、および確からしさを示す字幕テロップマップを生成する。字幕テロップマップとは、入力画像を構成する各画素が字幕テロップ領域である確からしさを0乃至255の画素値で表す画像である。ここでは、字幕テロップマップの画素値が大きいほど、字幕テロップ領域である確からしさが高いものとする。字幕テロップ検出部191は、生成された字幕テロップマップを推定部195に供給する。
顔検出部192は、入力画像から顔領域を検出する。例えば、入力画像がビジュアルコミュニケーション時の画像である場合、顔検出部192は、各ウィンドウの位置情報に基づいて顔領域を検出する。
そして、顔検出部192は、検出された顔領域の位置、大きさ、および確からしさを示す顔マップを生成する。顔マップとは、入力画像を構成する各画素が顔領域である確からしさを0乃至255の画素値で表す画像である。ここでは、顔マップの画素値が大きいほど、顔領域である確からしさが高いものとする。顔検出部192は、生成された顔マップを推定部195に供給する。
人物検出部193は、入力画像から人物領域を検出する。例えば、入力画像が監視カメラで撮影された画像である場合、人物検出部193は、監視カメラから供給される追尾対象の情報に基づいて、人物領域を検出する。
人物検出部193は、検出された人物領域の位置、大きさ、および確からしさを示す人物マップを生成する。人物マップとは、入力画像を構成する各画素が人物領域である確からしさを0乃至255の画素値で表す画像である。ここでは、人物マップの画素値が大きいほど、人物領域である確からしさが高いものとする。人物検出部193は、生成された人物マップを推定部195に供給する。
顕著度(誘目度)検出部194は、観視者からの指定等により、入力画像から、人間の目を引きやすい被写体の領域を、主要な被写体領域として検出する。被写体領域の検出方法としては、例えば、特開2010−262506号に記載されている方法を用いることができる。顕著度検出部194は、検出された被写体領域の位置、大きさ、および確からしさを示す被写体マップを生成する。
被写体マップとは、入力画像を構成する各画素が被写体領域である確からしさを0乃至255の画素値で表す画像である。ここでは、被写体マップの画素値が大きいほど、被写体領域である確からしさが高いものとする。顕著度検出部194は、生成された被写体マップを推定部195に供給する。
推定部195は、字幕テロップ検出部191からの字幕テロップマップ、顔検出部192からの顔マップ、人物検出部193からの人物マップ、および顕著度検出部194からの被写体マップに基づいて、重要度マップを生成する。推定部195は、生成した重要度マップを図1の決定部15に供給する。
(重要度マップの生成の説明)
図13は、図12の推定部195による重要度マップの生成について説明する図である。
図13に示すように、推定部195は、画素ごとに、その画素の字幕テロップマップの画素値、顔マップの画素値、人物マップの画素値、および被写体マップの画素値を、以下の式(4)により加重平均し、加重平均値を重要度マップの画素値とする。
Figure 0006610535
式(4)において、Map_sig(x,y)は、重要度マップの位置(x、y)の画素の画素値である。また、W_text,W_face,W_human、およびW_sailencyは、重み係数であり、この重み係数の和は1である。Map_text(x,y)は、字幕テロップマップの位置(x、y)の画素の画素値であり、Map_face(x,y)は、顔マップの位置(x、y)の画素の画素値である。Map_human(x,y)は、人物マップの位置(x、y)の画素の画素値であり、Map_sailency (x,y)は、被写体マップの位置(x、y)の画素の画素値である。
ここでは、加重平均値を重要度マップの画素値とするが、字幕テロップマップの画素値、顔マップの画素値、人物マップの画素値、および被写体マップの画素値のうちの最大値を重要度マップの画素値としてもよい。また、加重平均値は、ダイナミックレンジが0乃至255になるように正規化されて重要度マップの画素値とされるようにしてもよい。
(決定部の構成例)
図14は、図1の決定部15の構成例を示すブロック図である。
図14の決定部15は、分析部211、重要領域決定部212、およびパラメータ決定部213により構成される。
決定部15の分析部211は、外部から属性信号として入力されるEPG(Electronic Program Guide)の番組ジャンル情報等に基づいて、重要度マップを生成する。
具体的には、例えば、ニュース番組、バラエティ番組、およびワイド―ショー番組の画像では、字幕やテロップが存在する可能性が高く、また、字幕やテロップが表示される領域も予め推定可能である。従って、番組ジャンル情報が、ニュース番組、バラエティ番組、またはワイド―ショー番組を表す場合、分析部211は、字幕やテロップが表示されると推定される領域を重要度の高い領域として検出し、その領域内の画素が重要であることを表す重要度マップを生成する。
また、スポーツ番組では、撮影方法や撮影アングルなどが予め決まっている。例えば、テニスの試合では、画面の上部と下部にプレイヤが存在するアングルで撮影が行われる。従って、番組ジャンル情報がテニスの試合を表す場合、分析部211は、画面の上部と下部の領域を重要度の高い領域として検出し、その領域内の画素が重要であることを表す重要度マップを生成する。
なお、分析部211が生成する重要度マップは、各画素の重要度を0乃至255の画素値で表す画像であり、ここでは、画素値は、大きいほど重要度が高いことを表している。分析部211は、生成された重要度マップを重要領域決定部212に供給する。
重要領域決定部212は、図12の推定部195から供給される重要度マップと、分析部211から供給される重要度マップとに基づいて、以下の式(5)により最終的な重要度マップを決定する。
Figure 0006610535
式(5)において、BlendSigMap(x,y)は、最終的な重要度マップの位置(x,y)の画素の画素値である。Wは、重み係数であり、0以上1以下の値である。Map_sig(x,y)は、推定部195から供給される重要度マップの位置(x,y)の画素の画素値であり、MetaSigMap(x,y)は、分析部211から供給される重要度マップの位置(x,y)の画素の画素値である。
重要領域決定部212は、最終的な重要度マップを2値化し、バイナリマップを生成する。なお、このとき、重要領域決定部212は、必要に応じて、孤立除去などのために、メディアンフィルタやモロフォロジーフィルタを適用してもよい。
重要領域決定部212は、バイナリマップの画素値が1である画素、即ち白色の画素に外接する矩形領域を重要領域として検出し、その重要領域を表す重要領域情報を最終的な重要領域情報としてパラメータ決定部213に供給する。
パラメータ決定部213は、重要領域決定部212から供給される最終的な重要領域情報に基づいて、入力画像の重要領域が観視者の中心視野内に収まるようにパラメータを決定し、図1の擬似画像生成部16に供給する。
(バイナリマップの例)
図15は、バイナリマップの例を示す図である。
重要領域決定部212は、最終的な重要度マップの各画素値を、その画素値が閾値を超えた場合1にし、閾値を超えない場合0にすることにより2値化する。従って、図13に示した最終的な重要度マップが2値化されると、図15に示すバイナリマップが生成される。
(重要領域の例)
図16は、図15のバイナリマップから検出される重要領域の例を示す図である。
図16に示すように、バイナリマップが図15に示すマップである場合、画素値が1である白色の領域に外接する矩形領域231が重要領域として検出される。そして、図16に示すように、入力画像232内の矩形領域231が観視者の中心視野内に収まるように、パラメータが決定される。
(被写体の3次元位置と画像上の2次元位置の関係)
図17は、被写体の3次元位置と画像上の2次元位置の関係を示す図である。
図17は、観視者と画像を表示するディスプレイを上から見た図である。また、一点鎖線は、画像の被写体の物理的な奥行き方向の位置を表している。
図17の例では、一点鎖線で示すように、水平方向に並ぶ被写体の奥行き方向の位置が、全てディスプレイ251の表示面の手前にあるが、ディスプレイ251の表示面と被写体の奥行き方向の位置の関係は、これに限定されない。水平方向に並ぶ被写体の奥行き方向の位置は、全てディスプレイ251の表示面の奥にあってもよいし、奥と手前の両方に混在していてもよい。
画像の各画素のディスプレイ251上の水平方向の位置をxpとすると、その画素に対応する被写体の奥行き方向の位置は、位置xpの画素の奥行き画像の画素値を用いて、以下の式(6)で定義される。
Figure 0006610535
式(6)において、Depth(xp)は、位置xpの画素に対応する被写体の奥行き方向の位置である。また、depth(xp)は、位置xpの画素の奥行き画像の画素値であり、0乃至255の値である。また、Depth_Lengthは、図17中一点鎖線で示す被写体の物理的な奥行き方向の位置のダイナミックレンジである。
また、画像は、被写体の3次元位置を透視変換により画像上の2次元位置に変換したものである。従って、画像では、3次元空間の被写体が2次元画像上に3次元構造を反映させたかたちで(近くのものは大きく、遠くのものは小さくなるように)再現される。
よって、奥行き方向の位置Depth(xp)の被写体の画像のディスプレイ251上の水平方向の表示位置と位置xpとの差分(射影によるシフト量)は、以下の式(7)で求められる。
Figure 0006610535
式(7)において、Shiftp(xp)は、奥行き方向の位置Depth(xp)の被写体の画像のディスプレイ251上の水平方向の表示位置と位置xpとの差分である。xcは、画像の視点である仮想視点のディスプレイ251における水平方向の位置(の座標)である。なお、xp,xcは、例えば左側の位置ほど小さくなる値である。また、Visual_Distanceは、仮想視点とディスプレイ251の距離、即ち仮想視距離である。
式(6)および式(7)によれば、画像の水平方向の表示位置は、仮想視距離や仮想視点の水平方向の位置を変更することにより変更することができる。従って、パラメータ決定部213は、入力画像の重要領域が観視者の中心視野内に収まるように、擬似撮影画像の仮想視距離や仮想視点の水平方向の位置をパラメータとして決定する。
仮想視距離が変更されると、被写体との接近感(被写体までの前後感)が変化する。仮想視点の水平方向の位置が変更されると、視線方向が変化する。
(パラメータの決定方法の第1の例)
図18は、パラメータの決定方法の第1の例を説明する図である。
図18は、観視者と画像を表示するディスプレイを上から見た図である。また、一点鎖線は、入力画像の被写体の物理的な奥行き方向の位置を表している。これらのことは、後述する図19、図20、および図23乃至図25においても同様である。
図18に示すように、重要領域271および272が、入力画像273の端部に存在する場合、例えば仮想視距離が比較的小さいVD_Aであると、重要領域271および272が中心視野外になる。しかしながら、例えば仮想視距離がVD_Aより大きいVD_Bである場合、重量領域271および272は中心視野内に収まる。
従って、この場合、パラメータ決定部213は、重要領域271および272が中心視野内に収まるように、パラメータとしての仮想視距離をVD_Bに決定する。その結果、擬似撮影画像の重要領域の視認性を向上させることができる。なお、本明細書において、視認性とは、画像の見やすさや画像の内容の把握しやすさを指す。
擬似画像生成部16は、仮想視距離をVD_Bに即座に変更してもよいし、仮想視距離のVD_Bより小さいデフォルト値からVD_Bまで段階的に変更するようにしてもよい。擬似画像生成部16は、仮想視距離を段階的に変更する場合、変更後の仮想視距離と合成奥行き画像とに基づいて、合成画像の被写体をドリーアウト撮影(被写体に対してカメラを後退させながら撮影)したときの運動視差を有する画像を擬似撮影画像として生成することができる。その結果、擬似撮影画像の奥行き感を強調することができる。
(パラメータの決定方法の第2の例)
図19は、パラメータの決定方法の第2の例を説明する図である。
図19に示すように、入力画像273の重要領域281が比較的小さい場合、例えば仮想視距離が比較的大きいVD_Cであると、重要領域281の中心視野内の占有率が非常に小さくなり、重要領域281が見づらい。しかしながら、例えば仮想視距離がVD_Cより小さいVD_Dである場合、重要領域281の中心視野内の占有率が大きくなるので、重要領域281の視認性が向上する。
従って、この場合、パラメータ決定部213は、重要領域281が中心視野内に収まり、重要領域281の中心視野内の占有率が閾値以上となるように、パラメータとしての仮想視距離をVD_Dに決定する。その結果、擬似撮影画像の重要領域の視認性を向上させることができる。
例えば、大型のディスプレイで広視野で観視されることを仮定して、広角で入力画像が撮影される場合、重要領域は小さくなり、見づらくなる。
一方、4K解像度や8K解像度などの高解像度の大型のディスプレイで画像を観視する場合、画素の表示サイズが小さいため、観視者はディスプレイに近づいても画素構造が気にならない。例えば、4K解像度の大型のディスプレイでは画面の高さの1.5倍の距離まで、8K解像度の大型のディスプレイでは画面の高さの0.75倍の距離まで近づいても、観視者はディスプレイの画素構造が気にならない。従って、観視者は、ディスプレイに近づいて画像を観視することが可能である。
よって、広角で撮影された入力画像を観察者がディスプレイに近づいて監視する場合、パラメータとしての仮想視距離が短くされる。これにより、重要領域が大きい擬似撮影画像が生成され、表示されるため、重要領域の視認性が向上する。
擬似画像生成部16は、仮想視距離をVD_Dに即座に変更してもよいし、仮想視距離のVD_Dより大きいデフォルト値からVD_Dまで段階的に変更するようにしてもよい。擬似画像生成部16は、仮想視距離を段階的に変更する場合、変更後の仮想視距離の値と合成奥行き画像とに基づいて、合成画像の被写体をドリーイン撮影(被写体に対してカメラを前進させながら撮影)したときの運動視差を有する画像を擬似撮影画像として生成することができる。その結果、擬似撮影画像の奥行き感を強調することができる。
(パラメータの決定方法の第3の例)
図20は、パラメータの決定方法の第3の例を説明する図である。
図20に示すように、重要領域291が、入力画像273の端部に存在する場合、例えば仮想視点の水平方向の位置が中央付近の位置xc_Aであると、重要領域291が中心視野外になる。しかしながら、例えば仮想視点の水平方向の位置が比較的重要領域291側の位置xc_Bである場合、重要領域291は中心視野内に収まる。
従って、この場合、パラメータ決定部213は、重要領域291が中心視野内に収まるように、パラメータとしての仮想視点の水平方向の位置をxc_Bに決定する。その結果、擬似撮影画像の重要領域の視認性を向上させることができる。
擬似画像生成部16は、仮想視点の水平方向の位置をxc_Bに即座に変更してもよいし、仮想視点の水平方向の位置のxc_Bより大きいデフォルト値からxc_Bまで段階的に変更するようにしてもよい。擬似画像生成部16は、仮想視点の水平方向の位置を段階的に変更する場合、変更後の位置の値と合成奥行き画像とに基づいて、合成画像の被写体をトラック撮影(被写体に対してカメラを並行させながら撮影)したときの運動視差を有する画像を擬似撮影画像として生成することができる。その結果、擬似撮影画像の奥行き感を強調することができる。
(擬似画像生成部の構成例)
図21は、図1の擬似画像生成部16の構成例を示すブロック図である。
図21の擬似画像生成部16は、変換部311と切り出し部312により構成される。
変換部311は、合成部13から供給される合成画像および合成奥行き画像と、決定部15から供給されるパラメータを用いて、透視変換モデルにしたがって擬似撮影画像を生成する。
具体的には、変換部311は、合成奥行き画像の画素値を画素値depth(xp)として用いて上述した式(6)を演算することにより、奥行き方向の位置Depth(xp)を求める。なお、Depth_Lengthは、予め決められた固定値であってもよいし、観視者等の指示により変更可能な可変値であってもよい。Depth_Lengthにより、擬似撮影画像の奥行き感(凹凸感)を変更することができる。
また、変換部311は、奥行き方向の位置Depth(xp)と、パラメータとしての仮想視距離や仮想視点の水平方向の位置とを用いて、上述した(7)により、差分Shiftp(xp)を求める。なお、パラメータは、仮想視距離および仮想視点の水平方向の位置のいずれか一方であってもよいし、両方であってもよい。パラメータが仮想視距離のみである場合には、仮想視点の水平方向の位置として予め決められた固定値が用いられる。また、パラメータが仮想視点の水平方向の位置のみである場合には、仮想視距離として予め決められた固定値が用いられる。
さらに、変換部311は、差分Shiftp(xp)に基づいて、合成画像の位置xpの画素の画素値を差分Shiftp(xp)だけ移動して配置(レンダリング)することにより、擬似撮影画像を生成する。なお、画素値が配置されなかった位置の画素は、近傍の画素の画素値などを用いて補間される。変換部311は、擬似撮影画像を切り出し部312に供給する。
切り出し部312は、変換部311から供給される擬似撮影画像の解像度が所定の解像度となるように、必要に応じてトリミング(削除)を行い、出力する。
(画像処理装置の処理の説明)
図22は、図1の画像処理装置10の処理を説明するフローチャートである。
図22のステップS11において、画像処理装置10は、外部から画像が入力されたかどうかを判定する。なお、画像は、フレーム単位で入力されてもよいし、複数のフレーム単位で入力されてもよい。
ステップS11で外部から画像がまだ入力されていないと判定された場合、外部から画像が入力されるまで待機する。
ステップS11で外部から画像が入力されたと判定された場合、ステップS12において、画像処理装置10は、その画像を入力画像として取得する。
ステップS13において、解析部14は、入力画像の字幕テロップ領域、顔領域、人物領域、および被写体領域を検出し、重要度マップを生成する領域解析処理を行う。解析部14は、生成された重要度マップを決定部15に供給する。
ステップS14において、決定部15は、外部から属性信号が入力されたかどうかを判定する。ステップS14で外部から属性信号が入力されたと判定された場合、処理はステップS15に進む。
ステップS15において、決定部15の分析部211(図14)は、外部から属性信号として入力された番組ジャンル情報に基づいて重要度マップを生成し、処理をステップS16に進める。
一方、ステップS14で外部から属性信号が入力されていないと判定された場合、処理はステップS16に進む。
ステップS16において、重要領域決定部212は、解析部14からの重要度マップと分析部211により生成された重要度マップに基づいて最終的な重要度マップを決定する。重要領域決定部212は、最終的な重要度マップに基づいて重要領域情報を生成し、パラメータ決定部213に供給する。
ステップS17において、パラメータ決定部213は、重要領域情報に基づいて、入力画像の重要領域が観視者の中心視野内に収まるようにパラメータを決定し、擬似画像生成部16に供給する。
ステップS18において、奥行き画像生成部11は、入力画像から奥行き画像を生成し、周辺生成部12と合成部13に供給する。
ステップS19において、周辺生成部12は、外部から入力される補間領域情報に基づいて、入力画像および奥行き画像を用いた外挿補間を行い、周辺画像および周辺奥行き画像を生成する周辺領域生成処理を行う。周辺生成部12は、周辺画像および周辺奥行き画像を合成部13に供給する。
ステップS20において、合成部13は、周辺生成部12から供給される周辺画像と入力画像とを合成し、周辺生成部12から供給される周辺奥行き画像と奥行き画像とを合成する合成処理を行う。合成部13は、合成の結果得られる合成画像と合成奥行き画像を擬似画像生成部16に供給する。
ステップS21において、擬似画像生成部16は、合成部13からの合成奥行き画像と決定部15からのパラメータとに基づいて、合成部13から供給される合成画像から擬似撮影画像を生成する。ステップS22において、擬似画像生成部16は、擬似撮影画像を出力する。
ステップS23において、画像処理装置10は、画像が新たに入力されたかどうかを判定する。ステップS23で画像が新たに入力されたと判定された場合、処理はステップS12に戻り、画像が新たに入力されなくなるまで、ステップS12乃至S23の処理が繰り返される。
一方、ステップS23で画像が新たに入力されていないと判定された場合、処理は終了する。
以上のように、画像処理装置10は、入力画像の特徴に基づくパラメータの値と奥行き画像とに基づいて、入力画像から擬似撮影画像を生成する。従って、奥行き画像を用いて入力画像の撮影方法を擬似的に変更することができる。
なお、擬似撮影画像の生成に用いられるモデルは、上述した透視変換モデル以外のモデルであってもよい。この場合のパラメータの決定方法について以下に説明する。
(パラメータの決定方法の第4の例)
図23および図24は、パラメータの決定方法の第4の例を説明する図である。
図23および図24の例では、以下の式(8)に示すスケーリングモデルにしたがって擬似撮影画像が生成される。
Figure 0006610535
式(8)において、Shifts(xp)は、奥行き方向の位置Depth(xp)の被写体の画像のディスプレイ251上の水平方向の表示位置と位置xpとの差分(スケーリングによるシフト量)である。また、Zparaは、入力画像のスケーリング率である。さらに、xcは、仮想視点のディスプレイ251における水平方向の位置(の座標)である。
式(8)によれば、入力画像の水平方向の表示位置は、スケーリング率を変更することにより変更することができる。従って、スケーリングモデルにしたがって擬似撮影画像が生成される場合、パラメータ決定部213は、入力画像の重要領域が観視者の中心視野内に収まるように、スケーリング率をパラメータとして決定する。
図23に示すように、入力画像273の重要領域331が比較的小さい場合、重要領域331の中心視野内の占有率が非常に小さくなり、重要領域331が見づらい。しかしながら、入力画像273が1より大きいスケーリング率で拡大されると、スケーリング後の重要領域331は重要領域332となり、重要領域の中心視野内の占有率が大きくなるので、重要領域の視認性が向上する。
従って、この場合、パラメータ決定部213は、重要領域331が中心視野内に収まり、重要領域331の中心視野内の占有率が閾値以上となるように、パラメータとしてのスケーリング率を1より大きい値に決定する。その結果、合成画像が拡大され、擬似撮影画像内の重要領域331が重要領域332に拡大されるので、重要領域の視認性が向上する。
なお、図23の例では、見やすくするために、重要領域331の手前側に重要領域332が図示されているが、実際には、重要領域331と重要領域332の奥行き方向の位置は同一である。
擬似画像生成部16は、スケーリング率をパラメータの値に即座に変更してもよいし、1からパラメータの値まで段階的に変更するようにしてもよい。擬似画像生成部16は、スケーリング率を段階的に変更する場合、変更後のスケーリング率と合成奥行き画像とに基づいて、合成画像の被写体をズームイン(望遠)撮影したときの画像の予測値を擬似撮影画像として生成することができる。
一方、図24に示すように、入力画像273の重要領域341が比較的大きい場合、重要領域341の中心視野内の占有率が非常に大きくなり、重要領域341が中心視野からはみだす。しかしながら、入力画像273が1より小さいスケーリング率で縮小されると、スケーリング後の重要領域341は重要領域342となり、中心視野内に収まるので、重要領域の視認性が向上する。
従って、この場合、パラメータ決定部213は、重要領域341が中心視野内に収まり、重要領域341の中心視野内の占有率が閾値以上となるように、パラメータとしてのスケーリング率を1より小さい値に決定する。その結果、合成画像が縮小され、擬似撮影画像内の重要領域341が重要領域342に縮小されるので、重要領域の視認性が向上する。
なお、図24の例では、見やすくするために、重要領域341の手前側に重要領域342が図示されているが、実際には、重要領域341と重要領域342の奥行き方向の位置は同一である。
擬似画像生成部16は、スケーリング率をパラメータの値に即座に変更してもよいし、1からパラメータの値まで段階的に変更するようにしてもよい。擬似画像生成部16は、スケーリング率を段階的に変更する場合、変更後のスケーリング率と合成奥行き画像とに基づいて、合成画像の被写体をズームアウト(広角)撮影したときの画像の予測値を擬似撮影画像として生成することができる。
以上のようにスケーリングモデルにしたがって擬似撮影画像が生成される場合、擬似画像生成部16は、変換部311と切り出し部312の間に調整部を備える。そして、調整部は、変換部311から供給される擬似撮影画像、合成部13から出力される合成奥行き画像、および決定部15から供給されるパラメータを用いて、擬似撮影画像の被写界深度を調整する。
具体的には、パラメータとしてのスケーリング率が1より大きい場合、調整部は、擬似撮影画像の重要領域よりも手前側の領域と奥側の領域の画素値に対して平滑化処理を行う。これにより、擬似撮影画像において、重要領域にピントがあった状態で被写体深度が浅くなり、重要領域以外でフォーカスぼけが発生する。
また、パラメータとしてのスケーリング率が1より小さい場合、調整部は、ピントが合っていないボケ領域に対し、超解像度処理、高域強調処理などのデブラー処理を行う。これにより、擬似撮影画像の被写体深度が深くなる。調整部により被写界深度が調整された疑似撮影画像は切り出し部312に供給される。
(パラメータの決定方法の第5の例)
図25は、パラメータの決定方法の第5の例を説明する図である。
図25の例では、視線方向を考慮した透視変換モデルにしたがって擬似撮影画像が生成される。視線方向を考慮した透視変換モデルでは、上述した式(6)を用いて図25中一点鎖線で示す奥行き方向の位置Depth(xp)が求められる。
そして、奥行き方向の位置Depth(xp)の被写体の3次元位置が、視線方向を中心軸とした透視変換により2次元位置に変換されて、奥行き方向の位置Depth(xp)の被写体の画像のディスプレイ251上の水平方向の表示位置と位置xpとの差分が求められる。具体的には、その差分は、奥行き方向の位置Depth(xp)、位置xp、仮想視点の水平方向の位置、仮想視距離、および視線方向の角度θeを用いて求められる。
なお、視線方向の角度θeとは、仮想視点の水平方向および垂直方向の位置がディスプレイ251の中心と同一である場合の仮想視点とディスプレイ251の中心を結ぶ線と、視線方向のなす角である。
視線方向を考慮した透視変換モデルによれば、入力画像の水平方向の表示位置は、視線方向の角度θeを変更することにより変更することができる。従って、パラメータ決定部213は、入力画像の重要領域が観視者の中心視野内に収まるように、視線方向の角度θeをパラメータとして決定する。
図25のAに示すように、重要領域351が入力画像273の端部に存在する場合、例えば視線方向の角度θeが0であると、重要領域351が中心視野外になる。しかしながら、例えば視線方向の角度θeが0より大きいと、入力画像273内の重要領域351の位置が中央付近に移動し、重量領域351は中心視野内に収まる。
従って、この場合、パラメータ決定部213は、重要領域351が中心視野内に収まるように、パラメータとしての視線方向の角度θeを0より大きい値に決定する。その結果、擬似撮影画像の重要領域の視認性を向上させることができる。
擬似画像生成部16は、視線方向の角度θeをパラメータの値に即座に変更してもよいし、0からパラメータの値まで段階的に変更するようにしてもよい。擬似画像生成部16は、視線方向の角度θe段階的に変更する場合、変更後の視線方向の角度θeと合成奥行き画像とに基づいて、合成画像の被写体をパニング(チルト)撮影(被写体に対してカメラを水平(垂直)に回転しながら撮影)したときの画像の予測値を擬似撮影画像として生成することができる。
<第2実施の形態>
(画像処理装置の第2実施の形態の構成例)
図26は、本開示を適用した画像処理装置の第2実施の形態の構成例を示すブロック図である。
図26に示す構成のうち、図1の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
図26の画像処理装置400の構成は、解析部14の代わりに解析部401が設けられる点、および、決定部15の代わりに決定部402が設けられる点が、図1の画像処理装置10の構成と異なる。画像処理装置400は、重要領域情報ではなく、入力画像の撮影時のカメラアングルに基づいてパラメータを決定する。
解析部401は、入力画像から撮影時のカメラアングルを推定する。解析部401は、推定されたカメラアングルを表すカメラアングル画像推定情報を決定部402に供給する。
決定部402は、入力画像を撮影したカメラから入力される、内蔵センサにより検出されたセンサ情報と、解析部401から供給されるカメラアングル画像推定情報とに基づいて、最終的なカメラアングルの推定値を表すカメラアングル情報を決定する。決定部402は、カメラアングル情報に基づいてパラメータを決定し、擬似画像生成部16に供給する。
なお、パラメータは、水平方向および垂直方向の両方について決定されるが、説明を簡単にするため、以下では、垂直方向のパラメータのみが決定されるものとする。水平方向のパラメータは、垂直方向のパラメータと同様に決定される。
(解析部の構成例)
図27は、図26の解析部401の構成例を示すブロック図である。
図26の解析部401は、水平線検出部421、空面積検出部422、顔方向検出部423、奥行画像生成部424、およびアングル推定部425により構成される。
解析部401の水平線検出部421は、入力画像から水平線を検出し、水平線の位置をアングル推定部425に供給する。空面積検出部422は、入力画像から空の領域を検出し、空の領域の面積をアングル推定部425に供給する。顔方向検出部423は、入力画像から顔の方向を検出し、顔の方向をアングル推定部425に供給する。
奥行画像生成部424は、入力画像から奥行き画像を生成する。奥行き画像の生成方法としては、消失点および消失線の位置などの情報を利用した方法が採用される。この方法は、例えば、“Low complexity 3D depth map generation for stereo applications”, Cheng-An Chien, ICCE2011に記載されている。奥行画像生成部424は、奥行き画像の生成の際に利用した消失点および消失線の位置などの情報を、消失情報としてアングル推定部425に供給する。
アングル推定部425は、水平線検出部421からの水平線の位置、空面積検出部422からの空の領域の面積、顔方向検出部423からの顔の方向、および奥行画像生成部424からの消失情報に基づいて、カメラアングル画像推定情報を生成し、図26の決定部402に供給する。
(アングル推定部の構成例)
図28は、図27のアングル推定部425の構成例を示すブロック図である。
図28のアングル推定部425は、水平線解析部441、空面積解析部442、顔方向解析部443、消失点解析部444,およびアングル決定部445により構成される。
アングル推定部425の水平線解析部441は、水平線検出部421からの水平線の位置が画面の下側にあるほど、入力画像のカメラアングルがアオリ撮影に近いアングルであると判断し、仮想視点のディスプレイにおける垂直方向の位置をより下方向に設定する。
また、水平線解析部441は、水平線の位置が画面の上側にあるほど、入力画像のカメラアングルが俯瞰撮影に近いアングルであると判断し、仮想視点のディスプレイにおける垂直方向の位置をより上方向に設定する。水平線解析部441は、設定された仮想視点のディスプレイにおける垂直方向の位置を表す水平線ベース仮想視点情報をアングル決定部445に供給する。
空面積解析部442は、空面積検出部422から供給される空の領域の面積が大きいほど、入力画像のカメラアングルがアオリ撮影に近いアングルであると判断し、仮想視点のディスプレイにおける垂直方向の位置をより下方向に設定する。
また、空面積解析部442は、空の領域の面積が小さいほど、入力画像のカメラアングルが俯瞰撮影に近いアングルであると判断し、仮想視点のディスプレイにおける垂直方向の位置をより上方向に設定する。空面積解析部442は、設定された仮想視点のディスプレイにおける垂直方向の位置を表す空面積ベース仮想視点情報をアングル決定部445に供給する。
顔方向解析部443は、顔方向検出部423から供給される顔の方向が上方向に近いほど、入力画像のカメラアングルがアオリ撮影に近いアングルであると判断し、仮想視点のディスプレイにおける垂直方向の位置をより下方向に設定する。また、顔方向解析部443は、顔の方向が下方向に近いほど、入力画像のカメラアングルが俯瞰撮影に近いアングルであると判断し、仮想視点のディスプレイにおける垂直方向の位置をより上方向に設定する。顔方向解析部443は、設定された仮想視点のディスプレイにおける垂直方向の位置を表す顔方向ベース仮想視点情報をアングル決定部445に供給する。
消失点解析部444は、奥行画像生成部424から供給される消失情報に基づいて、下側に消失点がないほど、入力画像のカメラアングルがアオリ撮影に近いアングルであると判断し、仮想視点のディスプレイにおける垂直方向の位置をより下方向に設定する。また、消失点解析部444は、上側に消失点がないほど、入力画像のカメラアングルが俯瞰撮影に近いアングルであると判断し、仮想視点のディスプレイにおける垂直方向の位置をより上方向に設定する。顔方向解析部443は、設定された仮想視点のディスプレイにおける垂直方向の位置を表す消失点ベース仮想視点情報をアングル決定部445に供給する。
アングル決定部445は、水平線ベース仮想視点情報、空面積ベース仮想視点情報、顔方向ベース仮想視点情報、および消失点ベース仮想視点情報を用いて、以下の式(9)により、入力画像に基づく最終的な仮想視点のディスプレイにおける垂直方向の位置の推定値を算出する。
Figure 0006610535
式(9)において、All_xcは、入力画像に基づく最終的な仮想視点のディスプレイにおける垂直方向の位置の推定値である。また、Wg,Ws,Wh、およびWvは重み係数であり、解析部401で検出される水平線、空の領域、顔方向、消失点および消失線の確からしさなどを用いて決定される。この確からしさは、解析部401により決定され、決定部402に供給される。
また、式(9)において、G_xcは、水平線ベース仮想視点情報が表す位置(の座標)であり、S_xcは、空面積ベース仮想視点情報が表す位置(の座標)である。H_xcは、顔方向ベース仮想視点情報が表す位置(の座標)であり、V_xcは、消失点ベース仮想視点情報が表す位置(の座標)である。
式(9)によれば、位置All_xcは、水平線ベース仮想視点情報、空面積ベース仮想視点情報、顔方向ベース仮想視点情報、および消失点ベース仮想視点情報が表す位置(の座標)の加重平均である。アングル決定部445は、入力画像に基づく最終的な仮想視点のディスプレイにおける垂直方向の位置の推定値を表す情報を、カメラアングル画像推定情報として図26の決定部402に供給する。
(消失情報に基づく仮想視点のディスプレイにおける垂直方向の位置の決定の説明)
図29は、図28の消失点解析部444による消失情報に基づく仮想視点のディスプレイにおける垂直方向の位置の決定を説明する図である。
なお、図29において、V1乃至V3は入力画像内の消失点の位置を表している。
図29のAの透視構図では、消失点の位置V1乃至V3は入力画像の下側に存在しない。従って、消失情報が表す消失点の位置が図29のAの位置V1乃至V3である場合、消失点解析部444は、入力画像のカメラアングルがアオリ撮影に近いアングルであると判断し、仮想視点のディスプレイにおける垂直方向の位置を下方向に設定する。
また、図29のBの透視構図では、消失点の位置V1乃至V3は入力画像の上側に存在しない。従って、消失情報が表す消失点の位置が図29のBの位置V1乃至V3である場合、消失点解析部444は、入力画像のカメラアングルが俯瞰撮影に近いアングルであると判断し、仮想視点のディスプレイにおける垂直方向の位置を上方向に設定する。
(決定部の構成例)
図30は、図26の決定部402の構成例を示すブロック図である。
図30の決定部402は、分析部461、アングル決定部462、およびパラメータ決定部463により構成される。
決定部402の分析部461には、入力画像を撮影したカメラから、そのカメラに内蔵されているGPS(Global Positioning System)やジャイロセンサなどにより検出されたセンサ情報が入力される。分析部461は、そのセンサ情報に基づいて仮想視点のディスプレイにおける垂直方向の位置を、カメラアングルを表す情報として推定し、推定された位置を表すカメラアングルセンサ推定情報をアングル決定部462に供給する。
アングル決定部462は、図28のアングル決定部445から供給されるカメラアングル画像推定情報と、分析部461から供給されるカメラアングルセンサ推定情報とに基づいて、以下の式(10)によりカメラアングル情報を決定する。
Figure 0006610535
式(10)において、Final_xcは、カメラアングル情報が表す位置である。また、W_allは、重み係数であり、0以上1以下の値である。All_xcは、カメラアングル画像推定情報が表す位置であり、Sensor_xcは、カメラアングルセンサ推定情報が表す位置である。アングル決定部462は、カメラアングル情報をパラメータ決定部463に供給する。
パラメータ決定部463は、カメラアングル情報が表す位置をパラメータとして、図26の擬似画像生成部16に供給する。
このパラメータは、擬似画像生成部16による擬似撮影画像の生成時に用いられる。具体的には、擬似画像生成部16は、上述した式(6)と(7)の水平方向を垂直方向に代えた式を用いて、入力画像の各画素のディスプレイ上の垂直方向の位置をypとしたときの奥行き方向の位置Depth(yp)の被写体の画像のディスプレイ上の垂直方向の表示位置と、位置ypとの差分を生成する。そして、擬似画像生成部16は、その差分に基づいて、合成画像の各画素の画素値を移動して配置することにより、合成画像の被写体を入力画像の撮影位置より上または下の位置で撮影したときの撮影画像の予測値を擬似撮影画像として生成する。
(画像処理装置の処理の説明)
図31は、図26の画像処理装置400の処理を説明するフローチャートである。
図31のステップS41およびS42の処理は、図22のステップS11およびS12の処理と同様であるので、説明は省略する。
ステップS43において、解析部401は、入力画像から撮影時のカメラアングルを推定する。解析部401は、推定されたカメラアングルを表すカメラアングル画像推定情報を決定部402に供給する。
ステップS44において、決定部402は、外部からセンサ情報が入力されたかどうかを判定する。ステップS44で外部からセンサ情報が入力されたと判定された場合、処理はステップS45に進む。
ステップS45において、決定部402の分析部461(図30)は、外部から入力されたセンサ情報に基づいてカメラアングルを推定する。分析部461は、推定されたカメラアングルを表すカメラアングルセンサ推定情報をアングル決定部462に供給し、処理をステップS46に進める。
一方、ステップS44で外部からセンサ情報が入力されていないと判定された場合、処理はステップS46に進む。
ステップS46において、アングル決定部462は、解析部401から供給されるカメラアングル画像推定情報と、分析部461から供給されるカメラアングルセンサ推定情報とに基づいて、上述した式(10)によりカメラアングル情報を決定する。アングル決定部462は、カメラアングル情報をパラメータ決定部463に供給する。
ステップS47において、パラメータ決定部463は、アングル決定部462から供給されるカメラアングル情報に基づいて、カメラアングル情報が表す位置をパラメータに決定する。パラメータ決定部463は、パラメータを擬似画像生成部16に供給する。
ステップS48乃至S53の処理は、図22のステップS18乃至S23の処理と同様であるので、説明は省略する。
以上のように、画像処理装置400は、入力画像のカメラアングル情報に基づいて、入力画像の仮想視点を中心位置からよりずらすことにより擬似撮影画像を生成する。従って、擬似撮影画像では、入力画像に比べて、カメラアングルの構図がより強調され、撮影者の意図がより認識されやすくなる。
<第3実施の形態>
(画像処理装置の第3実施の形態の構成例)
図32は、本開示を適用した画像処理装置の第3実施の形態の構成例を示すブロック図である。
図32の画像処理装置500は、解析部501、決定部502、中心生成部503、周辺生成部504、および合成部505により構成される。画像処理装置500は、入力画像の特徴に基づくサイズの画像を画面の所定の領域(以下、画面中心領域という)に配置し、画面中心領域の周辺の領域(以下、画面周辺領域という)を外挿補間することにより、広視野画像を生成する。
具体的には、画像処理装置500の解析部501は、入力画像に関する情報に基づいて、入力画像から、入力画像の特徴として所定の領域を抽出する。解析部501は、抽出された所定の領域に基づいて、重要度マップを生成し、撮影画角を推定する。解析部501は、重要度マップと撮影画角を決定部502に供給する。
決定部502は、外部から入力される重要度マップ用の属性信号と解析部501から供給される重要度マップとに基づいて、最終的な重要度マップを決定する。また、決定部502は、撮影画角用の属性信号と解析部501から供給される撮影画角とに基づいて、最終的な撮影画角を決定する。
決定部502は、最終的な重要度マップ、撮影画角、および外部から入力される視聴環境に関する情報である視聴環境情報に基づいて、画面中心領域を決定する。視聴環境情報とは、外部センサやユーザ入力により設定された、実際の視点と広視野画像を表示するディスプレイとの距離である実視距離、ディスプレイのサイズなどである。決定部502は、画面中心領域の位置およびサイズを特定する画面中心領域情報を中心生成部503と周辺生成部504に供給する。
中心生成部503は、入力画像のサイズが、決定部502から供給される画面中心領域情報により特定される画面中心領域のサイズになるように、入力画像をスケーリング処理し、画面中心領域の画像を生成する。中心生成部503は、生成された画面中心領域の画像を合成部505と周辺生成部504に供給する。
周辺生成部504は、決定部502から供給される画面中心領域情報に基づいて、その画面中心領域情報により特定される画面中心領域の周辺の、画面中心領域と内側が重なる領域を、画面周辺領域として決定する。周辺生成部504は、中心生成部503から供給される画面中心領域の画像、および、外部から入力される画像を用いて画面周辺領域の画像を外挿補間し、合成部505に供給する。
合成部505は、中心生成部503からの画面中心領域の画像と周辺生成部504からの画面周辺領域の画像を合成し、その結果生成される合成画像を広視野画像として出力する。
なお、撮影画角は、水平方向および垂直方向の両方について決定されるが、説明を簡単にするため、以下では、水平方向の撮影画角のみが決定されるものとする。垂直方向の撮影画角は、水平方向の撮影画角と同様に決定される。
(解析部の構成例)
図33は、図32の解析部501の構成例を示すブロック図である。
図33に示す構成のうち、図12の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
図32の解析部501は、顔検出部192、人物検出部193、顕著度検出部194、奥行き画像生成部521、オブジェクト検出部522、パース検出部523、背景計測部524、および重要領域推定部525、および撮影画角推定部526により構成される。
奥行き画像生成部521は、消失点および消失線の位置などの情報を利用した方法で、入力画像から奥行き画像を生成し、背景計測部524および撮影画角推定部526に供給する。また、奥行き画像生成部521は、奥行き画像の生成の際に利用した消失点および消失線の位置などの情報を、消失情報としてパース検出部523に供給する。
オブジェクト検出部522は、物体認識処理により、入力画像から各種のオブジェクト(物体)を抽出する。オブジェクト検出部522は、抽出された各オブジェクトのサイズの相関が、想定される相関に近いほど高くなるように、オブジェクトの確からしさを決定する。
例えば、オブジェクト検出部522は、オブジェクトとして抽出された犬や猫のサイズが人のサイズより小さいとき、犬や猫と人のオブジェクトの確からしさを比較的大きい値に決定する。また、オブジェクトとして抽出されたビル、森、山などのサイズが人のサイズより大きいとき、ビル、森、山などと人のオブジェクトの確からしさを比較的大きい値に決定する。
オブジェクト検出部522は、オブジェクトごとに、各画素のオブジェクトの確からしさを表す0乃至255の値を画素値とする画像をオブジェクトマップとして生成する。ここでは、オブジェクトマップの画素値が大きいほど、オブジェクトの確からしさが高いものとする。オブジェクト検出部522は、生成されたオブジェクトマップを重要領域推定部525および撮影画角推定部526に供給する。
パース検出部523は、奥行き画像生成部521から供給される消失情報からパース強度を生成する。具体的には、パース検出部523は、消失情報に基づいて、消失点や消失線を1点透視、2点透視、または3点透視というタイプに分類する。そして、パース検出部523は、タイプごとに、消失点が画面の中央の近くに存在するほど大きくなるように、パース強度を決定する。これにより、消失点が画面中央から離れた場合、例えば消失点が画面外に存在する場合、パース強度は低くなる。パース検出部523は、パース強度を撮影画角推定部526に供給する。
背景計測部524は、奥行き画像生成部521から供給される奥行き画像に基づいて、被写体の奥行き方向の位置が奥側である画素の領域を背景領域に決定する。背景計測部524は、入力画像の背景領域の帯域分布が高域まで伸びているかどうかを判定する。例えば、背景計測部524は、入力画像の背景領域が、高域信号が比較的アップコンバートされた画像であるかどうかを判定する。この判定方法の詳細は、例えば、特許第5056242号に記載されている。
なお、背景計測部524は、フーリエ変換などの周波数変換を行い、係数が高域まで含まれているかどうかを判定することにより、入力画像の背景領域の帯域分布が高域まで伸びているかどうかを判定するようにしてもよい。背景計測部524は、判定結果に応じて帯域分布が伸びている高域のレベルを表す背景部精細度信号を生成し、撮影画角推定部526に供給する。
重要領域推定部525は、顔検出部192からの顔マップ、人物検出部193からの人物マップ、顕著度検出部194からの被写体マップ、およびオブジェクト検出部522からのオブジェクトマップに基づいて、重要度マップを生成する。重要度マップの生成方法は、字幕テロップマップの代わりにオブジェクトマップを用いる点を除いて、図12の推定部195における生成方法と同一である。重要領域推定部525は、生成した重要度マップを図32の決定部502に供給する。
撮影画角推定部526は、奥行き画像、顔マップ、人物マップ、オブジェクトマップ、パース強度、および背景部精細度信号を用いて、撮影画角を推定する。撮影画角推定部526は、推定された撮影画角を決定部502に供給する。
(撮影画角推定部の構成例)
図34は、図33の撮影画角推定部526の構成例を示すブロック図である。
図34の撮影画角推定部526は、顔決定部541、人物決定部542、オブジェクト決定部543、および撮影画角変換部544により構成される。
撮影画角推定部526の顔決定部541は、図33の顔検出部192から供給される顔マップに基づいて、奥行き画像生成部521から供給される奥行き画像の顔領域の画素値を抽出する。顔決定部541は、抽出された奥行き画像の顔領域の画素値に基づく閾値と顔領域のサイズとを比較することにより、顔領域のパース強度を決定する。顔決定部541は、決定されたパース強度を顔ベースパース強度として撮影画角変換部544に供給する。
人物決定部542は、人物検出部193から供給される人物マップに基づいて、奥行き画像生成部521から供給される奥行き画像の人物領域の画素値を抽出する。人物決定部542は、抽出された奥行き画像の人物領域の画素値に基づく閾値と人物領域のサイズとを比較することにより、人物領域のパース強度を決定する。人物決定部542は、決定されたパース強度を人物ベースパース強度として撮影画角変換部544に供給する。
オブジェクト決定部543は、オブジェクトごとに、顕著度検出部194から供給されるオブジェクトマップに基づいて、奥行き画像生成部521から供給される奥行き画像のオブジェクト領域の画素値を抽出する。オブジェクト決定部543は、オブジェクトごとに、抽出された奥行き画像のオブジェクト領域の画素値に基づく閾値とオブジェクト領域のサイズとを比較することにより、オブジェクト領域のパース強度を決定する。オブジェクト決定部543は、オブジェクトごとに、決定されたパース強度をオブジェクトベースパース強度として撮影画角変換部544に供給する。
撮影画角変換部544は、顔決定部541からの顔ベースパース強度、人物決定部542からの人物ベースパース強度、オブジェクト決定部543からのオブジェクトベースパース強度、およびパース検出部523からのパース強度に基づいて、以下の式(11)により、総合パース強度を算出する。
Figure 0006610535
式(11)において、All_Persは統合パース強度であり、F_Persは顔ベースパース強度であり、H_Persは人物ベースパース強度である。また、O_Persは各オブジェクトのオブジェクトベースパース強度であり、V_Persはパース強度である。さらに、Wf,Wh,Wo,Wvは、重み係数である。Wf,Wh,Woは、対応する領域(顔領域、人物領域、オブジェクト領域)の個数やマップ(顔マップ、人物マップ、オブジェクトマップ)の画素値に基づく領域の確からしさなどを用いて決定される。また、Wvは、消失情報が表す消失点や消失線の個数などを用いて決定される。
式(11)によれば、統合パース強度は、顔ベースパース強度、人物ベースパース強度、オブジェクトベースパース強度、およびパース強度の加重平均である。
また、撮影画角変換部544は、統合パース強度に基づいて撮影画角を推定し、推定された撮影画角をパース強度ベース撮影画角とする。また、撮影画角変換部544は、図33の背景計測部524から供給される背景部精細度信号に基づいて撮影画角を推定し、推定された撮影画角を被写界深度ベース撮影画角とする。
そして、撮影画角変換部544は、パース強度ベース撮影画角と被写界深度ベース撮影画角とに基づいて、以下の式(12)により入力画像の特徴に基づく撮影画角の最終的な推定値を決定する。
Figure 0006610535
式(12)において、Est_angleは入力画像の特徴に基づく撮影画角の最終的な推定値であり、P_angleはパース強度ベース撮影画角であり、B_angleは被写界深度ベース撮影画角である。また、Wp,Wbは、重み係数である。
式(12)によれば、入力画像の特徴に基づく撮影画角の最終的な推定値は、パース強度ベース撮影画角と被写界深度ベース撮影画角の加重平均である。撮影画角変換部544は、決定された撮影画角(入力画像の特徴に基づく撮影画角の最終的な推定値)を図32の決定部502に供給する。
(顔ベースパース強度の説明)
図35は、顔ベースパース強度を説明する図である。
図35において、横軸は、奥行き画像の顔領域の画素値が表す被写体の奥行き方向の位置を表し、縦軸は、その顔領域のサイズを表す。
顔決定部541は、奥行き方向の位置が奥側であるほど所定の傾きで小さくなる閾値に基づいて、顔領域の奥行き方向の位置が奥側である場合、顔領域の奥行き方向の位置が、その閾値より小さいほど大きくなり、大きいほど小さくなるように顔ベースパース強度を決定する。一方、顔領域の奥行き方向の位置が手前側である場合、顔決定部541は、顔領域の奥行き方向の位置が、閾値より大きいほど大きくなり、小さいほど小さくなるように顔ベースパース強度を決定する。
従って、顔ベースパース強度が大きい場合、顔領域の奥行き方向の位置とサイズの関係を示す直線は、例えば、図35の実線で示すように、傾きが比較的大きくなる。また、顔ベースパース強度が小さい場合、顔領域の奥行き方向の位置とサイズの関係を示す直線は、例えば、図35の点線で示すように、傾きが比較的小さくなる。
撮影画角が大きいほど、手前側と奥側に存在する顔の大きさの差は大きくなる。即ち、撮影画角が大きいほど、顔領域の奥行き方向の位置とサイズの関係を示す直線の傾きは大きくなる。従って、上述したように顔ベースパース強度が決定されることにより、広角撮影された入力画像の顔領域ほど、顔ベースパース強度が大きくなる。
(人物ベースパース強度の説明)
図36は、人物ベースパース強度を説明する図である。
図36において、横軸は、奥行き画像の人物領域の画素値が表す被写体の奥行き方向の位置を表し、縦軸は、その人物領域のサイズを表す。
人物決定部542は、奥行き方向の位置が奥側であるほど所定の傾きで小さくなる閾値に基づいて、人物領域の奥行き方向の位置が奥側である場合、人物領域の奥行き方向の位置が、その閾値より小さいほど大きくなり、大きいほど小さくなるように人物ベースパース強度を決定する。一方、人物領域の奥行き方向の位置が手前側である場合、人物決定部542は、人物領域の奥行き方向の位置が、閾値より大きいほど大きくなり、小さいほど小さくなるように人物ベースパース強度を決定する。
従って、人物ベースパース強度が大きい場合、人物領域の奥行き方向の位置とサイズの関係を示す直線は、例えば、図36の実線で示すように、傾きが比較的大きくなる。また、人物ベースパース強度が小さい場合、人物領域の奥行き方向の位置とサイズの関係の直線は、例えば、図36の点線で示すように、傾きが比較的小さくなる。
撮影画角が大きいほど、手前側と奥側に存在する人物の大きさの差は大きくなる。即ち、撮影画角が大きいほど、人物領域の奥行き方向の位置とサイズの関係を示す直線の傾きは大きくなる。従って、上述したように人物ベースパース強度が決定されることにより、広角撮影された入力画像の人物領域ほど、人物ベースパース強度が大きくなる。
(オブジェクトベースパース強度の説明)
図37は、オブジェクトベースパース強度を説明する図である。
図37において、横軸は、奥行き画像のオブジェクト領域の画素値が表す被写体の奥行き方向の位置を表し、縦軸は、そのオブジェクト領域のサイズを表す。
オブジェクト決定部543は、オブジェクトごとに、奥行き方向の位置が奥側であるほど所定の傾きで小さくなる閾値に基づいて、オブジェクト領域の奥行き方向の位置が奥側である場合、オブジェクト領域の奥行き方向の位置が、その閾値より小さいほど大きくなり、大きいほど小さくなるようにオブジェクトベースパース強度を決定する。
一方、オブジェクト領域の奥行き方向の位置が手前側である場合、オブジェクト決定部543は、オブジェクト領域の奥行き方向の位置が、閾値より大きいほど大きくなり、小さいほど小さくなるようにオブジェクトベースパース強度を決定する。
従って、オブジェクトベースパース強度が大きい場合、オブジェクト領域の奥行き方向の位置とサイズの関係を示す直線は、例えば、図37の実線で示すように、傾きが比較的大きくなる。また、オブジェクトベースパース強度が小さい場合、オブジェクト領域の奥行き方向の位置とサイズの関係を示す直線は、例えば、図37の点線で示すように、傾きが比較的小さくなる。
撮影画角が大きいほど、手前側と奥側に存在するオブジェクトの大きさの差は大きくなる。即ち、撮影画角が大きいほど、オブジェクト領域の奥行き方向の位置とサイズの関係を示す直線の傾きは大きくなる。従って、上述したようにオブジェクトベースパース強度が決定されることにより、広角撮影された入力画像のオブジェクト領域ほど、オブジェクトベースパース強度が大きくなる。
(パース強度ベース撮影画角の説明)
図38は、パース強度ベース撮影画角を説明する図である。
図38において、横軸は、統合パース強度を表し、縦軸は、その統合パース強度に基づいて決定されるパース強度ベース撮影画角を表している。
撮影画角変換部544は、統合パース強度が大きいほど、広角撮影である、即ち撮影画角が大きいと推定する。従って、図38に示すように、統合パース強度が大きいほど大きくなるようにパース強度ベース撮影画角が決定される。
(被写界深度ベース撮影画角の説明)
図39は、被写界深度ベース撮影画角を説明する図である。
図39において、横軸は、背景部精細度信号を表し、縦軸は、その背景部精細度信号に基づいて決定される被写界深度ベース撮影画角を表している。
撮影画角変換部544は、背景部精細度信号が大きいほど、即ち背景がぼけていないほど、撮影画角が大きいと推定する。従って、図39に示すように、背景部精細度信号が大きいほど大きくなるように被写界深度ベース撮影画角が設定される。
(決定部の構成例)
図40は、図32の決定部502の構成例を示すブロック図である。
図40に示す構成のうち、図14の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
図40の決定部502は、分析部211、重要領域決定部212、分析部561、撮影画角決定部562、および領域決定部563により構成される。
決定部502の分析部561は、外部から撮影画角用の属性信号として入力される、入力画像の撮影時の焦点距離とイメージセンサのサイズに基づいて、撮影画角を決定する。なお、分析部561は、外部からJPEG(Joint Photographic Experts Group)のExif情報などを取得することにより撮影画角を設定してもよい。分析部561は、撮影画角を撮影画角決定部562に供給する。
撮影画角決定部562は、図34の撮影画角変換部544から供給される撮影画角と、分析部561から供給される撮影画角とに基づいて、以下の式(13)により最終的な撮影画角を決定する。
Figure 0006610535
式(13)において、Final_angleは、最終的な撮影画角であり、Est_angleは、撮影画角変換部544から供給される撮影画角であり、Meta_angleは分析部561から供給される撮影画角である。また、W_estは、重み係数を表し、0以上1以下の値である。撮影画角決定部562は、最終的な撮影画角を領域決定部563に供給する。
領域決定部563は、外部から入力される観視環境情報に含まれる実視距離とディスプレイのサイズに基づいて観視画角を求める。領域決定部563は、観視画角、撮影画角決定部562から供給される最終的な撮影画角、および重要領域決定部212により生成される最終的な重要領域情報に基づいて、縦横比が画面と同一である画面内の所定の位置の所定のサイズの領域を画面中心領域に決定する。
具体的には、領域決定部563は、画面中心領域の撮影画角が観視画角と同一になるように、画面に対する画面中心領域の比率である画面相対比を決定する。また、最終的な重要領域情報が表す重要領域が、観視者の中心視野内に収まるように、画面中心領域の位置を決定する。領域決定部563は、画面相対比と画面中心領域の位置を表す情報を、画面中心領域情報として、図32の中心生成部503と周辺生成部504に供給する。これにより、画面中心領域の撮影画角が観視画角と同一になる撮影画角で撮影したときの撮影画像の予測値である擬似撮影画像が画面中心領域の画像として生成される。
(属性信号に基づく撮影画角の決定方法)
図41は、図40の分析部561における撮影画角の決定方法を説明する図である。
図41に示すように、イメージセンサ582が、被写体581を撮影して入力画像を生成する場合、入力画像の撮影画角θ、イメージセンサ582のサイズx、および撮影時の焦点距離fの関係は、以下の式(14)で表される。
Figure 0006610535
従って、分析部561は、撮影画角用の属性信号として入力される入力画像の撮影時の焦点距離fとイメージセンサのサイズxに基づいて、以下の式(15)により、撮影画角θを求める。
Figure 0006610535
(中心生成部の構成例)
図42は、図32の中心生成部503の構成例を示すブロック図である。
図42の中心生成部503は、設定部601とスケーリング部602により構成される。
中心生成部503の設定部601は、図40の領域決定部563から供給される画面中心領域情報に含まれる画面相対比に基づいて、以下の式(16)によりスケール率を設定し、スケーリング部602に供給する。
Figure 0006610535
式(16)において、Scaleは、スケール率であり、W_disp,H_dispは、それぞれ、画面の横方向(水平方向)のサイズ、縦方向(垂直方向)のサイズである。また、CentralPartRatioは、画面相対比であり、W_in,H_inは、それぞれ、入力画像の水平方向のサイズ、垂直方向のサイズである。
スケーリング部602は、設定部601から供給されるスケール率に基づいて、入力画像のサイズが画面中心領域のサイズになるように、入力画像をスケーリング処理する。スケール率が1より大きい場合、スケーリング処理は拡大処理となるが、この拡大処理としては、例えば、バイリニア補間技術、バイキュービック補間技術、ランチョス補間技術、いわゆる超解像技術などを用いることができる。
スケーリング部602は、スケーリング処理後の入力画像を画面中心領域の画像として図32の周辺生成部504と合成部505に供給する。
(周辺生成部の構成例)
図43は、図32の周辺生成部504の構成例を示すブロック図である。
図32の周辺生成部504は、設定部621、外挿部622、および調整部623により構成される。
周辺生成部504の設定部621は、図40の領域決定部563から供給される画面中心領域情報に基づいて画面周辺領域を決定する。そして、設定部621は、画面周辺領域を特定する画面周辺領域情報を外挿部622と調整部623に供給する。
外挿部622は、設定部621から供給される画面周辺領域情報により特定される画面周辺領域の画像を、図42のスケーリング部602から供給される画面中心領域の画像、および、外部から供給される画像を用いて、外挿補間を行うことにより生成する。なお、外挿部622における外挿補間の方式としては、図2の外挿部31における方式と同様の方式を用いることができる。
また、外部から供給される画像としては、例えば、外部記録媒体上の画像、ネットワーク上の画像、CG(Computer Graphics)データベースの画像がある。外挿補間の方式としてマッチング方式が採用される場合、外挿部622は、外部から供給される画像のうちの、画像、撮影位置、撮影日時などについて入力画像との類似度が高い画像を参照して外挿補間を行う。
このように、外挿部622は、画面中心領域の画像だけでなく、外部から供給される画像も用いて外挿補間を行う。従って、外挿部622は、入力画像だけでは外挿予測が難しいシーンの入力画像に対しても、画像、撮影位置、撮影日時などが類似する画像を用いることにより、外挿予測を行うことができる。また、画面周辺領域の画像が、森や芝生などの典型的なテクスチャである場合、CGデータベースの画像を用いて外挿補間を行うことにより、画面周辺領域の画像の画質を向上させることができる。
外挿部622は、外挿補間により生成された画面周辺領域の画像を調整部623に供給する。また、外挿部622は、外挿補間結果の確からしさを示す外挿信頼度を生成する。例えば、外挿部622は、外挿補間におけるマッチングの精度を0以上1以下の値で表し、外挿信頼度とする。外挿部622は、外挿信頼度を調整部623に供給する。
調整部623は、外挿部622から供給される外挿信頼度に基づいて、画面周辺領域の画像を調整し、調整後の画面周辺領域の画像を図32の合成部505に供給する。
なお、ここでは、外挿部622は、画面中心領域の画像と外部から供給される画像のうちの類似度の高い画像を用いて外挿補間を行うものとするが、外挿部622は、外部から供給される、広視野画像を表示するディスプレイの背後の壁の撮影画像を用いて外挿補間を行うようにしてもよい。
図44のAに示すように、画面中心領域の画像と外部から供給される画像のうちの類似度の高い画像を用いて外挿補間が行われる場合、ディスプレイ641には、画面中心領域651Aと画面周辺領域651Bの絵柄がつながった広視野画像651が表示される。従って、観視者は、ディスプレイ641の画面サイズの広視野画像651を観視することができる。
これに対して、図44のBに示すように、外部から供給されるディスプレイ641の背後の壁642の撮影画像を用いて外挿補間が行われる場合、ディスプレイ641には、画面中心領域651Aとディスプレイ641の背後の壁642の画像が配置される画面周辺領域652Bとからなる広視野画像652が表示される。従って、画面周辺領域652Bの画像と壁642が一体化し、観視者は、あたかも画面中心領域651Aの画像を小窓を介して遠くから観視しているように感じる。よって、広視野画像の実物感や臨場感が向上する。
なお、外挿部622は、画面中心領域の画像のみを用いて外挿補間を行うようにしてもよい。
(画像処理装置の処理の説明)
図45は、図32の画像処理装置500の画像処理を説明するフローチャートである。
図45のステップS71乃至S73の処理は、図22のステップS11乃至S13の処理と同様であるので、説明は省略する。
ステップS74において、解析部501は、撮影画角を推定する。ステップS75において、決定部502は、外部から重要度マップ用の属性信号が入力されたかどうかを判定する。ステップS75で重要度マップ用の属性信号が入力されたと判定された場合、処理はステップS76に進む。
ステップS76において、決定部502の分析部211(図40)は、外部から重要度マップ用の属性信号として入力されるEPGの番組ジャンル情報等に基づいて、重要度マップを生成する。分析部211は、生成された重要度マップを重要領域決定部212に供給し、処理をステップS77に進む。
一方、ステップS75で重要度マップ用の属性信号が入力されていないと判定された場合、処理はステップS77に進む。
ステップS77において、重要領域決定部212は、解析部501からの重要度マップと分析部211により生成された重要度マップに基づいて最終的な重要度マップを決定する。重要領域決定部212は、重要度マップに基づいて重要領域情報を生成し、領域決定部563に供給する。
ステップS78において、決定部502は、外部から撮影画角用の属性信号が入力されたかどうかを判定する。ステップS78で撮影画角用の属性信号が入力されたと判定された場合、処理はステップS79に進む。
ステップS79において、決定部502の分析部561(図40)は、外部から撮影画角用の属性信号に基づいて、撮影画角を決定する。分析部561は、撮影画角を撮影画角決定部562に供給し、処理をステップS80に進める。
一方、ステップS78で撮影画角用の属性信号が入力されていないと判定された場合、処理はステップS80に進む。
ステップS80において、撮影画角決定部562は、解析部501から供給される撮影画角と、分析部561から供給される撮影画角とに基づいて、最終的な撮影画角を決定する。撮影画角決定部562は、最終的な撮影画角を領域決定部563に供給する。
ステップS81において、領域決定部563は、観視画角、最終的な重要領域情報、および最終的な撮影画角に基づいて、画面中心領域を決定する。なお、観視画角は、外部から入力される観視環境情報に基づいて求められる。領域決定部563は、画面相対比と画面中心領域の位置を表す情報を、画面中心領域情報として、中心生成部503と周辺生成部504に供給する。
ステップS82において、中心生成部503は、決定部502からの画面中心領域情報に基づいて入力画像をスケーリング処理し、画面中心領域の画像を生成する画面中心領域生成処理を行う。中心生成部503は、生成された画面中心領域の画像を周辺生成部504と合成部505に供給する。
ステップS83において、周辺生成部504は、決定部502からの画面中心領域情報に基づいて画面周辺領域生成処理を行う。画面周辺領域生成処理は、画面中心領域情報に基づいて、画面中心領域の画像または外部から供給される画像を用いて外挿補間を行うことにより画面周辺領域の画像を生成し、外挿信頼度に基づいて調整する処理である。周辺生成部504は、調整後の画面周辺領域の画像を合成部505に供給する。
ステップS84において、合成部505は、中心生成部503からの画面中心領域の画像と周辺生成部504からの画面周辺領域の画像を合成する合成処理を行う。ステップS85において、合成部505は、合成処理の結果得られる合成画像を広視野画像として出力する。
ステップS86において、画像処理装置500は、画像が新たに入力されたかどうかを判定する。ステップS86で画像が新たに入力されたと判定された場合、処理はステップS72に戻り、画像が新たに入力されなくなるまで、ステップS72乃至S86の処理が繰り返される。
一方、ステップS86で画像が新たに入力されていないと判定された場合、処理は終了する。
以上のように、画像処理装置500は、入力画像と奥行き画像に基づいて、入力画像の撮影画角を推定する。そして、画像処理装置500は、推定された撮影画角と擬似撮影画像の観視画角に基づいて、入力画像から、観視画角と同一の撮影画角で撮影したときの撮影画像の予測値を擬似撮影画像として生成する。従って、奥行き画像を用いて入力画像の撮影方法を擬似的に変更することができる。
<効果の説明>
図46は、画像処理装置10、画像処理装置400、および画像処理装置500による効果を説明する図である。
図46に示すように、画像処理装置10は、重要領域が中心視野内に収まるように、入力画像の仮想視点の位置を水平方向または垂直方向に移動させながら、擬似撮影画像を生成する。この擬似撮影画像は、合成画像の被写体をトラック撮影したときの運動視差を有する画像である。従って、この擬似撮影画像は、合成画像の被写体を擬似的にトラック撮影した擬似トラック撮影画像であるといえる。
擬似トラック撮影画像では、入力画像に比べて、臨場感、視認性、および奥行き感が向上する。例えば、擬似トラック撮影画像が、合成画像の被写体を擬似的に水平方向にトラック撮影した画像である場合、電車から外の景色を観視するときのように水平方向に運動視差が発生するため、奥行き感が向上する。
また、画像処理装置10は、重要領域が中心視野内に収まり、重要領域の中心視野内の占有率が閾値以上となるように、入力画像の仮想視距離を前進移動させながら、擬似撮影画像を生成する。この擬似撮影画像は、合成画像の被写体をドリーイン撮影したときの運動視差を有する画像である。従って、この擬似撮影画像は、合成画像の被写体を擬似的にドリーイン撮影した擬似ドリーイン撮影画像であるといえる。
擬似ドリーイン撮影画像では、入力画像に比べて、臨場感、視認性、および奥行き感が向上する。例えば、小さくて見にくい重要領域を前に近づいて観視するときのように運動視差が発生するため、奥行き感が向上する。
さらに、画像処理装置10は、重要領域が中心視野内に収まるように、入力画像の仮想視距離を後進移動させながら、擬似撮影画像を生成する。この擬似撮影画像は、合成画像の被写体をドリーアウト撮影したときの運動視差を有する画像である。従って、この擬似撮影画像は、合成画像の被写体を擬似的にドリーアウト撮影した擬似ドリーアウト撮影画像であるといえる。
擬似ドリーアウト撮影画像では、入力画像に比べて、臨場感、視認性、および奥行き感が向上する。例えば、近づきすぎて見にくい重要領域を後ろに下がって観視するときのように運動視差が発生するため、奥行き感が向上する。
画像処理装置500は、観視画角が撮影画角より大きい場合、観視画角と撮影画角が同一になるように、入力画像を縮小することにより、撮影画角と観視画角が同一である広視野画像を生成する。これにより、例えば、撮影者が撮影位置から観視したシーンを、広視野画像を観視する観視者に観視させることができる。
従って、このような広視野画像では、入力画像に比べて、臨場感と実物感が向上する。例えば、入力画像が望遠撮影された場合、被写体から遠く離れた撮影者の撮影位置から観視したシーンの画像を広視野画像として観視者に観視させ、臨場感と実物感を向上させることができる。
また、画像処理装置500は、観視画角が撮影画角より小さい場合、観視画角と撮影画角が同一になるように、入力画像を拡大することにより、撮影画角と観視画角が同一である広視野画像を生成する。これにより、例えば、撮影者が撮影位置から観視したシーンを、広視野画像を観視する観視者に観視させることができる。
従って、このような広視野画像では、入力画像に比べて、臨場感、実物感、および視認性が向上する。例えば、入力画像が広角撮影された場合、被写体の近くに寄っている撮影者の撮影位置から観視したシーンの画像を広視野画像として観視者に観視させ、臨場感、実物感、および視認性を向上させることができる。
画像処理装置400は、入力画像の撮影時のカメラアングルに基づいて、そのカメラアングルを強調するように仮想視点の位置を変更して、擬似撮影画像を生成する。この擬似撮影画像は、入力画像に比べてカメラアングルをより強調して、合成画像の被写体を撮影したときの撮影画像の予測値である。従って、この擬似撮影画像は、合成画像の被写体を擬似的にカメラアングルを強調して撮影した擬似カメラアングル撮影画像であるといえる。
擬似カメラアングル撮影画像では、撮影者が意図した構図の印象を強めることができるため、入力画像に比べてシーンの印象度が向上する。
画像処理装置10はまた、重要領域が中心視野内に収まるように、入力画像のスケーリング率を増加させながら、重要領域の手前側と奥側の領域の画素値を平滑化することにより、擬似撮影画像を生成する。この擬似撮影画像は、合成画像の被写体をズームイン撮影したときの狭角の撮影画角と浅い被写界深度を有する画像である。従って、この擬似撮影画像は、合成画像の被写体を擬似的にズームイン撮影した擬似ズームイン撮影画像であるといえる。
擬似ズームイン撮影画像では、入力画像に比べて、視認性と奥行き感が向上する。即ち、合成画像内の小さくて見づらい重要領域をズームイン撮影したときのように視認性と奥行き感が向上する。
また、画像処理装置10は、重要領域が中心視野内に収まるように、入力画像のスケーリング率を減少させながら、ボケ領域に対してデブラー処理を行うことにより、擬似撮影画像を生成する。この擬似撮影画像は、合成画像の被写体をズームアウト撮影したときの広角の撮影画角と深い被写界深度を有する画像である。従って、この擬似撮影画像は、合成画像の被写体を擬似的にズームイン撮影した擬似ズームイン撮影画像であるといえる。
擬似ズームアウト撮影画像では、入力画像に比べて視認性が向上する。即ち、合成画像の被写体を広角撮影したときのように被写界深度が深くなり、視認性が向上する。
さらに、画像処理装置10は、重要領域が中心視野内に収まるように、入力画像の視線方向の角度を変更しながら、擬似撮影画像を生成する。この擬似撮影画像は、合成画像の被写体をパニング(チルト)撮影したときの撮影画像の予測値である。従って、この擬似撮影画像は、合成画像の被写体を擬似的にパニング(チルト)撮影した擬似パニング(チルト)撮影画像であるといえる。
擬似パニング(チルト)撮影画像では、入力画像に比べて視認性が向上する。例えば、入力画像が広角パノラマ画像である場合、入力画像の被写体の周囲を回転して撮影したときのように、視認性が向上する。
なお、撮影画角と観視画角が同一である広視野画像の生成時、および、擬似パニング(チルト)撮影画像の生成時には、奥行き画像は用いられなくてもよい。また、擬似カメラアングル撮影画像の生成時、消失情報は用いられなくてもよい。
<第4実施の形態>
(本開示を適用したコンピュータの説明)
上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
図47は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。
コンピュータ900において、CPU(Central Processing Unit)901,ROM(Read Only Memory)902,RAM(Random Access Memory)903は、バス904により相互に接続されている。
バス904には、さらに、入出力インタフェース905が接続されている。入出力インタフェース905には、入力部906、出力部907、記憶部908、通信部909、及びドライブ910が接続されている。
入力部906は、キーボード、マウス、マイクロフォンなどよりなる。出力部907は、ディスプレイ、スピーカなどよりなる。記憶部908は、ハードディスクや不揮発性のメモリなどよりなる。通信部909は、ネットワークインタフェースなどよりなる。ドライブ910は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア911を駆動する。
以上のように構成されるコンピュータ900では、CPU901が、例えば、記憶部908に記憶されているプログラムを、入出力インタフェース905及びバス904を介して、RAM903にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ900(CPU901)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア911に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
コンピュータ900では、プログラムは、リムーバブルメディア911をドライブ910に装着することにより、入出力インタフェース905を介して、記憶部908にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部909で受信し、記憶部908にインストールすることができる。その他、プログラムは、ROM902や記憶部908に、あらかじめインストールしておくことができる。
なお、コンピュータ900が実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
また、本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
さらに、本開示の実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、本開示は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
また、本開示は、以下のような構成もとることができる。
(1)
画像の特徴に基づいて決定されたパラメータの値と前記画像の被写体の奥行き方向の位置を表す奥行き画像とに基づいて、前記画像から、所定の撮影方法で前記被写体を撮影した撮影画像の予測値を擬似撮影画像として生成する擬似画像生成部
を備える画像処理装置。
(2)
前記値は、前記画像の重要領域が、前記擬似撮影画像を観視する観視者の中心視野内に収まるように決定される
ように構成された
前記(1)に記載の画像処理装置。
(3)
前記擬似画像生成部は、前記パラメータの値を、所定値から、決定された前記値に段階的に変更し、変更後の前記値と前記奥行き画像に基づいて前記擬似撮影画像を生成する
ように構成された
前記(2)に記載の画像処理装置。
(4)
前記パラメータは、前記擬似撮影画像の仮想視点の位置であり、
前記所定の撮影方法は、トラック撮影である
ように構成された
前記(3)に記載の画像処理装置。
(5)
前記パラメータは、前記擬似撮影画像の仮想視距離であり、
前記所定の撮影方法は、ドリーイン撮影またはドリーアウト撮影である
ように構成された
前記(3)または(4)に記載の画像処理装置。
(6)
前記パラメータは、前記画像のスケーリング率であり、
前記所定の撮影方法は、ズームイン撮影またはズームアウト撮影である
ように構成された
前記(3)乃至(5)のいずれかに記載の画像処理装置。
(7)
前記所定の撮影方法に基づいて、前記擬似画像生成部により生成された前記擬似撮影画像の被写界深度を調整する調整部
をさらに備える
前記(6)に記載の画像処理装置。
(8)
前記調整部は、前記所定の撮影方法がズームイン撮影である場合、前記擬似撮影画像の前記重要領域の前記被写体の奥行き方向の位置よりも手前側と奥側の前記被写体の領域を平滑化することにより、前記被写界深度を調整する
ように構成された
前記(7)に記載の画像処理装置。
(9)
前記調整部は、前記所定の撮影方法がズームアウト撮影である場合、前記擬似撮影画像のボケ領域に対してデブラー処理を行うことにより、前記被写界深度を調整する
ように構成された
前記(7)または(8)に記載の画像処理装置。
(10)
前記パラメータは、前記擬似撮影画像の視線方向の角度であり、
前記所定の撮影方法は、パニング撮影またはチルト撮影である
ように構成された
前記(3)乃至(9)に記載の画像処理装置。
(11)
前記パラメータは、前記擬似撮影画像の仮想視点の位置であり、
前記所定の撮影方法は、前記画像の撮影位置より上または下の位置での撮影である
ように構成された
前記(1)に記載の画像処理装置。
(12)
前記擬似画像生成部は、前記値と、外挿補間された周辺奥行き画像と前記奥行き画像を合成した合成奥行き画像とに基づいて、外挿補間された周辺画像と前記画像を合成した合成画像から前記擬似撮影画像を生成する
ように構成された
前記(1)乃至(11)のいずれかに記載の画像処理装置。
(13)
前記画像を用いて前記周辺画像を外挿補間し、前記奥行き画像を用いて前記周辺奥行き画像を外挿補間する周辺生成部と、
前記周辺生成部により外挿補間された前記周辺画像と前記画像を合成して前記合成画像を生成し、前記周辺生成部により外挿補間された前記周辺奥行き画像と前記奥行き画像を合成して前記合成奥行き画像を生成する合成部と
をさらに備える
前記(12)に記載の画像処理装置。
(14)
前記擬似画像生成部により生成された前記擬似撮影画像の少なくとも一部を削除する切り出し部
をさらに備える
前記(13)に記載の画像処理装置。
(15)
画像処理装置が、
画像の特徴に基づいて決定されたパラメータの値と前記画像の被写体の奥行き方向の位置を表す奥行き画像とに基づいて、前記画像から、所定の撮影方法で前記被写体を撮影した撮影画像の予測値を擬似撮影画像として生成する擬似画像生成ステップ
を含む画像処理方法。
(16)
画像と前記画像の被写体の奥行き方向の位置を表す奥行き画像とに基づいて、前記画像の撮影画角を推定する撮影画角推定部と、
前記撮影画角推定部により推定された前記撮影画角と、擬似撮影画像の観視画角とに基づいて、前記画像から、前記観視画角と同一の画角で撮影した場合の撮影画像の予測値を擬似撮影画像として生成する生成部と
を備える画像処理装置。
(17)
前記生成部は、前記観視画角が前記撮影画角より大きい場合、前記画像を縮小することにより前記擬似撮影画像を生成する
ように構成された
前記(16)に記載の画像処理装置。
(18)
前記生成部は、前記観視画角が前記撮影画角より小さい場合、前記画像を拡大することにより前記擬似撮影画像を生成する
ように構成された
前記(16)または(17)に記載の画像処理装置。
(19)
前記生成部により生成された前記擬似撮影画像または外部から入力される画像を用いて、前記擬似撮影画像の周辺領域の画像を外挿補間する周辺生成部と、
前記周辺生成部により外挿補間された前記周辺領域の画像と前記擬似撮影画像を合成する合成部と
をさらに備える
前記(16)乃至(18)のいずれかに記載の画像処理装置。
(20)
画像処理装置が、
画像と前記画像の被写体の奥行き方向の位置を表す奥行き画像とに基づいて、前記画像の撮影画角を推定する撮影画角推定ステップと、
前記撮影画角推定ステップの処理により推定された前記撮影画角と、擬似撮影画像の観視画角とに基づいて、前記画像から、前記観視画角と同一の画角で撮影した場合の撮影画像の予測値を擬似撮影画像として生成する生成ステップと
を含む画像処理方法。
10 画像処理装置, 12 周辺生成部, 13 合成部, 15 決定部, 311 変換部, 312 切り出し部, 400 画像処理装置, 402 決定部, 500 画像処理装置, 503 中心生成部, 504 周辺生成部, 505 合成部, 526 撮影画角推定部

Claims (20)

  1. 画像の特徴に基づいて決定されたパラメータの値と前記画像の被写体の奥行き方向の位置を表す奥行き画像とに基づいて、前記画像から、所定の撮影方法で前記被写体を撮影した撮影画像の予測値を擬似撮影画像として生成する擬似画像生成部
    を備える画像処理装置。
  2. 前記値は、前記画像の重要領域が、前記擬似撮影画像を観視する観視者の中心視野内に収まるように決定される
    ように構成された
    請求項1に記載の画像処理装置。
  3. 前記擬似画像生成部は、前記パラメータの値を、所定値から、決定された前記値に段階的に変更し、変更後の前記値と前記奥行き画像に基づいて前記擬似撮影画像を生成する
    ように構成された
    請求項2に記載の画像処理装置。
  4. 前記パラメータは、前記擬似撮影画像の仮想視点の位置であり、
    前記所定の撮影方法は、トラック撮影である
    ように構成された
    請求項3に記載の画像処理装置。
  5. 前記パラメータは、前記擬似撮影画像の仮想視距離であり、
    前記所定の撮影方法は、ドリーイン撮影またはドリーアウト撮影である
    ように構成された
    請求項3に記載の画像処理装置。
  6. 前記パラメータは、前記画像のスケーリング率であり、
    前記所定の撮影方法は、ズームイン撮影またはズームアウト撮影である
    ように構成された
    請求項3に記載の画像処理装置。
  7. 前記所定の撮影方法に基づいて、前記擬似画像生成部により生成された前記擬似撮影画像の被写界深度を調整する調整部
    をさらに備える
    請求項6に記載の画像処理装置。
  8. 前記調整部は、前記所定の撮影方法がズームイン撮影である場合、前記擬似撮影画像の前記重要領域の前記被写体の奥行き方向の位置よりも手前側と奥側の前記被写体の領域を平滑化することにより、前記被写界深度を調整する
    ように構成された
    請求項7に記載の画像処理装置。
  9. 前記調整部は、前記所定の撮影方法がズームアウト撮影である場合、前記擬似撮影画像のボケ領域に対してデブラー処理を行うことにより、前記被写界深度を調整する
    ように構成された
    請求項7に記載の画像処理装置。
  10. 前記パラメータは、前記擬似撮影画像の視線方向の角度であり、
    前記所定の撮影方法は、パニング撮影またはチルト撮影である
    ように構成された
    請求項3に記載の画像処理装置。
  11. 前記パラメータは、前記擬似撮影画像の仮想視点の位置であり、
    前記所定の撮影方法は、前記画像の撮影位置より上または下の位置での撮影である
    ように構成された
    請求項1に記載の画像処理装置。
  12. 前記擬似画像生成部は、前記値と、外挿補間された周辺奥行き画像と前記奥行き画像を合成した合成奥行き画像とに基づいて、外挿補間された周辺画像と前記画像を合成した合成画像から前記擬似撮影画像を生成する
    ように構成された
    請求項1に記載の画像処理装置。
  13. 前記画像を用いて前記周辺画像を外挿補間し、前記奥行き画像を用いて前記周辺奥行き画像を外挿補間する周辺生成部と、
    前記周辺生成部により外挿補間された前記周辺画像と前記画像を合成して前記合成画像を生成し、前記周辺生成部により外挿補間された前記周辺奥行き画像と前記奥行き画像を合成して前記合成奥行き画像を生成する合成部と
    をさらに備える
    請求項12に記載の画像処理装置。
  14. 前記擬似画像生成部により生成された前記擬似撮影画像の少なくとも一部を削除する切り出し部
    をさらに備える
    請求項13に記載の画像処理装置。
  15. 画像処理装置が、
    画像の特徴に基づいて決定されたパラメータの値と前記画像の被写体の奥行き方向の位置を表す奥行き画像とに基づいて、前記画像から、所定の撮影方法で前記被写体を撮影した撮影画像の予測値を擬似撮影画像として生成する擬似画像生成ステップ
    を含む画像処理方法。
  16. 画像と前記画像の被写体の奥行き方向の位置を表す奥行き画像とに基づいて、前記画像の撮影画角を推定する撮影画角推定部と、
    前記撮影画角推定部により推定された前記撮影画角と、擬似撮影画像の観視画角とに基づいて、前記画像から、前記観視画角と同一の画角で撮影した場合の撮影画像の予測値を擬似撮影画像として生成する生成部と
    を備える画像処理装置。
  17. 前記生成部は、前記観視画角が前記撮影画角より大きい場合、前記画像を縮小することにより前記擬似撮影画像を生成する
    ように構成された
    請求項16に記載の画像処理装置。
  18. 前記生成部は、前記観視画角が前記撮影画角より小さい場合、前記画像を拡大することにより前記擬似撮影画像を生成する
    ように構成された
    請求項16に記載の画像処理装置。
  19. 前記生成部により生成された前記擬似撮影画像または外部から入力される画像を用いて、前記擬似撮影画像の周辺領域の画像を外挿補間する周辺生成部と、
    前記周辺生成部により外挿補間された前記周辺領域の画像と前記擬似撮影画像を合成する合成部と
    をさらに備える
    請求項16に記載の画像処理装置。
  20. 画像処理装置が、
    画像と前記画像の被写体の奥行き方向の位置を表す奥行き画像とに基づいて、前記画像の撮影画角を推定する撮影画角推定ステップと、
    前記撮影画角推定ステップの処理により推定された前記撮影画角と、擬似撮影画像の観視画角とに基づいて、前記画像から、前記観視画角と同一の画角で撮影した場合の撮影画像の予測値を擬似撮影画像として生成する生成ステップと
    を含む画像処理方法。
JP2016512665A 2014-04-10 2015-03-27 画像処理装置および画像処理方法 Expired - Fee Related JP6610535B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014081070 2014-04-10
JP2014081070 2014-04-10
PCT/JP2015/059586 WO2015156149A1 (ja) 2014-04-10 2015-03-27 画像処理装置および画像処理方法

Publications (2)

Publication Number Publication Date
JPWO2015156149A1 JPWO2015156149A1 (ja) 2017-04-13
JP6610535B2 true JP6610535B2 (ja) 2019-11-27

Family

ID=54287726

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016512665A Expired - Fee Related JP6610535B2 (ja) 2014-04-10 2015-03-27 画像処理装置および画像処理方法

Country Status (3)

Country Link
US (1) US10412374B2 (ja)
JP (1) JP6610535B2 (ja)
WO (1) WO2015156149A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10196088B2 (en) * 2011-04-19 2019-02-05 Ford Global Technologies, Llc Target monitoring system and method
CN107112038A (zh) * 2014-12-22 2017-08-29 汤姆逊许可公司 使用递归分级处理生成外推图像的装置和方法
JP6450305B2 (ja) * 2015-12-01 2019-01-09 日本電信電話株式会社 情報取得装置、情報取得方法及び情報取得プログラム
TWI636316B (zh) * 2017-05-05 2018-09-21 致伸科技股份有限公司 通訊裝置及其光學裝置
KR102269760B1 (ko) * 2019-11-26 2021-06-29 서울과학기술대학교 산학협력단 영상 전송 시스템의 다중 영상 시점 보정 장치
JP7473449B2 (ja) 2020-10-28 2024-04-23 Kddi株式会社 歪曲収差補正装置、方法及びプログラム
JPWO2022269999A1 (ja) * 2021-06-25 2022-12-29

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08242469A (ja) 1995-03-06 1996-09-17 Nippon Telegr & Teleph Corp <Ntt> 撮像カメラ装置
JP4437228B2 (ja) * 2005-11-07 2010-03-24 大学共同利用機関法人情報・システム研究機構 焦点ぼけ構造を用いたイメージング装置及びイメージング方法
JP4825561B2 (ja) 2006-03-29 2011-11-30 株式会社東芝 画像表示装置
JP5268271B2 (ja) 2007-03-23 2013-08-21 株式会社東芝 画像表示装置および画像表示方法
JP4455609B2 (ja) 2007-03-27 2010-04-21 株式会社東芝 画像表示装置および画像表示方法
JP2009162899A (ja) 2007-12-28 2009-07-23 Pioneer Electronic Corp 画像表示方法
JP2010175885A (ja) * 2009-01-30 2010-08-12 Panasonic Corp 映像表示装置
JP5818322B2 (ja) * 2012-06-06 2015-11-18 日本電信電話株式会社 映像生成装置、映像生成方法及びコンピュータプログラム
JP2014071207A (ja) * 2012-09-28 2014-04-21 Canon Inc 画像処理装置、撮像システム、画像処理システム
US20150379720A1 (en) * 2013-01-31 2015-12-31 Threevolution Llc Methods for converting two-dimensional images into three-dimensional images
JP5662511B2 (ja) * 2013-04-10 2015-01-28 シャープ株式会社 撮像装置

Also Published As

Publication number Publication date
JPWO2015156149A1 (ja) 2017-04-13
US20170150130A1 (en) 2017-05-25
WO2015156149A1 (ja) 2015-10-15
US10412374B2 (en) 2019-09-10

Similar Documents

Publication Publication Date Title
JP6610535B2 (ja) 画像処理装置および画像処理方法
JP6730690B2 (ja) シーン内に存在する不要なオブジェクトの除去に基づくシーンの画像の動的生成
US10609284B2 (en) Controlling generation of hyperlapse from wide-angled, panoramic videos
JP4966431B2 (ja) 画像処理装置
CN104134435B (zh) 图像处理设备和图像处理方法
US20140118482A1 (en) Method and apparatus for 2d to 3d conversion using panorama image
US20210312702A1 (en) Damage detection from multi-view visual data
US20110069224A1 (en) System and method for art-directable retargeting for streaming video
CN104980651A (zh) 图像处理设备及控制方法
US11776142B2 (en) Structuring visual data
JP2022523478A (ja) マルチビュー視覚データからの損傷検出
JP5225313B2 (ja) 画像生成装置、画像生成方法、及びプログラム
US11252398B2 (en) Creating cinematic video from multi-view capture data
JP7224350B2 (ja) 画像キャプチャ装置及び画像キャプチャ方法
US20220358619A1 (en) Automatic dolly zoom image processing device
JP2013172446A (ja) 情報処理装置、端末装置、撮像装置、情報処理方法、及び撮像装置における情報提供方法
US11972556B2 (en) Mobile multi-camera multi-view capture
EP4165874A1 (en) Producing and adapting video images for presentation on displays with different aspect ratios
US20230290061A1 (en) Efficient texture mapping of a 3-d mesh
JP5906033B2 (ja) 画像処理装置および画像処理方法、プログラム
CN113805824B (zh) 电子装置以及在显示设备上显示图像的方法
Chamaret et al. Video retargeting for stereoscopic content under 3D viewing constraints
Lee Novel video stabilization for real-time optical character recognition applications
JP2015220662A (ja) 画像処理装置及びその制御方法、並びにプログラム
JP2023042257A (ja) 画像処理装置、画像処理方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180306

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190521

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191001

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191014

R151 Written notification of patent or utility model registration

Ref document number: 6610535

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees