JP7062506B2 - 画像処理装置、画像処理方法、およびプログラム - Google Patents

画像処理装置、画像処理方法、およびプログラム Download PDF

Info

Publication number
JP7062506B2
JP7062506B2 JP2018088654A JP2018088654A JP7062506B2 JP 7062506 B2 JP7062506 B2 JP 7062506B2 JP 2018088654 A JP2018088654 A JP 2018088654A JP 2018088654 A JP2018088654 A JP 2018088654A JP 7062506 B2 JP7062506 B2 JP 7062506B2
Authority
JP
Japan
Prior art keywords
image
virtual viewpoint
subject
viewpoint image
captured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018088654A
Other languages
English (en)
Other versions
JP2019194792A (ja
Inventor
香織 田谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018088654A priority Critical patent/JP7062506B2/ja
Priority to US16/396,203 priority patent/US10841555B2/en
Publication of JP2019194792A publication Critical patent/JP2019194792A/ja
Priority to US17/070,722 priority patent/US11589023B2/en
Priority to JP2022069954A priority patent/JP7322235B2/ja
Application granted granted Critical
Publication of JP7062506B2 publication Critical patent/JP7062506B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2224Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
    • H04N5/2226Determination of depth image, e.g. for foreground/background separation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0085Motion estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0092Image segmentation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)

Description

本発明は、画像処理装置、画像処理方法、及びプログラムに関し、特に、仮想視点画像を生成するために用いて好適なものである。
被写体(例えば人物等のオブジェクト)を複数の撮像装置で撮像して得られた画像に基づいて、仮想視点(実際には撮像装置が存在しない視点を含む任意の視点)から被写体を観察した際に得られる画像(仮想視点画像)を再構成(生成)する技術が知られている。特許文献1には、以下の方法が開示されている。まず、複数のカメラにより撮像された被写体の撮像画像と、カメラの位置情報とを用いて、被写体の三次元モデルを生成する。次に、三次元モデル上の各位置のテクスチャ画像(ブレンドテクスチャ画像)を、複数の撮像画像に写っているテクスチャ画像をブレンドすることにより生成する。最後に、ブレンドテクスチャ画像を三次元モデルにテクスチャマッピングすることにより、仮想視点からの画像を再構成する。
特許第5011224号公報
W.Matusik, C.Buehler, R.Raskar, S.Gortler, L.McMillan,"Image Based Visual Hulls", ACM SIGGRAPH2000,pp.369-374, 2000
しかしながら、特許文献1に記載の技術では、撮像画像において動きブレ(被写体の動きによって被写体がブレた状態で撮像画像に写し出されること)が起こった場合、動きブレが起こった部分が実際とは異なる大きな形状としてレンダリングされる虞がある。即ち、特許文献1に記載の技術では、撮像画像において動きブレが起こった場合に仮想視点画像を適切に生成することが容易ではないという課題がある。
本発明は、このような課題に鑑みてなされたものであり、撮像画像において動きブレが起こった場合でも仮想視点画像を適切に生成することができるようにすることを目的とする。
本発明の画像処理装置は、複数の撮像装置により撮像された被写体の撮像画像に基づいて、仮想視点における前記被写体の画像である仮想視点画像として、第1の仮想視点画像を生成する第1の生成手段と、複数の撮像装置により撮像された被写体の撮像画像に基づいて、前記仮想視点における前記被写体の画像である仮想視点画像として、第2の仮想視点画像を生成する第2の生成手段と、前記第1の仮想視点画像と、前記第2の仮想視点画像とに基づいて、前記仮想視点における前記被写体の画像である仮想視点画像として、第3の仮想視点画像を生成する第3の生成手段と、を有し、前記第1の仮想視点画像の方が前記第2の仮想視点画像よりも、画像において前記被写体の少なくとも一部の領域に生じているブレが大きいことを特徴とする。
本発明によれば、撮像画像において被写体の動きブレが起こった場合でも仮想視点画像を適切に生成することができる。
画像処理システムの構成を示す図である。 画像処理装置のハードウェアの構成を示す図である。 画像処理装置の機能的な構成の第1の例を示す図である。 画像処理方法の第1の例を説明するフローチャートである。 画像処理の内容の第1の例を説明する図である。 画像処理装置の機能的な構成の第2の例を示す図である。 画像処理方法の第2の例を説明するフローチャートである。 画像処理の内容の第2の例を説明する図である。 画像処理装置の機能的な構成の第3の例を示す図である。 画像処理方法の第3の例を説明するフローチャートである。
以下、本発明の実施形態について、添付の図面を参照して詳細に説明する。
<第1の実施形態>
本実施形態では、被写体(例えば人物などのオブジェクト)の動き情報を撮像画像から取得し、その速さと撮像条件とに基づいて、撮像画像において被写体の動きによってブレが起こっている領域とブレが起こっていない領域とを特定する。そして、ブレが生じている領域が半透明になるように、仮想視点から被写体を観察した場合の画像を、複数の撮像画像を用いて生成(再構成)する。本実施形態の画像処理システムは、同一の被写体を異なる視点から撮像することにより得られる複数の画像データに対して適用することができる。以下の説明では、仮想視点から被写体を観察した場合の画像を必要に応じて仮想視点画像と称する。また、被写体の動きによって撮像画像において被写体の少なくとも一部の領域に生じるブレを必要に応じて動きブレと称する。
図1は、画像処理システムの構成の一例を示す模式図である。画像処理システムは、複数のカメラ101と、画像処理装置102と、表示装置103と、入力装置104とを有する。カメラ101は、概略平面上の領域に配置された被写体105を囲むような複数の視点から、被写体105を撮像する。画像処理装置102には、表示装置103及び入力装置104が接続されている。利用者は、表示装置103と入力装置104とを用いて画像処理装置102に対する入力操作を行う。利用者は、この入力操作によって、撮像条件の設定や、カメラ101による撮像により取得した画像データを処理した結果の確認等を行う。
図2は、画像処理装置102のハードウェアの構成の一例を示すブロック図である。画像処理装置102は、CPU201と、RAM202と、ROM203と、記憶部204と、入力インターフェース205と、出力インターフェース206と、システムバス207とを含んで構成される。入力インターフェース205には、外部メモリ208が接続されている。出力インターフェース206には表示装置103が接続されている。
CPU201は、画像処理装置102の各構成要素を統括的に制御するプロセッサーである。RAM202は、CPU201の主メモリおよびワークエリアとして機能するメモリである。ROM203は、画像処理装置102内の処理に用いられるプログラム等を格納するメモリである。CPU201は、RAM202をワークエリアとして使用し、ROM203に格納されたプログラムを実行することで、後述する様々な処理を実行する。
記憶部204は、画像処理装置102での処理に用いる画像データや、当該処理のためのパラメータ(即ち、設定値)等を記憶する記憶デバイスである。記憶部204としては、HDD、光ディスクドライブ、フラッシュメモリ等を用いることができる。
入力インターフェース205は、例えば、USBやIEEE1394等のシリアルバスインターフェースである。画像処理装置102は、入力インターフェース205を介して、外部メモリ208(例えば、ハードディスク、メモリカード、CFカード、SDカード、USBメモリ)から処理対象の画像データ等を取得することができる。出力インターフェース206は、例えばDVIやHDMI(登録商標)等の映像出力端子である。画像処理装置102は、出力インターフェース206を介して、表示装置103(液晶ディスプレイ等の画像表示デバイス)に、画像処理装置102で処理した画像データを出力することができる。尚、画像処理装置102は、構成要素として前記以外のものも含み得るが、本発明の主眼ではないため、その詳細な説明を省略する。
以下、図3、図4、および図5を参照して、本実施形態の画像処理装置102における画像処理の一例を説明する。図3は、本実施形態の画像処理装置102の機能的な構成の一例を示すブロック図である。図4は、本実施形態の画像処理方法の一例を説明するフローチャートである。図5は、本実施形態の画像処理の内容の一例を説明する模式図である。
本実施形態では、CPU201が、ROM203に格納されたプログラムを実行することにより、図3に記載の各ブロックとして機能し、図4のフローチャートによる処理を実行する。尚、CPU201が必ずしも画像処理装置102の全ての機能を実行しなくてもよく、画像処理装置102内に各機能に対応する処理回路を設け、当該処理回路が当該機能を実行してもよい。
図5では、左手を素早く動かしている被写体を撮像した場合を例に挙げて画像処理の内容を示す。被写体の実際の動きを表す画像は、画像501A、画像501B、画像501Cの順で得られる。しかしながら、カメラ101の露光時間(Tv)が長いと、画像502のように左手部が動きブレしている画像がカメラ101により撮像される。
S401において、動画像データ取得部301は、入力インターフェース205を介して外部メモリ208から複数の動画像データを取得してRAM202に格納する。複数の動画像データはそれぞれ、同一の被写体を互いに異なる視点から各カメラ101により撮像することにより得られる画像データ、即ち、同一の被写体を異なる視点から表す動画像データである。図5では、画像502が動画像データの例を表す。
次に、S402において、背景画像取得部302は、入力インターフェース205を介して外部メモリ208から、S401で取得された動画像データに対応する複数の背景画像データを取得してRAM202に格納する。図5では、画像503が(或る1つのカメラ101で撮像された)背景画像データの例を表す。尚、背景画像は、被写体105が存在しない状態で、各カメラ101により撮像された画像であり、予め外部メモリ208に格納されているものとする。背景画像を撮像する際の各カメラ101の位置および姿勢は、被写体105が存在するときと同じであるのが好ましい。
次に、S403において、第1前景背景分離部303は、RAM202に格納された動画像データと背景画像データとの差分に基づいて、動画像データを前景画像と背景画像に分離しそれぞれRAM202に保存する。第1前景背景分離部303は、例えば、動画像データおよび背景画像データと同じサイズの画像データであって、各画素の値が2値の画像データを前景背景画像データとして生成する。そして、第1前景背景分離部303は、動画像データと背景画像データとの互いに対応する画素の画素値の差の絶対値が閾値を上回る場合、当該画素に白(1)を割り当て、そうでない場合に当該画素に黒(0)を割り当てることを各画素について行う。この場合、白(1)が割り当てられた領域が前景領域であり、黒(0)が割り当てられた領域が背景領域になる。第1前景背景分離部303は、このような前景背景画像データを、動画像データおよび背景画像データと共にRAM202に保存する。図5では、画像504が、前景背景画像データの例を表す。
次に、S404において、動体マップ算出部304は、RAM202に格納された動画像データから動画像の動体マップを算出し、算出した動体マップをRAM202に保存する。動体マップとは、各フレームの画像中の被写体の、前または後のフレームの画像に対するx,y座標のそれぞれの移動量を、1画素ごとにマップ状に保存したものである。動体マップ算出部304は、計算量の削減のため、RAM202に格納された前記前景領域の部分のみの動きを算出することによって、前記前景領域のみの動体マップを算出してもよい。
次に、S405において、動きブレ量算出部305は、動体マップと、露光時間(Tv)[sec]と、周波数[fps(frame/sec)]とに基づいて、動きブレ量を算出してRAM202に保存する。尚、周波数は、フレームレートであり、撮像周期に対応する周波数である。本実施形態では、動きブレ量を、画像における被写体のブレの大きさを画素数で表す。動きブレ量の算出方法は、例えば、動体マップの各画素における移動量を(x,y)[pixel/frame]とすると、動きブレ量算出部305は、動きブレ量[pixel]を、以下の式(1)により算出すればよい。
Figure 0007062506000001
また、動きブレ量算出部305は、例えば、カメラ101ごとに、画像の各画素に、動きブレ量(数値)がマップ形式で割り当てられたものをRAM202に保存すればよい。以降、このマップ形式で保存される動きブレ量を、必要に応じて動きブレ量マップと称する。図5では、動きブレ量マップ505において、速く動いている左手部分に対応する値が大きな動きブレ量であることを示す。
次に、S406において、第2前景背景分離部306は、前記前景背景画像データから、非動きブレ前景領域を抽出し、RAM202に保存する。具体的には、例えば、第2前景背景分離部306は、前記前景背景画像データ(画像504)のうち、前景領域(白の領域)であり、且つ、対応する動きブレ量マップ505の値が一定の閾値以下になる領域(黒の領域)を非動きブレ前景領域とすればよい。図5では、画像506が非動きブレ前景領域の例を表す。このように非動きブレ前景領域は、前景領域のうち、動きブレが起こっていない領域である。前景領域のうち、非動きブレ前景領域以外の領域は、動きブレが起こっている領域であり、前景と背景とが混ざっていてこれらを区別できない領域(動きブレ領域)である。
次に、S407において、第1形状推定部307は、前景領域の形状を推定する。また、第2形状推定部308は、非動きブレ前景領域の形状を推定する。形状の推定には、例えば、カメラ101の位置および姿勢を示す情報を含むカメラ位置姿勢パラメータが用いられる。形状の推定の方法としては、例えば、非特許文献1に記載のVisual Hull法を用いる方法が挙げられる。例えば、第1形状推定部307は、Visual Hull法を用いて、前景領域のシルエットを実空間上に投影し、そのシルエットが重複する部分を、前景の形状として推定する。第1形状推定部307、第2形状推定部308は、例えば、カメラ101ごとに、画像の各画素に、(形状を表す情報としての)距離がマップ形式で割り当てられたものをRAM202に保存すればよい。ここで、距離とは、出力視点から着目画素に写る被写体までの距離を指す。以下の説明では、このマップ形式で保存されている距離を、必要に応じて距離マップと称する。出力視点は、仮想視点のことを指す。
複数のカメラ101により得られた被写体の撮像画像に基づいて距離マップを生成する方法は公知であり、任意の方法を採用することができる。例えば、特許文献1に記載されている視体積公差法またはステレオマッチング法を用いて、被写体の三次元モデルを生成することができる。そして、仮想視点と被写体の三次元モデルとの関係に基づいて、仮想視点画像の各画素について、仮想視点から対応する被写体までの距離を各画素について導出して距離マップに格納する。距離マップの生成方法は被写体の撮像画像に基づく方法に限られず、何らかのトラッカー等を用いて被写体の三次元モデルを生成し、この三次元モデルに基づいて距離マップを生成してもよい。また、事前にレンジセンサなどで仮想視点から対応する被写体までの距離を計測し、距離マップを取得してもよい。
次に、S408において、第1レンダリング部309は、前景領域の形状をレンダリングして前景仮想視点画像を生成する。また、第2レンダリング部310は、非動きブレ前景領域の形状をレンダリングして非動きブレ仮想視点画像を生成する。レンダリングに際しては、例えば、仮想視点の位置および視線の方向を含む仮想視点パラメータが用いられる。
以下、第1レンダリング部309と第2レンダリング部310の処理の概略の一例について説明する。
第1レンダリング部309と第2レンダリング部310が行う処理は、着目方向に存在する被写体の位置を距離マップに基づいて特定し、この被写体の色情報を撮像画像から抽出する処理に相当する。言い換えれば、第1レンダリング部309と第2レンダリング部310は、仮想視点画像中の着目画素について、着目画素に写る被写体の位置を距離マップに基づいて特定し、着目画素に写る被写体の色情報を撮像画像から抽出する。具体的に第1レンダリング部309と第2レンダリング部310は、仮想視点から着目方向に存在する被写体までの距離と、仮想視点とカメラ101との位置および姿勢の関係とに基づいて、着目方向に存在する被写体に対応する撮像画像上の画素を特定する。そして、第1レンダリング部309と第2レンダリング部310は、特定した画素の色情報を、仮想視点から着目方向に存在する被写体の色情報として取得する。
この処理は、例えば以下のように行うことができる。以下の説明では、仮想視点画像中の着目画素の座標を(u0,v0)とする。着目画素に写る被写体の位置は、以下の式(2)に従って、出力視点におけるカメラ座標系の座標で表すことができる。
Figure 0007062506000002
式(2)において、(x0,y0,z0)は被写体のカメラ座標系の座標を表す。d0(u0,v0)は、距離マップに示される、出力視点から着目画素に写る被写体までの距離を表す。f0は出力視点の焦点距離を表し、cx0およびcy0は、出力視点の主点位置を表す。
次に、着目画素に写る被写体について、出力視点におけるカメラ座標系の座標は、以下の式(3)に従って世界座標系の座標に変換することができる。
Figure 0007062506000003
式(3)において、(X0,Y0,Z0)は被写体の世界座標系の座標を表す。R0は、出力視点の光軸方向を表す。(Xoutput,Youtput,Zoutput)は、出力視点の世界座標系の座標を表す。
次に、被写体の世界座標系の座標(X0,Y0,Z0)に存在する被写体が写っている、入力視点からの撮像画像上の座標は、以下の式(5)に従って算出することができる。入力視点とは、カメラ101の視点のことを指す。
Figure 0007062506000004
式(4)において、Riは入力視点iの光軸方向を表す(入力視点iは、複数の入力視点のうちi番目の入力視点である)。(Xcam,i,Ycam,i,Zcam,i)は、入力視点iのカメラ101の世界座標系の座標を表す。fiは、入力視点iの焦点距離を表し、cxi及びcyiは入力視点iの主点位置を表す。また、tは定数を表す。式(4)を(ui,vi)について解くことにより、式(5)が得られる。
Figure 0007062506000005
式(5)に従うと、まず定数tを算出することができ、更に得られた定数tを用いて(ui,vi)を算出することができる。このように、仮想視点画像中の着目画素の座標(u0,v0)は、撮像画像中の画素の座標(ui,vi)に変換することができる。仮想視点画像中の着目画素の座標(u0,v0)と撮像画像中の画素の座標(ui,vi)とは、同じ被写体に対応する可能性が高い。したがって、撮像画像中の画素の座標(ui,vi)の画素値(色情報)を、仮想視点画像中の着目画素の座標(u0,v0)の画素値(色情報)として用いることができる。
しかしながら、視線方向の違いのために、仮想視点画像中の着目画素の座標(u0,v0)と撮像画像中の画素の座標(ui,vi)とが同じ被写体に対応するとは限らない。また、光源の方向等の影響により、これらが同じ被写体に対応したとしても、撮像画像間で色が異なっている可能性もある。このため、本実施形態では、第1レンダリング部309と第2レンダリング部310は、複数の撮像画像から、仮想視点画像中の着目画素の座標(u0,v0)に対応する撮像画像中の画素の座標(ui,vi)(i=1~N:Nはカメラ101の数)を特定する。そして、第1レンダリング部309と第2レンダリング部310は、特定した画素の画素値を重み付け合成する。ここで、被写体が撮像範囲外にある等の理由で、着目画素に対応する被写体が写っていない撮像画像については、合成の対象から外すことができる。このような重み付け合成により得られた画素値が、仮想視点画像中の着目画素の座標(u0,v0)の画素値として用いられる。
このとき、同時に、動きブレ量マップの、仮想視点画像中の着目画素の座標(u0,v0)における値も、画素値と同様に、実視点での動きブレ量マップの重み付け合成によって生成することができる。
図5において、画像507は、第1レンダリング部309によるレンダリングの結果(前景仮想視点画像)の例を表し、画像508は、第2レンダリング部310のレンダリングの結果(非動きブレ仮想視点画像)の例を表す。画像507では、速く動く左手部分が不透明な大きな固まりとしてレンダリングされる。画像508では、速く動く左手部分が消えた画像がレンダリングされる。ここで、本来、仮想視点から見えるべき絵は、左手の部分が動きブレして半透明に透けて見える絵である。このように、画像507(前景仮想視点画像)の方が、画像508(非動きブレ仮想視点画像)よりも、被写体の動きによって画像上の前記被写体の少なくとも一部の領域に生じるブレが大きい。
図4の説明に戻り、S409において、αブレンド部311は、前景仮想視点画像と非動きブレ仮想視点画像とを動きブレ量に従ってαブレンドし、動きブレ混合仮想視点画像を生成する。図5では、画像509が、動きブレ混合仮想視点画像の例を表す。動きブレ量マップ505に従って、画像507(前景仮想視点画像)、508(非動きブレ仮想視点画像)をαブレンドする。このようにすることで、速く動く左手部分が半透明に透けた画像509を生成することができる。
αは、前景仮想視点画像と非動きブレ仮想視点画像との、相互に対応する画素における当該画素の値の合成比率を決定するためのパラメータの一例である。例えば、動きブレ量マップ505の値をx[pixel]とすると、αは、以下の式(6)のように表される。そして、第1レンダリング部309によるレンダリングの結果(前景仮想視点画像)として得られるRGB値を[R1,G1,B1]とする。また、第2レンダリング部310のレンダリングの結果(非動きブレ仮想視点画像)として得られるRGB値を[R2,G2,B2]とする。そうすると、これらのRGB値[R1,G1,B1]、[R2,G2,B2]を、αを用いて以下の式(7)のように合成することにより、出力画像のRGB値を決めればよい。
Figure 0007062506000006
以上のように本実施形態では、画像処理装置102は、被写体の動き情報を撮像画像から取得し、撮像画像の被写体の領域を動きブレ領域と非動きブレ前景領域とに分けてレンダリングしてαブレンドする。したがって、動きブレが起こっている前景領域が自然な半透明になるような仮想視点画像を生成することができる。よって、撮像画像において動きブレが起こった場合でも仮想視点画像を適切に生成することができる。
本実施形態では、動きブレ領域と非動きブレ前景領域の2つに分けてレンダリングする例を示した。しかしながら、動きブレの大きさによって3つ以上の領域に分けて形状の推定とレンダリングとを行ってもよい。
また、計算リソースの削減のために、第2形状推定部308と第2レンダリング部310において、前景の形状の推定とレンダリングとを実行せずに、背景の形状のみをレンダリングしてもよい。この場合、式(7)の[R2,G2,B2]を背景画像のレンダリングの結果として、前景領域([R1,G1,B2])のブレ量(動きブレ量マップ505の値)に応じて透明度だけ変えるようにすることができる。
<第2の実施形態>
次に、第2の実施形態を説明する。本実施形態では、短秒露光をするカメラと長秒露光をするカメラとを混合して画像を作る例について示す。ここで、短秒露光と長秒露光とは相対的に露光時間が長い動画像と短い動画像のことを示す。例えば、60[fps]の動画像において、長秒が1/100[sec]の露光時間とし、短秒が1/1000[sec]の露光時間とするような撮り方をしているものとする。これらのカメラの周波数[fps]は同じであり、撮影タイミングは同期しているものとする。また、短秒露光を行うカメラ101と長秒露光を行うカメラ101として、それぞれ複数のカメラ101が予め設定されているものとする。後述するように、短秒露光を行うカメラ101による撮像画像に基づいて仮想視点画像を生成すると共に、長秒露光を行うカメラ101による撮像画像に基づいて仮想視点画像を生成する。それぞれの仮想視点画像が適切に生成されるように、短秒露光を行うカメラ101と長秒露光を行うカメラ101とを分散して配置するのが好ましい。例えば、図1において、短秒露光を行うカメラ101と長秒露光を行うカメラ101とを1台おきに交互に配置することができる。尚、短秒露光を行うカメラ101と長秒露光を行うカメラ101の数は、同じであっても異なっていてもよい。
前述した第1の実施形態では、1つのカメラの画像の時系列での動体マップを推定して動きブレが起こっている領域を判断する。このようにすると、動体マップの算出に比較的時間がかかる。そこで、本実施形態では、動体マップの算出を行わずに、短秒露光で相対的に動きブレの少ない画像群と、長秒露光で相対的に動きブレの大きい画像群との両方を使うことで動きブレのある場面の仮想視点画像を生成する。このように本実施形態と第1の実施形態とでは、動きブレが起こっている領域の判定のための処理が主として異なる。したがって、本実施形態の説明において、第1の実施形態と同一の部分については、図1~図5に付した符号と同一の符号を付す等して詳細な説明を省略する。
以下、図6、図7、および図8を参照して、本実施形態の画像処理装置102における画像処理の一例を説明する。図6は、本実施形態の画像処理装置102の機能的な構成の一例を示すブロック図である。図7は、本実施形態の画像処理方法の一例を説明するフローチャートである。図8は、本実施形態の画像処理の内容の一例を説明する模式図である。
本実施形態においても、CPU201が、ROM203に格納されたプログラムを実行することにより、図6に記載の各ブロックとして機能し、図7のフローチャートによる処理を実行する。また、CPU201が必ずしも画像処理装置102の全ての機能を実行しなくてもよく、画像処理装置102内に各機能に対応する処理回路を設け、当該処理回路が当該機能を実行してもよい。
図8では、左手を素早く動かしている被写体を撮像した場合を例に挙げて画像処理の内容を示す。被写体の実際の動きを表す画像は、画像801A、画像801B、画像801Cの順で得られる。しかしながら、カメラ101の露光時間(Tv)が長いと、画像802のように左手部が動きブレしている画像がカメラ101により撮像される。一方、カメラ101の露光時間(Tv)が短いと、画像803のように左手部が動きブレしていない画像がカメラ101により撮像される。
以降、露光時間(Tv)が相対的に長いカメラ101により撮像された画像を、必要に応じて長Tv画像と称し、露光時間(Tv)が相対的に短いカメラ101により撮像された画像を、必要に応じて短Tv画像と称する。
S701において、長Tv画像取得部601は、長Tv画像データを取得する。短Tv画像取得部602は、短Tv画像データを取得する。例えば、画像801A→画像801B→画像801Cのように人が左手を素早く振った動作をした場合、長Tv画像は画像802のようになり、短Tv画像は画像803のようになる。
次に、S702において、長Tv背景画像取得部603は、長Tv背景画像データを取得する。短Tv背景画像取得部604は、短Tv背景画像データを取得する。長Tv背景画像は、被写体105が存在しない状態で、各カメラ101により相対的に長い露光時間(Tv)で撮像された画像であり、予め外部メモリ208に格納されているものとする。短Tv背景画像は、被写体105が存在しない状態で、各カメラ101により相対的に短い露光時間(Tv)で撮像された画像であり、予め外部メモリ208に格納されているものとする。長Tv画像を撮像する際の露光時間と長Tv背景画像を撮像する際の露光時間は同じであるのが好ましい。同様に、短Tv画像を撮像する際の露光時間と短Tv背景画像を撮像する際の露光時間は同じであるのが好ましい。また長Tv背景画像、短Tv背景画像を撮像する際の各カメラ101の位置および姿勢は、被写体105が存在するときと同じであるのが好ましい。図8では、例えば、画像804のような背景画像が取得される。
次に、S703において、第1前景画像分離部605は、長Tv画像データを長Tv前景領域と長Tv背景領域とに分離する。例えば、第1前景画像分離部605は、画像(長Tv画像)802と画像(背景画像)804の互いに対応する画素において、色およびテクスチャの少なくとも何れか一方の差分の絶対値が閾値を上回るか否かを判定する。第1前景画像分離部605は、この絶対値が閾値を上回る領域を前景領域とし、当該領域の画素に白(1)を割り当て、そうでない領域を背景領域とし、当該領域の画素に黒(0)を割り当てることを各画素について行う。この場合、白(1)が割り当てられた領域が前景領域であり、黒(0)が割り当てられた領域が背景領域になる。このようにして前景領域とされたものが、長Tv前景領域であり、背景領域とされたものが、長Tv背景領域である。これにより、図8に示す画像805のような画像が得られる。
次に、S704において、第2前景画像分離部606は、短Tv画像データを短Tv前景領域と短Tv背景領域とに分離する。例えば、第2前景画像分離部606は、画像(短Tv画像)803と画像(背景画像)804の互いに対応する画素において、色およびテクスチャの少なくとも何れか一方の差分の絶対値が閾値を上回るか否かを判定する。第2前景画像分離部606は、この絶対値が閾値を上回る領域を前景領域とし、当該領域の画素に白(1)を割り当て、そうでない領域を背景領域とし、当該領域の画素に黒(0)を割り当てることを各画素について行う。この場合、白(1)が割り当てられた領域が前景領域であり、黒(0)が割り当てられた領域が背景領域になる。このようにして前景領域とされたものが、短Tv前景領域であり、背景領域とされたものが、短Tv背景領域である。これにより、図8に示す画像806のような画像が得られる。
次に、S705において、第1形状推定部607は、多視点の長Tv前景領域(各カメラ101で得られた長Tv前景領域)の重複領域から、相対的に長い露光時間で撮像した場合の前景領域の形状を推定する。以下の説明では、この形状を、必要に応じて長Tv形状と称する。
次に、S706において、第2形状推定部608は、多視点の短Tv前景領域(各カメラ101で同じタイミングで得られた短Tv前景領域)の重複領域から、相対的に短い露光時間で撮像した場合の前景領域の形状を推定する。以下の説明では、この形状を、必要に応じて短Tv形状と称する。
次に、S707において、第1レンダリング部609は、長Tv形状をレンダリングして、仮想視点から相対的に長い露光時間で撮像したと仮定した場合に得られる仮想視点画像を生成する。以下の説明では、この仮想視点画像を必要に応じて、長Tv仮想視点画像と称する。また、第2レンダリング部610は、短Tv形状をレンダリングして、仮想視点から相対的に短い露光時間で撮像したと仮定した場合に得られる仮想視点画像を生成する。以下の説明では、この仮想視点画像を必要に応じて、短Tv仮想視点画像と称する。
ここで、仮想視点画像(長Tv仮想視点画像、短Tv仮想視点画像)を生成するときに使うテクスチャに、必ずしも、それぞれの前景領域の画像を作るときに使った入力画像(長Tv画像、短Tv画像)を使わなくてもよい。例えば、露光時間(Tv)が異なると色味も変わってしまう場合がある。このため、仮想視点画像(長Tv仮想視点画像、短Tv仮想視点画像)を生成するときに使うテクスチャには、長Tv画像のみを使うようにしてもよい。図8では、例えば、画像807が長Tv仮想視点画像であり、長Tv仮想視点画像には、画像807のように、動いている部分が大きな不透明な固まりとなって表れる。また、画像808が短Tv仮想視点画像であり、短Tv仮想視点画像には、画像808のように、或る止まった瞬間の手の形が表れる。このように、画像807(長Tv仮想視点画像)の方が、画像808(短Tv仮想視点画像)よりも、被写体の動きによって画像上の前記被写体の少なくとも一部の領域に生じるブレが大きい。
次に、S708において、動きブレ量算出部611は、長Tv仮想視点画像と短Tv仮想視点画像の相互に対応する画素の画素値の差分の絶対値の大きさから動きブレ量を算出する。このとき、長Tv仮想視点画像と短Tv仮想視点画像に代えて、長Tv形状と短Tv形状を用いてもよい。
次に、S709において、αブレンド部612は、動きブレ量に従って、長Tv仮想視点画像と短Tv仮想視点画像とをαブレンドして、動きブレ混合仮想視点画像を生成する。例えば、αブレンド部612は、式(7)において、長Tv仮想視点画像のRGB値を[R1,G1,B1]とし、短Tv仮想視点画像のRGB値を[R2,G2,B2]として、長Tv仮想視点画像と短Tv仮想視点画像とを式(7)に従って合成できる。このとき、αブレンド部612は、例えば、動きブレ量が大きいほど、長Tv仮想視点画像のαブレンドの値(=α)が小さくなるようにする(即ち、長Tv仮想視点画像のブレンド率を低くする)。図8では、例えば、αブレンドした結果は、画像809のように手が動いているためにブレている部分は半透明になるような画像となり、実際に仮想視点において、長い露光時間(Tv)で撮ったような画像となる。
以上のように本実施形態では、画像処理装置102は、短秒露光で動きブレの小さい画像群と、長秒露光で動きブレの大きい画像群との両方を使ってそれぞれレンダリングしたものをαブレンドする。したがって、動きマップを算出しなくても動きブレのある場面の仮想視点画像を生成することができる。よって、第1の実施形態で説明した効果に加えて、処理時間を削減することができるという効果が得られる。
<第3の実施形態>
次に、第3の実施形態を説明する。本実施形態では、仮想視点とカメラの実視点(実際の視点)との違いによってαブレンドの比率を切り替えたり、処理を簡略化したりする例について示す。第1の実施形態と第2の実施形態において、動きブレで半透明になる部分の仮想視点画像を生成した場合に問題となるのは、仮想視点とカメラの実視点とが遠い場合である。仮想視点とカメラの実視点とが十分に近い場合は、カメラの映像が仮想視点で見た場合と近いため、動きブレしている部分の形状にカメラの実映像をテクスチャとして貼っても自然な絵となる。そこで、本実施形態では、仮想視点とカメラの実視点との近さに応じて、αブレンドを行うか否かの切り替えと、αブレンドを行う際のαブレンドの値(=α)の制御とを行う例を示す。このように本実施形態と第1、第2の実施形態とは、αブレンドに係る処理が主として異なる。したがって、本実施形態の説明において、第1、第2の実施形態と同一の部分については、図1~図8に付した符号と同一の符号を付す等して詳細な説明を省略する。
以下、図9と図10を参照して、本実施形態の画像処理装置102における画像処理の一例を説明する。図9は、本実施形態の画像処理装置102の機能的な構成の一例を示すブロック図である。図10は、本実施形態の画像処理方法の一例を説明するフローチャートである。
図9に示す画像処理装置102は、図3に示す画像処理装置102に対して、視点依存処理設定部912を更に備える。図9の901~911は、それぞれ、図3のブロック301~311と同じである。ただし、本実施形態における動体マップ算出部904と第1前景背景分離部903は、視点依存処理設定部912の結果として出力される処理切り替え設定によって処理を変える。また、仮想視点とカメラ101の実視点とが十分に近い場合、動画像データ取得部901は、動体マップ算出部904に動画像データを送らない。この場合、画像処理装置102は、動体マップ算出部904以降の処理ブロックによる処理を実行しない。また同様に、第1前景背景分離部903は、前景画像データを第2前景背景分離部906に送らない。この場合、画像処理装置102は、第2前景背景分離部906以降の処理ブロックによる処理を実行しない。
また、本実施形態においても、CPU201が、ROM203に格納されたプログラムを実行することにより、図9に記載の各ブロックとして機能し、図10のフローチャートによる処理を実行する。また、CPU201が必ずしも画像処理装置102の全ての機能を実行しなくてもよく、画像処理装置102内に各機能に対応する処理回路を設け、当該処理回路が当該機能を実行してもよい。
図10のS1001~S1003は、図4のS401~S403と同じであるため、その詳細な説明を省略する。
S1004において、視点依存処理設定部912は、仮想視点とカメラ101の実視点とが十分に近いかどうかを判定する。この判定に用いるカメラ101の実視点として、仮想視点画像の生成に際し、複数のカメラ101の代表となるカメラ101の実視点を採用する。例えば、仮想視点画像を生成する際にテクスチャとなる画像を撮像するカメラ101の実視点を採用することができる。また、仮想視点に最も近いカメラ101の実視点を採用してもよい。この判定の結果、仮想視点とカメラ101の実視点とが十分に近い場合、処理はS1011に進み、そうでない場合、処理はS1005に進む。視点の近さを評価する指標には、例えば、各視点の位置と、各視点の姿勢(視点と被写体とを結ぶ仮想線と基準線(例えば水平面)との角度)とのうち、少なくとも何れか1つが含まれる。ここで、例えば、入力視点から被写体への方向が、出力視点から被写体への方向により近いほど、撮像画像に写る被写体像は仮想視点からの被写体像により近いと考えられる。従って、入力視点から被写体への方向を示す方向ベクトルの方向と、出力視点から被写体への方向を示す方向ベクトルの方向との近さで視点の近さを評価することができる。具体的には、仮想視点から被写体への方向を示す方向ベクトル(大きさは任意)と、出力視点から被写体への方向を示す方向ベクトル(大きさは任意)とのがなす角度が閾値より小さいかどうかで視点の近さを評価すればよい。
このような方向に加えて、カメラ101の視野内における、着目方向に位置する被写体の位置を更に考慮して視点の近さを評価してもよい。例えば、被写体の位置がカメラ101の視野外に近ければ視点差が大きくなるよう視点の近さを評価すればよい。この場合、例えば、入力視点(カメラ101の実視点)から被写体への方向が出力視点(仮想視点)から被写体への方向と近くても、被写体が当該カメラ101の視野に含まれない場合、仮想視点と当該カメラ101の実視点の近さが近くないと評価できる。このように、視点の近さを評価する指標には、例えば、各視点の視野が含まれる。以下の説明では、仮想視点とカメラ101の実視点の近さを、必要に応じて仮想視点差と称する。
前述したようにS1004において、仮想視点差が大きいと判定された場合、処理は、S1005に進む。S1005~S1009の処理は、図4のS404~S408の処理と同様であるため、これらの処理の詳細な説明を省略する。
そして、処理は、S1010に進む。S1010において、αブレンド部911は、前景仮想視点画像と非動きブレ仮想視点画像を、動きブレ量と、仮想視点差とに従ってαブレンドして、動きブレ混合仮想視点画像を生成する。このとき、動きブレ量が大きいほど、前景仮想視点画像のブレンド率(αブレンドを行う際のαブレンドの値(=α))を小さくする。また、仮想視点差が小さいほど、前景仮想視点画像のブレンド率(αブレンドを行う際のαブレンドの値(=α))を大きくする。仮想視点差が大きい場合の処理はこれで終了する。
一方、S1004で仮想視点差が小さいと判断された場合、処理は、S1011に進む。S1011において、第1形状推定部907は、前景領域の形状を推定する。この処理の内容はS407と同じであるため、その詳細な説明を省略する。
次に、S1012において、第1レンダリング部909は、前景領域の形状をレンダリングして仮想視点画像を生成する。この処理の内容はS408と同じであるため、その詳細な説明を省略する。ここでは、出力される仮想視点画像は、αブレンドしたものでなく、動きブレを含んだ形状をレンダリングしたもののみから作られた画像である。αブレンドしなくても、仮想視点とカメラ101の実視点とが十分に近い場合には自然な動きブレの画像がレンダリングすることができる。
以上のように本実施形態では、画像処理装置102は、仮想視点とカメラ101の実視点とが十分に近いかどうかで、動きブレ量マップおよび非動きブレ仮想視点画像の生成の有無を切り替る。また、画像処理装置102は、仮想視点とカメラ101の実視点との近さに応じて、非動きブレ仮想視点画像を生成する場合のαブレンドにおけるブレンド比率を制御する。従って、自然な動きブレの画像をレンダリングすると共に処理時間を削減することができる。
本実施形態の手法は、第2の実施形態に対しても適用することができる。このようにする場合、例えば、仮想視点とカメラ101の実視点とが十分に近い場合には、短Tv仮想視点画像の生成のための処理を省略する。
尚、前述した実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
<その他の実施例>
本発明は、前述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
101:カメラ、102:画像処理装置、103:表示装置、104:入力装置、105:被写体

Claims (12)

  1. 複数の撮像装置により撮像された被写体の撮像画像に基づいて、仮想視点における前記被写体の画像である仮想視点画像として、第1の仮想視点画像を生成する第1の生成手段と、
    複数の撮像装置により撮像された被写体の撮像画像に基づいて、前記仮想視点における前記被写体の画像である仮想視点画像として、第2の仮想視点画像を生成する第2の生成手段と、
    前記第1の仮想視点画像と、前記第2の仮想視点画像とに基づいて、前記仮想視点における前記被写体の画像である仮想視点画像として、第3の仮想視点画像を生成する第3の生成手段と、を有し、
    前記第1の仮想視点画像の方が前記第2の仮想視点画像よりも、画像において前記被写体の少なくとも一部の領域に生じているブレが大きいことを特徴とする画像処理装置。
  2. 前記被写体の撮像画像に基づいて、少なくとも前記被写体の複数の領域ごとに、前記ブレの大きさを導出する導出手段と更に有し、
    前記第3の生成手段は、前記導出手段により導出された前記ブレの大きさに基づいて、前記第1の仮想視点画像と前記第2の仮想視点画像の合成比率を決定し、決定した合成比率で前記第1の仮想視点画像と前記第2の仮想視点画像とを合成して前記第3の仮想視点画像を生成することを特徴とする請求項1に記載の画像処理装置。
  3. 前記複数の撮像装置により撮像された被写体の撮像画像を、前記被写体の領域である前景領域の画像と、前記被写体の背景の領域である背景領域の画像とに分離する第1の分離手段と、
    前記第1の分離手段により分離された前記前景領域の画像を、前記ブレが生じている領域の画像と、前記ブレが生じていない領域の画像とに分離する第2の分離手段と、を更に有し、
    前記第1の生成手段は、前記前景領域の画像に基づいて、前記第1の仮想視点画像を生成し、
    前記第2の生成手段は、前記前景領域の画像のうち、前記ブレが生じていない領域の画像に基づいて、前記第2の仮想視点画像を生成することを特徴とする請求項1に記載の画像処理装置。
  4. 異なるタイミングで撮像された前記被写体の複数の撮像画像に基づいて、前記被写体の領域の動きの量を、前記撮像画像の複数の領域ごとに導出し、導出した前記被写体の領域の動きの量と、前記撮像画像を撮像した際の露光時間および撮像周期とに基づいて、少なくとも前記被写体の複数の領域ごとに、前記ブレの大きさを導出する導出手段を更に有し、
    前記第3の生成手段は、前記導出手段により導出された前記ブレの大きさに基づいて、前記第1の仮想視点画像と前記第2の仮想視点画像の合成比率を決定し、決定した合成比率で前記第1の仮想視点画像と前記第2の仮想視点画像とを合成して前記第3の仮想視点画像を生成することを特徴とする請求項3に記載の画像処理装置。
  5. 複数の撮像装置により撮像された被写体の撮像画像であって、相対的に長い露光時間で撮像された前記被写体の撮像画像を、前記被写体の領域である前景領域の画像と、前記被写体の背景の領域である背景領域の画像とに分離する第1の分離手段と、
    複数の撮像装置により撮像された被写体の撮像画像であって、相対的に短い露光時間で撮像された前記被写体の撮像画像を、前記被写体の領域である前景領域の画像と、前記被写体の背景の領域である背景領域の画像とに分離する第2の分離手段と、を更に有し、
    前記第1の生成手段は、前記第1の分離手段により分離された前記前景領域の画像に基づいて、前記第1の仮想視点画像を生成し、
    前記第2の生成手段は、前記第2の分離手段により分離された前記前景領域の画像に基づいて、前記第2の仮想視点画像を生成することを特徴とする請求項1に記載の画像処理装置。
  6. 相対的に長い露光時間で撮像された前記被写体の撮像画像と、相対的に短い露光時間で撮像された前記被写体の撮像画像とに基づいて、少なくとも前記被写体の複数の領域ごとに、前記ブレの大きさを導出する導出手段を更に有し、
    前記第3の生成手段は、前記導出手段により導出された前記ブレの大きさに基づいて、前記第1の仮想視点画像と前記第2の仮想視点画像の合成比率を決定し、決定した合成比率で前記第1の仮想視点画像と前記第2の仮想視点画像とを合成して前記第3の仮想視点画像を生成することを特徴とする請求項5に記載の画像処理装置。
  7. 前記第3の生成手段は、前記導出手段により導出された前記ブレの大きさと、前記仮想視点と前記撮像装置における視点との差を評価する指標とに基づいて、前記第1の仮想視点画像と前記第2の仮想視点画像の合成比率を決定することを特徴とする請求項2、4、または6に記載の画像処理装置。
  8. 前記仮想視点と前記撮像装置における視点との差を評価する指標に基づいて、前記導出手段による前記ブレの大きさの導出を行うか否かを判定する第1の判定手段を更に有し、
    前記導出手段は、前記第1の判定手段により、前記ブレの大きさの導出を行わないと判定された場合には、前記ブレの大きさを導出せず、前記第1の判定手段により、前記ブレの大きさの導出を行うと判定された場合に、前記ブレの大きさを導出することを特徴とする請求項2、4、6、または7に記載の画像処理装置。
  9. 前記仮想視点と前記撮像装置における視点との差を評価する指標に基づいて、前記第2の生成手段による前記第2の仮想視点画像の生成を行うか否かを判定する第2の判定手段を更に有し、
    前記第3の生成手段は、前記第2の判定手段により、前記第2の生成手段による前記第2の仮想視点画像の生成を行わないと判定された場合には、前記第1の仮想視点画像に基づいて、前記第3の仮想視点画像を生成し、前記第2の判定手段により、前記第2の生成手段による前記第2の仮想視点画像の生成を行うと判定された場合には、前記第1の仮想視点画像と前記第2の仮想視点画像とに基づいて、前記第3の仮想視点画像を生成することを特徴とする請求項1~8の何れか1項に記載の画像処理装置。
  10. 前記第3の生成手段は、前記ブレが生じている領域が半透明になるように前記第3の仮想視点画像を生成することを特徴とする請求項1~9の何れか1項に記載の画像処理装置。
  11. 複数の撮像装置により撮像された被写体の撮像画像に基づいて、仮想視点における前記被写体の画像である仮想視点画像として、第1の仮想視点画像を生成する第1の生成工程と、
    複数の撮像装置により撮像された被写体の撮像画像に基づいて、前記仮想視点における前記被写体の画像である仮想視点画像として、第2の仮想視点画像を生成する第2の生成工程と、
    前記第1の仮想視点画像と、前記第2の仮想視点画像とに基づいて、前記仮想視点における前記被写体の画像である仮想視点画像として、第3の仮想視点画像を生成する第3の生成工程と、を有し、
    前記第1の仮想視点画像の方が前記第2の仮想視点画像よりも、画像において前記被写体の少なくとも一部の領域に生じているブレが大きいことを特徴とする画像処理方法。
  12. 請求項1~10の何れか1項に記載の画像処理装置の各手段としてコンピュータを機能させるためのプログラム。
JP2018088654A 2018-05-02 2018-05-02 画像処理装置、画像処理方法、およびプログラム Active JP7062506B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018088654A JP7062506B2 (ja) 2018-05-02 2018-05-02 画像処理装置、画像処理方法、およびプログラム
US16/396,203 US10841555B2 (en) 2018-05-02 2019-04-26 Image processing apparatus, image processing method, and storage medium
US17/070,722 US11589023B2 (en) 2018-05-02 2020-10-14 Image processing apparatus, image processing method, and storage medium
JP2022069954A JP7322235B2 (ja) 2018-05-02 2022-04-21 画像処理装置、画像処理方法、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018088654A JP7062506B2 (ja) 2018-05-02 2018-05-02 画像処理装置、画像処理方法、およびプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022069954A Division JP7322235B2 (ja) 2018-05-02 2022-04-21 画像処理装置、画像処理方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2019194792A JP2019194792A (ja) 2019-11-07
JP7062506B2 true JP7062506B2 (ja) 2022-05-06

Family

ID=68385616

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018088654A Active JP7062506B2 (ja) 2018-05-02 2018-05-02 画像処理装置、画像処理方法、およびプログラム

Country Status (2)

Country Link
US (2) US10841555B2 (ja)
JP (1) JP7062506B2 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10600245B1 (en) * 2014-05-28 2020-03-24 Lucasfilm Entertainment Company Ltd. Navigating a virtual environment of a media content item
JP7320352B2 (ja) * 2016-12-28 2023-08-03 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 三次元モデル送信方法、三次元モデル受信方法、三次元モデル送信装置及び三次元モデル受信装置
WO2018147329A1 (ja) * 2017-02-10 2018-08-16 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 自由視点映像生成方法及び自由視点映像生成システム
JP7269515B2 (ja) * 2019-05-29 2023-05-09 日本電信電話株式会社 映像生成装置、映像生成方法、及び映像生成プログラム
DE112021003828T5 (de) * 2020-07-17 2023-05-04 Sony Group Corporation Informationsverarbeitungsvorrichtung und Bilddatenerzeugungsverfahren
US10979672B1 (en) * 2020-10-20 2021-04-13 Katmai Tech Holdings LLC Web-based videoconference virtual environment with navigable avatars, and applications thereof
JP2022117599A (ja) * 2021-02-01 2022-08-12 キヤノン株式会社 画像処理装置、撮像装置、制御方法およびプログラム
JP2023051356A (ja) * 2021-09-30 2023-04-11 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
US20230188701A1 (en) * 2021-12-10 2023-06-15 Unity Technologies Sf Method for Image Processing of Image Data of Background Pixels for a Two-Dimensional Display Wall for Stereo-Displaced Pixels
CN116309641B (zh) * 2023-03-23 2023-09-22 北京鹰之眼智能健康科技有限公司 图像区域获取***

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017211827A (ja) 2016-05-25 2017-11-30 キヤノン株式会社 情報処理装置、制御方法、及び、プログラム
JP2018036955A (ja) 2016-09-01 2018-03-08 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100779634B1 (ko) * 2003-06-20 2007-11-26 니폰 덴신 덴와 가부시끼가이샤 가상시점 화상 생성방법 및 3차원 화상 표시방법 및 장치
US8049750B2 (en) * 2007-11-16 2011-11-01 Sportvision, Inc. Fading techniques for virtual viewpoint animations
JP5011224B2 (ja) 2008-07-09 2012-08-29 日本放送協会 任意視点映像生成装置及び任意視点映像生成プログラム
US10726560B2 (en) * 2014-10-31 2020-07-28 Fyusion, Inc. Real-time mobile device capture and generation of art-styled AR/VR content
KR101801749B1 (ko) * 2016-08-24 2017-11-28 한국과학기술연구원 3차원 복원을 위한 다중시점 영상 디블러링 방법, 이를 수행하기 위한 기록 매체 및 장치

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017211827A (ja) 2016-05-25 2017-11-30 キヤノン株式会社 情報処理装置、制御方法、及び、プログラム
JP2018036955A (ja) 2016-09-01 2018-03-08 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム

Also Published As

Publication number Publication date
US11589023B2 (en) 2023-02-21
US20190342537A1 (en) 2019-11-07
JP2019194792A (ja) 2019-11-07
US10841555B2 (en) 2020-11-17
US20210029338A1 (en) 2021-01-28

Similar Documents

Publication Publication Date Title
JP7062506B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP6425780B1 (ja) 画像処理システム、画像処理装置、画像処理方法及びプログラム
US10540773B2 (en) System and method for infinite smoothing of image sequences
CN109615703B (zh) 增强现实的图像展示方法、装置及设备
JP7051457B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP4966431B2 (ja) 画像処理装置
JP5327339B2 (ja) 画像処理システム、画像処理方法、およびプログラム
KR102461232B1 (ko) 화상 처리 방법 및 장치, 전자 디바이스, 및 저장 매체
JP2010510573A (ja) 3次元画像を合成するシステム及び方法
JP5755571B2 (ja) 仮想視点画像生成装置、仮想視点画像生成方法、制御プログラム、記録媒体、および立体表示装置
JP2016208098A (ja) 画像処理装置、画像処理方法、およびプログラム
CN105809664B (zh) 生成三维图像的方法和装置
KR20190062102A (ko) 비디오 영상기반 2d/3d ar 실감체험 방법 및 장치
US20190340773A1 (en) Method and apparatus for a synchronous motion of a human body model
JP2010226390A (ja) 撮像装置および撮像方法
JP6896811B2 (ja) 画像処理装置、画像処理方法、およびプログラム
US11275434B2 (en) Information processing apparatus, information processing method, and storage medium
JP7322235B2 (ja) 画像処理装置、画像処理方法、およびプログラム
CN104463958A (zh) 基于视差图融合的三维超分辨率方法
WO2020118565A1 (en) Keyframe selection for texture mapping wien generating 3d model
Yuan et al. 18.2: Depth sensing and augmented reality technologies for mobile 3D platforms
Shishido et al. Pseudo-Dolly-In Video Generation Combining 3D Modeling and Image Reconstruction
JP2020035218A (ja) 画像処理装置、方法及びプログラム
CN113706597B (zh) 视频帧图像处理方法及电子设备
JP2014011639A (ja) 撮像装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210420

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220118

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220311

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220322

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220420

R151 Written notification of patent or utility model registration

Ref document number: 7062506

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151