JP7062506B2 - 画像処理装置、画像処理方法、およびプログラム - Google Patents
画像処理装置、画像処理方法、およびプログラム Download PDFInfo
- Publication number
- JP7062506B2 JP7062506B2 JP2018088654A JP2018088654A JP7062506B2 JP 7062506 B2 JP7062506 B2 JP 7062506B2 JP 2018088654 A JP2018088654 A JP 2018088654A JP 2018088654 A JP2018088654 A JP 2018088654A JP 7062506 B2 JP7062506 B2 JP 7062506B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- virtual viewpoint
- subject
- viewpoint image
- captured
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003672 processing method Methods 0.000 title claims description 9
- 238000000926 separation method Methods 0.000 claims description 22
- 239000000203 mixture Substances 0.000 claims description 21
- 238000003384 imaging method Methods 0.000 claims description 6
- 238000009795 derivation Methods 0.000 claims 11
- 238000000034 method Methods 0.000 description 35
- 238000009877 rendering Methods 0.000 description 33
- 238000002156 mixing Methods 0.000 description 17
- 230000006870 function Effects 0.000 description 15
- 238000010586 diagram Methods 0.000 description 7
- KNMAVSAGTYIFJF-UHFFFAOYSA-N 1-[2-[(2-hydroxy-3-phenoxypropyl)amino]ethylamino]-3-phenoxypropan-2-ol;dihydrochloride Chemical compound Cl.Cl.C=1C=CC=CC=1OCC(O)CNCCNCC(O)COC1=CC=CC=C1 KNMAVSAGTYIFJF-UHFFFAOYSA-N 0.000 description 6
- 230000000007 visual effect Effects 0.000 description 5
- 230000001419 dependent effect Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 239000003086 colorant Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/2224—Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
- H04N5/2226—Determination of depth image, e.g. for foreground/background separation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/282—Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/73—Circuitry for compensating brightness variation in the scene by influencing the exposure time
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/90—Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/243—Image signal generators using stereoscopic image cameras using three or more 2D image sensors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0085—Motion estimation from stereoscopic image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0092—Image segmentation from stereoscopic image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/272—Means for inserting a foreground image in a background image, i.e. inlay, outlay
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computing Systems (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- General Physics & Mathematics (AREA)
- Studio Devices (AREA)
- Image Processing (AREA)
- Image Generation (AREA)
Description
本発明は、このような課題に鑑みてなされたものであり、撮像画像において動きブレが起こった場合でも仮想視点画像を適切に生成することができるようにすることを目的とする。
<第1の実施形態>
本実施形態では、被写体(例えば人物などのオブジェクト)の動き情報を撮像画像から取得し、その速さと撮像条件とに基づいて、撮像画像において被写体の動きによってブレが起こっている領域とブレが起こっていない領域とを特定する。そして、ブレが生じている領域が半透明になるように、仮想視点から被写体を観察した場合の画像を、複数の撮像画像を用いて生成(再構成)する。本実施形態の画像処理システムは、同一の被写体を異なる視点から撮像することにより得られる複数の画像データに対して適用することができる。以下の説明では、仮想視点から被写体を観察した場合の画像を必要に応じて仮想視点画像と称する。また、被写体の動きによって撮像画像において被写体の少なくとも一部の領域に生じるブレを必要に応じて動きブレと称する。
CPU201は、画像処理装置102の各構成要素を統括的に制御するプロセッサーである。RAM202は、CPU201の主メモリおよびワークエリアとして機能するメモリである。ROM203は、画像処理装置102内の処理に用いられるプログラム等を格納するメモリである。CPU201は、RAM202をワークエリアとして使用し、ROM203に格納されたプログラムを実行することで、後述する様々な処理を実行する。
入力インターフェース205は、例えば、USBやIEEE1394等のシリアルバスインターフェースである。画像処理装置102は、入力インターフェース205を介して、外部メモリ208(例えば、ハードディスク、メモリカード、CFカード、SDカード、USBメモリ)から処理対象の画像データ等を取得することができる。出力インターフェース206は、例えばDVIやHDMI(登録商標)等の映像出力端子である。画像処理装置102は、出力インターフェース206を介して、表示装置103(液晶ディスプレイ等の画像表示デバイス)に、画像処理装置102で処理した画像データを出力することができる。尚、画像処理装置102は、構成要素として前記以外のものも含み得るが、本発明の主眼ではないため、その詳細な説明を省略する。
本実施形態では、CPU201が、ROM203に格納されたプログラムを実行することにより、図3に記載の各ブロックとして機能し、図4のフローチャートによる処理を実行する。尚、CPU201が必ずしも画像処理装置102の全ての機能を実行しなくてもよく、画像処理装置102内に各機能に対応する処理回路を設け、当該処理回路が当該機能を実行してもよい。
S401において、動画像データ取得部301は、入力インターフェース205を介して外部メモリ208から複数の動画像データを取得してRAM202に格納する。複数の動画像データはそれぞれ、同一の被写体を互いに異なる視点から各カメラ101により撮像することにより得られる画像データ、即ち、同一の被写体を異なる視点から表す動画像データである。図5では、画像502が動画像データの例を表す。
以下、第1レンダリング部309と第2レンダリング部310の処理の概略の一例について説明する。
第1レンダリング部309と第2レンダリング部310が行う処理は、着目方向に存在する被写体の位置を距離マップに基づいて特定し、この被写体の色情報を撮像画像から抽出する処理に相当する。言い換えれば、第1レンダリング部309と第2レンダリング部310は、仮想視点画像中の着目画素について、着目画素に写る被写体の位置を距離マップに基づいて特定し、着目画素に写る被写体の色情報を撮像画像から抽出する。具体的に第1レンダリング部309と第2レンダリング部310は、仮想視点から着目方向に存在する被写体までの距離と、仮想視点とカメラ101との位置および姿勢の関係とに基づいて、着目方向に存在する被写体に対応する撮像画像上の画素を特定する。そして、第1レンダリング部309と第2レンダリング部310は、特定した画素の色情報を、仮想視点から着目方向に存在する被写体の色情報として取得する。
次に、着目画素に写る被写体について、出力視点におけるカメラ座標系の座標は、以下の式(3)に従って世界座標系の座標に変換することができる。
次に、被写体の世界座標系の座標(X0,Y0,Z0)に存在する被写体が写っている、入力視点からの撮像画像上の座標は、以下の式(5)に従って算出することができる。入力視点とは、カメラ101の視点のことを指す。
図5において、画像507は、第1レンダリング部309によるレンダリングの結果(前景仮想視点画像)の例を表し、画像508は、第2レンダリング部310のレンダリングの結果(非動きブレ仮想視点画像)の例を表す。画像507では、速く動く左手部分が不透明な大きな固まりとしてレンダリングされる。画像508では、速く動く左手部分が消えた画像がレンダリングされる。ここで、本来、仮想視点から見えるべき絵は、左手の部分が動きブレして半透明に透けて見える絵である。このように、画像507(前景仮想視点画像)の方が、画像508(非動きブレ仮想視点画像)よりも、被写体の動きによって画像上の前記被写体の少なくとも一部の領域に生じるブレが大きい。
また、計算リソースの削減のために、第2形状推定部308と第2レンダリング部310において、前景の形状の推定とレンダリングとを実行せずに、背景の形状のみをレンダリングしてもよい。この場合、式(7)の[R2,G2,B2]を背景画像のレンダリングの結果として、前景領域([R1,G1,B2])のブレ量(動きブレ量マップ505の値)に応じて透明度だけ変えるようにすることができる。
次に、第2の実施形態を説明する。本実施形態では、短秒露光をするカメラと長秒露光をするカメラとを混合して画像を作る例について示す。ここで、短秒露光と長秒露光とは相対的に露光時間が長い動画像と短い動画像のことを示す。例えば、60[fps]の動画像において、長秒が1/100[sec]の露光時間とし、短秒が1/1000[sec]の露光時間とするような撮り方をしているものとする。これらのカメラの周波数[fps]は同じであり、撮影タイミングは同期しているものとする。また、短秒露光を行うカメラ101と長秒露光を行うカメラ101として、それぞれ複数のカメラ101が予め設定されているものとする。後述するように、短秒露光を行うカメラ101による撮像画像に基づいて仮想視点画像を生成すると共に、長秒露光を行うカメラ101による撮像画像に基づいて仮想視点画像を生成する。それぞれの仮想視点画像が適切に生成されるように、短秒露光を行うカメラ101と長秒露光を行うカメラ101とを分散して配置するのが好ましい。例えば、図1において、短秒露光を行うカメラ101と長秒露光を行うカメラ101とを1台おきに交互に配置することができる。尚、短秒露光を行うカメラ101と長秒露光を行うカメラ101の数は、同じであっても異なっていてもよい。
本実施形態においても、CPU201が、ROM203に格納されたプログラムを実行することにより、図6に記載の各ブロックとして機能し、図7のフローチャートによる処理を実行する。また、CPU201が必ずしも画像処理装置102の全ての機能を実行しなくてもよく、画像処理装置102内に各機能に対応する処理回路を設け、当該処理回路が当該機能を実行してもよい。
S701において、長Tv画像取得部601は、長Tv画像データを取得する。短Tv画像取得部602は、短Tv画像データを取得する。例えば、画像801A→画像801B→画像801Cのように人が左手を素早く振った動作をした場合、長Tv画像は画像802のようになり、短Tv画像は画像803のようになる。
次に、S706において、第2形状推定部608は、多視点の短Tv前景領域(各カメラ101で同じタイミングで得られた短Tv前景領域)の重複領域から、相対的に短い露光時間で撮像した場合の前景領域の形状を推定する。以下の説明では、この形状を、必要に応じて短Tv形状と称する。
次に、S709において、αブレンド部612は、動きブレ量に従って、長Tv仮想視点画像と短Tv仮想視点画像とをαブレンドして、動きブレ混合仮想視点画像を生成する。例えば、αブレンド部612は、式(7)において、長Tv仮想視点画像のRGB値を[R1,G1,B1]とし、短Tv仮想視点画像のRGB値を[R2,G2,B2]として、長Tv仮想視点画像と短Tv仮想視点画像とを式(7)に従って合成できる。このとき、αブレンド部612は、例えば、動きブレ量が大きいほど、長Tv仮想視点画像のαブレンドの値(=α)が小さくなるようにする(即ち、長Tv仮想視点画像のブレンド率を低くする)。図8では、例えば、αブレンドした結果は、画像809のように手が動いているためにブレている部分は半透明になるような画像となり、実際に仮想視点において、長い露光時間(Tv)で撮ったような画像となる。
次に、第3の実施形態を説明する。本実施形態では、仮想視点とカメラの実視点(実際の視点)との違いによってαブレンドの比率を切り替えたり、処理を簡略化したりする例について示す。第1の実施形態と第2の実施形態において、動きブレで半透明になる部分の仮想視点画像を生成した場合に問題となるのは、仮想視点とカメラの実視点とが遠い場合である。仮想視点とカメラの実視点とが十分に近い場合は、カメラの映像が仮想視点で見た場合と近いため、動きブレしている部分の形状にカメラの実映像をテクスチャとして貼っても自然な絵となる。そこで、本実施形態では、仮想視点とカメラの実視点との近さに応じて、αブレンドを行うか否かの切り替えと、αブレンドを行う際のαブレンドの値(=α)の制御とを行う例を示す。このように本実施形態と第1、第2の実施形態とは、αブレンドに係る処理が主として異なる。したがって、本実施形態の説明において、第1、第2の実施形態と同一の部分については、図1~図8に付した符号と同一の符号を付す等して詳細な説明を省略する。
図9に示す画像処理装置102は、図3に示す画像処理装置102に対して、視点依存処理設定部912を更に備える。図9の901~911は、それぞれ、図3のブロック301~311と同じである。ただし、本実施形態における動体マップ算出部904と第1前景背景分離部903は、視点依存処理設定部912の結果として出力される処理切り替え設定によって処理を変える。また、仮想視点とカメラ101の実視点とが十分に近い場合、動画像データ取得部901は、動体マップ算出部904に動画像データを送らない。この場合、画像処理装置102は、動体マップ算出部904以降の処理ブロックによる処理を実行しない。また同様に、第1前景背景分離部903は、前景画像データを第2前景背景分離部906に送らない。この場合、画像処理装置102は、第2前景背景分離部906以降の処理ブロックによる処理を実行しない。
図10のS1001~S1003は、図4のS401~S403と同じであるため、その詳細な説明を省略する。
前述したようにS1004において、仮想視点差が大きいと判定された場合、処理は、S1005に進む。S1005~S1009の処理は、図4のS404~S408の処理と同様であるため、これらの処理の詳細な説明を省略する。
次に、S1012において、第1レンダリング部909は、前景領域の形状をレンダリングして仮想視点画像を生成する。この処理の内容はS408と同じであるため、その詳細な説明を省略する。ここでは、出力される仮想視点画像は、αブレンドしたものでなく、動きブレを含んだ形状をレンダリングしたもののみから作られた画像である。αブレンドしなくても、仮想視点とカメラ101の実視点とが十分に近い場合には自然な動きブレの画像がレンダリングすることができる。
本実施形態の手法は、第2の実施形態に対しても適用することができる。このようにする場合、例えば、仮想視点とカメラ101の実視点とが十分に近い場合には、短Tv仮想視点画像の生成のための処理を省略する。
本発明は、前述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
Claims (12)
- 複数の撮像装置により撮像された被写体の撮像画像に基づいて、仮想視点における前記被写体の画像である仮想視点画像として、第1の仮想視点画像を生成する第1の生成手段と、
複数の撮像装置により撮像された被写体の撮像画像に基づいて、前記仮想視点における前記被写体の画像である仮想視点画像として、第2の仮想視点画像を生成する第2の生成手段と、
前記第1の仮想視点画像と、前記第2の仮想視点画像とに基づいて、前記仮想視点における前記被写体の画像である仮想視点画像として、第3の仮想視点画像を生成する第3の生成手段と、を有し、
前記第1の仮想視点画像の方が前記第2の仮想視点画像よりも、画像において前記被写体の少なくとも一部の領域に生じているブレが大きいことを特徴とする画像処理装置。 - 前記被写体の撮像画像に基づいて、少なくとも前記被写体の複数の領域ごとに、前記ブレの大きさを導出する導出手段と更に有し、
前記第3の生成手段は、前記導出手段により導出された前記ブレの大きさに基づいて、前記第1の仮想視点画像と前記第2の仮想視点画像の合成比率を決定し、決定した合成比率で前記第1の仮想視点画像と前記第2の仮想視点画像とを合成して前記第3の仮想視点画像を生成することを特徴とする請求項1に記載の画像処理装置。 - 前記複数の撮像装置により撮像された被写体の撮像画像を、前記被写体の領域である前景領域の画像と、前記被写体の背景の領域である背景領域の画像とに分離する第1の分離手段と、
前記第1の分離手段により分離された前記前景領域の画像を、前記ブレが生じている領域の画像と、前記ブレが生じていない領域の画像とに分離する第2の分離手段と、を更に有し、
前記第1の生成手段は、前記前景領域の画像に基づいて、前記第1の仮想視点画像を生成し、
前記第2の生成手段は、前記前景領域の画像のうち、前記ブレが生じていない領域の画像に基づいて、前記第2の仮想視点画像を生成することを特徴とする請求項1に記載の画像処理装置。 - 異なるタイミングで撮像された前記被写体の複数の撮像画像に基づいて、前記被写体の領域の動きの量を、前記撮像画像の複数の領域ごとに導出し、導出した前記被写体の領域の動きの量と、前記撮像画像を撮像した際の露光時間および撮像周期とに基づいて、少なくとも前記被写体の複数の領域ごとに、前記ブレの大きさを導出する導出手段を更に有し、
前記第3の生成手段は、前記導出手段により導出された前記ブレの大きさに基づいて、前記第1の仮想視点画像と前記第2の仮想視点画像の合成比率を決定し、決定した合成比率で前記第1の仮想視点画像と前記第2の仮想視点画像とを合成して前記第3の仮想視点画像を生成することを特徴とする請求項3に記載の画像処理装置。 - 複数の撮像装置により撮像された被写体の撮像画像であって、相対的に長い露光時間で撮像された前記被写体の撮像画像を、前記被写体の領域である前景領域の画像と、前記被写体の背景の領域である背景領域の画像とに分離する第1の分離手段と、
複数の撮像装置により撮像された被写体の撮像画像であって、相対的に短い露光時間で撮像された前記被写体の撮像画像を、前記被写体の領域である前景領域の画像と、前記被写体の背景の領域である背景領域の画像とに分離する第2の分離手段と、を更に有し、
前記第1の生成手段は、前記第1の分離手段により分離された前記前景領域の画像に基づいて、前記第1の仮想視点画像を生成し、
前記第2の生成手段は、前記第2の分離手段により分離された前記前景領域の画像に基づいて、前記第2の仮想視点画像を生成することを特徴とする請求項1に記載の画像処理装置。 - 相対的に長い露光時間で撮像された前記被写体の撮像画像と、相対的に短い露光時間で撮像された前記被写体の撮像画像とに基づいて、少なくとも前記被写体の複数の領域ごとに、前記ブレの大きさを導出する導出手段を更に有し、
前記第3の生成手段は、前記導出手段により導出された前記ブレの大きさに基づいて、前記第1の仮想視点画像と前記第2の仮想視点画像の合成比率を決定し、決定した合成比率で前記第1の仮想視点画像と前記第2の仮想視点画像とを合成して前記第3の仮想視点画像を生成することを特徴とする請求項5に記載の画像処理装置。 - 前記第3の生成手段は、前記導出手段により導出された前記ブレの大きさと、前記仮想視点と前記撮像装置における視点との差を評価する指標とに基づいて、前記第1の仮想視点画像と前記第2の仮想視点画像の合成比率を決定することを特徴とする請求項2、4、または6に記載の画像処理装置。
- 前記仮想視点と前記撮像装置における視点との差を評価する指標に基づいて、前記導出手段による前記ブレの大きさの導出を行うか否かを判定する第1の判定手段を更に有し、
前記導出手段は、前記第1の判定手段により、前記ブレの大きさの導出を行わないと判定された場合には、前記ブレの大きさを導出せず、前記第1の判定手段により、前記ブレの大きさの導出を行うと判定された場合に、前記ブレの大きさを導出することを特徴とする請求項2、4、6、または7に記載の画像処理装置。 - 前記仮想視点と前記撮像装置における視点との差を評価する指標に基づいて、前記第2の生成手段による前記第2の仮想視点画像の生成を行うか否かを判定する第2の判定手段を更に有し、
前記第3の生成手段は、前記第2の判定手段により、前記第2の生成手段による前記第2の仮想視点画像の生成を行わないと判定された場合には、前記第1の仮想視点画像に基づいて、前記第3の仮想視点画像を生成し、前記第2の判定手段により、前記第2の生成手段による前記第2の仮想視点画像の生成を行うと判定された場合には、前記第1の仮想視点画像と前記第2の仮想視点画像とに基づいて、前記第3の仮想視点画像を生成することを特徴とする請求項1~8の何れか1項に記載の画像処理装置。 - 前記第3の生成手段は、前記ブレが生じている領域が半透明になるように前記第3の仮想視点画像を生成することを特徴とする請求項1~9の何れか1項に記載の画像処理装置。
- 複数の撮像装置により撮像された被写体の撮像画像に基づいて、仮想視点における前記被写体の画像である仮想視点画像として、第1の仮想視点画像を生成する第1の生成工程と、
複数の撮像装置により撮像された被写体の撮像画像に基づいて、前記仮想視点における前記被写体の画像である仮想視点画像として、第2の仮想視点画像を生成する第2の生成工程と、
前記第1の仮想視点画像と、前記第2の仮想視点画像とに基づいて、前記仮想視点における前記被写体の画像である仮想視点画像として、第3の仮想視点画像を生成する第3の生成工程と、を有し、
前記第1の仮想視点画像の方が前記第2の仮想視点画像よりも、画像において前記被写体の少なくとも一部の領域に生じているブレが大きいことを特徴とする画像処理方法。 - 請求項1~10の何れか1項に記載の画像処理装置の各手段としてコンピュータを機能させるためのプログラム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018088654A JP7062506B2 (ja) | 2018-05-02 | 2018-05-02 | 画像処理装置、画像処理方法、およびプログラム |
US16/396,203 US10841555B2 (en) | 2018-05-02 | 2019-04-26 | Image processing apparatus, image processing method, and storage medium |
US17/070,722 US11589023B2 (en) | 2018-05-02 | 2020-10-14 | Image processing apparatus, image processing method, and storage medium |
JP2022069954A JP7322235B2 (ja) | 2018-05-02 | 2022-04-21 | 画像処理装置、画像処理方法、およびプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018088654A JP7062506B2 (ja) | 2018-05-02 | 2018-05-02 | 画像処理装置、画像処理方法、およびプログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022069954A Division JP7322235B2 (ja) | 2018-05-02 | 2022-04-21 | 画像処理装置、画像処理方法、およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019194792A JP2019194792A (ja) | 2019-11-07 |
JP7062506B2 true JP7062506B2 (ja) | 2022-05-06 |
Family
ID=68385616
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018088654A Active JP7062506B2 (ja) | 2018-05-02 | 2018-05-02 | 画像処理装置、画像処理方法、およびプログラム |
Country Status (2)
Country | Link |
---|---|
US (2) | US10841555B2 (ja) |
JP (1) | JP7062506B2 (ja) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10600245B1 (en) * | 2014-05-28 | 2020-03-24 | Lucasfilm Entertainment Company Ltd. | Navigating a virtual environment of a media content item |
JP7320352B2 (ja) * | 2016-12-28 | 2023-08-03 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 三次元モデル送信方法、三次元モデル受信方法、三次元モデル送信装置及び三次元モデル受信装置 |
WO2018147329A1 (ja) * | 2017-02-10 | 2018-08-16 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 自由視点映像生成方法及び自由視点映像生成システム |
JP7269515B2 (ja) * | 2019-05-29 | 2023-05-09 | 日本電信電話株式会社 | 映像生成装置、映像生成方法、及び映像生成プログラム |
DE112021003828T5 (de) * | 2020-07-17 | 2023-05-04 | Sony Group Corporation | Informationsverarbeitungsvorrichtung und Bilddatenerzeugungsverfahren |
US10979672B1 (en) * | 2020-10-20 | 2021-04-13 | Katmai Tech Holdings LLC | Web-based videoconference virtual environment with navigable avatars, and applications thereof |
JP2022117599A (ja) * | 2021-02-01 | 2022-08-12 | キヤノン株式会社 | 画像処理装置、撮像装置、制御方法およびプログラム |
JP2023051356A (ja) * | 2021-09-30 | 2023-04-11 | キヤノン株式会社 | 情報処理装置、情報処理方法およびプログラム |
US20230188701A1 (en) * | 2021-12-10 | 2023-06-15 | Unity Technologies Sf | Method for Image Processing of Image Data of Background Pixels for a Two-Dimensional Display Wall for Stereo-Displaced Pixels |
CN116309641B (zh) * | 2023-03-23 | 2023-09-22 | 北京鹰之眼智能健康科技有限公司 | 图像区域获取*** |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017211827A (ja) | 2016-05-25 | 2017-11-30 | キヤノン株式会社 | 情報処理装置、制御方法、及び、プログラム |
JP2018036955A (ja) | 2016-09-01 | 2018-03-08 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100779634B1 (ko) * | 2003-06-20 | 2007-11-26 | 니폰 덴신 덴와 가부시끼가이샤 | 가상시점 화상 생성방법 및 3차원 화상 표시방법 및 장치 |
US8049750B2 (en) * | 2007-11-16 | 2011-11-01 | Sportvision, Inc. | Fading techniques for virtual viewpoint animations |
JP5011224B2 (ja) | 2008-07-09 | 2012-08-29 | 日本放送協会 | 任意視点映像生成装置及び任意視点映像生成プログラム |
US10726560B2 (en) * | 2014-10-31 | 2020-07-28 | Fyusion, Inc. | Real-time mobile device capture and generation of art-styled AR/VR content |
KR101801749B1 (ko) * | 2016-08-24 | 2017-11-28 | 한국과학기술연구원 | 3차원 복원을 위한 다중시점 영상 디블러링 방법, 이를 수행하기 위한 기록 매체 및 장치 |
-
2018
- 2018-05-02 JP JP2018088654A patent/JP7062506B2/ja active Active
-
2019
- 2019-04-26 US US16/396,203 patent/US10841555B2/en active Active
-
2020
- 2020-10-14 US US17/070,722 patent/US11589023B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017211827A (ja) | 2016-05-25 | 2017-11-30 | キヤノン株式会社 | 情報処理装置、制御方法、及び、プログラム |
JP2018036955A (ja) | 2016-09-01 | 2018-03-08 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
US11589023B2 (en) | 2023-02-21 |
US20190342537A1 (en) | 2019-11-07 |
JP2019194792A (ja) | 2019-11-07 |
US10841555B2 (en) | 2020-11-17 |
US20210029338A1 (en) | 2021-01-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7062506B2 (ja) | 画像処理装置、画像処理方法、およびプログラム | |
JP6425780B1 (ja) | 画像処理システム、画像処理装置、画像処理方法及びプログラム | |
US10540773B2 (en) | System and method for infinite smoothing of image sequences | |
CN109615703B (zh) | 增强现实的图像展示方法、装置及设备 | |
JP7051457B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP4966431B2 (ja) | 画像処理装置 | |
JP5327339B2 (ja) | 画像処理システム、画像処理方法、およびプログラム | |
KR102461232B1 (ko) | 화상 처리 방법 및 장치, 전자 디바이스, 및 저장 매체 | |
JP2010510573A (ja) | 3次元画像を合成するシステム及び方法 | |
JP5755571B2 (ja) | 仮想視点画像生成装置、仮想視点画像生成方法、制御プログラム、記録媒体、および立体表示装置 | |
JP2016208098A (ja) | 画像処理装置、画像処理方法、およびプログラム | |
CN105809664B (zh) | 生成三维图像的方法和装置 | |
KR20190062102A (ko) | 비디오 영상기반 2d/3d ar 실감체험 방법 및 장치 | |
US20190340773A1 (en) | Method and apparatus for a synchronous motion of a human body model | |
JP2010226390A (ja) | 撮像装置および撮像方法 | |
JP6896811B2 (ja) | 画像処理装置、画像処理方法、およびプログラム | |
US11275434B2 (en) | Information processing apparatus, information processing method, and storage medium | |
JP7322235B2 (ja) | 画像処理装置、画像処理方法、およびプログラム | |
CN104463958A (zh) | 基于视差图融合的三维超分辨率方法 | |
WO2020118565A1 (en) | Keyframe selection for texture mapping wien generating 3d model | |
Yuan et al. | 18.2: Depth sensing and augmented reality technologies for mobile 3D platforms | |
Shishido et al. | Pseudo-Dolly-In Video Generation Combining 3D Modeling and Image Reconstruction | |
JP2020035218A (ja) | 画像処理装置、方法及びプログラム | |
CN113706597B (zh) | 视频帧图像处理方法及电子设备 | |
JP2014011639A (ja) | 撮像装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210420 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220113 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220118 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220311 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220322 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220420 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7062506 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |