JP2020173726A - Virtual viewpoint conversion device and program - Google Patents
Virtual viewpoint conversion device and program Download PDFInfo
- Publication number
- JP2020173726A JP2020173726A JP2019076605A JP2019076605A JP2020173726A JP 2020173726 A JP2020173726 A JP 2020173726A JP 2019076605 A JP2019076605 A JP 2019076605A JP 2019076605 A JP2019076605 A JP 2019076605A JP 2020173726 A JP2020173726 A JP 2020173726A
- Authority
- JP
- Japan
- Prior art keywords
- image
- virtual viewpoint
- subject
- unit
- background
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000006243 chemical reaction Methods 0.000 title claims abstract description 119
- 238000000605 extraction Methods 0.000 claims abstract description 60
- 239000000203 mixture Substances 0.000 claims abstract description 31
- 239000000284 extract Substances 0.000 claims abstract description 12
- 230000009466 transformation Effects 0.000 claims description 36
- 230000002194 synthesizing effect Effects 0.000 claims description 11
- 239000002131 composite material Substances 0.000 abstract description 5
- 230000015654 memory Effects 0.000 description 50
- 230000003287 optical effect Effects 0.000 description 20
- 238000000034 method Methods 0.000 description 15
- 230000006870 function Effects 0.000 description 13
- 238000010586 diagram Methods 0.000 description 11
- 230000015572 biosynthetic process Effects 0.000 description 6
- 238000003786 synthesis reaction Methods 0.000 description 6
- 238000011410 subtraction method Methods 0.000 description 5
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000000844 transformation Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000004381 surface treatment Methods 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Image Generation (AREA)
Abstract
Description
本発明は、入力映像の撮影時とは異なる視点の映像を仮想的に生成する仮想視点変換装置及びプログラムに関する。 The present invention relates to a virtual viewpoint conversion device and a program that virtually generates an image of a viewpoint different from that at the time of shooting an input image.
従来、撮影時の入力映像を、撮影時とは異なる視点の映像に仮想的に変換し、仮想視点映像を生成する手法が知られている。例えば、ビデオゲームにおいては、被写体データの容量及び演算コストを削減するため、カメラの方向を指向する部分平面にて被写体を表現するビルボードモデルが用いられることがある(例えば、特許文献1〜3を参照)。
Conventionally, there has been known a method of virtually converting an input image at the time of shooting into an image of a viewpoint different from that at the time of shooting to generate a virtual viewpoint image. For example, in a video game, a billboard model that expresses a subject on a partial plane that points in the direction of the camera may be used in order to reduce the capacity of subject data and the calculation cost (for example,
また、実写映像に基づく仮想空間描画方法として、演算の高速化を実現するため、仮想空間内の仮想物体の実写画像に基づく空間データをビルボード画像データとして扱うものがある(例えば、特許文献4を参照)。 Further, as a virtual space drawing method based on a live-action image, there is a method of treating spatial data based on a live-action image of a virtual object in a virtual space as billboard image data in order to realize high-speed calculation (for example, Patent Document 4). See).
前述の特許文献1〜3の手法におけるビルボードモデルは、ビデオゲームのように、予め被写体情報をデータ化しておくことが可能な場合に多用される。また、前述の特許文献4の手法は、実写映像に適用するものであるが、ビルボード画像は、予め内部メモリに格納されていることが前提となっており、ビルボード画像自体の生成方法については言及されていない。
The billboard model in the methods of
そこで、仮想視点映像を生成する場合に、予め被写体情報をデータ化しておく必要がなく、かつ、予めビルボート画像を内部メモリに格納しておく必要のない手法が提案されている(例えば、非特許文献1を参照)。 Therefore, when generating a virtual viewpoint image, a method has been proposed in which it is not necessary to convert the subject information into data in advance and it is not necessary to store the billboard image in the internal memory in advance (for example, non-patent). See Patent Document 1).
非特許文献1の手法は、複数のカメラで撮影された入力映像から被写体領域をそれぞれ抽出し、複数の被写体領域の対応付けを行い、フィールド平面上の2次元座標に基づくビルボードモデルを生成し、3次元CG空間を生成するものである。
In the method of Non-Patent
これにより、撮影時点とは異なる視点位置から仮想的に撮影した映像を生成することができ、実写ベースのレンダリングによる写実的な仮想視点移動を実現することができる。 As a result, it is possible to generate a virtually shot image from a viewpoint position different from that at the time of shooting, and it is possible to realize a realistic virtual viewpoint movement by rendering based on live action.
前述の非特許文献1の手法は、背景差分法にて入力映像から被写体映像及び背景映像を抽出し、ビルボードモデルを用いて射影変換し、撮影時点とは異なる視点位置から仮想的に撮影した映像(仮想視点映像)を得るものである。
In the method of Non-Patent
例えば入力映像が日中に撮影された場合には、被写体に影が存在することとなり、被写体に影が付加された仮想視点映像が生成される。しかし、影はCG処理により被写体に後付けしたり、背景差分法をそのまま用いたりすることで、結果として、影に違和感のある仮想視点映像が生成されてしまうという問題があった。 For example, when the input video is shot in the daytime, a shadow exists on the subject, and a virtual viewpoint video in which the shadow is added to the subject is generated. However, there is a problem that shadows are retrofitted to the subject by CG processing or the background subtraction method is used as it is, and as a result, a virtual viewpoint image having a sense of discomfort in the shadows is generated.
例えば背景差分法をそのまま用いると、入力映像から影を含む被写体映像が抽出され、影が被写体と同様に射影変換されることから、影が正しい位置に反映されず、違和感のある影となってしまうからである。 For example, if the background subtraction method is used as it is, a subject image including shadows is extracted from the input image, and the shadows are projected and converted in the same manner as the subject. This is because it ends up.
このため、被写体の影のような所定の映像特徴を有する領域を、仮想視点映像内の正しい位置に反映させることで、ユーザにとって違和感のない仮想視点映像を得ることが所望されていた。 Therefore, it has been desired to obtain a virtual viewpoint image that does not give a sense of discomfort to the user by reflecting a region having a predetermined image feature such as a shadow of a subject at a correct position in the virtual viewpoint image.
そこで、本発明は前記課題を解決するためになされたものであり、その目的は、撮影時の入力映像を、撮影時とは異なる視点の映像に仮想的に変換する際に、被写体の影等の所定の映像特徴を有する領域を適切に合成することで、一層自然な仮想視点映像を生成可能な仮想視点変換装置及びプログラムを提供することにある。 Therefore, the present invention has been made to solve the above problems, and an object of the present invention is to create a shadow of a subject when virtually converting an input image at the time of shooting into an image at a viewpoint different from that at the time of shooting. It is an object of the present invention to provide a virtual viewpoint conversion device and a program capable of generating a more natural virtual viewpoint image by appropriately synthesizing a region having a predetermined image feature.
前記課題を解決するために、請求項1の仮想視点変換装置は、撮影時の入力映像を、前記撮影時とは異なる視点の映像に仮想的に変換することで、仮想視点映像を生成する仮想視点変換装置において、前記入力映像から背景映像を生成する背景生成部と、前記入力映像から第一被写体の領域を抽出し、前記第一被写体の形状及び所定の画素値を有する第一キー映像を生成する第一被写体抽出部と、前記入力映像から所定の映像特徴を有する第二被写体の領域を抽出し、前記第二被写体の形状及び所定の画素値を有する第二キー映像を生成する第二被写体抽出部と、前記第二キー映像の示す前記入力映像の部分を第二被写体映像とし、当該第二被写体映像に対し、前記入力映像のカメラパラメータ及び前記仮想視点映像のカメラパラメータを用いて第一の射影変換を行い、前記第二被写体の仮想視点映像を生成する第一射影変換部と、前記第一被写体抽出部により生成された前記第一キー映像、及び前記入力映像のカメラパラメータに基づいて、ビルボードを設定するビルボード設定部と、前記入力映像及び前記第一被写体抽出部により生成された前記第一キー映像に対し、前記入力映像のカメラパラメータ、前記仮想視点映像のカメラパラメータ及び前記ビルボード設定部により設定された前記ビルボードを用いて第二の射影変換を行い、前記第一被写体の仮想視点映像を生成すると共に、前記第一被写体の形状及び前記所定の画素値を有する第一キーの仮想視点映像を生成する第二射影変換部と、前記第二射影変換部により生成された前記第一キーの仮想視点映像に基づいて、前記第一射影変換部により生成された前記第二被写体の仮想視点映像、及び前記第二射影変換部により生成された前記第一被写体の仮想視点映像を合成することで、前記仮想視点映像を生成する合成部と、を備えたことを特徴とする。
In order to solve the above problem, the virtual viewpoint conversion device according to
また、請求項2の仮想視点変換装置は、撮影時の入力映像を、前記撮影時とは異なる視点の映像に仮想的に変換することで、仮想視点映像を生成する仮想視点変換装置において、前記入力映像から背景映像を生成する背景生成部と、前記入力映像から第一被写体の領域を抽出し、前記第一被写体の形状及び所定の画素値を有する第一キー映像を生成する第一被写体抽出部と、前記入力映像から所定の映像特徴を有する第二被写体の領域を抽出し、前記第二被写体及び所定の画素値を有する第二キー映像を生成する第二被写体抽出部と、前記背景生成部により生成された前記背景映像に対し、前記第二被写体抽出部により生成された前記第二キー映像の示す前記入力映像の部分を合成することで、合成あり背景映像を生成する背景合成部と、前記背景合成部により生成された前記合成あり背景映像に対し、前記入力映像のカメラパラメータ及び前記仮想視点映像のカメラパラメータを用いて第一の射影変換を行い、背景の仮想視点映像を生成する第一射影変換部と、前記第一被写体抽出部により生成された前記第一キー映像、及び前記入力映像のカメラパラメータに基づいて、ビルボードを設定するビルボード設定部と、前記入力映像及び前記第一被写体抽出部により生成された前記第一キー映像に対し、前記入力映像のカメラパラメータ、前記仮想視点映像のカメラパラメータ及び前記ビルボード設定部により設定された前記ビルボードを用いて第二の射影変換を行い、前記第一被写体の仮想視点映像を生成すると共に、前記第一被写体の形状及び前記所定の画素値を有する第一キーの仮想視点映像を生成する第二射影変換部と、前記第二射影変換部により生成された前記第一キーの仮想視点映像に基づいて、前記第一射影変換部により生成された前記背景の仮想視点映像、及び前記第二射影変換部により生成された前記第一被写体の仮想視点映像を合成することで、前記仮想視点映像を生成する合成部と、を備えたことを特徴とする。 Further, the virtual viewpoint conversion device according to claim 2 is the virtual viewpoint conversion device that generates a virtual viewpoint image by virtually converting an input image at the time of shooting into an image of a viewpoint different from that at the time of shooting. A background generator that generates a background image from an input image, and a first subject extraction that extracts a region of a first subject from the input image and generates a first key image having the shape of the first subject and a predetermined pixel value. A second subject extraction unit that extracts a region of a second subject having a predetermined image feature from the input image and generates a second key image having the second subject and a predetermined pixel value, and the background generation. By synthesizing the part of the input image indicated by the second key image generated by the second subject extraction unit with the background image generated by the unit, the background synthesizing unit that generates the background image with composition The background image with composition generated by the background compositing unit is subjected to the first projection conversion using the camera parameters of the input image and the camera parameters of the virtual viewpoint image to generate the virtual viewpoint image of the background. The billboard setting unit that sets the billboard based on the camera parameters of the first projection conversion unit, the first key image generated by the first subject extraction unit, and the input image, the input image, and the input image. For the first key image generated by the first subject extraction unit, the camera parameters of the input image, the camera parameters of the virtual viewpoint image, and the billboard set by the billboard setting unit are used for the second. A second projection conversion unit that performs projection conversion to generate a virtual viewpoint image of the first subject and also generates a virtual viewpoint image of the first key having the shape of the first subject and the predetermined pixel value, and the above. Based on the virtual viewpoint image of the first key generated by the second projection conversion unit, the virtual viewpoint image of the background generated by the first projection conversion unit and the above-mentioned generated by the second projection conversion unit. It is characterized by including a compositing unit that generates the virtual viewpoint image by synthesizing the virtual viewpoint image of the first subject.
また、請求項3の仮想視点変換装置は、請求項1または2に記載の仮想視点変換装置において、前記背景生成部が、前記入力映像の複数フレームから前記背景映像を生成し、前記第二被写体抽出部が、前記入力映像の単一フレームにおける所定の画素値特徴を有する領域を前記第二被写体の領域として抽出する、ことを特徴とする。
Further, in the virtual viewpoint conversion device according to claim 3, in the virtual viewpoint conversion device according to
さらに、請求項4のプログラムは、コンピュータを、請求項1から3までのいずれか一項に記載の仮想視点変換装置として機能させることを特徴とする。
Further, the program of claim 4 is characterized in that the computer functions as the virtual viewpoint conversion device according to any one of
以上のように、本発明によれば、撮影時の入力映像を、撮影時とは異なる視点の映像に仮想的に変換する際に、被写体の影等の所定の映像特徴を有する領域を適切に合成することで、一層自然な仮想視点映像を生成することが可能となる。 As described above, according to the present invention, when virtually converting an input image at the time of shooting into an image at a viewpoint different from that at the time of shooting, an area having a predetermined image feature such as a shadow of a subject is appropriately defined. By synthesizing, it becomes possible to generate a more natural virtual viewpoint image.
以下、本発明を実施するための形態について図面を用いて詳細に説明する。本発明は、第一被写体と、第一被写体の影等の所定の映像特徴を有する第二被写体とをそれぞれ抽出し、これらに対して異なる射影変換を適用し、射影変換後の映像を合成することで、異なる視点から見た映像を仮想的に生成することを特徴とする。 Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the drawings. In the present invention, the first subject and the second subject having predetermined image features such as the shadow of the first subject are extracted, different projection conversions are applied to them, and the image after the projection conversion is synthesized. This is characterized by virtually generating images viewed from different viewpoints.
これにより、撮影時の入力映像を、撮影時とは異なる視点の映像に仮想的に変換する際に、第二被写体を適切に合成することができ、一層自然な仮想視点映像を生成することが可能となる。 As a result, when the input image at the time of shooting is virtually converted into an image at a viewpoint different from that at the time of shooting, the second subject can be appropriately combined, and a more natural virtual viewpoint image can be generated. It will be possible.
〔仮想視点変換装置〕
以下、本発明の実施形態による仮想視点変換装置について説明する。図1は、本発明の実施形態による仮想視点変換装置の構成例を示すブロック図である。この仮想視点変換装置1は、背景生成部10、第一被写体抽出部11、第二被写体抽出部12、合成部(背景合成部)13、第一射影変換部14、ビルボード設定部15、第二射影変換部16及び合成部17を備えている。
[Virtual viewpoint conversion device]
Hereinafter, the virtual viewpoint conversion device according to the embodiment of the present invention will be described. FIG. 1 is a block diagram showing a configuration example of a virtual viewpoint conversion device according to an embodiment of the present invention. The virtual
仮想視点変換装置1は、入力映像I、入力映像Iのカメラパラメータ及び仮想視点映像Jのカメラパラメータに基づいて、入力映像Iを幾何学的に変換する際に、被写体(第一被写体)の影(第二被写体)を背景映像Bに合成し、仮想視点映像Jを生成する。
The virtual
カメラパラメータは、カメラの光学主点に関する視点位置情報を含むものとする。尚、カメラパラメータは、さらに、姿勢(例えば、パン、チルト及びロールの各角度)、画角(またはレンズの焦点距離)、レンズひずみ、露出値(アイリス、シャッター速度、感度等)、色補正値等の一部または全部を含むようにしてもよい。 The camera parameters shall include the viewpoint position information regarding the optical principal point of the camera. The camera parameters also include attitude (for example, pan, tilt, and roll angles), angle of view (or lens focal length), lens distortion, exposure value (iris, shutter speed, sensitivity, etc.), and color correction value. Etc. may be included in part or in whole.
以下、時刻t及び画像座標(x,y)における映像の画素値は、映像を表す文字の後に(t;x,y)を付して示すものとする。例えば、入力映像Iの時刻t及び画像座標(x,y)における画素値をI(t;x,y)と記す。尚、画素値はスカラー量(例えば、モノクロ映像の場合)であってもよいし、ベクトル量(例えば、カラー映像の場合、赤、緑及び青の3成分からなるベクトル値)であってもよい。 Hereinafter, the pixel value of the image at the time t and the image coordinates (x, y) shall be indicated by adding (t; x, y) after the character representing the image. For example, the pixel value at the time t and the image coordinates (x, y) of the input video I is described as I (t; x, y). The pixel value may be a scalar amount (for example, in the case of a monochrome image) or a vector amount (for example, in the case of a color image, a vector value composed of three components of red, green, and blue). ..
図2は、仮想視点変換装置1の処理例を示すフローチャートである。以下、図1及び図2を参照して、仮想視点変換装置1の各構成部について説明する。
FIG. 2 is a flowchart showing a processing example of the virtual
(背景生成部10)
背景生成部10は、時系列の入力映像I(入力映像Iの複数フレーム)から、動物体を除去した背景映像Bを生成し(ステップS201)、背景映像Bを第一被写体抽出部11及び合成部13に出力する。背景映像Bの生成処理は既知であり、例えば背景差分法を用いることができる。背景差分法の詳細については、例えば特許第5227226号公報の段落44及び数式8を参照されたい。
(Background generation unit 10)
The
(第一被写体抽出部11)
第一被写体抽出部11は、背景生成部10から背景映像Bを入力する。そして、第一被写体抽出部11は、入力映像I、及び背景生成部10により入力映像Iの複数フレームから生成された背景映像Bに基づいて、被写体(第一被写体)とそれ以外の箇所(背景映像B)とを区別して被写体の領域を抽出し、被写体の形状を表し、かつ当該被写体の領域と他の領域とを区別する画素値を有するキー映像Kを生成する(ステップS202)。そして、第一被写体抽出部11は、キー映像Kをビルボード設定部15及び第二射影変換部16に出力する。以下、被写体は第一被写体を示すものとする。
(First subject extraction unit 11)
The first
キー映像Kは2値映像であってもよいし(例えば、被写体に属する画素の画素値を1とし、それ以外の画素の画素値を0とする)、多値映像であってもよい(例えば、被写体に属する画素の画素値を1とし、それ以外の画素の画素値を0とするが、被写体の境界部については0より大きく1未満の数値とする)。 The key image K may be a binary image (for example, the pixel value of the pixel belonging to the subject is 1 and the pixel value of the other pixels is 0), or the key image K may be a multi-value image (for example). , The pixel value of the pixel belonging to the subject is set to 1, and the pixel value of the other pixels is set to 0, but the boundary portion of the subject is set to a value larger than 0 and less than 1.).
例えば第一被写体抽出部11は、以下の式にて、背景生成部10により生成された背景映像Bと入力映像Iとを比較することで、キー映像Kを生成する。
例えば関数φとして、以下の式のように、画素値pと画素値qとの間の差に対するノルム値(例えばユークリッド距離、マンハッタン距離、チェビシェフ距離)に応じて出力値を決定する関数が用いられる。この場合のφ(p,q)は、1(画素値pと画素値qとの間の差の絶対値が予め設定された閾値θよりも大きい場合)または0(画素値pと画素値qとの間の差の絶対値が閾値θ以下である場合)のいずれかの値となる。
(第二被写体抽出部12)
第二被写体抽出部12は、入力映像Iの単一フレームから、所定の映像特徴を有する領域(第二被写体の領域)を抽出し、当該領域の形状を表し、かつ当該領域と他の領域とを区別する画素値を有するキー映像Fを生成し(ステップS203)、キー映像Fを合成部13に出力する。
(Second subject extraction unit 12)
The second
所定の映像特徴を有する領域とは、第一被写体抽出部11により抽出される第一被写体に関連する物の領域であり、例えば、第一被写体と共に動く第一被写体の影の領域である。
The region having a predetermined image feature is a region of an object related to the first subject extracted by the first
第二被写体抽出部12は、例えば、映像特徴として色ベクトルに関する情報を用いるクロマキー技術またはルミナンスキー技術を用いて、キー映像Fを生成する。
The second
例えば、以下の式が用いられる。
例えば第二被写体抽出部12は、入力映像Iの各画素が緑色であるか否か(芝生であるか否か)を判定する。そして、第二被写体抽出部12は、緑色である(芝生である)場合、キー映像Fの当該画素の画素値を0に設定し、緑色以外である(芝生でない)場合、キー映像Fの当該画素の画素値を1に設定する。
For example, the second
関数Ψは、画素が色ベクトルc=[c(r) c(g) c(b)]T(上付きのTは、行列またはベクトルの転置を表す)なる3次元のベクトルで表される場合、以下の式が用いられる。
尚、第二被写体抽出部12は、クロマキー技術またはルミナンスキー技術を用いて、キー映像Fの画素値を2値以上の多値としてもよい。例えば、キー映像Fの画素値を0以上かつ1以下とし、画素値が大きいほど「第二被写体らしい」ものと定義するようにしてもよい。
The second
(合成部13)
合成部13は、背景生成部10から背景映像Bを入力すると共に、第二被写体抽出部12からキー映像Fを入力する。そして、合成部13は、背景映像Bに対し、キー映像Fに基づくキーイングにより入力映像Iの画素値を合成し、合成あり背景映像A(第二被写体が合成された背景映像A)を生成する(ステップS204)。合成部13は、合成あり背景映像Aを第一射影変換部14に出力する。
(Synthesis unit 13)
The
例えば、第二被写体抽出部12により、第二被写体である影の部分の色をF(t;x,y)=1、それ以外をF(t;x,y)=0としてキー映像Fが生成された場合を想定する。この場合、合成部13は、例えば以下の式にて、背景映像Bに対し、キー映像Fの示す映像(キー映像Fの示す入力映像Iの部分)を合成した合成あり背景映像Aを生成する。
尚、合成部13は、背景映像Bに対し、キー映像F及びキー映像Kに基づくキーイングにより入力映像Iの画素値を合成し、合成あり背景映像Aを生成するようにしてもよい。
The
例えば、第二被写体抽出部12により、第二被写体である日向の背景色(例えば、日向の芝生)をF(t;x,y)=0、それ以外をF(t;x,y)=1としてキー映像Fが生成された場合を想定する。この場合、合成部13は、例えば以下の式にて、合成あり背景映像Aを生成する。
前記式(6)において、F(t;x,y)=1の部分には日陰の背景領域及び前景(背景領域における影及び被写体領域における影)が含まれ、K(t;x,y)=1の部分には前景(被写体)が含まれる。したがって、右辺のF(t;x,y)・(1−K(t;x,y))=1の部分には、日陰の背景領域(背景領域における影)のみが含まれることとなる。その結果、合成あり背景映像Aは、背景映像Bに対し、影の映像のみを合成した絵柄となる。 In the above equation (6), the portion of F (t; x, y) = 1 includes a shaded background area and a foreground (shadow in the background area and shadow in the subject area), and K (t; x, y). The portion of = 1 includes the foreground (subject). Therefore, the portion of F (t; x, y) · (1-K (t; x, y)) = 1 on the right side includes only the shaded background area (shadow in the background area). As a result, the background image A with composition becomes a pattern in which only the shadow image is combined with the background image B.
例えば、影の色が被写体の色と同じ場合には、影のみが反映されるべきキー映像Fは、被写体を含んでしまい、合成あり背景映像Aは、被写体の映像も含んでしまう。前記式(6)を用いることにより、合成あり背景映像Aから被写体の映像を除外することができる。 For example, when the color of the shadow is the same as the color of the subject, the key image F in which only the shadow should be reflected includes the subject, and the background image A with composition also includes the image of the subject. By using the above formula (6), the image of the subject can be excluded from the background image A with composition.
(第一射影変換部14)
第一射影変換部14は、合成部13から合成あり背景映像Aを入力すると共に、予め設定された入力映像Iのカメラパラメータ及び仮想視点映像Jのカメラパラメータを入力する。
(First projective transformation unit 14)
The first
第一射影変換部14は、合成あり背景映像Aの各画素値が、被写界における所定の面内(例えば、地上高0の平面内、実空間上の面G内)の一点(または部分領域)を入力映像Iのカメラパラメータに応じて投影して撮像されたものと仮定する。そして、第一射影変換部14は、被写界における所定の面内の一点(または部分領域)を、仮想視点(仮想視点映像J)のカメラパラメータに応じて、仮想視点映像Jの平面上に投影することで、背景の仮想視点映像Lを生成する(ステップS205)。
In the first
すなわち、第一射影変換部14は、合成あり背景映像Aの各画素値が、被写界における所定の面内に存在することを仮定した射影変換を実行し、背景の仮想視点映像Lを生成する。第一射影変換部14は、背景の仮想視点映像Lを合成部17に出力する。
That is, the first
実装上は、第一射影変換部14は、仮想視点映像Jの画像座標から入力映像Iの画像座標へと光線を逆にたどることで、仮想視点映像Jの平面上に投影された合成あり背景映像Aの画素値を決定し、背景の仮想視点映像Lを生成する。
In terms of implementation, the first
図3は、第一射影変換部14の構成例を示すブロック図であり、図4は、第一射影変換部14の動作を説明する図である。第一射影変換部14は、フレームメモリ20,24、走査部21、第一逆投影部22及び第一投影部23を備えている。
FIG. 3 is a block diagram showing a configuration example of the first
走査部21は、仮想視点映像Jのフレーム内の各画素を所定の順序で選択することで、画素の画像座標PJを走査し、画素の画像座標PJを第一逆投影部22及びフレームメモリ24に出力する。走査部21は、例えばラスタ走査により、画素を順次選択する。
第一逆投影部22は、走査部21から仮想視点映像Jの画素の画像座標PJを入力すると共に、仮想視点映像Jのカメラパラメータを入力する。そして、第一逆投影部22は、仮想視点映像Jのカメラパラメータに基づいて、画像座標PJを、被写界における所定の面である実空間上の面Gに逆投影し、逆投影像の点PGを設定し、点PGの位置情報を第一投影部23に出力する。すなわち、第一逆投影部22は、画像座標PJが実空間上の面Gのどこに対応するかを求め、対応する点PGを設定する。
The first
具体的には、第一逆投影部22は、仮想視点映像Jの光学主点OJから画像座標PJの点を通る半直線を、画像座標PJの点方向へ伸ばし、その半直線が面Gと交わる点(複数の交わる点を有する場合には、光学主点OJに最も近い点)を求め、点PGを設定する。
Specifically, the first
尚、面Gは平面であってもよいし、曲面であってもよい。面Gは、例えば被写界における地面、壁面、天井面(測量の結果得られる曲面であってもよいし、それを近似した平面であってもよい)とする。 The surface G may be a flat surface or a curved surface. The surface G is, for example, a ground surface, a wall surface, or a ceiling surface in the field of view (a curved surface obtained as a result of surveying, or a plane that approximates the curved surface).
第一投影部23は、第一逆投影部22から点PGの位置情報を入力すると共に、入力映像Iのカメラパラメータを入力する。そして、第一投影部23は、入力映像Iのカメラパラメータに基づいて、点PGを入力映像Iの平面上に投影し、投影像の画像座標PIを設定し、画像座標PIをフレームメモリ20に出力する。すなわち、第一投影部23は、点PGが入力映像Iの平面のどこに対応するかを求め、対応する画像座標PIを設定する。
First projecting
具体的には、第一投影部23は、点PGと入力映像Iを撮影したカメラの光学主点OIとを結ぶ線分が、入力映像Iの平面と交わる点を求め、これを画像座標PIに設定する。
Specifically, the first projecting
フレームメモリ20は、合成部13から合成あり背景映像Aを入力し、合成あり背景映像Aを格納する。これにより、フレームメモリ20には、合成あり背景映像Aの画素値が保持される。フレームメモリ20は、第一投影部23から画像座標PIを入力する。そして、フレームメモリ20は、画像座標PI(その水平及び垂直成分をそれぞれPI (x)及びPI (y)とする)における合成あり背景映像Aの画素値、すなわち入力映像Iの画素値I(t;PI (x),PI (y))をフレームメモリ24に出力する。
The
つまり、第一射影変換部14により、フレームメモリ20から、第一投影部23にて設定された画像座標PIにおける画素値I(t;PI (x),PI (y))が読み出され、フレームメモリ24に出力される。
That is, by the first
フレームメモリ24は、走査部21から画像座標PJを入力すると共に、フレームメモリ20から画素値I(t;PI (x),PI (y))を入力する。そして、フレームメモリ24は、以下の式に示すように、画像座標PJ(その水平及び垂直成分をそれぞれPJ (x)及びPJ (y)とする)の位置に、画素値I(t;PI (x),PI (y))を背景の仮想視点映像Lの画素値として格納する。フレームメモリ24は、背景の仮想視点映像Lを合成部17に出力する。
つまり、第一射影変換部14により、フレームメモリ24から、走査部21にて設定された画像座標PJの位置に画素値I(t;PI (x),PI (y))が格納され、背景の仮想視点映像Lとして読み出され、合成部17に出力される。
That is, by the first
(ビルボード設定部15)
図1及び図2に戻って、ビルボード設定部15は、第一被写体抽出部11からキー映像Kを入力すると共に、予め設定された入力映像Iのカメラパラメータを入力する。そして、ビルボード設定部15は、キー映像Kの示す被写体領域(例えば、K(t;x,y)=1を満たす領域)の各連結領域Ci(iは、連結領域の個々を区別するためのインデックスとする。)に対して、それぞれ所定のモデルによるビルボードの面Πiを設定する(ステップS206)。所定のモデルによるビルボードの面Πiとは、例えば、平面、円筒面または球面とする。
(Billboard setting unit 15)
Returning to FIGS. 1 and 2, the
ビルボード設定部15は、ビルボードの面Πiのパラメータ(例えば、面の方程式の各係数)をビルボードパラメータとして設定し、ビルボードパラメータを第二射影変換部16に出力する。ここでは、ビルボード設定部15は、連結領域Ciの総数(D個とする)のビルボードパラメータを出力するものとする。
The
図5は、ビルボード設定部15の動作を説明する図である。ビルボード設定部15は、所定のモデルによるビルボードの面Πiを平面とする場合には、例えば、以下の(a)、(b)及び(c)の全ての条件を満たすように、ビルボードの面Πiを設定する。
FIG. 5 is a diagram illustrating the operation of the
以下、図5を参照して説明する。
(a)面Πiは、連結領域Ciの代表点(例えば、連結領域Ci(図5に示す黒塗りの領域)のバウンディングボックスの底辺の中点)を面G上に逆投影した点X(入力映像Iを撮影したカメラの光学主点OIを始点とし、入力映像Iの平面上の前記代表点を通る半直線が面Gと交差する点X)を含む。
Hereinafter, description will be made with reference to FIG.
(A) plane [pi i is a representative point of the coupling region C i (e.g., coupling regions C i (midpoint of the base of the bounding box of the region) of the black shown in FIG. 5) a point obtained by backprojection onto a surface G Includes X (a point X whose starting point is the optical principal point O I of the camera that captured the input image I and where a half straight line passing through the representative point on the plane of the input image I intersects the surface G).
(b)面Πiの法線ベクトルは、点Xにおける面Gの法線ベクトルと直交する。
(c)面Πiは、前記(a)及び(b)を満たす平面のうち、点Xから光学主点OIへのベクトルと、当該面Πiの法線ベクトルとの間の成す角が最小となるものである。
(B) The normal vector of the plane Π i is orthogonal to the normal vector of the plane G at the point X.
(C) plane [pi i, the (a) and (b) of the planes meet, and a vector of the optical principal point O I from the point X, the angle formed between the normal vector of the plane [pi i It is the minimum.
尚、ビルボード設定部15は、前記(c)の代わりに、以下の(d)または(e)の条件を満たすように、ビルボードの面Πiを設定するようにしてもよい。
(d)面Πiは、前記(a)及び(b)を満たす平面のうち、点Xから仮想視点映像Jの光学主点OJへのベクトルと、当該面Πiの法線ベクトルとの間の成す角が最小となるものである。
(e)点Xから光学主点OIへのベクトルをvIとし、点Xから光学主点OJへのベクトルをvJとする。面Πiは、前記(a)及び(b)を満たす平面のうち、ベクトル(αvI+(1−α)vJ)と、当該面Πiの法線ベクトルとの間の成す角が最小となるものである。パラメータαは、0<α<1を満たす実数とする(例えばα=0.5)。
Instead of the above (c), the
(D) The plane Π i is a vector from the point X to the optical principal point O J of the virtual viewpoint image J and the normal vector of the plane Π i among the planes satisfying the above (a) and (b). The angle between them is the smallest.
(E) Let v I be the vector from the point X to the optical principal point O I , and let v J be the vector from the point X to the optical principal point O J. The surface Π i has the smallest angle formed between the vector (αv I + (1-α) v J ) and the normal vector of the surface Π i among the planes satisfying the above (a) and (b). Is what becomes. The parameter α is a real number satisfying 0 <α <1 (for example, α = 0.5).
前記(e)の条件を満たすように面Πiが設定されることにより、後述する合成部17にて生成される仮想視点映像Jに含まれる被写体は、前記(c)または前記(d)を満たす場合に比べ、実際に近い形態で表現することができる。
By setting the surface Π i so as to satisfy the condition (e), the subject included in the virtual viewpoint image J generated by the
このようにして設定されたビルボードの面Πiのパラメータは、連結領域Ciの総数をD個とした場合、D個のビルボードパラメータとして第二射影変換部16へ出力される。
The parameters of the billboard surface Π i set in this way are output to the second
(第二射影変換部16)
図1及び図2に戻って、第二射影変換部16は、予め設定された入力映像Iのカメラパラメータ及び仮想視点映像Jのカメラパラメータを入力する。また、第二射影変換部16は、第一被写体抽出部11からキー映像Kを入力すると共に、ビルボード設定部15からD個のビルボードパラメータを入力する。
(Second projective transformation unit 16)
Returning to FIGS. 1 and 2, the second
第二射影変換部16は、入力映像I及びキー映像Kの各画素がビルボード(D個のビルボードパラメータが示す面Πi)上にあるという仮定の下で、入力映像Iのカメラパラメータ、仮想視点映像Jのカメラパラメータ及びビルボードを用いて射影変換を実行する。
The second
第二射影変換部16は、前景の仮想視点映像(第一被写体の仮想視点映像)M1〜MD及びキーの仮想視点映像(第一キーの仮想視点映像)N1〜NDを生成する(ステップS207)。第二射影変換部16は、前景の仮想視点映像M1〜MD及びキーの仮想視点映像N1〜NDを合成部17に出力する。ここで、キーの仮想視点映像N1〜NDは、第一被写体の形状を表し、かつ当該第一被写体の領域と他の領域とを区別する画素値を有するキー映像である。
The second
以下、各ビルボードの法線の向きは、ビルボード設定部15により設定されたビルボードの面Πiの各法線ベクトルの方向のまま固定する場合で説明する。尚、各ビルボードの法線の向きは、各ビルボードを例えば仮想視点映像Jの光学主点OJに指向させる等、その法線方向に修正を加えるものであってもよい。
Hereinafter, the direction of the normal of each billboard will be described in the case of fixing the direction of each normal vector of the surface Π i of the billboard set by the
図6は、第二射影変換部16の動作を説明する図である。D個のビルボードパラメータのそれぞれについて、射影変換が実行される。以下、D個のビルボードパラメータのうちi番目のビルボードパラメータについての射影変換について説明する。仮想視点映像Jの平面上のある注目画素の画像座標をPJとし、画像座標PJに対応する入力映像Iの平面上にある画素の画像座標をRiとする。
FIG. 6 is a diagram illustrating the operation of the second
第二射影変換部16は、仮想視点映像Jの光学主点OJを始点として、始点から注目画素の画像座標PJを通る半直線が、i番目のビルボードの面Πiと交わる点Qiを求める。そして、第二射影変換部16は、点Qiを入力映像Iの平面上に投影し、その像の画像座標Riを求める。
The second
具体的には、第二射影変換部16は、点Qiと入力映像Iの光学主点OIとを結ぶ線分が入力映像Iの平面と交差する点の画像座標を求め、これを画像座標Riに設定する。第二射影変換部16は、画像座標Riにおける入力映像Iの画素値を、仮想視点映像Jの平面上の注目画素の画像座標PJにおける画素値に設定する。また、第二射影変換部16は、画像座標Riにおけるキー映像Kの画素値を、仮想視点映像Jの平面上の注目画素の画像座標PJにおけるキー値に設定する。
Specifically, the second
図7は、第二射影変換部16の構成例を示すブロック図である。この第二射影変換部16は、走査部30,34、ビルボード選択部31、フレームメモリ32,33,37,38、第二逆投影部35及び第二投影部36を備えている。
FIG. 7 is a block diagram showing a configuration example of the second
走査部30は、D個のビルボードパラメータの示すビルボードを所定の順序で選択することで、ビルボードのインデックスi(選択したビルボードを識別するためのインデックス)を走査する。走査部30は、インデックスiをビルボード選択部31に出力する。
The
尚、走査部30は、D個のビルボードから1つを選択する際に、仮想視点映像Jの光学主点OJからの距離が遠いもの(光学主点OJからビルボードの面Πの代表点(例えば重心座標)までの距離(例えばユークリッド距離)が遠いもの)ほど先に選択するようにしてもよい。
The
これにより、後述する合成部17において、複数のビルボードによる映像が重なり合う場合に、この順番で映像が合成されることで、近くの画素を優先することができ、遠くのビルボードを近くのビルボードで隠すいわゆる陰面処理を実現することができる。
As a result, in the
ビルボード選択部31は、ビルボード設定部15からD個のビルボードパラメータを入力すると共に、走査部30からインデックスiを入力する。そして、ビルボード選択部31は、D個のビルボードパラメータのうち、インデックスiの示すビルボードパラメータを選択し、選択したビルボードパラメータを第二逆投影部35に出力する。
The
走査部34は、出力すべき前景の仮想視点映像M及びキーの仮想視点映像Nの平面上において画素位置を走査することで、各画素を所定の順序で選択し、画素の画像座標PJを第二逆投影部35及びフレームメモリ37,38に出力する。走査部34は、例えばラスタ走査により、画素を順次選択する。
第二逆投影部35は、走査部34から、前景の仮想視点映像M及びキーの仮想視点映像Nにおける画素の画像座標PJを入力すると共に、ビルボード選択部31からビルボードパラメータを入力する。また、第二逆投影部35は、予め設定された仮想視点映像Jのカメラパラメータを入力する。
The second
第二逆投影部35は、仮想視点映像Jのカメラパラメータに基づいて、画像座標PJを、ビルボードパラメータの示すビルボードの面Πiに逆投影し、逆投影像の点Qiを設定し、点Qiの位置情報を第二投影部36に出力する。すなわち、第二逆投影部35は、画像座標PJがビルボードの面Πiのどこに対応するかを求め、対応する点Qiを設定する。
The second
具体的には、第二逆投影部35は、仮想視点映像Jの光学主点OJから画像座標PJの点を通る半直線を、画像座標PJの点方向へ伸ばし、その半直線がビルボードの面Πiと交わる点(複数の交わる点を有する場合には、光学主点OJに最も近い点)を求め、点Qiを設定する。
Specifically, the second
第二投影部36は、第二逆投影部35から点Qiの位置情報を入力すると共に、入力映像Iのカメラパラメータを入力する。そして、第二投影部36は、入力映像Iのカメラパラメータに基づいて、点Qiを入力映像Iの平面上に投影し、投影像の画像座標Riを設定し、画像座標Riをフレームメモリ32,33に出力する。すなわち、第二投影部36は、点Qiが入力映像Iの平面のどこに対応するかを求め、対応する画像座標Riを設定する。
The
具体的には、第二投影部36は、点Qiと入力映像Iを撮影したカメラの光学主点OIとを結ぶ線分が、入力映像Iの平面と交わる点を求め、これを画像座標Riに設定する。
Specifically, the
フレームメモリ32は、入力映像Iを格納する。これにより、フレームメモリ32には、入力映像Iの画素値が保持される。フレームメモリ32は、第二投影部36から画像座標Riを入力する。そして、フレームメモリ32は、画像座標Ri(その水平及び垂直成分をそれぞれRi (x)及びRi (y)とする)における入力映像Iの画素値I(t;Ri (x),Ri (y))をフレームメモリ37に出力する。
The
つまり、第二射影変換部16により、フレームメモリ32から、第二投影部36にて設定された画像座標Riにおける画素値I(t;Ri (x),Ri (y))が読み出され、フレームメモリ37に出力される。
That is, the second
フレームメモリ37は、走査部34から画像座標PJを入力すると共に、フレームメモリ32から画素値I(t;Ri (x),Ri (y))を入力する。そして、フレームメモリ37は、以下の式に示すように、画像座標PJ(その水平及び垂直成分をそれぞれPJ (x)及びPJ (y)とする)の位置に、画素値I(t;Ri (x),Ri (y))を格納し、これを前景の仮想視点映像Miの画素値Mi(t;PJ (x),PJ (y))とする。
つまり、第二射影変換部16により、フレームメモリ37において、走査部34にて設定された画像座標PJの位置に、画素値I(t;Ri (x),Ri (y))が前景の仮想視点映像Miの画素値Mi(t;PJ (x),PJ (y))として格納される。
That is, the second
走査部30により全てのインデックスiが走査され、全てのインデックスiについての画素値I(t;Ri (x),Ri (y))が前景の仮想視点映像Miの画素値Mi(t;PJ (x),PJ (y))として、フレームメモリ37に格納される。
All the index i is scanned by the
フレームメモリ37は、全てのインデックスi(i=1〜D)について格納した前景の仮想視点映像M1〜MDを、合成部17に出力する。
The
つまり、第二射影変換部16により、フレームメモリ37から前景の仮想視点映像M1〜MDが読み出され、合成部17に出力される。
That is, by the second
フレームメモリ33は、第一被写体抽出部11からキー映像Kを入力して格納する。これにより、フレームメモリ33には、キー映像Kの画素値が保持される。フレームメモリ33は、第二投影部36から画像座標Riを入力する。そして、フレームメモリ33は、画像座標Ri(その水平及び垂直成分をそれぞれRi (x)及びRi (y)とする)におけるキー映像Kの画素値K(t;Ri (x),Ri (y))をフレームメモリ38に出力する。
The
つまり、第二射影変換部16により、フレームメモリ33から、第二投影部36にて設定された画像座標Riにおける画素値K(t;Ri (x),Ri (y))が読み出され、フレームメモリ38に出力される。
That is, the second
フレームメモリ38は、走査部34から画像座標PJを入力すると共に、フレームメモリ33から画素値K(t;Ri (x),Ri (y))を入力する。そして、フレームメモリ38は、以下の式に示すように、画像座標PJ(その水平及び垂直成分をそれぞれPJ (x)及びPJ (y)とする)の位置に、画素値K(t;Ri (x),Ri (y))を格納し、これをキーの仮想視点映像Niの画素値Ni(t;PJ (x),PJ (y))とする。
つまり、第二射影変換部16により、フレームメモリ38において、走査部34にて設定された画像座標PJの位置に、画素値K(t;Ri (x),Ri (y))がキーの仮想視点映像Niの画素値Ni(t;PJ (x),PJ (y))として格納される。
That is, the second
走査部30により全てのインデックスiが走査され、全てのインデックスiについての画素値K(t;Ri (x),Ri (y))がキーの仮想視点映像Niの画素値Ni(t;PJ (x),PJ (y))として、フレームメモリ38に格納される。
All the index i is scanned by the
フレームメモリ38は、全てのインデックスi(i=1〜D)について格納したキーの仮想視点映像N1〜NDを、合成部17に出力する。
The
つまり、第二射影変換部16により、フレームメモリ38からキーの仮想視点映像N1〜NDが読み出され、合成部17に出力される。
That is, by the second
(合成部17)
図1及び図2に戻って、合成部17は、第一射影変換部14から背景の仮想視点映像Lを入力すると共に、第二射影変換部16から前景の仮想視点映像M1〜MD及びキーの仮想視点映像N1〜NDを入力する。そして、合成部17は、キーの仮想視点映像N1〜NDに基づいて、背景の仮想視点映像L及び前景の仮想視点映像M1〜MDを合成し、仮想視点映像Jを生成して出力する(ステップS208)。
(Synthesis unit 17)
Returning to FIG. 1 and FIG. 2, the combining
合成部17は、背景の仮想視点映像L及び前景の仮想視点映像M1〜MDを合成する際に、例えば以下の式で表す処理を行う。具体的には、合成部17は、キーの仮想視点映像N1〜NDにおける当該画素位置の画素値を参照し、i=1〜Dの順番に、その画素値が大きいほど、前景の仮想視点映像M1〜MDを低い透明度で重畳し、その画素値が小さいほど、前景の仮想視点映像M1〜MDを高い透明度で重畳することで、仮想視点映像Jを生成する。
尚、合成部17は、キーの仮想視点映像N1〜NDを用いることなく、背景の仮想視点映像Lを下地として、その上に前景の仮想視点映像M1〜MDを画素位置毎に重畳し、仮想視点映像Jを生成するようにしてもよい。
Incidentally, the combining
また、合成部17は、仮想視点映像Jの各画素について、当該画素の各ビルボード上の対応点Qiと光学主点OJとの間の距離を算出し、全ビルボード中最も距離の短いビルボードの画素値を特定し、この画素値を用いて仮想視点映像Jを生成するようにしてもよい。
Further, the
以上のように、本発明の実施形態の仮想視点変換装置1によれば、背景生成部10は、入力映像Iの複数フレームから背景映像Bを生成し、第一被写体抽出部11は、入力映像Iの複数フレーム及び背景映像Bに基づいて第一被写体の領域を抽出し、キー映像Kを生成する。
As described above, according to the virtual
第二被写体抽出部12は、入力映像Iの単一フレームから所定の映像特徴を有する第二被写体の領域を抽出し、キー映像Fを生成する。合成部13は、背景映像Bに対し、キー映像Fに基づくキーイングにより入力映像Iの画素値を合成し、合成あり背景映像Aを生成する。
The second
第一射影変換部14は、合成あり背景映像Aの各画素値が、被写界における面G内の一点を入力映像Iのカメラパラメータに応じて投影して撮像されたものと仮定し、面G内の一点を、仮想視点映像Jのカメラパラメータに応じて、仮想視点映像Jの平面上に投影することで、背景の仮想視点映像Lを生成する。
The first
ビルボード設定部15は、キー映像Kの示す被写体領域の各連結領域Ciに対し、それぞれ所定のモデルによるビルボードの面Πiを設定し、D個のビルボードパラメータを設定する。
The
第二射影変換部16は、入力映像I及びキー映像Kの各画素がビルボード(D個のビルボードパラメータが示す面Πi)上にあるという仮定の下で、射影変換を実行し、前景の仮想視点映像M1〜MD及びキーの仮想視点映像N1〜NDを生成する。
The second
合成部17は、キーの仮想視点映像N1〜NDに基づいて、背景の仮想視点映像L及び前景の仮想視点映像M1〜MDを合成し、仮想視点映像Jを生成して出力する。
Combining
これにより、入力映像Iに含まれる背景及び第一被写体である前景に対し、異なる射影変換を適用することで、異なる視点から見た仮想視点映像Jを仮想的に生成することができる。この場合、背景映像Bにおいて欠落してしまう影等の第二被写体を第二被写体抽出部12にて抽出し、合成部13にて背景映像Bに合成するようにしたから、合成部17において、より自然な仮想視点映像Jを得ることができる。
Thereby, by applying different projective transformations to the background included in the input video I and the foreground which is the first subject, the virtual viewpoint video J viewed from different viewpoints can be virtually generated. In this case, the second subject such as a shadow that is missing in the background image B is extracted by the second
したがって、撮影時の入力映像Iを、撮影時とは異なる視点の映像に仮想的に変換する際に、第一被写体の影等の第二被写体を有する領域を適切に合成することができ、一層自然な仮想視点映像Jを生成することが可能となる。 Therefore, when the input image I at the time of shooting is virtually converted into an image at a viewpoint different from that at the time of shooting, it is possible to appropriately synthesize an area having a second subject such as a shadow of the first subject. It is possible to generate a natural virtual viewpoint image J.
〔他の実施形態〕
次に、仮想視点変換装置1について他の実施形態を説明する。図8は、本発明の他の実施形態による仮想視点変換装置の構成例を示すブロック図である。この仮想視点変換装置2は、背景生成部10、第一被写体抽出部11、第二被写体抽出部12、ビルボード設定部15、第二射影変換部16、合成部17及び第一射影変換部18を備えている。
[Other Embodiments]
Next, another embodiment of the virtual
図1に示した仮想視点変換装置1とこの仮想視点変換装置2とを比較すると、両仮想視点変換装置1,2は、背景生成部10、第一被写体抽出部11、第二被写体抽出部12、ビルボード設定部15、第二射影変換部16及び合成部17を備えている点で共通する。一方、仮想視点変換装置2は、合成部13を備えておらず、第一射影変換部14の代わりに第一射影変換部18を備えている点で、合成部13及び第一射影変換部14を備えている仮想視点変換装置1と相違する。
Comparing the virtual
第一射影変換部18は、第二被写体(例えば影)が合成された合成あり背景映像Aを入力する代わりに、第二被写体抽出部12から第二被写体の形状等を表すキー映像Fを入力する。また、第一射影変換部18は、入力映像Iを入力し、予め設定された入力映像Iのカメラパラメータ及び仮想視点映像Jのカメラパラメータを入力する。
The first
第一射影変換部18は、入力映像Iからキー映像Fの示す映像を抽出し、第二被写体映像を生成する。つまり、第一射影変換部18は、キー映像Fの示す入力映像Iの部分を第二被写体映像として生成し、第二被写体映像に対し、第一射影変換部14と同様の処理を行い、第二被写体の仮想視点映像L’を生成する。
The first
具体的には、第一射影変換部18は、第二被写体映像の各画素値が、実空間上の面G内の一点(または部分領域)を入力映像Iのカメラパラメータに応じて投影して撮像されたものと仮定する。そして、第一射影変換部18は、面G内の一点(または部分領域)を、仮想視点映像Jのカメラパラメータに応じて、仮想視点映像Jの平面上に投影することで、第二被写体の仮想視点映像L’を生成する。
Specifically, the first
すなわち、第一射影変換部18は、第二被写体映像の各画素値が、面G内に存在することを仮定した射影変換を実行し、第二被写体の仮想視点映像L’を生成し、第二被写体の仮想視点映像L’を合成部17に出力する。
That is, the first
合成部17は、背景の仮想視点映像Lの代わりに、第一射影変換部18から第二被写体の仮想視点映像L’を入力し、前述した処理を行う。すなわち、合成部17は、キーの仮想視点映像N1〜NDに基づいて、第二被写体の仮想視点映像L’及び前景の仮想視点映像M1〜MDを合成し、仮想視点映像Jを生成して出力する。
The
以上のように、本発明の他の実施形態の仮想視点変換装置2によれば、背景生成部10は、背景映像Bを生成し、第一被写体抽出部11は、キー映像Kを生成し、第二被写体抽出部12は、キー映像Fを生成する。
As described above, according to the virtual viewpoint conversion device 2 of another embodiment of the present invention, the
第一射影変換部18は、キー映像Fの示す入力映像Iの部分を第二被写体映像として生成する。そして、第一射影変換部18は、第二被写体映像の各画素値が、実空間上の面G内の一点を入力映像Iのカメラパラメータに応じて投影して撮像されたものと仮定し、面G内の一点を、仮想視点映像Jのカメラパラメータに応じて、仮想視点映像Jの平面上に投影することで、第二被写体の仮想視点映像L’を生成する。
The first
ビルボード設定部15は、D個のビルボードパラメータを設定し、第二射影変換部16は、前景の仮想視点映像M1〜MD及びキーの仮想視点映像N1〜NDを生成する。
The
合成部17は、キーの仮想視点映像N1〜NDに基づいて、第二被写体の仮想視点映像L’及び前景の仮想視点映像M1〜MDを合成し、仮想視点映像Jを生成して出力する。
The
これにより、入力映像Iに含まれる第一被写体及び第二被写体に対し、異なる射影変換を適用することで、異なる視点から見た仮想視点映像Jを仮想的に生成することができる。この場合、第二被写体抽出部12にて第二被写体の領域を抽出し、第一射影変換部18にて第二被写体の仮想視点映像L’を生成するようにしたから、合成部17において、より自然な仮想視点映像Jを得ることができる。
Thereby, by applying different projective transformations to the first subject and the second subject included in the input video I, the virtual viewpoint video J viewed from different viewpoints can be virtually generated. In this case, the second
したがって、撮影時の入力映像Iを、撮影時とは異なる視点の映像に仮想的に変換する際に、第一被写体の影等の第二被写体を有する領域を適切に合成することができ、一層自然な仮想視点映像Jを生成することが可能となる。 Therefore, when the input image I at the time of shooting is virtually converted into an image at a viewpoint different from that at the time of shooting, it is possible to appropriately synthesize an area having a second subject such as a shadow of the first subject. It is possible to generate a natural virtual viewpoint image J.
以上、実施形態を挙げて本発明を説明したが、本発明は前記実施形態に限定されるものではなく、その技術思想を逸脱しない範囲で種々変形可能である。 Although the present invention has been described above with reference to embodiments, the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the technical idea.
尚、本発明の実施形態による仮想視点変換装置1,2のハードウェア構成としては、通常のコンピュータを使用することができる。仮想視点変換装置1,2は、CPU、RAM等の揮発性の記憶媒体、ROM等の不揮発性の記憶媒体、及びインターフェース等を備えたコンピュータによって構成される。
As the hardware configuration of the virtual
仮想視点変換装置1に備えた背景生成部10、第一被写体抽出部11、第二被写体抽出部12、合成部13,17、第一射影変換部14、ビルボード設定部15及び第二射影変換部16の各機能は、これらの機能を記述したプログラムをCPUに実行させることによりそれぞれ実現される。
また、仮想視点変換装置2に備えた背景生成部10、第一被写体抽出部11、第二被写体抽出部12、ビルボード設定部15、第二射影変換部16、合成部17及び第一射影変換部18の各機能も、これらの機能を記述したプログラムをCPUに実行させることによりそれぞれ実現される。
Further, the
これらのプログラムは、前記記憶媒体に格納されており、CPUに読み出されて実行される。また、これらのプログラムは、磁気ディスク(フロッピー(登録商標)ディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリ等の記憶媒体に格納して頒布することもでき、ネットワークを介して送受信することもできる。 These programs are stored in the storage medium, read by the CPU, and executed. In addition, these programs can be stored and distributed in storage media such as magnetic disks (floppy (registered trademark) disks, hard disks, etc.), optical disks (CD-ROM, DVD, etc.), semiconductor memories, etc., and can be distributed via a network. You can also send and receive.
1,2 仮想視点変換装置
10 背景生成部
11 第一被写体抽出部
12 第二被写体抽出部
13 合成部(背景合成部)
14,18 第一射影変換部
15 ビルボード設定部
16 第二射影変換部
17 合成部
20,24,32,33,37,38 フレームメモリ
21,30,34 走査部
22 第一逆投影部
23 第一投影部
31 ビルボード選択部
35 第二逆投影部
36 第二投影部
I 入力映像
K,F キー映像
A 合成あり背景映像
B 背景映像
Ci 連結領域
L 背景の仮想視点映像
L’ 第二被写体の仮想視点映像
J 仮想視点映像
M1〜MD 前景の仮想視点映像(第一被写体の仮想視点映像)
N1〜ND キーの仮想視点映像(第一キーの仮想視点映像)
OI,OJ 光学主点
G 実空間上の面
1, 2, virtual
14,18 1st
Virtual viewpoint video of N 1 to N D keys (virtual viewpoint video of the first key)
O I , O J Optical principal point G Surface in real space
Claims (4)
前記入力映像から背景映像を生成する背景生成部と、
前記入力映像から第一被写体の領域を抽出し、前記第一被写体の形状及び所定の画素値を有する第一キー映像を生成する第一被写体抽出部と、
前記入力映像から所定の映像特徴を有する第二被写体の領域を抽出し、前記第二被写体の形状及び所定の画素値を有する第二キー映像を生成する第二被写体抽出部と、
前記第二キー映像の示す前記入力映像の部分を第二被写体映像とし、当該第二被写体映像に対し、前記入力映像のカメラパラメータ及び前記仮想視点映像のカメラパラメータを用いて第一の射影変換を行い、前記第二被写体の仮想視点映像を生成する第一射影変換部と、
前記第一被写体抽出部により生成された前記第一キー映像、及び前記入力映像のカメラパラメータに基づいて、ビルボードを設定するビルボード設定部と、
前記入力映像及び前記第一被写体抽出部により生成された前記第一キー映像に対し、前記入力映像のカメラパラメータ、前記仮想視点映像のカメラパラメータ及び前記ビルボード設定部により設定された前記ビルボードを用いて第二の射影変換を行い、前記第一被写体の仮想視点映像を生成すると共に、前記第一被写体の形状及び前記所定の画素値を有する第一キーの仮想視点映像を生成する第二射影変換部と、
前記第二射影変換部により生成された前記第一キーの仮想視点映像に基づいて、前記第一射影変換部により生成された前記第二被写体の仮想視点映像、及び前記第二射影変換部により生成された前記第一被写体の仮想視点映像を合成することで、前記仮想視点映像を生成する合成部と、
を備えたことを特徴とする仮想視点変換装置。 In a virtual viewpoint conversion device that generates a virtual viewpoint image by virtually converting an input image at the time of shooting into an image of a viewpoint different from that at the time of shooting.
A background generator that generates a background image from the input image,
A first subject extraction unit that extracts a region of the first subject from the input video and generates a first key image having the shape of the first subject and a predetermined pixel value.
A second subject extraction unit that extracts a region of a second subject having a predetermined image feature from the input video and generates a second key image having the shape of the second subject and a predetermined pixel value.
The portion of the input image indicated by the second key image is set as the second subject image, and the first projection conversion is performed on the second subject image by using the camera parameters of the input image and the camera parameters of the virtual viewpoint image. The first projection conversion unit that generates the virtual viewpoint image of the second subject, and
A billboard setting unit that sets a billboard based on the camera parameters of the first key image and the input image generated by the first subject extraction unit.
For the input image and the first key image generated by the first subject extraction unit, the camera parameters of the input image, the camera parameters of the virtual viewpoint image, and the billboard set by the billboard setting unit are used. A second projective image is generated by performing a second projective transformation using the first subject to generate a virtual viewpoint image of the first subject, and also generating a virtual viewpoint image of the first key having the shape of the first subject and the predetermined pixel value. Conversion part and
Based on the virtual viewpoint image of the first key generated by the second projection conversion unit, the virtual viewpoint image of the second subject generated by the first projection conversion unit and generated by the second projection conversion unit. By synthesizing the virtual viewpoint image of the first subject, the compositing unit that generates the virtual viewpoint image and
A virtual viewpoint conversion device characterized by being equipped with.
前記入力映像から背景映像を生成する背景生成部と、
前記入力映像から第一被写体の領域を抽出し、前記第一被写体の形状及び所定の画素値を有する第一キー映像を生成する第一被写体抽出部と、
前記入力映像から所定の映像特徴を有する第二被写体の領域を抽出し、前記第二被写体及び所定の画素値を有する第二キー映像を生成する第二被写体抽出部と、
前記背景生成部により生成された前記背景映像に対し、前記第二被写体抽出部により生成された前記第二キー映像の示す前記入力映像の部分を合成することで、合成あり背景映像を生成する背景合成部と、
前記背景合成部により生成された前記合成あり背景映像に対し、前記入力映像のカメラパラメータ及び前記仮想視点映像のカメラパラメータを用いて第一の射影変換を行い、背景の仮想視点映像を生成する第一射影変換部と、
前記第一被写体抽出部により生成された前記第一キー映像、及び前記入力映像のカメラパラメータに基づいて、ビルボードを設定するビルボード設定部と、
前記入力映像及び前記第一被写体抽出部により生成された前記第一キー映像に対し、前記入力映像のカメラパラメータ、前記仮想視点映像のカメラパラメータ及び前記ビルボード設定部により設定された前記ビルボードを用いて第二の射影変換を行い、前記第一被写体の仮想視点映像を生成すると共に、前記第一被写体の形状及び前記所定の画素値を有する第一キーの仮想視点映像を生成する第二射影変換部と、
前記第二射影変換部により生成された前記第一キーの仮想視点映像に基づいて、前記第一射影変換部により生成された前記背景の仮想視点映像、及び前記第二射影変換部により生成された前記第一被写体の仮想視点映像を合成することで、前記仮想視点映像を生成する合成部と、
を備えたことを特徴とする仮想視点変換装置。 In a virtual viewpoint conversion device that generates a virtual viewpoint image by virtually converting an input image at the time of shooting into an image of a viewpoint different from that at the time of shooting.
A background generator that generates a background image from the input image,
A first subject extraction unit that extracts a region of the first subject from the input video and generates a first key image having the shape of the first subject and a predetermined pixel value.
A second subject extraction unit that extracts a region of a second subject having a predetermined image feature from the input video and generates a second subject and a second key image having a predetermined pixel value.
A background that generates a background image with composition by synthesizing a portion of the input image indicated by the second key image generated by the second subject extraction unit with the background image generated by the background generation unit. Synthetic part and
A first projective transformation is performed on the composited background image generated by the background compositing unit using the camera parameters of the input image and the camera parameters of the virtual viewpoint image to generate a virtual viewpoint image of the background. One-projection converter and
A billboard setting unit that sets a billboard based on the camera parameters of the first key image and the input image generated by the first subject extraction unit.
For the input image and the first key image generated by the first subject extraction unit, the camera parameters of the input image, the camera parameters of the virtual viewpoint image, and the billboard set by the billboard setting unit are used. A second projective image is generated by performing a second projective transformation using the first subject to generate a virtual viewpoint image of the first subject, and also generating a virtual viewpoint image of the first key having the shape of the first subject and the predetermined pixel value. Conversion part and
Based on the virtual viewpoint image of the first key generated by the second projection conversion unit, the virtual viewpoint image of the background generated by the first projection conversion unit and the virtual viewpoint image of the background generated by the second projection conversion unit. A compositing unit that generates the virtual viewpoint image by synthesizing the virtual viewpoint image of the first subject,
A virtual viewpoint conversion device characterized by being equipped with.
前記背景生成部は、
前記入力映像の複数フレームから前記背景映像を生成し、
前記第二被写体抽出部は、
前記入力映像の単一フレームにおける所定の画素値特徴を有する領域を前記第二被写体の領域として抽出する、ことを特徴とする仮想視点変換装置。 In the virtual viewpoint conversion device according to claim 1 or 2.
The background generation unit
The background image is generated from a plurality of frames of the input image, and the background image is generated.
The second subject extraction unit
A virtual viewpoint conversion device characterized in that a region having a predetermined pixel value feature in a single frame of the input video is extracted as a region of the second subject.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019076605A JP7352374B2 (en) | 2019-04-12 | 2019-04-12 | Virtual viewpoint conversion device and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019076605A JP7352374B2 (en) | 2019-04-12 | 2019-04-12 | Virtual viewpoint conversion device and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020173726A true JP2020173726A (en) | 2020-10-22 |
JP7352374B2 JP7352374B2 (en) | 2023-09-28 |
Family
ID=72831634
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019076605A Active JP7352374B2 (en) | 2019-04-12 | 2019-04-12 | Virtual viewpoint conversion device and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7352374B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023026519A1 (en) * | 2021-08-27 | 2023-03-02 | ソニーグループ株式会社 | Information processing device, information processing terminal, information processing method, and storage medium |
GB2614698A (en) * | 2021-11-15 | 2023-07-19 | Mo Sys Engineering Ltd | Controlling adaptive backdrops |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002324249A (en) * | 2001-02-26 | 2002-11-08 | Nabura:Kk | Image display system and its method |
JP2012185772A (en) * | 2011-03-08 | 2012-09-27 | Kddi Corp | Method and program for enhancing accuracy of composited picture quality of free viewpoint picture using non-fixed zoom camera |
JP2018163467A (en) * | 2017-03-24 | 2018-10-18 | Kddi株式会社 | Method, device and program for generating and displaying free viewpoint image |
WO2019031259A1 (en) * | 2017-08-08 | 2019-02-14 | ソニー株式会社 | Image processing device and method |
-
2019
- 2019-04-12 JP JP2019076605A patent/JP7352374B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002324249A (en) * | 2001-02-26 | 2002-11-08 | Nabura:Kk | Image display system and its method |
JP2012185772A (en) * | 2011-03-08 | 2012-09-27 | Kddi Corp | Method and program for enhancing accuracy of composited picture quality of free viewpoint picture using non-fixed zoom camera |
JP2018163467A (en) * | 2017-03-24 | 2018-10-18 | Kddi株式会社 | Method, device and program for generating and displaying free viewpoint image |
WO2019031259A1 (en) * | 2017-08-08 | 2019-02-14 | ソニー株式会社 | Image processing device and method |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023026519A1 (en) * | 2021-08-27 | 2023-03-02 | ソニーグループ株式会社 | Information processing device, information processing terminal, information processing method, and storage medium |
GB2614698A (en) * | 2021-11-15 | 2023-07-19 | Mo Sys Engineering Ltd | Controlling adaptive backdrops |
Also Published As
Publication number | Publication date |
---|---|
JP7352374B2 (en) | 2023-09-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5011168B2 (en) | Virtual viewpoint image generation method, virtual viewpoint image generation apparatus, virtual viewpoint image generation program, and computer-readable recording medium recording the program | |
JP6201476B2 (en) | Free viewpoint image capturing apparatus and method | |
TW201915944A (en) | Image processing method, apparatus, and storage medium | |
US20210134049A1 (en) | Image processing apparatus and method | |
JP2006053694A (en) | Space simulator, space simulation method, space simulation program and recording medium | |
WO2000036564A9 (en) | Creating a three-dimensional model from two-dimensional images | |
US20230186550A1 (en) | Optimizing generation of a virtual scene for use in a virtual display environment | |
KR101181199B1 (en) | Stereoscopic image generation method of background terrain scenes, system using the same and recording medium for the same | |
US20220108422A1 (en) | Facial Model Mapping with a Neural Network Trained on Varying Levels of Detail of Facial Scans | |
JP2016537901A (en) | Light field processing method | |
WO2020152927A1 (en) | Training data generation method, training data generation device, and inference processing method | |
US20210217225A1 (en) | Arbitrary view generation | |
JP4965967B2 (en) | Image display system adjustment system | |
US11676252B2 (en) | Image processing for reducing artifacts caused by removal of scene elements from images | |
CN109064533B (en) | 3D roaming method and system | |
Sumantri et al. | 360 panorama synthesis from a sparse set of images with unknown field of view | |
JP7352374B2 (en) | Virtual viewpoint conversion device and program | |
JP2008217593A (en) | Subject area extraction device and subject area extraction program | |
JP5373931B2 (en) | Virtual viewpoint image generation method, virtual viewpoint image generation apparatus, and virtual viewpoint image generation program | |
Wang et al. | Perf: Panoramic neural radiance field from a single panorama | |
KR101000859B1 (en) | HDRI-Panorama image generation apparatus and method with fisheye lens | |
KR102195762B1 (en) | Acquisition method for high quality 3-dimension spatial information using photogrammetry | |
Chang et al. | Spatially-varying image warps for scene alignment | |
US11120606B1 (en) | Systems and methods for image texture uniformization for multiview object capture | |
KR102146839B1 (en) | System and method for building real-time virtual reality |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220309 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230303 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230323 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230510 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230823 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230915 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7352374 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |