JP2017215706A - 映像合成方法、映像取得装置、映像合成装置、映像合成システム及びコンピュータプログラム。 - Google Patents
映像合成方法、映像取得装置、映像合成装置、映像合成システム及びコンピュータプログラム。 Download PDFInfo
- Publication number
- JP2017215706A JP2017215706A JP2016108167A JP2016108167A JP2017215706A JP 2017215706 A JP2017215706 A JP 2017215706A JP 2016108167 A JP2016108167 A JP 2016108167A JP 2016108167 A JP2016108167 A JP 2016108167A JP 2017215706 A JP2017215706 A JP 2017215706A
- Authority
- JP
- Japan
- Prior art keywords
- image
- correction processing
- signal correction
- video
- viewpoint
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Processing Or Creating Images (AREA)
Abstract
【課題】大型の機材を用いることなく、リアルタイムに高い精確性で、自由視点映像を合成できる映像合成技術を提供する。
【解決手段】実施形態の映像合成方法は、複数の視点の三次元画像に対して補正処理を行う信号補正処理ステップと、前記信号補正処理ステップにおいて補正処理された複数の視点の三次元画像から、仮想視点の三次元画像を生成する画像合成処理を行う合成処理ステップと、を有し、前記合成処理部の要求に応じて、前記複数の視点の三次元画像ごとに前記信号補正処理ステップを並列で実行する。
【選択図】図1
【解決手段】実施形態の映像合成方法は、複数の視点の三次元画像に対して補正処理を行う信号補正処理ステップと、前記信号補正処理ステップにおいて補正処理された複数の視点の三次元画像から、仮想視点の三次元画像を生成する画像合成処理を行う合成処理ステップと、を有し、前記合成処理部の要求に応じて、前記複数の視点の三次元画像ごとに前記信号補正処理ステップを並列で実行する。
【選択図】図1
Description
本発明は、複数視点の映像から自由視点映像を合成する映像合成技術に関する。
バーチャルリアリティ(以下、VRと称する)が近年急速に注目を集めており、ヘッドマウントディスプレイ(HMD)をはじめとするVR視聴デバイスや、VRコンテンツの市場が開拓されつつある。VRコンテンツの多くは、ヘッドマウントディスプレイ等を装着することにより、実世界における自身の頭の動き等を計測し、バーチャルな仮想世界における視線方向と連動させることで、従来のテレビ映像では不可能であった没入感を生み出すことができる。そのため、コンピュータグラフィックス(以下、CGと称する)やアニメーションの世界への没入型の映像体験が可能となるため、映像エンタテインメント業界をはじめとする各種業界から高い注目を集めている。
しかしながら、現状のほとんどのVRコンテンツは、CGか若しくは全天球映像によるものである。全天球映像は、CGに比べて写実的な表現ができるため、よりリアリティがあるものの、ユーザは全天球カメラが設置されたある1点から視線を動かすことはできるが、視点の移動をすることはできない。そのため、より没入感を高めるためには、自由視点映像の開発が必要であるといえる。
一方で、究極の映像メディアを追及する研究として、古くから自由視点映像の研究が数多くなされてきた。例えば非特許文献1では、複数のTOF(Time of Flight)カメラを利用した自由視点映像を行っているが、TOFセンサの距離データの補正方法が画像処理ベースのものであり、必ずしも正しい補正結果が得られるとは限らないという課題がある。さらに、TOFセンサが高解像度化してきており、撮影するために要求されるPC(Personal Computer)のスペックが上がってきているという現状がある。このような状況において、非特許文献1のように、並列処理ができない方法では、自由視点映像をリアルタイムに実現することは難しい。
非特許文献2は、クロマキーをはじめ多くの機材を利用し、高画質な自由視点映像を実現するものである。しかしながら、特許文献2では、クロマキー等撮影機材の大規模化は、自由視点映像コンテンツ作成のハードルを上げてしまうというデメリットがある。
Alexiadis, Dimitrios, Dimitrios Zarpalas, and Petros Daras. "Fast and smooth 3D reconstruction using multiple RGB-Depth sensors." Visual Communications and Image Processing Conference, 2014 IEEE. IEEE, 2014.
A. Collet et al., "High-quality streamable free-viewpoint video," ACM Transactions on Graphics, 34(4), 2015
上述のように、現状のリアルタイム自由視点映像技術においては、三次元形状復元におけるアルゴリズムが画像処理ベースであるため、形状の精確性に欠けてしまい、必ずしも正しい形状の復元ができるとは限らない。また、非特許文献1では、並列処理を行うことが困難であり、リアルタイムで高い精確性の三次元形状を生成するためには、機器が大型化するという課題がある。
上述の課題を鑑み、本発明の目的は、大型の機材を用いることなく、リアルタイムに高い精確性で、自由視点映像を合成できる映像合成技術を提供することを目的とする。
本発明の一態様は、複数の視点の三次元画像に対して補正処理を行う信号補正処理ステップと、前記信号補正処理ステップにおいて補正処理された複数の視点の三次元画像から、仮想視点の三次元画像を生成する画像合成処理を行う合成処理ステップと、を有し、前記合成処理部の要求に応じて、前記複数の視点の三次元画像ごとに前記信号補正処理ステップを並列で実行する、映像合成方法である。
本発明の一態様は、上記の映像合成方法であって、前記信号補正処理ステップでは各視点の三次元画像に対して、光学系モデルに従った補正処理を行う映像合成方法である。
本発明の一態様は、上記の映像合成方法であって、前記信号補正処理ステップでは、カラー画像のレンズ歪を補正する第1の補正処理と、距離画像のレンズ歪を補正する第2の補正処理と、前記第2の補正処理によって補正された距離画像の奥行方向の歪を補正する第3の補正処理と、前記第3の補正処理によって補正された距離画像をカラーカメラ視点へと投影するマッピング処理と、を行う、映像合成方法である。
本発明の一態様は、自装置の視点で取得される三次元画像に対して補正処理を行う信号補正処理部を備え、前記信号補正処理部は、自装置を含む複数の映像取得装置によって補正処理された各視点の三次元画像から、仮想視点の三次元画像を生成する画像合成処理を行う映像合成装置の要求に応じて、他の前記映像取得装置に並列して前記補正処理を実行する、映像取得装置である。
本発明の一態様は、複数の視点の三次元画像に基づいて、仮想視点の三次元画像を生成する画像合成処理を行う合成処理部を備え、前記合成処理部は、各視点の三次元画像に対する補正処理を、各視点の三次元画像を取得する複数の映像取得装置に対して並列に実行させる、映像合成装置である。
本発明の一態様は、複数の視点の三次元画像に対して補正処理を行う複数の信号補正処理部と、前記信号補正処理部により補正処理された複数の視点の三次元画像から、仮想視点の三次元画像を生成する画像合成処理を行う合成処理部と、を備え、前記複数の信号補正処理部は、前記合成処理部の要求に応じて前記補正処理を並列処理で行う、映像合成システムである。
本発明の一態様は、複数の視点の三次元画像に対して補正処理を行う信号補正処理ステップと、前記信号補正処理ステップにおいて補正処理された複数の視点の三次元画像から、仮想視点の三次元画像を生成する画像合成処理を行う合成処理ステップと、前記合成処理ステップの処理に応じて、前記複数の視点の三次元画像ごとに前記信号補正処理ステップを並列で実行するステップと、をコンピュータに実行させるためのコンピュータプログラムである。
本発明によれば、信号補正処理部と合成処理部との並列処理により、精確な形状復元による自由視点による三次元形状をリアルタイムで生成できる。
以下、本発明の実施の形態について、図面を参照しながら説明する。図1は本発明の実施形態に係る映像合成システム1の概要の構成図である。図1に示すように、本発明の実施形態に係る映像合成システム1は、複数の視点の三次元画像を撮影するセンサ10−1〜10−4と、信号補正処理部11−1〜11−4と、合成処理部12と、ネットワークスイッチ13とから構成される。
センサ10−1〜10−4は、異なる位置に配置されており、各視点でオブジェクト2の撮影を行う。なお、センサ10−1〜10−4の数は任意であり、センサ10−1〜10−4を特定しない場合、センサ10という。
図2は、センサ10の構成を示すブロック図である。図2に示すように、センサ10は、カラーカメラ101と、距離センサ102とを有している。距離センサ102としては、例えばTOF(Time Of Flight)センサが用いられる。センサ10からは、カラー画像と、距離画像と、撮影時のカメラパラメータ及び奥行方向歪補正パラメータ等の各種パラメータとが出力される。
図1において、センサ10−1〜10−4は、それぞれ、信号補正処理部11−1〜11−4と接続される。信号補正処理部11−1〜11−4は、例えばPC(Personal Computer)を用いて構成される。信号補正処理部11−1〜11−4のLAN(Local Area Network)端子は、ネットワークスイッチ13に接続される。
図3は、信号補正処理部11−1〜11−4として用いるPCの機能ブロック図である。なお、信号補正処理部11−1〜11−4の数は任意であり、信号補正処理部11−1〜11−4を特定しない場合、信号補正処理部11という。
図3に示すように、信号補正処理部11は、入力部111と、信号補正部112を有している。入力部111は、センサ10を構成するカラーカメラ101及び距離センサ102から、1フレームのカラー画像及び距離画像、撮影時のカメラパラメータ、奥行方向歪補正パラメータ等の各種パラメータを取得し、信号補正部112へ出力する。ここで取得されたカラーカメラのフレーム画像及び距離センサのフレーム画像を、以下では、それぞれカラー原画像、距離原画像と称する。信号補正部112は、センサ10からのカラー画像及び距離画像に対して、光学系モデルに従った補正処理を行う。すなわち、信号補正部112は、センサ10からのカラー画像及び距離画像に対して、カラー画像のレンズ歪補正処理と、距離画像のレンズ歪補正処理と、奥行方向歪補正処理と、補正された距離画像をカラーカメラ視点へと投影するマッピング処理を行う。
図1において、合成処理部12は、例えばPCを用いて構成される。合成処理部12には、操作インターフェース機器15と映像出力機器16とが接続される。操作インターフェース機器15及び映像出力機器16としては、例えばヘッドマウントディスプレイ18(HMD)が用いられる。また、合成処理部12のLAN端子は、ネットワークスイッチ13に接続される。ネットワークスイッチ13は、信号補正処理部11−1〜11−4と合成処理部12との間で、データのやり取りを行う。
図4は、合成処理部12として機能するPCの機能ブロック図である。図4に示すように、合成処理部12は、送受信部121と、画像合成部122を備えている。送受信部121は、システムの起動時の現時刻のタイムコード、若しくは録画データ中の要求フレームのタイムコードを送信する。また、送受信部121は、補正処理された補正済みカラー画像、補正済み距離画像及びカメラパラメータを受信する。画像合成部122は、操作インターフェース機器15により設定された仮想視点で、送受信部121を介して入力された画像から自由視点画像を合成し、この自由視点の合成画像を映像出力機器16に出力する。
図5は、本発明の実施形態に係る映像合成システム1の全体構成をブロック図で示したものである。また、図6は本発明の実施形態に係る映像合成システム1の全体動作を示すフローチャートである。図5及び図6を用いて、本発明の実施形態に係る映像合成システム1の動作の概要を説明する。
図5に示すように、本発明の実施形態に係る映像合成システム1は、信号補正処理部11−1〜11−4と合成処理部12とを有している。信号補正処理部11−1〜11−4と合成処理部12とは、ネットワークスイッチ13を介して接続されている。信号補正処理部11−1〜11−4は、入力部111−1〜111−4と信号補正部112−1〜112−4とを備える。合成処理部12は、送受信部121と画像合成部122を備える。
(ステップS101)図6にフローチャートで示すように、信号補正処理部11−1〜11−4の入力部111−1〜111−4は、合成処理部12から要求されるタイムコードに基いて、各々接続されたセンサ10−1〜10−4から、複数の視点のフレーム画像、距離画像、撮影時のカメラパラメータ、及び奥行方向歪補正パラメータをそれぞれ取得し、信号補正部112−1〜112−4へと出力する。
(ステップS102)信号補正部112−1〜112−4は、カラー原画像のレンズ歪補正処理、距離原画像のレンズ歪補正処理、奥行方向歪補正処理、及び補正された距離画像をカラーカメラの視点へマッピングする処理を行う。
(ステップS103)信号補正部112−1〜112−4は、補正処理された補正済みカラー画像、補正済み距離画像及びカメラパラメータを、ネットワークスイッチ13を介して、合成処理部12へと送信する。合成処理部12の送受信部121は、信号補正部112−1〜112−4から補正処理された補正済みカラー画像、補正済み距離画像及びカメラパラメータを受信すると、これらを画像合成部122に送る。
(ステップS104)画像合成部122は、操作インターフェース機器15を利用して、仮想視点を設定する。
(ステップS105)画像合成部122は、信号補正処理部11−1〜11−4から送られてきた補正処理された補正済みカラー画像、補正済み距離画像及びカメラパラメータから、設定された仮想視点に基いて三次元画像を合成し、映像出力機器16に対して仮想視点画像を出力する。
(ステップS106)画像合成部122は、次フレームが取得可能か否かを判定し、次フレームが取得可能なら(ステップS106:Yes)、ステップS101に処理を戻す。次フレームが取得可能でなければ(ステップS106:No)、処理は終了となる。また、終了判定があるときも、処理は終了となる。
このように、本発明の実施形態に係る映像合成システム1は、信号補正処理部11−1〜11−4は、それぞれ、各視点のカラー画像のレンズ歪補正処理、距離画像のレンズ歪補正処理、奥行方向歪補正処理、補正された距離画像をカラーカメラ視点へと投影するマッピング処理を並列的に行っている。また、これらの処理と並列して、合成処理部12は、各視点の仮想視点画像を合成する処理を行っている。これにより、精確な形状復元による自由視点映像をリアルタイムに実現することが可能となる。
次に、本発明の実施形態に係る映像合成システム1の各部の動作について詳細に説明する。まず、信号補正処理部11−1〜11−4の入力部111の動作について説明する。
図7は、入力部111の具体的な処理を示すフローチャートである。
(ステップS201)入力部111は、まず、カメラパラメータと奥行方向歪補正パラメータの設定を行う。カメラパラメータの定義は一般的なものを用いて良いため、詳細な説明は割愛するが、ここでは、焦点距離fx,fy、画像中心cx,cy、レンズ歪パラメータk1,k2,k3,q1,q2、3x3の回転行列R、(1×3)の並進行列T、をカメラパラメータとする。カメラパラメータは、各カメラ、距離センサ毎に固有のものを設定することができる。カメラパラメータは事前に設定しておいても良いし、本システムの中で求めても良い。本システムの中で求める方法は、一般的な方法として、以下の文献に記載されているものを用いることができる。
(ステップS201)入力部111は、まず、カメラパラメータと奥行方向歪補正パラメータの設定を行う。カメラパラメータの定義は一般的なものを用いて良いため、詳細な説明は割愛するが、ここでは、焦点距離fx,fy、画像中心cx,cy、レンズ歪パラメータk1,k2,k3,q1,q2、3x3の回転行列R、(1×3)の並進行列T、をカメラパラメータとする。カメラパラメータは、各カメラ、距離センサ毎に固有のものを設定することができる。カメラパラメータは事前に設定しておいても良いし、本システムの中で求めても良い。本システムの中で求める方法は、一般的な方法として、以下の文献に記載されているものを用いることができる。
Zhang, Zhengyou. "A flexible new technique for camera calibration." Pattern Analysis and Machine Intelligence, IEEE Transactions on 22.11 (2000): 1330-1334
奥行方向歪補正パラメータは2つのスカラー値α,βであり、一般的なTOF(Time of Flight)センサを距離センサとして用いる場合であれば、αは0.97から1.03程度、βは−50から50程度の値を用いれば良いが、これは距離センサ毎に個別の値を設定することができる。これはいかなる方法で推定しても構わないが、例えば以下の文献に記載されているものを用いることができる。
LOUIE, Ashton, 竹内広太, and 伊藤直己. "Multiple Plane View Camera Calibration for RGB-D Sensor Rectification (画像工学)." 電子情報通信学会技術研究報告= IEICE technical report: 信学技報 115.350 (2015): 81-86.
(ステップS202)次に、ユーザは、リアルタイムの自由視点映像を生成するのか、HDD(Hard Disk Drive)等に録画されたデータを用いて自由視点映像を生成するのかを決定する。
(ステップS203)ステップS202で、リアルタイムの自由視点映像を生成すると判定された場合、入力部111は、最初のフレームのカラー原画像及び距離原画像をセンサ10から取得する。
(ステップS204)入力部111は、カラー原画像及び距離原画像にタイムコードを付与して、処理をステップS208に進める。
(ステップS205)ステップS202で、録画されたデータを用いて自由視点映像を生成すると判定された場合、入力部111は、合成処理部12の送受信部121からタイムコードを受信する。
(ステップS206)入力部111は、要求されるタイムコードに、最も近い時刻に相当するフレームのカラー画像及び距離画像を録画データから取得する。
(ステップS207)そして、入力部111は、カラー原画像及び距離原画像にタイムコードを付与して、処理をステップS208に進める。
(ステップS208)入力部111は、タイムコードを付与したカラー原画像及び距離原画像を信号補正部112へと出力する。また、入力部111は、設定したカメラパラメータも合わせて信号補正部112へと出力する。
(ステップS209)入力部111は、送受信部121からタイムコードの要求があるか否かを判定し(ステップS209)、タイムコードの要求があれば(ステップS209:Yes)、ステップS202に処理を戻し、フレーム画像の読み込み処理を繰り返す。タイムコードの要求がなければ(ステップS209:No)、処理を終了する。
次に、信号補正処理部11−1〜11−4の信号補正部112の動作について説明する。信号補正部112は、カラー原画像のレンズ歪補正と、距離原画像のレンズ歪補正と、奥行方向歪補正と、マッピング処理を順次行うことにより、最終的に、歪補正済みカラー画像と、歪補正済み距離画像と、カメラパラメータを出力する。図8は、信号補正部の構成を示すブロック図である。図8に示すように、信号補正部112は、カラー画像レンズ歪補正部201と、距離画像レンズ歪補正部202と、奥行方向歪補正部203と、マッピング部204とを備える。
カラー画像レンズ歪補正部201は、カラー原画像に対して、カメラパラメータのうちの焦点距離fx,fy,画像中心cx,cy,レンズ歪パラメータを用いて、一般的な画像のレンズ歪補正処理を行う。一般的な方法であるため、詳細な説明は割愛するが、ここではカラー原画像中の画素(u,v)が、レンズ歪補正により、新たに(u’,v’)へとマッピングされるものとする。
距離画像レンズ歪補正部202は、距離原画像に対して、レンズ歪補正処理を行う。カラー原画像に対する処理のみを距離画像に対して行ってしまうと、距離画像の画素値が精確に正しいものではなくなってしまう。これは、距離画像の各画素値が格納している値は、被写体表面上までの光路長さではなく、奥行方向のみの距離の値であることが理由である。そのため、信号補正部112においては、距離画像の画素値に誤りが生じないようなレンズ歪補正処理を距離画像レンズ歪補正部202にて行う。
図9は、レンズ歪補正の説明図であり、図9(A)は、距離画像歪補正の説明図である。図9(A)において、距離画像レンズ歪補正部202では、カラー原画像と同様に、各画素(u,v)に対して、レンズ歪処理を行うことにより、(u’,v’)へと移動を行う。(u,v)は原画像上での画素の位置を示すための二次元ベクトルであり、u,vはそれぞれ水平,垂直方向の各要素を示すためのスカラー値である。そして、距離原画像中の画素(u,v)における画素値をd、距離原画像中の画素p’における画素値をd’と定義する。そして,d’の値を以下の式(1)により決定する。
図9(B)は、奥行方向歪補正の説明図である。図9(B)において、奥行方向歪補正部203は、奥行方向歪補正パラメータα,βと距離画像レンズ歪補正部202で補正された距離画像(以下,レンズ歪補正済み距離画像と称する)を用いて、距離画像の奥行方向の歪補正を行う。図9(B)では、距離画像レンズ歪補正部202での定義と同様に、画素(u’,v’)における画素値d’に対してd’’へと補正するものとし、その決定方法は以下の式(2)を用いる。
式(2)において、パラメータα及びパラメータβはいずれも公知技術を用いて求めることができる。パラメータα及びパラメータβを求めるための公知技術の例として、例えば以下に示す文献に開示された技術がある。
Lachat, E., et al. "First experiences with kinect v2 sensor for close range 3d modelling." The International Archives of Photogrammetry, Remote Sensing and Spatial Information Sciences 40.5 (2015): 93.
マッピング部204は、奥行方向歪補正部203において補正された距離画像を、カラーカメラ視点へと投影し、補間処理を行うことによりカラー画像と解像度も視点も等しい距離画像を生成する。距離画像中の各画素(u’,v’)の画素の距離値d’’と、距離センサのカメラパラメータを利用して、一般的な透視投影の逆変換を行うことで、カラーカメラがなすカメラ座標空間における三次元的な点の位置を算出することができる。この三次元点を、カラーカメラのカメラパラメータを用いて,カラーカメラの画像空間へと投影することにより、(u’,v’)と対応するカラーカメラ画像座標(i,j)を得ることができる。このような投影処理により、カラーカメラのカメラ原点を原点とする距離画像を取得することができる。しかし、一般的には距離画像センサの解像度はカラーカメラの解像度に比べて低いため、投影された(i,j)どうしでの補間処理が必要になる。この補間処理については、一般的な方法を用いてかまわないが、例えば、事前に距離画像空間内でメッシュを構築し、メッシュ単位での補間処理を行う方法を採ることができる。このようにして得られるカラーカメラ視点における距離画像のことを、歪補正済み距離画像とする。そして、マッピング部204は、送受信部121へと歪補正済みカラー画像、歪補正済み距離画像、カメラパラメータを出力する。歪補正済み距離画像は既にカラーカメラの視点からの画像へと変換されているため、距離センサカメラパラメータは以後不要となるため、ここで出力するカメラパラメータには含まれない。また、上記のとおり、カラーカメラ画像についてもレンズ歪補正処理を施しているため、レンズ歪パラメータも不要となる。そのため、送受信部121へと出力するカメラパラメータとは、カラーカメラパラメータの中からレンズ歪パラメータを除いたものだけである。
次に、合成処理部12の送受信部121における処理について説明する。送受信部121は、画像合成部122が要求するタイムコードを各信号補正処理部11−1〜11−4に含まれる入力部111−1〜111−4へと転送する。さらに、送受信部121は、各信号補正処理部11−1〜11−4に含まれる信号補正部112−1〜112−4から出力される歪補正済みカラー画像と歪補正済み距離画像とカメラパラメータを受信し、これらを同一フレームのデータとして画像合成部122へと出力する。送受信部121は、これらの処理をネットワーク経由で行うものである。
図10は、画像合成部122の処理を示すフローチャートである。
(ステップS401)まず、画像合成部122は、背景の三次元点群データの生成を行う。背景の三次元点群データについては、事前に本システムを用いて撮影されたデータから生成しても良いし、CGなどの非実写空間の三次元モデルを用いても良い。事前に本システムを用いて撮影されたデータから背景の三次元点群データを生成する方法については、以下の装置内における点群の生成方法と同じであるため、後で説明をする。
(ステップS401)まず、画像合成部122は、背景の三次元点群データの生成を行う。背景の三次元点群データについては、事前に本システムを用いて撮影されたデータから生成しても良いし、CGなどの非実写空間の三次元モデルを用いても良い。事前に本システムを用いて撮影されたデータから背景の三次元点群データを生成する方法については、以下の装置内における点群の生成方法と同じであるため、後で説明をする。
合成処理部12は、映像を出力するための映像出力機器16としてヘッドマウントディスプレイ18を備えているものとする。また、合成処理部12は、操作インターフェース機器15が接続されているものとする。操作インターフェース機器15は、ヘッドマウントディスプレイ18のヘッドトラッキング機能を利用するものとする。これにより、ユーザのリアルな視点位置と視線方向を、仮想カメラ視点位置と視線方向に反映することができるため、ユーザが自由視点映像の空間内に入り込んだような映像を提示することができるようになる。また、操作インターフェース機器15は、三次元空間中での移動が可能であれば、その他の機器を用いても構わない。操作インターフェース機器15としては、例えば、キーボードとマウス、ゲームコントローラなどを用いても良い。映像出力機器16としても、通常のディスプレイを用いても構わない。その際はユーザの頭部などにトラッキングセンサ類を装着することにより、上記と同様の効果を得ることができる。
(ステップS402)ユーザが仮想視点のカメラ位置と向き、映像を視聴したいタイムコードの指定を行う。仮想視点のカメラ位置と向きについては、上述したように、ヘッドマウントディスプレイ18のヘッドトラッキングにより入力するか、若しくは、ゲームコントローラ等によりユーザが適宜操作できるものとする。タイムコードに関しては、シークバーの利用や早送り機能などにより、ユーザが映像を見たい時刻を適宜変更できるものとする。
(ステップS403)画像合成部122は、ユーザが指定した要求タイムコードを送受信部121へと出力し、送受信部121がこれに応じて入力部111へと要求し、返答が返ってきた歪補正済みカラー画像と、歪補正済み距離画像と、カメラパラメータを、全て受信する。
(ステップS404)画像合成部122は、被写体の三次元点群データの生成を行う。各画素(i,j)における距離値d’’と、カメラパラメータを利用して、一般的な透視投影の逆変換を行うことにより、各画素の三次元空間中の点の座標を得ることができる。そして、この各点に対して、画素(i,j)の色を付加することにより、色付きの三次元点群を得ることができる。これを全ての信号補正処理部11−1〜11−4のデータ毎に行うことにより、被写体の三次元点群データを生成することができる。なお、これらの処理は、画像中の全ての画素に対して行うこともできるが、一般的なTOF(Time of Flight)センサを距離センサとして用いる場合には、計測範囲の限界により距離の計測が行えていない領域が画像中に多数存在することが考えられる。また、背景モデルを事前に用意している場合には、シーン中の演者などの被写体のみの三次元点群データのみを表示したい場合も考えられる。このような場合に対しては,シーン中の三次元点群のうち、ユーザが事前に設定した範囲内に含まれる点群のみを残し、他を破棄する処理を加える。同様に、三次元点群のセグメンテーション手法を用いることで、一部の点群のみを残すこともできる。
(ステップS405)次に、画像合成部122は、仮想視点カメラに対して、レンダリング処理を行う。まず、画像合成部122は、背景の三次元点群データと被写体の三次元点群のデータを、共通の三次元空間内へと重畳する。そして、画像合成部122は、これら全ての点群を、仮想視点カメラのカメラパラメータを利用して、仮想視点カメラに対してレンダリング処理を行う。レンダリンググ方法については,何を用いても構わないが、ここではポイントクラウドレンダリングを行う。そのほか、メッシュを構築した後に,一般的なレンダリング方法を用いても良い。
(ステップS406)画像合成部122は、レンダリング画像を映像出力機器16へと出力する。
(ステップS407)画像合成部122は、ユーザからの終了指示があるか否かを判定する。ユーザからの終了指示がなければ(ステップS407:No)、ステップS408に処理を進める。
(ステップS408)画像合成部122は、描画対象フレームの指定、及び仮想視点カメラの位置と向きを設定する(ステップS408)。そして、ステップS402に処理を戻し、上記の処理を繰り返すものとする。
なお、上述の例では、一枚の画像に対する処理について説明したが、複数の連続する画像に対して処理を繰り返すことで、動画像を処理することができる。なお、映像の全てのフレームに適用せずに、一部のフレームに対して本発明による処理を適用し、その他のフレームに対しては別の処理を適用しても構わない。
なお、映像合成システム1の全部または一部の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより各部の処理を行っても良い。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムに既に記録されているプログラムとの組み合わせで実現できるものであっても良い。
また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムに既に記録されているプログラムとの組み合わせで実現できるものであっても良い。
以上、本発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計変更等も含まれる。
1:映像合成システム,10:センサ,11:信号補正処理部,12:合成処理部,13:ネットワークスイッチ,15:操作インターフェース機器,16:映像出力機器,101:カラーカメラ,102:距離センサ,111:入力部,112:信号補正処理部,121:送受信部,122:画像合成部,201:カラー画像レンズ歪補正部201,202:距離画像レンズ歪補正部,203:奥行方向歪補正部,204:マッピング部
Claims (7)
- 複数の視点の三次元画像に対して補正処理を行う信号補正処理ステップと、
前記信号補正処理ステップにおいて補正処理された複数の視点の三次元画像から、仮想視点の三次元画像を生成する画像合成処理を行う合成処理ステップと、
を有し、
前記合成処理部の要求に応じて、前記複数の視点の三次元画像ごとに前記信号補正処理ステップを並列で実行する、
映像合成方法。 - 前記信号補正処理ステップでは各視点の三次元画像に対して、光学系モデルに従った補正処理を行う、
請求項1に記載の映像合成方法。 - 前記信号補正処理ステップでは、カラー画像のレンズ歪を補正する第1の補正処理と、距離画像のレンズ歪を補正する第2の補正処理と、前記第2の補正処理によって補正された距離画像の奥行方向の歪を補正する第3の補正処理と、前記第3の補正処理によって補正された距離画像をカラーカメラ視点へと投影するマッピング処理と、を行う、
請求項2に記載の映像合成方法。 - 自装置の視点で取得される三次元画像に対して補正処理を行う信号補正処理部を備え、
前記信号補正処理部は、自装置を含む複数の映像取得装置によって補正処理された各視点の三次元画像から、仮想視点の三次元画像を生成する画像合成処理を行う映像合成装置の要求に応じて、他の前記映像取得装置に並列して前記補正処理を実行する、
映像取得装置。 - 複数の視点の三次元画像に基づいて、仮想視点の三次元画像を生成する画像合成処理を行う合成処理部を備え、
前記合成処理部は、各視点の三次元画像に対する補正処理を、各視点の三次元画像を取得する複数の映像取得装置に対して並列に実行させる、
映像合成装置。 - 複数の視点の三次元画像に対して補正処理を行う複数の信号補正処理部と、
前記信号補正処理部により補正処理された複数の視点の三次元画像から、仮想視点の三次元画像を生成する画像合成処理を行う合成処理部と、
を備え、
前記複数の信号補正処理部は、前記合成処理部の要求に応じて前記補正処理を並列処理で行う、
映像合成システム。 - 複数の視点の三次元画像に対して補正処理を行う信号補正処理ステップと、
前記信号補正処理ステップにおいて補正処理された複数の視点の三次元画像から、仮想視点の三次元画像を生成する画像合成処理を行う合成処理ステップと、
前記合成処理ステップの処理に応じて、前記複数の視点の三次元画像ごとに前記信号補正処理ステップを並列で実行するステップと、
をコンピュータに実行させるためのコンピュータプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016108167A JP2017215706A (ja) | 2016-05-31 | 2016-05-31 | 映像合成方法、映像取得装置、映像合成装置、映像合成システム及びコンピュータプログラム。 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016108167A JP2017215706A (ja) | 2016-05-31 | 2016-05-31 | 映像合成方法、映像取得装置、映像合成装置、映像合成システム及びコンピュータプログラム。 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017215706A true JP2017215706A (ja) | 2017-12-07 |
Family
ID=60575668
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016108167A Pending JP2017215706A (ja) | 2016-05-31 | 2016-05-31 | 映像合成方法、映像取得装置、映像合成装置、映像合成システム及びコンピュータプログラム。 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017215706A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020166376A1 (ja) * | 2019-02-15 | 2020-08-20 | ソニー株式会社 | 画像処理装置、画像処理方法、及び、プログラム |
CN113837978A (zh) * | 2021-09-28 | 2021-12-24 | 北京奇艺世纪科技有限公司 | 图像合成方法、装置、终端设备以及可读存储介质 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009109322A (ja) * | 2007-10-30 | 2009-05-21 | National Institute Of Information & Communication Technology | カメラ、カメラアレイ及びカメラアレイシステム |
-
2016
- 2016-05-31 JP JP2016108167A patent/JP2017215706A/ja active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009109322A (ja) * | 2007-10-30 | 2009-05-21 | National Institute Of Information & Communication Technology | カメラ、カメラアレイ及びカメラアレイシステム |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020166376A1 (ja) * | 2019-02-15 | 2020-08-20 | ソニー株式会社 | 画像処理装置、画像処理方法、及び、プログラム |
CN113837978A (zh) * | 2021-09-28 | 2021-12-24 | 北京奇艺世纪科技有限公司 | 图像合成方法、装置、终端设备以及可读存储介质 |
CN113837978B (zh) * | 2021-09-28 | 2024-04-05 | 北京奇艺世纪科技有限公司 | 图像合成方法、装置、终端设备以及可读存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11270460B2 (en) | Method and apparatus for determining pose of image capturing device, and storage medium | |
CN109658365B (zh) | 图像处理方法、装置、***和存储介质 | |
EP3057066B1 (en) | Generation of three-dimensional imagery from a two-dimensional image using a depth map | |
CN108769462B (zh) | 自由视角场景漫游方法及装置 | |
CN109906600B (zh) | 模拟景深 | |
TWI786157B (zh) | 用於產生場景之舖磚式三維影像表示之設備及方法 | |
JP5809607B2 (ja) | 画像処理装置、画像処理方法及び画像処理プログラム | |
JP2014203462A (ja) | 光フィールド映像を生成する方法及び装置 | |
JP2023512272A (ja) | 画像処理方法及び装置 | |
JP2023546739A (ja) | シーンの3次元モデルを生成するための方法、装置、およびシステム | |
CN113643414A (zh) | 一种三维图像生成方法、装置、电子设备及存储介质 | |
JP6555755B2 (ja) | 画像処理装置、画像処理方法および画像処理プログラム | |
KR20150058733A (ko) | 가상현실 이미지 프레젠테이션 및 3d 공간 내에서의 컨트롤을 위한 3d 기하학 데이터의 이용방법 | |
JP5252703B2 (ja) | 立体映像表示装置、立体映像表示方法、及び立体映像表示プログラム | |
JP2017215706A (ja) | 映像合成方法、映像取得装置、映像合成装置、映像合成システム及びコンピュータプログラム。 | |
US10902554B2 (en) | Method and system for providing at least a portion of content having six degrees of freedom motion | |
Belhi et al. | An integrated framework for the interaction and 3D visualization of cultural heritage | |
CN113706692B (zh) | 三维图像重构方法、装置、电子设备以及存储介质 | |
US20230005213A1 (en) | Imaging apparatus, imaging method, and program | |
KR102146839B1 (ko) | 실시간 가상현실 구축을 위한 시스템 및 방법 | |
JP5764097B2 (ja) | 画像処理装置、画像処理方法及び画像処理プログラム | |
JP2020160756A (ja) | 画像生成装置、画像生成方法、及びプログラム | |
JP6384961B2 (ja) | カメラキャリブレーション装置、カメラキャリブレーション方法、カメラキャリブレーションプログラム及び記録媒体 | |
CN113298868B (zh) | 模型建立方法、装置、电子设备、介质及程序产品 | |
JP2004133556A (ja) | 三次元形状抽出方法及び三次元形状抽出プログラム及び三次元形状抽出プログラムを格納した記憶媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180622 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190708 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190716 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20200128 |