JP2023021735A - 画像処理装置、画像処理方法及びプログラム - Google Patents

画像処理装置、画像処理方法及びプログラム Download PDF

Info

Publication number
JP2023021735A
JP2023021735A JP2021126787A JP2021126787A JP2023021735A JP 2023021735 A JP2023021735 A JP 2023021735A JP 2021126787 A JP2021126787 A JP 2021126787A JP 2021126787 A JP2021126787 A JP 2021126787A JP 2023021735 A JP2023021735 A JP 2023021735A
Authority
JP
Japan
Prior art keywords
specific
image processing
image
processing apparatus
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021126787A
Other languages
English (en)
Inventor
大地 阿達
Taichi Adachi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2021126787A priority Critical patent/JP2023021735A/ja
Publication of JP2023021735A publication Critical patent/JP2023021735A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • Studio Devices (AREA)

Abstract

【課題】オブジェクトの一部を残像のように表現した仮想視点画像を得られるようにする。【解決手段】複数の撮像装置にて連続して同期撮像された期間における複数の時刻それぞれに対応するオブジェクトの形状データを取得する。また、オブジェクトの一部である特定部位を決定する。そして、複数の時刻のうち基準時刻におけるオブジェクトの形状データ及び複数の時刻のうち基準時刻とは異なる特定時刻におけるオブジェクトの特定部位の形状データを仮想視点に投影して、仮想視点画像を生成する。【選択図】図4

Description

本開示は、複数の撮像画像に基づいて仮想視点画像を生成する技術に関する。
複数の撮像装置を異なる位置に設置し、被写体(オブジェクト)を同期撮像することにより得られる複数の撮像画像を用いて、仮想視点からの見えを表す仮想視点画像を生成する技術がある。この仮想視点画像を応用した技術として特許文献1には、特定のオブジェクトを所望の仮想視点から見た仮想視点画像を異なる時点それぞれについて生成し、それらを重畳表示することでオブジェクトの軌跡を表現する手法が開示されている。
特開2021-13095号公報
小川原光一,李 暁路,池内克史,"関節構造を持つ柔軟変形モデルを用いた人体運動の推定"、 Proc. of MIRU2006, pp.994-999,2006.
仮想視点画像においてオブジェクトの動きのある部分だけ(例えば人物の腕だけ)を残像として表現したい場合がある。この点、上記特許文献1の手法では腕以外の動きのない部分も残像として表現されることになり、動きのある腕だけが残像のように表現された仮想視点画像を得ることはできなかった。
本開示に係る画像処理装置は、複数の撮像装置にて連続して撮像される期間における複数の時刻それぞれに対応するオブジェクトの形状データを取得する取得手段と、前記オブジェクトの一部である特定部位を決定する決定手段と、前記複数の時刻のうち基準時刻における前記オブジェクトの形状データと、前記複数の時刻のうち前記基準時刻とは異なる特定時刻における前記オブジェクトの特定部位の形状データとを用いて仮想視点に対応する仮想視点画像を生成する生成手段と、を有することを特徴とする。
本開示の技術によれば、オブジェクトの一部を残像のように表現した仮想視点画像を得ることができる。
画像処理システムの構成の一例を示す図。 画像処理装置のハードウェア構成の一例を示す図。 画像処理装置のソフトウェア構成の一例を示す図。 実施形態1に係る、仮想視点画像の生成処理の流れを示すフローチャート。 (a)及び(b)は、特定部位の検出を説明する図。 (a)~(d)は、3Dモデルの投影画像を示す図。 (a)及び(b)は、投影画像の合成処理を説明する図。 (a)~(c)は、残像表現の一例を示す図。 実施形態2に係る、仮想視点画像の生成処理の流れを示すフローチャート。 部位指定用UI画面の一例を示す図。 (a)及び(b)は、合成時の調整を説明する図。 (a)及び(b)は、残像表現の一例を示す図。
以下、本実施形態を実施するための形態について図面などを参照して説明する。なお、以下の実施形態は、本開示の技術を限定するものではなく、また、以下の実施形態で説明されている全ての構成が課題を解決するための手段に必須であるとは限らない。
[実施形態1]
はじめに、仮想視点画像の概要を簡単に説明する。仮想視点画像は、実際のカメラ視点とは異なる、仮想的なカメラ視点(仮想視点)からの見えを表す画像であり、自由視点画像とも呼ばれる。仮想視点は、ユーザがコントローラを操作して直接指定したり、例えば予め設定された複数の仮想視点候補の中から選択したりするといった方法により設定される。なお、仮想視点画像には、動画と静止画の両方が含まれるが、以下の実施形態では、動画を例に説明を行うものとする。動画の仮想視点画像を生成する場合、仮想視点は固定でもよいし、オブジェクトの動きに合わせて追随するように変化してもよい。
<システム構成について>
図1は、本実施形態に係る、仮想視点画像を生成するための画像処理システムの構成の一例を示す図である。画像処理システム100は、複数の撮像装置(カメラ)101、画像処理装置102、コントローラ103及び表示装置104を有する。画像処理システム100では、複数のカメラ101の同期撮像による複数の撮像画像に基づいて、画像処理装置102が仮想視点画像を生成し、表示装置104に表示する。
カメラ101はオブジェクトを取り囲むように設置され、各カメラ101が時刻同期してオブジェクトを撮像する。ただし、スタジオやコンサートホールなど設置場所に制限がある場合には、複数のカメラ101は撮像対象領域の一部の方向にのみ設置されることになる。各カメラ101は、例えば、シリアルデジタルインタフェイス(SDI)に代表される映像信号インタフェイスを備えたデジタル方式のビデオカメラにより実現される。各カメラ101は、出力する映像信号に対しタイムコードに代表される時刻情報を付加して、画像処理装置102に送信する。この際、カメラの三次元位置(x,y,z)、撮像方向(パン、チルト、ロール)、画角、解像度といった撮像パラメータセットも併せて送信される。撮像パラメータセットは、各カメラ101について公知のカメラキャリブレーションを行って予め算出し記憶しておく。
画像処理装置102は、複数のカメラ101が同期撮像して得た複数の撮像画像に基づき、オブジェクトの一部を残像のように表現した仮想視点画像を生成する。具体的には、前景となるオブジェクトの形状データの生成、当該オブジェクトのうち残像表現の対象となる動きのある一部(特定部位)の設定、オブジェクトの形状データの仮想視点への投影、投影画像の合成などを行なう。画像処理装置102の機能の詳細は後述する。
コントローラ103は、画像処理装置102に仮想視点画像を生成させるためユーザが操作する制御装置である。オペレータは、コントローラ103が有するジョイスティックやキーボード等の入力装置を介して、仮想視点画像を生成するために必要な各種の設定やデータ入力等を行う。具体的には、撮像空間内の仮想視点(仮想カメラ)の三次元位置、視線方向、画角、解像度、画像生成に必要なタイムコードなどを指定する。ここでタイムコードが表す時刻には、上記複数の撮像画像の撮像期間のうち仮想視点画像生成の開始及び終了の時刻、キーフレームの時刻(残像表現を行う際の基準時刻)などがある。こうしてユーザ指定に基づき設定された仮想視点画像生成のための情報(以下、「仮想視点情報」と呼ぶ。)は、画像処理装置102に送信される。
表示装置104は、画像処理装置102から送られてくる画像データ(グラフィカルユーザインタフェイスのためのUI画面のデータや仮想視点画像のデータ)を取得して表示する。表示装置104は、例えば、液晶ディスプレイ、プロジェクタ、ヘッドマウントディスプレイ等で実現される。
<ハードウェア構成について>
図2は、画像処理装置102のハードウェア構成の一例を示す図である。情報処理装置である画像処理装置102は、CPU211、ROM212、RAM213、補助記憶装置214、操作部215、通信I/F216、及びバス217を有する。
CPU211は、ROM212またはRAM213に格納されているコンピュータプログラムおよびデータを用いて画像処理装置102の全体を制御することで、画像処理装置102の各機能を実現する。なお、画像処理装置102は、CPU211とは異なる専用の1又は複数のハードウェアあるいはGPU(Graphics Processing Unit)を有していてもよい。そして、CPU211による処理の少なくとも一部をGPUあるいは専用のハードウェアが行うようにしても良い。専用のハードウェアの例としては、ASIC(特定用途向け集積回路)、FPGA(フィールドプログラマブルゲートアレイ)、およびDSP(デジタルシグナルプロセッサ)などがある。
ROM212は、変更を必要としないプログラムなどを格納する。RAM213は、補助記憶装置214から供給されるプログラムやデータ、及び通信I/F217を介して外部から供給されるデータなどを一時記憶する。補助記憶装置214は、例えばハードディスクドライブ等で構成され、画像データや音量データなどの種々のデータを記憶する。
操作部215は、例えばキーボードやマウス等で構成され、ユーザによる操作を受けて各種の指示をCPU211に入力する。CPU211は、表示装置104を制御する表示制御部、及び操作部215を制御する操作制御部として動作する。通信I/F216は、画像処理装置102の外部の装置との通信に用いられる。例えば、画像処理装置102が外部の装置と有線で接続される場合には、通信用のケーブルが通信I/F216に接続される。画像処理装置102が外部の装置と無線通信する機能を有する場合には、通信I/F216はアンテナを備える。
バス217は、画像処理装置102の各部を繋いで情報を伝達する。なお、本実施形態では、コントローラ103及び表示装置104を外部装置として設けているが、いずれも画像処理装置102の機能部の1つとして内在する形で設けてもよい。
<ソフトウェア構成について>
図3は、画像処理装置102のソフトウェア構成の一例を示す図である。画像処理装置102は、データ取得部300、モデル生成部301、モデル解析部302、仮想視点画像生成部303を有する。そして、仮想視点画像生成部303は、投影部304と合成部305とを有する。以下、各部の機能について説明する。
データ取得部300は、仮想視点画像の生成に用いる各種データ、具体的には、各カメラ101で同期撮像された複数の撮像画像データ及びカメラ101毎の撮像パラメータセット、及び仮想視点情報を取得する。取得したデータは、補助記憶装置214に記憶される。
モデル生成部301は、複数の撮像画像と各カメラ101の撮像パラメータセットとに基づき、舞台演者など前景となるオブジェクトの三次元形状を表す形状データ(以下、「前景モデル」と呼ぶ。)を、例えば視体積交差法によって生成する。本実施形態の前景モデルは、テクスチャ付きポリゴンメッシュや各点に色の付いた三次元点群などで表現され、例えばスタンフォードPLYやウェーブフロントOBJといった汎用のフォーマットファイルにて生成される。なお、前景モデルは、色情報を持たない形状データでもよい。この場合、後述の投影部304において、仮想視点に対応した色を付ける処理(テクスチャマッピング)を行うことになる。生成した前景モデルは、補助記憶装置214に記憶される。
モデル解析部302は、モデル生成部301で生成された前景モデルの複数時刻に亘る形状変化(動き)を解析して、前景モデルのうち変化量の大きい部分を検出し、残像表現の対象となる特定部位を決定する。
投影部304は、コントローラ103から入力される仮想視点情報に基づき、前景モデルを仮想視点に投影して、仮想視点に対応した投影画像を生成する。ここで、投影対象には、上述の前景モデルに加え、当該前景モデルの特定部位に対応する形状データ(以下、「部分モデル」と呼ぶ。)や背景となるオブジェクトの形状データ(以下、「背景モデル」と呼ぶ。)が含まれる。背景モデルは、舞台設備など背景となるオブジェクトの三次元形状を表す色情報付きの形状データであり、予め生成し補助記憶装置214に記憶しておく。背景モデルの生成は、CADなどの設計データを用いてもよいし、レーザースキャナーなどでスキャンした形状と色データを用いてもよい。あるいは複数視点の撮像画像からStructure from Motionなどのコンピュータビジョンの技術を用いて生成してもよい。
合成部305は、投影部304が各3Dモデル(前景モデル、部分モデル、背景モデル)を仮想視点に投影することで得られた投影画像を合成し、特定部位を残像のように表現した仮想視点画像を生成する。生成した仮想視点画像のデータは表示装置104へ送信される。
なお、上述した各機能部は、複数の画像処理装置に分散されていてもよい。例えば、データ取得部300及びモデル生成部301を第1の画像処理装置が有し、モデル解析部302と仮想視点画像生成部303を第2の画像処理装置が有する、といった構成でもよい。
<仮想視点画像の生成フロー>
次に、画像処理装置102における仮想視点画像の生成フローについて、図4のフローチャートを参照して説明する。図4のフローチャートが示す一連の処理は、CPU211が、ROM212又は補助記憶装置214等に格納された制御プログラムを読み出してRAM213に展開し、これを実行することで実現される。なお、以下の説明において記号「S」はステップを意味する。
S401では、データ取得部300が、連続する期間(例えば5sec)の複数の撮像画像データ、各カメラ101の撮像パラメータセット、及び仮想視点情報を取得する。取得されたデータはRAM213に展開して保持される。
S402では、モデル生成部301が、S401にて取得された撮像画像データと撮像パラメータセットを用いて、上記連続する期間のうち注目する基準時刻tから過去又は未来の複数時刻それぞれに対応する前景モデルを生成する。ここで、注目する時刻は、例えば取得された連続する期間のうちタイムコードによって指定された特定のキーフレームに対応する時刻である。また、前景モデルを生成する対象の過去又は未来の複数時刻については、予め設定しておいてもよいし、仮想視点情報において指定してもよい。
S403では、モデル解析部302が、S402で生成された前景モデルの形状の経時変化を解析し、残像表現を行いたい特定部位を決定する。具体的には、生成された複数時刻分の前景モデルに基づき、時間の経過に伴って大きな動きのある部位を検出し、当該部位を残像表現の処理対象となる特定部位として決定する。図5(a)は、特定部位の検出を説明する図であり、異なる時刻それぞれに対応する前景モデルを同一空間のy軸上で重畳して示した図である。また、図5(b)は、時刻間の関係を示す図である。図5(b)において、細い両方向矢印501は仮想視点画像の生成範囲を示し、太い両方向矢印502は残像として表現する範囲を示す。時刻t-nは、範囲502のうちの基準時刻t以外の時刻であり、変数nは上述の“過去又は未来の複数時刻”に対応した任意の整数を取る。例えば“n=1”であれば基準時刻tの1時刻過去、“n=2”であれば2時刻過去を表し、“n=-1”であれば基準時刻tの1時刻未来を表すことになる。いま、図5(a)において一点鎖線は時刻t-1における前景モデルの左腕部分を表し、二点鎖線は時刻t-2における前景モデルの左腕部分を表している。つまり、時刻t-2から基準時刻tに掛けて左腕部分だけが動いていることを意味する。これは、前景モデルが表す形状のうち左腕に相当する部分だけ、範囲502が示す異なる時刻間の変化量が大きいことになる。このように、異なる時刻間の前景モデルの変化量を算出することで前景オブジェクトの動きのある部位を検出することができる。変化量の算出には、例えばポリゴンメッシュ形式の前景モデルであればポリゴン間の距離を利用できる。すなわち、ある時刻における前景モデルの各頂点から別の時刻における前景モデルの各頂点に対し、法線方向に最近傍点を探索し、別の時刻における前景モデルのメッシュとの接点を最近傍点とする。そして頂点と最近傍点の距離を符号付距離で求める。符号付距離とは、頂点から見て最近傍点がメッシュの外側にあれば正、内側にあれば負の値とする距離である。ある時刻における前景モデルの全頂点に対してこの符号付距離を求め、その分布の標準偏差(σ)よりも距離の絶対値の大きな頂点を抽出する。そして、抽出された頂点群で構成される前景モデルの部位を検出する。図5(a)の例では、前景モデルの左腕に相当する部分の各頂点は、符号付距離の絶対値が大きいため、上述の手順によって抽出されることになる。こうして抽出された頂点群で構成される前景モデルの一部が、残像表現の処理対象となる特定部位として決定される。そして、上述の処理を、S402で生成した前景モデルに対応する複数時刻すべてについて行い、各時刻における特定部位を決定する。決定された特定部位に対応する形状データ(前景モデルの一部部分に相当する形状データ。以下、「部分モデル」と呼ぶ。)は、前景モデルとは別にRAM213に保持される。
S404では、投影部304が、基準時刻における前景モデル、S403で決定された特定部位の部分モデル、及び予め用意していた背景モデルを仮想視点情報に基づき投影する処理を行う。投影処理には公知のモデルベースドレンダリングやイメージベースドレンダリングを用いればよい。図6の(a)は基準時刻sにおける上述の前景モデル501の投影画像を示し、同(b)及び(c)はそれぞれ時刻s-1と時刻s-2における前景モデル501の左腕の部分モデルの投影画像を示している。また、図6(d)は背景モデルの投影画像を示している。これら投影画像は、例えば各画素が8ビット(0~255)のRGB値に加えアルファ値を持つ4チャンネルの画像である。ここで、アルファ値とは透明度を表す数値であり、最大値255のときは不透明で、数値が小さくなるにつれて透明度が上がり、最小値0のときに完全な透明となる。つまり、各モデルの形状データが投影される画素のアルファ値は0より大きい値となり、何も投影されない画素のアルファ値は0となる。よって、まったく透過させない背景モデルの投影画像及び現在時刻sの前景モデルの投影画像については、各画素のアルファ値を255に設定する。一方、残像を表現するため透過させたい部分モデルの投影画像については、時刻s-1に対しては255×0.6=153、時刻s-2に対しては255×0.3=77といった具合に異なるアルファ値をそれぞれ設定する。この場合において、“0.6”及び“0.3”は透過率を制御するための係数であり、基準時刻からの差分値に応じた1.0未満の値が入ることになる。すなわち、上述の図6の(b)及び(c)の例では、対応する特定時刻が基準時刻に対して過去になるほど透過率が高くなるように(アルファ値が小さくなるように)している。ここで説明した透過率の制御方法は一例であり、例えば部分モデルに対応する特定時刻が基準時刻に対して未来になるほど透過率が高くなるようにしてもよい。
S405では、合成部305が、S404で生成された全ての投影画像を合成して仮想視点画像を生成する。図7(a)は、上述の図6(a)~(d)に示す4つの投影画像をアルファ合成する様子を示す図である。図7(a)に示すように4つの投影画像701~704をレイヤー状に重ねてアルファ合成することで、図7(b)に示すように左腕部分を残像のように表現した基準時刻tにおける仮想視点画像が得られる。
S406では、仮想視点情報で指定されたすべての基準時刻について処理が完了したか否かが判定される。未処理の基準時刻があればS407に進んで注目する基準時刻を更新し、S402に戻って処理を続行する。この際、仮想視点情報にて、仮想視点が時間経過と共に移動するように指定されていれば、任意のカメラアングルに投影した仮想視点画像が得られることになる。すべての基準時刻について処理が完了していれば本フローを終了する。
以上が、本実施形態に係る、仮想視点画像の生成フローである。こうして得られた仮想視点画像のデータは、表示装置104に送信されユーザの視聴に供されることになる。なお、対象となる前景オブジェクトは人物などの動的オブジェクトに限定されるものではなく、建造物などの静的オブジェクトでもよい。例えば、高層建築物などの建築過程を一定期間に亘って連続して撮像して得られた撮像画像に基づき、新たに建築された部分だけを不透明にし、既存の建築部分を透明にすることで、日々の変化を表現した図8(a)~(g)に示すような各基準時刻に対応した仮想視点画像が得られる。この場合、例えば1日毎に建造物を撮像し(S401)、得られた撮像画像から前景モデルを生成し(S402)、1日前と比較して形状変化の大きい部分(すなわち当日に建造された部分)を検出して特定部位を決定する(S403)。そして、当日の建造部分に対応する部分モデル及び前日分の前景モデルを仮想視点に投影し(S404)、得られた投影画像を用いてアルファ合成を行う(S405)。この際、当日分についてはアルファ値を“127”、前日分についてはアルファ値を“255”といった具合に設定することで、前日分までとの差分を直感的に把握可能な仮想視点画像が得られる。
<変形例1>
上述の実施形態では複数時刻間の前景モデルの形状変化に基づき特定部位を決定したが、特定部位の決定方法はこれに限定されない。すなわち、特定部位の決定に先立って複数時刻分の仮想視点への投影処理を行い、得られた投影画像における複数時刻間の差分を求め、差分値の大きな画像領域に対応する部位を特定部位に決定してもよい。この際は、決定した特定部位に対応する部分モデルを前景モデルから生成し、改めて部分モデルの仮想視点への投影処理を行って図7(b)や(c)に相当する投影画像を得た上で、上述した合成処理を行えばよい。
<変形例2>
透過率を変化させるアルファ合成に代えて、例えば明度又は彩度を変化させる色変更処理によって残像を表現してもよい。この際は、投影画像の各画素はα値を持たないRGBの3チャンネルの投影画像となる。そして、部分モデルに対応する特定時刻が、例えば基準時刻に対して過去になるほど明度又は彩度を低くしたり、基準時刻に対して未来になるほど明度又は彩度を低くしたりすればよい。これにより、時間経過に伴うオブジェクトの動きを視覚的に表現できる。その他、特定時刻における特定部位を目立たせるためのハイライト処理を行ってもよい。
<変形例3>
上述の実施形態では複数の時刻それぞれに対応する投影画像をレイヤー状に重ねて合成したが、当該複数の時刻における前景オブジェクトの遮蔽関係を正確に表現するために、デプス情報を用いた合成を行ってもよい。すなわち、S404にてモデル毎の投影画像を生成する際に、仮想視点から前景オブジェクトまでの距離を画素毎に記録したデプス画像も生成する。そして、S405にて合成する際に、デプスが小さい(つまり仮想視点に距離が近い)ほど上のレイヤーになるように投影画像を画素毎に選択して合成を行う。これにより実際の遮蔽関係を適切に表したより立体的な映像表現が可能となる。
<変形例4>
上述の実施形態では前景オブジェクトの動きを検出して特定部位を決定したが、撮像が行われた三次元空間中の特定領域との位置関係に基づいて決定してもよい。具体的には、人物の肩がその境界に位置し、かつ、腕以外の部分が内包されるようなバウンディングボックスを三次元空間中に設定し、当該バウンディングボックスの内側或いは外側にある部分を検出して特定部位を決定する。バウンディングボックスの形状は任意であり、直方体、円柱、球、楕円球など三次元空間において内外判定のできる形状であればよい。また、バウンディングボックスの位置や向き、大きさを時刻毎(フレーム毎)に変更してもよい。バウンディングボックスの形状、大きさ、時刻毎の変更の有無、内外のどちらを検出するか、などの情報は予め補助記憶装置214に格納しておき必要に応じて読み出して使用すればよい。これにより、より簡単に特定部位を決定することができる。
以上のとおり、本実施形態によれば、前景オブジェクトの動く部位を残像で表現した仮想視点画像を容易に得ることができる。
[実施形態2]
実施形態1では、前景モデルの形状の経時変化を解析して動きの大きい部分を検出することで、残像表現の対象となる特定部位を自動で決定していた。次に、生成した前景モデルの構造を解析してその結果をユーザに提示し、ユーザの明示的な指示に基づき特定部位を決定する態様を、実施形態2として説明する。また、実施形態1では特定部位以外の部位については複数時刻間で変化がないことを前提としていたが、本実施形態では前景オブジェクトの位置や姿勢などが複数時刻間で変化する場合の調整についても併せて説明する。なお、基本的なシステム構成など実施形態1と共通する内容については説明を省略し、以下では差異点を中心に説明を行うこととする。
<仮想視点画像の生成フロー>
本実施形態に係る仮想視点画像の生成フローについて、図9のフローチャートを参照して説明する。図9のフローチャートが示す一連の処理は、CPU211が、ROM212又は補助記憶装置214等に格納された制御プログラムを読み出してRAM213に展開し、これを実行することで実現される。なお、以下の説明において記号「S」はステップを意味する。
S901及びS902は、実施形態1に係る図4のフローチャートのS401及びS402にそれぞれ対応する。すなわち、連続する期間分の撮像画像データ、撮像パラメータセット及び仮想視点情報を取得され(S901)、続いて、複数の時刻それぞれに対応する前景モデルが生成される(S902)。
S903では、モデル解析部302が、S902で生成された前景モデルの構造を解析する。構造解析には公知の手法を適用すればよい。例えば、基準ボーンモデルと前景モデルとの表面同士の距離を最小化することで基準ボーンモデルを前景オブジェクトに重ね合わせ、ボーン構造を関連付ける手法が知られている(非特許文献1)。その他、オブジェクトの映像を入力として深層学習モデルを用いてボーン構造を推論する“OpenPose”の手法やモーションキャプチャの手法を用いてもよい。ポリゴンメッシュ形式の前景モデルの場合、構造解析結果は構成要素であるメッシュポリゴン毎に部位名称や部位IDを関連付けるメタデータとして得られる。こうして得られた構造解析の結果は、RAM213に格納される。
S904では、S903で得られた構造解析結果を反映したUI画面を介したユーザ入力に基づき特定部位が決定される。より詳細には、まず、残像表現を行いたい特定部位を指定するためのUI画面(部位指定用UI画面)のデータが表示装置104に送信され、表示装置104に表示される。図10は、部位指定用UI画面の一例である。図10のUI画面1000の場合、特定部位を指定する対象の前景モデルが画面中央に表示され、その右側に、構造解析によって得られた全部位の一覧1001と、上述の複数の時刻のうち所望の時刻を指定するためのシークバー1002が表示される。ユーザは、マウス等を用いてポインタ1003を操作して、残像表現を行いたい特定部位を指定する。例えば、左腕を指定する場合は、ポインタ1003を左肩にマウスオーバーした後にドラッグしながら左手の指先付近まで移動させる操作を行う。こうしてユーザが指定した部位については、例えば一覧1001内の対応する部位名称をハイライト表示する。これによりユーザは自身が指定した部位が特定部位として選択された事実を確認することができる。上記の指定方法は一例であり、例えば構造解析によって得られた各部位に対応するボタンを設け、所望の部位に対応するボタンを押下することで指定できるようにしてもよい。
S905は、実施形態1のS404に対応する。すなわち、基準時刻sにおける前景モデル、S904で決定された特定部位の部分モデル、及び予め用意していた背景モデルを仮想視点情報に基づき投影する処理が行われる。この際、本実施形態では、S904にて決定された特定部位に対応する部分モデルの位置や姿勢等の調整が必要に応じて行われる。図11(a)は、特定部位に決定された左腕の付け根が各時刻において一致するよう、基準時刻の前景モデルの形状データに合わせてその位置や姿勢を調整する様子を説明する図である。いま、人物の前景オブジェクトが時刻t-1から時刻tに掛けて左腕を動かしながら移動している。前景モデル1100は時刻tに対応し、前景モデル1100’は時刻t-1に対応している。調整では、時刻t-1における前景モデル1100’の左腕の付け根1101’が、時刻tにおける前景モデル1100の左腕の付け根1101と重なるように幾何学変換を行う。この際、例えば時刻t-1と時刻tとの間で左腕のスケールが異なっていれば、スケールを一致させる変形処理を行ってもよい。図11(b)は、調整を行った結果を示しており、時刻t-1における前景モデル1100’と時刻tにおける前景モデルとが、特定部位に指定された左腕の付け根が一致する状態で三次元的に重なっている。このような調整を部分モデルに対し必要に応じ行って、前景モデル及び部分モデルが仮想視点に投影される。
S906~S908は、実施形態1のS405~S407にそれぞれ対応し特に異なるところはないので説明を省く。
以上が、本実施形態に係る、仮想視点画像の生成フローである。なお、図9のフローの開始に先立って各時刻における前景モデルの構造解析を別装置にて行っておき、S903ではその結果を取得するだけでもよい。また、S905にて調整を行った場合、調整結果をUI画面に表示し、ユーザが位置や姿勢等の微調整を行えるようにしてもよい。
<変形例1>
ユーザが指定した特定部位の透過率を時刻に応じて変更するのに代えて、特定部位周辺の透過率を特定部位からの距離に応じて変更してもよい。このような残像表現は、例えばゴルフスイングの解析に有用である。すなわち、ゴルフクラブのヘッドを特定部位に決定し、ヘッドを不透明とした上で、ヘッドから離れるほど透明になるようにゴルフクラブの前景モデルの投影時に透過処理を行う。この透過処理においては、構造解析結果を参照しつつ、指定されたヘッド部分からの距離が大きくなるほどアルファ値を小さくし、ゴルフクラブをグラデーション状に透明化して、各時刻における前景モデルを仮想視点に投影する。この際、距離とアルファ値との関係については、透過開始距離と透過終了距離を予め設定しておけばよい。或いは、動きの大きい部分を検出した上でヘッド部分から最も遠い部分までの距離を透過終了距離として設定してもよい。このときの透過開始距離はヘッドから最も近い部分までの距離とすればよい。図12(a)に、本変形例に係る合成処理によって得られる仮想視点画像の一例を示す。時間的に最も進んだ最新時刻の前景モデルの投影画像と、それよりも過去の各時刻における前景モデルの投影画像であってゴルフクラブのヘッドの付け根から持ち手にかけて徐々に透明になるように処理された投影画像とが合成されている。本変形例によって、ユーザ指定に係る特定部位の軌跡を強調する仮想視点画像を得ることができる。
なお、本変形例の手法を適用した上で、時刻が過去になるほど透明にする上述の実施形態の手法を重畳して適用することで、図12(b)に示すような仮想視点画像が得られる。このとき、仮想視点を移動(例えば、人物を正面から捉える位置から開始し、打ち終わりの時点で人物の背中から捉える位置になるように等速移動)させてもよい。これにより、クラブヘッド部分の動きを任意のカメラアングルに投影した仮想視点画像が得られる。
以上のとおり、本実施形態によれば、前景オブジェクトのうちユーザが指定した部位のみを残像で表現した仮想視点画像を容易に得ることができる。また、必要に応じて前景モデルの位置や姿勢の調整を行うことで、より違和感の少ない仮想視点画像が得られる。
(その他の実施例)
本開示は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
102 画像処理装置
300 データ取得部
302 モデル解析部
303 仮想視点画像生成部
304 投影部
305 合成部

Claims (28)

  1. 複数の撮像装置にて連続して撮像される期間における複数の時刻それぞれに対応するオブジェクトの形状データを取得する取得手段と、
    前記オブジェクトの一部である特定部位を決定する決定手段と、
    前記複数の時刻のうち基準時刻における前記オブジェクトの形状データと、前記複数の時刻のうち前記基準時刻とは異なる特定時刻における前記オブジェクトの特定部位の形状データとを用いて仮想視点に対応する仮想視点画像を生成する生成手段と、
    を有することを特徴とする画像処理装置。
  2. 前記生成手段は、前記基準時刻における前記オブジェクトの形状データを前記仮想視点に投影して得られた第1の投影画像と、前記特定時刻における前記オブジェクトの特定部位の形状データを前記仮想視点に投影して得られた第2の投影画像とを合成して、前記仮想視点画像を生成する、ことを特徴とする請求項1に記載の画像処理装置。
  3. 前記第1の投影画像及び前記第2の投影画像は、各画素がRGB値に加えアルファ値を持つ4チャンネルの画像であり、
    前記生成手段は、前記第1の投影画像と前記第2の投影画像とを用いたアルファ合成によって前記仮想視点画像を生成する、
    ことを特徴とする請求項2に記載の画像処理装置。
  4. 前記アルファ合成においては、前記第2の投影画像における前記特定時刻の特定部位に対応する画素の透過率と前記基準時刻の特定部位に対応する画素の透過率とが異なる、ことを特徴とする請求項3に記載の画像処理装置。
  5. 前記生成手段は、前記特定時刻が前記基準時刻よりも過去の時刻である場合、前記特定時刻の特定部位に対応する画素の透過率の方が、前記基準時刻の特定部位に対応する画素の透過率よりも高くなるように前記アルファ合成を行う、ことを特徴とする請求項4に記載の画像処理装置。
  6. 前記生成手段は、前記特定時刻が前記基準時刻よりも過去になるほど前記第2の投影画像における前記特定部位に対応する画素の透過率が高くなるように前記アルファ合成を行う、ことを特徴とする請求項5に記載の画像処理装置。
  7. 前記生成手段は、前記特定時刻が前記基準時刻よりも未来の時刻である場合、前記特定時刻の特定部位に対応する画素の透過率の方が、前記基準時刻の特定部位に対応する画素の透過率よりも高くなるように前記アルファ合成を行う、ことを特徴とする請求項4に記載の画像処理装置。
  8. 前記生成手段は、前記特定時刻が前記基準時刻よりも未来になるほど前記第2の投影画像における前記特定部位に対応する画素の透過率が高くなるように前記アルファ合成を行う、ことを特徴とする請求項7に記載の画像処理装置。
  9. 前記アルファ合成においては、前記第2の投影画像における前記特定部位に対応する画素の透過率と前記特定部位の周辺に対応する画素の透過率とが異なる、ことを特徴とする請求項3に記載の画像処理装置。
  10. 前記生成手段は、前記特定部位に対応する画素の透過率の方が、前記特定部位の周辺に対応する画素の透過率よりも高くなるように前記アルファ合成を行う、ことを特徴とする請求項9に記載の画像処理装置。
  11. 前記生成手段は、前記第2の投影画像における前記特定部位の周辺に対応する画素の透過率が前記特定部位からの距離が大きくなるほど高くなるように前記アルファ合成を行う、ことを特徴とする請求項10に記載の画像処理装置。
  12. 前記第1の投影画像及び前記第2の投影画像は、各画素がRGB値を持つ3チャンネルの画像であり、
    前記生成手段は、前記第1の投影画像と、前記第2の投影画像の明度又は彩度を変化させた画像とを合成して、前記仮想視点画像を生成する、
    ことを特徴とする請求項2に記載の画像処理装置。
  13. 前記合成においては、前記第2の投影画像における前記特定時刻の特定部位に対応する画素の明度又は彩度と前記基準時刻の特定部位に対応する画素の明度又は彩度とが異なる、ことを特徴とする請求項12に記載の画像処理装置。
  14. 前記生成手段は、前記特定時刻が前記基準時刻よりも過去の時刻である場合、前記特定時刻の特定部位に対応する画素の明度又は彩度が、前記基準時刻の特定部位に対応する画素の明度又は彩度よりも低くなるように前記合成を行う、ことを特徴とする請求項13に記載の画像処理装置。
  15. 前記生成手段は、前記特定時刻が前記基準時刻よりも過去になるほど前記第2の投影画像における前記特定時刻の特定部位に対応する画素の明度又は彩度が低くなるように前記合成を行う、ことを特徴とする請求項14に記載の画像処理装置。
  16. 前記生成手段は、前記特定時刻が前記基準時刻よりも未来の時刻である場合、前記特定時刻の特定部位に対応する画素の明度又は彩度が、前記基準時刻の特定部位に対応する画素の明度又は彩度よりも低くなるように前記合成を行う、ことを特徴とする請求項13に記載の画像処理装置。
  17. 前記生成手段は、前記特定時刻が前記基準時刻よりも未来になるほど前記第2の投影画像における前記特定時刻の特定部位に対応する画素の明度又は彩度が低くなるように前記合成を行う、ことを特徴とする請求項16に記載の画像処理装置。
  18. 前記生成手段は、
    前記仮想視点から前記オブジェクトまでの距離を画素毎に記録したデプス画像を生成し、
    デプスが小さいほど上のレイヤーになるように前記第2の投影画像を画素毎に選択して前記合成を行う、
    ことを特徴とする請求項2に記載の画像処理装置。
  19. 前記生成手段は、前記特定部位に対応する形状データに対し幾何学変換を行って前記合成を行う、ことを特徴とする請求項2に記載の画像処理装置。
  20. 前記幾何学変換は、前記基準時刻における前記オブジェクトの形状データに合わせて、前記特定部位に対応する形状データの位置、姿勢、スケールのうち少なくとも1つを調整する処理である、ことを特徴とする請求項19に記載の画像処理装置。
  21. 前記決定手段は、
    前記複数の時刻における前記オブジェクトの形状変化を、前記形状データを用いて解析し、
    前記解析の結果に基づき、変化量が大きい部分を前記特定部位として決定する、
    ことを特徴とする請求項1乃至20のいずれか一項に記載の画像処理装置。
  22. 前記決定手段は、
    前記複数の時刻における前記オブジェクトの形状変化を、前記複数の時刻それぞれに対応するオブジェクトの形状データを仮想視点に投影して得られた投影画像を用いて解析し、
    前記解析の結果に基づき、変化量が大きい部分を前記特定部位として決定する、
    ことを特徴とする請求項1乃至20のいずれか一項に記載の画像処理装置。
  23. 前記決定手段は、
    前記複数の時刻における前記オブジェクトの前記撮像が行われた三次元空間における特定領域との位置関係を、前記形状データを用いて解析し、
    前記解析の結果に基づき、前記特定領域の内側又は外側にある部分を前記特定部位として決定する、
    ことを特徴とする請求項1乃至20のいずれか一項に記載の画像処理装置。
  24. 前記特定領域はバウンディングボックスであることを特徴とする請求項23に記載の画像処理装置。
  25. 前記特定部位の指定をユーザから受け付けるためのグラフィカルユーザインタフェイスをさらに備え、
    前記決定手段は、受け付けた前記指定に基づき、前記特定部位を決定する、
    ことを特徴とする請求項1乃至20のいずれか一項に記載の画像処理装置。
  26. 前記グラフィカルユーザインタフェイスには、前記オブジェクトの構造解析の結果が表示され、
    前記ユーザは、表示された前記構造解析の結果に基づき、前記特定部位の指定を行う、
    ことを特徴とする請求項25に記載の画像処理装置。
  27. 複数の撮像装置にて連続して撮像される期間における複数の時刻それぞれに対応するオブジェクトの形状データを取得する取得ステップと、
    前記オブジェクトの一部である特定部位を決定する決定ステップと、
    前記複数の時刻のうち基準時刻における前記オブジェクトの形状データと、前記複数の時刻のうち前記基準時刻とは異なる特定時刻における前記オブジェクトの特定部位の形状データとを用いて仮想視点に対応する仮想視点画像を生成する生成ステップと、
    を含むことを特徴とする画像処理方法。
  28. コンピュータを、請求項1乃至26のいずれか一項に記載の画像処理装置として機能させるためのプログラム。
JP2021126787A 2021-08-02 2021-08-02 画像処理装置、画像処理方法及びプログラム Pending JP2023021735A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021126787A JP2023021735A (ja) 2021-08-02 2021-08-02 画像処理装置、画像処理方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021126787A JP2023021735A (ja) 2021-08-02 2021-08-02 画像処理装置、画像処理方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2023021735A true JP2023021735A (ja) 2023-02-14

Family

ID=85201589

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021126787A Pending JP2023021735A (ja) 2021-08-02 2021-08-02 画像処理装置、画像処理方法及びプログラム

Country Status (1)

Country Link
JP (1) JP2023021735A (ja)

Similar Documents

Publication Publication Date Title
US11978175B2 (en) Mixed reality system with color virtual content warping and method of generating virtual content using same
JP4473754B2 (ja) 仮想試着装置
EP3057066B1 (en) Generation of three-dimensional imagery from a two-dimensional image using a depth map
JP5818773B2 (ja) 画像処理装置、画像処理方法及びプログラム
KR20090065101A (ko) 영상을 이용한 3차원 그래픽 모델의 정확도 측정 방법 및장치
US20230062973A1 (en) Image processing apparatus, image processing method, and storage medium
JP2016162392A (ja) 3次元画像処理装置および3次元画像処理システム
JP2022058753A (ja) 情報処理装置、情報処理方法及びプログラム
JP2003216973A (ja) 三次元画像処理方法、三次元画像処理プログラム、三次元画像処理装置および三次元画像処理システム
JP2005063041A (ja) 3次元モデリング装置、方法、及びプログラム
JP2023021735A (ja) 画像処理装置、画像処理方法及びプログラム
JP2002083286A (ja) アバタ生成方法、装置及びそのプログラムを記録した記録媒体
JP4366165B2 (ja) 画像表示装置及び方法並びに記憶媒体
US9959637B2 (en) Method and apparatus for processing border of computer figure to be merged into background image
JP2024512672A (ja) 複数のカメラからの表面テクスチャリング
JP3309841B2 (ja) 合成動画像生成装置および合成動画像生成方法
JP2002056407A (ja) 画像生成システム
WO2021166751A1 (ja) 情報処理装置、情報処理方法及びコンピュータプログラム
JP2022073648A (ja) 情報処理装置、情報処理方法、及びプログラム
JPH07101461B2 (ja) 視線追従形高速画像生成表示方法
JP2002312810A (ja) 合成動画像生成装置および合成動画像生成方法
JP2022064149A (ja) 画像処理装置及びその制御方法及びプログラム
JP2022094788A (ja) 生成装置、生成方法、及び、プログラム
JP2022112228A (ja) 情報処理装置、情報処理方法及びプログラム
JP2023153534A (ja) 画像処理装置、画像処理方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240704