JP6672417B2 - 画像処理装置、画像処理システム、画像処理方法及びプログラム - Google Patents

画像処理装置、画像処理システム、画像処理方法及びプログラム Download PDF

Info

Publication number
JP6672417B2
JP6672417B2 JP2018192134A JP2018192134A JP6672417B2 JP 6672417 B2 JP6672417 B2 JP 6672417B2 JP 2018192134 A JP2018192134 A JP 2018192134A JP 2018192134 A JP2018192134 A JP 2018192134A JP 6672417 B2 JP6672417 B2 JP 6672417B2
Authority
JP
Japan
Prior art keywords
image
virtual viewpoint
display device
viewpoint image
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018192134A
Other languages
English (en)
Other versions
JP2019053738A (ja
Inventor
康文 ▲高▼間
康文 ▲高▼間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018192134A priority Critical patent/JP6672417B2/ja
Publication of JP2019053738A publication Critical patent/JP2019053738A/ja
Application granted granted Critical
Publication of JP6672417B2 publication Critical patent/JP6672417B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、仮想視点画像を生成する技術に関するものである。
昨今、複数のカメラを異なる位置に設置して多視点から被写体を撮影し、当該撮影により得られた複数視点画像を用いて仮想視点画像や3次元モデルを生成する技術が注目されている。上記のようにして複数視点画像から仮想視点画像を生成する技術によれば、例えば、サッカーやバスケットボールのハイライトシーンを様々な角度から視聴することが出来るため、通常の画像と比較してユーザに高臨場感を与えることが出来る。
特許文献1では、複数の視点から撮影した画像を合成して仮想視点画像を生成する場合に、画像内のオブジェクトの境界領域におけるレンダリング単位を小さくすることで、仮想視点画像の画質を向上することについて記載されている。
特開2013−223008号公報
しかしながら、従来の技術では、異なる複数の要件に応じた仮想視点画像を生成できない場合が考えられる。例えば、高画質の仮想視点画像だけを生成する場合には、生成に係る処理時間が長くなることが考えられ、画質は低くともリアルタイムで仮想視点画像を見たいユーザの要件に応えることが困難になる虞がある。一方、低画質の仮想視点画像だけを生成する場合には、リアルタイム性よりも仮想視点画像が高画質であることを優先するユーザの要件に応えることが困難になる虞がある。
本発明は上記の課題に鑑みてなされたものであり、異なる複数の要件に応じた仮想視点画像を生成することを目的とする。
上記課題を解決するため、本発明に係る画像処理システムは、例えば以下の構成を有する。すなわち、複数のカメラによる複数の方向からの撮影に基づく画像を取得する画像取得手段と、仮想視点を示す視点情報を取得する情報取得手段と、前記画像取得手段により取得された画像と前記情報取得手段により取得された前記視点情報とに基づいて仮想視点画像を生成する生成手段であって、表示装置へ出力される第1の仮想視点画像と、前記第1の仮想視点画像より画質が高い第2の仮想視点画像であって前記表示装置への前記第1の仮想視点画像の出力よりも遅いタイミングで別の表示装置へ出力される第2の仮想視点画像とを生成する生成手段とを有する。
本発明によれば、異なる複数の要件に応じた仮想視点画像を生成することができる。
画像処理システム10の構成について説明するための図である。 画像処理装置1のハードウェア構成について説明するための図である。 画像処理装置1の動作の1形態について説明するためのフローチャートである。 表示装置3による表示画面の構成について説明するための図である。 画像処理装置1の動作の1形態について説明するためのフローチャートである。 画像処理装置1の動作の1形態について説明するためのフローチャートである。
[システム構成]
以下、本発明の実施形態について図面を参照して説明する。まず図1を用いて、仮想視点画像を生成し出力する画像処理システム10の構成について説明する。本実施形態における画像処理システム10は、画像処理装置1、カメラ群2、表示装置3、及び表示装置4を有する。
なお、本実施形態における仮想視点画像は、仮想的な視点から被写体を撮影した場合に得られる画像である。言い換えると、仮想視点画像は、指定された視点における見えを表す画像である。仮想的な視点(仮想視点)は、ユーザにより指定されても良いし、画像解析の結果等に基づいて自動的に指定されても良い。すなわち仮想視点画像には、ユーザが任意に指定した視点に対応する任意視点画像(自由視点画像)が含まれる。また、複数の候補からユーザが指定した視点に対応する画像や、装置が自動で指定した視点に対応する画像も、仮想視点画像に含まれる。なお、本実施形態では、仮想視点画像が動画である場合を中心に説明するが、仮想視点画像は静止画であってもよい。
カメラ群2は、複数のカメラを含み、各カメラはそれぞれ異なる方向から被写体を撮影する。本実施形態において、カメラ群2に含まれる複数のカメラは、それぞれが画像処理装置1と接続されており、撮影画像や各カメラのパラメータ等を画像処理装置1に送信する。ただしこれに限らず、カメラ群2に含まれる複数のカメラ同士が通信可能であり、カメラ群2に含まれる何れかのカメラが複数のカメラによる撮影画像や複数のカメラのパラメータ等を画像処理装置1に送信してもよい。また、カメラ群2に含まれる何れかのカメラが、撮影画像に代えて、複数のカメラによる撮影画像の差分に基づいて生成された画像など、カメラ群2による撮影に基づく画像を送信してもよい。
表示装置3は、仮想視点画像を生成するための仮想視点の指定を受け付け、指定に応じた情報を画像処理装置1に送信する。例えば、表示装置3はジョイスティック、ジョグダイヤル、タッチパネル、キーボード、及びマウスなどの入力部を有し、仮想視点を指定するユーザ(操作者)は入力部を操作することで仮想視点を指定する。本実施形態におけるユーザとは、表示装置3の入力部を操作して仮想視点を指定する操作者または表示装置4により表示される仮想視点画像を見る視聴者であり、操作者と視聴者を特に区別しない場合には単にユーザと記載する。本実施形態では視聴者と操作者が異なる場合を中心に説明するが、これに限らず、視聴者と操作者が同一のユーザであってもよい。なお、本実施形態において、表示装置3から画像処理装置1に送信される仮想視点の指定に応じた情報は、仮想視点の位置や向きを示す仮想視点情報である。ただしこれに限らず、仮想視点の指定に応じた情報は仮想視点画像における被写体の形状や向きなど仮想視点に応じて定まる内容を示す情報であってもよく、画像処理装置1はこのような仮想視点の指定に応じた情報に基づいて仮想視点画像を生成してもよい。
さらに表示装置3は、カメラ群2による撮影に基づく画像と表示装置3が受け付けた仮想視点の指定とに基づいて画像処理装置1により生成され出力された仮想視点画像を表示する。これにより操作者は、表示装置3に表示された仮想視点画像を見ながら仮想視点の指定を行うことができる。なお、本実施形態では仮想視点画像を表示する表示装置3が仮想視点の指定を受け付けるものとするが、これに限らない。例えば、仮想視点の指定を受け付ける装置と、操作者に仮想視点を指定させるための仮想視点画像を表示する表示装置とが、別々の装置であってもよい。
また表示装置3は、操作者による操作に基づいて、仮想視点画像の生成を開始させるための生成指示を画像処理装置1に対して行う。なお生成指示はこれに限らず、例えば所定の時刻に仮想視点画像の生成が開始されるように画像処理装置1に仮想視点画像の生成を予約するための指示であってもよい。また例えば、所定のイベントが発生した場合に仮想視点画像の生成が開始されるように予約するための指示であってもよい。なお、画像処理装置1に対して仮想視点画像の生成指示を行う装置が表示装置3と異なる装置であってもよいし、ユーザが画像処理装置1に対して生成指示を直接入力してもよい。
表示装置4は、表示装置3を用いた操作者による仮想視点の指定に基づいて画像処理装置1により生成される仮想視点画像を、仮想視点を指定する操作者とは異なるユーザ(視聴者)に対して表示する。なお、画像処理システム10は複数の表示装置4を有していてもよく、複数の表示装置4がそれぞれ異なる仮想視点画像を表示してもよい。例えば、生放送される仮想視点画像(ライブ画像)を表示する表示装置4と、収録後に放送される仮想視点画像(非ライブ画像)を表示する表示装置4とが、画像処理システム10に含まれていてもよい。
画像処理装置1は、カメラ情報取得部100、仮想視点情報取得部110(以降、視点取得部110)、画像生成部120、及び出力部130を有する。カメラ情報取得部100は、カメラ群2による撮影に基づく画像や、カメラ群2に含まれる各カメラの外部パラメータ及び内部パラメータなどを、カメラ群2から取得し、画像生成部120へ出力する。視点取得部110は、操作者による仮想視点の指定に応じた情報を表示装置3から取得し、画像生成部120へ出力する。また視点取得部110は、表示装置3による仮想視点画像の生成指示を受け付ける。画像生成部120は、カメラ情報取得部100により取得された撮影に基づく画像と、視点取得部110により取得された指定に応じた情報と、視点取得部110により受け付けられた生成指示とに基づいて、仮想視点画像を生成し、出力部130へ出力する。出力部130は、画像生成部120により生成された仮想視点画像を、表示装置3や表示装置4などの外部の装置へ出力する。
なお、本実施形態において画像処理装置1は、画質の異なる複数の仮想視点画像を生成し、各仮想視点画像に応じた出力先に出力する。例えば、リアルタイム(低遅延)の仮想視点画像を要望する視聴者が見ている表示装置4には、生成に係る処理時間が短い低画質の仮想視点画像を出力する。一方、高画質の仮想視点画像を要望する視聴者が見ている表示装置4には、生成に係る処理時間が長い高画質の仮想視点画像を出力する。なお、本実施形態における遅延は、カメラ群2による撮影が行われてからその撮影に基づく仮想視点画像が表示されるまでの期間に対応する。ただし遅延の定義はこれに限らず、例えば現実世界の時刻と表示画像に対応する時刻との時間差を遅延としてもよい。
続いて、画像処理装置1のハードウェア構成について、図2を用いて説明する。画像処理装置1は、CPU201、ROM202、RAM203、補助記憶装置204、表示部205、操作部206、通信部207、及びバス208を有する。CPU201は、ROM202やRAM203に格納されているコンピュータプログラムやデータを用いて画像処理装置1の全体を制御する。なお、画像処理装置1がGPU(Graphics Processing Unit)を有し、CPU201による処理の少なくとも一部をGPUが行ってもよい。ROM202は、変更を必要としないプログラムやパラメータを格納する。RAM203は、補助記憶装置204から供給されるプログラムやデータ、及び通信部207を介して外部から供給されるデータなどを一時記憶する。補助記憶装置204は、例えばハードディスクドライブ等で構成され、静止画や動画などのコンテンツデータを記憶する。
表示部205は、例えば液晶ディスプレイ等で構成され、ユーザが画像処理装置1を操作するためのGUI(Graphical User Interface)などを表示する。操作部206は、例えばキーボードやマウス等で構成され、ユーザによる操作を受けて各種の指示をCPU201に入力する。通信部207は、カメラ群2や表示装置3、表示装置4などの外部の装置と通信を行う。例えば、画像処理装置1が外部の装置と有線で接続される場合には、LANケーブル等が通信部207に接続される。なお、画像処理装置1が外部の装置と無線通信する機能を有する場合、通信部207はアンテナを備える。バス208は、画像処理装置1の各部を繋いで情報を伝達する。
なお、本実施形態では表示部205と操作部206は画像処理装置1の内部に存在するが、画像処理装置1は表示部205及び操作部206の少なくとも一方を備えていなくてもよい。また、表示部205及び操作部206の少なくとも一方が画像処理装置1の外部に別の装置として存在していて、CPU201が、表示部205を制御する表示制御部、及び操作部206を制御する操作制御部として動作してもよい。
[動作フロー]
次に図3を用いて、画像処理装置1の動作の1形態について説明する。図3に示す処理は、視点取得部110が仮想視点画像の生成指示の受付を行ったタイミングで開始され、定期的(例えば仮想視点画像が動画である場合の1フレームごと)に繰り返される。ただし、図3に示す処理の開始タイミングは上記タイミングに限定されない。図3に示す処理は、CPU201がROM202に格納されたプログラムをRAM203に展開して実行することで実現される。なお、図3に示す処理の少なくとも一部を、CPU201とは異なる専用のハードウェアにより実現してもよい。
図3に示すフローにおいて、S2010とS2020は情報を取得する処理に対応し、S2030−S2050は操作者に仮想視点を指定させるための仮想視点画像(指定用画像)を生成し出力する処理に対応する。また、S2070−S2100は、ライブ画像を生成し出力する処理に対応する。S2110−S2130は、非ライブ画像を生成し出力する処理に対応する。以下、各ステップにおける処理の詳細を説明する。
S2010において、カメラ情報取得部100は、カメラ群2による撮影に基づく各カメラの撮影画像と、各カメラの外部パラメータ及び内部パラメータを取得する。外部パラメータはカメラの位置や姿勢に関する情報であり、内部パラメータはカメラの焦点距離や画像中心に関する情報である。
S2020において、視点取得部110は、操作者による仮想視点の指定に応じた情報として仮想視点情報を取得する。本実施形態において仮想視点情報は、仮想視点から被写体を撮影する仮想カメラの外部パラメータと内部パラメータに対応し、仮想視点画像の1フレームを生成するために1つの仮想視点情報が必要となる。
S2030において、画像生成部120は、カメラ群2による撮影画像に基づいて、被写体となるオブジェクトの3次元形状を推定する。被写体となるオブジェクトは、例えば、カメラ群2の撮影範囲内に存在する人物や動体などである。画像生成部120は、カメラ群2から取得した撮影画像と、予め取得した各カメラに対応する背景画像との差分を算出することにより、撮影画像内のオブジェクトに対応する部分(前景領域)が抽出されたシルエット画像を生成する。そして画像生成部120は、各カメラに対応するシルエット画像と各カメラのパラメータを用いて、オブジェクトの3次元形状を推定する。3次元形状の推定には、例えばVisual Hull手法が用いられる。この処理の結果、被写体となるオブジェクトの3次元形状を表現した3D点群(3次元座標を持つ点の集合)が得られる。なお、カメラ群2による撮影画像からオブジェクトの3次元形状を導出する方法はこれに限らない。
S2040において、画像生成部120は、取得された仮想視点情報に基づいて、3D点群と背景3Dモデルをレンダリングし、仮想視点画像を生成する。背景3Dモデルは、例えばカメラ群2が設置されている競技場などのCGモデルであり、予め作成されて画像処理システム10内に保存されている。ここまでの処理により生成される仮想視点画像において、オブジェクトに対応する領域や背景領域はそれぞれ所定の色(例えば一色)で表示される。なお、3D点群や背景3Dモデルをレンダリングする処理はゲームや映画の分野において既知であり、例えばGPUを用いて処理する方法など、高速に処理を行うための方法が知られている。そのため、S2040までの処理で生成される仮想視点画像は、カメラ群2による撮影及び操作者による仮想視点の指定に応じて高速に生成可能である。
S2050において、出力部130は、画像生成部120によりS2040で生成された仮想視点画像を、操作者に仮想視点を指定させるための表示装置3へ出力する。ここで、表示装置3により表示される表示画面30の画面構成を、図4を用いて説明する。表示画面30は領域310と領域320と領域330から構成される。例えば、指定用画像として生成された仮想視点画像は領域310に表示され、ライブ画像として生成された仮想視点画像は領域320に表示され、非ライブ画像として生成された仮想視点画像は領域330に表示される。すなわち、S2040において生成されS2050において出力された仮想視点画像は、領域310に表示される。そして操作者は領域310の画面を見ながら仮想視点の指定を行う。なお、表示装置3は少なくとも指定用画像を表示すればよく、ライブ画像や非ライブ画像を表示しなくてもよい。
S2060において、画像生成部120は、S2040で生成した仮想視点画像よりも高画質な仮想視点画像を生成する処理を行うか否か判断する。例えば、仮想視点を指定させるための低画質な画像だけが必要とされている場合は、S2070へは進まず処理を終了する。一方、より高画質な画像が必要である場合は、S2070へ進み処理を続ける。
S2070において、画像生成部120は、S2030で推定したオブジェクトの形状モデル(3D点群)を、例えばPhotoHull手法を用いてさらに高精度化する。具体的には、3D点群の各点を各カメラの撮影画像に射影し、各撮影画像における色の一致度を評価することで、その点が被写体形状を表現するために必要な点かどうかを判定する。例えば3D点群内のある点について、射影先の画素値の分散が閾値より大きければ、その点は被写体の形状を表す点としては正しくないと判定され、3D点群からその点が削除される。この処理を3D点群内の全点に対して行い、オブジェクトの形状モデルの高精度化を実現する。なお、オブジェクトの形状モデルを高精度化する方法はこれに限らない。
S2080において、画像生成部120は、S2070で高精度化された3D点群に色を付け、それを仮想視点の座標に射影して前景領域に対応する前景画像を生成する処理と、仮想視点から見た背景画像を生成する処理とを実行する。そして画像生成部120は、生成された背景画像に前景画像を重ねることでライブ画像としての仮想視点画像を生成する。
ここで、仮想視点画像の前景画像(オブジェクトに対応する領域の画像)を生成する方法の一例について説明する。前景画像を生成するために、3D点群に色を付ける処理が実行される。色付け処理は点の可視性判定と色の算出処理で構成される。可視性の判定では、3D点群内の各点とカメラ群2に含まれる複数のカメラとの位置関係から、各点について撮影可能なカメラを特定することができる。次に各点について、その点を撮影可能なカメラの撮影画像に点を射影し、射影先の画素の色をその点の色とする。ある点が複数のカメラにより撮影可能な場合、複数のカメラの撮影画像に点を射影し、射影先の画素値を取得し、画素値の平均を算出することでその点の色を決める。このようにして色が付けられた3D点群を既存のCGレンダリング手法によりレンダリングすることで、仮想視点画像の前景画像を生成することができる。
次に、仮想視点画像の背景画像を生成する方法の一例について説明する。まず、背景3Dモデルの頂点(例えば競技場の端に対応する点)が設定される。そして、これらの頂点が、仮想視点に近い2台のカメラ(第1カメラ及び第2カメラとする)の座標系と仮想視点の座標系に射影される。また、仮想視点と第1カメラの対応点、及び仮想視点と第2カメラの対応点を用いて、仮想視点と第1カメラの間の第1射影行列と仮想視点と第2カメラの間の第2射影行列が算出される。そして、第1射影行列と第2射影行列を用いて、背景画像の各画素が第1カメラの撮影画像と第2カメラの撮影画像に射影され、射影先の2つの画素値の平均を算出することで、背景画像の画素値が決定される。なお、同様の方法により、3台以上のカメラの撮影画像から背景画像の画素値を決定してもよい。
このようにして得られた仮想視点画像の背景画像上に前景画像を重ねることで、色が付いた仮想視点画像が生成できる。すなわち、S2080で生成された仮想視点画像はS2040で生成された仮想視点画像よりも色の階調数に関して画質が高い。逆に言うと、S2040で生成された仮想視点画像に含まれる色の階調数は、S2080で生成された仮想視点画像に含まれる色の階調数より少ない。なお、仮想視点画像に色情報を付加する方法はこれに限らない。
S2090において、出力部130は、画像生成部120によりS2080において生成された仮想視点画像を、ライブ画像として表示装置3及び表示装置4へ出力する。表示装置3に出力された画像は領域320へ表示されて操作者が見ることができ、表示装置4に出力された画像は視聴者が見ることができる。
S2100において、画像生成部120は、S2080において生成された仮想視点画像よりも高画質な仮想視点画像を生成する処理を行うか否か判断する。例えば、仮想視点画像を視聴者に対して生放送でのみ提供する場合は、S2110へは進まず処理を終了する。一方、収録後に視聴者に向けてより高画質な画像を放送する場合は、S2110へ進み処理を続ける。
S2110において、画像生成部120は、S2070で生成されたオブジェクトの形状モデルをさらに高精度化する。本実施形態では、形状モデルの孤立点を削除することで高精度化を実現する。孤立点除去においては、まず、Photo Hullで算出されたボクセル集合(3D点群)について、各ボクセルの周囲に別のボクセルが存在するか否か調べられる。周囲にボクセルがない場合、そのボクセルは孤立した点であると判断され、そのボクセルはボクセル集合から削除される。このようにして孤立点を削除した形状モデルを用いてS2080と同様の処理を実行することで、S2080で生成された仮想視点画像よりもオブジェクトの形状が高精度化された仮想視点画像が生成される。
S2120において、画像生成部120は、S2110で生成された仮想視点画像の前景領域と背景領域との境界に平滑化処理をかけ、境界領域が滑らかに表示されるように画像の修正を行う。
S2130において、出力部130は、画像生成部120によりS2120において生成された仮想視点画像を非ライブ画像として表示装置3及び表示装置4へ出力する。表示装置3へ出力された非ライブ画像は領域330へ表示される。
以上の処理により画像処理装置1は、指定用画像としての仮想視点画像と、指定用画像より画質が高い仮想視点画像であるライブ画像とを、1組の撮影画像と仮想視点情報に基づいて生成する。また、画像処理装置1は、ライブ画像よりさらに画質が高い仮想視点画像である非ライブ画像も生成する。そして画像処理装置1は、生成したライブ画像及び非ライブ画像を、非ライブ画像が表示されるより前にライブ画像が表示されるように、表示装置4へ出力する。また画像処理装置1は、生成した指定用画像を、ライブ画像が表示装置4に表示されるより前に指定用画像が表示装置3に表示されるように、表示装置3へ出力する。
これにより、表示装置4は、低画質の指定用画像と、指定用画像より高画質であり生放送されるライブ画像と、ライブ画像よりさらに高画質であり収録後に放送される非ライブ画像とを表示することが可能となる。なお、表示装置4はライブ画像と非ライブ画像の何れか一方だけを表示してもよく、その場合には画像処理装置1は表示装置4に適した仮想視点画像を出力する。また、表示装置3は、指定用画像としての低画質の仮想視点画像と、ライブ画像としての中画質の仮想視点画像と、非ライブ画像としての高画質の仮想視点画像との、3種類の仮想視点画像を表示することが可能となる。なお、表示装置3はライブ画像及び非ライブ画像の少なくとも何れかを表示しなくてもよい。
すなわち、画像処理装置1は、ユーザに仮想視点を指定させるための表示装置3に対して指定用画像を出力する。そして画像処理装置1は、ユーザによる仮想視点の指定に基づいて生成される仮想視点画像を表示するための表示装置4に対して指定用画像より高画質なライブ画像及び非ライブ画像の少なくとも何れかを出力する。これにより、仮想視点を指定するために低遅延で仮想視点画像を表示させたい操作者と、高画質な仮想視点画像を見たい視聴者の、両方の要件に応えることができる。
なお、以上の処理では、カメラ群2による撮影に基づく画像と仮想視点の指定に応じた情報とに基づいて仮想視点画像が生成され、その生成のための処理の結果に基づいてより高画質の仮想視点画像が生成される。そのため、低画質の仮想視点画像と高画質の仮想視点画像をそれぞれ独立した処理で生成する場合よりも、全体の処理量を低減することができる。ただし、低画質の仮想視点画像と高画質の仮想視点画像を独立した処理により生成してもよい。また、仮想視点画像を競技会場やライブ会場に設置されたディスプレイに表示させたり生放送したりする場合であって、収録後に放送する必要がない場合には、画像処理装置1は非ライブ画像を生成するための処理を行わない。これにより、高画質な非ライブ画像を生成するための処理量を削減することができる。
次に図5を用いて、画像処理装置1の動作の別の1形態について説明する。図3を用いて上述した動作形態では、低画質の仮想視点画像を生成した後に、新たな種別の処理を追加で行うことで、高画質の仮想視点画像を生成する。一方、図5を用いて以下で説明する動作形態では、仮想視点画像を生成するために使用するカメラの台数を増やすことで仮想視点画像の高画質化を実現する。以下の説明において、図3の処理と同様の部分については説明を省略する。
図5に示す処理は、視点取得部110が仮想視点画像の生成指示の受付を行ったタイミングで開始される。ただし図5の処理の開始タイミングはこれに限定されない。S2010及びS2020において、画像処理装置1は、図3で説明したものと同様の処理により、カメラ群2の各カメラによる撮影画像と仮想視点情報とを取得する。
S4030において、画像生成部120は、仮想視点画像の生成に用いる撮影画像に対応するカメラの数を設定する。ここで画像生成部120は、S4050−S4070の処理が所定の閾値(例えば仮想視点画像が動画である場合の1フレームに対応する時間)以下の処理時間で完了するようにカメラの数を設定する。例えば、予め100台のカメラの撮影画像を用いてS4050−S4070の処理を実行し、その処理時間が0.5秒であったとする。この場合に、フレームレートが60fps(frame per second)である仮想視点画像の1フレームに対応する0.016秒以内にS4050−S4070の処理を完了させたければ、カメラの数を3台に設定する。
なお、S4050−S4070の処理によって仮想視点画像が出力された後に、S4080において画像生成を続ける判断がされた場合、S4030に戻って使用するカメラの数を再設定する。ここでは、先に出力した仮想視点画像より高画質な仮想視点画像が生成されるように、許容する処理時間を長くし、それに応じてカメラの数を増やす。例えば、0.1秒以下の処理時間でS4050−S4070の処理が完了されるように、使用する撮影画像に対応するカメラの数を20台に設定する。
S4040において、画像生成部120は、仮想視点画像を生成するために使用する撮影画像に対応するカメラを、S4030で設定されたカメラの数に応じてカメラ群2の中から選択する。例えば、100台のカメラから3台のカメラを選択する場合、仮想視点に一番近いカメラと、そのカメラから数えて34台目のカメラ及び67台目のカメラを選択する。
また、仮想視点画像を1回生成した後に、使用する撮影画像の数を増やして2回目の処理を行う場合には、1回目の処理で推定した形状モデルをさらに高精度化することから、1回目で選択されたカメラ以外のカメラが選択される。具体的には、100台のカメラから20台のカメラを選択する場合、1回目の処理で選択されていないカメラの中から仮想視点に一番近いカメラをまず選択し、そこから5台間隔でカメラを選択していく。この際、1回目で既に選択したカメラは飛ばして次のカメラを選択する。なお、例えば非ライブ画像として最も高画質な仮想視点画像を生成する場合には、カメラ群2に含まれる全てのカメラを選択し、各カメラの撮影画像を使用してS4050−S4070の処理を実行する。
なお、使用する撮影画像に対応するカメラを選択する方法はこれに限らない。例えば、仮想視点に近いカメラを優先して選択してもよい。この場合、被写体となるオブジェクトの形状推定において仮想視点からは見えない背面領域の形状推定の精度は低くなるが、仮想視点から見える前面領域の形状推定の精度は向上する。つまり、仮想視点画像の中で視聴者にとって目につき易い領域の画質を優先的に向上させることができる。
S4050において、画像生成部120は、S4040で選択されたカメラによる撮影画像を用いて、オブジェクトの形状推定処理を実行する。ここでの処理は、例えば、図3のS2030における処理(VisualHull)とS2070における処理(PhotoHull)の組み合わせである。VisualHullの処理は、使用する複数の撮影画像に対応する複数のカメラの視体積の論理積を計算する処理を含む。また、PhotoHullの処理は形状モデルの各点を複数の撮影画像に射影して画素値の一貫性を計算する処理を含む。そのため、使用する撮影画像に対応するカメラの数が少ないほど、形状推定の精度は低くなり処理時間が短くなる。
S4060において、画像生成部120は、レンダリング処理を実行する。ここでの処理は、図3のS2080における処理と同様であり、3D点群の色付け処理と背景画像の生成処理を含む。3D点群の色付け処理も背景画像の生成処理も、複数の撮影画像の対応する点の画素値を用いた計算により色を決定する処理を含む。そのため、使用する撮影画像に対応するカメラの数が少ないほど、レンダリングの精度は低くなり処理時間が短くなる。
S4070において、出力部130は、画像生成部120によりS4060において生成された仮想視点画像を、表示装置3や表示装置4へ出力する。
S4080において、画像生成部120は、S4060において生成された仮想視点画像よりも高画質な仮想視点画像を生成する処理を行うか否か判断する。例えば、S4060において生成された仮想視点画像が操作者に仮想視点を指定させるための画像であり、さらにライブ画像を生成する場合には、S4030に戻って、使用するカメラの数を増やしてライブ画像としての仮想視点画像を生成する。また、さらにライブ画像を生成した後に、非ライブ画像を生成する場合には、さらにカメラの数を増やして非ライブ画像としての仮想視点画像を生成する。すなわち、ライブ用画像としての仮想視点画像の生成に用いられる撮影画像に対応するカメラの数は、指定用画像としての仮想視点画像の生成に用いられる撮影画像に対応するカメラの数より多いため、ライブ画像は指定用画像よりも画質が高い。同様に、非ライブ画像としての仮想視点画像の生成に用いられる撮影画像に対応するカメラの数は、ライブ画像としての仮想視点画像の生成に用いられる撮影画像に対応するカメラの数よりも多いため、非ライブ画像はライブ画像よりも画質が高い。
なおS4080において、既に生成した仮想視点画像より高画質な仮想視点画像を生成する必要がないと判断された場合、もしくはより高画質な仮想視点画像を生成することはできないと判断された場合には、処理を終了する。
以上の処理により、画像処理装置1は、画質を段階的に向上させた複数の仮想視点画像をそれぞれ適切なタイミングで生成して出力することが可能となる。例えば、仮想視点画像の生成に使用するカメラを、設定された処理時間以内に生成処理が完了できるような台数に制限することで、遅延の少ない指定用画像を生成することができる。また、ライブ画像や非ライブ画像を生成する場合には、使用するカメラの数を増やして生成処理を行うことで、より高画質の画像を生成することができる。
次に図6を用いて、画像処理装置1の動作の別の1形態について説明する。図5を用いて上述した動作形態では、仮想視点画像を生成するために使用するカメラの台数を増やすことで仮想視点画像の高画質化を実現する。一方、図6を用いて以下で説明する動作形態では、仮想視点画像の解像度を段階的に高めていくことで仮想視点画像の高画質化を実現する。以下の説明において、図3や図5の処理と同様の部分については説明を省略する。なお、以下で説明する動作形態においては、生成される仮想視点画像の画素数は常に4K(3840×2160)であり、画素値の計算を大きい画素ブロックごとに行うか小さい画素ブロックごとに行うかによって仮想視点画像の解像度を制御する。ただしこれに限らず、生成される仮想視点画像の画素数を変更することで解像度を制御してもよい。
図6に示す処理は、視点取得部110が仮想視点画像の生成指示の受付を行ったタイミングで開始される。ただし図6の処理の開始タイミングはこれに限定されない。S2010及びS2020において、画像処理装置1は、図3で説明したものと同様の処理により、カメラ群2の各カメラによる撮影画像と仮想視点情報とを取得する。
S5030において、画像生成部120は、生成する仮想視点画像の解像度を設定する。ここで画像生成部120は、S5050及びS4070の処理が所定の閾値以下の処理時間で完了するように解像度を設定する。例えば、予め4K解像度の仮想視点画像を生成する場合のS5050及びS4070の処理を実行し、その処理時間が0.5秒であったとする。この場合に、フレームレートが60fpsである仮想視点画像の1フレームに対応する0.016秒以内にS5050及びS4070の処理を完了させたければ、解像度を4Kの0.016/0.5=1/31.25倍以下にする必要がある。そこで、仮想視点画像の解像度を縦横それぞれ4K解像度の1/8倍に設定すれば、画素値を計算すべき画素ブロックの数は1/64になり、0.016秒未満で処理を完了できる。
なお、S5050及びS4070の処理によって仮想視点画像が出力された後に、S4080において画像生成を続ける判断がされた場合、S5030に戻って解像度を再設定する。ここでは、先に出力した仮想視点画像より高画質な仮想視点画像が生成されるように、許容する処理時間を長くし、それに応じて解像度を高くする。例えば、解像度を縦横それぞれ4K解像度の1/4に設定すると、0.1秒以下の処理時間でS5050及びS4070の処理が完了される。S5040において、画像生成部120は、仮想視点画像において画素値を計算すべき画素の位置を、S5030で設定された解像度に応じて決定する。例えば、仮想視点画像の解像度を4K解像度の1/8に設定した場合、縦横それぞれ8画素毎に画素値が算出される。そして、画素値が算出された画素(x,y)と画素(x+8,y+8)の間に存在する画素には、画素(x,y)と同じ画素値が設定される。
また、仮想視点画像を1回生成した後に、解像度を高くして2回目の処理を行う場合には、1回目に画素値が算出された画素は飛ばして画素値を算出する。例えば、解像度が4K解像度の1/4に設定された場合、画素(x+4,y+4)の画素値を算出し、画素(x+4,y+4)と画素(x+8,y+8)の間に存在する画素には、画素(x+4,y+4)と同じ画素値が設定される。このように、画素値を算出する画素の数を増やしていくことで、仮想視点画像の解像度を最大で4K解像度まで高くすることができる。
S5050において、画像生成部120は、S5040で決定された位置の画素の画素値を算出して仮想視点画像への色付け処理を行う。画素値の算出方法としては、例えばImage−Based Visual Hullの方法を使用することができる。この方法では画素毎に画素値が算出されるので、画素値を算出すべき画素の数が少ないほど、すなわち仮想視点画像の解像度が低いほど、処理時間が短くなる。
S4070において、出力部130は、画像生成部120によりS5050において生成された仮想視点画像を、表示装置3や表示装置4へ出力する。
S4080において、画像生成部120は、S5050において生成された仮想視点画像よりも高画質な仮想視点画像を生成する処理を行うか否か判断する。例えば、S5050において生成された仮想視点画像が操作者に仮想視点を指定させるための画像であり、さらにライブ画像を生成する場合には、S5030に戻って、解像度を高くした仮想視点画像を生成する。また、ライブ画像を生成した後に、さらに非ライブ画像を生成する場合には、さらに解像度を高くした非ライブ画像としての仮想視点画像を生成する。すなわち、ライブ画像としての仮想視点画像は、指定用画像としての仮想視点画像より解像度が高いため、ライブ画像は指定用画像よりも画質が高い。同様に、非ライブ画像としての仮想視点画像は、ライブ画像としての仮想視点画像よりも解像度が高いため、非ライブ画像はライブ画像よりも画質が高い。
なおS4080において、既に生成した仮想視点画像より高画質な仮想視点画像を生成する必要がないと判断された場合、もしくはより高画質な仮想視点画像を生成することはできないと判断された場合には、処理を終了する。
以上の処理により、画像処理装置1は、解像度を段階的に向上させた複数の仮想視点画像をそれぞれ適切なタイミングで生成して出力することが可能となる。例えば、仮想視点画像の解像度を、設定された処理時間以内に生成処理が完了できるような解像度に設定することで、遅延の少ない指定用画像を生成することができる。また、ライブ画像や非ライブ画像を生成する場合には、解像度を高く設定して生成処理を行うことで、より高画質の画像を生成することができる。
以上のように、画像処理装置1は、仮想視点画像の画質を向上させるための画像処理を行うことにより高画質の画像(例えば非ライブ画像)を生成する。また画像処理装置1は、該画像処理に含まれる部分的な処理であって所定の閾値以下の処理時間で実行される処理によって低画質の画像(例えばライブ画像)を生成する。これにより、所定時間以下の遅延で表示される仮想視点画像と、高画質な仮想視点画像とを両方生成して表示することが可能となる。
なお、図6の説明においては、所定の閾値以下の処理時間で生成処理を完了させるための生成パラメータ(解像度)を推定し、推定された生成パラメータで仮想視点画像を生成するものとした。ただしこれに限らず、画像処理装置1は、仮想視点画像の画質を段階的に向上させていき、処理時間が所定の閾値に達した時点において生成済みの仮想視点画像を出力してもよい。例えば、処理時間が所定の閾値に達した時点において、解像度が4K解像度の1/8である仮想視点画像が生成済みであり、解像度が4K解像度の1/4である仮想視点画像が未完成である場合には、1/8の解像度の仮想視点画像を出力してもよい。また、1/8の解像度から1/4の解像度へ解像度を向上させる処理が途中まで行われた仮想視点画像を出力してもよい。
本実施形態では、画像処理装置1が有する画像生成部120が、カメラ情報取得部100が取得した画像と視点取得部110が取得した仮想視点情報とに基づいて仮想視点画像の生成を制御し、異なる画質の複数の仮想視点画像を生成する場合を中心に説明した。ただしこれに限らず、仮想視点画像の生成を制御する機能と、実際に仮想視点画像を生成する機能とが、それぞれ異なる装置に備わっていてもよい。
例えば、画像処理システム10内に、画像生成部120の機能を有し仮想視点画像を生成する生成装置(不図示)が存在してもよい。そして、画像処理装置1はカメラ情報取得部100が取得した画像及び視点取得部110が取得した情報に基づいて生成装置による仮想視点画像の生成を制御してもよい。具体的には、画像処理装置1が撮影画像と仮想視点情報を生成装置に送信し、仮想視点画像の生成を制御する指示を行う。そして生成装置は、第1の仮想視点画像と、第1の仮想視点画像が表示されるより早いタイミングで表示されるべき第2の仮想視点画像であって第1の仮想視点画像より画質が低い第2の仮想視点画像とを、受信した撮影画像と仮想視点情報とに基づいて生成する。ここで第1の仮想視点画像は例えば非ライブ画像であり、第2の仮想視点画像は例えばライブ画像である。ただし第1の仮想視点画像と第2の仮想視点画像の用途はこれに限定されない。なお、画像処理装置1は、第1の仮想視点画像と第2の仮想視点画像とがそれぞれ異なる生成装置により生成されるように制御を行ってもよい。また、画像処理装置1は、生成装置による仮想視点画像の出力先や出力タイミングを制御する等の出力制御を行ってもよい。
また、生成装置が視点取得部110及び画像生成部120の機能を有しており、画像処理装置1がカメラ情報取得部100により取得される画像に基づいて生成装置による仮想視点画像の生成を制御してもよい。ここでカメラ情報取得部100により取得される画像は、カメラ群2により撮影された撮影画像や複数の撮影画像の差分に基づいて生成された画像などの、撮影に基づく画像である。また、生成装置がカメラ情報取得部100及び画像生成部120の機能を有しており、画像処理装置1が視点取得部110により取得される画像に基づいて生成装置による仮想視点画像の生成を制御してもよい。ここで視点取得部110により取得される画像は、仮想視点画像における被写体の形状や向きなど仮想視点に応じて定まる内容を示す情報や仮想視点情報など、仮想視点の指定に応じた情報である。すなわち、画像処理装置1は、撮影に基づく画像及び仮想視点の指定に応じた情報の少なくとも何れかを含む仮想視点画像の生成に係る情報を取得し、取得した情報に基づいて仮想視点画像の生成を制御してもよい。
また例えば、画像処理システム10内に存在する生成装置がカメラ情報取得部100、視点取得部110及び画像生成部120の機能を有しており、画像処理装置1は仮想視点画像の生成に係る情報に基づいて生成装置による仮想視点画像の生成を制御してもよい。この場合における仮想視点画像の生成に係る情報は、例えば生成装置により生成される第1の仮想視点画像の画質に関するパラメータ及び第2の仮想視点画像の画質に関するパラメータの少なくとも何れかを含む。画質に関するパラメータの具体例としては、仮想視点画像の生成に用いられる撮影画像に対応するカメラの数、仮想視点画像の解像度、仮想視点画像の生成に係る処理時間として許容される時間等がある。画像処理装置1は例えば操作者による入力に基づいてこれらの画質に関するパラメータを取得し、パラメータを生成装置に送信するなど、取得したパラメータに基づいて生成装置を制御する。これにより操作者は、それぞれ異なる所望の画質の複数の仮想視点画像を生成させることができる。
以上説明したように、画像処理装置1は、複数のカメラによるそれぞれ異なる方向からの被写体の撮影に基づく画像と仮想視点の指定に応じた情報とに基づく仮想視点画像の生成指示を受け付ける。そして画像処理装置1は、第1表示装置に出力される第1の仮想視点画像と第2表示装置に出力される第2の仮想視点画像とが、撮影に基づく画像と仮想視点の指定に応じた情報とに基づいて生成されるように、生成指示の受け付けに応じて制御を行う。ここで、第2の仮想視点画像は、第1の仮想視点画像より画質が高い仮想視点画像である。これにより、例えばリアルタイムで仮想視点画像を見たいユーザとリアルタイム性よりも仮想視点画像が高画質であることを優先するユーザの両方がいるような場合にも、表示されるべきタイミングに適した仮想視点画像を生成することができる。
なお、本実施形態では仮想視点画像の画質として色の階調、解像度、及び仮想視点画像の生成に用いられる撮影画像に対応するカメラの数を制御する場合について説明したが、画質としてその他のパラメータを制御してもよい。また、画質に関する複数のパラメータを同時に制御してもよい。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC等)によっても実現可能である。また、そのプログラムをコンピュータにより読み取り可能な記録媒体に記録して提供してもよい。
1 画像処理装置
2 カメラ群
100 カメラ情報取得部
110 仮想視点情報取得部
120 画像生成部

Claims (25)

  1. 複数のカメラによる複数の方向からの撮影に基づく画像を取得する画像取得手段と、
    仮想視点を示す視点情報を取得する情報取得手段と、
    前記画像取得手段により取得された画像と前記情報取得手段により取得された前記視点情報とに基づいて仮想視点画像を生成する生成手段であって、表示装置へ出力される第1の仮想視点画像と、前記第1の仮想視点画像より画質が高い第2の仮想視点画像であって前記表示装置への前記第1の仮想視点画像の出力よりも遅いタイミングで別の表示装置へ出力される前記第2の仮想視点画像とを生成する生成手段とを有することを特徴とする画像処理システム。
  2. 前記生成手段により生成される前記第1の仮想視点画像と前記第2の仮想視点画像は、同一の仮想視点に応じた仮想視点画像であることを特徴とする請求項1に記載の画像処理システム。
  3. 前記第1の仮想視点画像が出力される前記表示装置は、ユーザに仮想視点を指定するために用いられる表示装置であり、
    前記第2の仮想視点画像が出力される前記別の表示装置は、ユーザに仮想視点を指定させるためには用いられない表示装置であることを特徴とする請求項1又は2に記載の画像処理システム。
  4. 前記生成手段により生成される前記第1の仮想視点画像及び前記第2の仮想視点画像を出力する出力手段を有することを特徴とする請求項1乃至3の何れか1項に記載の画像処理システム。
  5. 前記表示装置へ前記第1の仮想視点画像が出力され、前記別の表示装置へ前記第2の仮想視点画像が出力されるように、前記生成手段により生成される前記第1の仮想視点画像及び前記第2の仮想視点画像の出力を制御する出力制御手段を有することを特徴とする請求項1乃至3の何れか1項に記載の画像処理システム。
  6. 前記情報取得手段により取得される前記視点情報は、前記表示装置への画像表示に応じたユーザ操作に基づいて指定された仮想視点を示すことを特徴とする請求項1乃至5の何れか1項に記載の画像処理システム。
  7. 前記生成手段は、前記画像取得手段により取得された画像を用いた画像処理により前記第1の仮想視点画像を生成する過程において生成されるデータと前記第1の仮想視点画像との少なくとも何れかを用いて、前記第の仮想視点画像を生成することを特徴とする請求項1乃至6の何れか1項に記載の画像処理システム。
  8. 前記生成手段は、前記撮影に基づく画像と前記視点情報とに基づいて生成された仮想視点画像に対して画質を向上させるための画像処理を行うことにより前記第2の仮想視点画像を生成し、前記仮想視点画像から前記第2の仮想視点画像を生成するための処理に含まれる部分的な処理であって所定の閾値以下の処理時間で実行される処理を行うことにより前記第1の仮想視点画像を生成することを特徴とする請求項1乃至6の何れか1項に記載の画像処理システム。
  9. 前記生成手段は、前記第1の仮想視点画像と前記第2の仮想視点画像とをそれぞれ独立した処理により生成することを特徴とする請求項1乃至6の何れか1項に記載の画像処理システム。
  10. 前記生成手段は、前記第1の仮想視点画像と前記第2の仮想視点画像とをそれぞれ異なる生成装置により生成することを特徴とする請求項1乃至6の何れか1項に記載の画像処理システム。
  11. 前記第1の仮想視点画像は、前記複数のカメラの少なくとも何れかにより撮影されるオブジェクトの形状を表す画像であり、
    前記第2の仮想視点画像は、前記オブジェクトの形状に加えてさらに前記第1の仮想視点画像には表れない前記オブジェクトの色を表す画像であることを特徴とする請求項1乃至10の何れか1項に記載の画像処理システム。
  12. 前記生成手段により生成される仮想視点画像に係る前記画質は、仮想視点画像に含まれる色の階調数であることを特徴とする請求項1乃至10の何れか1項に記載の画像処理システム。
  13. 前記生成手段により生成される仮想視点画像に係る前記画質は、仮想視点画像の解像度であることを特徴とする請求項1乃至10の何れか1項に記載の画像処理システム。
  14. 前記別の表示装置は、競技会場又はライブ会場に設置されたディスプレイであることを特徴とする請求項1乃至13の何れか1項に記載の画像処理システム。
  15. 前記情報取得手段により取得される視点情報は、仮想視点の位置及び方向の少なくとも何れかを示す情報であることを特徴とする請求項1乃至14の何れか1項に記載の画像処理システム。
  16. 複数のカメラによる複数の方向からの撮影に基づく画像を取得する画像取得手段と、
    仮想視点を示す視点情報を取得する情報取得手段と、
    前記画像取得手段により取得された画像と前記情報取得手段により取得された前記視点情報とに基づいて仮想視点画像を生成する生成手段であって、表示装置へ出力される第1の仮想視点画像と、前記表示装置への前記第1の仮想視点画像の出力よりも遅いタイミングで別の表示装置へ出力される第2の仮想視点画像とを生成する生成手段とを有し、
    前記画像取得手段により取得された撮影に基づく画像から前記第2仮想視点画像を生成する処理に係る前記生成手段の処理量は、当該撮影に基づく画像から前記第1仮想視点画像を生成する処理に係る前記生成手段の処理量より大きいことを特徴とする画像処理システム。
  17. 前記生成手段により生成される前記第1の仮想視点画像と前記第2の仮想視点画像は、同一の仮想視点に応じた仮想視点画像であることを特徴とする請求項16に記載の画像処理システム。
  18. 前記第1の仮想視点画像が出力される前記表示装置は、ユーザに仮想視点を指定するために用いられる表示装置であり、
    前記第2の仮想視点画像が出力される前記別の表示装置は、ユーザに仮想視点を指定させるためには用いられない表示装置であることを特徴とする請求項16又は17に記載の画像処理システム。
  19. 仮想視点画像の生成指示を受け付ける受付手段と、
    複数のカメラによる複数の方向からの撮影に基づく画像と仮想視点を示す視点情報とに基づいて仮想視点画像を生成する生成手段を制御する制御手段であって、表示装置へ出力される第1の仮想視点画像と、前記第1の仮想視点画像より画質が高い第2の仮想視点画像であって前記表示装置への前記第1の仮想視点画像の出力よりも遅いタイミングで別の表示装置へ出力される前記第2の仮想視点画像とが前記生成手段により生成されるように、前記受付手段による前記生成指示の受け付けに応じて前記生成手段を制御する制御手段とを有することを特徴とする画像処理装置。
  20. 前記生成手段により生成される前記第1の仮想視点画像と前記第2の仮想視点画像は、同一の仮想視点に応じた仮想視点画像であることを特徴とする請求項19に記載の画像処理装置。
  21. 前記第1の仮想視点画像が出力される前記表示装置は、ユーザに仮想視点を指定するために用いられる表示装置であり、
    前記第2の仮想視点画像が出力される前記別の表示装置は、ユーザに仮想視点を指定させるためには用いられない表示装置であることを特徴とする請求項19又は20に記載の画像処理装置。
  22. 複数のカメラによる複数の方向からの撮影に基づく画像を取得する画像取得工程と、
    仮想視点を示す視点情報を取得する情報取得工程と、
    前記画像取得工程において取得された画像と前記情報取得工程において取得された前記視点情報とに基づいて仮想視点画像を生成する生成工程であって、表示装置へ出力される第1の仮想視点画像と、前記第1の仮想視点画像より画質が高い第2の仮想視点画像であって前記表示装置への前記第1の仮想視点画像の出力よりも遅いタイミングで別の表示装置へ出力される前記第2の仮想視点画像とを生成する生成工程とを有することを特徴とする画像処理方法。
  23. 前記生成工程において生成される前記第1の仮想視点画像と前記第2の仮想視点画像は、同一の仮想視点に応じた仮想視点画像であることを特徴とする請求項22に記載の画像処理方法。
  24. 前記第1の仮想視点画像が出力される前記表示装置は、ユーザに仮想視点を指定するために用いられる表示装置であり、
    前記第2の仮想視点画像が出力される前記別の表示装置は、ユーザに仮想視点を指定させるためには用いられない表示装置であることを特徴とする請求項22又は23に記載の画像処理方法。
  25. コンピュータを、請求項19乃至21の何れか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
JP2018192134A 2018-10-10 2018-10-10 画像処理装置、画像処理システム、画像処理方法及びプログラム Active JP6672417B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018192134A JP6672417B2 (ja) 2018-10-10 2018-10-10 画像処理装置、画像処理システム、画像処理方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018192134A JP6672417B2 (ja) 2018-10-10 2018-10-10 画像処理装置、画像処理システム、画像処理方法及びプログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016211905A Division JP6419128B2 (ja) 2016-10-28 2016-10-28 画像処理装置、画像処理システム、画像処理方法及びプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020036313A Division JP7016899B2 (ja) 2020-03-03 2020-03-03 画像処理装置、画像処理システム、画像処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2019053738A JP2019053738A (ja) 2019-04-04
JP6672417B2 true JP6672417B2 (ja) 2020-03-25

Family

ID=66013478

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018192134A Active JP6672417B2 (ja) 2018-10-10 2018-10-10 画像処理装置、画像処理システム、画像処理方法及びプログラム

Country Status (1)

Country Link
JP (1) JP6672417B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11682142B2 (en) 2019-12-20 2023-06-20 Raytheon Company Information weighted rendering of 3D point set

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3532823B2 (ja) * 2000-03-31 2004-05-31 株式会社東芝 画像合成方法および画像合成プログラムを記録した媒体
JP3971691B2 (ja) * 2002-10-31 2007-09-05 日本電信電話株式会社 仮想視点画像生成方法及び仮想視点画像生成装置、ならびに仮想視点画像生成プログラム及び記録媒体
JP6128748B2 (ja) * 2012-04-13 2017-05-17 キヤノン株式会社 画像処理装置及び方法
JP2013255171A (ja) * 2012-06-08 2013-12-19 Canon Inc 画像配信装置及び画像表示装置
JP2014215828A (ja) * 2013-04-25 2014-11-17 シャープ株式会社 画像データ再生装置、および視点情報生成装置
EP3005677A1 (en) * 2013-05-26 2016-04-13 Pixellot Ltd. Method and system for low cost television production

Also Published As

Publication number Publication date
JP2019053738A (ja) 2019-04-04

Similar Documents

Publication Publication Date Title
JP6419128B2 (ja) 画像処理装置、画像処理システム、画像処理方法及びプログラム
JP7051457B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP6407460B1 (ja) 画像処理装置、画像処理方法およびプログラム
JP7439146B2 (ja) 画像処理システム、画像処理方法及びプログラム
JP7023696B2 (ja) 情報処理装置、情報処理方法及びプログラム
KR20210059775A (ko) 이미지 합성
JP6672417B2 (ja) 画像処理装置、画像処理システム、画像処理方法及びプログラム
JP6717486B1 (ja) 拡張仮想空間提供システム
WO2022176719A1 (ja) 画像処理装置、画像処理方法及びプログラム
JP2020035218A (ja) 画像処理装置、方法及びプログラム
JP7182915B2 (ja) 画像生成装置、画像生成方法、及びプログラム
JP2023131566A (ja) 画像処理装置、画像処理方法、及びプログラム
JP2022103836A (ja) 情報処理装置、情報処理方法及びプログラム
JP2023175503A (ja) 画像処理装置及びその画像処理方法
JP2022094788A (ja) 生成装置、生成方法、及び、プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181010

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191119

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200304

R151 Written notification of patent or utility model registration

Ref document number: 6672417

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151