JP7023696B2 - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
JP7023696B2
JP7023696B2 JP2017237668A JP2017237668A JP7023696B2 JP 7023696 B2 JP7023696 B2 JP 7023696B2 JP 2017237668 A JP2017237668 A JP 2017237668A JP 2017237668 A JP2017237668 A JP 2017237668A JP 7023696 B2 JP7023696 B2 JP 7023696B2
Authority
JP
Japan
Prior art keywords
image
virtual viewpoint
display
unit
display target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017237668A
Other languages
English (en)
Other versions
JP2019106617A (ja
Inventor
祥吾 水野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017237668A priority Critical patent/JP7023696B2/ja
Priority to US16/214,685 priority patent/US10771761B2/en
Publication of JP2019106617A publication Critical patent/JP2019106617A/ja
Application granted granted Critical
Publication of JP7023696B2 publication Critical patent/JP7023696B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)

Description

本発明は、情報処理装置、情報処理方法及びプログラムに関する。
近年、複数のカメラ等の撮像装置を異なる位置に配置して、複数の視点から同期して撮影し、撮影により得られた複数の視点からの画像を用いて、任意の視点からの画像である仮想視点画像を生成する技術がある。
複数の視点からの画像に基づく仮想視点画像の生成は、例えば、複数の撮像装置が撮影した画像をサーバ等の画像処理部に集約し、画像処理部にて、仮想視点に基づくレンダリング等の処理を施すこと等により実現できる。
この仮想視点画像により、例えば、サッカーやバスケットボールの試合を撮影した画像から、迫力のある視点のコンテンツを制作したり、コンテンツを視聴しているユーザ自身が自由に視点を移動しながら、試合観戦したりすることができる。
特許文献1では、被写体を取り囲むように配置された複数のカメラにより被写体が撮影された画像を用いて、仮想視点画像を生成、表示する技術が開示されている。
特開2008-15756号公報
仮想視点画像は、複数の撮像装置により同期して撮影された画像を利用して生成される。そのため、一部の撮像装置が撮影した画像に異常が発生すると、仮想視点画像の品質が低下する場合がある。例えば、1台の撮像装置の露出が、他の撮像装置と異なったまま撮影した場合、特定の仮想視点から見ると被写体の色味がおかしくなる場合がある。また、カメラに想定外の被写体(観客や応援旗等の遮蔽物)が撮影され、撮影対象の被写体の一部が隠れてしまう場合、特定の仮想視点から見ると被写体(例えば、選手等)の一部(手、足等)がない画像となる場合がある。このような場合に、ユーザによる仮想視点画像の品質の低下の原因の把握をより容易にしたいという要望があった。しかし、従来技術では、ユーザによる仮想視点画像の品質の低下の原因の把握をより容易にできなかった。
本発明の画像処理装置は、仮想的な視点からの画像である仮想視点画像の生成に関連する画像から、表示対象となる画像である表示対象画像を決定する決定手段と、前記仮想視点画像と前記決定手段により決定された前記表示対象画像と、を表示部に表示させる表示制御手段と、を有し、前記表示制御手段は、前記決定手段により決定された前記表示対象画像に含まれる画像それぞれの前記仮想視点画像の生成に寄与する度合いに応じた表示態様で、前記仮想視点画像と前記表示対象画像とを前記表示部に表示させる
本発明によれば、ユーザによる仮想視点画像の品質の低下の原因の把握をより容易にすることができる。
画像処理システムのシステム構成の一例を示す図である。 撮像装置の配置状況の一例を示す図である。 画像生成装置等のハードウェア構成の一例を示す図である。 画像生成装置の機能構成の一例を示す図である。 画像生成装置の処理の一例を示すフローチャートである。 表示画像の表示状況の一例を示す図である。 画像生成装置の処理の一例を示すフローチャートである。 画像生成装置の機能構成の一例を示す図である。 画像生成装置の処理の一例を示すフローチャートである。 撮像装置の配置状況の一例を示す図である。 表示画像の表示状況の一例を説明する図である。
以下に、本発明の実施の形態の一例を、図面に基づいて詳細に説明する。
<実施形態1>
図1は、画像処理システム100のシステム構成の一例を示す図である。
画像処理システム100は、2台以上の複数の撮像装置110、画像生成装置120、ユーザ端末130を含む。複数の撮像装置110それぞれと画像生成装置120とは、Local Area Network(LAN)、インターネット、イーサネット(登録商標)等のネットワークを介して、相互に通信可能に接続されている。また、画像生成装置120とユーザ端末130とは、LAN、インターネット、イーサネット等のネットワークを介して、相互に通信可能に接続されている。
撮像装置110それぞれは、静止画、動画等の画像を撮影可能なネットワークカメラ、デジタルカメラ等の撮像装置である。撮像装置110それぞれは、サッカー場等の競技場、コンサート会場、特定の被写体等の撮影対象を取り囲むように配置されている。撮像装置110それぞれは、撮影した画像を、有線又は無線で、ネットワークを介して、画像生成装置120に送信する。
図2は、撮像装置110の配置状況の一例を示す図である。本実施形態では、撮像装置110それぞれは、サッカーの競技場を取り囲むように配置されており、競技場の全部又は一部を撮影する。
画像生成装置120は、撮像装置110により撮影された画像を蓄積し、ユーザ端末130から仮想視点情報を受信し、蓄積した複数の画像に基づいて、受信した仮想視点情報に応じた仮想視点画像を生成する。仮想視点情報とは、仮想的に配置される視点の情報である。仮想視点情報は、例えば、競技場における予め定められた位置(例えば、競技場の中央位置)に対する相対的な位置の情報を含む。また、仮想視点情報は、例えば、予め定められた座標系(例えば、世界座標系)における仮想的に配置される視点の位置を示す座標の情報を含むこととしてもよい。また、仮想視点情報は、撮影方向(その仮想視点から見ている方向)を示す情報を含む。
画像生成装置120は、例えば、パーソナルコンピュータ(PC)、サーバ装置、タブレット装置等の情報処理装置である。画像生成装置120は、競技の開始前等における予め被写体(例えば、選手、控え選手、監督、審判、ボール、ゴールポスト、ゴールネット等)が存在しない状態の競技会場の場面が撮影された画像を背景画像として記憶している。
ユーザ端末130は、PC、タブレット装置、スマートホン等の情報処理装置である。ユーザ端末130は、ユーザからの情報の入力を受け付け、入力された情報に基づいて、仮想視点情報や仮想視点情報の更新内容を示す情報を生成し、生成した情報を、ネットワークを介して、画像生成装置120に送信する。また、ユーザ端末130は、画像生成装置120から受信した仮想視点画像を、表示部に表示することで、ユーザに提示する。これにより、ユーザは、指定した仮想的な視点からの仮想視点画像を確認できる。
図3(a)は、画像生成装置120のハードウェア構成の一例を示す図である。
画像生成装置120は、Central Processing Unit(CPU)301、Read Only Memory(ROM)302、Random Access Memory(RAM)303を含む。また、画像生成装置120は、Hard Disc Drive(HDD)304、表示部305、入力部306、通信部307を含む。各要素は、システムバス308を介して、相互に通信可能に接続されている。
CPU301は、ROM302、HDD304等に記憶された制御プログラム等のプログラムを読み出して各種処理を実行する中央演算装置である。ROM302は、制御プログラム、各種設定情報等を記憶する記憶装置である。RAM303は、CPU301の主メモリ、ワークエリア等の一時記憶領域として用いられる記憶装置である。HDD304は、各種設定情報、仮想視点情報、各種画像の情報、各種プログラム等を記憶する記憶装置である。画像生成装置120は、HDD304の代わりに、ソリッドステートドライブ(SSD)、フラッシュメモリ等の記憶装置を含むこととしてもよい。また、画像生成装置120は、HDD304に加えて、ソリッドステートドライブ(SSD)、フラッシュメモリ等の記憶装置を含むこととしてもよい。ROM302、RAM303、HDD304は、記憶媒体の一例である。
表示部305は、各種情報を表示するモニタ、タッチパネルの表示部等の表示装置である。入力部306は、キーボード、マウス、6軸コントローラ、タッチパネルの操作部等の入力装置である。通信部307は、撮像装置110、ユーザ端末130等の外部の装置とのネットワークを介した通信を行う通信部である。
CPU301が、ROM302又はHDD304に記憶されたプログラムにしたがって処理を実行することで、図4、8で後述する画像生成装置120の機能、及び、図5、7、9で後述するフローチャートの処理等が実現される。
ユーザ端末130のハードウェア構成は、画像生成装置120のハードウェア構成と同様である。
ユーザ端末130のCPUが、ユーザ端末130のROM又はHDDに記憶されたプログラムにしたがって処理を実行することで、ユーザ端末130の機能、及び、ユーザ端末130の処理等が実現される。
図3(b)は、撮像装置110それぞれのハードウェア構成の一例を示す図である。
撮像装置110は、CPU311、ROM312、RAM313、撮影部314、通信部315を含む。各要素は、システムバス316を介して、相互に通信可能に接続されている。
CPU311は、撮像装置110を制御する中央演算装置である。ROM312は、各種設定情報、各種プログラムを記憶する記憶装置である。RAM313は、CPU311のワークエリア、撮影部314により撮影された画像等のデータの一時的な記憶場所として機能する記憶装置である。
撮影部314は、CCDセンサ、CMOSセンサ等の撮像素子やレンズを含み、画像を撮影する撮影部である。通信部315は、画像生成装置120等の外部の装置との間でのネットワークを介した通信を行う通信部である。
CPU311が、ROM312に記憶されたプログラムにしたがって処理を実行することで、撮像装置110の機能、及び、撮像装置110の処理等が実現される。
図4は、画像生成装置120の機能構成の一例を示す図である。
画像生成装置120は、データ入力部401、分離部402、データ管理部403、被写体形状決定部404、実カメラ位置管理部405、ユーザ入力部406、仮想視点管理部407、仮想視点画像生成部408を含む。また、画像生成装置120は、寄与度決定部409、表示画像生成部410、画像出力部411を含む。
データ入力部401は、撮像装置110から撮像装置110により撮影された画像の入力を受付け、受け付けた画像を分離部402へ送信する。
分離部402は、データ入力部401から送信された被写体が存在しない状況の画像を、背景画像として、データ管理部403に送信する。また、分離部402は、データ入力部401から送信された被写体が存在する状況の画像から、背景画像に基づいて、画像処理を行い、前景として被写体の画像を分離し、分離した被写体の画像を、前景画像として、データ管理部403に送信する。分離部402は、例えば、被写体が撮影された画像から、背景画像との差分を抽出する方法等のオブジェクト抽出方法を用いる。また、分離部402は、動体の部分を、被写体である前景として分離してもよい。また、分離部402は、分離した前景画像に加えて、前景と背景とに分離される前の元の画像を、データ管理部403に送信してもよい。
データ管理部403は、分離部402から送信された画像のうち、被写体が存在しない状態を撮影された画像である背景画像を、HDD304等に記憶する。また、データ管理部403は、分離部402から入力された画像のうち、被写体が存在する状態を撮影された画像から分離された前景画像を、HDD304等に記憶する。また、データ管理部403は、分離部402から前景と背景とに分離される前の元の画像が送信された場合、その画像を、元画像として、HDD304等に記憶する。また、データ管理部403は、被写体形状決定部404に前景画像を送信する。また、データ管理部403は、仮想視点画像生成部408から、背景画像と前景画像との要求を受付け、要求に応じた背景画像と前景画像とを仮想視点画像生成部408へ送信する。また、データ管理部403は、要求に応じた前景画像に加えて、その前景画像に対応する元画像を仮想視点画像生成部408へ送信してもよい。
被写体形状決定部404は、データ管理部403から送信された前景画像と、実カメラ位置管理部405から送信された実カメラ位置情報と、を用いて、被写体の形状を決定する。実カメラ位置情報とは、実際に撮影を行う撮像装置110それぞれの位置を示す情報である。実カメラ位置情報には、例えば、予め定められた座標系における撮像装置110それぞれの位置を示す座標の情報、撮像装置110それぞれの撮影方向等の情報が含まれる。被写体形状決定部404は、例えば、視体積交差法等の三次元形状復元手法を用いて、被写体の形状を決定し、被写体の形状を示すモデル(以下では、形状モデルとする)の情報である形状モデル情報を生成する。また、被写体形状決定部404は、生成した形状モデル情報を、仮想視点画像生成部408へ送信する。
実カメラ位置管理部405は、HDD304等に記憶されている撮像装置110それぞれの位置を示す実カメラ位置情報を管理する。HDD304等には、予め撮影対象である競技場全体に対する3Dスキャン等により計測された撮像装置110それぞれの位置を示す情報が、実カメラ位置情報として、予め記憶されているとする。本実施形態では、撮像装置110それぞれの位置は、計測により特定されることとする。しかし、撮像装置110それぞれが、予め定められた位置に配置されることとしてもよい。その場合、撮像装置110の位置を計測する必要がない。また、実カメラ位置管理部405は、実カメラ位置情報を被写体形状決定部404、仮想視点画像生成部408へ送信する。また、実カメラ位置管理部405は、表示画像生成部410に実カメラ位置情報を送信することとしてもよい。
ユーザ入力部406は、ユーザ端末130から、画像生成装置120への指示を示すコマンドデータを、受信する。ユーザ入力部406は、受信したコマンドデータが仮想視点の更新指示を示す場合、そのコマンドデータに含まれる仮想視点情報又は仮想視点情報の更新内容の情報を、仮想視点管理部407に送信する。
仮想視点管理部407は、ユーザ入力部406から送信された仮想視点情報又は仮想視点の更新内容の情報に基づいて、HDD304等に記憶されている現在の仮想カメラの位置や撮影方向を示す仮想視点情報を更新する。以下では、現在の仮想カメラの位置や撮影方向等の情報を示すHDD304等に記憶されている仮想視点情報を、仮想カメラ視点情報とする。仮想カメラの位置は、予め定められた座標系における座標として管理されている。この座標系の原点は、例えば、撮影対象である競技場の中心等に予め設定されている。仮想視点管理部407は、HDD304等に記憶されている仮想カメラ視点情報を、仮想視点画像生成部408へ送信する。
仮想視点画像生成部408は、データ管理部403から前景画像と背景画像とを受信し、被写体形状決定部404から形状モデル情報を受信し、実カメラ位置管理部405から実カメラ位置情報を受信する。また、仮想視点画像生成部408は、仮想視点管理部407から仮想カメラ視点情報を受信する。そして、仮想視点画像生成部408は、受信した前景画像と、背景画像と、形状モデル情報と、実カメラ位置情報と、仮想カメラ視点情報と、に基づいて、仮想視点画像を生成する。
仮想視点画像生成部408は、例えば、モデルベースレンダリング(Model-Based Rendering:MBR)という手法を用いて、仮想視点画像を生成する。
MBRとは、被写体を複数の方向から撮影した複数の画像に基づいて生成される三次元モデルを用いて仮想視点画像を生成する方式である。より具体的には、MBRは、以下のような技術である。即ち、視体積交差法、MVS等の三次元形状復元手法により得られた対象シーンの三次元形状(モデル)に対し、仮想視点からの三次元形状の見えに対応した複数の撮影画像をレンダリング画像として投影することで仮想視点画像を生成する技術である。MVSとは、Multi-View-Stereoの略である。また、仮想視点画像生成部408は、MBR以外のレンダリング手法を用いて、仮想視点画像を生成してもよい。
仮想視点画像生成部408は、仮想カメラ視点情報が示す視点から見た形状モデル情報が示す形状モデルに対して、前景画像(撮像装置110で撮影された画像)の色情報に基づいて、色付け(レンダリング)する。そして、仮想視点画像生成部408は、色付けした形状モデルを、背景モデル上に配置し、仮想カメラ視点情報が示す視点からの画像を、仮想視点画像として生成する。
仮想視点画像生成部408は、例えば、仮想カメラの視点から被写体モデルが見えている際に、受信した実カメラ位置情報が示す撮像装置110の位置のうち、被写体モデルを中心とした予め定められた範囲内に含まれるものがある場合、以下の処理を行う。即ち、その範囲内に位置する撮像装置110がある場合、仮想視点画像生成部408は、その撮像装置110により撮影された前景画像(被写体が撮影された画像)の色に基づいて、形状モデルの色を決定する。
また、仮想視点画像生成部408は、生成した仮想視点画像を、表示画像生成部410へ送信する。また、仮想視点画像生成部408は、仮想視点画像の生成に利用した画像(前景画像、背景画像)と、仮想視点画像の生成にどの画像がどのように利用されたのかを示す情報と、を寄与度決定部409へ送信する。以下では、仮想視点画像の生成にどの画像がどのように利用されたのかを示す情報を、生成情報とする。生成情報は、例えば、被写体の形状モデルが3次元情報を持つ点群からなる場合、この点群に含まれる点それぞれについて、どの画像を用いて色付けされたかを示す情報を含む。また、生成情報は、例えば、仮想カメラ視点情報が示す視点から見える被写体の形状モデル情報を生成するために、どの画像が利用されたかを示す情報を含む。
寄与度決定部409は、仮想視点画像生成部408から送信された生成情報に基づいて、仮想視点画像生成部408から送信された各画像について、仮想視点画像の生成における寄与の度合いを示す指標である寄与度を決定する。そして、寄与度決定部409は、仮想視点画像生成部408から送信された各画像に決定した寄与度を対応付けて、表示画像生成部410に送信する。寄与度決定部409は、例えば、仮想視点画像生成部408から送信された生成情報に基づいて、仮想視点から見える被写体の点群で表された形状モデルに含まれる各点の色付けに利用された画像を特定する。そして、寄与度決定部409は、色付けに利用された回数がより多い画像ほど、より高い寄与度となるように、仮想視点画像生成部408から送信された各画像について寄与度を決定する。また、寄与度決定部409は、仮想視点から見える被写体の形状モデルの生成に利用された画像を、利用されなかった画像よりも寄与度が高くなるように、仮想視点画像生成部408から送信された各画像について寄与度を決定する。
表示画像生成部410は、仮想視点画像生成部408から送信された仮想視点画像と、寄与度決定部409から送信された寄与度に対応付けられた画像と、を用いて、ユーザ端末130の表示部等の表示部に表示される画像を生成する。以下では、表示画像生成部410により生成される表示部に表示される画像を、表示画像とする。表示画像生成部410は、例えば、予め定められたサイズの画像を、初期の表示画像として生成する。そして、表示画像生成部410は、例えば、仮想視点画像生成部408から送信された仮想視点画像を、表示画像内の予め定められた位置に配置する。
また、表示画像生成部410は、寄与度決定部409から送信された寄与度に対応付けられた画像から、表示画像に含ませることで表示部に表示させる対象となる画像を決定する。以下では、寄与度決定部409から送信された寄与度に対応付けられた画像のうち、表示部に表示させる対象となる画像を、表示対象画像とする。表示画像生成部410は、例えば、寄与度決定部409から送信された寄与度に対応付けられた画像それぞれの寄与度に基づいて、表示対象画像を決定する。表示画像生成部410は、例えば、対応する寄与度が予め定められた閾値以上の画像を、表示対象画像として決定する。また、表示画像生成部410は、例えば、対応する寄与度が最も高いものから順に予め定められた数の画像を、表示対象画像として決定してもよい。これにより、画像処理システム100は、仮想視点画像の生成により多く寄与した表示対象画像を、表示部に表示できることとなる。仮想視点画像の品質の低下が発生した際、その原因は、仮想視点画像の生成により多く寄与した画像内にあると仮定できる。そのため、画像処理システム100は、仮想視点画像の生成により多く寄与した画像のみを、表示部に表示することで、ユーザによる仮想視点画像の品質低下の原因の把握をより容易にすることができる。
また、表示画像生成部410は、例えば、寄与度決定部409から送信された寄与度に対応付けられた画像のうち、仮想カメラ視点情報が示す仮想カメラの位置と、撮像装置110それぞれの位置と、の位置関係に基づいて、表示対象画像を決定してもよい。表示画像生成部410は、実カメラ位置管理部405から送信された実カメラ位置情報から、撮像装置110それぞれの位置を取得することができる。その場合、表示画像生成部410は、例えば、寄与度決定部409から送信された寄与度に対応付けられた画像のうち、仮想カメラ視点情報が示す視点の位置からの距離が予め定められた閾値以下の位置に存在する撮像装置110により撮影された画像を特定する。そして、表示画像生成部410は、特定した画像を表示対象画像として決定する。これにより、画像処理システム100は、寄与度決定部409から送信された寄与度に対応付けられた画像のうち、仮想カメラの位置からの距離が閾値以下の位置に存在する撮像装置により撮影された画像を表示部に表示できることとなる。仮想視点画像は、仮想カメラからの距離が一定以下の位置に存在する撮像装置により撮影された画像から生成される場合がある。そのため、画像処理システム100は、仮想カメラの位置からの距離が閾値以下の位置に存在する撮像装置により撮影された画像を表示部に表示することで、ユーザによる仮想視点画像の品質低下の原因の把握をより容易にすることができる。
また、表示画像生成部410は、例えば、寄与度決定部409から送信された寄与度に対応付けられた画像すべてを、表示対象画像として決定してもよい。また、表示画像生成部410は、例えば、寄与度決定部409から送信された寄与度に対応付けられた画像のうち、予め定められた撮像装置により撮影された画像を、表示対象画像として決定してもよい。
表示画像生成部410は、決定した表示対象画像それぞれについて、表示画像内におけるサイズを決定する。表示画像生成部410は、例えば、表示対象画像それぞれに対応する寄与度に基づいて、表示画像内におけるサイズを決定する。表示画像生成部410は、例えば、対応する寄与度が高い程、表示画像内におけるサイズが大きくなるように、表示対象画像それぞれの表示画像内におけるサイズを決定する。これにより、画像処理システム100は、仮想視点画像の生成により多く寄与した表示対象画像を、より大きなサイズで表示部に表示できることとなる。仮想視点画像の品質の低下が発生した際、その原因は、仮想視点画像の生成により多く寄与した画像内にあると仮定できる。そのため、画像処理システム100は、仮想視点画像の生成により多く寄与した画像を、より大きなサイズで表示部に表示することで、ユーザによる仮想視点画像の品質低下の原因の把握をより容易にすることができる。
また、表示画像生成部410は、例えば、表示対象画像それぞれについて、仮想カメラ視点情報が示す仮想カメラの位置と、撮像装置110それぞれの位置と、の位置関係に基づいて、表示画像におけるサイズを決定してもよい。その場合、表示画像生成部410は、例えば、表示対象画像それぞれについて、撮影した撮像装置と仮想カメラとの距離を特定する。そして、表示画像生成部410は、特定した距離に対応する撮像装置により撮影された表示対象画像の表示画像におけるサイズを、特定した距離が小さい程、大きくなるように決定する。これにより、画像処理システム100は、表示対象画像を、撮影した撮像装置が仮想カメラに近い程、大きなサイズで表示部に表示できることとなり、ユーザによる仮想視点画像の品質低下の原因の把握をより容易にすることができる。
また、表示画像生成部410は、例えば、表示対象画像すべてについて、表示画像におけるサイズを、予め定められたサイズに決定してもよい。
表示画像生成部410は、表示画像内に表示対象画像それぞれを配置する。
表示画像生成部410は、例えば、サイズを決定した表示対象画像それぞれを、表示画像内の予め定められた領域に、並べて表示する。表示画像生成部410は、例えば、サイズを決定した表示対象画像それぞれを、表示画像内の予め定められた領域に、サイズの大きい順に、上から下に並べて配置する。また、表示画像生成部410は、例えば、サイズを決定した表示対象画像それぞれを、表示画像内の予め定められた領域に、サイズの大きい順に、左から右に並べて配置する。
また、表示画像生成部410は、例えば、サイズを決定した表示対象画像それぞれについて、仮想カメラ視点情報が示す仮想カメラの位置と、撮像装置110それぞれの位置と、の位置関係に基づいて、表示画像における位置を決定してもよい。その場合、表示画像生成部410は、例えば、仮想カメラの位置を基準に仮想カメラの水平方向における撮影方向を前方向、地面の方向を下方向として、表示対象画像それぞれを撮影した撮像装置それぞれが仮想カメラの右側にあるか、左側にあるかを特定する。そして、表示画像生成部410は、仮想カメラの右側に存在すると特定した撮像装置により撮影された表示対象画像を、表示画像における仮想視点画像が配置された領域の中心よりも右側の予め定められた領域に、表示することを決定する。また、表示画像生成部410は、仮想カメラの左側に存在すると特定した撮像装置により撮影された表示対象画像を、表示画像における仮想視点画像が配置された領域の中心よりも左側の予め定められた領域に、表示することを決定する。
そして、表示画像生成部410は、表示画像における仮想視点画像が配置された領域の中心よりも右側の予め定められた領域に表示することを決定した表示対象画像を、その予め定められた領域内で、例えば、サイズの大きさ順に上から下に並べて配置する。また、表示画像生成部410は、表示画像における仮想視点画像が配置された領域の中心よりも左側の予め定められた領域に表示することを決定した表示対象画像を、その予め定められた領域内で、例えば、サイズの大きさ順に上から下に並べて配置する。
これにより、画像処理システム100は、表示対象画像それぞれを撮影した撮像装置それぞれの仮想カメラに対する方向に対応する表示態様で、表示対象画像それぞれを表示することができる。ユーザは、この表示された画像を視認することで、どの表示対象画像が、仮想カメラから見てどの方向に位置する撮像装置により撮影された画像であるかをより容易に把握できるようになる。
そして、表示画像生成部410は、仮想視点画像と、表示対象画像それぞれと、を配置した表示画像を、画像出力部411に送信する。また、表示画像生成部410は、仮想視点画像と、表示対象画像それぞれと、を配置した表示画像に更に、表示対象画像それぞれを撮影した撮像装置の属性情報を示す情報を、表示画像内の予め定められた領域に配置してもよい。撮像装置の属性情報には、例えば、露出値、画角、座標、ISO、シャッタースピード等の情報がある。これにより、ユーザは、表示対象画像がどのような撮像装置により撮影されたかをより容易に把握できる。
画像出力部411は、表示画像生成部410から送信された表示画像を、ユーザ端末130へ送信し、表示画像を表示部に表示するよう指示することで、表示画像を表示させるよう制御する。
なお、図4に記載の機能構成の一部又はすべてをハードウェアにより実現してもよい。ハードウェアの一例としては、ASIC、FPGA又はGPU(Graphics Processing Unit)であってよい。図4に記載の機能構成の一部を他の装置が有してもよい。また、複数の装置による協働の処理により、図4に記載の機能構成の一部又はすべてを実現してもよい。
図5は、画像生成装置120の処理の一例を示すフローチャートである。
S501において、仮想視点管理部407は、ユーザ入力部406を介して、ユーザ端末130から仮想視点情報又は仮想視点の更新内容を示す情報が受信されたか否かを判定する。仮想視点管理部407は、ユーザ端末130から仮想視点情報又は仮想視点の更新内容を示す情報が受信されたと判定した場合、受信された仮想視点情報又は仮想視点の更新内容を示す情報に基づいて、仮想カメラ視点情報を更新する。そして、仮想視点管理部407は、更新した仮想カメラ視点情報を、仮想視点画像生成部408に送信し、S502の処理に進む。また、仮想視点管理部407は、ユーザ端末130から仮想視点情報又は仮想視点の更新内容を示す情報が受信されていないと判定した場合、S501の処理を繰り返す。
S502において、仮想視点画像生成部408は、S501で仮想視点管理部407から送信された仮想カメラ視点情報が示す視点を特定する。そして、仮想視点画像生成部408は、特定した視点から仮想カメラにより撮影可能な領域が撮影された画像から分離された前景画像と背景画像とを、データ管理部403に要求する。そして、仮想視点画像生成部408は、データ管理部403から要求に応じた前景画像と背景画像とを取得する。仮想視点画像生成部408は、例えば、仮想カメラ視点情報が示す視点から撮影される競技上の領域を撮影可能な撮像装置110を特定する。そして、仮想視点画像生成部408は、特定した撮像装置110により撮影された画像から分離された前景画像と背景画像とを、データ管理部403から取得する。また、仮想視点画像生成部408は、その前景画像と併せて、対応する元画像をデータ管理部403から取得してもよい。
S503において、仮想視点画像生成部408は、仮想カメラ視点情報が示す視点から仮想カメラにより撮影可能な被写体について、形状モデル情報を被写体形状決定部404から取得する。
S504において、仮想視点画像生成部408は、仮想カメラ視点情報が示す視点から仮想カメラにより撮影可能な領域を撮影する撮像装置110についての実カメラ位置情報を、実カメラ位置管理部405から取得する。
S505において、仮想視点画像生成部408は、仮想カメラ視点情報、S502~S504で取得した前景画像、背景画像、形状モデル情報、実カメラ位置情報に基づいて、仮想視点画像を生成する。
S506において、寄与度決定部409は、仮想視点画像生成部408から取得した仮想視点画像の生成に使用された画像それぞれについて、仮想視点画像の生成にどの程度寄与したかを示す寄与度を決定する。寄与度決定部409は、例えば、各画像の被写体の形状モデルの点群に含まれる点それぞれについての色付けに使用された回数に基づいて、各画像の寄与度を決定する。また、寄与度決定部409は、S501により取得した情報により示される仮想カメラの視点と近い視点を有する実カメラを寄与度が高い画像を撮影する実カメラと決定してもよい。
S507において、表示画像生成部410は、仮想視点画像生成部408から送信された仮想視点画像と、寄与度決定部409から送信された寄与度と対応付けられた画像と、が内部に配置された表示画像を生成する。
S508において、画像出力部411は、ユーザ端末130へ、S507で生成された表示画像を出力する。より具体的には、画像出力部411は、S507で生成された表示画像を、ユーザ端末130へ送信し、ユーザ端末130の表示部に表示画像を表示するよう指示することで、出力する。画像出力部411は、S507で生成された表示画像を、画像生成装置120の表示部305に表示することで出力してもよい。また、画像出力部411は、S507で生成された表示画像を、プロジェクタ等を介して、外部のスクリーン等に表示することで出力してもよい。S508の処理は、表示制御処理の一例である。
図6は、ユーザ端末130の表示部に表示画像が表示されている状況の一例を示す図である。領域600は、ユーザ端末130の表示部の表示領域である。図6の例では、領域600全体に、表示画像が表示されている状況が示されている。画像601は、仮想視点画像である。図6の例では、仮想視点画像である画像601が領域600の中央下寄りの領域に表示されている状況が示されている。画像602~606は、それぞれ表示対象画像である。図6の例では、表示対象画像のサイズは、その表示対象画像の寄与度が高い程、大きくなっている。即ち、画像602は、画像604、606よりも寄与度が高いこととなる。また、画像604は、606よりも寄与度が高いこととなる。また、画像603は、画像605、607よりも寄与度が高いこととなる。また、画像605は、607よりも寄与度が高いこととなる。
また、図6の例では、表示対象画像の仮想視点画像に対する方向は、表示対象画像それぞれを撮影した撮像装置の仮想カメラに対する方向に対応する方向となっている。即ち、仮想カメラの水平方向における撮影方向を前方向として、地面方向を下方向とした場合に、仮想カメラからみて右側に位置する撮像装置により撮影された表示対象画像は、仮想視点画像の中心よりも右側に配置される。また、仮想カメラからみて左側に位置する撮像装置により撮影された表示対象画像は、仮想視点画像の中心よりも左側に配置される。よって、画像602、604、606を撮影した撮像装置は、仮想カメラから見て左側に存在し、画像603、605、607を撮影した撮像装置は、仮想カメラから見て右側に存在することとなる。
なお、図6に示す例は一例にすぎず、他の表示形態で画像601~画像607等を表示してもよい。例えば、表示画像生成部410は、寄与度に関わらず実カメラの撮影画像を一律の大きさで表示させてもよい。また、表示画像生成部410は、ユーザ端末130から画像602~画像607のうち何れかを操作したことを示す操作情報を受信した場合、操作された画像を拡大表示した表示画像を生成してもよい。また、表示画像生成部410は、露出等の撮影パラメータが他の撮影装置と異なる撮影装置の撮影画像を識別可能に強調表示するための表示画像を生成してもよい。また、表示画像生成部410は、障害物等、仮想視点画像の画質低下の要因を画像処理により検出し、当該障害物を撮影するカメラの撮影画像を識別可能に強調表示するための表示画像を生成してもよい。
本実施形態では、画像処理システム100は、仮想視点画像と、表示対象画像それぞれと、を配置した表示画像を、ユーザ端末130の1つの表示部に表示することとした。しかし、画像処理システム100は、仮想視点画像と、表示対象画像それぞれと、を複数の表示部に分割して表示してもよい。例えば、表示画像生成部410は、仮想視点画像と表示対象画像として決定した画像とを、画像出力部411に送信する。画像出力部411は、仮想視点画像と、表示対象画像それぞれと、をそれぞれ個別の画像として、ユーザ端末130に送信し、それぞれの画像を、ユーザ端末130に接続された複数のモニタ等の複数の表示部に分割して表示するように指示してもよい。その場合、例えば、1つの表示部に1つの画像が表示されることとなる。
本実施形態では、画像処理システム100は、予め撮影された背景画像、撮像装置110により撮影された画像から分離された前景画像、から表示対象画像となる画像を決定することとした。しかし、画像処理システム100は、元画像を、表示対象画像として決定してもよい。例えば、表示画像生成部410は、図4等で説明した方法で、表示対象画像を決定し、決定した表示対象画像が前景画像である場合、データ管理部403から、その前景画像に対応する元画像を取得する。そして、表示画像生成部410は、取得した元画像を、その前景画像に変わる表示対象画像として決定することとしてもよい。
本実施形態では、画像処理システム100は、仮想視点画像と併せて仮想視点画像の生成に関連する画像をユーザ端末130の表示部に表示することとした。しかし、画像処理システム100は、仮想視点画像をユーザ端末130の表示部に表示して、ユーザ端末130の入力部を介して、仮想視点画像の一部の選択を受付けた場合、以下の処理を行うこととしてもよい。即ち、画像処理システム100は、選択された仮想視点画像の一部の部分について、その部分の生成に利用された画像を、表示対象画像として決定して、ユーザ端末130の表示部に表示することとしてもよい。
本実施形態では、画像処理システム100は、仮想視点画像と併せて、表示対象画像を常時表示することとした。しかし、画像処理システム100は、仮想視点画像の品質の低下を検知した場合に、表示対象画像を表示することとしてもよい。また、画像処理システム100は、ユーザ端末130の入力部を介して、ユーザから、仮想視点画像の品質の低下が起こったことを通知された場合に、表示対象画像を表示することとしてもよい。
以上、本実施形態では、画像処理システム100は、仮想的な視点からの画像である仮想視点画像と併せて、仮想視点画像の生成に関連する画像を、表示部に表示することとした。ユーザは、表示部に表示された画像を視認することで、仮想視点画像と併せて、仮想視点画像の生成に用いられた画像を視認することができる。これにより、画像処理システム100は、ユーザによる仮想視点画像の品質低下の原因の把握をより容易にすることができる。
<実施形態2>
本実施形態では、実施形態1の処理により表示された表示対象画像のうち、仮想視点画像の品質の低下の原因となっている画像の指定をユーザから受け付け、その指定が示す画像を仮想視点画像の生成に利用することを禁止する処理について説明する。
本実施形態の画像処理システム100のシステム構成は、実施形態1と同様である。本実施形態の撮像装置110、画像生成装置120、ユーザ端末130のハードウェア構成は、実施形態1と同様である。
本実施形態のユーザ端末130のCPUは、ユーザ端末130の入力部を介したユーザによる操作に基づいて、実施形態1のS508の処理で、表示が指示された表示対象画像から、仮想視点画像の品質低下の原因となっている画像の指定を受付ける。そして、ユーザ端末130のCPUは、指定が示す画像の情報を、画像生成装置120に送信し、その画像を撮影する撮像装置が撮影する画像を、仮想視点画像の生成に用いることを禁止するように指示する。
本実施形態の画像生成装置120は、実施形態1と同様に、データ入力部401、分離部402、データ管理部403、被写体形状決定部404、実カメラ位置管理部405、ユーザ入力部406、仮想視点管理部407、仮想視点画像生成部408を含む。また、画像生成装置120は、実施形態1と同様に、寄与度決定部409、表示画像生成部410、画像出力部411を含む。各要素は、実施形態1と同様の機能を有する。
本実施形態の画像生成装置120の機能構成について、実施形態1と異なる点について説明する。
ユーザ入力部406は、実施形態1と同様の機能に加えて以下で説明するような処理を行う機能を有する。
実施形態1では、画像生成装置120は、被写体の形状モデルの色付けに利用された回数や、被写体の形状モデルの決定に利用されたか否か等に基づいて、仮想視点画像の生成に利用された各画像の寄与度を決定した。本実施形態では、画像処理システム100は、被写体の形状モデルの色付けに利用された回数や、被写体の形状モデルの決定に利用されたか否か等のうち予め定められた指標に基づいて、仮想視点画像の生成に利用された各画像の寄与度を決定する。そして、画像生成装置120は、ユーザ端末130から寄与度の決定に用いられる指標の切り替え指示を受信した場合、以下の処理を実行する。即ち、画像生成装置120は、受信した切り替え指示が示す指標に基づいて、仮想視点画像の生成に利用された各画像の寄与度を決定し直し、改めて表示対象画像を決定することとする。
そこで、本実施形態では、ユーザ入力部406は、ユーザ端末130から切り替え指示を受信した場合、寄与度決定部409等に送信する。
また、ユーザ入力部406は、ユーザ端末130から仮想視点画像の品質低下の原因となっている画像の指定を受信した場合、指定された画像の情報を、仮想視点画像生成部408へ送信する。
被写体形状決定部404は、実施形態1と同様の機能に加えて、以下で説明するような処理を行う機能を有する。ユーザ入力部406から仮想視点画像生成部408に仮想視点画像の品質低下の原因となっている画像の指定が送信された場合、仮想視点画像生成部408は、送信された指定の情報を、被写体形状決定部404に送信する。被写体形状決定部404は、仮想視点画像の品質低下の原因となっている画像の指定を受信すると、受信した指定が示す画像を撮影した撮像装置により撮影された画像から分離された前景画像を用いずに、被写体の形状を決定し直す。そして、被写体形状決定部404は、決定し直した形状モデルの形状モデル情報を仮想視点画像生成部408へ送信する。
仮想視点画像生成部408は、ユーザ入力部から送信された指定が示す画像を撮影した撮像装置により撮影された画像(前景画像、背景画像)を用いずに、仮想視点画像を生成する。例えば、仮想視点画像生成部408は、ユーザ入力部から送信された指定が示す画像を撮影した撮像装置以外の撮像装置により撮影された画像を用いて形状モデルの各点の色付けを行う。
寄与度決定部409は、実施形態1と同様の機能に加えて、以下で説明する処理を行う機能を有する。寄与度決定部409は、ユーザ入力部406から切り替え指示が送信された場合、受信した切り替え指示が示す指標に基づいて、仮想視点画像の生成に用いられた各画像の寄与度を決定し直す。例えば、寄与度決定部409は、切り替え指示が示す指標が、被写体の形状モデルへの色付けにおける利用された回数である場合、被写体の形状モデルの色付けに利用された回数に基づいて、各画像の寄与度を決定し直す。また、寄与度決定部409は、切り替え指示が示す指標が、被写体の形状モデルの決定に利用されたか否かである場合、被写体の形状モデルの決定に利用されたか否かに基づいて、各画像の寄与度を決定し直す。
図7は、本実施形態の画像生成装置120の処理の一例を示すフローチャートである。
図7の処理は、図5の処理のうち、S503~S505の処理の代わりに、S701~S707の処理が入った処理である。図7におけるS501~S502、S506~S508の処理は、図5のS501~S502、S506~S508の処理と同様である。図7の処理のうち、図5の処理と異なる点について説明する。
S701において、ユーザ入力部406は、仮想視点画像の品質の低下の原因となっている画像の情報を、ユーザ端末130から受信したか否かを判定する。ユーザ入力部406は、仮想視点画像の品質の低下の原因となっている画像の情報を受信したと判定した場合、受信したと判定した情報を、仮想視点画像生成部408に送信し、S702の処理に進む。また、ユーザ入力部406は、仮想視点画像の品質の低下の原因となっている画像の情報を受信していないと判定した場合、S703の処理に進む。
S702において、仮想視点画像生成部408は、S701で受信されたと判定された情報が示す画像を撮影した撮像装置により撮影された画像を、以降の仮想視点画像の生成に利用しないことを決定する。また、仮想視点画像生成部408は、S701で受信されたと判定された情報が示す画像の情報を、被写体形状決定部404に送信する。
S703において、仮想視点画像生成部408は、被写体の形状モデル情報を被写体形状決定部404から取得する。仮想視点画像生成部408は、S702の処理を実行している場合、S702で利用しないと決定された画像を用いずに生成された被写体の形状モデル情報を、被写体形状決定部404から取得することとなる。また、仮想視点画像生成部408は、S702の処理を実行していない場合、S503と同様の処理を行うこととなる。
S704において、仮想視点画像生成部408は、実カメラ位置情報を実カメラ位置管理部405から取得する。仮想視点画像生成部408は、S702の処理を実行している場合、S702で利用しないと決定された画像を撮影する撮像装置の実カメラ位置情報については、取得しないこととなる。また、仮想視点画像生成部408は、S702の処理を実行していない場合、S504と同様の処理を行うこととなる。
S705において、仮想視点画像生成部408は、現在の仮想カメラの視点の情報を示す仮想カメラ視点情報、S702~S704で取得した画像(前景画像、背景画像)、形状モデル情報、実カメラ位置情報に基づいて、仮想視点画像を生成する。仮想視点画像生成部408は、S702の処理を実行している場合、S702で利用しないと決定された画像を利用せずに、仮想視点画像を生成することとなる。また、仮想視点画像生成部408は、S702の処理を実行していない場合、S505と同様の処理を行うこととなる。
S706において、ユーザ入力部406は、寄与度の決定に用いられる指標の切り替え指示を、ユーザ端末130から受信したか否かを判定する。ユーザ入力部406は、寄与度の決定に用いられる指標の切り替え指示を、ユーザ端末130から受信したと判定した場合、受信したと判定した切り替え指示が示す指標の情報を、寄与度決定部409に送信し、S707の処理に進む。また、ユーザ入力部406は、寄与度の決定に用いられる指標の切り替え指示を、ユーザ端末130から受信していないと判定した場合、S506の処理に進む。
S707において、寄与度決定部409は、仮想視点画像の生成に用いられた各画像についての仮想視点画像の生成への寄与度の決定に用いられる指標を、S706で送信された情報が示す指標に決定する。そして、寄与度決定部409は、S506で、S707で決定した指標に基づいて、各画像の寄与度を決定する。また、寄与度決定部409は、S707の処理を実行していない場合、S506で、予め定められた指標に基づいて、各画像の寄与度を決定する。S706~S707の処理により、画像処理システム100は、指定された指標に応じた寄与度を決定できる。
以上、本実施形態では、画像処理システム100は、実施形態1と同様に、仮想視点画像と併せて、仮想視点画像の生成に関連する画像を表示部に表示した。また、本実施形態の画像処理システム100は、表示部に表示された各画像を確認したユーザから、ユーザ端末130を介して、仮想視点画像の品質の低下の原因となる画像の指定を受付けた。そして、画像処理システム100は、ユーザから指定された画像を撮影した撮像装置により撮影された画像を、以降の仮想視点画像の生成に用いることを禁止することとした。これにより、画像処理システム100は、仮想視点画像の品質の低下を回避することができる。
<実施形態3>
仮想視点画像は、仮想視点画像の生成に用いられる複数の画像それぞれを撮影する撮影部同士がより離れている程、その撮影部により撮影された画像を利用して生成される仮想視点画像は、以下のようになる。即ち、この仮想視点画像は、その仮想視点から実際の撮像装置により撮影された画像に比べて、画質がより低下する。そのため、仮想視点画像の生成に用いられた各画像を撮影した撮像装置同士の距離が、より離れている程、生成された仮想視点画像の品質の低下が起きやすくなる。そこで、本実施形態では、画像処理システム100は、撮像装置110それぞれの位置に基づいて、仮想視点画像の品質の低下が発生しやすい仮想的な視点を決定して、決定した仮想的な視点からの仮想視点画像と表示対象画像とを表示部に表示する処理を行う。
本実施形態の画像処理システム100のシステム構成は、実施形態1と同様である。本実施形態の撮像装置110、画像生成装置120、ユーザ端末130のハードウェア構成は、実施形態1と同様である。
図8は、本実施形態の画像生成装置120の機能構成の一例を示す図である。
本実施形態の画像生成装置120は、図4と比べて、ユーザ入力部406の代わりに、距離取得部801を含む点で異なる。
距離取得部801は、実カメラ位置管理部405から送信された実カメラ位置情報に基づいて、撮像装置110に含まれる撮像装置同士の距離それぞれと、撮像装置110に含まれる撮像装置同士の中間の位置と、を取得する。距離取得部801は、取得した距離が大きいものから順に1つずつ選択する。距離取得部801は、距離を1つ選択する毎に、選択した距離に対応する2つの撮像装置の情報と、この撮像装置同士の中間の位置の情報と、を仮想視点管理部407に送信する。そして、距離取得部801は、この撮像装置同士の中間の位置を、仮想カメラの視点の位置とするように仮想カメラ視点情報を更新するよう仮想視点管理部407に指示する。これにより、距離取得部801は、品質の低下が発生しやすい順に、仮想カメラの位置を更新できる。
画像処理システム100は、品質の低下が発生しやすい順に位置が更新される仮想カメラについて、位置が更新されるごとに、仮想視点画像を生成し、仮想視点画像と表示対象画像とを表示することとなる。これにより、ユーザは、仮想カメラが品質の低下が発生しやすい位置に存在する場合について、他の場合よりも先に確認することができる。
また、距離取得部801は、実カメラ位置管理部405から送信された実カメラ位置情報に基づいて、撮像装置110に含まれる撮像装置同士の距離のうち、最も大きな距離を取得してもよい。そして、距離取得部801は、取得した距離がどの2つの撮像装置の間の距離であるかを特定し、特定した2つの撮像装置の間の中間の位置を取得することとしてもよい。距離取得部801は、この位置を、仮想視点画像の品質の低下が最も起きやすい仮想的な視点の位置として取得する。そして、距離取得部801は、取得した位置の情報を、仮想視点管理部407に送信し、送信した情報で、仮想カメラ視点情報を更新するよう指示することとしてもよい。
この場合、画像処理システム100は、品質の低下が最も発生しやすい位置に配置される仮想カメラについて、仮想視点画像を生成し、仮想視点画像と表示対象画像とを表示することとなる。これにより、ユーザは、最も仮想視点画像の品質の低下が発生しやすい場合について、品質の低下を監視できる。
仮想視点管理部407は、この指示に応じて、HDD304等に記憶された仮想カメラ視点情報を更新する。そして、仮想視点管理部407は、更新した仮想カメラ視点情報と、更新された仮想カメラの位置がどの2つの撮像装置の中間の位置であるかを示す情報と、を仮想視点画像生成部408に送信し、仮想視点画像の生成を指示する。仮想視点画像生成部408は、送信された更新された仮想カメラの位置がどの2つの撮像装置の中間の位置であるかを示す情報に基づいて、現在の仮想カメラの位置を中間の位置とする2つの撮像装置を特定する。そして、仮想視点画像生成部408は、特定した2つの撮像装置により撮影された画像を最も寄与度が高くなるように利用して、仮想視点画像を生成する。
図9は、本実施形態の画像生成装置120の処理の一例を示すフローチャートである。
図9の処理のうち、図5と異なる点について説明する。図9のS502~S508の処理は、図5のS502~S508の処理と同様である。
S901において、距離取得部801は、実カメラ位置管理部405に実カメラ位置情報を要求し、要求に応じて実カメラ位置管理部405から送信された実カメラ位置情報を受信することで取得する。
S902において、距離取得部801は、S901で取得した実カメラ位置情報に基づいて、撮像装置110に含まれる撮像装置同士の距離それぞれを取得し、撮像装置110に含まれる撮像装置同士の中間の位置それぞれを取得する。
S903において、距離取得部801は、S902で取得した距離から、大きいものから1つずつ選択する。以下では、選択された距離を選択距離とする。そして、距離取得部801は、選択距離を選択するごとに、選択距離に対応する2つの撮像装置の情報とこの2つの撮像装置の中間の位置の情報とを仮想視点管理部407に送信し、S904、S502~S508の処理を繰り返すように制御する。
S904において、仮想視点管理部407は、S903で送信された2つの撮像装置の中間の位置の情報に基づいて、仮想カメラ視点情報を更新する。仮想視点管理部407は、この2つの撮像装置の情報を、仮想視点画像生成部408に送信する。仮想視点画像生成部408は、送信された情報が示す撮像装置により撮影された画像を用いて、仮想視点画像を生成することとなる。
図10は、本実施形態の撮像装置110それぞれの配置状況の一例を示す図である。図10を用いて、本実施形態の撮像装置110それぞれと仮想カメラとの位置関係を説明する。撮像装置110それぞれは、撮影対象である競技場の中心を取り囲むように配置されている。
図10の例では、撮像装置110に含まれる撮像装置同士の距離のうち、最も大きいものは、撮像装置110(a)と撮像装置110(b)との間の距離であるとする。仮想カメラ1105は、撮像装置110(a)と撮像装置110(b)との中間の位置に配置された仮想カメラである。
また、撮像装置110に含まれる撮像装置同士の距離のうち、2番目に大きいものは、撮像装置110(c)と撮像装置110(d)との間の距離であるとする。仮想カメラ1106は、撮像装置110(c)と撮像装置110(d)との中間の位置に配置された仮想カメラである。
図11は、本実施形態の表示画像の表示状況の一例を示す図である。図11(a)は、仮想カメラ1105により撮影されたとみなすことができる仮想視点画像を含む表示画像が表示されている状況の一例を示す図である。画像1101は、仮想視点画像である。また、画像1102~1107は、表示対象画像である。画像1102、1103は、最も寄与度が大きい撮像装置110(a)、撮像装置110(a)により撮影された画像である。
図11(b)は、仮想カメラ1106により撮影されたとみなすことができる仮想視点画像を含む表示画像が表示されている状況の一例を示す図である。画像1111は、仮想視点画像である。また、画像1112~1117は、表示対象画像である。画像1112、1113は、最も寄与度が大きい撮像装置110(a)、撮像装置110(a)により撮影された画像である。
本実施形態では、画像処理システム100は、仮想カメラ視点情報を更新し、仮想視点画像を生成し直すごとに、生成し直した仮想視点画像と対応する表示対象画像とをユーザ端末130の表示部に表示することとした。しかし、画像処理システム100は、仮想カメラ視点情報を更新し、仮想視点画像を生成し直すごとに、生成し直した仮想視点画像のみを表示してもよい。また、画像処理システム100は、仮想カメラ視点情報を更新するたびに、生成し直した複数の仮想視点画像を、まとめて、ユーザ端末130の表示部に表示することとしてもよい。
以上、本実施形態では、画像処理システム100は、仮想視点画像の品質の低下が起きやすい位置から順に仮想カメラの配置位置を更新しながらして、仮想視点画像を生成し、仮想視点画像と表示対象画像とを表示した。2つの撮影部同士の距離が大きいほど、その2つの撮影部の間の中間の位置に仮想カメラが配置された場合に、その2つの撮影部により撮影された画像を用いて生成される仮想視点画像は、品質の低下が発生しやすくなる。そのため、本実施形態の処理により、ユーザは、品質の低下が発生しやすい場合について、他の場合よりも先に仮想視点画像の品質の監視を行うことができる。即ち、ユーザは、より効率的に仮想視点画像の品質の監視を行うことができる。
<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
例えば、上述した画像処理システム100の機能構成の一部又は全てをハードウェアとして画像生成装置120に実装してもよい。
以上、本発明の実施形態の一例について詳述したが、本発明は係る特定の実施形態に限定されるものではない。上述した各実施形態を任意に組み合わせてもよいし、適宜改良や置換を行ったものや、他の構成としたものでもよい。
100 画像処理システム
110 撮像装置
120 画像生成装置

Claims (17)

  1. 仮想的な視点からの画像である仮想視点画像の生成に関連する画像から、表示対象となる画像である表示対象画像を決定する決定手段と、
    前記仮想視点画像と前記決定手段により決定された前記表示対象画像と、を表示部に表示させる表示制御手段と、
    を有し、
    前記表示制御手段は、前記決定手段により決定された前記表示対象画像に含まれる画像それぞれの前記仮想視点画像の生成に寄与する度合いに応じた表示態様で、前記仮想視点画像と前記表示対象画像とを前記表示部に表示させる情報処理装置。
  2. 仮想的な視点からの画像である仮想視点画像の生成に関連する画像から、表示対象となる画像である表示対象画像を決定する決定手段と、
    前記仮想視点画像と前記決定手段により決定された前記表示対象画像と、を表示部に表示させる表示制御手段と、
    を有し、
    前記決定手段は、複数の撮影部に含まれる撮影部同士の距離に応じて決定された仮想的な視点からの画像である仮想視点画像の生成に関連する画像であって、前記複数の撮影部により撮影される画像から、前記表示対象画像を決定する情報処理装置。
  3. 前記複数の撮影部に含まれる撮影部同士の距離に応じて決定された仮想的な視点は、前記複数の撮影部に含まれる撮影部同士の距離のうち、最も大きい距離に応じて決定された仮想的な視点である請求項2に記載の情報処理装置。
  4. 前記複数の撮影部に含まれる撮影部同士の距離に応じて決定された仮想的な視点は、前記複数の撮影部に含まれる撮影部同士の距離に応じて、前記複数の撮影部に含まれる撮影部同士の間の中間の位置から決定された仮想的な視点である請求項2又は3に記載の情報処理装置。
  5. 前記複数の撮影部に含まれる撮影部同士の距離それぞれから大きい順に1つずつを選択距離として選択し、選択した前記選択距離それぞれについて、前記選択距離に対応する2つの撮影部の間の位置を、前記仮想的な視点として決定する別の決定手段を更に有し、
    前記決定手段は、前記別の決定手段により前記仮想的な視点が決定されるごとに、前記別の決定手段により決定された仮想的な視点からの画像である仮想視点画像の生成に関連する画像であって、前記複数の撮影部により撮影される画像から、前記表示対象画像を決定し、
    前記表示制御手段は、前記別の決定手段により前記仮想的な視点が決定されるごとに、前記仮想視点画像と前記決定手段により決定された前記表示対象画像とを前記表示部に表示させる請求項2乃至4の何れか1項に記載の情報処理装置。
  6. 前記決定手段は、前記仮想視点画像に含まれるオブジェクトのモデルの生成に関連する画像を、前記表示対象画像として決定する請求項1乃至5の何れか1項に記載の情報処理装置。
  7. 前記決定手段は、前記オブジェクトのモデルの形状の決定に関連する画像を、前記表示対象画像として決定する請求項6に記載の情報処理装置。
  8. 前記決定手段は、前記オブジェクトのモデルの色の決定に関連する画像を、前記表示対象画像として決定する請求項6又は7に記載の情報処理装置。
  9. 前記表示制御手段は、前記仮想的な視点と前記決定手段により決定された前記表示対象画像を撮影した撮影部との位置関係に応じた表示態様で、前記仮想視点画像と前記表示対象画像とを前記表示部に表示させる請求項1乃至8の何れか1項記載の情報処理装置。
  10. 前記表示制御手段は、前記決定手段により決定された前記表示対象画像を撮影した撮影部が前記仮想的な視点に対してどの方向に位置するかを示す前記位置関係に応じた前記表示態様で、前記仮想視点画像と前記表示対象画像とを前記表示部に表示させる請求項9に記載の情報処理装置。
  11. 前記表示制御手段は、前記決定手段により決定された前記表示対象画像を撮影した撮影部が前記仮想的な視点からどの程度の距離に位置に位置するかを示す前記位置関係に応じた前記表示態様で、前記仮想視点画像と前記表示対象画像とを前記表示部に表示させる請求項9又は10に記載の情報処理装置。
  12. 前記表示制御手段は、前記決定手段により決定された前記表示対象画像を撮影した撮影部が前記仮想的な視点からより遠い距離に位置する程、より小さく表示させる前記表示態様で、前記仮想視点画像と前記表示対象画像とを前記表示部に表示させる請求項11に記載の情報処理装置。
  13. 前記表示制御手段は、前記仮想視点画像と前記表示対象画像と前記表示対象画像を撮影した撮影部の属性情報とを前記表示部に表示させる請求項1乃至12の何れか1項記載の情報処理装置。
  14. 前記決定手段により決定された前記表示対象画像から、前記仮想視点画像の品質の低下の原因となる画像の指定を受付ける受付手段と、
    前記受付手段により受付けられた指定が示す画像を撮影した撮影部により撮影される画像を、仮想視点画像の生成に用いることを禁止する禁止手段と、
    を更に有する請求項1乃至13の何れか1項記載の情報処理装置。
  15. 情報処理装置が実行する情報処理方法であって、
    仮想的な視点からの画像である仮想視点画像の生成に関連する画像から、表示対象となる画像である表示対象画像を決定する決定ステップと、
    前記仮想視点画像と前記決定ステップで決定された前記表示対象画像とを表示部に表示させる表示制御ステップと、
    を含み、
    前記表示制御ステップは、前記決定ステップで決定された前記表示対象画像に含まれる画像それぞれの前記仮想視点画像の生成に寄与する度合いに応じた表示態様で、前記仮想視点画像と前記表示対象画像とを前記表示部に表示させる、
    情報処理方法。
  16. 情報処理装置が実行する情報処理方法であって、
    仮想的な視点からの画像である仮想視点画像の生成に関連する画像から、表示対象となる画像である表示対象画像を決定する決定ステップと、
    前記仮想視点画像と前記決定ステップで決定された前記表示対象画像と、を表示部に表示させる表示制御ステップと、
    を含み、
    前記決定ステップは、複数の撮影部に含まれる撮影部同士の距離に応じて決定された仮想的な視点からの画像である仮想視点画像の生成に関連する画像であって、前記複数の撮影部により撮影される画像から、前記表示対象画像を決定する、
    情報処理方法
  17. コンピュータを、請求項1乃至14の何れか1項記載の情報処理装置の各手段として、機能させるためのプログラム。
JP2017237668A 2017-12-12 2017-12-12 情報処理装置、情報処理方法及びプログラム Active JP7023696B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017237668A JP7023696B2 (ja) 2017-12-12 2017-12-12 情報処理装置、情報処理方法及びプログラム
US16/214,685 US10771761B2 (en) 2017-12-12 2018-12-10 Information processing apparatus, information processing method and storing unit

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017237668A JP7023696B2 (ja) 2017-12-12 2017-12-12 情報処理装置、情報処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2019106617A JP2019106617A (ja) 2019-06-27
JP7023696B2 true JP7023696B2 (ja) 2022-02-22

Family

ID=66697491

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017237668A Active JP7023696B2 (ja) 2017-12-12 2017-12-12 情報処理装置、情報処理方法及びプログラム

Country Status (2)

Country Link
US (1) US10771761B2 (ja)
JP (1) JP7023696B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018147329A1 (ja) * 2017-02-10 2018-08-16 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 自由視点映像生成方法及び自由視点映像生成システム
JP7254464B2 (ja) * 2018-08-28 2023-04-10 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、及びプログラム
JP7418101B2 (ja) * 2019-07-26 2024-01-19 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
JPWO2021149526A1 (ja) * 2020-01-23 2021-07-29
JPWO2021166751A1 (ja) * 2020-02-19 2021-08-26
EP4178199A4 (en) * 2020-07-30 2023-11-08 Sony Group Corporation INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, VIDEO DISTRIBUTION METHOD AND INFORMATION PROCESSING SYSTEM
US11941729B2 (en) * 2020-12-11 2024-03-26 Canon Kabushiki Kaisha Image processing apparatus, method for controlling image processing apparatus, and storage medium

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012034343A (ja) 2010-07-02 2012-02-16 Canon Inc 映像処理装置、及びその制御方法
JP2014241496A (ja) 2013-06-11 2014-12-25 ソニー株式会社 情報処理装置、撮像装置、情報処理方法、及びプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6417850B1 (en) * 1999-01-27 2002-07-09 Compaq Information Technologies Group, L.P. Depth painting for 3-D rendering applications
CN100438623C (zh) * 1999-04-16 2008-11-26 松下电器产业株式会社 图象处理装置及监视***
US8160400B2 (en) * 2005-11-17 2012-04-17 Microsoft Corporation Navigating images using image based geometric alignment and object based controls
JP4803594B2 (ja) 2006-07-05 2011-10-26 Kddi株式会社 局所領域分割による自由視点画像の生成装置およびプログラム
DE102007021518B4 (de) * 2007-05-04 2009-01-29 Technische Universität Berlin Verfahren zum Verarbeiten eines Videodatensatzes
US10580199B2 (en) * 2015-04-14 2020-03-03 ETAK Systems, LLC Systems and methods for data capture for telecommunications site modeling via a telescoping apparatus

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012034343A (ja) 2010-07-02 2012-02-16 Canon Inc 映像処理装置、及びその制御方法
JP2014241496A (ja) 2013-06-11 2014-12-25 ソニー株式会社 情報処理装置、撮像装置、情報処理方法、及びプログラム

Also Published As

Publication number Publication date
JP2019106617A (ja) 2019-06-27
US20190182470A1 (en) 2019-06-13
US10771761B2 (en) 2020-09-08

Similar Documents

Publication Publication Date Title
JP7023696B2 (ja) 情報処理装置、情報処理方法及びプログラム
KR102153985B1 (ko) 가상 시점 화상을 생성하는 장치, 시스템, 방법, 및 비일시적 컴퓨터 판독가능 기억 매체
KR102049245B1 (ko) 화상처리 장치, 화상처리 방법, 화상처리 시스템 및 기억매체
JP6950013B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP6918455B2 (ja) 画像処理装置、画像処理方法及びプログラム
US11670043B2 (en) Image processing apparatus, image processing method, and storage medium
JP6948175B2 (ja) 画像処理装置およびその制御方法
RU2708437C1 (ru) Устройство обработки изображений, система обработки изображений, способ обработки изображений и носитель данных
JP2018180655A5 (ja)
JP2014238731A (ja) 画像処理装置、画像処理システム、および画像処理方法
JP7476375B2 (ja) 情報処理装置、情報処理方法及びプログラム
KR20210032549A (ko) 화상 처리 장치, 화상 처리 방법 및 컴퓨터 프로그램
JP7446754B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP6812181B2 (ja) 画像処理装置、画像処理方法、及び、プログラム
US11847735B2 (en) Information processing apparatus, information processing method, and recording medium
JP2022032483A (ja) 画像処理装置、画像処理方法、およびプログラム
JP6799468B2 (ja) 画像処理装置、画像処理方法及びコンピュータプログラム
JP2019185178A (ja) 情報処理装置、情報処理方法及びプログラム
JP2020135290A (ja) 画像生成装置、画像生成方法、画像生成システム、及びプログラム
JP6759375B2 (ja) 仮想視点画像を生成するシステム、方法及びプログラム
JP2021144522A (ja) 画像処理装置、画像処理方法、プログラム、及び画像処理システム
JP7494153B2 (ja) 生成装置、生成方法、及び、プログラム
EP4296961A1 (en) Image processing device, image processing method, and program
JP2022103836A (ja) 情報処理装置、情報処理方法及びプログラム
JP2022077380A (ja) 画像処理装置、画像処理方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210916

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211026

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211223

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220111

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220209

R151 Written notification of patent or utility model registration

Ref document number: 7023696

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151