JP7023696B2 - 情報処理装置、情報処理方法及びプログラム - Google Patents
情報処理装置、情報処理方法及びプログラム Download PDFInfo
- Publication number
- JP7023696B2 JP7023696B2 JP2017237668A JP2017237668A JP7023696B2 JP 7023696 B2 JP7023696 B2 JP 7023696B2 JP 2017237668 A JP2017237668 A JP 2017237668A JP 2017237668 A JP2017237668 A JP 2017237668A JP 7023696 B2 JP7023696 B2 JP 7023696B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- virtual viewpoint
- display
- unit
- display target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
- H04N13/117—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/0007—Image acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
- G06T15/205—Image-based rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/66—Remote control of cameras or camera parts, e.g. by remote control devices
- H04N23/661—Transmitting camera control signals through networks, e.g. control via the Internet
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/90—Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Processing Or Creating Images (AREA)
- Closed-Circuit Television Systems (AREA)
- Studio Devices (AREA)
- Controls And Circuits For Display Device (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
Description
複数の視点からの画像に基づく仮想視点画像の生成は、例えば、複数の撮像装置が撮影した画像をサーバ等の画像処理部に集約し、画像処理部にて、仮想視点に基づくレンダリング等の処理を施すこと等により実現できる。
この仮想視点画像により、例えば、サッカーやバスケットボールの試合を撮影した画像から、迫力のある視点のコンテンツを制作したり、コンテンツを視聴しているユーザ自身が自由に視点を移動しながら、試合観戦したりすることができる。
特許文献1では、被写体を取り囲むように配置された複数のカメラにより被写体が撮影された画像を用いて、仮想視点画像を生成、表示する技術が開示されている。
図1は、画像処理システム100のシステム構成の一例を示す図である。
画像処理システム100は、2台以上の複数の撮像装置110、画像生成装置120、ユーザ端末130を含む。複数の撮像装置110それぞれと画像生成装置120とは、Local Area Network(LAN)、インターネット、イーサネット(登録商標)等のネットワークを介して、相互に通信可能に接続されている。また、画像生成装置120とユーザ端末130とは、LAN、インターネット、イーサネット等のネットワークを介して、相互に通信可能に接続されている。
撮像装置110それぞれは、静止画、動画等の画像を撮影可能なネットワークカメラ、デジタルカメラ等の撮像装置である。撮像装置110それぞれは、サッカー場等の競技場、コンサート会場、特定の被写体等の撮影対象を取り囲むように配置されている。撮像装置110それぞれは、撮影した画像を、有線又は無線で、ネットワークを介して、画像生成装置120に送信する。
図2は、撮像装置110の配置状況の一例を示す図である。本実施形態では、撮像装置110それぞれは、サッカーの競技場を取り囲むように配置されており、競技場の全部又は一部を撮影する。
画像生成装置120は、例えば、パーソナルコンピュータ(PC)、サーバ装置、タブレット装置等の情報処理装置である。画像生成装置120は、競技の開始前等における予め被写体(例えば、選手、控え選手、監督、審判、ボール、ゴールポスト、ゴールネット等)が存在しない状態の競技会場の場面が撮影された画像を背景画像として記憶している。
ユーザ端末130は、PC、タブレット装置、スマートホン等の情報処理装置である。ユーザ端末130は、ユーザからの情報の入力を受け付け、入力された情報に基づいて、仮想視点情報や仮想視点情報の更新内容を示す情報を生成し、生成した情報を、ネットワークを介して、画像生成装置120に送信する。また、ユーザ端末130は、画像生成装置120から受信した仮想視点画像を、表示部に表示することで、ユーザに提示する。これにより、ユーザは、指定した仮想的な視点からの仮想視点画像を確認できる。
画像生成装置120は、Central Processing Unit(CPU)301、Read Only Memory(ROM)302、Random Access Memory(RAM)303を含む。また、画像生成装置120は、Hard Disc Drive(HDD)304、表示部305、入力部306、通信部307を含む。各要素は、システムバス308を介して、相互に通信可能に接続されている。
CPU301は、ROM302、HDD304等に記憶された制御プログラム等のプログラムを読み出して各種処理を実行する中央演算装置である。ROM302は、制御プログラム、各種設定情報等を記憶する記憶装置である。RAM303は、CPU301の主メモリ、ワークエリア等の一時記憶領域として用いられる記憶装置である。HDD304は、各種設定情報、仮想視点情報、各種画像の情報、各種プログラム等を記憶する記憶装置である。画像生成装置120は、HDD304の代わりに、ソリッドステートドライブ(SSD)、フラッシュメモリ等の記憶装置を含むこととしてもよい。また、画像生成装置120は、HDD304に加えて、ソリッドステートドライブ(SSD)、フラッシュメモリ等の記憶装置を含むこととしてもよい。ROM302、RAM303、HDD304は、記憶媒体の一例である。
CPU301が、ROM302又はHDD304に記憶されたプログラムにしたがって処理を実行することで、図4、8で後述する画像生成装置120の機能、及び、図5、7、9で後述するフローチャートの処理等が実現される。
ユーザ端末130のハードウェア構成は、画像生成装置120のハードウェア構成と同様である。
ユーザ端末130のCPUが、ユーザ端末130のROM又はHDDに記憶されたプログラムにしたがって処理を実行することで、ユーザ端末130の機能、及び、ユーザ端末130の処理等が実現される。
撮像装置110は、CPU311、ROM312、RAM313、撮影部314、通信部315を含む。各要素は、システムバス316を介して、相互に通信可能に接続されている。
CPU311は、撮像装置110を制御する中央演算装置である。ROM312は、各種設定情報、各種プログラムを記憶する記憶装置である。RAM313は、CPU311のワークエリア、撮影部314により撮影された画像等のデータの一時的な記憶場所として機能する記憶装置である。
撮影部314は、CCDセンサ、CMOSセンサ等の撮像素子やレンズを含み、画像を撮影する撮影部である。通信部315は、画像生成装置120等の外部の装置との間でのネットワークを介した通信を行う通信部である。
CPU311が、ROM312に記憶されたプログラムにしたがって処理を実行することで、撮像装置110の機能、及び、撮像装置110の処理等が実現される。
画像生成装置120は、データ入力部401、分離部402、データ管理部403、被写体形状決定部404、実カメラ位置管理部405、ユーザ入力部406、仮想視点管理部407、仮想視点画像生成部408を含む。また、画像生成装置120は、寄与度決定部409、表示画像生成部410、画像出力部411を含む。
データ入力部401は、撮像装置110から撮像装置110により撮影された画像の入力を受付け、受け付けた画像を分離部402へ送信する。
分離部402は、データ入力部401から送信された被写体が存在しない状況の画像を、背景画像として、データ管理部403に送信する。また、分離部402は、データ入力部401から送信された被写体が存在する状況の画像から、背景画像に基づいて、画像処理を行い、前景として被写体の画像を分離し、分離した被写体の画像を、前景画像として、データ管理部403に送信する。分離部402は、例えば、被写体が撮影された画像から、背景画像との差分を抽出する方法等のオブジェクト抽出方法を用いる。また、分離部402は、動体の部分を、被写体である前景として分離してもよい。また、分離部402は、分離した前景画像に加えて、前景と背景とに分離される前の元の画像を、データ管理部403に送信してもよい。
被写体形状決定部404は、データ管理部403から送信された前景画像と、実カメラ位置管理部405から送信された実カメラ位置情報と、を用いて、被写体の形状を決定する。実カメラ位置情報とは、実際に撮影を行う撮像装置110それぞれの位置を示す情報である。実カメラ位置情報には、例えば、予め定められた座標系における撮像装置110それぞれの位置を示す座標の情報、撮像装置110それぞれの撮影方向等の情報が含まれる。被写体形状決定部404は、例えば、視体積交差法等の三次元形状復元手法を用いて、被写体の形状を決定し、被写体の形状を示すモデル(以下では、形状モデルとする)の情報である形状モデル情報を生成する。また、被写体形状決定部404は、生成した形状モデル情報を、仮想視点画像生成部408へ送信する。
ユーザ入力部406は、ユーザ端末130から、画像生成装置120への指示を示すコマンドデータを、受信する。ユーザ入力部406は、受信したコマンドデータが仮想視点の更新指示を示す場合、そのコマンドデータに含まれる仮想視点情報又は仮想視点情報の更新内容の情報を、仮想視点管理部407に送信する。
仮想視点管理部407は、ユーザ入力部406から送信された仮想視点情報又は仮想視点の更新内容の情報に基づいて、HDD304等に記憶されている現在の仮想カメラの位置や撮影方向を示す仮想視点情報を更新する。以下では、現在の仮想カメラの位置や撮影方向等の情報を示すHDD304等に記憶されている仮想視点情報を、仮想カメラ視点情報とする。仮想カメラの位置は、予め定められた座標系における座標として管理されている。この座標系の原点は、例えば、撮影対象である競技場の中心等に予め設定されている。仮想視点管理部407は、HDD304等に記憶されている仮想カメラ視点情報を、仮想視点画像生成部408へ送信する。
仮想視点画像生成部408は、例えば、モデルベースレンダリング(Model-Based Rendering:MBR)という手法を用いて、仮想視点画像を生成する。
MBRとは、被写体を複数の方向から撮影した複数の画像に基づいて生成される三次元モデルを用いて仮想視点画像を生成する方式である。より具体的には、MBRは、以下のような技術である。即ち、視体積交差法、MVS等の三次元形状復元手法により得られた対象シーンの三次元形状(モデル)に対し、仮想視点からの三次元形状の見えに対応した複数の撮影画像をレンダリング画像として投影することで仮想視点画像を生成する技術である。MVSとは、Multi-View-Stereoの略である。また、仮想視点画像生成部408は、MBR以外のレンダリング手法を用いて、仮想視点画像を生成してもよい。
仮想視点画像生成部408は、例えば、仮想カメラの視点から被写体モデルが見えている際に、受信した実カメラ位置情報が示す撮像装置110の位置のうち、被写体モデルを中心とした予め定められた範囲内に含まれるものがある場合、以下の処理を行う。即ち、その範囲内に位置する撮像装置110がある場合、仮想視点画像生成部408は、その撮像装置110により撮影された前景画像(被写体が撮影された画像)の色に基づいて、形状モデルの色を決定する。
また、仮想視点画像生成部408は、生成した仮想視点画像を、表示画像生成部410へ送信する。また、仮想視点画像生成部408は、仮想視点画像の生成に利用した画像(前景画像、背景画像)と、仮想視点画像の生成にどの画像がどのように利用されたのかを示す情報と、を寄与度決定部409へ送信する。以下では、仮想視点画像の生成にどの画像がどのように利用されたのかを示す情報を、生成情報とする。生成情報は、例えば、被写体の形状モデルが3次元情報を持つ点群からなる場合、この点群に含まれる点それぞれについて、どの画像を用いて色付けされたかを示す情報を含む。また、生成情報は、例えば、仮想カメラ視点情報が示す視点から見える被写体の形状モデル情報を生成するために、どの画像が利用されたかを示す情報を含む。
また、表示画像生成部410は、寄与度決定部409から送信された寄与度に対応付けられた画像から、表示画像に含ませることで表示部に表示させる対象となる画像を決定する。以下では、寄与度決定部409から送信された寄与度に対応付けられた画像のうち、表示部に表示させる対象となる画像を、表示対象画像とする。表示画像生成部410は、例えば、寄与度決定部409から送信された寄与度に対応付けられた画像それぞれの寄与度に基づいて、表示対象画像を決定する。表示画像生成部410は、例えば、対応する寄与度が予め定められた閾値以上の画像を、表示対象画像として決定する。また、表示画像生成部410は、例えば、対応する寄与度が最も高いものから順に予め定められた数の画像を、表示対象画像として決定してもよい。これにより、画像処理システム100は、仮想視点画像の生成により多く寄与した表示対象画像を、表示部に表示できることとなる。仮想視点画像の品質の低下が発生した際、その原因は、仮想視点画像の生成により多く寄与した画像内にあると仮定できる。そのため、画像処理システム100は、仮想視点画像の生成により多く寄与した画像のみを、表示部に表示することで、ユーザによる仮想視点画像の品質低下の原因の把握をより容易にすることができる。
また、表示画像生成部410は、例えば、寄与度決定部409から送信された寄与度に対応付けられた画像すべてを、表示対象画像として決定してもよい。また、表示画像生成部410は、例えば、寄与度決定部409から送信された寄与度に対応付けられた画像のうち、予め定められた撮像装置により撮影された画像を、表示対象画像として決定してもよい。
また、表示画像生成部410は、例えば、表示対象画像それぞれについて、仮想カメラ視点情報が示す仮想カメラの位置と、撮像装置110それぞれの位置と、の位置関係に基づいて、表示画像におけるサイズを決定してもよい。その場合、表示画像生成部410は、例えば、表示対象画像それぞれについて、撮影した撮像装置と仮想カメラとの距離を特定する。そして、表示画像生成部410は、特定した距離に対応する撮像装置により撮影された表示対象画像の表示画像におけるサイズを、特定した距離が小さい程、大きくなるように決定する。これにより、画像処理システム100は、表示対象画像を、撮影した撮像装置が仮想カメラに近い程、大きなサイズで表示部に表示できることとなり、ユーザによる仮想視点画像の品質低下の原因の把握をより容易にすることができる。
また、表示画像生成部410は、例えば、表示対象画像すべてについて、表示画像におけるサイズを、予め定められたサイズに決定してもよい。
表示画像生成部410は、例えば、サイズを決定した表示対象画像それぞれを、表示画像内の予め定められた領域に、並べて表示する。表示画像生成部410は、例えば、サイズを決定した表示対象画像それぞれを、表示画像内の予め定められた領域に、サイズの大きい順に、上から下に並べて配置する。また、表示画像生成部410は、例えば、サイズを決定した表示対象画像それぞれを、表示画像内の予め定められた領域に、サイズの大きい順に、左から右に並べて配置する。
また、表示画像生成部410は、例えば、サイズを決定した表示対象画像それぞれについて、仮想カメラ視点情報が示す仮想カメラの位置と、撮像装置110それぞれの位置と、の位置関係に基づいて、表示画像における位置を決定してもよい。その場合、表示画像生成部410は、例えば、仮想カメラの位置を基準に仮想カメラの水平方向における撮影方向を前方向、地面の方向を下方向として、表示対象画像それぞれを撮影した撮像装置それぞれが仮想カメラの右側にあるか、左側にあるかを特定する。そして、表示画像生成部410は、仮想カメラの右側に存在すると特定した撮像装置により撮影された表示対象画像を、表示画像における仮想視点画像が配置された領域の中心よりも右側の予め定められた領域に、表示することを決定する。また、表示画像生成部410は、仮想カメラの左側に存在すると特定した撮像装置により撮影された表示対象画像を、表示画像における仮想視点画像が配置された領域の中心よりも左側の予め定められた領域に、表示することを決定する。
これにより、画像処理システム100は、表示対象画像それぞれを撮影した撮像装置それぞれの仮想カメラに対する方向に対応する表示態様で、表示対象画像それぞれを表示することができる。ユーザは、この表示された画像を視認することで、どの表示対象画像が、仮想カメラから見てどの方向に位置する撮像装置により撮影された画像であるかをより容易に把握できるようになる。
画像出力部411は、表示画像生成部410から送信された表示画像を、ユーザ端末130へ送信し、表示画像を表示部に表示するよう指示することで、表示画像を表示させるよう制御する。
なお、図4に記載の機能構成の一部又はすべてをハードウェアにより実現してもよい。ハードウェアの一例としては、ASIC、FPGA又はGPU(Graphics Processing Unit)であってよい。図4に記載の機能構成の一部を他の装置が有してもよい。また、複数の装置による協働の処理により、図4に記載の機能構成の一部又はすべてを実現してもよい。
S501において、仮想視点管理部407は、ユーザ入力部406を介して、ユーザ端末130から仮想視点情報又は仮想視点の更新内容を示す情報が受信されたか否かを判定する。仮想視点管理部407は、ユーザ端末130から仮想視点情報又は仮想視点の更新内容を示す情報が受信されたと判定した場合、受信された仮想視点情報又は仮想視点の更新内容を示す情報に基づいて、仮想カメラ視点情報を更新する。そして、仮想視点管理部407は、更新した仮想カメラ視点情報を、仮想視点画像生成部408に送信し、S502の処理に進む。また、仮想視点管理部407は、ユーザ端末130から仮想視点情報又は仮想視点の更新内容を示す情報が受信されていないと判定した場合、S501の処理を繰り返す。
S502において、仮想視点画像生成部408は、S501で仮想視点管理部407から送信された仮想カメラ視点情報が示す視点を特定する。そして、仮想視点画像生成部408は、特定した視点から仮想カメラにより撮影可能な領域が撮影された画像から分離された前景画像と背景画像とを、データ管理部403に要求する。そして、仮想視点画像生成部408は、データ管理部403から要求に応じた前景画像と背景画像とを取得する。仮想視点画像生成部408は、例えば、仮想カメラ視点情報が示す視点から撮影される競技上の領域を撮影可能な撮像装置110を特定する。そして、仮想視点画像生成部408は、特定した撮像装置110により撮影された画像から分離された前景画像と背景画像とを、データ管理部403から取得する。また、仮想視点画像生成部408は、その前景画像と併せて、対応する元画像をデータ管理部403から取得してもよい。
S504において、仮想視点画像生成部408は、仮想カメラ視点情報が示す視点から仮想カメラにより撮影可能な領域を撮影する撮像装置110についての実カメラ位置情報を、実カメラ位置管理部405から取得する。
S505において、仮想視点画像生成部408は、仮想カメラ視点情報、S502~S504で取得した前景画像、背景画像、形状モデル情報、実カメラ位置情報に基づいて、仮想視点画像を生成する。
S506において、寄与度決定部409は、仮想視点画像生成部408から取得した仮想視点画像の生成に使用された画像それぞれについて、仮想視点画像の生成にどの程度寄与したかを示す寄与度を決定する。寄与度決定部409は、例えば、各画像の被写体の形状モデルの点群に含まれる点それぞれについての色付けに使用された回数に基づいて、各画像の寄与度を決定する。また、寄与度決定部409は、S501により取得した情報により示される仮想カメラの視点と近い視点を有する実カメラを寄与度が高い画像を撮影する実カメラと決定してもよい。
S508において、画像出力部411は、ユーザ端末130へ、S507で生成された表示画像を出力する。より具体的には、画像出力部411は、S507で生成された表示画像を、ユーザ端末130へ送信し、ユーザ端末130の表示部に表示画像を表示するよう指示することで、出力する。画像出力部411は、S507で生成された表示画像を、画像生成装置120の表示部305に表示することで出力してもよい。また、画像出力部411は、S507で生成された表示画像を、プロジェクタ等を介して、外部のスクリーン等に表示することで出力してもよい。S508の処理は、表示制御処理の一例である。
また、図6の例では、表示対象画像の仮想視点画像に対する方向は、表示対象画像それぞれを撮影した撮像装置の仮想カメラに対する方向に対応する方向となっている。即ち、仮想カメラの水平方向における撮影方向を前方向として、地面方向を下方向とした場合に、仮想カメラからみて右側に位置する撮像装置により撮影された表示対象画像は、仮想視点画像の中心よりも右側に配置される。また、仮想カメラからみて左側に位置する撮像装置により撮影された表示対象画像は、仮想視点画像の中心よりも左側に配置される。よって、画像602、604、606を撮影した撮像装置は、仮想カメラから見て左側に存在し、画像603、605、607を撮影した撮像装置は、仮想カメラから見て右側に存在することとなる。
なお、図6に示す例は一例にすぎず、他の表示形態で画像601~画像607等を表示してもよい。例えば、表示画像生成部410は、寄与度に関わらず実カメラの撮影画像を一律の大きさで表示させてもよい。また、表示画像生成部410は、ユーザ端末130から画像602~画像607のうち何れかを操作したことを示す操作情報を受信した場合、操作された画像を拡大表示した表示画像を生成してもよい。また、表示画像生成部410は、露出等の撮影パラメータが他の撮影装置と異なる撮影装置の撮影画像を識別可能に強調表示するための表示画像を生成してもよい。また、表示画像生成部410は、障害物等、仮想視点画像の画質低下の要因を画像処理により検出し、当該障害物を撮影するカメラの撮影画像を識別可能に強調表示するための表示画像を生成してもよい。
本実施形態では、画像処理システム100は、予め撮影された背景画像、撮像装置110により撮影された画像から分離された前景画像、から表示対象画像となる画像を決定することとした。しかし、画像処理システム100は、元画像を、表示対象画像として決定してもよい。例えば、表示画像生成部410は、図4等で説明した方法で、表示対象画像を決定し、決定した表示対象画像が前景画像である場合、データ管理部403から、その前景画像に対応する元画像を取得する。そして、表示画像生成部410は、取得した元画像を、その前景画像に変わる表示対象画像として決定することとしてもよい。
本実施形態では、画像処理システム100は、仮想視点画像と併せて、表示対象画像を常時表示することとした。しかし、画像処理システム100は、仮想視点画像の品質の低下を検知した場合に、表示対象画像を表示することとしてもよい。また、画像処理システム100は、ユーザ端末130の入力部を介して、ユーザから、仮想視点画像の品質の低下が起こったことを通知された場合に、表示対象画像を表示することとしてもよい。
本実施形態では、実施形態1の処理により表示された表示対象画像のうち、仮想視点画像の品質の低下の原因となっている画像の指定をユーザから受け付け、その指定が示す画像を仮想視点画像の生成に利用することを禁止する処理について説明する。
本実施形態の画像処理システム100のシステム構成は、実施形態1と同様である。本実施形態の撮像装置110、画像生成装置120、ユーザ端末130のハードウェア構成は、実施形態1と同様である。
本実施形態のユーザ端末130のCPUは、ユーザ端末130の入力部を介したユーザによる操作に基づいて、実施形態1のS508の処理で、表示が指示された表示対象画像から、仮想視点画像の品質低下の原因となっている画像の指定を受付ける。そして、ユーザ端末130のCPUは、指定が示す画像の情報を、画像生成装置120に送信し、その画像を撮影する撮像装置が撮影する画像を、仮想視点画像の生成に用いることを禁止するように指示する。
本実施形態の画像生成装置120は、実施形態1と同様に、データ入力部401、分離部402、データ管理部403、被写体形状決定部404、実カメラ位置管理部405、ユーザ入力部406、仮想視点管理部407、仮想視点画像生成部408を含む。また、画像生成装置120は、実施形態1と同様に、寄与度決定部409、表示画像生成部410、画像出力部411を含む。各要素は、実施形態1と同様の機能を有する。
本実施形態の画像生成装置120の機能構成について、実施形態1と異なる点について説明する。
実施形態1では、画像生成装置120は、被写体の形状モデルの色付けに利用された回数や、被写体の形状モデルの決定に利用されたか否か等に基づいて、仮想視点画像の生成に利用された各画像の寄与度を決定した。本実施形態では、画像処理システム100は、被写体の形状モデルの色付けに利用された回数や、被写体の形状モデルの決定に利用されたか否か等のうち予め定められた指標に基づいて、仮想視点画像の生成に利用された各画像の寄与度を決定する。そして、画像生成装置120は、ユーザ端末130から寄与度の決定に用いられる指標の切り替え指示を受信した場合、以下の処理を実行する。即ち、画像生成装置120は、受信した切り替え指示が示す指標に基づいて、仮想視点画像の生成に利用された各画像の寄与度を決定し直し、改めて表示対象画像を決定することとする。
そこで、本実施形態では、ユーザ入力部406は、ユーザ端末130から切り替え指示を受信した場合、寄与度決定部409等に送信する。
また、ユーザ入力部406は、ユーザ端末130から仮想視点画像の品質低下の原因となっている画像の指定を受信した場合、指定された画像の情報を、仮想視点画像生成部408へ送信する。
仮想視点画像生成部408は、ユーザ入力部から送信された指定が示す画像を撮影した撮像装置により撮影された画像(前景画像、背景画像)を用いずに、仮想視点画像を生成する。例えば、仮想視点画像生成部408は、ユーザ入力部から送信された指定が示す画像を撮影した撮像装置以外の撮像装置により撮影された画像を用いて形状モデルの各点の色付けを行う。
寄与度決定部409は、実施形態1と同様の機能に加えて、以下で説明する処理を行う機能を有する。寄与度決定部409は、ユーザ入力部406から切り替え指示が送信された場合、受信した切り替え指示が示す指標に基づいて、仮想視点画像の生成に用いられた各画像の寄与度を決定し直す。例えば、寄与度決定部409は、切り替え指示が示す指標が、被写体の形状モデルへの色付けにおける利用された回数である場合、被写体の形状モデルの色付けに利用された回数に基づいて、各画像の寄与度を決定し直す。また、寄与度決定部409は、切り替え指示が示す指標が、被写体の形状モデルの決定に利用されたか否かである場合、被写体の形状モデルの決定に利用されたか否かに基づいて、各画像の寄与度を決定し直す。
図7の処理は、図5の処理のうち、S503~S505の処理の代わりに、S701~S707の処理が入った処理である。図7におけるS501~S502、S506~S508の処理は、図5のS501~S502、S506~S508の処理と同様である。図7の処理のうち、図5の処理と異なる点について説明する。
S701において、ユーザ入力部406は、仮想視点画像の品質の低下の原因となっている画像の情報を、ユーザ端末130から受信したか否かを判定する。ユーザ入力部406は、仮想視点画像の品質の低下の原因となっている画像の情報を受信したと判定した場合、受信したと判定した情報を、仮想視点画像生成部408に送信し、S702の処理に進む。また、ユーザ入力部406は、仮想視点画像の品質の低下の原因となっている画像の情報を受信していないと判定した場合、S703の処理に進む。
S703において、仮想視点画像生成部408は、被写体の形状モデル情報を被写体形状決定部404から取得する。仮想視点画像生成部408は、S702の処理を実行している場合、S702で利用しないと決定された画像を用いずに生成された被写体の形状モデル情報を、被写体形状決定部404から取得することとなる。また、仮想視点画像生成部408は、S702の処理を実行していない場合、S503と同様の処理を行うこととなる。
S704において、仮想視点画像生成部408は、実カメラ位置情報を実カメラ位置管理部405から取得する。仮想視点画像生成部408は、S702の処理を実行している場合、S702で利用しないと決定された画像を撮影する撮像装置の実カメラ位置情報については、取得しないこととなる。また、仮想視点画像生成部408は、S702の処理を実行していない場合、S504と同様の処理を行うこととなる。
S705において、仮想視点画像生成部408は、現在の仮想カメラの視点の情報を示す仮想カメラ視点情報、S702~S704で取得した画像(前景画像、背景画像)、形状モデル情報、実カメラ位置情報に基づいて、仮想視点画像を生成する。仮想視点画像生成部408は、S702の処理を実行している場合、S702で利用しないと決定された画像を利用せずに、仮想視点画像を生成することとなる。また、仮想視点画像生成部408は、S702の処理を実行していない場合、S505と同様の処理を行うこととなる。
S707において、寄与度決定部409は、仮想視点画像の生成に用いられた各画像についての仮想視点画像の生成への寄与度の決定に用いられる指標を、S706で送信された情報が示す指標に決定する。そして、寄与度決定部409は、S506で、S707で決定した指標に基づいて、各画像の寄与度を決定する。また、寄与度決定部409は、S707の処理を実行していない場合、S506で、予め定められた指標に基づいて、各画像の寄与度を決定する。S706~S707の処理により、画像処理システム100は、指定された指標に応じた寄与度を決定できる。
仮想視点画像は、仮想視点画像の生成に用いられる複数の画像それぞれを撮影する撮影部同士がより離れている程、その撮影部により撮影された画像を利用して生成される仮想視点画像は、以下のようになる。即ち、この仮想視点画像は、その仮想視点から実際の撮像装置により撮影された画像に比べて、画質がより低下する。そのため、仮想視点画像の生成に用いられた各画像を撮影した撮像装置同士の距離が、より離れている程、生成された仮想視点画像の品質の低下が起きやすくなる。そこで、本実施形態では、画像処理システム100は、撮像装置110それぞれの位置に基づいて、仮想視点画像の品質の低下が発生しやすい仮想的な視点を決定して、決定した仮想的な視点からの仮想視点画像と表示対象画像とを表示部に表示する処理を行う。
本実施形態の画像処理システム100のシステム構成は、実施形態1と同様である。本実施形態の撮像装置110、画像生成装置120、ユーザ端末130のハードウェア構成は、実施形態1と同様である。
本実施形態の画像生成装置120は、図4と比べて、ユーザ入力部406の代わりに、距離取得部801を含む点で異なる。
距離取得部801は、実カメラ位置管理部405から送信された実カメラ位置情報に基づいて、撮像装置110に含まれる撮像装置同士の距離それぞれと、撮像装置110に含まれる撮像装置同士の中間の位置と、を取得する。距離取得部801は、取得した距離が大きいものから順に1つずつ選択する。距離取得部801は、距離を1つ選択する毎に、選択した距離に対応する2つの撮像装置の情報と、この撮像装置同士の中間の位置の情報と、を仮想視点管理部407に送信する。そして、距離取得部801は、この撮像装置同士の中間の位置を、仮想カメラの視点の位置とするように仮想カメラ視点情報を更新するよう仮想視点管理部407に指示する。これにより、距離取得部801は、品質の低下が発生しやすい順に、仮想カメラの位置を更新できる。
画像処理システム100は、品質の低下が発生しやすい順に位置が更新される仮想カメラについて、位置が更新されるごとに、仮想視点画像を生成し、仮想視点画像と表示対象画像とを表示することとなる。これにより、ユーザは、仮想カメラが品質の低下が発生しやすい位置に存在する場合について、他の場合よりも先に確認することができる。
この場合、画像処理システム100は、品質の低下が最も発生しやすい位置に配置される仮想カメラについて、仮想視点画像を生成し、仮想視点画像と表示対象画像とを表示することとなる。これにより、ユーザは、最も仮想視点画像の品質の低下が発生しやすい場合について、品質の低下を監視できる。
図9の処理のうち、図5と異なる点について説明する。図9のS502~S508の処理は、図5のS502~S508の処理と同様である。
S901において、距離取得部801は、実カメラ位置管理部405に実カメラ位置情報を要求し、要求に応じて実カメラ位置管理部405から送信された実カメラ位置情報を受信することで取得する。
S902において、距離取得部801は、S901で取得した実カメラ位置情報に基づいて、撮像装置110に含まれる撮像装置同士の距離それぞれを取得し、撮像装置110に含まれる撮像装置同士の中間の位置それぞれを取得する。
S903において、距離取得部801は、S902で取得した距離から、大きいものから1つずつ選択する。以下では、選択された距離を選択距離とする。そして、距離取得部801は、選択距離を選択するごとに、選択距離に対応する2つの撮像装置の情報とこの2つの撮像装置の中間の位置の情報とを仮想視点管理部407に送信し、S904、S502~S508の処理を繰り返すように制御する。
S904において、仮想視点管理部407は、S903で送信された2つの撮像装置の中間の位置の情報に基づいて、仮想カメラ視点情報を更新する。仮想視点管理部407は、この2つの撮像装置の情報を、仮想視点画像生成部408に送信する。仮想視点画像生成部408は、送信された情報が示す撮像装置により撮影された画像を用いて、仮想視点画像を生成することとなる。
図10の例では、撮像装置110に含まれる撮像装置同士の距離のうち、最も大きいものは、撮像装置110(a)と撮像装置110(b)との間の距離であるとする。仮想カメラ1105は、撮像装置110(a)と撮像装置110(b)との中間の位置に配置された仮想カメラである。
また、撮像装置110に含まれる撮像装置同士の距離のうち、2番目に大きいものは、撮像装置110(c)と撮像装置110(d)との間の距離であるとする。仮想カメラ1106は、撮像装置110(c)と撮像装置110(d)との中間の位置に配置された仮想カメラである。
図11(b)は、仮想カメラ1106により撮影されたとみなすことができる仮想視点画像を含む表示画像が表示されている状況の一例を示す図である。画像1111は、仮想視点画像である。また、画像1112~1117は、表示対象画像である。画像1112、1113は、最も寄与度が大きい撮像装置110(a)、撮像装置110(a)により撮影された画像である。
本実施形態では、画像処理システム100は、仮想カメラ視点情報を更新し、仮想視点画像を生成し直すごとに、生成し直した仮想視点画像と対応する表示対象画像とをユーザ端末130の表示部に表示することとした。しかし、画像処理システム100は、仮想カメラ視点情報を更新し、仮想視点画像を生成し直すごとに、生成し直した仮想視点画像のみを表示してもよい。また、画像処理システム100は、仮想カメラ視点情報を更新するたびに、生成し直した複数の仮想視点画像を、まとめて、ユーザ端末130の表示部に表示することとしてもよい。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
例えば、上述した画像処理システム100の機能構成の一部又は全てをハードウェアとして画像生成装置120に実装してもよい。
以上、本発明の実施形態の一例について詳述したが、本発明は係る特定の実施形態に限定されるものではない。上述した各実施形態を任意に組み合わせてもよいし、適宜改良や置換を行ったものや、他の構成としたものでもよい。
110 撮像装置
120 画像生成装置
Claims (17)
- 仮想的な視点からの画像である仮想視点画像の生成に関連する画像から、表示対象となる画像である表示対象画像を決定する決定手段と、
前記仮想視点画像と前記決定手段により決定された前記表示対象画像と、を表示部に表示させる表示制御手段と、
を有し、
前記表示制御手段は、前記決定手段により決定された前記表示対象画像に含まれる画像それぞれの前記仮想視点画像の生成に寄与する度合いに応じた表示態様で、前記仮想視点画像と前記表示対象画像とを前記表示部に表示させる情報処理装置。 - 仮想的な視点からの画像である仮想視点画像の生成に関連する画像から、表示対象となる画像である表示対象画像を決定する決定手段と、
前記仮想視点画像と前記決定手段により決定された前記表示対象画像と、を表示部に表示させる表示制御手段と、
を有し、
前記決定手段は、複数の撮影部に含まれる撮影部同士の距離に応じて決定された仮想的な視点からの画像である仮想視点画像の生成に関連する画像であって、前記複数の撮影部により撮影される画像から、前記表示対象画像を決定する情報処理装置。 - 前記複数の撮影部に含まれる撮影部同士の距離に応じて決定された仮想的な視点は、前記複数の撮影部に含まれる撮影部同士の距離のうち、最も大きい距離に応じて決定された仮想的な視点である請求項2に記載の情報処理装置。
- 前記複数の撮影部に含まれる撮影部同士の距離に応じて決定された仮想的な視点は、前記複数の撮影部に含まれる撮影部同士の距離に応じて、前記複数の撮影部に含まれる撮影部同士の間の中間の位置から決定された仮想的な視点である請求項2又は3に記載の情報処理装置。
- 前記複数の撮影部に含まれる撮影部同士の距離それぞれから大きい順に1つずつを選択距離として選択し、選択した前記選択距離それぞれについて、前記選択距離に対応する2つの撮影部の間の位置を、前記仮想的な視点として決定する別の決定手段を更に有し、
前記決定手段は、前記別の決定手段により前記仮想的な視点が決定されるごとに、前記別の決定手段により決定された仮想的な視点からの画像である仮想視点画像の生成に関連する画像であって、前記複数の撮影部により撮影される画像から、前記表示対象画像を決定し、
前記表示制御手段は、前記別の決定手段により前記仮想的な視点が決定されるごとに、前記仮想視点画像と前記決定手段により決定された前記表示対象画像とを前記表示部に表示させる請求項2乃至4の何れか1項に記載の情報処理装置。 - 前記決定手段は、前記仮想視点画像に含まれるオブジェクトのモデルの生成に関連する画像を、前記表示対象画像として決定する請求項1乃至5の何れか1項に記載の情報処理装置。
- 前記決定手段は、前記オブジェクトのモデルの形状の決定に関連する画像を、前記表示対象画像として決定する請求項6に記載の情報処理装置。
- 前記決定手段は、前記オブジェクトのモデルの色の決定に関連する画像を、前記表示対象画像として決定する請求項6又は7に記載の情報処理装置。
- 前記表示制御手段は、前記仮想的な視点と前記決定手段により決定された前記表示対象画像を撮影した撮影部との位置関係に応じた表示態様で、前記仮想視点画像と前記表示対象画像とを前記表示部に表示させる請求項1乃至8の何れか1項に記載の情報処理装置。
- 前記表示制御手段は、前記決定手段により決定された前記表示対象画像を撮影した撮影部が前記仮想的な視点に対してどの方向に位置するかを示す前記位置関係に応じた前記表示態様で、前記仮想視点画像と前記表示対象画像とを前記表示部に表示させる請求項9に記載の情報処理装置。
- 前記表示制御手段は、前記決定手段により決定された前記表示対象画像を撮影した撮影部が前記仮想的な視点からどの程度の距離に位置に位置するかを示す前記位置関係に応じた前記表示態様で、前記仮想視点画像と前記表示対象画像とを前記表示部に表示させる請求項9又は10に記載の情報処理装置。
- 前記表示制御手段は、前記決定手段により決定された前記表示対象画像を撮影した撮影部が前記仮想的な視点からより遠い距離に位置する程、より小さく表示させる前記表示態様で、前記仮想視点画像と前記表示対象画像とを前記表示部に表示させる請求項11に記載の情報処理装置。
- 前記表示制御手段は、前記仮想視点画像と前記表示対象画像と前記表示対象画像を撮影した撮影部の属性情報とを前記表示部に表示させる請求項1乃至12の何れか1項に記載の情報処理装置。
- 前記決定手段により決定された前記表示対象画像から、前記仮想視点画像の品質の低下の原因となる画像の指定を受付ける受付手段と、
前記受付手段により受付けられた指定が示す画像を撮影した撮影部により撮影される画像を、仮想視点画像の生成に用いることを禁止する禁止手段と、
を更に有する請求項1乃至13の何れか1項に記載の情報処理装置。 - 情報処理装置が実行する情報処理方法であって、
仮想的な視点からの画像である仮想視点画像の生成に関連する画像から、表示対象となる画像である表示対象画像を決定する決定ステップと、
前記仮想視点画像と前記決定ステップで決定された前記表示対象画像とを表示部に表示させる表示制御ステップと、
を含み、
前記表示制御ステップは、前記決定ステップで決定された前記表示対象画像に含まれる画像それぞれの前記仮想視点画像の生成に寄与する度合いに応じた表示態様で、前記仮想視点画像と前記表示対象画像とを前記表示部に表示させる、
情報処理方法。 - 情報処理装置が実行する情報処理方法であって、
仮想的な視点からの画像である仮想視点画像の生成に関連する画像から、表示対象となる画像である表示対象画像を決定する決定ステップと、
前記仮想視点画像と前記決定ステップで決定された前記表示対象画像と、を表示部に表示させる表示制御ステップと、
を含み、
前記決定ステップは、複数の撮影部に含まれる撮影部同士の距離に応じて決定された仮想的な視点からの画像である仮想視点画像の生成に関連する画像であって、前記複数の撮影部により撮影される画像から、前記表示対象画像を決定する、
情報処理方法。 - コンピュータを、請求項1乃至14の何れか1項に記載の情報処理装置の各手段として、機能させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017237668A JP7023696B2 (ja) | 2017-12-12 | 2017-12-12 | 情報処理装置、情報処理方法及びプログラム |
US16/214,685 US10771761B2 (en) | 2017-12-12 | 2018-12-10 | Information processing apparatus, information processing method and storing unit |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017237668A JP7023696B2 (ja) | 2017-12-12 | 2017-12-12 | 情報処理装置、情報処理方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019106617A JP2019106617A (ja) | 2019-06-27 |
JP7023696B2 true JP7023696B2 (ja) | 2022-02-22 |
Family
ID=66697491
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017237668A Active JP7023696B2 (ja) | 2017-12-12 | 2017-12-12 | 情報処理装置、情報処理方法及びプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US10771761B2 (ja) |
JP (1) | JP7023696B2 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018147329A1 (ja) * | 2017-02-10 | 2018-08-16 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 自由視点映像生成方法及び自由視点映像生成システム |
JP7254464B2 (ja) * | 2018-08-28 | 2023-04-10 | キヤノン株式会社 | 情報処理装置、情報処理装置の制御方法、及びプログラム |
JP7418101B2 (ja) * | 2019-07-26 | 2024-01-19 | キヤノン株式会社 | 情報処理装置、情報処理方法、及びプログラム |
JPWO2021149526A1 (ja) * | 2020-01-23 | 2021-07-29 | ||
JPWO2021166751A1 (ja) * | 2020-02-19 | 2021-08-26 | ||
EP4178199A4 (en) * | 2020-07-30 | 2023-11-08 | Sony Group Corporation | INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, VIDEO DISTRIBUTION METHOD AND INFORMATION PROCESSING SYSTEM |
US11941729B2 (en) * | 2020-12-11 | 2024-03-26 | Canon Kabushiki Kaisha | Image processing apparatus, method for controlling image processing apparatus, and storage medium |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012034343A (ja) | 2010-07-02 | 2012-02-16 | Canon Inc | 映像処理装置、及びその制御方法 |
JP2014241496A (ja) | 2013-06-11 | 2014-12-25 | ソニー株式会社 | 情報処理装置、撮像装置、情報処理方法、及びプログラム |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6417850B1 (en) * | 1999-01-27 | 2002-07-09 | Compaq Information Technologies Group, L.P. | Depth painting for 3-D rendering applications |
CN100438623C (zh) * | 1999-04-16 | 2008-11-26 | 松下电器产业株式会社 | 图象处理装置及监视*** |
US8160400B2 (en) * | 2005-11-17 | 2012-04-17 | Microsoft Corporation | Navigating images using image based geometric alignment and object based controls |
JP4803594B2 (ja) | 2006-07-05 | 2011-10-26 | Kddi株式会社 | 局所領域分割による自由視点画像の生成装置およびプログラム |
DE102007021518B4 (de) * | 2007-05-04 | 2009-01-29 | Technische Universität Berlin | Verfahren zum Verarbeiten eines Videodatensatzes |
US10580199B2 (en) * | 2015-04-14 | 2020-03-03 | ETAK Systems, LLC | Systems and methods for data capture for telecommunications site modeling via a telescoping apparatus |
-
2017
- 2017-12-12 JP JP2017237668A patent/JP7023696B2/ja active Active
-
2018
- 2018-12-10 US US16/214,685 patent/US10771761B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012034343A (ja) | 2010-07-02 | 2012-02-16 | Canon Inc | 映像処理装置、及びその制御方法 |
JP2014241496A (ja) | 2013-06-11 | 2014-12-25 | ソニー株式会社 | 情報処理装置、撮像装置、情報処理方法、及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP2019106617A (ja) | 2019-06-27 |
US20190182470A1 (en) | 2019-06-13 |
US10771761B2 (en) | 2020-09-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7023696B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
KR102153985B1 (ko) | 가상 시점 화상을 생성하는 장치, 시스템, 방법, 및 비일시적 컴퓨터 판독가능 기억 매체 | |
KR102049245B1 (ko) | 화상처리 장치, 화상처리 방법, 화상처리 시스템 및 기억매체 | |
JP6950013B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP6918455B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
US11670043B2 (en) | Image processing apparatus, image processing method, and storage medium | |
JP6948175B2 (ja) | 画像処理装置およびその制御方法 | |
RU2708437C1 (ru) | Устройство обработки изображений, система обработки изображений, способ обработки изображений и носитель данных | |
JP2018180655A5 (ja) | ||
JP2014238731A (ja) | 画像処理装置、画像処理システム、および画像処理方法 | |
JP7476375B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
KR20210032549A (ko) | 화상 처리 장치, 화상 처리 방법 및 컴퓨터 프로그램 | |
JP7446754B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP6812181B2 (ja) | 画像処理装置、画像処理方法、及び、プログラム | |
US11847735B2 (en) | Information processing apparatus, information processing method, and recording medium | |
JP2022032483A (ja) | 画像処理装置、画像処理方法、およびプログラム | |
JP6799468B2 (ja) | 画像処理装置、画像処理方法及びコンピュータプログラム | |
JP2019185178A (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP2020135290A (ja) | 画像生成装置、画像生成方法、画像生成システム、及びプログラム | |
JP6759375B2 (ja) | 仮想視点画像を生成するシステム、方法及びプログラム | |
JP2021144522A (ja) | 画像処理装置、画像処理方法、プログラム、及び画像処理システム | |
JP7494153B2 (ja) | 生成装置、生成方法、及び、プログラム | |
EP4296961A1 (en) | Image processing device, image processing method, and program | |
JP2022103836A (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP2022077380A (ja) | 画像処理装置、画像処理方法、およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201126 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210916 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211026 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211223 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220111 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220209 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7023696 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |