JP2020173529A - 情報処理装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
JP2020173529A
JP2020173529A JP2019074045A JP2019074045A JP2020173529A JP 2020173529 A JP2020173529 A JP 2020173529A JP 2019074045 A JP2019074045 A JP 2019074045A JP 2019074045 A JP2019074045 A JP 2019074045A JP 2020173529 A JP2020173529 A JP 2020173529A
Authority
JP
Japan
Prior art keywords
viewpoint
virtual viewpoint
virtual
information
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019074045A
Other languages
English (en)
Other versions
JP7353782B2 (ja
Inventor
宗浩 吉村
Munehiro Yoshimura
宗浩 吉村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019074045A priority Critical patent/JP7353782B2/ja
Priority to US16/818,455 priority patent/US11477432B2/en
Publication of JP2020173529A publication Critical patent/JP2020173529A/ja
Application granted granted Critical
Publication of JP7353782B2 publication Critical patent/JP7353782B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)

Abstract

【課題】複数の仮想視点画像に対応する複数の仮想視点の指定に係るユーザの利便性を向上させる。【解決手段】本発明は、表示装置に表示される複数の仮想視点画像にそれぞれ対応する複数の仮想視点を制御する情報処理装置(100)である。情報処理装置は、複数の仮想視点画像のうち、1の仮想視点画像に対応する仮想視点を指定するための操作情報を取得する単一視点操作情報取得部(202)と、操作情報に基づいて、複数の仮想視点画像にそれぞれ対応する複数の仮想視点を制御する複数視点制御部(203)を備える。【選択図】図2

Description

本発明は、仮想視点画像を生成するための技術に関する。
近年、複数のカメラを異なる位置に配置して複数視点で同期撮像し、その撮像により取得された複数視点画像を用いて、カメラの配置位置における画像だけでなく任意の視点に応じた仮想視点画像を生成して表示する技術が知られている。
このような技術に関して、特許文献1には、視聴者のシーン理解度を向上させるために、複数の仮想視点画像を生成し、その生成した複数の仮想視点画像を同時に表示する技術が開示されている。
特開2005−242606号公報
特許文献1に開示された技術では、予め定められた仮想視点情報(即ち、仮想視点の位置及び姿勢等)に基づいて複数の仮想視点画像を生成するため、インタラクティブ性の低い仮想視点画像を表示することになる。そこで、特許文献1に開示された技術において、インタラクティブ性を高めるために、仮に、視聴者により仮想視点情報を指定することができるようにした場合、視聴者が複数の仮想視点画像のそれぞれについて仮想視点情報を指定することは煩雑かつ困難である。
本発明は、前記従来の課題に鑑みてなされたものであって、その目的は、複数の仮想視点画像に対応する複数の仮想視点の指定に係るユーザの利便性を向上させることである。
本発明に係る情報処理装置は、表示装置に表示される複数の仮想視点画像にそれぞれ対応する複数の仮想視点を制御する情報処理装置であって、前記複数の仮想視点画像のうち、1の仮想視点画像に対応する仮想視点を指定するための操作情報を取得する操作情報取得手段と、前記操作情報に基づいて、前記複数の仮想視点画像にそれぞれ対応する複数の仮想視点を制御する視点制御手段とを備えることを特徴とする。
本発明によれば、複数の仮想視点画像に対応する複数の仮想視点の指定に係るユーザの利便性を向上させる。
表示制御装置のハードウェア構成を示す図である。 表示制御装置の機能構成を示す図である。 表示制御装置により実行される処理の手順を示すフローチャートである。 シーンデータを示す図である。 表示制御装置の使用例を示す図である。 複数視点制御部の機能構成を示す図である。 他の仮想カメラの仮想視点情報を生成する処理の手順を示すフローチャートである。 複数視点制御部の機能構成を示す図である。 他の仮想カメラの仮想視点情報を生成する処理の手順を示すフローチャートである。 複数視点制御部の機能構成を示す図である。 他の仮想カメラの仮想視点情報を生成する処理の手順を示すフローチャートである。
以下、本発明の実施形態について、図面を参照して説明する。なお、以下の実施形態は本発明を限定するものではなく、また、本実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。その他、補足として、同一の構成については、同じ符号を付して説明する。
<実施形態1>
本実施形態では、同一シーンにおいて複数の仮想視点画像を同時に表示し、表示されている仮想視点画像のうちの1つの仮想視点画像における仮想カメラを操作することにより、他の仮想視点画像における仮想カメラを操作する例について説明する。
なお、本実施形態において生成される仮想視点画像は、動画(映像)であっても、静止画であってもよく、ここでは、仮想視点画像として、仮想視点映像を例に説明するものとする。この点、以下の各実施形態においても同様とする。
また、仮想視点映像とは、異なる方向から撮像領域となるフィールドを撮像する複数のカメラ(撮像装置)により取得される複数の撮像画像に基づいて生成される画像により構成され、仮想カメラの位置及び姿勢等に従って生成される映像のことである。仮想カメラとは、撮像領域の周囲に実際に設置された複数の撮像装置とは異なる仮想的なカメラであって、仮想視点画像の生成に係る仮想視点を便宜的に説明するための概念である。即ち、仮想視点画像は、撮像領域に関連付けられる仮想空間内に設定された仮想視点から撮像した画像であると見做すことができる。そして、仮想的な当該撮像における視点の位置及び向きは仮想カメラの位置及び向きとして表すことができる。言い換えれば、仮想視点画像は、空間内に設定された仮想視点の位置にカメラが存在するものと仮定した場合に、そのカメラにより得られる撮像画像を模擬した画像であると言える。但し、本実施形態の構成を実現するために仮想カメラの概念を用いることは必須ではない。加えて、本実施形態において、仮想視点映像は、各画像フレームが所定の動画圧縮方式により圧縮された映像データであってもよいし、各画像フレームが所定の静止画圧縮方式により圧縮された映像データであってもよいし、非圧縮の映像データであってもよい。
先ず、図1を用いて、本実施形態に係る表示制御装置100のハードウェア構成について説明する。表示制御装置100は、図1に示されるように、CPU101、RAM102、ROM103、HDDインタフェース104、入力インタフェース106、出力インタフェース108、ネットワークインタフェース110を備える。
CPU101は、RAM102をワークメモリとして、少なくともROM103又はハードディスクドライブ(HDD)105のいずれか一方に格納されたプログラムを実行することで、システムバス112を介して、後述の各構成を制御する。また、これにより、後述の様々な処理が実行される。
HDDインタフェース(I/F)104は、表示制御装置100と、HDD105や光ディスクドライブ等の二次記憶装置とを接続する、例えば、シリアルATA(SATA)等のインタフェースである。CPU101は、HDDI/F104を介して、HDD105からデータを読み出し、さらに、そのHDD105に格納されたデータをRAM102に展開する。また、CPU101は、HDDI/F104を介して、プログラムを実行することにより取得され、RAM102に格納された各種データをHDD105に保存する。
入力インタフェース(I/F)106は、表示制御装置100と、キーボードやマウス、デジタルカメラ、スキャナ等の入力デバイス107とを接続する。入力I/F106は、例えば、USBやIEEE1394等のシリアルバスインタフェースである。CPU101は、入力I/F106を介して、入力デバイス107から各種データを読み込むことができる。
出力インタフェース(I/F)108は、表示制御装置100と、例えば、ディスプレイ等の出力デバイス109とを接続する。出力I/F108は、例えば、DVI(Digital Visual Interface)やHDMI(登録商標)(High-Definition Multimedia Interface)等の映像出力インタフェースである。CPU101は、出力I/F108を介して、出力デバイス109に仮想視点映像に関するデータを送信することで、仮想視点映像を表示させることができる。
ネットワークインタフェース(I/F)110は、表示制御装置100と外部サーバ111とを接続する。ネットワークI/F110は、例えば、LANカード等のネットワークカードである。CPU101は、ネットワークI/F110を介して、外部サーバ111から各種データを読み込むことができる。
なお、図1では、HDD105、入力デバイス107、及び出力デバイス109が、表示制御装置100とは別のデバイスとして構成される例を示したが、必ずしもこれに限定されない。したがって、例えば、表示制御装置100がスマートフォン等であってもよく、この場合、入力デバイス107はタッチパネルとして、出力デバイス109は表示スクリーンとして、表示制御装置100と一体に構成される。また、HDD105内蔵のデバイスを表示制御装置100として用いることもできる。
加えて、図1に示される構成の全てが、必須の構成とは限らない。例えば、HDD105に記憶されている仮想視点映像を再生する場合、外部サーバ111は不要となる。また、逆に、外部サーバ111から取得した仮想視点映像を生成する場合、HDD105は不要となる。その他、表示制御装置100は、複数のCPU101を備えていてもよい。また、CPU101とは異なる専用の1又は複数のハードウェアやGPU(Graphics Processing Unit)を備え、CPU101による処理の少なくとも一部を専用のハードウェアやGPUが実行するようにしてもよい。なお、専用のハードウェアとして、例えば、ASIC(特定用途向け集積回路)、FPGA(Field-Programmable Gate Array)、及びDSP(Digital Signal Processor)等がある。
次に、図2及び図3を用いて、表示制御装置100により実行される処理について説明する。具体的には、視聴者が容易に複数の仮想カメラの位置及び姿勢を指定できるように、視聴者が指定した基準とする仮想視点映像における仮想カメラの位置及び姿勢に基づいて、他の仮想視点映像における仮想カメラの位置及び姿勢を決定する処理について説明する。なお、以下において、基準とする仮想視点映像における仮想カメラを、単に、基準とする仮想カメラと称し、他の仮想視点映像における仮想カメラを、単に、他の仮想カメラと称する。
図2は、表示制御装置100の機能構成を示す図である。表示制御装置100は、単一視点操作情報取得部202、複数視点制御部203、撮像データ取得部204、シーンデータ生成部205、描画部206を備える。なお、これらの構成要素すべてを単一の表示制御装置100が有することは必須ではない。例えば、単一視点操作情報取得部202及び複数視点制御部203を有する情報処理装置と、撮像データ取得部、シーンデータ生成部205、及び描画部206を有する表示制御装置とが、別の装置として互いに接続されていてもよい。また、表示制御装置100には、図2に示されるように、図1の入力デバイス107に対応する操作部201、及び図1の出力デバイス109に対応する表示部207が各々、接続される。なお、CPU101は、少なくともROM103又はHDD105のいずれか一方に格納されたプログラムを読み出してRAM102をワークエリアとして実行することで、図2に示される表示制御装置100内部の各機能ブロックの役割を果たす。また、CPU101が表示制御装置100内部の全ての機能ブロックの役割を果たす必要はなく、各機能ブロックに対応する専用の処理回路を設けるようにしてもよい。
図3は、表示制御装置100により実行される処理の手順を示すフローチャートである。なお、図3に示される各処理は、CPU101が少なくともROM103又はHDD105のいずれか一方に格納されたプログラムを読み出してRAM102をワークエリアとして実行することで実現される。また、フローチャートの説明における記号「S」は、ステップを表すものとする。この点、以下のフローチャートの説明においても同様とする。
S301において、撮像データ取得部204は、仮想視点映像を生成するフレームに対応する撮像データと、その撮像データを撮像したカメラのカメラパラメータを、HDD105又は外部サーバ111から取得し、シーンデータ生成部205に出力する。なお、ここで取得するカメラパラメータとは、撮像したカメラの外部パラメータと内部パラメータのことである。
S302において、シーンデータ生成部205は、取得した撮像データとカメラパラメータに基づいて、仮想視点映像のレンダリングに必要なシーンデータを生成する。ここで、シーンデータとは、本実施形態において、3Dポリゴンデータ、テクスチャデータ、及びUVマップであり、また、UVマップは3Dポリゴンデータとテクスチャデータを対応付けるものである。
以下、図4を用いて、シーンデータについて説明を補足する。図4は、シーンデータを示す図である。図4(A)及び図4(B)は、3Dポリゴンデータを示す図である。図4(A)は3次元空間における三角形T0〜T11及びこれらを構成する頂点V0〜V11を示しており、また、図4(B)は頂点V0〜V11の3次元座標を示している。図4(C)及び(D)は、テクスチャデータを示した図である。図4(C)はテクスチャ画像上で三角形の頂点に対応する位置P0〜P13を示しており、また、図4(D)はテクスチャ頂点P0〜P13の2次元座標を示している。図4(E)は、UVマップを示した図であり、各三角形に対して、それらの三角形を構成する3次元空間上の頂点IDとテクスチャ画像空間上のテクスチャ頂点IDの対応表である。図4(E)のUVマップに示されるように、図4(A)の3Dポリゴンを構成する三角形の頂点と図4(C)のテクスチャ画像上の三角形の頂点との対応を与えることにより、形状にテクスチャを付与することができる。
シーンデータ生成部205は、シーン内のオブジェクト毎に、これらのシーンデータを生成する。先ず、シーンデータ生成部205は、3Dポリゴンデータを生成する。シーンデータ生成部205は、3Dポリゴンデータを生成するために、本実施形態では、Visual Hullアルゴリズムを適用してボクセル情報を取得し、3Dポリゴンを再構成する。
但し、3Dポリゴンの再構成方法は、必ずしもこれに限られず、例えば、ボクセル情報を直接、ポリゴンモデルに変換する等してもよい。その他、赤外線センサを用いて取得されるデプスマップから取得される点群にPSR(Poisson Surface Reconstruction)を適用してもよい。なお、点群を取得する方法として、例えば、PMVS(Patch-based Multi-view Stereo)に代表される画像特徴を利用したステレオマッチングによって点群を取得する方法等を用いることができる。
次に、シーンデータ生成部205は、テクスチャデータを生成する。シーンデータ生成部205は、3Dポリゴンを構成する各三角形の頂点V0〜V11をカメラパラメータに基づいて撮像カメラに投影することにより対応するUV座標を算出し、画像上に投影された3点に囲まれた領域をテクスチャ画像として登録する。なお、この場合、全てのカメラで取得した領域の平均をテクスチャ画像として登録してもよいし、特定のカメラを選択し、その選択したカメラの領域をテクスチャ画像として登録してもよい。
そして、シーンデータ生成部205は、テクスチャデータを生成すると同時に、そのテクスチャデータに対応するUVマップを生成する。シーンデータ生成部205は、生成したシーンデータを描画部206に出力する。
S303において、単一視点操作情報取得部202は、操作部201から仮想カメラの位置及び姿勢等に関する視点操作情報を取得し、複数視点制御部203に出力する。なお、視点操作情報は、視聴者による視点操作に基づいて生成される。また、単一視点操作情報取得部202で取得される視点操作情報は、基準とする仮想カメラの視点操作情報であるものとする。
以下、視点操作情報に関して、視聴者が、仮想視点映像を表示したタッチパネルを用いて、仮想視点の位置及び姿勢を操作する場合を例に用いて説明を補足する。視点操作情報は、タッチパネルにタッチされた点の数n、タッチされた点の2次元スクリーン座標xi(i=1〜n)、タッチされた点の代表点の2次元スクリーン座標x’、 代表点の前フレームからの移動量を示す2次元ベクトルd=(dx,dy)を示す。ただし、視点操作情報の内容はこれに限定されず、例えばx’及びdを示す情報が視点操作情報に含まれなくてもよい。
なお、2次元スクリーン座標の座標系は、後述の図5において、原点を2次元スクリーンの左上に設定し、左右方向をx軸(2次元スクリーンの右方向を正)、上下方向をy軸(2次元スクリーンの下方向を正)とする座標系である。また、代表点は、タッチされた点の2次元スクリーン座標xiの重心とする。但し、代表点として、タッチされた点の2次元スクリーン座標xiの重心に限られず、2次元スクリーン座標xiの平均位置、2次元スクリーン座標xiの中からランダムに選択された1点、また、最も長い時間タッチされた点を選択してもよい。
加えて、タッチパネルにタッチされた点の数(即ち、指の本数)に合わせて、視点操作方法を切り替えてもよい。例えば、タッチされた点の数が0点の場合、視聴者による操作がなかったものと見做す。タッチされた点の数が1点の場合、画面中心に映る物体を回転中心とした仮想視点の回転動作による操作と見做す。タッチされた点の数が2点の場合、仮想カメラの視点を前後に移動し、オブジェクトを拡縮して表示するためのピンチイン操作、又はピンチアウト操作と見做す。その他、視聴者による視点操作は、タッチパネルを用いて操作することに限られず、例えば、マウスを用いて操作してもよい。
S304において、複数視点制御部203は、単一視点操作情報取得部202により取得した基準とする仮想カメラの視点操作情報に基づいて、各仮想カメラの視点を制御する。具体的には、基準とする仮想カメラの視点操作情報に基づいて、各仮想カメラの位置及び姿勢等を示す仮想視点情報を生成する。
なお、ここで生成する仮想視点情報とは、仮想カメラの外部パラメータと内部パラメータのことである。仮想カメラの外部パラメータは、仮想カメラの位置及び姿勢を示すパラメータであり、また、仮想カメラの内部パラメータは、仮想カメラの光学的な特性を示すパラメータである。以下、仮想カメラの外部パラメータと内部パラメータについて説明を補足する。
仮想カメラの外部パラメータは、仮想カメラの位置を示すベクトルをt、回転を表す行列をRとすると、下式のように示される。なお、ここでは、座標系を左手座標系として、仮想カメラの視点において水平方向をx軸(右方向を正)、垂直方向をy軸(上方向を正)、前後方向をz軸(前方向を正)とする。
Figure 2020173529
また、仮想カメラの内部パラメータKは、画像の主点位置を(cx,cy)、カメラの焦点距離をfとすると、下式のように示される。
Figure 2020173529
なお、カメラパラメータの表現方法は、必ずしもこれに限定されず、行列以外の表現方法であってもよい。したがって、例えば、仮想カメラの位置を3次元座標で示し、仮想カメラの姿勢をyaw、roll、及びpitchの値の羅列によって示すようにしてもよい。また、外部パラメータと内部パラメータは、上述のものに限られるわけではない。したがって、例えば、仮想カメラのズーム値を示す情報を仮想カメラの内部パラメータとして取得するようにしてもよい。
S305において、描画部206は、シーンデータ生成部205により生成されたシーンデータと複数視点制御部203により取得された複数の仮想視点情報とに基づいて、仮想視点映像を生成し、その生成した複数の仮想視点映像を表示部207に出力する。即ち、描画部206は、仮想視点映像(画像)を生成する画像生成手段の一例である。なお、仮想視点映像の生成に関して、既知の技術(生成方法)を用いることとし、ここでは、その説明を省略する。S306において、表示部207は、描画部206から取得した複数の仮想視点映像を表示する。以上、表示制御装置100により実行される処理の手順について説明したが、図3のフローチャートにおいて、例えば、視聴者による仮想視点画像の閲覧終了に関する指示があった場合等に、図3に示される処理を終了する。
(仮想視点制御方法)
ここでは、他の仮想カメラの視点の制御方法について説明する。他の仮想カメラの視点の制御方法を説明する上で、先ず、ユーザにおける表示制御装置100の使用例について、図5を用いて説明する。なお、図5では、タッチパネルと表示スクリーンが表示制御装置100と一体に構成される例を示している。
図5において、表示スクリーン上に仮想視点映像501と仮想視点映像502が表示されており、視聴者は、タッチパネルを指で操作することによって、仮想カメラの位置及び姿勢を指定する。また、表示スクリーンには、チェックボックス503が表示されている。このチェックボックス503は、「視点操作連動(即ち、視点操作を他の仮想カメラの視点と連動させるか否か)」を選択するためのチェックボックスである。このチェックボックス503にチェックが入れられている場合、視聴者がいずれか一方の仮想カメラについての視点操作を行うと、もう一方の仮想カメラの視点も連動して操作される。
図5(a)には、表示スクリーンの初期状態が示されている。図5(a)において、チェックボックス503にチェックが入れられていないため、視点操作は連動しない状態であり、視聴者は、仮想視点映像501と仮想視点映像502に関して、各々独立して視点操作を行うことができる。また、仮想視点映像501と仮想視点映像502に関して、いずれも仮想カメラが初期設定(デフォルト設定)された状態にあるので、同一の仮想視点映像が表示されている。この状態において、視聴者が、指504で仮想視点映像501の視点操作を、指505で仮想視点映像502の視点操作を行うと、各々、視点操作を行った結果は、図5(b)のように示される。
図5(b)において、仮想視点映像501は、シュートしている選手を中心に9人の選手を画角内に収めた広い範囲の仮想視点映像であり、また、仮想視点映像502は、全身が収まっている選手がシュートしている選手のみの狭い範囲の仮想視点映像である。そして、視聴者が、仮想視点映像501と仮想視点映像502の各々に関して視点操作を終えて、次に、指506でチェックボックス503にチェックを入れると、図5(c)のように示される。
図5(c)には、チェックボックス503にチェックが入れられた状態が示されている。この状態において、視聴者が、さらに、仮想視点映像501に対してのみ視点操作を行う。具体的には、視聴者が、シュートしている選手の背後を捉えている視点からシュートしている選手の右側を捉えている視点に変更するように、指507で帯508に沿うように仮想視点(仮想カメラ)を移動させる。チェックボックス503にチェックが入れられた状態で、このような視点操作を仮想視点映像501に行うと、仮想視点映像501の仮想カメラの視点の変更に連動して、仮想視点映像502の仮想カメラの視点も変更され、図5(d)のように示される。
図5(d)には、表示スクリーンにおいて、シュートしている選手を右側から捉えるように、仮想カメラの視点が変更された仮想視点映像501及び仮想視点映像502が表示されている状態が示されている。即ち、図5では、仮想視点映像501の仮想カメラの視点と仮想視点映像502の仮想カメラの視点のいずれもが、シュートしている選手を右側から捉えるように変更されている。
このように、1つの視点(即ち、仮想視点映像501における仮想カメラの視点)に対して操作することで、他の視点(即ち、仮想視点映像502における仮想カメラの視点)も制御することができる。また、本実施形態では、チェックボックスにおいて「視点操作連動」を選択させたが、視点操作の連動又は不連動を明示的に切り替えることができれば、どのような形態であってもよい。例えば、1つの視点に対する視点操作を他の視点のうち、所定の視点を対象に連動させることを前提に、図5に示されるようなチェックボックスではなく、視点操作を連動させる視点(仮想視点映像)をユーザに選択させる形態であってもよい。
図5では、携帯可能なタブレット端末に仮想視点画像を含む画面が表示され、タブレット端末へのタッチ操作に応じて仮想視点の制御がされる例を示した。但し、仮想視点を制御するシステムの構成はこれに限定されない。例えば、タブレット端末の代わりに、タッチパネルを備えた据え置き型の大画面ディスプレイが用いられてもよい。また、タッチパネルに対するタッチ操作に限らず、PCに接続されたマウスを用いたポインティング操作やリモコンのボタンを押す操作等に応じて仮想視点が制御されてもよい。また、複数の仮想視点画像がそれぞれ異なる表示装置に表示され、単一のユーザ操作に応じてそれら複数の仮想視点画像に対応する仮想視点が変更されてもよい。
次に、他の仮想カメラの視点の制御方法(他の仮想カメラの仮想視点情報の生成方法)について、図6及び図7を用いて説明する。図6は複数視点制御部203の機能構成を示すブロック図であり、また、図7は上述の図3のS304における処理の手順を示すフローチャートである。
S701において、仮想視点情報取得部601は、表示されている複数の仮想視点映像の仮想視点情報(即ち、外部パラメータ及び内部パラメータ)を取得する。なお、ここで取得する仮想視点情報は、上述の図5に示される例で、図5(b)の仮想視点映像501の状態を示す外部パラメータ及び内部パラメータと、仮想視点映像502の状態を示す外部パラメータ及び内部パラメータである。仮想視点情報取得部601は、取得した複数の仮想視点情報を複数視点情報算出部603に出力する。
S702において、基準視点操作情報取得部602は、表示されている複数の仮想視点映像のうちのいずれか1つの基準とする仮想カメラの視点(以下において、基準視点と称する)の操作情報を取得する。本実施形態では、視聴者が実際に指で操作した視点を基準視点として、その基準視点に関する仮想視点映像に対して行われた視点操作を、他の仮想視点映像に展開(反映)させる。なお、ここで取得する操作情報は、上述の図5に示される例で、図5(c)の仮想視点映像501において視聴者の指507による操作(即ち、帯508)に関する情報である。ここで、視点操作情報とは、タッチパネルがタッチされた点の数n、タッチされた点の2次元スクリーン座標xi(i=1〜n)、代表点の2次元スクリーン座標x’、代表点の前フレームからの移動量を示す2次元ベクトルd=(dx,dy)である。基準視点操作情報取得部602は、取得した基準視点の視点操作情報を複数視点情報算出部603に出力する。
S703において、複数視点情報算出部603は、取得した基準視点の視点操作情報に基づいて、基準視点の仮想視点情報と他の仮想カメラの仮想視点情報を新たに算出(導出)し、更新する。
最初に、基準視点の仮想視点情報を算出する方法について説明する。なお、ここでは、図5で説明した使用例のように、基準視点を回転させる場合を例に説明する。基準視点を回転させる場合、タッチパネルにタッチされる点の数は1(n=1)である。
先ず、複数視点情報算出部603は、仮想視点操作における回転基点Cの3次元座標を求める。本実施形態では、基準視点の仮想視点情報に基づいて、基準視点の画像中心を始点として3次元空間に光線を飛ばし(レイキャストし)、シーン内のオブジェクトに衝突した点を回転基点Cとして、その3次元座標を求める。なお、回転基点の3次元座標の求め方は、これに限られず、例えば、指がタッチされている点を3次元空間にレイキャストし、シーン内のオブジェクトと衝突する点を回転基点として、その3次元座標を求めてもよい。或いは、シーン内のある特定の3次元点を、常に回転基点として設定してもよい。
次に、基準視点の回転量θを算出する。本実施形態では、タッチ点のブレの影響を受けず、基準視点をスムーズに回転させるようにするため、回転方向を水平方向のみとし、水平方向の回転量θ[degree]を、代表点の移動量dXにスケール係数sを乗算することで、下式のように算出する。
Figure 2020173529
なお、スケール係数sは、タッチパネルのスクリーンの解像度を幅w画素とし、スクリーンの端から端までスライドさせたときの回転量を360度とすると、下式のように示される。
Figure 2020173529
また、補足として、ここでは、回転方向を水平方向のみとして説明したが、垂直方向のみに固定してもよいし、タッチが開始されてから数フレームの代表点の動きに応じて、回転方向をいずれかに決定してもよい。したがって、例えば、数フレームの移動量を加算し、x方向とy方向の移動量を比較し、x方向の移動量が大きければ水平方向を回転方向として設定し、y方向の移動量が大きければ垂直方向を回転方向として設定してもよい。その他、スケール係数sに関して、上述の計算方法に限られず、例えば、ユーザが、操作の敏感度パラメータとして、直接、数値を設定してもよい。
次に、算出した回転基点Cと回転量θに基づいて、視点操作後の基準視点の位置姿勢(基準視点の新たな位置姿勢)を算出する。視点操作後の基準視点の位置ti、姿勢Piは、仮想視点情報取得部601により取得された視点操作前の基準視点の位置ti-1、姿勢Pi-1を、回転基点Cを中心に水平方向にθだけ回転させると、下式のように示される。
Figure 2020173529
なお、R(θ、Φ)は、水平方向にθ、垂直方向にΦだけ回転させる回転行列である。また、視点操作後の基準視点の位置姿勢を算出する式は、これに限られない。また、視点の変化は回転に限らず、視点の向きを変えずに位置を変化させる平行移動などであってもよい。即ち、仮想カメラを移動させるためのユーザ操作が行われた場合に、複数の仮想視点画像に対応する複数の仮想カメラを連動して平行移動させてもよい。同様に、ユーザ操作に応じて、複数の仮想カメラについて位置を変更せずに向きを連動して変化させてもよい。
以上のように、操作視点後の基準視点の位置姿勢を算出した。即ち、上述の図5の使用例では、図5(c)の仮想視点映像501において、指507により操作した後の仮想視点映像501(図5(d))の仮想視点情報を算出した。
続いて、複数視点情報算出部603は、基準視点における視点操作を他の仮想視点映像に展開する。即ち、基準とする仮想カメラの視点操作情報を用いて、他の仮想カメラの仮想視点情報を算出する。
上述の図5の使用例で説明したように、本実施形態では、視聴者が基準視点を操作した後に、他の仮想カメラの視点を操作すること(連動させること)を想定している。そのため、視聴者による基準視点の操作時において、基準視点の注視点と他の仮想カメラの注視点が正確には一致していない可能性がある。
そこで、基準視点の視点操作を他の仮想カメラの視点に展開する前に、他の仮想カメラの注視点を基準視点の注視点と一致させる必要がある。複数視点情報算出部603は、注視点を一致させるために、他の仮想カメラの視点の姿勢を変更する。
基準視点の注視点と他の仮想カメラの注視点が一致するように、他の仮想カメラの視点操作前の姿勢P’i-1を変更した姿勢tmpP’i-1は、下式のように示される。なお、ここでは、注視点を一致させるための姿勢の変更により視点位置は移動(変更)されないことから、t’i-1は、視点操作前の他の仮想カメラの位置である。
Figure 2020173529
上式より、注視点を上述の回転基点とし、視点操作前のカメラの上下方向を維持した姿勢tmpP’i-1を算出することができる。さらに、ここで算出した姿勢tmpP’i-1と位置t’i-1を、回転基点C’を中心に水平方向にθ’だけ回転させた視点操作後の他の仮想視点映像における仮想視点の姿勢P’i、位置t’iは、下式のように示される。
Figure 2020173529
上式において、回転基点C’と回転量θ’は、各仮想カメラで算出せずに、基準視点で算出した値を用いる。これにより、視点操作前の画像中心にあるオブジェクトが基準視点と他の仮想視点画像における仮想カメラの視点で異なっていても、視点操作後においては、基準視点と他の仮想視点画像における仮想カメラの視点で、画像中心に同一のオブジェクトを配置できる。複数視点情報算出部603は、算出した複数の仮想視点情報を描画部206に出力する。
以上、説明したように、本実施形態に係る表示制御装置によれば、視聴者は複数の仮想視点映像における仮想カメラの位置及び姿勢を容易に指定することができる。具体的には、視聴者は、複数、表示された仮想視点映像において、基準視点の視点操作に応じて、他の仮想カメラの視点操作を連動させることができる。
なお、基準視点の視点操作に応じて、他の仮想カメラの視点操作を連動させる方法は、上述に限られない。したがって、例えば、他の仮想カメラの注視点の修正後に、基準とする仮想視点映像の表示位置と他の仮想視点映像の表示位置の差をオフセットとして考慮した上で、基準視点の視点操作に応じて、他の仮想カメラの視点操作を連動(制御)させてもよい。
<実施形態2>
上述の実施形態1では、同一シーンにおいて複数の仮想視点映像を同時に表示し、そのうちの1つの仮想視点映像に対する視点操作により他の仮想カメラの視点を操作する(連動させる)例を説明した。これにより、視聴者は複数の仮想視点映像における仮想視点の位置及び姿勢を容易に指定することができ、視聴者のシーン全体の理解度を向上させることを実現している。但し、上述の実施形態1では、同一のオブジェクトに関して、基準視点における視点操作前後のサイズ比と他の仮想カメラの視点における視点操作前後のサイズ比は変化してしまう。
そこで、本実施形態では、基準視点と他の仮想カメラの視点において、同一オブジェクトのサイズ比が視点操作前後で略同一となるように、視点情報算出後に基準視点以外の他の視点の仮想視点情報を補正する。以下、図8及び図9を用いて、本実施形態に係る表示制御装置において実行される処理について、主に実施形態1との差異に着目して説明する。
図8は複数視点制御部203の機能構成を示す図であり、図9はS304における処理の手順を示すフローチャートである。図9において、S901からS903までの処理は、実施形態1と同様である。S903の処理が実行されると、視点操作前の全仮想視点の仮想視点情報、視点操作後の基準視点の仮想視点情報、及び基準視点での視点操作に基づいて算出した視点操作後の他の仮想カメラの仮想視点情報が、複数視点情報補正部804に出力される。
S904において、複数視点情報補正部804は、視点操作前後における複数の仮想視点情報を取得し、その取得した視点操作前後における複数の仮想視点情報に基づいて、基準視点以外の他の仮想カメラの仮想視点情報を補正する。
具体的には、同一オブジェクトのサイズ比を維持する上で、下式を充足するスケールSを算出し、その算出したスケールSを他の仮想カメラの仮想視点情報(内部パラメータ)に含まれる焦点距離に乗算する。なお、ここでは、同一オブジェクトとして回転基点Cに位置するオブジェクトに関して、基準視点における視点操作前後のサイズ比と他の仮想カメラの視点における視点操作前後のサイズ比を維持する例を説明する。
下式において、左辺は基準視点における視点操作前後のオブジェクトのサイズ比を示しており、右辺は他の仮想カメラの視点における視点操作前後のオブジェクトのサイズ比を示している。また、下式において、fi-1は視点操作前の基準視点の焦点距離、fiは視点操作後の基準視点の焦点距離、f’i-1は視点操作前の他の仮想カメラの焦点距離、f’iは視点操作後の他の仮想カメラの焦点距離である。
Figure 2020173529
複数視点情報補正部804は、上式で算出したスケールSを仮想カメラの焦点距離に乗算し、他の仮想カメラの仮想視点情報を補正することで、基準視点と他の仮想カメラの視点において、同一オブジェクトのサイズ比を視点操作前後で一致させる。なお、本実施形態では、オブジェクトのサイズ比を視点操作前後で一致させるために、他の仮想カメラの焦点距離を補正したが、補正するパラメータは焦点距離に限られず、例えば、仮想カメラの位置パラメータを補正してもよい。
<実施形態3>
上述の実施形態1と実施形態2では、基準視点と他の仮想カメラで同一オブジェクトを視ている場合について説明した。即ち、上述の実施形態1と実施形態2では、オブジェクトが同一であることを前提に、例えば、基準視点と他の仮想カメラで視点操作に用いる回転基点等も同一のものを用いることとして説明した。本実施形態では、基準視点と他の仮想カメラで異なるオブジェクトを視ている場合について説明する。以下、図10及び図11を用いて、本実施形態に係る表示制御装置において実行される処理について、主に実施形態1との差異に着目して説明する。
図10は複数視点制御部203の機能構成を示す図であり、図11はS304における処理の手順を示すフローチャートである。図11において、S1101及びS1102の処理は、実施形態1と同様の処理である。
S1103において、トラッキング情報取得部1003は、シーン内のオブジェクトのトラッキング情報を取得する。ここで、オブジェクトのトラッキング情報は、シーンを構成する複数のフレームにおいて、そのシーン内のオブジェクトの各々が世界座標空間内のどこに位置していたかを記録した位置情報を含む。
本実施形態では、トラッキング情報として、フレームmにおける識別番号nのオブジェクトの重心位置Xn,m=[xn,m,yn,m,zn,m]を取得するものとする。なお、トラッキング情報としては、必ずしも重心位置である必要はなく、オブジェクト端部の位置を複数、取得するようにしてもよい。トラッキング情報取得部1003は、取得したトラッキング情報を複数視点情報算出部1004に出力する。
S1104において、複数視点情報算出部1004は、仮想視点情報、基準視点操作情報及びトラッキング情報に基づいて、基準視点の仮想視点情報と他の仮想カメラの仮想視点情報を新たに算出(生成)し、更新する。ここで、実施形態1との差異は、回転基点C、C’を各仮想カメラが注視するオブジェクト(即ち、仮想視点画像の画像中心の近傍に位置するオブジェクト)の重心位置とすることである。基準視点が注視するオブジェクトをオブジェクト識別番号1、他の仮想カメラが注視するオブジェクトをオブジェクト識別番号2とした場合、基準視点の回転基点Cと他の仮想カメラの視点の回転基点C’は、下式のように示される。
Figure 2020173529
そして、基準視点の回転基点と他の仮想カメラの回転基点を上述の実施形態1で説明した数式に設定することで、基準視点と他の仮想カメラで異なるオブジェクトを注視している場合でも、各々のオブジェクトを中心とした仮想視点映像を生成することができる。
なお、本実施形態では、回転基点として注視するオブジェクトの重心位置を用いて説明したが、これに限られず、上述の実施形態1の基準視点の回転基点を求めた方法を用いて、基準視点と他の仮想カメラの回転基点を求めて、それらを用いることもできる。
<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。

Claims (13)

  1. 表示装置に表示される複数の仮想視点画像にそれぞれ対応する複数の仮想視点を制御する情報処理装置であって、
    前記複数の仮想視点画像のうち、1の仮想視点画像に対応する仮想視点を指定するための操作情報を取得する操作情報取得手段と、
    前記操作情報に基づいて、前記複数の仮想視点画像にそれぞれ対応する複数の仮想視点を制御する視点制御手段と、
    を備えることを特徴とする情報処理装置。
  2. 前記複数の仮想視点画像における仮想視点情報を取得する視点情報取得手段をさらに備え、
    前記視点制御手段は、前記操作情報及び前記複数の仮想視点画像における仮想視点情報に基づいて前記複数の仮想視点画像における仮想視点情報を新たに導出することで、前記複数の仮想視点画像における仮想視点を制御することを特徴とする請求項1に記載の情報処理装置。
  3. 前記視点制御手段は、前記1の仮想視点画像において操作された仮想視点を基準視点として設定し、当該基準視点と他の仮想視点画像における仮想視点とで同一の3次元点を基準に、前記複数の仮想視点画像における仮想視点情報を導出することを特徴とする請求項2に記載の情報処理装置。
  4. 前記視点制御手段は、前記1の仮想視点画像の画像中心を始点として3次元空間に光線を飛ばし、シーン内のオブジェクトに前記光線が衝突した点を、前記3次元点として設定することを特徴とする請求項3に記載の情報処理装置。
  5. 前記視点制御手段は、前記他の仮想視点画像における仮想視点の注視点を前記3次元点に一致させた上で、前記複数の仮想視点画像における仮想視点情報を導出することを特徴とする請求項3又は4に記載の情報処理装置。
  6. 前記視点制御手段は、同一オブジェクトで、前記1の仮想視点画像における仮想視点の操作前後のオブジェクトのサイズ比と、他の仮想視点画像における仮想視点の操作前後のオブジェクトのサイズ比とが略同一となるように、前記複数の仮想視点画像における仮想視点情報を補正して新たに導出することを特徴とする請求項2から5のいずれか1項に記載の情報処理装置。
  7. 前記視点制御手段は、シーン内のオブジェクトの位置情報を含むトラッキング情報を取得するトラッキング情報取得手段を有することを特徴とする請求項2に記載の情報処理装置。
  8. 前記視点制御手段は、前記1の仮想視点画像の画像中心の近傍にあるオブジェクトの位置情報と他の仮想視点画像の画像中心の近傍にあるオブジェクトの位置情報に基づいて、各々の仮想視点情報を導出することを特徴とする請求項7に記載の情報処理装置。
  9. 前記オブジェクトの位置情報は、当該オブジェクトの重心位置に関する情報、又は当該オブジェクトの端部の位置に関する情報を含むことを特徴とする請求項8に記載の情報処理装置。
  10. 前記仮想視点情報は、少なくとも前記仮想視点の位置及び姿勢を示す外部パラメータに関する情報、及び前記仮想視点の光学的な特性を示す内部パラメータに関する情報を含むことを特徴とする請求項2から9のいずれか1項に記載の情報処理装置。
  11. 前記複数の仮想視点画像を表示させるとともに、前記1の仮想視点画像における仮想視点の操作を他の仮想視点画像における仮想視点と連動させるか否かを視聴者に選択させるための選択手段を表示させる表示制御手段を備えることを特徴とする、請求項1から10のいずれか1項に記載の情報処理装置。
  12. 表示装置に表示される複数の仮想視点画像にそれぞれ対応する複数の仮想視点を制御する情報処理方法であって、
    前記複数の仮想視点画像のうち、1の仮想視点画像に対応する仮想視点を指定するための操作情報を取得する操作情報取得ステップと、
    前記操作情報に基づいて、前記複数の仮想視点画像にそれぞれ対応する複数の仮想視点を制御する視点制御ステップと、
    を含む情報処理方法。
  13. コンピュータを請求項1から11のいずれか一項に記載の情報処理装置として機能させるためのプログラム。
JP2019074045A 2019-04-09 2019-04-09 情報処理装置、情報処理方法、及びプログラム Active JP7353782B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019074045A JP7353782B2 (ja) 2019-04-09 2019-04-09 情報処理装置、情報処理方法、及びプログラム
US16/818,455 US11477432B2 (en) 2019-04-09 2020-03-13 Information processing apparatus, information processing method and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019074045A JP7353782B2 (ja) 2019-04-09 2019-04-09 情報処理装置、情報処理方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2020173529A true JP2020173529A (ja) 2020-10-22
JP7353782B2 JP7353782B2 (ja) 2023-10-02

Family

ID=72748263

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019074045A Active JP7353782B2 (ja) 2019-04-09 2019-04-09 情報処理装置、情報処理方法、及びプログラム

Country Status (2)

Country Link
US (1) US11477432B2 (ja)
JP (1) JP7353782B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022181175A1 (ja) * 2021-02-25 2022-09-01 ソニーグループ株式会社 情報処理装置、情報処理方法、プログラム、表示システム
JP2022158959A (ja) * 2021-03-31 2022-10-17 ディズニー エンタープライゼス インコーポレイテッド 3dデジタルモデル表面のレンダリングおよび変換

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7291224B2 (ja) * 2019-07-26 2023-06-14 富士フイルム株式会社 情報処理装置、情報処理方法、及びプログラム
JP7418101B2 (ja) * 2019-07-26 2024-01-19 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
KR102484772B1 (ko) * 2020-11-03 2023-01-05 네이버랩스 주식회사 맵 생성 방법 및 이를 이용한 이미지 기반 측위 시스템

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009258862A (ja) * 2008-04-14 2009-11-05 Toshiba Corp 映像表示装置及び映像表示方法
JP2016119513A (ja) * 2014-12-18 2016-06-30 ヤフー株式会社 画像処理装置、画像処理方法及び画像処理プログラム
JP2018073105A (ja) * 2016-10-28 2018-05-10 キヤノン株式会社 画像処理装置、画像処理システム、画像処理方法及びプログラム
JP2018092491A (ja) * 2016-12-06 2018-06-14 キヤノン株式会社 情報処理装置、その制御方法、およびプログラム
WO2018199052A1 (ja) * 2017-04-25 2018-11-01 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 画像表示方法及び画像表示装置
WO2019021375A1 (ja) * 2017-07-25 2019-01-31 富士通株式会社 映像生成プログラム、映像生成方法および映像生成装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005242606A (ja) 2004-02-26 2005-09-08 Olympus Corp 画像生成装置、画像生成プログラム、及び画像生成方法
US8814678B2 (en) * 2011-06-03 2014-08-26 Nintendo Co., Ltd. Apparatus and method for gyro-controlled gaming viewpoint with auto-centering
JP6148887B2 (ja) * 2013-03-29 2017-06-14 富士通テン株式会社 画像処理装置、画像処理方法、及び、画像処理システム
JP6163899B2 (ja) * 2013-06-11 2017-07-19 ソニー株式会社 情報処理装置、撮像装置、情報処理方法、及びプログラム
JP2015193280A (ja) * 2014-03-31 2015-11-05 富士通テン株式会社 車両制御装置及び車両制御方法
JP6938123B2 (ja) * 2016-09-01 2021-09-22 キヤノン株式会社 表示制御装置、表示制御方法及びプログラム
JP6347286B2 (ja) * 2016-11-21 2018-06-27 株式会社コナミデジタルエンタテインメント ゲーム制御装置、ゲームシステム、及びプログラム
WO2019012817A1 (ja) * 2017-07-14 2019-01-17 ソニー株式会社 画像処理装置、画像処理装置の画像処理方法、プログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009258862A (ja) * 2008-04-14 2009-11-05 Toshiba Corp 映像表示装置及び映像表示方法
JP2016119513A (ja) * 2014-12-18 2016-06-30 ヤフー株式会社 画像処理装置、画像処理方法及び画像処理プログラム
JP2018073105A (ja) * 2016-10-28 2018-05-10 キヤノン株式会社 画像処理装置、画像処理システム、画像処理方法及びプログラム
JP2018092491A (ja) * 2016-12-06 2018-06-14 キヤノン株式会社 情報処理装置、その制御方法、およびプログラム
WO2018199052A1 (ja) * 2017-04-25 2018-11-01 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 画像表示方法及び画像表示装置
WO2019021375A1 (ja) * 2017-07-25 2019-01-31 富士通株式会社 映像生成プログラム、映像生成方法および映像生成装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022181175A1 (ja) * 2021-02-25 2022-09-01 ソニーグループ株式会社 情報処理装置、情報処理方法、プログラム、表示システム
JP2022158959A (ja) * 2021-03-31 2022-10-17 ディズニー エンタープライゼス インコーポレイテッド 3dデジタルモデル表面のレンダリングおよび変換
JP7333437B2 (ja) 2021-03-31 2023-08-24 ディズニー エンタープライゼス インコーポレイテッド 3dデジタルモデル表面のレンダリングおよび変換

Also Published As

Publication number Publication date
JP7353782B2 (ja) 2023-10-02
US11477432B2 (en) 2022-10-18
US20200329227A1 (en) 2020-10-15

Similar Documents

Publication Publication Date Title
JP7353782B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US11282264B2 (en) Virtual reality content display method and apparatus
JP7277085B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP7164968B2 (ja) 画像処理装置、画像処理装置の制御方法及びプログラム
KR102539427B1 (ko) 화상 처리장치, 화상 처리방법, 및 기억매체
CN110956695B (zh) 信息处理装置、信息处理方法和存储介质
JP6126821B2 (ja) 画像生成方法、画像表示方法、画像生成プログラム、画像生成システム、および画像表示装置
JP6310898B2 (ja) 画像処理装置、情報処理装置、および画像処理方法
JP7267753B2 (ja) 制御装置、制御方法、及びプログラム
KR101713875B1 (ko) 프로젝터 투사 환경하에서의 사용자 시점을 고려한 가상공간 구현 방법 및 시스템
TW201921318A (zh) 用於產生場景之舖磚式三維影像表示之設備及方法
JP2021034885A (ja) 画像生成装置、画像表示装置および画像処理方法
JP6719596B2 (ja) 画像生成装置、及び画像表示制御装置
US10902554B2 (en) Method and system for providing at least a portion of content having six degrees of freedom motion
JP6859763B2 (ja) プログラム、情報処理装置
JP7447403B2 (ja) 情報処理装置、情報処理システム、情報処理方法及びプログラム
US20220044351A1 (en) Method and system for providing at least a portion of content having six degrees of freedom motion
GB2575932A (en) Method and system for providing at least a portion of content having six degrees of freedom motion
JP6025519B2 (ja) 画像処理装置および画像処理方法
JP2022067171A (ja) 生成装置、生成方法、及び、プログラム
JP2012043345A (ja) 画像処理装置および方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220405

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230406

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230509

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230627

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230822

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230920

R151 Written notification of patent or utility model registration

Ref document number: 7353782

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151