JP2021182443A - Transmission device and transmission method, and program - Google Patents
Transmission device and transmission method, and program Download PDFInfo
- Publication number
- JP2021182443A JP2021182443A JP2021132062A JP2021132062A JP2021182443A JP 2021182443 A JP2021182443 A JP 2021182443A JP 2021132062 A JP2021132062 A JP 2021132062A JP 2021132062 A JP2021132062 A JP 2021132062A JP 2021182443 A JP2021182443 A JP 2021182443A
- Authority
- JP
- Japan
- Prior art keywords
- shape data
- dimensional shape
- virtual viewpoint
- data
- viewpoint image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Generation (AREA)
- Studio Devices (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
本発明は、仮想視点映像のための三次元形状データを送信する送信装置および送信方法に関する。 The present invention relates to a transmission device and a transmission method for transmitting three-dimensional shape data for a virtual viewpoint image.
複数台の実カメラ映像を用いて、3次元空間内の任意の位置に配置した仮想カメラからの映像を再現する技術として、自由視点映像(仮想視点映像)技術がある。仮想視点映像技術では、被写体の3次元形状を推定することにより、任意の仮想カメラ位置からの映像を生成する。被写体のモデルデータ(3次元形状とテクスチャ画像)をユーザの所有する端末に送信することによって、ユーザのインタラクティブな操作に対応した仮想視点映像を生成することが可能である。しかし、被写体のモデルデータのデータ量は膨大であるため、モデルデータの送信は通信帯域を圧迫してしまう。送信されるデータ量を削減する方法として、形状の変化量に応じて3次元形状の構成密度を変動させる構成(特許文献1)が提案されている。 There is a free viewpoint image (virtual viewpoint image) technology as a technique for reproducing an image from a virtual camera arranged at an arbitrary position in a three-dimensional space by using a plurality of real camera images. In the virtual viewpoint image technology, an image is generated from an arbitrary virtual camera position by estimating the three-dimensional shape of the subject. By transmitting the model data (three-dimensional shape and texture image) of the subject to the terminal owned by the user, it is possible to generate a virtual viewpoint image corresponding to the interactive operation of the user. However, since the amount of model data of the subject is enormous, the transmission of the model data puts pressure on the communication band. As a method of reducing the amount of data to be transmitted, a configuration (Patent Document 1) has been proposed in which the configuration density of a three-dimensional shape is changed according to the amount of change in the shape.
しかしながら、特許文献1では、形状の構成密度のみに着目しているため、ユーザにとって重要な情報が欠落する恐れがある。したがって、特許文献1のようなデータ量の削減手法は、仮想視点映像を生成するためのモデルデータを生成するのには不向きである。
However, since
本発明は、仮想視点映像を再生するための素材データを効率的にクライアントへ提供可能とすることを目的とする。 An object of the present invention is to make it possible to efficiently provide a client with material data for reproducing a virtual viewpoint image.
本発明の一態様による送信装置は以下の構成を有する。すなわち、
複数の撮影装置が行う撮影により得られる複数の撮影画像に基づいて生成される複数の三次元形状データであって、点群又はボクセルにより表される三次元形状データと、メッシュにより表される三次元形状データと、を含む複数の三次元形状データの中から、仮想視点画像の生成に使用される三次元形状データを決定する決定手段と、
前記決定手段により決定される三次元形状データを他の装置に送信する送信手段と、
を有する。
The transmission device according to one aspect of the present invention has the following configuration. That is,
A plurality of three-dimensional shape data generated based on a plurality of captured images obtained by imaging performed by a plurality of photographing devices, the three-dimensional shape data represented by a point cloud or a voxel, and the third order represented by a mesh. A determination means for determining the 3D shape data used for generating the virtual viewpoint image from the original shape data and a plurality of 3D shape data including the original shape data.
A transmission means for transmitting the three-dimensional shape data determined by the determination means to another device, and
Have.
本発明によれば、仮想視点映像を再生するための素材データを効率的にクライアントへ提供できる。 According to the present invention, it is possible to efficiently provide a client with material data for reproducing a virtual viewpoint image.
以下、本発明の実施形態について、図面を参照して説明する。なお、以下の実施形態は本発明を限定するものではなく、また、本実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。なお、同一の構成については、同じ符号を付して説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. It should be noted that the following embodiments do not limit the present invention, and not all combinations of features described in the present embodiment are essential for the means for solving the present invention. The same configuration will be described with the same reference numerals.
<第1実施形態>
第1実施形態では、ユーザ端末でのインタラクティブな仮想視点映像の再生時に必要なモデルデータの送信方法に関して説明する。ここでは、説明を簡易にするため、送信元であるサーバが単一で、受信先であるクライアントが複数存在するケースを想定する。また、ロケーションをサッカー競技が行われるスタジアム内とし、サーバである画像処理装置がスタジアム内に存在し、観客席においてユーザがクライアントである表示装置(スマートフォン、タブレットなどの端末)を操作し、仮想視点映像を閲覧するものとする。なお、本実施形態において仮想視点映像とは、仮想的に設定された視点からの映像のことを意味する。仮想視点映像に類似の用語として、自由視点映像や任意視点映像等の呼称も存在する。
<First Embodiment>
In the first embodiment, a method of transmitting model data necessary for reproducing an interactive virtual viewpoint video on a user terminal will be described. Here, for the sake of simplicity, it is assumed that there is a single server as a source and a plurality of clients as recipients. In addition, the location is in the stadium where the soccer competition is held, the image processing device that is the server exists in the stadium, and the user operates the display device (terminal such as smartphone, tablet) that is the client in the audience seats, and the virtual viewpoint. The video shall be viewed. In the present embodiment, the virtual viewpoint image means an image from a virtually set viewpoint. As a term similar to virtual viewpoint video, there are also names such as free viewpoint video and arbitrary viewpoint video.
図1Aは、第1実施形態における、画像処理装置の構成例と画像表示システムの構成例を示すブロック図である。画像処理装置100は、CPU101、メインメモリ102、記憶部103、入力部104、表示部105、外部I/F部106、バス107を備える。CPU101は、演算処理や各種プログラムを実行する。メインメモリ102は、処理に必要なプログラム、データ、作業領域などをCPU101に提供する。記憶部103は、画像処理プログラム、GUI表示に必要な各種データ、などを格納する。記憶部103には、例えばハードディスクやシリコンディスク等の不揮発性メモリが用いられる。入力部104は、キーボードやマウス等の装置であり、サーバ管理者からの操作入力を受け付ける。表示部105はGUIの表示を行う。外部I/F部106は、LAN108を介してカメラ装置群や表示装置群と接続し、映像データや制御信号データ、モデルデータの送受信を行う。バス107は上述の各部を接続し、データ転送を行う。
FIG. 1A is a block diagram showing a configuration example of an image processing device and a configuration example of an image display system according to the first embodiment. The
LAN108は有線および/または無線で構成され、画像処理装置、カメラ装置群、表示装置群、分析装置間でのデータ送受信に利用される。カメラ装置群は、複数のカメラ120で構成される。それぞれのカメラ120はLAN108経由で画像処理装置100と接続されており、画像処理装置100からの制御信号をもとに、撮影の開始と停止、カメラ設定(シャッタースピード、焦点距離、絞値など)の変更、撮影データの転送を行う。表示装置群は、複数のユーザ端末130(スマートフォンやタブレットなど)から構成される。それぞれのユーザ端末130はLAN108経由で画像処理装置100と接続されており、画像処理装置100から仮想視点映像の閲覧に必要なモデルデータを受信する。ユーザ端末130は、受信したモデルデータを用いて、仮想視点映像を生成し、表示する。LAN108の通信帯域は有限であるため、ユーザ端末130が受信可能なモデルデータのサイズはユーザ数に依存する。分析装置140は、カメラ120の映像や被写体に設置した各種センサ情報を用いて、被写体のプレーの種類を分析する。なお、分析装置140はオプションであり、必須な構成要素ではない。なお、システム構成については、上記以外にも、様々な構成要素が存在する。例えば、LAN108の代わりに、インターネットやWANなどを介して、各種デバイスが接続されるようにしても良い。また例えば、画像処理装置100と複数のカメラ120と分析装置140がLAN108を介して接続されることによって画像処理システムを形成し、当該画像処理システムとユーザ端末130がインターネット等によって接続されるようにしても良い。
The
図1Bは、第1実施形態による、表示装置としてのユーザ端末130の構成を示すブロック図である。ユーザ端末130は、CPU131、メインメモリ132、記憶部133、入力部134、表示部135、外部I/F部136、バス137を備える。CPU131は、演算処理や各種プログラムを実行する。メインメモリ132は、処理に必要なプログラム、データ、作業領域などをCPU131に提供する。記憶部133は、仮想視点映像を生成、表示するためのプログラム、GUI表示に必要な各種データ、などを格納する。記憶部133には、例えばハードディスクやシリコンディスク等の不揮発性メモリが用いられる。入力部134は、キーボード、マウス、タッチパネル等の装置であり、仮想視点映像を観察するユーザからの操作入力を受け付ける。表示部135は、仮想視点映像やGUIの表示を行う。外部I/F部136は、LAN108と接続し、例えば画像処理装置100から送信された、仮想視点映像を再生するためのモデルデータを受信する。バス137は上述の各部を接続し、データ転送を行う。
FIG. 1B is a block diagram showing a configuration of a
図2は、複数のカメラ120の配置を示した図である。サッカー競技を行うフィールド201上に複数の被写体202が存在し、複数のカメラ120がフィールド201を取り囲むように配置されている。複数のカメラ120は主に観客席などに配置され、それぞれフィールド201が収まるように焦点距離と撮影方向が設定されている。
FIG. 2 is a diagram showing the arrangement of a plurality of
図3は、画像処理装置100による送信までの一連の処理過程を示したフローチャートである。S301では、画像処理装置100は、カメラ120の撮影により得られた映像を取得し、映像中の被写体ごとに、データサイズが異なる複数の階層(図5Aにより詳述する)のモデルデータを生成する。S301の処理に関しては、図4にて詳述する。S302では、画像処理装置100は、撮影対象となる競技の指定を受け付ける。ここでは、「サッカー」、「ラグビー」、「フィギュア」などの競技名の指定を受け付ける。S303では、画像処理装置100は、S302で受け付けた競技の種別、分析装置140からのデータを基に、仮想視点映像生成に必要なモデルデータの階層が記述された属性データを生成する。図6A、図6Bの参照により後述するように、属性データは、映像中のコンテンツの属性と要求される階層とを対応付けるデータである。S303の処理に関しては、図7の参照により後述する。S304では、画像処理装置100は、属性データによって要求される階層のモデルデータを被写体ごとに選択して送信用モデルデータを構成し、表示装置であるユーザ端末130からのリクエストに応じて送信する。この送信用モデルデータの構築において、LAN108の通信帯域の使用状態なども考慮される。S304の処理に関しては、図8の参照により後述する。
FIG. 3 is a flowchart showing a series of processing processes up to transmission by the
図4は、インタラクティブな仮想視点映像の生成に必要なモデルデータを複数の階層について生成する処理を示したフローチャートであり、S301の処理の詳細を示している。S401において、画像処理装置100(CPU101)は、スタジアムや観客席などの背景モデルデータを生成する。背景モデルデータは3次元形状を構築するメッシュデータと、色を再現するためのテクスチャデータから構成され、3Dレーザスキャナや、多視点ステレオ法などを用いて生成される。 FIG. 4 is a flowchart showing a process of generating model data necessary for generating an interactive virtual viewpoint image for a plurality of layers, and shows details of the process of S301. In S401, the image processing device 100 (CPU101) generates background model data such as a stadium and spectator seats. The background model data is composed of mesh data for constructing a three-dimensional shape and texture data for reproducing colors, and is generated by using a 3D laser scanner, a multi-viewpoint stereo method, or the like.
S402において、CPU101は、カメラ120に対して、撮影時の露光が適切となるようなカメラ設定の変更と、撮影開始の信号を送信する。撮影開始の信号に応じてカメラ120は撮影を開始し、映像データをLAN108経由で画像処理装置100に転送する。画像処理装置100は、カメラ120からの映像データを受信し、メインメモリ102上に展開する。画像処理装置100は、映像データを、各カメラの映像フレームを同一のタイムコードごとにまとめた多視点フレームとして管理する。また、このとき、画像処理装置100は、各カメラの位置・姿勢をStructure from Motion等の方法を用いて算出し、記憶しておく。
In S402, the
S403において、CPU101は、映像データから被写体群の輪郭を抽出し、Visual-hullなどの方法を用いて被写体群の3次元形状・位置を生成する。被写体群の輪郭抽出は、1台のカメラのカメラ映像の全フレームにおいて中間値フィルタを用いることで取得可能である。また、3次元形状は点群データ、もしくはボクセルデータとして出力される。本処理は、全タイムコードの多視点フレームに対して実施され、多視点フレーム単位で全被写体の形状点群データ(高密度点群による形状データ)が生成される。生成された形状点群データは記憶部103に保存される。
In S403, the
S404において、CPU101は、S403で生成した形状点群データに対して、間引きを行い、残った点群をつないで面(三角形ポリゴン)を構成するメッシュ化を行い、被写体を表すメッシュを生成する。メッシュ化には、周知の技術を適用可能であり、例えばBall Pivotingなどの方法を用いることができる。CPU101は、多視点フレーム単位に生成した全ての形状点群データに対してメッシュ化の処理を実行し、得られたデータ(低密度なメッシュデータ)を記憶部103に保存する。S405において、CPU101は、S404で生成したメッシュに対して貼り付けるテクスチャデータ(被写体のテクスチャ)を生成する。被写体のテクスチャの生成には周知の技術を適用可能である。CPU101は、多視点フレーム単位に生成した全てのメッシュデータに対してテクスチャを生成し、得られたデータを記憶部103に保存する。
In S404, the
S406において、CPU101は、映像先頭のタイムコードに該当する多視点フレーム(初期フレーム)から生成されたメッシュとテクスチャを記憶部103から読み出し、メインメモリ102に展開する。S407において、CPU101は、S406で読み込んだメッシュに対してメッシュを姿勢制御するためのボーンを組み込む。ボーンは図5B(b)に示すように、人間の骨のような構造を持ち、関節502と、関節502同士をつなぐ骨組み503とを有し、メッシュ501の内部に格納される。ボーンはあらかじめ用意されており、メッシュに合わせてサイズや初期関節位置を変更することで、種々のメッシュに格納可能である。メッシュ501とボーンは連動して変形するため、関節502の位置を移動することによって、メッシュ501に様々な姿勢・動作(座る、走る、蹴るなど)を再現させることが可能である。また、各々の関節502の位置は骨組み503によって移動が制限されるため、より人間に近い動作が再現できる。
In S406, the
S408において、CPU101は、カメラ映像を用いて全被写体の関節位置を推定する。関節位置の推定には周知の技術を適用することが可能である。例えば、機械学習を用い、映像上の2次元での関節位置(x(n,i,k,t), y(n,i,k,t))を取得する。ここで、0≦x<画像の横幅、0≦y<画像の縦幅、0≦n<カメラ数、0≦i<被写体数、0≦k<関節数、0≦t<フレーム数である。少なくとも2台以上のカメラ映像において2次元関節位置を取得後、S402で求めた各カメラの位置を基に三角測量を用いて3次元での関節位置(X(i,k,t), Y(i,k,t), Z(i,k,t))を取得する。このとき、X、Y、Zは3次元空間における座標値で、0≦i<被写体数、0≦k<関節数、0≦t<フレーム数である。これにより、被写体の各関節の移動軌跡、すなわち、姿勢の変遷が取得される。
In S408, the
S409において、CPU101は、S407で生成したボーンの関節位置を、S408で生成した3次元関節位置と多視点フレーム単位で対応付け、メッシュおよびボーンを姿勢変遷化(アニメーション化)する。これによって、メッシュとテクスチャは映像先頭の多視点フレームのデータのみ用意し、関節位置の軌跡を表す少量のアニメーションデータを付加するのみで良いので、実質的にモデルデータの時間軸方向への圧縮となり、データ量を大幅に削減できる。
In S409, the
S410では、CPU101は、S403〜S409で生成したモデルデータを、図5Aの表5aに示す階層構造として保持する。表5aにおいて、階層は3段階に分かれており、それぞれ、3次元形状とテクスチャから構成される。階層3は、最高階層であり、3次元形状としてS403で生成された点群データを、テクスチャとしてS402で取得されたカメラ映像を含み、データ量が最も大きく、生成される仮想視点映像の画質が最も高い。階層2は、3次元形状としてS404で生成されたメッシュデータを含み、テクスチャとしてS405で生成されたテクスチャデータを含み、データ量および生成される仮想視点映像の画質は共に中程度である。階層1は、本実施形態では、最低階層であり、3次元形状としてS406で取得されたメッシュデータとS409で取得されたアニメーションデータを含み、テクスチャとしてS406で取得されたテクスチャデータを含む。階層1のモデルデータはデータ量が最も軽いが、仮想視点映像の画質は最も低い。階層ごとに再現可能な項目を図5B(a)の表5bにまとめた。階層が下がるにつれて、表現可能な項目が減少するため、データ送信時にはコンテンツ内容に応じて、適切な階層を選択する必要がある。
In S410, the
S411において、分析装置140が存在する場合、CPU101は、分析装置140から取得した分析データである被写体のプレー情報(シュート、パス、クリアなどのプレー内容)と、モデルデータを紐づける。これにより、例えば、シュート時の、所望の階層の3次元形状とテクスチャデータを抽出する処理などが実施可能となる。以上の処理により、階層構造を持つモデルデータの生成が完了する。
In S411, when the
図6A、図6Bは、モデルデータの圧縮に必要となる、属性データを説明した図である。本実施形態では、属性データには、競技属性、エリア属性、試合属性の3種類が存在し、圧縮効果の大きさは、試合属性>エリア属性>競技属性の順となる。各属性データには、仮想視点映像生成に要求されるモデルデータの階層(要求階層)が記述されており、競技属性、エリア属性、試合属性の順に、より細かく要求階層が分類されている。 6A and 6B are diagrams illustrating attribute data required for compression of model data. In the present embodiment, there are three types of attribute data, competition attribute, area attribute, and match attribute, and the magnitude of the compression effect is in the order of match attribute> area attribute> competition attribute. Each attribute data describes a hierarchy of model data (request hierarchy) required for virtual viewpoint image generation, and the request hierarchy is classified in the order of competition attribute, area attribute, and match attribute.
競技属性には、図6A(a)の表6aに示されるようにコンテンツの属性としての競技の種類ごとに要求階層が記述されている。例えば、アメリカンフットボール(アメフト)では、選手がヘルメットを被っており、顔が隠蔽されているため、テクスチャの要求階層は低い。一方で、フィギュアスケートやサッカーでは、選手の顔や表情をはっきり見たいというニーズがあるため、テクスチャへの要求階層が高い。また、3次元形状に関して、アメフトやサッカーでは選手のプレー位置が重要であり、形状の詳細さや動きの滑らかさに対するニーズが低いため、要求階層は低い。一方、フィギュアスケートでは、演技時の動きが重要であるため、3次元形状の要求階層は高くなる。このように、競技ごとに3次元形状とテクスチャ各々で要求階層を決定し、高い方をその競技の要求階層と定義する。 In the competition attribute, as shown in Table 6a of FIG. 6A (a), the required hierarchy is described for each type of competition as the attribute of the content. For example, in American football (American football), the player is wearing a helmet and his face is hidden, so the required level of texture is low. On the other hand, in figure skating and soccer, there is a need to clearly see the faces and facial expressions of athletes, so the level of demand for texture is high. Further, regarding the three-dimensional shape, the play position of the player is important in American football and soccer, and the need for the detail of the shape and the smoothness of movement is low, so the required hierarchy is low. On the other hand, in figure skating, movement during performance is important, so the required hierarchy of three-dimensional shape is high. In this way, the required hierarchy is determined for each of the three-dimensional shapes and textures for each competition, and the higher one is defined as the required hierarchy for the competition.
エリア属性は、図6A(c)の表6cに示されるように、それぞれの競技の競技場について、コンテンツの属性としてのエリア(競技場の一部)ごとに要求階層が記述されている。例えば、サッカーでは、図6A(b)に示すように、ゴール前であるエリア0、1は注目されるプレーの発生率が高いため、要求階層が最も高い。コーナーキック等が発生するエリア2が次に要求階層が高く、エリア0、1、2以外の領域の要求階層は低い。なお、図6A(b)ではエリア2が1か所にのみ示されているが、実際はフィールドの4隅にエリア2が設定される。以上を踏まえて、エリアの領域情報とそれに対応する要求階層を図6A(c)の表6cのように記述し、これをサッカーのエリア属性とする。一方、フィギュアスケートのように、被写体がどの領域で注目するプレーを行うのかを絞り込めない競技では、エリア属性を定義しない。
As for the area attribute, as shown in Table 6c of FIG. 6A (c), the required hierarchy is described for each area (part of the stadium) as the attribute of the content for each competition stadium. For example, in soccer, as shown in FIG. 6A (b),
試合属性では、図6Bの表6dに示すように、コンテンツの属性としてエリア、タイムコードが用いられ、エリア、タイムコードごとに要求階層が記述されている。例えば、サッカーの場合、分析装置140からどのようなプレー(シュートなど)がどのタイムコードで発生したかが取得できる。そのため、注目度の高いプレーが発生したタイムコード(期間)において要求階層を高め、それ以外のタイムコードでは要求階層を低下させるなどの処置により、圧縮効率を高めることが可能である。なお、試合属性の生成には分析装置140が必須であるため、分析装置140が接続されていない場合は、試合属性は定義できない。
In the match attribute, as shown in Table 6d of FIG. 6B, an area and a time code are used as content attributes, and a request hierarchy is described for each area and time code. For example, in the case of soccer, what kind of play (shoot, etc.) occurred at which time code can be obtained from the
図7は、属性データを生成する処理を示したフローチャートであり、S303の処理の詳細を示している。S701において、CPU101は、コンテンツにエリア属性が定義されているか否かを判断する。YESの場合はS702に、NOの場合はS704にそれぞれ処理が進む。S702において、CPU101は、コンテンツに試合属性が定義されているか否かを判断する。YESの場合はS703に、NOの場合はS705にそれぞれ処理が進む。試合属性が存在する場合(S701、S702でYES)、S703において、CPU101は、属性データとして試合属性を選択する。エリア属性が存在しない場合(S701でNO)、S704において、CPU101は、属性データとして競技属性を選択する。エリア属性が存在するが試合属性が存在しない場合(S701でYES、S702でNO)、S705において、CPU101は、属性データとしてエリア属性を選択する。S706では、選択された属性を基に、図6A,図6Bに示した表6a、6c、6dのような属性データを生成する。例えば、コンテンツにエリア属性としてエリア0,1,2の範囲を示す座標(例えば、(x0,y0)〜(x1,y1)など)が定義されている場合、CPU101はこれを用いて表6cのような属性データを生成する。また、コンテンツにエリア属性に加えて注目度の高いプレーが発生したタイムコードが含まれている場合、CPU101は、表6dのような属性データを生成する。
FIG. 7 is a flowchart showing the process of generating the attribute data, and shows the details of the process of S303. In S701, the
図8は、モデルデータを表示装置に送信する処理過程を示したフローチャートであり、S304の詳細を示している。S801において、CPU101は、サーバである画像処理装置100をクライアントである表示装置(ユーザ端末130)からのリクエスト待機状態にする。S802において、仮想視点映像の視聴者であるユーザによるユーザ端末130への所定の操作に応じて、ユーザ端末130(CPU131)は、映像再生用のアプリケーションを起動する。S803において、ユーザ端末130(CPU131)は、ユーザが視聴したいコンテンツを選択する。コンテンツ選択にはアプリケーションが用いられる。映像再生用のアプリケーションの起動後、ユーザ端末130(CPU131)は、図9に示されるようなコンテンツ選択ウィンドウ901を表示部135に表示する。ユーザは所望のアイコン902をタッチすることで、所望のコンテンツを選択することができる。コンテンツが選択されると、ユーザ端末130(CPU131)は、画像処理装置100に対してモデルデータをダウンロードするリクエストを送信する。その際、ユーザ端末130(CPU131)は、ユーザ端末130が備える表示装置(表示部135)のディスプレイ解像度、CPU131やGPUのスペック情報も画像処理装置100に送信する。
FIG. 8 is a flowchart showing a processing process of transmitting model data to the display device, and shows the details of S304. In S801, the
なお、ユーザ端末130は、コンテンツ選択ウィンドウ901を表示するために、画像処理装置100から選択対象となるコンテンツのリストを取得しておく。リストに掲載されているコンテンツの各々は、時間的に連続した1まとまりの多視点フレームに対応する。例えば、プレー内容(分析装置140による分析結果)に基づいて、そのプレーが発生した近辺のタイムコードを含む一連の多視点フレームにより1つのコンテンツが生成されてもよい。例えば、ステップS411で説明したように、プレー情報ごとに、紐づけられたモデルデータを1つのコンテンツとしてもよい。或いは、例えば、試合の前半の多視点フレームと後半の多視点フレームで別々のコンテンツが生成されてもよい。なお、各コンテンツには、プレー内容とその発生位置に基づいて自動的に設定された仮想カメラの位置、姿勢(方向)が定義されていてもよい。
The
画像処理装置100は、S801で、ユーザ端末130から送信対象のコンテンツのリクエストを受け付けると、S804以降の処理により、送信対象とする階層を決定し、決定された階層のモデルデータを送信する。まず、S804では、画像処理装置100のCPU101が通信回線の空き状況を取得する。S805において、CPU101は、ユーザ端末130から受信したスペック情報から、モデルデータのスペック階層を設定する。例えば、CPUやGPUの性能がローエンドであれば、処理負荷の高い階層3や階層2のモデルデータを処理できないので、スペック階層を階層1に設定する。また、ディスプレイ解像度が低い場合は、階層間の差異が認識しにくいので、スペック階層を階層2以下(すなわち階層1または階層2)に設定する。S806では、CPU101は、S805で設定されたたスペック階層が階層1であるか否かを判断する。階層1である場合は、処理はS811に進み、それ以外の場合は、処理はS807に進む。
When the
S807において、CPU101は、S303で生成された属性データを用いて送信用モデルデータを生成する。送信用モデルデータは、図11に示すように、タイムコードごとに生成される。図11(a)はタイムコード0番目における送信用データである。データ構造を記述するヘッダ部と、背景モデルデータ、被写体モデルデータから構成され、被写体ごと(選手ごと)に要求階層に応じた階層のデータを保持する。ただし、全ての被写体が最低階層である階層1のモデルデータを必ず保持するものとする。これは、後述する仮想視点映像生成時に利用するためである。図11(b)はタイムコード1番目の送信用データを示す。背景モデルデータは重複するため、削減されている。また、各被写体のモデルデータの階層も属性データに合わせて変更されている。これらを全タイムコード分つなぎ合わせたものが、送信用モデルデータとなる。このとき、要求階層がスペック階層よりも上位の階層である場合、その要求階層をスペック階層まで引き下げる。このように表示装置(ユーザ端末130の表示部135)の能力に基づいて送信用モデルデータを構成するモデルデータの階層が制限される。
In S807, the
S808では、CPU101は、S804で取得した通信回線の空き状況と、S807で生成した送信用モデルデータのサイズから、送信用モデルデータを送信可能であるかを判断する。通信可能と判断された(YES)場合、処理はS814に進み、通信できないと判断された(NO)場合、処理はS809に進む。S809において、CPU101は、属性データに記述されている要求階層を1段階低下させて送信用モデルデータを生成する。例えば、図6A(c)の表6cのエリア0の要求階層は3から2に、エリア2の要求階層は2から1に低下させる。ただし、要求階層が1である場合は、それ以上低下させない。S810では、CPU101は、S804で取得した通信回線の空き状況とS809で生成した送信用モデルデータのサイズから、送信用モデルデータを送信可能であるかを判断する。送信可能な場合、処理はS814に進み、送信可能でない場合、処理はS811に進む。S811では、CPU101はすべての要求階層を1に設定して送信用モデルデータを生成する。S812では、CPU101は、S804で取得した通信回線の空き状況と、S811で生成した送信用データのサイズから、送信用モデルデータを送信可能であるかを判断する。YESの場合、処理はS814に進み、NOの場合、処理はS813に進む。S813では、CPU101は、通信回線に空き容量が出るまで(他のユーザが通信を完了するまで)待機する。S814では、送信用モデルデータを画像処理装置100から表示装置(ユーザ端末130)に送信する。
In S808, the
S815では、ユーザ端末130(CPU131)がモデルデータを受信する。S816では、CPU131が、受信したモデルデータを用いて仮想視点映像を生成し、表示部135に再生する。ユーザ端末130においてアプリケーションを実行しているCPU131は、画像処理装置100からモデルデータを受信すると、図9(b)に示されるような仮想視点ウィンドウ903に遷移する。仮想視点ウィンドウ903では、選手モデルデータ904、背景モデルデータ905が表示されており、画面へのタッチ操作等に応じて任意のカメラ位置/方向/画角で映像を表示することが可能である。また、タイムコードスライダバー906を用いて、任意のタイムコードの映像に移動することも可能である。以下、図10を参照して、仮想視点映像の生成に関して説明する。
In S815, the user terminal 130 (CPU131) receives the model data. In S816, the
図10は、ユーザ端末130による仮想視点映像生成の処理を説明したフローチャートであり、S816の詳細を示している。S1001では、CPU131は、ユーザのタッチ操作に合わせた仮想カメラの位置、方向、画角を設定する。S1002では、CPU131は、階層1のモデルデータを用いて、設定された仮想カメラの位置、方向、画角における映像生成を行う(映像1)。映像生成は、周知のコンピュータグラフィックスの技術を用いることで実施可能である。
FIG. 10 is a flowchart illustrating the process of generating the virtual viewpoint image by the
S1003では、CPU131は、送信されたモデルデータに階層2のモデルデータが存在するか否かを判断する。YESの場合、処理はS1004に進み、NOの場合、処理はS1005に進む。S1004において、CPU131は、階層2のモデルデータを用いて、設定された仮想カメラの位置、方向、画角における映像生成を行う(映像2)。S1005において、CPU131は、送信されたモデルデータに階層3のモデルデータが存在するか否かを判断する。YESの場合、処理はS1006に進み、NOの場合、処理はS1007に進む。S1006では、CPU131は、階層3のモデルデータを用いて、設定された仮想カメラの位置、方向、画角における映像生成を行う(映像3)。
In S1003, the
S1007では、CPU131は、連続するタイムコード間(前タイムコードと現タイムコード)で選手モデルの階層に差異があるかを判断する。これは、例えば、タイムコード0では選手2の階層が1であるが、タイムコード1では階層が3になるようなケースである。差異がある場合、処理はS1008に進み、差異がない場合、処理はS1009に進む。S1008では、CPU131は、映像1と映像2、3を合成(たとえばアルファブレンディング)して被写体映像を生成する。これは、タイムコード間で階層に差異がある場合、画質が急激に変動することを防ぐためである。一方、S1009では、CPU131は、映像1の被写体領域を高画質の映像2または映像3で置換して被写体映像を生成する。S1010では、CPU131は、背景モデルをレンダリングして背景映像を生成する。S1011では、CPU131は、被写体映像と背景映像を合成し、仮想視点映像を生成する。なお、S1007において、タイムコード0では選手2の階層が2であるが、タイムコード1では階層が1になるようなケース(連続するタイムコードにおいて階層が低下するケース)では、差異がないと判断している。このようなケースでは、被写体の重要度が低下しており、画質が急激に変化しても問題がないためである。なお、上記では階層1の映像から階層2または3の映像に変化した場合に映像の合成を行うようにし、他の場合には合成を行わないようにしたが、これに限られるものではない。例えば、被写体のモデルデータの階層が変化した場合に変化前の階層の被写体映像と変化後の階層の被写体映像を合成するようにしてもよい。
In S1007, the
以上説明したように、第1実施形態の画像処理装置によれば、被写体ごとの3次元のモデルデータが複数の階層で生成され、競技や実試合の分析結果などのコンテンツの特性を基に被写体の重要度が決定される。そして、重要度に応じて送信用モデルデータを構成するモデルデータの階層が設定されるので、インタラクティブ操作に対応した仮想視点映像のためのモデルデータを適切に生成し、且つ、効率よく送信することができる。 As described above, according to the image processing apparatus of the first embodiment, three-dimensional model data for each subject is generated in a plurality of layers, and the subject is based on the characteristics of the content such as the analysis result of the competition or the actual game. The importance of is determined. Then, since the hierarchy of the model data that constitutes the model data for transmission is set according to the importance, the model data for the virtual viewpoint video corresponding to the interactive operation should be appropriately generated and efficiently transmitted. Can be done.
<第2実施形態>
第2実施形態では、被写体の競技への関与度と注目度、ユーザの嗜好性から属性データを修正する構成に関して説明する。なお、第1実施形態と重複するシステム、処理の説明は省略する。
<Second Embodiment>
In the second embodiment, the configuration for modifying the attribute data from the degree of involvement and attention of the subject in the competition and the preference of the user will be described. The description of the system and the process that overlap with the first embodiment will be omitted.
第1実施形態では、競技の種類、エリア、重要なプレー等の発生イベントを用いて、各被写体のモデルデータの重要性を判断し、使用する階層を決定した。第2実施形態では、さらに被写体である選手の注目度(例えば、有名選手か否か)、ユーザの嗜好性(例えば、好きな選手か否か)、競技への関与度(例えば、ボールとの距離)を用いて要求階層を変更する。図12(a)において、表12aは、注目度、嗜好性、関与度に基づく階層の変更例を示している。ボールと選手との距離である関与度は、CPU101が、映像データを解析して自動的に取得する。注目度、嗜好性は、ユーザ端末130上の所定のユーザインターフェースを介してユーザが設定した内容である。ユーザによる設定は、ユーザ端末130から通信により画像処理装置100へ通知される。表12aの要求階層の欄は、属性データに基づいて決定された各被写体のモデルデータの階層の例である。また、表12aのS1201、S1203の欄に記載された階層は、それぞれ、図12(b)のフローチャートのS1201、S1203において、注目度、嗜好性、関与度に基づいて変更された後の階層を示している。
In the first embodiment, the importance of the model data of each subject is determined by using the occurrence event such as the type of competition, the area, and the important play, and the hierarchy to be used is determined. In the second embodiment, the degree of attention of the player who is the subject (for example, whether or not it is a famous player), the user's preference (for example, whether or not it is a favorite player), and the degree of involvement in the competition (for example, with the ball). Change the request hierarchy using distance). In FIG. 12 (a), Table 12a shows an example of changing the hierarchy based on the degree of attention, the degree of preference, and the degree of involvement. The
図12(b)は、図3のS303において属性データを生成した後に、各被写体(選手)について行う階層の変更処理を説明したフローチャートである。S1201において、画像処理装置100のCPU101は、表12a中の注目度と嗜好性に基づいて、各選手の階層を変更する。例えば、注目度、嗜好性がともに低い選手については、要求階層を1つ下げる、注目度と嗜好性がともに高い選手については要求階層を最高階層にするといった、あらかじめ設定されたルールに従って階層が変更される。本例では、選手Nは要求階層が階層1であったが、注目度、嗜好性が高いため、階層を3に引き上げている。一方、選手1は要求階層が階層2であったが、注目度、嗜好性が低いため、階層を1に引き下げている。
FIG. 12B is a flowchart illustrating a layer change process performed for each subject (player) after the attribute data is generated in S303 of FIG. In S1201, the
S1202では、CPU101は、変動前後で送信用モデルデータのサイズが増加するか否かを判断する。YESの場合はS1203に進み、NOの場合は処理を終了する。S1203では、送信用モデルデータのサイズを下げるため、表12aの関与度(ボールとの距離)に応じて、階層を引き下げる。例えば、選手2はS1201後において階層3であったが、ボールとの距離が離れているため、競技への関与度が低いと判断し、階層2に引き下げる。
In S1202, the
以上説明したように、第2実施形態によれば、被写体ごとに生成された複数の階層のモデルデータから使用する階層を選択するにおいて、被写体の注目度、ユーザの嗜好性、競技への関与度というような、個々の被写体に関する属性が考慮される。結果、より適切な送信用モデルデータを生成することができ、インタラクティブ操作に対応した仮想視点映像のためのモデルデータを効率よく送信することができる。なお、上記では、個々の被写体に関する属性として、関与度、注目度、嗜好性を例示したが、これらに限られるものではない。また、S1201では注目度と嗜好性の両方を考慮したが、いずれか一方を考慮する構成であってもよい。 As described above, according to the second embodiment, in selecting the layer to be used from the model data of a plurality of layers generated for each subject, the degree of attention of the subject, the preference of the user, and the degree of involvement in the competition. Attributes related to individual subjects, such as, are considered. As a result, more appropriate model data for transmission can be generated, and model data for virtual viewpoint video corresponding to interactive operation can be efficiently transmitted. In the above, the degree of involvement, the degree of attention, and the preference are exemplified as the attributes related to each subject, but the attributes are not limited to these. Further, in S1201, both the degree of attention and the palatability are taken into consideration, but a configuration may be made in which either one is taken into consideration.
<第3実施形態>
第2実施形態では、個々の被写体に設定される属性に基づいて要求階層を変更する構成を説明した。第3実施形態では、3次元モデルデータをストリーム送信する際に、仮想カメラの位置、姿勢、画角に応じて要求階層を変更し、送信用モデルデータを最適化する構成に関して説明する。なお、第1実施形態、第2実施形態と重複するシステム、処理の説明は省略する。
<Third Embodiment>
In the second embodiment, a configuration for changing the request hierarchy based on the attributes set for each subject has been described. In the third embodiment, when the three-dimensional model data is stream-transmitted, the request hierarchy is changed according to the position, posture, and angle of view of the virtual camera, and the configuration for optimizing the transmission model data will be described. The description of the system and the process overlapping with the first embodiment and the second embodiment will be omitted.
ストリーム送信では、画像処理装置100からタイムコードMのモデルデータを送信し、表示装置で受信・再生を行う。その後、ユーザ端末130から仮想カメラの位置・姿勢をフィードバックし、それを基に、画像処理装置100はタイムコードM+1のモデルデータを送信する。このような処理を順次繰り返すことにより、全データの受信を待たずに、表示装置でインタラクティブな仮想視点映像再生が可能である。このとき、前タイムコードの仮想カメラ位置・姿勢を考慮することにより、より最適な階層を選択することが可能である。
In stream transmission, model data of time code M is transmitted from the
図13(a)は、あるタイムコードMでの仮想カメラの位置/姿勢/画角を表している。このとき、仮想カメラの画角内および画角内に近い選手は、次のタイムコードにおいても映像に含まれる可能性が高い。一方、画角内から遠く離れた選手は、映像に含まれる可能性が低い。また、仮想カメラとの距離が離れている場合は画質として階層間の差異が発生しにくい。これらの項目をまとめると図13(b)の表13bのようになる。なお、表13bにおいては、属性データに基づいて設定された要求階層が図13(c)の処理(ステップS1301、S1303)により変更される例が示されている。 FIG. 13A shows the position / posture / angle of view of the virtual camera at a certain time code M. At this time, players within the angle of view of the virtual camera and close to the angle of view are likely to be included in the video even in the next time code. On the other hand, players far from the angle of view are unlikely to be included in the video. Further, when the distance from the virtual camera is long, the difference in image quality between layers is unlikely to occur. These items are summarized in Table 13b of FIG. 13 (b). Note that Table 13b shows an example in which the request hierarchy set based on the attribute data is changed by the process (steps S1301 and S1303) of FIG. 13 (c).
図13(c)は、ストリーミング中に階層調整を行う処理を説明したフローチャートである。S1301において、CPU101は、各選手がカメラの画角内(〇)か否(×)か、もしくは画角に近い領域に存在するか(△)、という項目と、仮想カメラと選手間の距離とを用いて、要求階層を変更する。例えば、選手Nは要求階層が1であったが、画角内に近く、仮想カメラとの距離が短いため、階層を3に引き上げる。一方、選手2は要求階層が3であったが、仮想カメラとの距離が長いため、階層を2に引き下げる。
FIG. 13C is a flowchart illustrating a process of performing layer adjustment during streaming. In S1301, the
S1302では、CPU101は、変更の前後で送信用データのサイズが増加するか否かを判断する。YESの場合、処理はS1303に進み、NOの場合は処理を終了する。S1303では、CPU101は、サイズを下げるため、仮想カメラの移動速度と、仮想カメラと選手間の距離に応じて、階層を引き下げる。なお、仮想カメラの移動速度は前フレームおよびそれ以前のフレームにおける位置姿勢の変化量に基づいて計算される。例えば、仮想カメラの移動速度が高速の場合を考える。このとき、選手2はS1301後において階層2であったが、仮想カメラとの距離が離れているため、映像内をかなり高速に移動することになる。そのため、階層ごとの画質の差異はほとんど発生しないと判断し、階層1に引き下げる。
In S1302, the
以上説明したように、第3実施形態によれば、ユーザ端末において指定されている仮想カメラの位置/姿勢/画角を基に被写体の階層が変更されるので、仮想カメラの状態に応じて適切な送信用モデルデータを生成することができる。なお上記の実施形態では、被写体ごとにデータサイズが異なる複数の階層のモデルデータを生成する例を中心に説明した。しかし、複数の被写体のうち、1又は複数の特定の被写体についてのみ複数の階層のモデルデータを生成するようにしても良い。 As described above, according to the third embodiment, the hierarchy of the subject is changed based on the position / posture / angle of view of the virtual camera specified in the user terminal, so that it is appropriate according to the state of the virtual camera. It is possible to generate model data for transmission. In the above embodiment, an example of generating model data of a plurality of layers having different data sizes for each subject has been mainly described. However, the model data of a plurality of layers may be generated only for one or a plurality of specific subjects among the plurality of subjects.
<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Other embodiments>
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
100:画像処理装置、101:CPU、102:メインメモリ、103:記憶部、104:入力部、105:表示部、106:外部I/F部、108:LAN、120:カメラ、130:ユーザ端末、140:分析装置 100: Image processing device, 101: CPU, 102: Main memory, 103: Storage unit, 104: Input unit, 105: Display unit, 106: External I / F unit, 108: LAN, 120: Camera, 130: User terminal , 140: Analyzer
本発明の一態様による送信装置は以下の構成を有する。すなわち、
複数の撮影装置が被写体を撮影することにより得られる複数の撮影画像に基づく仮想視点画像の生成に使用される三次元形状データであって、特定の被写体の三次元形状を表す被写体の三次元形状データと、前記特定の被写体とは異なるオブジェクトに対応する背景の三次元形状を表す背景の三次元形状データとを他の装置に送信する送信手段と、
前記送信手段により前記背景の三次元形状データが送信される頻度が、前記特定の被写体の三次元形状データが送信される頻度よりも少なくなるように制御する制御手段と
を有する。
The transmission device according to one aspect of the present invention has the following configuration. That is,
Three-dimensional shape data used to generate a virtual viewpoint image based on a plurality of captured images obtained by photographing a subject by a plurality of photographing devices, and is a three-dimensional shape of a subject representing the three-dimensional shape of a specific subject. A transmission means for transmitting data and background three-dimensional shape data representing a background three-dimensional shape corresponding to an object different from the specific subject to another device.
It has a control means for controlling the frequency at which the three-dimensional shape data of the background is transmitted by the transmission means to be less than the frequency at which the three-dimensional shape data of the specific subject is transmitted .
Claims (19)
前記決定手段により決定される三次元形状データを他の装置に送信する送信手段と、
を有することを特徴とする送信装置。 A plurality of three-dimensional shape data generated based on a plurality of captured images obtained by imaging performed by a plurality of photographing devices, the three-dimensional shape data represented by a point cloud or a voxel, and the third order represented by a mesh. A determination means for determining the 3D shape data used for generating the virtual viewpoint image from the original shape data and a plurality of 3D shape data including the original shape data.
A transmission means for transmitting the three-dimensional shape data determined by the determination means to another device, and
A transmitter characterized by having.
前記複数の撮影装置により第1の撮影対象が撮影される場合、前記第1の撮影対象に関する仮想視点画像の生成に使用される三次元形状データとして、点群又はボクセルにより表される三次元形状データを決定し、
前記複数の撮影装置により、前記第1の撮影対象とは異なる第2の撮影対象が撮影される場合、前記第2の撮影対象に関する仮想視点画像の生成に使用される三次元形状データとして、メッシュにより表される三次元形状データを決定する
ことを特徴とする請求項2乃至5のいずれか1項に記載の送信装置。 The determination means is
When the first shooting target is shot by the plurality of shooting devices, the three-dimensional shape represented by a point cloud or a voxel is used as the three-dimensional shape data used to generate the virtual viewpoint image for the first shooting target. Determine the data,
When a second shooting target different from the first shooting target is shot by the plurality of shooting devices, the mesh is used as three-dimensional shape data used to generate a virtual viewpoint image for the second shooting target. The transmitting device according to any one of claims 2 to 5, wherein the three-dimensional shape data represented by the above is determined.
前記複数の撮影画像に基づいて、点群により表される第1の三次元形状データを生成し、
生成した前記第1の三次元形状データに基づいて、メッシュにより表される第2の三次元形状データを生成する
ことを特徴とする請求項15に記載の送信装置。 The determination means is
Based on the plurality of captured images, a first three-dimensional shape data represented by a point cloud is generated.
The transmission device according to claim 15, wherein a second three-dimensional shape data represented by a mesh is generated based on the generated first three-dimensional shape data.
前記決定工程において決定される三次元形状データを他の装置に送信する送信工程と、
を有することを特徴とする送信方法。 A plurality of three-dimensional shape data generated based on a plurality of captured images obtained by imaging performed by a plurality of photographing devices, the three-dimensional shape data represented by a point cloud or a voxel, and the third order represented by a mesh. A determination process for determining the 3D shape data used to generate the virtual viewpoint image from the original shape data and a plurality of 3D shape data including the original shape data.
A transmission step of transmitting the three-dimensional shape data determined in the determination step to another device, and
A transmission method characterized by having.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021132062A JP7204843B2 (en) | 2019-08-07 | 2021-08-13 | Transmission device, transmission method, and program |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019145658A JP6931375B2 (en) | 2018-11-02 | 2019-08-07 | Transmitter, transmission method, program |
JP2021132062A JP7204843B2 (en) | 2019-08-07 | 2021-08-13 | Transmission device, transmission method, and program |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019145658A Division JP6931375B2 (en) | 2018-11-02 | 2019-08-07 | Transmitter, transmission method, program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021182443A true JP2021182443A (en) | 2021-11-25 |
JP7204843B2 JP7204843B2 (en) | 2023-01-16 |
Family
ID=78606689
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021132062A Active JP7204843B2 (en) | 2019-08-07 | 2021-08-13 | Transmission device, transmission method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7204843B2 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004206338A (en) * | 2002-12-25 | 2004-07-22 | Mitsubishi Electric Corp | System and method for distributing information, client terminal, server, distribution request program, computer readable recording medium for recording the program, distribution planning program, computer readable recording medium for recording the program, distribution program, and computer readable recording medium for recording the program |
WO2015159487A1 (en) * | 2014-04-14 | 2015-10-22 | パナソニックIpマネジメント株式会社 | Image delivery method, image reception method, server, terminal apparatus, and image delivery system |
-
2021
- 2021-08-13 JP JP2021132062A patent/JP7204843B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004206338A (en) * | 2002-12-25 | 2004-07-22 | Mitsubishi Electric Corp | System and method for distributing information, client terminal, server, distribution request program, computer readable recording medium for recording the program, distribution planning program, computer readable recording medium for recording the program, distribution program, and computer readable recording medium for recording the program |
WO2015159487A1 (en) * | 2014-04-14 | 2015-10-22 | パナソニックIpマネジメント株式会社 | Image delivery method, image reception method, server, terminal apparatus, and image delivery system |
Non-Patent Citations (2)
Title |
---|
伊藤 貴之 他: "コンピュータ・グラフィックスの基本的テクノロジーと最近の話題", 情報処理, vol. 第38巻 第3号, JPN6022029725, 15 March 1997 (1997-03-15), JP, pages 176 - 181, ISSN: 0004828224 * |
北原 格 他: "大規模空間の多視点映像を用いた運動視差の再現可能な自由視点映像の生成・提示方式", 画像電子学会誌, vol. 第31巻 第4号, JPN6022029723, 25 July 2002 (2002-07-25), JP, pages 477 - 486, ISSN: 0004828223 * |
Also Published As
Publication number | Publication date |
---|---|
JP7204843B2 (en) | 2023-01-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102215166B1 (en) | Providing apparatus, providing method and computer program | |
JP6309749B2 (en) | Image data reproducing apparatus and image data generating apparatus | |
JP6407460B1 (en) | Image processing apparatus, image processing method, and program | |
US9998664B1 (en) | Methods and systems for non-concentric spherical projection for multi-resolution view | |
JP2006107213A (en) | Stereoscopic image printing system | |
JP7353782B2 (en) | Information processing device, information processing method, and program | |
US11503272B2 (en) | Information processing apparatus, information processing method and storage medium | |
JP2022522504A (en) | Image depth map processing | |
JP6572368B2 (en) | Generating apparatus, generating method, and program | |
JP5834423B2 (en) | Terminal device, display method, and program | |
KR101644496B1 (en) | System of Providing Advertisement Service Using Game Video | |
JP2012175324A5 (en) | ||
JP6931375B2 (en) | Transmitter, transmission method, program | |
JP7204843B2 (en) | Transmission device, transmission method, and program | |
JP7296735B2 (en) | Image processing device, image processing method and program | |
JP2020013470A (en) | Information processing device, information processing method, and program | |
JP7277184B2 (en) | Information processing device, information processing method and program. | |
CN111344744A (en) | Method for presenting a three-dimensional object, and related computer program product, digital storage medium and computer system | |
US20210400255A1 (en) | Image processing apparatus, image processing method, and program | |
JP2020095465A (en) | Image processing device, image processing method, and program | |
Jie et al. | Case Study of PreVis Work Process of VR movie |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210910 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210910 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220606 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220719 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220913 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221205 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221228 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7204843 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |