JP2023124647A - Video display system, and video display method - Google Patents

Video display system, and video display method Download PDF

Info

Publication number
JP2023124647A
JP2023124647A JP2022028537A JP2022028537A JP2023124647A JP 2023124647 A JP2023124647 A JP 2023124647A JP 2022028537 A JP2022028537 A JP 2022028537A JP 2022028537 A JP2022028537 A JP 2022028537A JP 2023124647 A JP2023124647 A JP 2023124647A
Authority
JP
Japan
Prior art keywords
video
image quality
area
image
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022028537A
Other languages
Japanese (ja)
Inventor
健敏 越智
Taketoshi Ochi
昌昭 星田
Masaaki Hoshida
博一 杉山
Hirokazu Sugiyama
雅之 熊澤
Masayuki Kumazawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2022028537A priority Critical patent/JP2023124647A/en
Publication of JP2023124647A publication Critical patent/JP2023124647A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Cameras In General (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

To provide a video display system capable of providing video depending on the communication environment by appropriately determining the image quality of the video within and outside the user's viewing direction considering real-time communication bandwidth estimation results.SOLUTION: The video display system includes: a video processing unit that holds multiple image data picked up by multiple cameras; and a video display unit connected to the video processing unit to communicate with the same. The video processing unit is configured so as to generate first video data of an installation area of multiple cameras using multiple image data, estimate the communication band with the video display unit, obtain the direction in which a user is looking from the video display unit, generate second video data according to the direction and the estimation result of the communication band from the first video data, and transmit the generated second video data to the video display unit.SELECTED DRAWING: Figure 7

Description

本開示は、映像表示システムおよび映像表示方法に関する。 The present disclosure relates to a video display system and a video display method.

特許文献1には、撮影手段と、撮影手段により撮影された撮影データの解像度を変更する画質変更手段と、を有する移動体と、操作者が移動体を遠隔操作するための操作手段と、操作手段を操作する操作者が装着し、移動体の画質変更手段から送信された撮影データの画像のうち、操作者の向きに応じた所定範囲を切出し、切出した所定範囲の画像を操作者に対して表示する表示手段と、を備える、遠隔操作システムが開示されている。遠隔操作システムの画質変更手段は、移動体の移動速度が高くなる場合、および、操作手段を介して撮影手段により撮影された撮影データのフレームレートを増加させる設定変更が行われた場合、のうちの少なくとも一方の場合、撮影データのフレームレートを増加させ、フレームレートの増加に応じて、撮影手段の撮影データの解像度を低下させる。 Patent Literature 1 discloses a moving body having a photographing means and an image quality changing means for changing the resolution of photographed data photographed by the photographing means, an operation means for an operator to remotely operate the movable body, an operation A predetermined range corresponding to the orientation of the operator is cut out from the image of the photographed data transmitted from the image quality changing means of the moving body worn by the operator who operates the means, and the cut out image of the predetermined range is sent to the operator. A remote control system is disclosed, comprising: a display means for displaying an image. The image quality changing means of the remote control system is provided when the moving speed of the moving object increases and when the setting is changed to increase the frame rate of the image data captured by the image capturing means via the operation means. In at least one of the above cases, the frame rate of the photographed data is increased, and the resolution of the photographed data of the photographing means is reduced in accordance with the increase in the frame rate.

特開2019-134383号公報JP 2019-134383 A

近年、ユーザの周囲を上下前後左右といった全方位(つまり、360度の全天球の範囲)の映像(以下、全天球映像と称する。)を撮像可能なカメラ(以下、全天球カメラと称する。)が登場し始めている。また、特定の被写体をその被写体を囲むように全周囲方向(つまり、360度の範囲からその被写体を見る方向)の映像(以下、全周囲映像と称する。)を撮像可能な複数のカメラを用いた撮像システムが登場し始めている。全天球映像および全周囲映像のいずれからも、所定の画像処理を経ることで、ユーザが見たい方向(視野方向)の映像を切り出して表示することが可能である。 In recent years, a camera capable of capturing an image (hereinafter referred to as an omnidirectional image) in all directions (that is, a 360-degree omnidirectional range) around the user (hereinafter referred to as an omnidirectional camera) ) are beginning to emerge. In addition, a plurality of cameras capable of capturing an image (hereinafter referred to as a omnidirectional image) in all directions surrounding a specific subject (that is, the direction in which the subject is viewed from a 360-degree range) is used. imaging systems are beginning to emerge. By performing predetermined image processing on both the omnidirectional video and the omnidirectional video, it is possible to extract and display the video in the direction (viewing direction) that the user wants to see.

特許文献1では、全天球映像とヘッドマウントディスプレイとを用いた移動体を遠隔的に操作するための遠隔操作システムが開示されている。遠隔操作システムは、移動体の移動速度に応じてフレームレートと撮像データの解像度を調整することで、移動体が高速移動している際の没入感維持と通信負荷低減とを両立する。しかしながら、特許文献1では、移動体から送信される撮像データの通信帯域の考慮がなされていない。このため、例えば移動体から操作者が装着する表示手段までが不安定な無線環境では、設定した解像度に対し、所望のフレームレートが得られない場合があり、あるいは、利用可能な通信帯域が十分に活用されない(例えば、設定した解像度よりも高解像度な撮像データの送信が可能であるが、そのような設定がなされない)場合がある。 Patent Literature 1 discloses a remote control system for remotely controlling a moving object using an omnidirectional image and a head-mounted display. The remote control system adjusts the frame rate and the resolution of the imaging data according to the moving speed of the moving object, thereby maintaining both a sense of immersion and reducing the communication load when the moving object is moving at high speed. However, in Patent Document 1, no consideration is given to the communication band of imaging data transmitted from a mobile object. For this reason, for example, in an unstable wireless environment from the mobile object to the display means worn by the operator, the desired frame rate may not be obtained with respect to the set resolution, or the available communication band may not be sufficient. (For example, it is possible to transmit imaging data with a resolution higher than the set resolution, but such a setting is not made).

本開示は、上述した従来の状況に鑑みて案出され、リアルタイムの通信帯域の推定結果を考慮してユーザの視野方向内および視野方向外の映像の画質を適切に決定し、通信環境に応じた映像を提供する映像表示システムおよび映像表示方法を提供することを目的とする。 The present disclosure has been devised in view of the above-described conventional situation, appropriately determines the image quality of the video within and outside the user's viewing direction in consideration of the estimation result of the real-time communication band, and according to the communication environment. An object of the present invention is to provide an image display system and an image display method that provide an image that has been reproduced.

本開示は、複数のカメラにより撮像された複数の撮像データを保持する映像処理装置と、前記映像処理装置と通信可能に接続された映像表示装置と、を備え、前記映像処理装置は、前記複数の撮像データを用いて、前記複数のカメラの設置エリアの第1の映像データを生成し、前記映像表示装置との通信帯域を推定し、前記映像表示装置からユーザが見ている方向を取得し、前記第1の映像データから、前記方向と前記通信帯域の推定結果とに応じた第2の映像データを生成し、生成された前記第2の映像データを前記映像表示装置に送信する、映像表示システムを提供する。 The present disclosure includes a video processing device holding a plurality of image data captured by a plurality of cameras, and a video display device communicably connected to the video processing device, wherein the video processing device includes the plurality of generating first image data of an area where the plurality of cameras are installed using the imaging data of the image display device, estimating a communication band with the image display device, and acquiring a direction in which the user is looking from the image display device; , generating second image data according to the direction and the estimation result of the communication band from the first image data, and transmitting the generated second image data to the image display device; Provide a display system.

また、本開示は、映像表示装置と通信可能に接続され、複数のカメラにより撮像された複数の撮像データを保持する映像処理装置により行われる映像表示方法であって、前記複数の撮像データを用いて、前記複数のカメラの設置エリアの第1の映像データを生成し、前記映像表示装置との通信帯域を推定し、前記映像表示装置からユーザが見ている方向を取得し、前記第1の映像データから、前記方向と前記通信帯域の推定結果とに応じた第2の映像データを生成し、生成された前記第2の映像データを前記映像表示装置に送信する、映像表示方法を提供する。 Further, the present disclosure is a video display method performed by a video processing device that is communicably connected to a video display device and holds a plurality of image data captured by a plurality of cameras, wherein the image display method uses the plurality of image data. to generate first video data of the installation area of the plurality of cameras, estimate a communication band with the video display device, obtain the direction in which the user is looking from the video display device, A video display method for generating second video data according to the direction and the estimation result of the communication band from the video data, and transmitting the generated second video data to the video display device. .

なお、これらの包括的または具体的な態様は、システム、装置、方法、集積回路、コンピュータプログラム、または、記録媒体で実現されてもよく、システム、装置、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。 In addition, these generic or specific aspects may be realized by systems, devices, methods, integrated circuits, computer programs, or recording media. may be realized by any combination of

本開示によれば、リアルタイムの通信帯域の推定結果を考慮してユーザの視野方向内および視野方向外の映像の画質を適切に決定し、通信環境に応じた映像を提供することができる。 According to the present disclosure, it is possible to appropriately determine the image quality of the video within and outside the user's visual field direction in consideration of the estimation result of the real-time communication band, and to provide the video according to the communication environment.

本実施の形態の全天球カメラを用いた映像表示システムのシステム構成の一例を示す図FIG. 1 is a diagram showing an example of a system configuration of a video display system using an omnidirectional camera according to the present embodiment; 本実施の形態の全天球映像の概念を示す図A diagram showing the concept of omnidirectional video according to the present embodiment. 本実施の形態の全周囲カメラを用いた映像表示システムのシステム構成の一例を示す図FIG. 1 is a diagram showing an example of a system configuration of a video display system using an omnidirectional camera according to the present embodiment; 本実施の形態の全周囲映像の概念を示す図A diagram showing the concept of the omnidirectional video according to the present embodiment. 本実施の形態の映像表示システムのブロック図Block diagram of the image display system of this embodiment 本実施の形態の映像処理装置の動作手順の一例を説明するフローチャートFlowchart for explaining an example of the operation procedure of the video processing device according to the present embodiment 本実施の形態の映像処理装置と映像表示装置との動作手順の一例を説明するシーケンス図FIG. 2 is a sequence diagram for explaining an example of the operation procedure of the video processing device and the video display device according to the present embodiment; 利用可能な通信帯域と高画質エリアの面積もしくは視点の数との関係を表した図A diagram showing the relationship between the available communication bandwidth and the area of the high image quality area or the number of viewpoints 利用可能な通信帯域と高画質エリアの画質との関係を表した図A diagram showing the relationship between the available communication bandwidth and the image quality of the high image quality area 利用可能な通信帯域と低画質エリアの画質との関係を表した図A diagram showing the relationship between the available communication bandwidth and the image quality of the low image quality area 通信帯域が広くなった場合の映像コンテンツ解析による制御例を表した図Diagram showing an example of control by video content analysis when communication bandwidth is widened 通信帯域が広くなった場合の、視聴側の視線移動もしくは視点切替解析による制御例を表した図A diagram showing an example of control by analysis of the viewing side's line of sight movement or viewpoint switching when the communication band is widened. 全天球映像の高画質エリアと低画質エリアとを表した図A diagram showing the high image quality area and the low image quality area of the omnidirectional image. 全周囲映像の各視点の高画質エリアと低画質エリアとを表した図A diagram showing the high image quality area and the low image quality area for each viewpoint in the omnidirectional image.

以下、図面を適宜参照して、本開示に映像表示システムおよび映像表示方法を具体的に開示した実施の形態について、詳細に説明する。ただし、必要以上に詳細な説明は省略する場合がある。例えば、すでによく知られた事項の詳細説明及び実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。なお、添付図面及び以下の説明は、当業者が本開示を十分に理解するために提供されるのであって、これらにより特許請求の記載の主題を限定することは意図されていない。 Hereinafter, embodiments specifically disclosing a video display system and a video display method in the present disclosure will be described in detail with reference to the drawings as appropriate. However, more detailed description than necessary may be omitted. For example, detailed descriptions of well-known matters and redundant descriptions of substantially the same configurations may be omitted. This is to avoid unnecessary verbosity in the following description and to facilitate understanding by those skilled in the art. It should be noted that the accompanying drawings and the following description are provided to allow those skilled in the art to fully understand the present disclosure and are not intended to limit the subject matter of the claims.

図1は、本実施の形態の全天球カメラを用いた映像表示システムのシステム構成の一例を示す図である。図1に示すように、映像表示システム1は、カメラ23(ここでは全天球カメラ23A)とプロセッサ22とを少なくとも含む映像処理装置2と、携帯端末300とヘッドマウントディスプレイ301とのうち少なくとも1つを含む映像表示装置3と、を含む。 FIG. 1 is a diagram showing an example of a system configuration of a video display system using an omnidirectional camera according to this embodiment. As shown in FIG. 1, a video display system 1 includes a video processing device 2 including at least a camera 23 (here, an omnidirectional camera 23A) and a processor 22; and a video display device 3 including one.

カメラ23は、例えば図1では、複数の異なる方向を光軸としたレンズ200a、200bを含む全天球カメラ23Aである。全天球カメラ23Aは、複数のレンズ200a、200bによって複数の異なる視野方向を撮像可能なカメラである。なお、カメラ23は、全天球カメラ23Aに限られず、全周囲カメラ23B(図3参照)でもよい。また、カメラ23は、複数のカメラが一体的に構成される全天球カメラでもよい。全天球カメラ23Aは、広角な画角(例えば120度)を有する複数のレンズ200aおよび複数のイメージセンサ(不図示)により構成可能な撮像部を有する。なお、撮像部の画角は広角に限られるものではなく画角に応じて撮像部の数を増やすこともある。全天球カメラ23Aは、撮像部から得られたデータ(つまり、画像の電気信号)を用いて、人が認識可能なRGB(Red Green Blue)形式の画像データまたはYUV(輝度、色差)形式の画像データを生成して記憶する。 For example, in FIG. 1, the camera 23 is an omnidirectional camera 23A including lenses 200a and 200b with optical axes extending in a plurality of different directions. The omnidirectional camera 23A is a camera capable of imaging a plurality of different viewing directions with a plurality of lenses 200a and 200b. Note that the camera 23 is not limited to the omnidirectional camera 23A, and may be an omnidirectional camera 23B (see FIG. 3). Further, the camera 23 may be an omnidirectional camera integrally composed of a plurality of cameras. The omnidirectional camera 23A has an imaging section that can be configured with a plurality of lenses 200a having a wide angle of view (for example, 120 degrees) and a plurality of image sensors (not shown). The angle of view of the imaging units is not limited to a wide angle, and the number of imaging units may be increased according to the angle of view. The omnidirectional camera 23A uses the data obtained from the imaging unit (that is, the electric signal of the image) to generate human-recognizable RGB (Red Green Blue) format image data or YUV (luminance, color difference) format image data. Generate and store image data.

全天球カメラ23Aは、複数のレンズ200aの光軸が略水平方向の放射状となるように周方向に等間隔をおいて配置される。レンズ200bは天頂方向を撮像するために光軸が略垂直方向上向きとなるように配置されている。レンズ200aは、隣り合う2つのレンズの撮像エリアが一部重複するように配置されている。全天球カメラ23Aは、所定の位置に設置されてもよいし、移動体(例えば、ドローンまたは車など)に設置されてもよい。移動体に設置された場合は、移動体が移動したそれぞれの位置での映像を撮像することができる。 The omnidirectional cameras 23A are arranged at regular intervals in the circumferential direction so that the optical axes of the lenses 200a are substantially horizontal and radial. The lens 200b is arranged so that the optical axis is directed upward in the substantially vertical direction in order to take an image in the zenith direction. The lenses 200a are arranged such that the imaging areas of two adjacent lenses partially overlap. The omnidirectional camera 23A may be installed at a predetermined position, or may be installed on a mobile object (for example, a drone or a car). When installed on a moving body, it is possible to pick up images at each position where the moving body has moved.

プロセッサ22は、有線もしくは無線によって全天球カメラ23Aに通信可能に接続される(図3参照)。プロセッサ22は、全天球カメラ23Aによって撮像された複数の画像データもしくは映像データ(以下、映像データと称する。)を合成処理して1つのパノラマ合成映像である全天球映像を生成する処理(つまり、スティッチング処理)をフレームごとに行う。プロセッサ22は、映像表示装置3から取得したユーザの視線方向に基づき、全天球映像の所定の範囲の映像データを切り出した映像データ(以下、視聴映像データと称する)を生成する。視聴映像データの詳しい生成の処理方法については図6で後述する。また、プロセッサ22の、ハードウェア構成および有する機能に関しては図5で後述する。 The processor 22 is communicably connected to the omnidirectional camera 23A by wire or wirelessly (see FIG. 3). The processor 22 synthesizes a plurality of image data or video data (hereinafter referred to as video data) captured by the omnidirectional camera 23A to generate an omnidirectional video that is a single panorama composite video ( That is, stitching processing) is performed for each frame. Based on the user's line-of-sight direction obtained from the video display device 3, the processor 22 generates video data (hereinafter referred to as viewing video data) by extracting video data of a predetermined range from the omnidirectional video. A detailed processing method for generating viewing video data will be described later with reference to FIG. Also, the hardware configuration and functions of the processor 22 will be described later with reference to FIG.

映像処理装置2は、無線通信を用いたネットワーク(例えば、無線LAN(Local Area Network))を介してフレームごとの視聴映像データを映像表示装置3に送信する。映像処理装置2から映像表示装置3へのデータ送信には、無線通信を用いた
ネットワークを介した通信でもよいし、有線通信を用いたネットワークを介した通信でもよい。
The video processing device 2 transmits viewing video data for each frame to the video display device 3 via a network using wireless communication (for example, a wireless LAN (Local Area Network)). The data transmission from the video processing device 2 to the video display device 3 may be communication via a network using wireless communication or communication via a network using wired communication.

映像表示装置3は、携帯端末300もしくはヘッドマウントディスプレイ301の少なくとも1つを含む。また、携帯端末300もしくはヘッドマウントディスプレイ301の代わりにパソコンあるいは視線方向を切り替えられるディスプレイを用いることもできる。映像表示装置3は、携帯端末300とヘッドマウントディスプレイ301とをどちらも含み無線通信302を用いて通信可能に接続されてもよい。この無線通信302には有線通信を用いることもできる。 The video display device 3 includes at least one of a mobile terminal 300 and a head mounted display 301 . Also, instead of the mobile terminal 300 or the head-mounted display 301, a personal computer or a display capable of switching the line-of-sight direction can be used. The video display device 3 may include both the mobile terminal 300 and the head mounted display 301 and may be communicably connected using wireless communication 302 . Wired communication can also be used for this wireless communication 302 .

携帯端末300は、ユーザによって携帯されるタブレットまたはスマートフォン等の端末装置である。携帯端末300は、例えばジャイロセンサを有し、携帯端末300の向き(つまり、どの方角を向いているか)をジャイロセンサにより検出して映像処理装置2に送信してもよい。映像処理装置2は、取得した携帯端末300の向きの情報に基づいた視聴映像データを携帯端末300に表示させる。 The mobile terminal 300 is a terminal device such as a tablet or a smartphone carried by a user. The mobile terminal 300 may have a gyro sensor, for example, and may detect the orientation of the mobile terminal 300 (that is, which direction it is facing) with the gyro sensor and transmit it to the video processing device 2 . The video processing device 2 causes the mobile terminal 300 to display viewing video data based on the acquired orientation information of the mobile terminal 300 .

ヘッドマウントディスプレイ301は、例えばメガネのように左右一対に延伸した筐体フレームの一部がユーザの耳元付近にかけられた状態で装着されて使用される。言い換えると、ヘッドマウントディスプレイ301は、ユーザに装着された状態で使用される。ヘッドマウントディスプレイ301は、例えばジャイロセンサを有し、装着しているユーザの視線方向をジャイロセンサにより検出し映像処理装置2に送信する。映像処理装置2は、取得したユーザの視線方向の情報に基づき、ユーザの視線方向を中心方向として含む所定の範囲の視聴映像データをヘッドマウントディスプレイ301にリアルタイムに表示させる。 The head-mounted display 301 is worn and used in a state in which a part of a housing frame extending in a pair of left and right portions is hung near the ear of the user, for example, like eyeglasses. In other words, the head-mounted display 301 is used while worn by the user. The head-mounted display 301 has, for example, a gyro sensor. The video processing device 2 causes the head-mounted display 301 to display viewing video data of a predetermined range including the user's line-of-sight direction as the central direction on the head-mounted display 301 in real time based on the acquired information of the user's line-of-sight direction.

次に、図2を参照して、本実施の形態の全天球映像の概念を説明する。図2は、本実施の形態の全天球映像の概念を示す図である。 Next, with reference to FIG. 2, the concept of omnidirectional video according to this embodiment will be described. FIG. 2 is a diagram showing the concept of omnidirectional video according to this embodiment.

合成映像40は、全天球カメラ23Aにより撮像された映像データがスティッチング処理された全天球映像である。合成映像40は、球の中心位置を視点(つまりカメラ23の位置)としたときの全天球カメラ23Aの設置エリアの周囲の360度の範囲を有する映像データである。 The composite image 40 is an omnidirectional image obtained by stitching the image data captured by the omnidirectional camera 23A. The composite image 40 is image data having a 360-degree range around the installation area of the omnidirectional camera 23A when the center position of the sphere is taken as the viewpoint (that is, the position of the camera 23).

人物hm1は、ヘッドマウントディスプレイ301を装着し、ヘッドマウントディスプレイ301の筐体フレーム上に表示される視聴映像データを視聴している。人物hm1は、合成映像40の中心から視線方向に応じた視聴映像データを視聴することができるため、合成映像40に対応する実空間上の中心に自身の視点があると仮定した場合の映像を視聴することができる。実際は、合成映像40に対応する実空間上の中心には全天球カメラ23Aが存在し、人物hm1は任意の位置に存在してよい。 A person hm1 wears the head-mounted display 301 and views viewing video data displayed on the housing frame of the head-mounted display 301 . Since the person hm1 can view the viewing video data according to the line-of-sight direction from the center of the synthesized video 40, the person hm1 can view the video on the assumption that his/her viewpoint is at the center of the real space corresponding to the synthesized video 40. can be viewed. Actually, the omnidirectional camera 23A exists at the center of the real space corresponding to the composite image 40, and the person hm1 may exist at any position.

部分映像41は、人物hm1の視線方向に応じて切り出された視聴映像データである。部分風景43は、人物hm1が視聴している部分映像41の具体例である。なお、図2に係る部分風景43は、一例でありこれに限定されない。 The partial video 41 is viewing video data cut out according to the line-of-sight direction of the person hm1. A partial landscape 43 is a specific example of the partial video 41 viewed by the person hm1. Note that the partial scenery 43 shown in FIG. 2 is an example and is not limited to this.

図3は、本実施の形態の全周囲カメラを用いた映像表示システムのシステム構成の一例を示す図である。図3に示すように、映像表示システム1は、カメラ23(ここでは全周囲カメラ23B)とプロセッサ22とを少なくとも含む映像処理装置2と、携帯端末300とヘッドマウントディスプレイ301とのうち少なくとも1つを含む映像表示装置3と、を含む。また、携帯端末300もしくはヘッドマウントディスプレイ301の代わりにパソコンあるいは視線方向を切り替えられるディスプレイを用いることもできる。図1と同一の構成要素に関しては説明を一部省略する。 FIG. 3 is a diagram showing an example of a system configuration of a video display system using an omnidirectional camera according to this embodiment. As shown in FIG. 3, the video display system 1 includes a video processing device 2 including at least a camera 23 (here, an omnidirectional camera 23B) and a processor 22, and at least one of a mobile terminal 300 and a head mounted display 301. and a video display device 3 including Also, instead of the mobile terminal 300 or the head-mounted display 301, a personal computer or a display capable of switching the line-of-sight direction can be used. Descriptions of the same components as those in FIG. 1 are partially omitted.

カメラ23は、例えば図3では、複数のカメラ202を含む全周囲カメラである。全周囲カメラ23Bを構成する複数のカメラ202は、広角な画角(例えば120度)を有するレンズ202aおよびイメージセンサ(不図示)により構成可能な撮像部を有する。なお、撮像部の画角は広角に限られるものではなく画角に応じて撮像部の数を増やすこともある。全周囲カメラ23Bは、複数のカメラ202のそれぞれの撮像部から得られたデータ(つまり、画像の電気信号)を用いて、人が認識可能なRGB(Red Green Blue)形式の画像データまたはYUV(輝度、色差)形式の画像データを生成して記憶する。 The camera 23 is, for example, in FIG. 3 an omnidirectional camera including a plurality of cameras 202 . A plurality of cameras 202 that constitute the omnidirectional camera 23B have an imaging unit that can be configured by a lens 202a having a wide angle of view (for example, 120 degrees) and an image sensor (not shown). The angle of view of the imaging units is not limited to a wide angle, and the number of imaging units may be increased according to the angle of view. The omnidirectional camera 23B uses data (that is, electrical signals of images) obtained from the respective imaging units of the plurality of cameras 202 to generate image data in RGB (Red Green Blue) format or YUV ( (luminance, color difference) format image data is generated and stored.

全周囲カメラ23Bは、複数のカメラ202が所定の空間内における同一の場面または人物等を撮影する。全周囲カメラ23Bは、例えば、スポーツイベント等で用いられ、全周囲カメラ23Bが設置された場所で行われる試合等を撮像する。なお、これは一例であり監視カメラを用いて監視される空間等であってもよい。 In the omnidirectional camera 23B, a plurality of cameras 202 photograph the same scene or person in a predetermined space. The omnidirectional camera 23B is used, for example, at a sporting event or the like, and captures an image of a game or the like held at the place where the omnidirectional camera 23B is installed. Note that this is just an example, and it may be a space or the like that is monitored using a monitoring camera.

複数のカメラ202のそれぞれは、所定の空間内において同一の場面を互いに異なる位置から撮像する。複数のカメラ202は、所定の間隔をあけて被写体(ここでは人物hm2)を囲んで複数の異なる場所に配置される。複数のカメラ202は、異なる位置から見た人物hm2を撮像することができる。なお、複数のカメラの配置はこれに限定されず例えば人物hm2の上方に配置されてもよい。カメラ202のレンズ202aは上下左右に回転可能であってもよい。カメラ202は、撮像対象の動きに合わせて向きを変えることができる。また、2つのカメラ202の間を視点とした映像は両脇のカメラ202の撮像映像を合成して作成される。これにより、撮像対象に対して360度の全周囲の位置を視点とした映像データを生成することができる。これら全ての映像データを合わせて全周囲映像と称する。全周囲映像とは、複数のカメラ202のそれぞれの視野範囲に対応する視点からみた同一の被写体の映像を有する。 Each of the plurality of cameras 202 images the same scene from different positions within a predetermined space. A plurality of cameras 202 are arranged at a plurality of different locations surrounding a subject (person hm2 in this case) at predetermined intervals. A plurality of cameras 202 can capture images of the person hm2 viewed from different positions. Note that the arrangement of the plurality of cameras is not limited to this, and may be arranged above the person hm2, for example. The lens 202a of the camera 202 may be rotatable vertically and horizontally. The camera 202 can change its orientation according to the movement of the imaging target. Also, an image with a viewpoint between the two cameras 202 is created by synthesizing images captured by the cameras 202 on both sides. Accordingly, it is possible to generate video data with viewpoints at all 360-degree surroundings of the object to be imaged. All these image data are collectively referred to as an all-surrounding image. The omnidirectional image includes images of the same subject viewed from viewpoints corresponding to the respective visual field ranges of the plurality of cameras 202 .

プロセッサ22は、全周囲映像の中で、映像表示装置3から取得した視点位置および視線方向の情報に基づき視聴映像データを生成する。プロセッサ22は、生成した視聴映像データを映像表示装置3に送信する。なお、視点の情報は、映像処理装置2によって自動で設定されてもよいし(例えば、予め決められた時間間隔での変更)、映像処理装置2が管理者(例えば、コンサートの運営者など)による指示を取得し取得した指示に基づき変更を行ってもよい。 The processor 22 generates viewing video data based on information on the viewpoint position and line-of-sight direction acquired from the video display device 3 in the omnidirectional video. The processor 22 transmits the generated viewing video data to the video display device 3 . Note that the viewpoint information may be automatically set by the video processing device 2 (for example, changed at predetermined time intervals), or the video processing device 2 may be set by an administrator (for example, a concert operator, etc.). may obtain instructions from and make changes based on the obtained instructions.

映像処理装置2は、無線通信を用いたネットワーク(例えば無線LAN(Local Area Network))を介してフレームごとの視聴映像データを映像表示装置3に送信する。映像処理装置2から映像表示装置3へのデータ送信には、無線通信を用いたネットワークを介した通信でもよいし、有線通信を用いたネットワークを介した通信でもよい。 The video processing device 2 transmits viewing video data for each frame to the video display device 3 via a network using wireless communication (for example, a wireless LAN (Local Area Network)). The data transmission from the video processing device 2 to the video display device 3 may be communication via a network using wireless communication or communication via a network using wired communication.

映像表示装置3は、携帯端末300もしくはヘッドマウントディスプレイ301の少なくとも1つを含む。また、携帯端末300もしくはヘッドマウントディスプレイ301の代わりにパソコンあるいはディスプレイを用いることもできる。映像表示装置3は、携帯端末300とヘッドマウントディスプレイ301とをどちらも含み無線通信または有線通信を用いて通信可能に接続されてもよい。 The video display device 3 includes at least one of a mobile terminal 300 and a head mounted display 301 . Also, a personal computer or a display can be used instead of the mobile terminal 300 or the head mounted display 301 . The video display device 3 may include both the mobile terminal 300 and the head mounted display 301 and may be communicatively connected using wireless communication or wired communication.

携帯端末300は、例えばジャイロセンサを有し、携帯端末300の向き(どの方角を向いているか)をジャイロセンサにより検出して映像処理装置2に送信してもよい。携帯端末300は、ユーザによって視点の変更に係る入力を受け付けてもよい。また、携帯端末300の代わりにパソコンあるいはディスプレイを用い、ユーザによって視点 の変更に係る入力を受け付けてもよい。映像処理装置2は、取得した携帯端末300の向きおよび視点の情報に基づいた視聴映像データを携帯端末300に表示させる。 The mobile terminal 300 may have a gyro sensor, for example, and the orientation of the mobile terminal 300 (which direction it is facing) may be detected by the gyro sensor and transmitted to the video processing device 2 . The mobile terminal 300 may accept an input related to a change in viewpoint by the user. Also, a personal computer or a display may be used instead of the mobile terminal 300 to receive input related to change of viewpoint by the user. The video processing device 2 causes the mobile terminal 300 to display viewing video data based on the acquired information on the orientation and viewpoint of the mobile terminal 300 .

ヘッドマウントディスプレイ301は、例えばジャイロセンサを有し、装着しているユーザの視線方向をジャイロセンサにより検出し映像処理装置2に送信する。またヘッドマウントディスプレイ301は、ユーザによって視点の変更に係る入力を受け付けてもよい。映像処理装置2は、取得したユーザの視線方向および視点の情報に基づき、ユーザの視線方向を中心方向として含む所定の範囲の視聴映像データをヘッドマウントディスプレイ301にリアルタイムに表示させる。 The head-mounted display 301 has, for example, a gyro sensor. The head-mounted display 301 may also accept an input related to a change in viewpoint by the user. The video processing device 2 causes the head-mounted display 301 to display viewing video data of a predetermined range including the user's line-of-sight direction as the central direction on the head-mounted display 301 in real time based on the acquired information of the user's line-of-sight direction and viewpoint.

次に図4を参照して、本実施の形態の全周囲映像の概念を説明する。図4は、本実施の形態の全周囲映像の概念を示す図である。 Next, with reference to FIG. 4, the concept of the omnidirectional image according to this embodiment will be described. FIG. 4 is a diagram showing the concept of the omnidirectional video according to this embodiment.

合成映像50は、帯状に360度方向の映像データを有する。合成映像50は、全周囲映像の中で選択された視点の位置に基づく映像データである。 The composite image 50 has image data in 360-degree directions in a belt shape. The synthesized image 50 is image data based on the position of the viewpoint selected in the omnidirectional image.

人物hm1は、ヘッドマウントディスプレイ301を装着し、ヘッドマウントディスプレイ301の筐体フレーム上に表示される視聴映像データを視聴している。人物hm1は、合成映像50の側面の所定の位置に応じた視聴映像データを視聴することができる。人物hm1は、帯状の合成映像50の端に自身の視点があると仮定した場合の視聴映像データを視聴することができる。実際は、人物hm1は任意の場所に存在してよい。 A person hm1 wears the head-mounted display 301 and views viewing video data displayed on the housing frame of the head-mounted display 301 . The person hm1 can view viewing video data corresponding to a predetermined position on the side of the composite video 50 . The person hm1 can view the viewing video data assuming that his or her viewpoint is at the end of the strip-shaped composite video 50 . In reality, the person hm1 can be anywhere.

部分映像51は、人物hm1の視点および視線に応じて切り出された視聴映像データである。部分映像51は、ヘッドマウントディスプレイ301の筐体に映し出される。 The partial video 51 is viewing video data extracted according to the viewpoint and line of sight of the person hm1. A partial image 51 is displayed on the housing of the head mounted display 301 .

次に、図5を参照して本実施の形態の映像表示システムのハードウェア構成を説明する。図5は、本実施の形態の映像表示システムのブロック図である。映像表示システム1は、映像処理装置2と映像表示装置3とが通信可能に接続されて構成される。 Next, the hardware configuration of the image display system of this embodiment will be described with reference to FIG. FIG. 5 is a block diagram of the image display system of this embodiment. A video display system 1 is configured by connecting a video processing device 2 and a video display device 3 so as to be able to communicate with each other.

映像処理装置2は、通信I/F21、プロセッサ22、カメラ23およびメモリ24を少なくとも備えるPC(Personal Computer)である。なお、映像処理装置2としては、PCに限らず、同様の機能を果たす他の映像処理装置(例えばサーバ、スマートフォン、タブレット端末等)を用いることもできる。また、映像処理装置2の機能の少なくとも一部を他の公知のハードウェアやネットワーク上のサーバによる処理によって代替してもよい。映像処理装置2は、カメラ23により撮像された複数の撮像データを保持する。 The video processing device 2 is a PC (Personal Computer) including at least a communication I/F 21 , a processor 22 , a camera 23 and a memory 24 . Note that the video processing device 2 is not limited to a PC, and other video processing devices (for example, a server, a smart phone, a tablet terminal, etc.) that perform similar functions can also be used. Also, at least part of the functions of the video processing device 2 may be replaced by other known hardware or processing by a server on a network. The video processing device 2 holds a plurality of image data captured by the camera 23 .

通信I/F21は、映像表示装置3の通信I/F31との間で無線または有線で通信を行うネットワークインターフェース回路である。ここでI/Fは、インターフェースのことを表す。通信I/F21は、通信I/F31と無線通信を行う場合にネットワーク(不図示)、ネットワーク上に構成されたサーバ(不図示)、または基地局(不図示)を介してもよい。通信I/F21は、カメラ23により撮像されプロセッサ22で処理された映像データを通信I/F31に送信する。 The communication I/F 21 is a network interface circuit that performs wireless or wired communication with the communication I/F 31 of the video display device 3 . Here, I/F represents an interface. The communication I/F 21 may communicate wirelessly with the communication I/F 31 via a network (not shown), a server (not shown) configured on the network, or a base station (not shown). Communication I/F 21 transmits video data captured by camera 23 and processed by processor 22 to communication I/F 31 .

プロセッサ22は、映像処理装置2を統括的に制御し、例えばCPU(Central Processing Unit)、DSP(Digital Signal Processor)、GPU(Graphical Processing Unit)もしくはFPGA(Field Programmable Gate Array)である。プロセッサ22は、映像処理部22A、帯域推定部22Bおよび画質制御部22Cのそれぞれの機能を実現する。プロセッサ22は、動作中にメモリ24のRAM(Random Access Memory)を使用し、プロセッサ22および各部が生成あるいは取得したデータもしくは情報をメモリ24のRAMに一時的に保存する。 The processor 22 comprehensively controls the video processing device 2, and is, for example, a CPU (Central Processing Unit), a DSP (Digital Signal Processor), a GPU (Graphical Processing Unit), or an FPGA (Field Programmable Gate Array). The processor 22 realizes the functions of the video processing section 22A, the band estimation section 22B, and the image quality control section 22C. The processor 22 uses RAM (Random Access Memory) of the memory 24 during operation, and temporarily stores data or information generated or obtained by the processor 22 and each unit in the RAM of the memory 24 .

処理部の一例としての映像処理部22Aは、カメラ23で撮像された映像データを取得し全天球映像データもしくは全周囲映像データを生成する。映像処理部22Aは、映像表示装置3の視線方向検出部32Bによって検出された視線に係る情報を通信I/F21、31を介して取得し、この情報に基づき視聴映像データを生成してもよい。映像処理部22Aは、全天球映像データもしくは全周囲映像データをメモリ24に記憶する。映像処理部22Aは全天球映像データ、全周囲映像データまたは視聴映像データを通信I/F21に出力する。 The video processing unit 22A, which is an example of a processing unit, acquires video data captured by the camera 23 and generates omnidirectional video data or omnidirectional video data. The video processing unit 22A may acquire information related to the line of sight detected by the line-of-sight direction detection unit 32B of the video display device 3 via the communication I/Fs 21 and 31, and generate viewing video data based on this information. . The video processing unit 22A stores the omnidirectional video data or the omnidirectional video data in the memory 24 . The video processing unit 22A outputs omnidirectional video data, omnidirectional video data, or viewing video data to the communication I/F 21 .

算出部の一例としての帯域推定部22Bは、通信環境4の通信帯域を推定する。通信帯域とは、例えばデジタル通信においては1秒間に何ビット転送できるかを表し「bps」という単位を用いて表し、例えば電波状況やそのチャネルを共有する他のトラフィックの状況によって変動する。通信帯域が広いと、一度に送信できる情報が多くなり、通信帯域が狭いと一度に送信できる情報が少なくなる。このため通信帯域が広い場合には通信速度が速く、通信帯域が狭い場合には通信速度が遅くなる。帯域推定部22Bは、例えば、容量の大きい信号(例えば、1Mbpsの信号)を映像表示装置3に送信し、送信できた量の信号を測定することで通信帯域を推定する。なお、これは一例であり限られない。帯域推定部22Bは、推定した通信帯域の結果を画質制御部に出力する。なお、帯域推定部22Bは、通信帯域の結果をメモリ24に出力し一時的に保存してもよい。 A band estimator 22B as an example of a calculator estimates the communication band of the communication environment 4 . The communication band indicates how many bits can be transferred per second in digital communication, for example, and is expressed in units of "bps", and varies depending on, for example, radio wave conditions and conditions of other traffic sharing the channel. If the communication band is wide, the amount of information that can be transmitted at once increases, and if the communication band is narrow, the amount of information that can be transmitted at once decreases. Therefore, when the communication band is wide, the communication speed is high, and when the communication band is narrow, the communication speed is low. The band estimator 22B estimates the communication band by, for example, transmitting a large-capacity signal (for example, a 1 Mbps signal) to the video display device 3 and measuring the amount of signal that has been transmitted. In addition, this is an example and is not limited. The band estimation unit 22B outputs the result of the estimated communication band to the image quality control unit. Note that the band estimation unit 22B may output the result of the communication band to the memory 24 and temporarily store it.

制御部の一例としての画質制御部22Cは、映像データの画質を調整する。ここで画質とは、解像度、フレームレートおよび誤り訂正符号化量のうち少なくとも1つを表す。なお、これらは一例であり限定されない。画質制御部22Cは、映像表示装置3から取得したユーザが見ている方向を基に映像データに高画質のエリアと低画質のエリア(以下、高画質エリアおよび低画質エリアと称する。)との領域の設定を行ってもよい。ここでユーザが見ている方向とは、視聴側ユーザの視点位置および視線の方向で決定されるユーザが見ている方向のことである。なお、この領域の設定をするのは、画質制御部22Cに限られずプロセッサ22の他の機能で行われてもよいし、ユーザによって予め設定されメモリ24に記録されていてもよい。画質制御部22Cは、帯域推定部22Bから取得した通信帯域の結果より各領域の画質の設定を行う。 An image quality control unit 22C, which is an example of a control unit, adjusts image quality of video data. Here, image quality represents at least one of resolution, frame rate, and error correction coding amount. In addition, these are examples and are not limited. The image quality control unit 22C divides the image data into a high image quality area and a low image quality area (hereinafter referred to as a high image quality area and a low image quality area) based on the viewing direction of the user obtained from the image display device 3. You may set the area. Here, the direction in which the user is looking is the direction in which the user is looking, which is determined by the viewpoint position and the line-of-sight direction of the user on the viewing side. The setting of this area is not limited to the image quality control unit 22C, and may be performed by other functions of the processor 22, or may be set in advance by the user and recorded in the memory 24. FIG. The image quality control unit 22C sets the image quality of each region based on the result of the communication band acquired from the band estimation unit 22B.

カメラ23は、設置場所を撮像するカメラである。カメラ23は、例えば全天球カメラ23Aまたは全周囲カメラ23Bである。カメラ23は、通信I/F(不図示)、メモリ(不図示)、撮像部(不図示)およびプロセッサ(不図示)を備える。撮像部は、少なくとも光学素子としてのレンズ(不図示)とイメージセンサ(不図示)とを有して構成され映像データを生成する。イメージセンサは、例えばCCD(Charged Coupled Device)あるいはCMOS(Complementary Metal Oxide Semiconductor)などの固体撮像素子である。カメラ23は撮像された複数の映像データをプロセッサ22に出力する。 The camera 23 is a camera that captures an image of the installation location. The camera 23 is, for example, an omnidirectional camera 23A or an omnidirectional camera 23B. The camera 23 includes a communication I/F (not shown), a memory (not shown), an imaging unit (not shown), and a processor (not shown). The imaging unit includes at least a lens (not shown) as an optical element and an image sensor (not shown), and generates image data. The image sensor is a solid-state imaging device such as a CCD (Charged Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor). The camera 23 outputs a plurality of captured image data to the processor 22 .

メモリ24は、例えばRAMとROM(Read Only Memory)とを用いて構成され、映像処理装置2の動作に必要なプログラム、さらには動作中に生成されたデータを一時的に保持する。RAMは、例えばプロセッサ22の動作中に使用されるワークメモリである。ROMは、例えば、プロセッサ22を制御するためのプログラムを予め記憶して保持する。また、メモリ24は、RAMおよびROM以外にフラッシュメモリをさらに有してもよく、映像データを記憶してよい。 The memory 24 is configured using, for example, a RAM and a ROM (Read Only Memory), and temporarily holds programs necessary for the operation of the video processing device 2 and data generated during operation. RAM is a work memory used during operation of the processor 22, for example. The ROM prestores and retains, for example, a program for controlling the processor 22 . Moreover, the memory 24 may further have a flash memory in addition to the RAM and ROM, and may store video data.

通信環境4は、映像処理装置2と映像表示装置3と間の無線通信または有線通信の環境を概念的に示す。通信環境4での通信に使用される通信方式は、例えば、WAN(Wide Area Network)、LAN(Local Area Network)、LTE(Long Term Evolution)、5G等の移動体通信、電力線通信、近距離無線通信(例えばBlootooth(登録商標)通信)、携帯電話用の通信等である。 A communication environment 4 conceptually indicates an environment for wireless communication or wired communication between the video processing device 2 and the video display device 3 . Communication methods used for communication in the communication environment 4 include, for example, WAN (Wide Area Network), LAN (Local Area Network), LTE (Long Term Evolution), mobile communication such as 5G, power line communication, and short-range wireless communication. Communication (eg, Bluetooth (registered trademark) communication), communication for mobile phones, and the like.

映像表示装置3は、映像処理装置2によって生成された映像データを表示する端末装置である。例えば、携帯端末300またはヘッドマウントディスプレイ301などである。 The video display device 3 is a terminal device that displays video data generated by the video processing device 2 . For example, it is the mobile terminal 300 or the head mounted display 301 .

通信I/F31は、映像処理装置2の通信I/F21との間で無線または有線で通信を行うネットワークインターフェース回路である。通信I/F31は、映像処理装置2の指示を取得するまたは視線方向検出部32Bで検出されたユーザの視線の方向に係る情報を送信する等を行う。 The communication I/F 31 is a network interface circuit that performs wireless or wired communication with the communication I/F 21 of the video processing device 2 . The communication I/F 31 acquires an instruction from the video processing device 2 or transmits information related to the user's line of sight direction detected by the line of sight direction detection unit 32B.

プロセッサ32は、映像表示装置3を統括的に制御し、例えばCPU、DSP、GPUもしくはFPGAである。プロセッサ32は、映像表示部32Aおよび視線方向検出部32Bのそれぞれの機能を実現する。プロセッサ32は、動作中にメモリ34のRAMを使用し、プロセッサ32および各部が生成あるいは取得したデータもしくは情報をメモリ34のRAMに一時的に保存する。 The processor 32 comprehensively controls the image display device 3, and is, for example, a CPU, DSP, GPU, or FPGA. The processor 32 implements the functions of the image display section 32A and the line-of-sight direction detection section 32B. The processor 32 uses the RAM of the memory 34 during operation, and temporarily stores data or information generated or obtained by the processor 32 and each unit in the RAM of the memory 34 .

制御部の一例としての映像表示部32Aは、映像処理装置2から通信I/F21および通信I/F31を介して映像データを取得しディスプレイ33に表示させる制御を行う。映像データは、視聴映像データである。映像表示部32Aは、取得した映像データを基にディスプレイ33に表示させる映像を生成する。例えば、映像表示部32Aは、全天球映像データを取得した場合、ユーザの視線の方向の情報に基づいた視聴映像データを生成する。ユーザの視線の方向の情報は、視線方向検出部32Bから取得する。 The image display unit 32A as an example of the control unit acquires image data from the image processing device 2 via the communication I/F 21 and the communication I/F 31 and controls the display 33 to display the image data. The video data is viewing video data. The image display unit 32A generates an image to be displayed on the display 33 based on the acquired image data. For example, when acquiring omnidirectional video data, the video display unit 32A generates viewing video data based on information on the direction of the user's line of sight. Information on the direction of the user's line of sight is obtained from the line of sight direction detection unit 32B.

検出部の一例としての視線方向検出部32Bは、ユーザの視線の向きを検出する。例えば、ユーザがヘッドマウントディスプレイ301を装着している場合は、視線方向検出部32Bは、ユーザの視線の方向の角度を検出する。この場合、一例としてジャイロセンサを用いる。ジャイロセンサは、ロール、ピッチ、ヨーの3軸に対応する値を検出し、ヘッドマウントディスプレイ301が向いている方向を算出する。なお、映像表示装置3は撮像部を更に備えユーザの目の周辺を撮像し、視線方向検出部32Bは撮像された画像データ(もしくは映像データ)からユーザの視線の方向を検出してもよい。また、例えば、ユーザが携帯端末300を使用している場合は、視線方向検出部32Bは携帯端末300の向きを取得する。携帯端末300の向きは、携帯端末300に内蔵されているジャイロセンサまたは磁気センサ等によって検出される。視線方向検出部32Bは、検出した視線の方向に係る情報を通信I/F31に出力する。なお、視線方向検出部32Bは、検出した視線の方向に係る情報を映像表示部32Aに出力してもよいし、メモリ34に一時的に保存してもよい。 The line-of-sight direction detection unit 32B, which is an example of a detection unit, detects the line-of-sight direction of the user. For example, when the user is wearing the head-mounted display 301, the line-of-sight direction detection unit 32B detects the angle of the line-of-sight direction of the user. In this case, a gyro sensor is used as an example. The gyro sensor detects values corresponding to three axes of roll, pitch, and yaw, and calculates the direction in which the head mounted display 301 is facing. The video display device 3 may further include an imaging unit to capture an image of the user's eye area, and the line-of-sight direction detection unit 32B may detect the direction of the user's line of sight from the captured image data (or video data). Also, for example, when the user is using the mobile terminal 300 , the line-of-sight direction detection unit 32</b>B acquires the orientation of the mobile terminal 300 . The orientation of mobile terminal 300 is detected by a gyro sensor, a magnetic sensor, or the like built into mobile terminal 300 . The line-of-sight direction detection unit 32</b>B outputs information related to the detected line-of-sight direction to the communication I/F 31 . The line-of-sight direction detection unit 32B may output information related to the detected line-of-sight direction to the image display unit 32A, or may temporarily store the information in the memory 34. FIG.

ディスプレイ33は、映像表示部32Aから取得した映像データを表示する。ディスプレイ33は、例えば、ヘッドマウントディスプレイ301の筐体である。また、ディスプレイ33は、例えば、携帯端末300の画面である。 The display 33 displays the image data obtained from the image display section 32A. The display 33 is, for example, the housing of the head mounted display 301 . Also, the display 33 is, for example, the screen of the mobile terminal 300 .

メモリ34は、例えばRAMとROMとを用いて構成され、映像表示装置3の動作に必要なプログラム、さらには動作中に生成されたデータを一時的に保持する。RAMは、例えばプロセッサ32の動作中に使用されるワークメモリである。ROMは、例えば、プロセッサ32を制御するためのプログラムを予め記憶して保持する。また、メモリ34は、RAMおよびROM以外にフラッシュメモリをさらに有してもよく、映像データを記憶してよい。 The memory 34 is configured using, for example, a RAM and a ROM, and temporarily holds programs necessary for the operation of the video display device 3 and data generated during operation. RAM is a work memory used during operation of the processor 32, for example. The ROM prestores and holds, for example, a program for controlling the processor 32 . Moreover, the memory 34 may further have a flash memory in addition to the RAM and ROM, and may store video data.

次に、図6を参照して、本実施の形態の映像処理装置の動作手順を説明する。図6は、本実施の形態の映像処理装置の動作手順の一例を説明するフローチャートである。図6に係るフローチャートの各処理は、主に映像処理装置2により実行され、一部の処理によっては映像処理装置2の処理に起因して映像表示装置3により実行されても構わない。 Next, with reference to FIG. 6, the operation procedure of the video processing device according to this embodiment will be described. FIG. 6 is a flowchart for explaining an example of the operation procedure of the video processing device of this embodiment. Each process in the flowchart of FIG. 6 is mainly executed by the video processing device 2 , and some processing may be executed by the video display device 3 due to the processing of the video processing device 2 .

映像処理装置2は、利用可能な通信帯域に応じた高画質エリアおよび低画質エリアの指定および各エリアの画質の設定をメモリ24から取得する(ステップS201)。高画質エリア、低画質エリアおよび各エリアの画質の設定はユーザによって予め設定されメモリ24に保存されている。例えば、予め撮像対象がわかっている場合、撮像対象の動き方または動きの速さ等からユーザが初期値として高画質エリア、低画質エリアおよび各エリアの画質を設定しておく。なお、これらの設定は、カメラ23によって撮像された複数の映像データをプロセッサ22によって解析することで自動設定されてもよい。また、映像表示装置3の視線方向検出部32Bによって検出された視線の移動または視点の切り替えをプロセッサ22によって解析することで自動設定されてもよい。 The video processing device 2 acquires from the memory 24 the specification of the high image quality area and the low image quality area according to the available communication band and the setting of the image quality of each area (step S201). A high image quality area, a low image quality area, and image quality settings for each area are set in advance by the user and stored in the memory 24 . For example, when the object to be imaged is known in advance, the user sets the high image quality area, the low image quality area, and the image quality of each area as initial values based on the movement or speed of the imaged object. Note that these settings may be automatically set by the processor 22 analyzing a plurality of video data captured by the camera 23 . Alternatively, the processor 22 may automatically set by analyzing the line-of-sight movement or viewpoint switching detected by the line-of-sight direction detection unit 32</b>B of the video display device 3 .

映像処理装置2は、映像表示装置3との通信を開始する(ステップS202)。 The video processing device 2 starts communication with the video display device 3 (step S202).

カメラ23は、設置場所の周辺映像を撮像する(ステップS203)。カメラ23は、撮像した映像データを映像処理部22Aに出力する。映像処理部22Aは、複数の撮像データを用いて、複数のカメラ23の設置エリアの第1の映像データを生成する。映像処理部22Aは、第1の映像データを画質制御部22Cに出力する。 The camera 23 captures an image around the installation location (step S203). The camera 23 outputs captured image data to the image processing section 22A. The image processing unit 22A generates first image data of the installation area of the multiple cameras 23 using multiple image data. The video processing unit 22A outputs the first video data to the image quality control unit 22C.

帯域推定部22Bは、映像表示装置3との間の通信環境4における通信帯域を推定する(ステップS204)。帯域推定部22Bは、推定した通信帯域の結果を画質制御部22Cに出力する。 The band estimation unit 22B estimates the communication band in the communication environment 4 with the video display device 3 (step S204). The band estimation unit 22B outputs the result of the estimated communication band to the image quality control unit 22C.

映像表示装置3の視線方向検出部32Bは、ユーザの視線の方向を検出する。視線方向検出部32Bは、検出した視線の方向に係る情報を通信I/F31に出力する。通信I/F31は、視線の方向に係る情報を通信I/F21に送信する。通信I/F21は、画質制御部22Cに視線の方向に係る情報を送信する。画質制御部22Cは、視線の方向に係る情報を取得する(ステップS205)。なお、映像表示装置3は、ディスプレイ33からユーザの入力に基づいた視点に係る情報を取得してもよい。この場合、通信I/F31は、視点に係る情報を通信I/F21に送信する。通信I/F21は、画質制御部22Cに視点に係る情報を送信する。画質制御部22Cは、視点に係る情報を取得する。なお、映像表示装置3は、ディスプレイ33にユーザに視点を選択することを促す画面を表示させ、視点に関する情報を取得してもよい。この場合、映像表示装置3は、画質制御部22Cに視点に関する情報を送信し、画質制御部22Cは、視点に関する情報を取得する。 The line-of-sight direction detector 32B of the video display device 3 detects the line-of-sight direction of the user. The line-of-sight direction detection unit 32</b>B outputs information related to the detected line-of-sight direction to the communication I/F 31 . The communication I/F 31 transmits information regarding the line of sight direction to the communication I/F 21 . The communication I/F 21 transmits information regarding the line-of-sight direction to the image quality control unit 22C. The image quality control unit 22C acquires information related to the direction of the line of sight (step S205). Note that the video display device 3 may acquire information related to the viewpoint based on the user's input from the display 33 . In this case, the communication I/F 31 transmits the viewpoint-related information to the communication I/F 21 . The communication I/F 21 transmits viewpoint-related information to the image quality control unit 22C. The image quality control unit 22C acquires information related to the viewpoint. Note that the image display device 3 may display a screen prompting the user to select a viewpoint on the display 33 to acquire information about the viewpoint. In this case, the video display device 3 transmits information about the viewpoint to the image quality control section 22C, and the image quality control section 22C acquires the information about the viewpoint.

画質制御部22Cは、取得した視線の方向に係る情報と推定された通信帯域の結果に基づき、視線を中心とした各エリア(高画質エリアおよび低画質エリア)の面積および画質を設定する(ステップS206)。画質制御部22Cは、映像処理部22Aから取得した第1の映像データから、設定された各エリア(高画質エリアおよび低画質エリア)の面積および画質を用いて、高画質エリアの映像(言い換えると、ユーザが見ている方向に応じて第1の映像データから切り出した第2の映像データ)と低画質エリアの映像とを生成する。 The image quality control unit 22C sets the area and image quality of each area (high image quality area and low image quality area) centered on the line of sight based on the obtained information related to the direction of the line of sight and the result of the estimated communication band (step S206). The image quality control unit 22C uses the area and image quality of each set area (high image quality area and low image quality area) from the first image data acquired from the image processing unit 22A to generate the image of the high image quality area (in other words, , second image data cut out from the first image data according to the direction in which the user is looking, and the image of the low image quality area.

画質制御部22Cは、ステップS206の処理で行った設定に応じて生成した各映像(高画質エリアの映像および低画質エリアの映像)を通信I/F21に出力する。通信I/F21は、画質制御部22Cから取得した各映像を通信I/F31に送信する。通信I/F31は、通信I/F21から取得した各映像を映像表示部32Aに送信する(ステップS207)。 22 C of image quality control parts output each image|video (image|video of a high image quality area and image|video of a low image quality area) produced|generated according to the setting performed by the process of step S206 to communication I/F21. Communication I/F 21 transmits each image acquired from image quality control unit 22C to communication I/F 31 . Communication I/F 31 transmits each image acquired from communication I/F 21 to image display unit 32A (step S207).

画質制御部22Cは、送信した各映像に基づき視線方向を中心とした領域の映像を表示させる信号を映像表示装置3に出力する(ステップS208)。 The image quality control unit 22C outputs to the image display device 3 a signal for displaying an image in an area centered on the line-of-sight direction based on each transmitted image (step S208).

映像処理装置2は、映像表示装置3と通信を継続するか否かを判定する(ステップS209)。映像処理装置2が映像表示装置3と通信を継続すると判定した場合(ステップS209,YES)、映像処理装置2の処理はステップS203の処理に戻る。 The video processing device 2 determines whether or not to continue communication with the video display device 3 (step S209). When the video processing device 2 determines to continue communication with the video display device 3 (step S209, YES), the process of the video processing device 2 returns to the process of step S203.

映像処理装置2は、映像表示装置3と通信を継続しないと判定した場合(ステップS209,NO)、通信を終了する(ステップS210)。 When the image processing device 2 determines not to continue communication with the image display device 3 (step S209, NO), the communication ends (step S210).

カメラ23は、撮像を終了する(ステップS211)。 The camera 23 finishes imaging (step S211).

次に、図7を参照して、本実施の形態の映像処理装置と映像表示装置との動作手順について説明する。図7は、本実施の形態の映像処理装置と映像表示装置との動作手順の一例を説明するシーケンス図である。 Next, with reference to FIG. 7, operation procedures of the video processing device and the video display device according to the present embodiment will be described. FIG. 7 is a sequence diagram illustrating an example of the operation procedure of the video processing device and the video display device according to this embodiment.

映像処理装置2は、利用可能な通信帯域に応じた高画質エリアおよび低画質エリアの指定および各エリアの画質の設定をメモリ24から取得し(ステップS301)、映像表示装置3に通信開始を要求する(ステップS3021)。映像表示装置3は、映像処理装置2にステップS3021の処理に基づく通信開始の要求に応答を送信する(ステップS3022)。映像処理装置2は、映像表示装置3から、ステップS3021の処理に基づく通信開始の要求に応じた旨の信号を取得する。なお、ステップS3021の通信開始の要求を映像表示装置3から映像処理装置2に要求し、ステップS3022の通信開始の要求に応答を映像処理装置2が映像表示装置3に送信しても良い。 The video processing device 2 acquires from the memory 24 the specification of the high image quality area and the low image quality area according to the available communication band and the setting of the image quality of each area (step S301), and requests the image display device 3 to start communication. (step S3021). The video display device 3 transmits a response to the communication start request based on the process of step S3021 to the video processing device 2 (step S3022). The video processing device 2 acquires from the video display device 3 a signal indicating that the communication start request based on the process of step S3021 has been accepted. Note that the video display device 3 may request the video processing device 2 to start communication in step S3021, and the video processing device 2 may transmit a response to the request to start communication in step S3022 to the video display device 3.

映像処理装置2のカメラ23は、設置場所の周辺映像を撮像する(ステップS303)。カメラ23は、撮像した映像データを映像処理部22Aに出力する。映像処理部22Aは、複数の撮像データを用いて、複数のカメラ23の設置エリアの第1の映像データを生成する。映像処理部22Aは、撮像した映像データを画質制御部22Cに出力する。 The camera 23 of the image processing device 2 captures an image of the surroundings of the installation location (step S303). The camera 23 outputs captured image data to the image processing section 22A. The image processing unit 22A generates first image data of the installation area of the multiple cameras 23 using multiple image data. The video processing unit 22A outputs captured video data to the image quality control unit 22C.

映像処理装置2の帯域推定部22Bは、容量の大きい信号(例えば、1Mbpsの信号)を映像表示装置3に送信する(ステップS3031)。映像表示装置3は、ステップS3031の処理で送信された信号を測定し映像処理装置2に送信する(ステップS3032)。映像処理装置2の帯域推定部22Bは、ステップS3032の処理で取得した信号を基に通信帯域を推定する(ステップS304)なお、通信帯域の推定方法は一例でありこれに限られない。帯域推定部22Bは、推定した通信帯域の結果を画質制御部22Cに出力する。 The band estimation unit 22B of the video processing device 2 transmits a large-capacity signal (for example, a signal of 1 Mbps) to the video display device 3 (step S3031). The video display device 3 measures the signal transmitted in the process of step S3031 and transmits it to the video processing device 2 (step S3032). The band estimator 22B of the video processing device 2 estimates the communication band based on the signal acquired in the process of step S3032 (step S304). The band estimation unit 22B outputs the result of the estimated communication band to the image quality control unit 22C.

映像処理装置2は、映像表示装置3にユーザの視線の方向を検出することを要求する(ステップS3051)。映像表示装置3の視線方向検出部32Bは、ユーザの視線の方向を検出する(ステップS305)。映像表示装置3は、ステップS305の処理で検出された視線の方向の検出結果を映像処理装置2に送信する(ステップS3052)。映像処理装置2は、映像表示装置3から視線の方向の検出結果を取得する。なお、映像表示装置3は、ディスプレイ33にユーザに視点を選択することを促す画面を表示させ、視点に関する情報を取得してもよい。この場合、映像表示装置3は、画質制御部22Cに視点に関する情報を送信し、画質制御部22Cは、視点に関する情報を取得する。 The video processing device 2 requests the video display device 3 to detect the direction of the user's line of sight (step S3051). The line-of-sight direction detection unit 32B of the video display device 3 detects the line-of-sight direction of the user (step S305). The video display device 3 transmits the detection result of the line-of-sight direction detected in the process of step S305 to the video processing device 2 (step S3052). The video processing device 2 acquires the detection result of the line-of-sight direction from the video display device 3 . Note that the image display device 3 may display a screen prompting the user to select a viewpoint on the display 33 to acquire information about the viewpoint. In this case, the video display device 3 transmits information about the viewpoint to the image quality control section 22C, and the image quality control section 22C acquires the information about the viewpoint.

画質制御部22Cは、取得した視線の方向に係る情報と推定された通信帯域の結果に基づき、視線を中心とした各エリア(高画質エリアおよび低画質エリア)の面積および画質を設定する(ステップS306)。画質制御部22Cは、映像処理部22Aから取得した第1の映像データから、設定された各エリア(高画質エリアおよび低画質エリア)の面積および画質を用いて、高画質エリアの映像(言い換えると、ユーザが見ている方向に応じて第1の映像データから切り出した第2の映像データ)と低画質エリアの映像とを生成する。 The image quality control unit 22C sets the area and image quality of each area (high image quality area and low image quality area) centered on the line of sight based on the obtained information related to the direction of the line of sight and the result of the estimated communication band (step S306). The image quality control unit 22C uses the area and image quality of each set area (high image quality area and low image quality area) from the first image data acquired from the image processing unit 22A to generate the image of the high image quality area (in other words, , second image data cut out from the first image data according to the direction in which the user is looking, and the image of the low image quality area.

映像処理装置2の画質制御部22Cは、ステップS306の処理で行った設定に応じた各映像(高画質エリアの映像および低画質エリアの映像)を映像表示装置3の映像表示部32Aに送信する(ステップS3072)。映像表示装置3の映像表示部32Aは、取得した各映像(視線方向を中心とした領域の映像)をディスプレイ33に表示させる。映像表示装置3のディスプレイ33は、視線方向を中心とした領域の映像を表示する(ステップS308)。 The image quality control unit 22C of the image processing device 2 transmits each image (the image of the high image quality area and the image of the low image quality area) according to the setting performed in the process of step S306 to the image display unit 32A of the image display device 3. (Step S3072). The image display unit 32A of the image display device 3 causes the display 33 to display each acquired image (image of an area centered on the line-of-sight direction). The display 33 of the image display device 3 displays the image of the area centered on the line-of-sight direction (step S308).

映像表示システム1は、ステップS308の処理が終わると、映像処理装置2が映像表示装置3との通信を終了すると判定するまで、ステップS303の処理からステップS308までの処理を繰り替えし行う。 After completing the processing of step S308, the video display system 1 repeats the processing of steps S303 to S308 until the video processing device 2 determines that the communication with the video display device 3 is finished.

映像処理装置2は、映像表示装置3との通信を終了すると判定すると、映像表示装置3に通信終了を要求する(ステップS3101)。映像表示装置3は、ステップS3101の処理に基づく通信終了の要求に応答する旨の信号を映像処理装置2に送信する(ステップS3102)。なお、ステップS3101の通信を終了する判定、映像処理装置2への通信終了の要求を映像表示装置3が行い、ステップS3102の通信終了の要求に応答する旨の信号を映像処理装置2が映像表示装置3に送信してもよい。 When video processing device 2 determines to end communication with video display device 3, video processing device 2 requests video display device 3 to end communication (step S3101). The video display device 3 transmits to the video processing device 2 a signal to the effect that it responds to the communication end request based on the process of step S3101 (step S3102). Note that the video display device 3 makes the decision to end the communication in step S3101 and requests the video processing device 2 to end the communication, and the video processing device 2 displays a signal to the effect that it responds to the request to end the communication in step S3102. It may be sent to device 3 .

映像処理装置2のカメラ23は、撮像を終了する(ステップS311)。 The camera 23 of the video processing device 2 finishes imaging (step S311).

次に、図8を参照して、利用可能な通信帯域と高画質エリアの面積もしくは視点の数との関係を説明する。図8は、利用可能な通信帯域と高画質エリアの面積もしくは視点の数との関係を表した図である。なお、図8、9および10に示された(1)および(2)は同一のケースを表し、同じ符合は同じ値を表している。 Next, referring to FIG. 8, the relationship between the available communication band and the area of the high image quality area or the number of viewpoints will be described. FIG. 8 is a diagram showing the relationship between the available communication band and the area of the high image quality area or the number of viewpoints. Note that (1) and (2) shown in FIGS. 8, 9 and 10 represent the same case, and the same reference sign represents the same value.

図8に示したグラフの縦軸は、高画質エリアの面積もしくは視点の数を表す。縦軸に示されたaは、縦軸に示されたbよりも小さい値となる。図8に示したグラフの横軸は、利用可能な通信帯域を表す。横軸に示されたXは、横軸に示されたYよりも小さい値となる。 The vertical axis of the graph shown in FIG. 8 represents the area of the high image quality area or the number of viewpoints. The value a shown on the vertical axis is smaller than the value b shown on the vertical axis. The horizontal axis of the graph shown in FIG. 8 represents available communication bandwidth. X shown on the horizontal axis is a smaller value than Y shown on the horizontal axis.

まず(1)の場合の波形WV1について説明する。波形WV1において、利用可能な通信帯域が増加した場合Xまでは高画質エリアの面積または視点の数は一定値aとなる。利用可能な通信帯域がXとなると、高画質エリアの面積または視点の数は、階段状に増加しaとbの間の値となる。利用可能な通信帯域がXからYまでの間は、高画質エリアの面積または視点の数はaとbの間の値で一定値となる。利用可能な通信帯域Yとなると、高画質エリアの面積または視点の数は階段状に増加しbとなる。 First, the waveform WV1 in case (1) will be described. In the waveform WV1, when the available communication band increases, up to X, the area of the high image quality area or the number of viewpoints becomes a constant value a. When the available communication band becomes X, the area of the high image quality area or the number of viewpoints increases stepwise to a value between a and b. When the available communication band ranges from X to Y, the area of the high image quality area or the number of viewpoints is a constant value between a and b. When the usable communication band becomes Y, the area of the high image quality area or the number of viewpoints increases stepwise to b.

一方(2)の場合の波形WV2では、利用可能な通信帯域が増加しても、高画質エリアの面積または視点の数は一定の値となる。 On the other hand, with waveform WV2 in case (2), even if the available communication band increases, the area of the high image quality area or the number of viewpoints remains constant.

次に図9を参照して、利用可能な通信帯域と高画質エリアの画質との関係を説明する。図9は、利用可能な通信帯域と高画質エリアの画質との関係を表した図である。 Next, with reference to FIG. 9, the relationship between the available communication band and the image quality in the high image quality area will be described. FIG. 9 is a diagram showing the relationship between the available communication band and the image quality in the high image quality area.

図9に示したグラフの縦軸は、高画質エリアの画質を表す。図9に示したグラフの横軸は、利用可能な通信帯域を表す。縦軸に示されたcは、縦軸に示されたdよりも小さい値となる。 The vertical axis of the graph shown in FIG. 9 represents the image quality of the high image quality area. The horizontal axis of the graph shown in FIG. 9 represents available communication bandwidth. c shown on the vertical axis is a smaller value than d shown on the vertical axis.

まず(2)の場合の波形WV3について説明する。波形WV3おいて、利用可能な通信帯域が増加した場合Xまでは高画質エリアの画質は一定値cとなる。利用可能な通信帯域がXとなると、高画質エリアの画質は、階段状に増加しcとdの間の値となる。利用可能な通信帯域がXからYまでの間は、高画質エリアの画質はcとdの間の値で一定値となる。利用可能な通信帯域Yとなると、高画質エリアの画質は階段状に増加しdとなる。 First, the waveform WV3 in case (2) will be described. In waveform WV3, when the available communication band increases, up to X, the image quality of the high image quality area becomes a constant value c. When the available communication band becomes X, the image quality in the high image quality area increases stepwise to a value between c and d. When the available communication band ranges from X to Y, the image quality in the high image quality area is a constant value between c and d. When the usable communication band becomes Y, the image quality in the high image quality area increases stepwise to d.

一方(1)の場合の波形WV4では、利用可能な通信帯域が増加しても、高画質エリアの画質は一定の値となる。 On the other hand, with waveform WV4 in case (1), the image quality in the high image quality area remains constant even if the available communication band increases.

次に、図10を参照して、利用可能な通信帯域と低画質エリアの画質との関係を説明する。図10は、利用可能な通信帯域と低画質エリアの画質との関係を表した図である。 Next, with reference to FIG. 10, the relationship between the available communication band and the image quality of the low image quality area will be described. FIG. 10 is a diagram showing the relationship between available communication bands and image quality in low image quality areas.

図10に示したグラフの縦軸は、低画質エリアの画質を表す。図10に示したグラフの横軸は、利用可能な通信帯域を表す。縦軸に示されたc’、c、d’およびdの値の大きさの関係は、c’が一番小さく、cがc’より大きく、dが一番大きくd’がdより小さい値となる。なお、図10ではcよりd’が大きな値となっているがcよりd’が小さな値となることもある。つまり、高画質エリアの画質cより低画質エリアのd’を小さな値とすることもある。 The vertical axis of the graph shown in FIG. 10 represents the image quality of the low image quality area. The horizontal axis of the graph shown in FIG. 10 represents available communication bandwidth. The relationship between the values of c', c, d' and d shown on the vertical axis is such that c' is the smallest, c is larger than c', d is the largest and d' is smaller than d. becomes. Although d' is larger than c in FIG. 10, d' may be smaller than c. In other words, d' in the low image quality area may be set to a smaller value than the image quality c in the high image quality area.

まず(2)の場合の波形WV5について説明する。波形WV5おいて、利用可能な通信帯域が増加した場合Xまでは低画質エリアの画質は一定値c’となる。利用可能な通信帯域がXとなると、低画質エリアの画質は、階段状に増加しc’とd’の間の値となる。利用可能な通信帯域がXからYまでの間は、低画質エリアの画質はc’とd’の間の値で一定値となる。利用可能な通信帯域Yとなると、高画質エリアの画質は階段状に増加しd’となる。なお、低画質エリアは画質を小さな値とする以外にも静止画像や無画像とすることもできる。 First, the waveform WV5 in case (2) will be described. In the waveform WV5, the image quality of the low image quality area becomes a constant value c' up to X when the available communication band increases. When the available communication band becomes X, the image quality of the low image quality area increases stepwise to a value between c' and d'. When the available communication band is from X to Y, the image quality of the low image quality area is a constant value between c' and d'. When the usable communication band becomes Y, the image quality in the high image quality area increases stepwise to d'. The low image quality area may be a still image or no image, instead of setting the image quality to a small value.

一方(1)の場合の波形WV6では、利用可能な通信帯域が増加しても、低画質エリアの画質は一定の値となる。 On the other hand, with waveform WV6 in case (1), the image quality in the low image quality area remains constant even if the available communication band increases.

図8から図10に示された(1)のケースについて説明する。(1)のケースでは、利用可能な通信帯域が増加し通信帯域の結果が第1の所定値より広い広帯域となった場合に、高画質エリアおよび低画質エリアの画質は変更しない(図9および図10参照)。一方、高画質エリアの面積を広げるもしくは視点の数を増やす(図8参照)。 Case (1) shown in FIGS. 8 to 10 will be described. In the case of (1), when the usable communication band increases and the result of the communication band becomes a wider band than the first predetermined value, the image quality of the high image quality area and the low image quality area are not changed (Fig. 9 and See Figure 10). On the other hand, the area of the high image quality area is expanded or the number of viewpoints is increased (see FIG. 8).

これはユーザの視線の変更量が大きい場合に用いられ、映像表示システム1はより広いエリア画質を高画質とすることができる。また、これはユーザの視点の変更量が大きい場合に用いられ、映像表示システム1は多くの視点に対応する映像を高画質とすることができる。 This is used when the amount of change in the line of sight of the user is large, and the video display system 1 can make a wider area image quality high. Also, this is used when the amount of change in the viewpoint of the user is large, and the video display system 1 can produce high-quality video corresponding to many viewpoints.

図8から図10に示された(2)のケースについて説明する。(2)のケースでは、利用可能な通信帯域が増加し通信帯域の結果が第1の所定値より広い広帯域となった場合に、高画質エリアの面積または視点の数は変更しない(図8参照)。一方、高画質エリアおよび低画質エリアの両方もしくはどちらか一方の画質を向上させていく(図9および図10参照)。 Case (2) shown in FIGS. 8 to 10 will be described. In the case of (2), when the usable communication band increases and the result of the communication band becomes a wider band than the first predetermined value, the area of the high image quality area or the number of viewpoints is not changed (see FIG. 8). ). On the other hand, the image quality of both or one of the high image quality area and the low image quality area is improved (see FIGS. 9 and 10).

これはユーザの視線の変更量が小さい場合に用いられ、映像表示システム1は現在ユーザが視聴している映像の画質を向上させることができる。また、これはユーザの視点の変更量が小さい場合に用いられ、映像表示システム1は現在のユーザの視点に基づいた映像の画質を向上させることができる。 This is used when the amount of change in the line of sight of the user is small, and the image display system 1 can improve the image quality of the image currently viewed by the user. Also, this is used when the amount of change in the user's viewpoint is small, and the video display system 1 can improve the image quality of the video based on the current user's viewpoint.

このように、映像表示システム1は、ユーザの視線の動き、または視点の変化量に応じてユーザにとって最適と推測される画質の制御を行うことができる。 In this way, the video display system 1 can control image quality that is estimated to be optimal for the user according to the movement of the user's line of sight or the amount of change in the viewpoint.

なお、映像表示システム1は、高画質エリアの面積および低画質エリアの面積は変更せず高画質エリアの画質だけを向上させてもよい。 Note that the image display system 1 may improve only the image quality of the high image quality area without changing the area of the high image quality area and the area of the low image quality area.

また、映像表示システム1は、低画質エリアの画質は変更せず、高画質エリアの面積を広くし、高画質エリアの画質を向上させてもよい。 Further, the video display system 1 may increase the area of the high image quality area without changing the image quality of the low image quality area, and improve the image quality of the high image quality area.

また、映像表示システム1は、高画質エリアの画質(または面積)に予め上限を設けておき、上限に到達するまでは画質(または面積)を向上させていき、上限に到達した後は他の条件を改善させていってもよい。 In addition, the image display system 1 sets an upper limit to the image quality (or area) of the high image quality area in advance, and improves the image quality (or area) until the upper limit is reached. We can improve the conditions.

また、映像表示システム1は、図8、図9および図10に係るグラフを階段状ではなく直線的に変化させてもよい。 Also, the video display system 1 may change the graphs shown in FIGS. 8, 9 and 10 linearly instead of stepwise.

次に、図11を参照して、通信帯域が広くなった場合の映像コンテンツ解析による制御例を説明する。図11は、通信帯域が広くなった場合の映像コンテンツ解析による制御例を表す図である。なお、図11および図12のパターン(1)は図8、9および10の(1)と紐づけられている。また、図11および図12のパターン(2)は図8、9および10の(2)と紐づけられている。 Next, with reference to FIG. 11, an example of control by video content analysis when the communication band is widened will be described. FIG. 11 is a diagram showing an example of control by video content analysis when the communication band is widened. Pattern (1) in FIGS. 11 and 12 is associated with pattern (1) in FIGS. Also, pattern (2) in FIGS. 11 and 12 is associated with pattern (2) in FIGS.

パターン(1)は、注目される被写体の動きが速いケースである。パターン(1)では、視線の変更量または視点の切替頻度が大きいと想定される。そのため、利用可能な通信帯域が広くなった場合、映像表示システム1は高画質エリアの面積は広げて、高画質エリアおよび低画質エリアの画質は変更しない。つまり、映像処理装置2は、通信帯域の結果が第1の所定値より広い広帯域であり、かつユーザの見ている方向の変化量が第2の所定値より大きい場合、高画質エリアの面積を拡張する。 Pattern (1) is a case in which the subject of interest moves quickly. In pattern (1), it is assumed that the amount of change in line of sight or the frequency of viewpoint switching is large. Therefore, when the available communication band becomes wider, the video display system 1 expands the area of the high image quality area and does not change the image quality of the high image quality area and the low image quality area. In other words, if the result of the communication band is a broadband that is wider than the first predetermined value and the amount of change in the direction in which the user is looking is greater than the second predetermined value, the image processing device 2 determines the area of the high image quality area. Expand.

パターン(2)は、注目される被写体の動きが遅いケースである。パターン(2)は、視線の変更量または視点の切替頻度が大きいと想定される。そのため、利用可能な通信帯域が広くなった場合、映像表示システム1は高画質エリアの面積は変更せず、高画質エリアおよび低画質エリアの画質を向上させる。つまり、映像処理装置2は、通信帯域の結果が第1の所定値より広い広帯域であり、かつユーザの見ている方向の変化量が第2の所定値以下の場合、高画質エリアおよび低画質エリアの両方もしくはどちらか一方の画質を向上させる。 Pattern (2) is a case in which the subject of interest moves slowly. In pattern (2), it is assumed that the amount of change in line of sight or the frequency of viewpoint switching is large. Therefore, when the available communication band becomes wider, the image display system 1 does not change the area of the high image quality area and improves the image quality of the high image quality area and the low image quality area. In other words, when the result of the communication band is a broadband wider than the first predetermined value and the amount of change in the direction in which the user is looking is equal to or less than the second predetermined value, the image processing device 2 Improve image quality in both or either area.

このように、映像表示システム1は注目される被写体の動きに対応して、高画質エリアの設定および画質の制御を行うことができる。 In this manner, the image display system 1 can set the high image quality area and control the image quality in accordance with the movement of the subject of interest.

次に、図12を参照して、通信帯域が広くなった場合の、視聴側の視線移動もしくは視点切替解析による制御例を説明する。図12は、通信帯域が広くなった場合の、視聴側の視線移動もしくは視点切替解析による制御例を表した図である。 Next, with reference to FIG. 12, an example of control based on analysis of line-of-sight movement or viewpoint switching on the viewing side when the communication band is widened will be described. 12A and 12B are diagrams showing an example of control based on analysis of line-of-sight movement or viewpoint switching on the viewing side when the communication band is widened.

パターン(1)は、視聴側の視線の移動量が大きいまたは視点の切替の頻度が多い場合のケースである。パターン(1)では、高画質エリアの面積を広げて、高画質エリアおよび低画質エリアの画質は変更しない。 Pattern (1) is a case in which the amount of movement of the line of sight on the viewing side is large or the frequency of viewpoint switching is high. In pattern (1), the area of the high image quality area is expanded, and the image quality of the high image quality area and the low image quality area are not changed.

パターン(2)は、視聴側の視線の移動量が小さいまたは視点の切替の頻度が少ない場合のケースである。パターン(2)では、高画質エリアの面積は変更せず、高画質エリアの画質および低画質エリアの画質は向上させる。 Pattern (2) is a case in which the amount of movement of the line of sight on the viewing side is small or the frequency of viewpoint switching is low. In pattern (2), the area of the high image quality area is not changed, and the image quality of the high image quality area and the image quality of the low image quality area are improved.

次に、図13を参照して、全天球映像の高画質エリアと低画質エリアとの概念を説明する。図13は、全天球映像の高画質エリアと低画質エリアとを表した図である。 Next, with reference to FIG. 13, the concept of the high image quality area and the low image quality area of the omnidirectional video will be described. FIG. 13 is a diagram showing a high image quality area and a low image quality area of an omnidirectional image.

図13は、図2に係る合成映像40を天頂方向から見た場合の断面図を表している。 FIG. 13 shows a cross-sectional view of the synthesized image 40 of FIG. 2 viewed from the zenith direction.

人物hm1は、例えばヘッドマウントディスプレイを装着し合成映像40を視聴している人物である。人物hm1から伸びる点線の矢印は、人物hm1の視線の方向を表す。 The person hm1 is, for example, a person wearing a head-mounted display and viewing the composite image 40 . A dotted arrow extending from the person hm1 represents the direction of the line of sight of the person hm1.

エリアRE1は、合成映像40の中で、高画質で表示されるエリア(つまり、高画質エリア)である。エリアRE1は、人物hm1の視線の方向に基づきプロセッサ22によって自動で設定される。例えば、プロセッサ22は、人間の視野に対する部分を高画質エリアにしてもよいし、人間の視野に所定の角度加えた角度で人物hm1の視線を中心とした部分を高画質エリアにしてもよい。上述した所定の角度とは、例えば60度などである。なお、これは一例であり限定されない。 The area RE1 is an area displayed with high image quality (that is, a high image quality area) in the composite image 40 . The area RE1 is automatically set by the processor 22 based on the line-of-sight direction of the person hm1. For example, the processor 22 may set the portion corresponding to the human visual field as the high image quality area, or may set the portion centered on the line of sight of the person hm1 at an angle obtained by adding a predetermined angle to the human visual field as the high image quality area. The predetermined angle mentioned above is, for example, 60 degrees. In addition, this is an example and is not limited.

エリアRE2は、合成映像40の中で、低画質で表示されるエリア(つまり、低画質エリア)である。エリアRE2は、人物hm1の視線の方向に基づきプロセッサ22によって自動で設定される。 The area RE2 is an area displayed with low image quality (that is, a low image quality area) in the synthesized image 40 . The area RE2 is automatically set by the processor 22 based on the line-of-sight direction of the person hm1.

図13に示した合成映像40は、人物hm1の視線を中心としておよそ240度の範囲が高画質エリアのエリアRE1となっている。合成映像40の中で、高画質エリア以外のおよそ120度の範囲が低画質エリアとなっている。人物hm1の視野よりも広いエリアが高画質エリアとなっているため、人物hm1が視線を多少動かしたとしても(例えば、左右にそれぞれ50度程度)、人物hm1は高画質な映像を見ることができる。 In the composite image 40 shown in FIG. 13, a range of about 240 degrees around the line of sight of the person hm1 is the area RE1 of the high image quality area. In the composite image 40, a range of approximately 120 degrees other than the high image quality area is the low image quality area. Since the area wider than the field of view of the person hm1 is the high image quality area, even if the person hm1 slightly moves his line of sight (for example, about 50 degrees to the left and right), the person hm1 can see the high image quality image. can.

図13に示したエリアRE1の面積および画質と、エリアRE2の面積および画質とは、図11および図12で示したパターン(1)および(2)のようにプロセッサ22によって制御されてもよい。 The area and image quality of area RE1 shown in FIG. 13 and the area and image quality of area RE2 may be controlled by processor 22 as in patterns (1) and (2) shown in FIGS.

次に、図14を参照して、全周囲映像の各視点の高画質エリアと低画質エリアとの概念を説明する。図14は、全周囲映像の各視点の高画質エリアと低画質エリアとを表した図である。 Next, with reference to FIG. 14, the concept of the high image quality area and the low image quality area at each viewpoint of the omnidirectional video will be described. FIG. 14 is a diagram showing a high image quality area and a low image quality area at each viewpoint of the omnidirectional image.

図14は、図4に係る合成映像50を人物hm3の頭上から見た場合の断面図を表している。 FIG. 14 shows a cross-sectional view of the composite image 50 of FIG. 4 viewed from above the person hm3.

人物hm3は、複数存在する視点の中でn番目の視点(以下、n番目の視点のことを視点nと称する。なお、n-1番目およびn+1番目の視点についても同様である。)からの映像を視聴している。人物hm3から伸びる直線は、人物hm3の視野を表す。 The person hm3 is viewed from the n-th viewpoint (the n-th viewpoint is hereinafter referred to as the viewpoint n. The same applies to the (n-1)th and (n+1)th viewpoints) among a plurality of viewpoints. are watching a video. A straight line extending from the person hm3 represents the field of view of the person hm3.

エリアRE3は、視点nに係る映像を人物hm3が視聴する場合の、人物hm3の視野に対応するエリアである。 The area RE3 is an area corresponding to the field of view of the person hm3 when the person hm3 views the video related to the viewpoint n.

エリアRE4は、視点n+1に係る映像を人物hm3が視聴する場合の、人物hm3の視野に対するエリアである。 The area RE4 is an area for the visual field of the person hm3 when the person hm3 views the video associated with the viewpoint n+1.

エリアRE5は、視点n-1に係る映像を人物hm3が視聴する場合の、人物hm3の視野に対するエリアである。 The area RE5 is an area for the field of view of the person hm3 when the person hm3 views the video associated with the viewpoint n−1.

人物hm3が視点nに係る映像を視聴する場合、エリアRE3を高画質エリアとする。通信帯域が所定の値より小さい場合には、視点nの隣の視点である視点n+1のエリアRE4と視点n-1のエリアRE5とは低画質エリアとする。この場合、人物hm3が視点を隣の視点に変更をした後に低画質エリアの画質を高画質に変更するので処理に時間がかかってしまう。 When the person hm3 views the video related to the viewpoint n, the area RE3 is set as the high image quality area. When the communication band is smaller than a predetermined value, the area RE4 of the viewpoint n+1 and the area RE5 of the viewpoint n-1, which are neighboring viewpoints of the viewpoint n, are regarded as low image quality areas. In this case, the image quality of the low image quality area is changed to high image quality after the person hm3 changes the viewpoint to the adjacent viewpoint, so the processing takes time.

一方、通信帯域が所定の値より大きい場合には、視点nの隣の視点である視点n+1のエリアRE4と視点n-1のエリアRE5とも高画質エリアとする。この場合、人物hm3が視点を隣の視点に変更しても、隣の視点に係る視聴エリア(エリアRE4またはエリアRE5)は既に高画質であるため、人物hm3はスムーズな視点移動が可能となる。 On the other hand, when the communication band is larger than a predetermined value, both the area RE4 of the viewpoint n+1 and the area RE5 of the viewpoint n-1, which are neighboring viewpoints of the viewpoint n, are set as high image quality areas. In this case, even if the person hm3 changes the viewpoint to the adjacent viewpoint, the viewing area (area RE4 or area RE5) related to the adjacent viewpoint already has high image quality, so the person hm3 can smoothly move the viewpoint. .

また、通信帯域がさらに広い場合に、視点n+1および視点n-1の視点のさらに外側の複数の視点に係る映像を高画質で送信することができる。この場合、人物hm3は、より多くの視点にスムーズに変更することが可能となる。 Also, if the communication band is wider, it is possible to transmit high-quality images of a plurality of viewpoints outside the viewpoints n+1 and n−1. In this case, the person hm3 can smoothly change to more viewpoints.

高画質とする視点の数と高画質エリアおよび低画質エリアの画質とは、図11および図12で示したパターン(1)および(2)のようにプロセッサ22によって制御されてもよい。ここで、図11および図12の高画質エリアの面積を拡げることは、高画質で送信する視点の数を増やすことに対応する。 The number of high image quality viewpoints and the image quality of the high image quality area and the low image quality area may be controlled by the processor 22 as in patterns (1) and (2) shown in FIGS. 11 and 12 . Here, expanding the area of the high image quality area in FIGS. 11 and 12 corresponds to increasing the number of viewpoints for high image quality transmission.

以上により、映像表示システム1は、複数のカメラにより撮像された複数の撮像データを保持する映像処理装置2と、映像処理装置2と通信可能に接続された映像表示装置3と、を備える。映像処理装置2は、複数の撮像データを用いて、複数のカメラの設置エリアの第1の映像データを生成する。映像処理装置2は、映像表示装置3との通信帯域を推定し、映像表示装置3からユーザが見ている方向を取得する。映像処理装置2は、第1の映像データから、ユーザが見ている方向と通信帯域の推定結果とに応じた第2の映像データを生成し、生成された第2の映像データを映像表示装置3に送信する。 As described above, the video display system 1 includes the video processing device 2 holding a plurality of image data captured by a plurality of cameras, and the video display device 3 communicably connected to the video processing device 2 . The video processing device 2 generates first video data of an installation area of a plurality of cameras using a plurality of image data. The video processing device 2 estimates the communication band with the video display device 3 and obtains from the video display device 3 the direction in which the user is looking. The video processing device 2 generates second video data from the first video data according to the direction in which the user is looking and the estimation result of the communication band, and displays the generated second video data on the video display device. Send to 3.

これにより、映像表示システム1は、リアルタイムの通信帯域の推定結果を考慮してユーザの視野方向内および視野方向外の映像の画質を適切に決定し、通信環境に応じた映像を提供することができる。 As a result, the video display system 1 can appropriately determine the image quality of the video within and outside the user's visual field direction in consideration of the real-time estimation result of the communication band, and can provide video according to the communication environment. can.

また、映像処理装置2は、映像表示装置3から取得したユーザが見ている方向を基に、第2の映像データに高画質エリアと高画質エリア外である低画質エリアとを指定し、通信帯域の推定結果を基に、高画質エリアおよび低画質エリアの画質を制御する。これにより、映像表示システム1は、リアルタイムの通信帯域の推定結果を考慮してユーザの視野方向内および視野方向外の映像の画質を適切に決定し、通信環境に応じた映像を提供することができる Further, the video processing device 2 designates a high image quality area and a low image quality area outside the high image quality area in the second image data based on the viewing direction of the user obtained from the image display device 3, and performs communication. Based on the band estimation result, the image quality of the high image quality area and the low image quality area is controlled. As a result, the video display system 1 can appropriately determine the image quality of the video within and outside the user's visual field direction in consideration of the estimation result of the real-time communication band, and provide the video according to the communication environment. can

また、映像処理装置2は、通信帯域の推定結果が第1の所定値より広い広帯域である場合、高画質エリアおよび前記低画質エリアの両方もしくはどちらか一方の画質を向上させる。これにより、映像表示システム1は、リアルタイムの通信帯域が広帯域であると推定される場合、より高画質の映像を提供することができる。 Further, when the estimation result of the communication band is a broadband wider than the first predetermined value, the video processing device 2 improves the image quality of both or one of the high image quality area and the low image quality area. Thereby, the video display system 1 can provide a higher quality video when the real-time communication band is estimated to be a wide band.

また、映像処理装置2は、前記通信帯域の推定結果が第1の所定値より広い広帯域であり、かつ前記ユーザの見ている前記方向の変化量が第2の所定値以下の場合、前記高画質エリアおよび前記低画質エリアの両方もしくはどちらか一方の画質を向上させる。これにより、映像表示システム1は、ユーザの見ている方向の変化量が少ない場合には、映像データの画質を向上させることでユーザの映像に対する没入感を向上させることができる。 Further, when the estimation result of the communication band is a broadband wider than a first predetermined value and the amount of change in the direction viewed by the user is equal to or less than a second predetermined value, the video processing device 2 To improve the image quality of both or one of the image quality area and the low image quality area. As a result, when the amount of change in the viewing direction of the user is small, the image display system 1 can improve the user's sense of immersion in the image by improving the image quality of the image data.

また、映像処理装置2は、映像表示装置3から取得したユーザが見ている方向を基に、第2の映像データに高画質エリアと高画質エリア外である低画質エリアとを指定し、通信帯域の推定結果を基に、高画質エリアの面積を制御する。これにより、映像表示システム1は、通信帯域がより広帯域になった場合には、より広い面積のエリアを高画質エリアとすることができる。これにより、映像表示システム1は、ユーザが見ている方向の変化量に応じて高画質エリアの面積を制御することができる。 Further, the video processing device 2 designates a high image quality area and a low image quality area outside the high image quality area in the second image data based on the viewing direction of the user obtained from the image display device 3, and performs communication. Based on the band estimation result, the area of the high image quality area is controlled. As a result, when the communication band becomes wider, the video display system 1 can set a wider area as the high image quality area. Thereby, the image display system 1 can control the area of the high image quality area according to the amount of change in the direction in which the user is looking.

また、映像処理装置2は、通信帯域の推定結果が第1の所定値より広い広帯域である場合、高画質エリアの面積を拡張する。これにより、映像表示システム1は、通信帯域の変化に対応して高画質エリアの面積を広げるように制御することができ、ユーザの見ている方向の変化量に応じた最適と推測される画質の映像を映像表示装置3に表示させることができる。 Further, when the estimation result of the communication band is a broadband wider than the first predetermined value, the video processing device 2 expands the area of the high image quality area. As a result, the image display system 1 can be controlled so as to expand the area of the high image quality area in response to changes in the communication band. can be displayed on the image display device 3.

また、映像処理装置2は、通信帯域の推定結果が第1の所定値より広い広帯域であり、かつユーザの見ている方向の変化量が第2の所定値より大きい場合、高画質エリアの面積を拡張する。これにより、映像表示システム1は、ユーザの見ている方向の変化量の多い場合には、高画質エリアの面積を拡張することで、ユーザの映像に対する没入感を向上させることができる。 In addition, if the result of estimation of the communication band is a broadband that is wider than the first predetermined value and the amount of change in the direction in which the user is looking is greater than the second predetermined value, the video processing device 2 determines that the area of the high image quality area to extend As a result, the video display system 1 can improve the user's sense of immersion in the video by expanding the area of the high image quality area when there is a large amount of change in the viewing direction of the user.

また、本実施の形態に係る第1の映像データは、複数の異なる視野方向を撮像可能な前記複数のカメラの設置エリアの周囲の360度の範囲を有する全天球映像データである。これにより、映像表示システム1は、全天球映像データを生成することでユーザが実世界と見る風景と同じような映像を映像表示装置3に表示することができる。 Further, the first video data according to the present embodiment is omnidirectional video data having a 360-degree range around the installation area of the plurality of cameras capable of capturing images in a plurality of different viewing directions. As a result, the image display system 1 can display on the image display device 3 an image similar to the landscape viewed by the user in the real world by generating omnidirectional image data.

また、本実施の形態に係る第1の映像データは、同一の被写体がその被写体を囲んで複数の異なる場所に設置された複数のカメラを用いて撮像され、複数のカメラのそれぞれの視野範囲に対応する視点からみた同一の被写体の映像を有する全周囲映像データである。これにより、映像表示システム1は、全周囲映像データを生成することで様々な視点から同一の場面を見た場合の映像を映像表示装置3に表示することができる。 In addition, the first image data according to the present embodiment is obtained by imaging the same subject using a plurality of cameras installed at a plurality of different locations surrounding the subject, and capturing the images in the respective view ranges of the plurality of cameras. It is omnidirectional image data having images of the same subject viewed from corresponding viewpoints. As a result, the image display system 1 can display on the image display device 3 images when the same scene is viewed from various viewpoints by generating omnidirectional image data.

また、本実施の形態に係る画質とは、解像度、フレームレートおよび誤り訂正符号化量のうち少なくとも1つである。これにより、映像表示システム1は、解像度、フレームレートまたは誤り訂正符号化量を制御することで画質を制御することができる。 Also, the image quality according to the present embodiment is at least one of resolution, frame rate, and error correction coding amount. Thereby, the video display system 1 can control the image quality by controlling the resolution, frame rate, or error correction coding amount.

以上、添付図面を参照しながら実施の形態について説明したが、本開示はかかる例に限定されない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例、修正例、置換例、付加例、削除例、均等例に想到し得ることは明らかであり、それらについても本開示の技術的範囲に属すると了解される。また、発明の趣旨を逸脱しない範囲において、上述した実施の形態における各構成要素を任意に組み合わせてもよい。 Although the embodiments have been described above with reference to the accompanying drawings, the present disclosure is not limited to such examples. It is obvious that a person skilled in the art can conceive of various modifications, modifications, substitutions, additions, deletions, and equivalents within the scope of the claims. It is understood that it belongs to the technical scope of the present disclosure. Also, the components in the above-described embodiments may be combined arbitrarily without departing from the spirit of the invention.

本開示の技術は、リアルタイムの通信帯域の推定結果を考慮してユーザの視野方向内および視野方向外の映像の画質を適切に決定し、通信環境に応じた映像を提供する映像表示システムおよび映像表示方法として有用である。 The technology of the present disclosure provides a video display system and video that appropriately determines the image quality of video within and outside the user's visual field direction in consideration of real-time communication band estimation results, and provides video in accordance with the communication environment. It is useful as a display method.

1 映像表示システム
2 映像処理装置
3 映像表示装置
4 通信環境
21,31 通信I/F
22,32 プロセッサ
映像処理部 22A
帯域推定部 22B
画質制御部 22C
23,202 カメラ
23A 全天球カメラ
23B 全周囲カメラ
24,34 メモリ
32A 映像表示部
32B 視線方向検出部32B
33 ディスプレイ
40,50 合成映像
41,51 部分映像
43 部分風景
200a,200b,202a レンズ
300 携帯端末
301 ヘッドマウントディスプレイ
302 無線通信
hm1,hm2,hm3 人物
WV1,WV2,WV3,WV4,WV5,WV6 波形
RE1,RE2,RE3,RE4,RE5 エリア
1 video display system 2 video processing device 3 video display device 4 communication environment 21, 31 communication I/F
22, 32 Processor Video processing unit 22A
Band estimator 22B
Image quality control unit 22C
23, 202 camera 23A omnidirectional camera 23B omnidirectional camera 24, 34 memory 32A video display unit 32B line-of-sight direction detection unit 32B
33 Display 40, 50 Composite image 41, 51 Partial image 43 Partial scenery 200a, 200b, 202a Lens 300 Mobile terminal 301 Head mounted display 302 Wireless communication hm1, hm2, hm3 Person WV1, WV2, WV3, WV4, WV5, WV6 Waveform RE1 , RE2, RE3, RE4, RE5 Area

Claims (11)

複数のカメラにより撮像された複数の撮像データを保持する映像処理装置と、
前記映像処理装置と通信可能に接続された映像表示装置と、を備え、
前記映像処理装置は、
前記複数の撮像データを用いて、前記複数のカメラの設置エリアの第1の映像データを生成し、
前記映像表示装置との通信帯域を推定し、
前記映像表示装置からユーザが見ている方向を取得し、
前記第1の映像データから、前記方向と前記通信帯域の推定結果とに応じた第2の映像データを生成し、
生成された前記第2の映像データを前記映像表示装置に送信する、
映像表示システム。
a video processing device that holds a plurality of image data captured by a plurality of cameras;
a video display device communicably connected to the video processing device,
The video processing device is
generating first image data of an installation area of the plurality of cameras using the plurality of imaging data;
estimating a communication band with the video display device;
Acquiring the direction in which the user is looking from the video display device;
generating second video data according to the direction and the estimation result of the communication band from the first video data;
transmitting the generated second video data to the video display device;
video display system.
前記映像処理装置は、
前記映像表示装置から取得した前記ユーザが見ている前記方向を基に、前記第2の映像データに高画質エリアと前記高画質エリア外である低画質エリアとを指定し、
前記通信帯域の推定結果を基に、前記高画質エリアおよび前記低画質エリアの画質を制御する、
請求項1に記載の映像表示システム。
The video processing device is
Designating a high image quality area and a low image quality area outside the high image quality area in the second image data based on the direction in which the user is looking obtained from the image display device;
Controlling the image quality of the high image quality area and the low image quality area based on the estimation result of the communication band;
The image display system according to claim 1.
前記映像処理装置は、前記通信帯域の推定結果が第1の所定値より広い広帯域である場合、前記高画質エリアおよび前記低画質エリアの両方もしくはどちらか一方の画質を向上させる、
請求項2に記載の映像表示システム。
When the estimation result of the communication band is a broadband wider than a first predetermined value, the video processing device improves the image quality of both or one of the high image quality area and the low image quality area.
3. The image display system according to claim 2.
前記映像処理装置は、前記通信帯域の推定結果が第1の所定値より広い広帯域であり、かつ前記ユーザの見ている前記方向の変化量が第2の所定値以下の場合、前記高画質エリアおよび前記低画質エリアの両方もしくはどちらか一方の画質を向上させる、
請求項2に記載の映像表示システム。
When the estimation result of the communication band is a broadband wider than a first predetermined value, and the amount of change in the direction in which the user is looking is equal to or less than a second predetermined value, the image processing device determines the high image quality area. and improving the image quality of both or either of said low image quality areas;
3. The image display system according to claim 2.
前記映像処理装置は、
前記映像表示装置から取得した前記ユーザが見ている前記方向を基に、前記第2の映像データに高画質エリアと前記高画質エリア外である低画質エリアとを指定し、
前記通信帯域の推定結果を基に、前記高画質エリアの面積を制御する、
請求項1に記載の映像表示システム。
The video processing device is
Designating a high image quality area and a low image quality area outside the high image quality area in the second image data based on the direction in which the user is looking obtained from the image display device;
controlling the area of the high image quality area based on the estimation result of the communication band;
The image display system according to claim 1.
前記映像処理装置は、前記通信帯域の推定結果が第1の所定値より広い広帯域である場合、前記高画質エリアの前記面積を拡張する、
請求項5に記載の映像表示システム。
The video processing device expands the area of the high image quality area when the estimation result of the communication band is a broadband wider than a first predetermined value.
The image display system according to claim 5.
前記映像処理装置は、前記通信帯域の推定結果が第1の所定値より広い広帯域であり、かつ前記ユーザの見ている前記方向の変化量が第2の所定値より大きい場合、前記高画質エリアの面積を拡張する、
請求項5に記載の映像表示システム。
The video processing device determines that the communication band is a broadband wider than a first predetermined value, and that the amount of change in the direction in which the user is looking is greater than a second predetermined value, the high image quality area expand the area of
The image display system according to claim 5.
前記第1の映像データは、複数の異なる視野方向を撮像可能な前記複数のカメラの設置エリアの周囲の360度の範囲を有する全天球映像データである、
請求項1から請求項5のうちいずれか1項に記載の映像表示システム。
The first video data is omnidirectional video data having a 360-degree range around an installation area of the plurality of cameras capable of capturing images in a plurality of different viewing directions,
The image display system according to any one of claims 1 to 5.
前記第1の映像データは、同一の被写体がその被写体を囲んで複数の異なる場所に設置された前記複数のカメラを用いて撮像され、前記複数のカメラのそれぞれの視野範囲に対応する視点からみた前記同一の被写体の映像を有する全周囲映像データである、
請求項1から請求項5のうちいずれか1項に記載の映像表示システム。
The first image data is captured by using the plurality of cameras in which the same subject surrounds the subject and is installed in a plurality of different locations, and is viewed from viewpoints corresponding to the respective viewing ranges of the plurality of cameras. omnidirectional image data having an image of the same subject,
The image display system according to any one of claims 1 to 5.
前記画質とは、解像度、フレームレートおよび誤り訂正符号化量のうち少なくとも1つである、
請求項2から請求項4のうちいずれか1項に記載の映像表示システム。
The image quality is at least one of resolution, frame rate and error correction coding amount,
The image display system according to any one of claims 2 to 4.
映像表示装置と通信可能に接続され、複数のカメラにより撮像された複数の撮像データを保持する映像処理装置により行われる映像表示方法であって、
前記複数の撮像データを用いて、前記複数のカメラの設置エリアの第1の映像データを生成し、
前記映像表示装置との通信帯域を推定し、
前記映像表示装置からユーザが見ている方向を取得し、
前記第1の映像データから、前記方向と前記通信帯域の推定結果とに応じた第2の映像データを生成し、
生成された前記第2の映像データを前記映像表示装置に送信する、
映像表示方法。
A video display method performed by a video processing device communicably connected to a video display device and holding a plurality of image data captured by a plurality of cameras,
generating first image data of an installation area of the plurality of cameras using the plurality of imaging data;
estimating a communication band with the video display device;
Acquiring the direction in which the user is looking from the video display device;
generating second video data according to the direction and the estimation result of the communication band from the first video data;
transmitting the generated second video data to the video display device;
Image display method.
JP2022028537A 2022-02-25 2022-02-25 Video display system, and video display method Pending JP2023124647A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022028537A JP2023124647A (en) 2022-02-25 2022-02-25 Video display system, and video display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022028537A JP2023124647A (en) 2022-02-25 2022-02-25 Video display system, and video display method

Publications (1)

Publication Number Publication Date
JP2023124647A true JP2023124647A (en) 2023-09-06

Family

ID=87885962

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022028537A Pending JP2023124647A (en) 2022-02-25 2022-02-25 Video display system, and video display method

Country Status (1)

Country Link
JP (1) JP2023124647A (en)

Similar Documents

Publication Publication Date Title
US8553099B2 (en) Imaging terminal, display terminal, display method, and imaging system
JP6344723B2 (en) Video display system, video display device, and video display method
US11284014B2 (en) Image processing apparatus, image capturing system, image processing method, and recording medium
CN111066059A (en) Local tone mapping
KR102386385B1 (en) Electronic device and method for compressing image thereof
CN107211089B (en) Tracking system, terminal device, camera device, tracking photographing method, and program
JP2004266317A (en) Monitoring apparatus
KR20120108747A (en) Monitoring camera for generating 3 dimensional scene and method thereof
KR102375688B1 (en) Imaging device, shooting system and shooting method
JP2014007653A (en) Imaging device, imaging method, imaging system, and program
JP2017060078A (en) Image recording system, user attachment device, imaging apparatus, image processing system, image recording method, and program
JP5838852B2 (en) Imaging system, imaging apparatus, imaging method, and program
JP6525740B2 (en) INFORMATION PROCESSING APPARATUS, CONTROL METHOD FOR INFORMATION PROCESSING APPARATUS, IMAGE PROCESSING SYSTEM, AND PROGRAM
JP6678313B2 (en) Image display system, image display device, and image display method
US20230069407A1 (en) Remote operation apparatus and computer-readable medium
JP2023124647A (en) Video display system, and video display method
JP6004978B2 (en) Subject image extraction device and subject image extraction / synthesis device
JP2013070129A (en) Image information extraction apparatus, image transmission apparatus using the same, image receiving apparatus, and image transmission system
US11843846B2 (en) Information processing apparatus and control method therefor
KR101237975B1 (en) Image processing apparatus
JP6459517B2 (en) Imaging device, video transmission device, and video transmission / reception system
JP2016039409A (en) Image processing device, its control method, program, and storage medium
JP2014236313A (en) Display controller, display control system, program
KR101204093B1 (en) Image processing apparatus and controlling method of the same
US10070056B2 (en) Omnidirectional camera system