JP7505483B2 - 動画配信システム、及び動画配信方法 - Google Patents

動画配信システム、及び動画配信方法 Download PDF

Info

Publication number
JP7505483B2
JP7505483B2 JP2021507147A JP2021507147A JP7505483B2 JP 7505483 B2 JP7505483 B2 JP 7505483B2 JP 2021507147 A JP2021507147 A JP 2021507147A JP 2021507147 A JP2021507147 A JP 2021507147A JP 7505483 B2 JP7505483 B2 JP 7505483B2
Authority
JP
Japan
Prior art keywords
image
resolution
low
abnormality
video distribution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021507147A
Other languages
English (en)
Other versions
JPWO2020189223A1 (ja
Inventor
純司 大井
智博 大井
啓生 郷原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Priority claimed from PCT/JP2020/008240 external-priority patent/WO2020189223A1/ja
Publication of JPWO2020189223A1 publication Critical patent/JPWO2020189223A1/ja
Application granted granted Critical
Publication of JP7505483B2 publication Critical patent/JP7505483B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本技術は、動画配信システム、及び動画配信方法に関し、特に、より確実に動画配信を行うことができるようにした動画配信システム、及び動画配信方法に関する。
画像処理装置として、複数の撮像部により撮像される複数の画像を合成して出力するものが知られている(例えば、特許文献1参照)。
特開2017-69926号公報
ところで、複数の撮像部により撮像される複数の画像を合成して動画として配信する場合に、複数の撮像部のうち、一部の撮像部からの画像の入力が欠落してしまうと、動画配信を継続することができない場合があり、より確実に動画配信を行うための技術が求められている。
本技術はこのような状況に鑑みてなされたものであり、より確実に動画配信を行うことができるようにするものである。
本技術の一側面の動画配信システムは、低解像度画像を、低解像度カメラから取得するとともに、前記低解像度画像よりも狭い画角を有し、前記低解像度画像の解像度よりも高い解像度を有し、かつ前記低解像度画像に含まれる実空間の領域を表す高解像度画像を、高解像度カメラから取得する画像取得部と、前記低解像度画像を表す第1の信号と、前記高解像度画像を表す第2の信号のうち、いずれか一方の信号に異常があるか否かを判定する異常判定部と、前記異常がないと判定された場合、前記低解像度画像と前記高解像度画像との間で連続性を有する第1の合成画像を生成する画像処理部と、前記第1の合成画像を表示端末に送信する送信制御部とを備え、前記画像処理部は、前記異常があると判定された場合、前記低解像度カメラと前記高解像度カメラのうち、前記異常があると判定されたカメラから取得される画像を、前記実空間の領域に対応する代替画像で置き換えて、前記連続性を実質的に再現する第2の合成画像を生成し、前記送信制御部は、前記第2の合成画像を前記表示端末に送信し、前記画像処理部は、前記低解像度画像と前記高解像度画像を用いたスティッチングによって、前記低解像度画像と前記高解像度画像との間の前記連続性を再現し、前記異常があると判定された場合において、前記第2の信号に前記異常がある場合には、第1の処理によって前記代替画像に置き換え、前記第1の信号に前記異常がある場合には、前記第1の処理と異なる第2の処理によって前記代替画像に置き換えることで、前記連続性を実質的に再現する前記第2の合成画像を生成する動画配信システムである。
本技術の一側面の動画配信方法は、動画配信システムが、低解像度画像を、低解像度カメラから取得するとともに、前記低解像度画像よりも狭い画角を有し、前記低解像度画像の解像度よりも高い解像度を有し、かつ前記低解像度画像に含まれる実空間の領域を表す高解像度画像を、高解像度カメラから取得し、前記低解像度画像を表す第1の信号と、前記高解像度画像を表す第2の信号のうち、いずれか一方の信号に異常があるか否かを判定し、前記異常がないと判定された場合、前記低解像度画像と前記高解像度画像との間で連続性を有する第1の合成画像を生成し、前記第1の合成画像を表示端末に送信し、前記異常があると判定された場合、前記低解像度カメラと前記高解像度カメラのうち、前記異常があると判定されたカメラから取得される画像を、前記実空間の領域に対応する代替画像で置き換えて、前記連続性を実質的に再現する第2の合成画像を生成し、前記第2の合成画像を前記表示端末に送信し、前記低解像度画像と前記高解像度画像を用いたスティッチングによって、前記低解像度画像と前記高解像度画像との間の前記連続性を再現し、前記異常があると判定された場合において、前記第2の信号に前記異常がある場合には、第1の処理によって前記代替画像に置き換え、前記第1の信号に前記異常がある場合には、前記第1の処理と異なる第2の処理によって前記代替画像に置き換えることで、前記連続性を実質的に再現する前記第2の合成画像を生成する動画配信方法である。
本技術の一側面の動画配信システム、及び動画配信方法においては、低解像度画像が、低解像度カメラから取得されるとともに、前記低解像度画像よりも狭い画角を有し、前記低解像度画像の解像度よりも高い解像度を有し、かつ前記低解像度画像に含まれる実空間の領域を表す高解像度画像が、高解像度カメラから取得され、前記低解像度画像を表す第1の信号と、前記高解像度画像を表す第2の信号のうち、いずれか一方の信号に異常があるか否かが判定され、前記異常がないと判定された場合、前記低解像度画像と前記高解像度画像との間で連続性を有する第1の合成画像が生成され、前記第1の合成画像が表示端末に送信され、前記異常があると判定された場合、前記低解像度カメラと前記高解像度カメラのうち、前記異常があると判定されたカメラから取得される画像が、前記実空間の領域に対応する代替画像で置き換えられて、前記連続性を実質的に再現する第2の合成画像が生成され、前記第2の合成画像が前記表示端末に送信される。また、前記低解像度画像と前記高解像度画像を用いたスティッチングによって、前記低解像度画像と前記高解像度画像との間の前記連続性が再現され、前記異常があると判定された場合において、前記第2の信号に前記異常がある場合には、第1の処理によって前記代替画像に置き換えられ、前記第1の信号に前記異常がある場合には、前記第1の処理と異なる第2の処理によって前記代替画像に置き換えられることで、前記連続性を実質的に再現する前記第2の合成画像が生成される。
本技術を適用した動画配信システムの構成の第1の例を示す図である。 ワークステーションの構成の例を示す図である。 一部のカメラ入力の欠落の例を示す図である。 欠落したカメラ入力を黒画に置き換えた場合の例を示す図である。 本技術を適用した動画配信システムにおける要部の構成の例を示す図である。 スティッチ処理の詳細を説明する図である。 スティッチマップの例を示す図である。 分割処理の詳細を説明する図である。 透視投影変換の例を示す図である。 高解像度画像入力の欠落時における要部の構成の例を示す図である。 高解像度画像の例を示す図である。 低解像度画像の例を示す図である。 高解像度画像入力の欠落時におけるトリミング・リサイズ処理とアルファブレンド処理の例を示している。 合成画像の第1の例を示す図である。 合成画像の第1の例を示す図である。 合成画像の第1の例を示す図である。 低解像度画像入力の欠落時における要部の構成の例を示す図である。 合成画像の第2の例を示す図である。 合成画像の第2の例を示す図である。 合成画像の第2の例を示す図である。 高解像度画像入力の欠落時に静止画の補完を行う場合における要部の構成の例を示す図である。 合成画像の第3の例を示す図である。 合成画像の第3の例を示す図である。 合成画像の第3の例を示す図である。 配信側の画像処理の流れを説明するフローチャートである。 高解像度画像処理の流れを説明するフローチャートである。 低解像度画像処理の流れを説明するフローチャートである。 分割・エンコード処理の流れを説明するフローチャートである。 動画配信サーバの構成の例を示す図である。 動画配信処理の流れを説明するフローチャートである。 本技術を適用した動画配信システムの構成の第2の例を示す図である。 表示端末の構成の例を示す図である。 高解像度合成画像と高解像度用アルファ画像の例を示す図である。 低解像度合成画像の例を示す図である。 表示端末側の第1の再生処理の流れを説明するフローチャートである。 第1の再生処理で処理される画像を模式的に示した図である。 高解像度合成画像と高解像度用アルファ画像の例を示す図である。 低解像度合成画像と低解像度用のアルファ画像の例を示す図である。 背景用静止画の例を示す図である。 表示端末側の第2の再生処理の流れを説明するフローチャートである。 第2の再生処理で処理される画像を模式的に示した図である。 本技術を適用した動画配信システムの他の構成の例を示す図である。 コンピュータの構成例を示す図である。
以下、図面を参照しながら本技術の実施の形態について説明する。なお、説明は以下の順序で行うものとする。
1.第1の実施の形態
2.第2の実施の形態
3.変形例
4.コンピュータの構成
<1.第1の実施の形態>
(システムの構成)
図1は、本技術を適用した動画配信システムの構成の第1の例を示している。
動画配信システム1は、ワークステーション10、カメラ11-1乃至11-N(N:2以上の整数)、動画配信サーバ12、及び表示端末20-1乃至20-M(M:1以上の整数)を含んで構成される。また、動画配信システム1において、ワークステーション10、動画配信サーバ12、及び表示端末20-1乃至20-Mは、インターネット30にそれぞれ接続されている。
ワークステーション10は、画像処理に特化した画像処理装置である。ワークステーション10は、カメラ11-1乃至11-Nにより撮像された複数の画像に対する画像処理を行い、当該画像処理で得られるデータを、インターネット30を介して動画配信サーバ12に送信する。
カメラ11-1は、例えばCMOS(Complementary Metal Oxide Semiconductor)イメージセンサやCCD(Charge Coupled Device)イメージセンサ等のイメージセンサと、カメラISP(Image Signal Processor)等の信号処理部を含んで構成される。カメラ11-1は、撮像した画像のデータを、ワークステーション10に送信する。
カメラ11-2乃至11-Nのそれぞれは、イメージセンサと信号処理部を含んで構成され、撮像した画像のデータを、ワークステーション10に送信する。
なお、カメラ11-1乃至11-Nのそれぞれは、例えば専用線(ケーブル)等の通信回線を介してワークステーション10と接続されるほか、所定の規格に準拠した有線通信又は無線通信により接続されてもよい。また、以下の説明では、カメラ11-1乃至11-Nを、特に区別する必要がない場合には、単にカメラ11と称する。
動画配信サーバ12は、例えばデータセンタ等に設置されるウェブサーバである。動画配信サーバ12は、ワークステーション10から送信されてくるデータを受信する。動画配信サーバ12は、表示端末20-1乃至20-Mのいずれかから動画配信が要求された場合、要求元の表示端末20に対し、ワークステーション10からのデータを含む動画ストリームを、インターネット30を介して送信する。
表示端末20-1は、例えば、ユーザの両眼を覆うように頭部に装着して、ユーザの眼前に設けられた表示画面に表示される動画や静止画を鑑賞するヘッドマウントディスプレイとして構成される。なお、表示端末20-1は、ヘッドマウントディスプレイに限らず、例えば、スマートフォンやタブレット端末、ゲーム機などのディスプレイを有する電子機器であってもよい。
表示端末20-1は、例えばユーザの操作に応じて、動画配信の要求を、インターネット30を介して動画配信サーバ12に送信する。表示端末20-1は、インターネット30を介して動画配信サーバ12から送信されてくる動画ストリームを受信して処理し、動画を再生する。この動画としては、例えば、動画配信サーバ12からライブ配信されるVR(Virtual Reality)動画等のコンテンツを含む。
表示端末20-2乃至20-Mは、表示端末20-1と同様に、例えばヘッドマウントディスプレイ等から構成され、動画配信サーバ12から動画ストリームとして配信される動画をそれぞれ再生する。なお、表示端末20-1乃至20-Mを、特に区別する必要がない場合には、単に表示端末20と称する。
(ワークステーションの構成)
図2は、図1のワークステーション10の構成の例を示している。
図2において、ワークステーション10は、制御部100、入力部101、出力部102、記憶部103、及び通信部104から構成される。
制御部100は、例えば、CPU(Central Processing Unit)等のプロセッサや、グラフィックカード(ビデオカード)などから構成される。制御部100は、各部の動作の制御や各種の演算処理を行う中心的な処理装置である。
入力部101は、例えばキーボードやマウス、物理的なボタン等から構成される。入力部101は、ユーザの操作に応じた操作信号を、制御部100に供給する。
出力部102は、例えばディスプレイやスピーカ等から構成される。出力部102は、制御部100からの制御に従い、映像や音声などを出力する。
記憶部103は、例えば、不揮発性メモリや揮発性メモリを含む半導体メモリや、バッファメモリなどから構成される。記憶部103は、制御部100からの制御に従い、各種のデータを記憶する。
通信部104は、例えば、所定の規格に準拠した無線通信又は有線通信に対応した通信モジュールや、ビデオやオーディオのキャプチャカードなどから構成される。
通信部104は、制御部100からの制御に従い、インターネット30を介して動画配信サーバ12との間で、各種のデータをやり取りする。また、通信部104は、制御部100からの制御に従い、カメラ11-1乃至11-Nからのデータを受信する。
また、制御部100は、画像取得部111、異常判定部112、画像処理部113、及び送信制御部114を含む。
画像取得部111は、カメラ11-1乃至11-Nにより撮像された複数の画像のそれぞれの画像信号を、通信部104を介して取得(キャプチャ)し、記憶部103に記憶させる。
異常判定部112は、画像取得部111により取得される複数の画像の監視結果に基づいて、画像信号に異常があるか否かを判定する。異常判定部112は、異常の判定結果を、画像処理部113に供給する。
画像処理部113は、記憶部103に記憶された画像の画像信号を読み出して、所定の画像処理を行い、その画像処理の結果得られるデータを、送信制御部114に供給する。なお、詳細は、図5等を参照して後述するが、この画像処理としては、例えば、スティッチ処理やトリミング・リサイズ処理、分割処理、エンコード等の処理が含まれる。
送信制御部114は、通信部104を制御して、画像処理部113からのデータを、インターネット30を介して動画配信サーバ12に送信する。
動画配信システム1は、以上のように構成される。
(一部のカメラ入力の欠落の例)
ところで、動画配信システム1においては、複数のカメラ11-1乃至11-Nのうち、一部のカメラ11からの画像の入力が欠落した場合に、動画配信を継続することができない場合があるため、何らかの入力欠落対策が求められる。
ここで、例えば、図3に示すように、ワークステーション10と接続された4台のカメラ11-1乃至11-4のうち、カメラ11-2が故障した場合を想定する。この場合において、ワークステーション10(の画像処理部113)では、同期処理部131によって、カメラ11-1乃至11-4のそれぞれから入力される画像信号の同期がとられる。
しかしながら、故障したカメラ11-2からは画像信号が入力されないため、ワークステーション10では、全てのカメラ11からの画像信号が入力されるまで、待機することになる。このとき、スティッチ処理部132では、前段の同期処理部131から同期した画像信号が入力されてこないため、スティッチ処理を行うことができない。
このように、複数のカメラ11のうち、少なくとも1台のカメラ11が故障すると、スティッチ処理を行うことができず、結果として動画配信を継続することができない。なお、スティッチ処理の詳細は、図6及び図7を参照して後述する。
(欠落した入力を黒画に置き換えた例)
また、図4は、欠落したカメラ入力を黒画に置き換えた場合の例を示している。
例えば、4台のカメラ11-1乃至11-4が、高解像度カメラ11-1及び高解像度カメラ11-2と、低解像度カメラ11-3及び低解像度カメラ11-4から構成される場合を想定する。
ここで、高解像度カメラ11は、高解像度画像を撮像可能なカメラである。この高解像度画像は、低解像度画像よりも狭い画角を有し、当該低解像度画像の解像度よりも高い解像度を有し、かつ、当該低解像度画像に含まれる実空間の領域を表す画像である。
一方で、低解像度カメラ11は、低解像度画像を撮像可能なカメラである。この低解像度画像は、高解像度画像よりも広い画角を有し、当該高解像度画像の解像度よりも低い解像度を有し、かつ、実空間の領域として表された当該高解像度画像を含む画像である。
図4においては、例えば、高解像度カメラ11-2が故障したため、高解像度画像I11の一部の領域が黒画(図中の「BK」)に置き換えられた状態となる。このとき、再生側の表示端末20では、動画配信サーバ12から配信される動画ストリームを受信して、分割階層化方式により映像を表示するが、低解像度画像I12上に黒画(図中の「BK」)が描画されているため、ユーザからすれば、見えるはずの領域が見えなくなる。
ここで、分割階層化方式は、全天球画像の一部の注視領域を高解像度にするために、複数のカメラ11-1乃至11-Nによって撮像される画像に対するスティッチ処理を行った後に、複数の領域に切り出した高解像度画像と、全天球を含む低解像度画像とを別のストリームとして配信し、再生側の表示端末20にて画像を合成して表示するものである。
すなわち、分割階層化方式では、再生側の表示端末20で、低解像度画像の上に、高解像度画像を重ねるために、図4に示した黒画(図中の「BK」)を含む高解像度画像I11が配信されると、低解像度画像I12では見えている領域が見えなくなってしまう。なお、動画の場合には、アルファ値は含まれないため、透明という表現はできない。
そこで、本技術では、動画配信システム1において、複数のカメラ11-1乃至11-Nのうち、一部のカメラ11からの入力が欠落した場合でも動画配信を継続して、より確実に動画配信を行うことができるようにする。以下、本技術の詳細について、図面を参照しながら説明する。
(配信側の要部の構成)
図5は、図1の動画配信システム1における配信側の要部の構成の例を示している。
なお、図5において、入力監視部121-1乃至121-4は、異常判定部112(図2)の機能として提供される。また、同期処理部131-1、同期処理部131-2、高解像度スティッチ処理部132-1、低解像度スティッチ処理部132-2、分配部133、トリミング・リサイズ部134、アルファブレンド部135、及び分割部136は、例えば、画像処理部113(図2)の機能として提供される。
図5において、ワークステーション10では、カメラ入力は4系統とされ、高解像度カメラ11-1により撮像された高解像度画像I1-1と、高解像度カメラ11-2により撮像された高解像度画像I1-2と、低解像度カメラ11-3により撮像された低解像度画像I1-3と、低解像度カメラ11-4により撮像された低解像度画像I1-4の画像信号が、画像取得部111(図2)によりそれぞれ取得され、入力信号として入力される。
入力監視部121-1は、高解像度カメラ11-1から同期処理部131-1に入力される高解像度画像I1-1の入力信号を監視する。また、入力監視部121-2は、高解像度カメラ11-2から同期処理部131-1に入力される高解像度画像I1-2の入力信号を監視する。
入力監視部121-3は、低解像度カメラ11-3から分配部122に入力される低解像度画像I1-3の入力信号を監視する。また、入力監視部121-4は、低解像度カメラ11-4から同期処理部131-2に入力される低解像度画像I1-4の入力信号を監視する。
入力監視部121-1乃至121-4による監視結果のそれぞれは、異常判定部112(図2)に供給され、各入力信号に異常があるか否か(高解像度画像信号と低解像度画像信号のうち、いずれか一方の信号に異常があるか否か)が判定される。
図5の構成の例では、入力信号に異常がないと判定された場合の画像処理について説明する。なお、入力信号に異常があると判定された場合の画像処理については、図10、図17、及び図21等を参照して後述する。
分配部122は、入力監視部121-3から入力される低解像度画像I1-3の入力信号を分配して、同期処理部131-1と同期処理部131-2にそれぞれ供給する。
同期処理部131-1は、そこに入力される、高解像度画像I1-1と、高解像度画像I1-2と、低解像度画像I1-3のそれぞれの画像信号の同期をとって、高解像度スティッチ処理部132-1に供給する。
同期処理部131-2は、そこに入力される、低解像度画像I1-3と、低解像度画像I1-4のそれぞれの画像信号の同期をとって、低解像度スティッチ処理部132-2に供給する。
高解像度スティッチ処理部132-1は、同期して入力される高解像度画像I1-1、高解像度画像I1-2、及び低解像度画像I1-3のそれぞれの画像信号に対するスティッチ処理を行い、その処理の結果得られる高解像度スティッチ画像I3-1の画像信号を、アルファブレンド部135に供給する。
低解像度スティッチ処理部132-2は、同期して入力される低解像度画像I1-3、及び低解像度画像I1-4のそれぞれの画像信号に対するスティッチ処理を行い、その処理の結果得られる低解像度スティッチ画像I3-2の画像信号を、分配部133に供給する。
ここで、図6は、高解像度スティッチ処理部132-1により実行されるスティッチ処理の詳細を示している。このスティッチ処理では、同期して入力される高解像度画像I1-1と、高解像度画像I1-2と、低解像度画像I1-3の入力画像ごとに、対応するスティッチマップを用いて色とアルファ値とを求めて、順次アルファブレンドしていくことで、高解像度スティッチ画像I3-1が生成される。
また、図7には、スティッチマップの例を示している。ここで、スティッチマップとは、スティッチ用のソフトウェアを利用してあらかじめ生成しておくデータであって、変換先の画素ごとに、変換元の画素の座標とアルファ値が格納されたマップである。図7の例では、高解像度画像I1-1と、高解像度画像I1-2と、低解像度画像I1-3の入力画像ごとに、スティッチマップSM1乃至SM3がそれぞれ用意されている。
このようなスティッチマップSM1乃至SM3を用いたスティッチ処理を行うことで、高解像度スティッチ処理部132-1では、例えば、高解像度画像I1-1と、高解像度画像I1-2と、低解像度画像I1-3とをつなぎ合わせて、部分正距円筒画像に合成することができる。
なお、図示はしていないが、低解像度スティッチ処理部132-2においても、低解像度画像I1-3と、低解像度画像I1-4の入力画像ごとに、対応するスティッチマップを用いたスティッチ処理が行われる。そして、このスティッチ処理によって、低解像度画像I1-3と低解像度画像I1-4をつなぎ合わせて合成した正距円筒画像として、低解像度スティッチ画像I3-2が生成される。
図5の説明に戻り、分配部133は、低解像度スティッチ処理部132-2からの低解像度スティッチ画像I3-2の画像信号を、トリミング・リサイズ部134及び分割部136に供給する。
トリミング・リサイズ部134は、低解像度スティッチ画像I3-2の画像信号に対し、トリミング・リサイズ処理を行い、その処理の結果得られるトリミング・リサイズ画像I4の画像信号を、アルファブレンド部135に供給する。
アルファブレンド部135は、トリミング・リサイズ画像I4の上に、高解像度スティッチ画像I3-1をアルファブレンドするアルファブレンド処理を行う。この例では、高解像度スティッチ画像I3-1に欠落した領域は存在しないため、高解像度スティッチ画像I3-1の画像信号が分割部136に供給される。
分割部136には、アルファブレンド部135からの高解像度スティッチ画像I3-1と、分配部133からの低解像度スティッチ画像I3-2の画像信号がそれぞれ供給される。分割部136は、高解像度スティッチ画像I3-1及び低解像度スティッチ画像I3-2の画像信号を用いた分割処理を行い、その結果得られる合成画像I2として、合成画像I2-1乃至I2-5の画像信号を出力する。
ここで、図8は、分割部136により実行される分割処理の詳細を示している。この分割処理では、高解像度スティッチ画像I3-1と低解像度スティッチ画像I3-2を入力画像として、指定された角度と距離に従って透視投影変換が行われ、全天球映像が分割階層化される。なお、図9は、透視投影変換の例を示しており、図中の3次元空間で表された「Output image」が、例えば合成画像I2-1乃至I2-4のいずれかの画像に相当する。
例えば、この分割処理によって、高解像度部分正距円筒画像としての高解像度スティッチ画像I3-1の領域外を、低解像度正距円筒画像としての低解像度スティッチ画像I3-2を用いて補完する(置き換える)ことで、合成画像I2として、複数の領域に切り出した高解像度合成画像I2-1乃至I2-4と、全天球を含む低解像度合成画像I2-5が生成される。
図5の説明に戻り、ワークステーション10においては、画像処理部113(図2)によって、分割部136により生成された合成画像I2-1乃至I2-5がエンコードされ、送信制御部114(図2)によって、エンコードデータが、インターネット30を介して動画配信サーバ12にアップロードされる。
以上、動画配信システム1における配信側の要部の構成を説明した。
(高解像度画像入力の欠落)
図10は、動画配信システム1において、高解像度カメラ11-2により撮像される高解像度画像I1-2の入力が欠落した場合の配信側の要部の構成を示している。また、図11及び図12には、画像取得部111により取得(キャプチャ)される入力画像の例を示している。
すなわち、図10の例では、高解像度カメラ11-1により撮像される高解像度画像I1-1(図11のA)と、高解像度カメラ11-2により撮像される高解像度画像I1-2(図11のB)と、低解像度カメラ11-3により撮像される低解像度画像I1-3(図12のC)と、低解像度カメラ11-4により撮像される低解像度画像I1-4(図12のD)のうち、高解像度画像I1-2の入力が欠落している。
このとき、異常判定部112(図2)は、入力監視部121-2からの監視結果に基づき、高解像度画像I1-2の画像信号に異常があると判定し、その判定結果を画像処理部113に通知する。そして、画像処理部113(図2)では、高解像度画像入力の欠落に応じた画像処理が行われる。
具体的には、同期処理部131-1には、高解像度画像I1-1と低解像度画像I1-3の画像信号のほか、欠落した高解像度画像I1-2の代わりに、透明画像I5(アルファ値が0の画像)の画像信号が入力される。そのため、高解像度スティッチ処理部132-1では、スティッチ処理によって、一部が透明の領域を含む高解像度スティッチ画像I3-1Tが生成される。
なお、ここでの高解像度画像I1-2を透明画像I5に置き換える処理は、画像処理部113(図2)が行ってもよいし、その前段の入力監視部121-2などが行ってもよい。
一方で、同期処理部131-2には、低解像度画像I1-3と低解像度画像I1-4の画像信号が入力される。そのため、低解像度スティッチ処理部132-2では、スティッチ処理によって、完全な(欠落してない)低解像度スティッチ画像I3-2が生成される。
そして、画像処理部113(図2)においては、図13に示すように、低解像度スティッチ画像I3-2を用いたトリミング・リサイズ処理と、透明領域TRを含む高解像度スティッチ画像I3-1Tを用いたアルファブレンド処理がそれぞれ実行される。
すなわち、トリミング・リサイズ部134では、低解像度スティッチ画像I3-2に対し、トリミング・リサイズ処理が行われ、高解像度スティッチ画像I3-1Tに対応する領域が切り取られ、その領域のサイズが調整される(図13のS11)。これにより、トリミング・リサイズ画像I4が得られる。
続いて、アルファブレンド部135では、アルファブレンド処理が行われ、トリミング・リサイズ画像I4の上に、高解像度スティッチ画像I3-1Tがアルファブレンドされる(図13のS12)。これにより、高解像度スティッチ画像I3-1Tの透明領域TRを、トリミング・リサイズ画像I4により補完した高解像度スティッチ画像I3-1Cが得られる。
図10の説明に戻り、分割部136には、アルファブレンド部135からの高解像度スティッチ画像I3-1Cと、分配部133からの低解像度スティッチ画像I3-2の画像信号がそれぞれ入力される。
分割部136では、高解像度スティッチ画像I3-1C及び低解像度スティッチ画像I3-2を用いた分割処理が行われ、例えば、高解像度スティッチ画像I3-1C(高解像度部分正距円筒画像)の領域外を、低解像度スティッチ画像I3-2(低解像度正距円筒画像)を用いて補完することで、図14乃至図16に示した合成画像I2-1乃至I2-5が生成される。
そして、ワークステーション10において、画像処理部113(図2)では、合成画像I2-1乃至I2-5がエンコードされる。また、送信制御部114(図2)によって、エンコードデータが、インターネット30を介して動画配信サーバ12にアップロードされる。
このように、高解像度画像入力が欠落した場合には、欠落した高解像度画像I1を、透明画像I5に置き換え、低解像度画像I1を用いたスティッチングにより得られる低解像度スティッチ画像I3-2の上に、高解像度画像I1(と低解像度画像I1)を用いたスティッチングにより得られる高解像度スティッチ画像I3-1をアルファブレンドすることで、高解像度画像I1の欠落した領域が、低解像度画像I1により補完される。換言すれば、この補完に用いられる低解像度画像I1は、代替画像であると言える。
(低解像度画像入力の欠落)
次に、図17は、動画配信システム1において、低解像度カメラ11-3により撮像される低解像度画像I1-3の入力が欠落した場合の配信側の要部の構成を示している。
すなわち、図17の例では、上述した図11及び図12に示した高解像度画像I1-1(図11のA)、高解像度画像I1-2(図11のB)、低解像度画像I1-3(図12のC)、及び低解像度画像I1-4(図12のD)のうち、低解像度画像I1-3の入力が欠落している。
この場合において、同期処理部131-1には、高解像度画像I1-1と高解像度画像I1-2の画像信号のほか、低解像度画像I1-3の代わりに、透明画像I5の画像信号が入力される。そのため、高解像度スティッチ処理部132-1では、スティッチ処理によって、一部が透明の領域を含む高解像度スティッチ画像I3-1Tが生成される。
一方で、同期処理部131-2には、低解像度画像I1-4の画像信号のほか、低解像度画像I1-3の代わりに、透明画像I5の画像信号が入力される。そのため、低解像度スティッチ処理部132-2では、スティッチ処理によって、一部が透明の領域を含む低解像度スティッチ画像I3-2Tが生成される。
そして、画像処理部113(図2)においては、低解像度スティッチ画像I3-2Tを用いたトリミング・リサイズ処理と、高解像度スティッチ画像I3-1Tを用いたアルファブレンド処理がそれぞれ実行される。続いて、分割部136では、高解像度スティッチ画像I3-1C(高解像度部分正距円筒画像)の領域外を、低解像度スティッチ画像I3-2T(低解像度正距円筒画像)を用いて補完することで、図18乃至図20に示した合成画像I2-1乃至I2-5が生成される。
このとき、合成画像I2-1乃至I2-5のうち、合成画像I2-1(図18のA)、合成画像I2-2(図18のB)、合成画像I2-4(図19のD)、及び合成画像I2-5(図20のE)は、低解像度画像I1-3の入力の欠落に応じて、一部の領域(図中の黒塗りの領域)が欠落した状態の画像となる。
そこで、動画配信システム1では、低解像度画像の入力が欠落した場合には、あらかじめ用意した静止画I10を用いた補完が行われるようにする。このような動画配信システム1の配信側の要部の構成を、図21に示している。
すなわち、図21の例では、上述した図17の例と同様に、高解像度画像I1-1(図11のA)、高解像度画像I1-2(図11のB)、低解像度画像I1-3(図12のC)、及び低解像度画像I1-4(図12のD)のうち、低解像度画像I1-3の入力が欠落している。
このとき、異常判定部112(図2)は、入力監視部121-3からの監視結果に基づき、低解像度画像I1-3の画像信号に異常があると判定し、その判定結果を画像処理部113に通知する。そして、画像処理部113(図2)では、低解像度画像入力の欠落に応じた画像処理が行われる。
ここで、メモリ123は、低解像度カメラ11-3により撮像された低解像度画像I1-3であって、その入力が欠落する前に撮像されたものを、静止画I10として保持している。
なお、メモリ123に保持する静止画I10としては、例えば、あらかじめ(事前に)撮像しておいた静止画(例えば背景画像)や、一時的に保持した1フレーム前や数フレーム前等の欠落する直前に撮像された画像(例えば背景画像等の画像フレーム)などとすることができる。また、メモリ123は、例えば記憶部103(図2)に相当する。
同期処理部131-1には、高解像度画像I1-1と、高解像度画像I1-2の画像信号のほか、低解像度画像I1-3の代わりに、メモリ123に保持された静止画I10の画像信号が入力される。そのため、高解像度スティッチ処理部132-1では、スティッチ処理によって、静止画I10を用いて補完した高解像度スティッチ画像I3-1Cが生成される。
一方で、同期処理部131-2には、低解像度画像I1-4の画像信号のほか、メモリ123に保持された静止画I10の画像信号が入力される。そのため、低解像度スティッチ処理部132-2では、スティッチ処理によって、静止画I10を用いて補完した低解像度スティッチ画像I3-2Cが生成される。
そして、画像処理部113(図2)においては、低解像度スティッチ画像I3-2Cを用いたトリミング・リサイズ処理と、高解像度スティッチ画像I3-1Cを用いたアルファブレンド処理がそれぞれ実行される。続いて、分割部136では、高解像度スティッチ画像I3-1C(高解像度部分正距円筒画像)の領域外を、低解像度スティッチ画像I3-2C(低解像度正距円筒画像)を用いて補完することで、図22乃至図24に示した合成画像I2-1乃至I2-5が生成される。
このとき、図22乃至図24に示した合成画像I2-1乃至I2-5を、上述した図18乃至図20に示した合成画像I2-1乃至I2-5と比べれば、図22のAの合成画像I2-1は、図18のAの合成画像I2-1で欠落していた領域(図中の黒塗りの領域)が、保持していた静止画I10より補完されている(特に、図中の太線の楕円E1,E2で囲った領域)。
同様に、合成画像I2-2(図22のB、図18のB)、合成画像I2-4(図23のD、図19のD)、及び合成画像I2-5(図24のE、図20のE)においても、欠落していた領域(図中の黒塗りの領域)が、保持していた静止画I10より補完される(特に、図中の太線の楕円E3乃至E6で囲った領域)。
このように、低解像度画像入力が欠落した場合には、欠落した低解像度画像I1を、メモリ123に保持していた静止画I10に置き換え、低解像度画像I1と静止画I10を用いたスティッチングにより得られる低解像度スティッチ画像I3-2の上に、高解像度画像I1(と静止画I10)を用いたスティッチングにより得られる高解像度スティッチ画像I3-1をアルファブレンドすることで、低解像度画像I1の欠落した領域が、静止画I10により補完される。換言すれば、この補完に用いられる静止画I10は、代替画像であると言える。
(画像処理の流れ)
次に、図25乃至図28のフローチャートを参照して、ワークステーション10(の制御部100等)により実行される画像処理の流れを説明する。
ワークステーション10では、高解像度画像I1-1,I1-2に対する高解像度画像処理(図25のS101)と、低解像度画像I1-3,I1-4に対する低解像度画像処理(図25のS102)が並列に実行される。
ここで、図26のフローチャートを参照しながら、図25のステップS101の処理に対応する高解像度画像処理の詳細を説明する。
ステップS111において、画像取得部111は、高解像度カメラ11-1により撮像された高解像度画像I1-1をキャプチャする。
ステップS112において、異常判定部112は、キャプチャする高解像度画像I1-1に入力欠落があるか否かを判定する。
ステップS112において、入力欠落がないと判定された場合、処理は、ステップS113に進められ、キャプチャした高解像度画像I1-1を、画像Aとする。一方で、ステップS112において、入力欠落があると判定された場合、処理は、ステップS114に進められ、透明画像I5を、画像Aとする。
なお、ステップS113,又はステップS114の処理が終了すると、処理は、ステップS119に進められる。
また、ステップS115において、画像取得部111は、高解像度カメラ11-2により撮像された高解像度画像I1-2をキャプチャする。
ステップS116において、異常判定部112は、キャプチャする高解像度画像I1-2に入力欠落があるか否かを判定する。
ステップS116において、入力欠落がないと判定された場合、処理は、ステップS117に進められ、キャプチャした高解像度画像I1-2を、画像Bとする。一方で、ステップS116において、入力欠落があると判定された場合、処理は、ステップS118に進められ、透明画像I5を、画像Bとする。
なお、ステップS117、又はステップS118の処理が終了すると、処理は、ステップS119に進められる。また、ステップS111乃至S114の処理と、ステップS115乃至S118の処理とは並列に実行される。
ステップS119において、画像処理部113(の同期処理部131-1)は、画像A,画像B,画像Cが揃うまで待機する。なお、詳細は後述する図27のフローチャートを参照して説明するが、画像Cは、低解像度画像I1-3又は静止画I10である(図27のS133,S134)。
そして、画像A,画像B,画像Cが揃った場合(S119)、処理は、ステップS120に進められる。ステップS120において、画像処理部113(の高解像度スティッチ処理部132-1)は、同期した画像A,画像B,画像Cを用いて、スティッチ処理を実行する。ここでは、このスティッチ処理により得られる高解像度スティッチ画像I3-1を、画像Eとする。
ステップS121において、画像処理部113(のアルファブレンド部135)は、画像E,画像Gが揃うまで待機する。なお、詳細は後述する図27のフローチャートを参照して説明するが、画像Gは、トリミング・リサイズ画像I4である(図27のS141)。
そして、画像E,画像Gが揃った場合(S121)、処理は、ステップS122に進められる。ステップS122において、画像処理部113(のアルファブレンド部135)は、画像Gの上に画像Eをアルファブレンドし、画像Hとする。
ステップS112の処理が終了すると、処理は、図25のステップS101に戻り、処理は、ステップS103に進められる。
次に、図27のフローチャートを参照しながら、図25のステップS102の処理に対応する低解像度画像処理の詳細を説明する。
ステップS131において、画像取得部111は、低解像度カメラ11-3により撮像された低解像度画像I1-3をキャプチャする。
ステップS132において、異常判定部112は、キャプチャする低解像度画像I1-3に入力欠落があるか否かを判定する。
ステップS132において、入力欠落がないと判定された場合、処理は、ステップS133に進められ、キャプチャした低解像度画像I1-3を、画像Cとする。一方で、ステップS132において、入力欠落があると判定された場合、処理は、ステップS134に進められ、静止画I10を、画像Cとする。
なお、ステップS133,又はステップS134の処理が終了すると、処理は、ステップS139に進められる。
また、ステップS135において、画像取得部111は、低解像度カメラ11-4により撮像された低解像度画像I1-4をキャプチャする。
ステップS136において、異常判定部112は、キャプチャする低解像度画像I1-4に入力欠落があるか否かを判定する。
ステップS136において、入力欠落がないと判定された場合、処理は、ステップS137に進められ、低解像度画像I1-4を、画像Dとする。一方で、ステップS136において、入力欠落があると判定された場合、処理は、ステップS138に進められ、静止画I10を、画像Dとする。
なお、ステップS137、又はステップS138の処理が終了すると、処理は、ステップS139に進められる。また、ステップS131乃至S134の処理と、ステップS135乃至S138の処理とは並列に実行される。
ステップS139において、ステップS119において、画像処理部113(の同期処理部131-2)は、画像C,画像Dが揃うまで待機する。そして、画像C,画像Dが揃った場合(S139)、処理は、ステップS140に進められる。
ステップS140において、画像処理部113(の低解像度スティッチ処理部132-2)は、同期した画像C,画像Dを用いて、スティッチ処理を実行する。ここでは、このスティッチ処理により得られる低解像度スティッチ画像I3-2を、画像Fとする。
ステップS141において、画像処理部113(のトリミング・リサイズ部134)は、画像Fの高解像度領域に相当する領域をトリミングして、画像Eと同サイズにリサイズする。ここでは、このトリミング・リサイズ処理により得られるトリミング・リサイズ画像I4を、画像Gとする。
ステップS141の処理が終了すると、処理は、図25のステップS102に戻り、処理は、ステップS103に進められる。
すなわち、ワークステーション10では、高解像度画像処理(図25のS101)と低解像度画像処理(図25のS102)が終了すると、分割・エンコード処理(図25のS103)が実行される。
ここで、図28のフローチャートを参照して、図25のステップS103の処理に対応する分割・エンコード処理の詳細を説明する。
ステップS151において、画像処理部113(の分割部136)は、画像H,画像Fを用いて分割処理を実行し、合成画像I2-1乃至I2-5を生成する。
ステップS152において、画像処理部113(のエンコーダ)は、生成した合成画像I2-1乃至I2-5を、エンコードする。
ステップS153において、送信制御部114は、エンコード結果に応じたエンコードデータを、インターネット30を介して動画配信サーバにアップロードする。
ステップS153の処理が終了すると、処理は、図25のステップS103に戻り、ステップS104に進められる。ステップS104において、制御部100は、入力部101からの操作信号に基づき、停止ボタンが押下されたかどうかを判定する。
ステップS104において、停止ボタンが押下されていないと判定された場合、処理は、ステップS101,S102に戻り、上述した処理が繰り返される。一方で、ステップS104において、停止ボタンが押下されたと判定された場合、図25に示した画像処理は終了する。
以上、画像処理の流れを説明した。
(動画配信サーバの構成)
図29は、図1の動画配信サーバ12の構成の例を示している。
図29において、動画配信サーバ12は、制御部150、記憶部151、及び通信部152から構成される。
制御部150は、例えばCPU等のプロセッサから構成される。制御部150は、各部の動作の制御や各種の演算処理を行う中心的な処理装置である。
記憶部151は、例えば、不揮発性メモリや揮発性メモリを含む半導体メモリや、バッファメモリなどから構成される。記憶部151は、制御部150からの制御に従い、各種のデータを記憶する。
通信部152は、無線通信又は有線通信に対応した通信モジュールとして構成される。通信部152は、制御部150からの制御に従い、各種のデータを、インターネット30を介してワークステーション10又は表示端末20との間でやり取りする。
また、制御部150は、送信制御部161を含む。送信制御部161は、ワークステーション10から受信したエンコードデータを含む動画ストリーム(VR動画等のコンテンツを含む)を、インターネット30を介して表示端末20に送信(ライブ配信)する制御を行う。
(動画配信処理の流れ)
次に、図30のフローチャートを参照して、動画配信サーバ12と表示端末20との間で実行される動画配信処理の流れを説明する。
動画配信サーバ12では、ワークステーション10からアップロードされたエンコードデータが、インターネット30を介して受信される(S171)。ここでは、例えば、ライブ配信するVR動画等のコンテンツのデータがアップロードされる。
このとき、動画配信サーバ12では、表示端末20から動画配信が要求された場合(S181)、送信制御部161によって、要求元の表示端末20に対し、ワークステーション10からのエンコードデータを含む動画ストリームが送信される(S172)。
これにより、表示端末20においては、動画配信サーバ12からライブ配信される動画ストリームが受信され(S182)、動画ストリームに含まれるエンコードデータに対するデコード等の処理が実行されることで、動画が再生される(S183)。例えば、表示端末20では、VR動画の映像が表示され、その映像に同期した音声が出力される。
以上、動画配信処理の流れを説明した。
以上のように、第1の実施の形態では、動画配信システム1として、ワークステーション10の画像取得部111が、低解像度画像(例えば低解像度画像I1-3,I1-4)を、低解像度カメラ(例えば低解像度カメラ11-3,11-4)から取得するとともに、高解像度画像(例えば高解像度画像I1-1,I1-2)を、高解像度カメラ(例えば高解像度カメラ11-1,11-2)から取得し、ワークステーション10の異常判定部112が、低解像度画像を表す第1の信号と、高解像度画像を表す第2の信号のうち、いずれか一方の信号に異常があるか否かを判定する。
そして、動画配信サーバ12の送信制御部161は、異常がないと判定された場合、低解像度画像と高解像度画像との間で連続性を有する第1の合成画像(例えば、図8の合成画像I2-1乃至I2-5)を表示端末(例えば表示端末20)に送信し、異常があると判定された場合、低解像度カメラと高解像度カメラのうち、異常があると判定されたカメラから取得される画像を、実空間の領域に対応する代替画像(例えば低解像度画像I1-3又は静止画I10)で置き換えて、連続性を実質的に再現する第2の合成画像(例えば、図14乃至図16、又は図22乃至図24の合成画像I2-1乃至I2-5)を表示端末(例えば表示端末20)に送信する。
これにより、動画配信システム1においては、複数のカメラ11により撮像される複数の画像を合成して出力するワークステーション10で、例えばカメラ11の故障や、ケーブルの断線、バッテリ切れ等の原因により一部のカメラ11からの入力が欠落しても、画像処理を続行してライブ配信を継続することができる。その結果として、より確実に動画配信を行うことができる。
また、動画配信システム1においては、一部のカメラ11からの入力が欠落した場合に、欠落部分を、他のカメラ11からの入力や、保持している静止画で補完して配信することができる。例えば、高解像度画像の欠落部分は、低解像度画像により補完し、あるいは、低解像度画像の欠落部分は、保持している静止画により補完できるため、欠落した入力をできるだけ補完して配信することができる。
さらに、動画配信システム1において、ワークステーション10では、画角の狭い高解像度画像と、画角の広い低解像度画像とを別々にスティッチ処理を施すことで、画角の狭い高解像度画像にスティッチ処理を施す場合と比べて、メモリ使用量や処理負荷を軽減することができる。
ここで、上述した特許文献1に開示された技術のように、複数のカメラにより撮像される複数の画像を合成して出力する画像処理装置では、複数のカメラのうちの一つが故障等により停止してしまうと、合成処理を続行できないため、何も出力されなくなる。そして、例えばライブ配信等、撮り直しがきかないケースでは、画質が低下してしまうなどの弊害があったとしても、可能な限り画像を出力してほしい場合がある。
例えば全天球画像のライブ配信においては、複数のカメラを持った画像処理部を用いることが多く、それらのカメラによって撮像される画像を、スティッチ処理によって正距円筒画像に合成する手法が一般的であるが、特許文献1に開示された技術を含む従来の技術では、カメラ11の故障や、ケーブルの断線、バッテリ切れ等の原因で、一つでもカメラ11からの入力がこなくなってしまうと、ライブ配信が中断してしまうという問題があった。
特に、上述した分割階層化方式を用いる場合において、例えば、注視領域を含む高解像画像を撮像する高解像度カメラ11が、全天球を含む低解像度画像を撮像する低解像度カメラ11と分かれている場合に、高解像度カメラ11が故障したときに、そのままライブ配信を続行させると、次のような問題が生じる。すなわち、上述した図3及び図4に示したように、低解像度カメラ11によって、全天球画像が撮像されているにもかかわらず、注視領域の部分が黒い画像として表示されてしまい、表示端末20を使用するユーザからすれば、見たい領域が見えないという問題がある。
このような問題に対し、動画配信システム1では、上述した構成を有することで、例えばカメラ11の故障や、ケーブルの断線、バッテリ切れ等の原因により一部のカメラ11からの入力が欠落しても、画像処理を続行してライブ配信を継続することが可能とされる。
なお、上述した説明では、高解像度画像入力が欠落した場合と、低解像度画像入力が欠落した場合を別々に説明したが、動画配信システム1では、高解像度画像入力と低解像度画像入力の両方の入力が欠落した場合であっても、低解像度画像I1と静止画I10を代替画像として用いることで対応可能である。
<2.第2の実施の形態>
ところで、第1の実施の形態では、動画の配信側(ワークステーション10)で、高解像度画像入力又は低解像度画像入力の欠落に対応した処理を行ったが、このような欠落に対応した処理は、動画の再生側(表示端末20)で行ってもよい。そこで、第2の実施の形態として、動画の再生側(表示端末20)で、高解像度画像入力又は低解像度画像入力の欠落に対応した処理を行う構成を説明する。
(システムの構成)
図31は、本技術を適用した動画配信システムの構成の第2の例を示している。
図2において、動画配信システム2は、ワークステーション10、動画配信サーバ12、及び表示端末20-1乃至20-Mを含んで構成される。また、動画配信システム2において、ワークステーション10、動画配信サーバ12、及び表示端末20-1乃至20-Mは、インターネット30にそれぞれ接続されている。
ワークステーション10は、カメラ11-1乃至11-Nにより撮像された複数の画像に対する画像処理を行い、当該画像処理で得られるデータを、インターネット30を介して動画配信サーバ12に送信する。
動画配信サーバ12は、表示端末20-1乃至20-Mのいずれかから動画配信が要求された場合、要求元の表示端末20に対し、ワークステーション10からのデータを含む動画ストリームを、インターネット30を介して送信する。
表示端末20-1乃至20-Mは、例えばヘッドマウントディスプレイ等から構成され、動画配信サーバ12から動画ストリームとして配信される動画をそれぞれ再生する。
(表示端末の構成)
図32は、図31の表示端末20の構成の例を示している。
図32において、表示端末20は、制御部200、センサ部201、記憶部202、表示部303、音声出力部204、入力端子205、出力端子206、及び通信部207を含んで構成される。
制御部200は、例えば、CPU等から構成される。制御部200は、各部の動作の制御や各種の演算処理を行う中心的な処理装置である。なお、ここでは、GPU(Graphics Processing Unit)等の専用のプロセッサを設けるようにしてもよい。
センサ部201は、例えば、各種のセンサデバイス等から構成される。センサ部201は、ユーザやその周辺などのセンシングを行い、そのセンシング結果に応じたセンサデータを、制御部200に供給する。
ここで、センサ部201としては、例えば、磁場(磁界)の大きさや方向を検出する磁気センサ、加速度を検出する加速度センサ、角度(姿勢)や角速度、角加速度を検出するジャイロセンサ、近接するものを検出する近接センサなどを含めることができる。また、センサ部201として、イメージセンサを有するカメラを設けて、被写体を撮像して得られる画像信号を、制御部200に供給するようにしてもよい。
記憶部202は、例えば、不揮発性メモリや揮発性メモリを含む半導体メモリ等から構成される。記憶部202は、制御部200からの制御に従い、各種のデータを記憶する。
表示部203は、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)や有機ELディスプレイ(OLED:Organic Light Emitting Diode)等の表示デバイス(表示装置)から構成される。表示部203は、制御部200から供給される映像データに応じた映像(又は画像)を表示する。
音声出力部204は、例えば、スピーカ等の音声出力デバイスから構成される。音声出力部204は、制御部200から供給される音声データに応じた音声(音)を出力する。
入力端子205は、例えば、入力インターフェース回路等を含んで構成され、所定のケーブルを介して電子機器と接続される。例えば、入力端子205は、例えばゲーム機(専用のコンソール)やパーソナルコンピュータ、再生機等の機器から入力される画像信号や音声信号、コマンド等を、制御部200に供給する。
出力端子206は、例えば、出力インターフェース回路等を含んで構成され、所定のケーブルを介して電子機器と接続される。例えば、出力端子206は、そこに供給される音声信号を、ケーブルを介してイヤホンやヘッドホン等の機器に出力する。
通信部207は、例えば、無線LAN(Local Area Network)、セルラー方式の通信(例えばLTE-Advancedや5G等)、若しくはBluetooth(登録商標)などの無線通信、又は有線通信に対応した通信モジュールとして構成される。
通信部207は、制御部200からの制御に従い、インターネット30を介して、動画配信サーバ12との間で、各種のデータをやり取りする。また、通信部207は、例えば、ゲーム機(専用のコンソール)やパーソナルコンピュータ、サーバ、再生機、専用のコントローラ、リモートコントローラ等を含む外部の機器と通信を行うことができる。
また、制御部200は、画像取得部211、画像処理部212、及び表示制御部213を含む。
画像取得部211は、動画配信サーバ12から配信される動画ストリームに含まれる複数の画像のそれぞれの画像信号を取得し、記憶部202に記憶させる。
画像処理部212は、記憶部202に記憶された画像の画像信号を読み出して、所定の画像処理を行い、その画像処理の結果得られるデータを、表示制御部213に供給する。なお、この画像処理としては、デコード等の処理のほか、高解像度画像入力又は低解像度画像入力の欠落に対応した処理が含まれる。
表示制御部213は、画像処理部212からのデータに基づいて、映像(又は画像)を表示部203に表示する。
(高解像度画像入力の欠落)
ここで、図31の動画配信システム2において、例えば、高解像度画像I1-1(図11のA)、高解像度画像I1-2(図11のB)、低解像度画像I1-3(図12のC)、及び低解像度画像I1-4(図12のD)のうち、高解像度カメラ11-2により撮像された高解像度画像I1-2の入力が欠落した場合を想定する。
この場合において、ワークステーション10(の画像処理部113)では、スティッチ処理及び分割処理等が行われることで、合成画像I2-1乃至I2-5が生成され、エンコードが行われるが、高解像度画像I1-2の入力が欠落することによって、合成画像I2に含まれる高解像度合成画像I2の一部の領域が欠落した状態となる。
具体的には、合成画像I2-1乃至I2-5のうち、例えば、高解像度合成画像I2-1の一部の領域(図中の黒塗りの領域)が欠落した状態となる(図33のA)。
このとき、ワークステーション10(の画像処理部113)では、高解像度合成画像I2-1における欠落した領域に対応したアルファ値を含む高解像度用アルファ画像I2-1αを生成する(図33のB)。この高解像度用アルファ画像I2-1αにおいて、例えば、透明領域TRは、アルファ値が0とされる。
なお、この例では、高解像度画像I1-2の入力が欠落した場合を示しているため、合成画像I2に含まれる低解像度合成画像I2の一部の領域が欠落することはなく、したがって、例えば、低解像度合成画像I2-5に対する低解像度用アルファ画像を用意する必要はない(図34のC)。
ワークステーション10では、合成画像I2-1乃至I2-5がエンコードされ、そのエンコードデータが、高解像度用アルファ画像I2-1αとともに、インターネット30を介して動画配信サーバ12にアップロードされる。
そして、動画配信サーバ12では、表示端末20から動画配信が要求された場合には、要求元の表示端末20に対し、エンコードデータと高解像度用アルファ画像I2-1αを含む動画ストリームが、インターネット30を介して配信される。一方で、表示端末20では、動画配信サーバ12から配信される動画ストリームが受信され、動画が再生されるが、その詳細を、図35及び図36を参照しながら説明する。
(表示端末側の処理)
図35は、表示端末20により実行される第1の再生処理の流れを説明するフローチャートである。なお、図36には、図35に示した第1の再生処理で処理される画像を模式的に示しており、適宜参照しながら説明する。
表示端末20においては、通信部207によって、動画配信サーバ12からインターネット30を介して配信される動画ストリームが受信される(S201)。また、画像処理部212によって、受信した動画ストリームに含まれるエンコードデータのデコードが行われる(S202)。
画像処理部212は、当該デコードで得られる高解像度合成画像I2-1に対し、動画ストリームに含まれる高解像度用アルファ画像I2-1α(図36のA)に含まれるアルファ値を付加する(S203)。これにより、高解像度合成画像I2-1における欠落した領域を、透明領域TR(アルファ値が0の領域)とすることができる(図36のB)。
続いて、画像処理部212は、当該デコードで得られる低解像度合成画像I2-5(図36のC)の上に、アルファ値が付加された高解像度合成画像I2-1(図36のB)をアルファブレンドする(S204)。これにより、低解像度合成画像I2-5の上に、高解像度合成画像I2-1がアルファ値を用いて合成され、高解像度合成画像I2-1における欠落した領域が、低解像度合成画像I2-5により補完される。
そして、表示端末20においては、表示制御部213によって、低解像度合成画像I2-5により補完された高解像度合成画像I2-1の映像などが、表示部203に表示される(S205)。
以上、第1の再生処理の流れを説明した。
このように、高解像度画像入力が欠落した場合には、高解像度合成画像I2の欠落した領域に対応したアルファ値を含む高解像度用アルファ画像I2-αを適用して、アルファ値が付加された高解像度合成画像I2を、低解像度合成画像I2の上にアルファブレンドすることで、高解像度合成画像I2の欠落した領域が、低解像度合成画像I2により補完される。換言すれば、この補完に用いられる低解像度合成画像I2は、代替画像であると言える。
(低解像度画像入力の欠落)
次に、図31の動画配信システム2において、例えば、高解像度画像I1-1(図11のA)、高解像度画像I1-2(図11のB)、低解像度画像I1-3(図12のC)、及び低解像度画像I1-4(図12のD)のうち、低解像度カメラ11-3により撮像された低解像度画像I1-3の入力が欠落した場合を想定する。
この場合において、ワークステーション10(の画像処理部113)では、スティッチ処理及び分割処理等が行われることで、合成画像I2-1乃至I2-5が生成され、エンコードが行われるが、低解像度画像I1-3の入力が欠落することによって、合成画像I2に含まれる高解像度合成画像I2及び低解像度合成画像I2の一部の領域が欠落した状態となる。
具体的には、合成画像I2-1乃至I2-5のうち、例えば、高解像度合成画像I2-1の一部の領域(図中の黒塗りの領域)が欠落した状態となる(図37のA)。
このとき、画像処理部113では、高解像度合成画像I2-1における欠落した領域に対応したアルファ値を含む高解像度用アルファ画像I2-1αを生成する(図37のB)。この高解像度用アルファ画像I2-1αにおける透明領域TRは、アルファ値が0とされる。
また、合成画像I2-1乃至I2-5のうち、例えば、低解像度合成画像I2-5の一部の領域(図中の黒塗りの領域)が欠落した状態となる(図38のC)。
このとき、画像処理部113では、低解像度合成画像I2-5における欠落した領域に対応したアルファ値を含む低解像度用アルファ画像I2-5αを生成する(図38のD)。この低解像度用アルファ画像I2-5αにおける透明領域TRは、アルファ値が0とされる。
さらに、画像処理部113では、背景用静止画I20を取得する(図39のE)。この背景用静止画I20としては、例えば、あらかじめ(事前に)撮像して記憶部103に保持していた画像や、一時的に保持した1フレーム前や数フレーム前等の欠落する直前に撮像された画像のほか、例えば、外部の機器から取得した画像などであってもよい。
ワークステーション10では、合成画像I2-1乃至I2-5がエンコードされ、そのエンコードデータが、高解像度用アルファ画像I2-1α、低解像度用アルファ画像I2-5α、及び背景用静止画I20とともに、インターネット30を介して動画配信サーバ12にアップロードされる。
そして、動画配信サーバ12では、表示端末20から動画配信が要求された場合には、要求元の表示端末20に対し、エンコードデータと、高解像度用アルファ画像I2-1α、低解像度用アルファ画像I2-5α、及び背景用静止画I20を含む動画ストリームが、インターネット30を介して配信される。一方で、表示端末20では、動画配信サーバ12から配信される動画ストリームが受信され、動画が再生されるが、その詳細を、図40及び図41を参照しながら説明する。
(表示端末側の処理)
図40は、表示端末20により実行される第2の再生処理の流れを説明するフローチャートである。なお、図41には、図40に示した第2の再生処理で処理される画像を模式的に示しており、適宜参照しながら説明する。
表示端末20においては、通信部207によって、動画配信サーバ12からインターネット30を介して配信される動画ストリームが受信される(S221)。また、画像処理部212によって、受信した動画ストリームに含まれるエンコードデータのデコードが行われる(S222)。
画像処理部212は、当該デコードで得られる高解像度合成画像I2-1に対し、動画ストリームに含まれる高解像度用アルファ画像I2-1αに含まれるアルファ値を付加する(S223)。また、画像処理部212は、当該デコードで得られる低解像度合成画像I2-5に対し、動画ストリームに含まれる低解像度用アルファ画像I2-5αを付加する(S223)。
これにより、高解像度合成画像I2-1における欠落した領域を、透明領域TRとし(図41のA)、低解像度合成画像I2-5における欠落した領域を、透明領域TRとする(図41のB)ことができる。
続いて、画像処理部212は、アルファ値を付加した低解像度合成画像I2-5の上に、アルファ値を付加した高解像度合成画像I2-1をアルファブレンドする(S224)。これにより、合成画像として、低解像度合成画像I2-5の上に高解像度合成画像I2-1がアルファ値を用いて合成された画像が得られる。
画像処理部212はまた、動画ストリームに含まれる背景用静止画I20の上に、ステップS224の処理で得られる合成画像をアルファブレンドする(S225)。これにより、背景用静止画I20に、合成画像がアルファ値を用いて合成され、高解像度合成画像I2-1と低解像度合成画像I2-5における欠落した領域が、背景用静止画I20により補完される。
そして、表示端末20においては、表示制御部213によって、背景用静止画I20により補完された高解像度合成画像I2-1や低解像度合成画像I2-5の映像などが、表示部203に表示される(S226)。
以上、第2の再生処理の流れを説明した。
このように、低解像度画像入力が欠落した場合には、高解像度合成画像I2の欠落した領域に対応したアルファ値を含む高解像度用アルファ画像I2-αと、低解像度合成画像I2の欠落した領域に対応したアルファ値を含む低解像度用アルファ画像I2-αをそれぞれ適用して、アルファ値が付加された高解像度合成画像I2を、アルファ値が付加された低解像度合成画像I2の上にアルファブレンドとともに、さらに背景用静止画I20の上にもアルファブレンドする。これにより、高解像度合成画像I2と低解像度合成画像I2の欠落した領域が、背景用静止画I20により補完される。換言すれば、この補完に用いられる背景用静止画I20は、代替画像であると言える。
以上のように、第2の実施の形態では、表示端末20の画像取得部211が、低解像度カメラ(例えば低解像度カメラ11-3,11-4)から取得された低解像度画像(例えば低解像度画像I1-3,I1-4)と、高解像度カメラ(例えば高解像度カメラ11-1,11-2)から取得された高解像度画像(例えば高解像度画像I1-1,I1-2)との間で連続性を有する第1の合成画像(例えば合成画像I2-1乃至I2-5)を取得し、低解像度画像を表す第1の信号と、高解像度画像を表す第2の信号のうち、いずれか一方の信号に異常がない場合、表示制御部213が、第1の合成画像を表示部(例えば表示部203)に表示する。
一方で、異常がある場合、表示制御部213が、低解像度カメラと高解像度カメラのうち、異常があるカメラから取得される画像を、実空間の領域に対応する代替画像(例えば、低解像度合成画像I2-5又は背景用静止画I20)で置き換えて、連続性を実質的に再現する第2の合成画像(例えば、図36又は図41の合成画像)を表示部(例えば表示部203)に表示する。
これにより、動画配信システム1においては、動画の配信側(ワークステーション10)で、例えばカメラ11の故障や、ケーブルの断線、バッテリ切れ等の原因により一部のカメラ11からの入力が欠落した場合でも、動画の再生側(表示端末20)で、高解像度画像入力又は低解像度画像入力の欠落に対応した処理が行われるため、ライブ配信を継続することができる。その結果として、より確実に動画配信を行うことができる。
<3.変形例>
(システムの構成)
図42は、本技術を適用した動画配信システムの他の構成の例を示している。
図42の動画配信システム3において、ワークステーション10と動画配信サーバ12とは、例えば専用線などの通信回線40を介して相互に接続され、各種のデータをやり取りする。また、図42においては、ワークステーション10と動画配信サーバ12とを異なる装置として示しているが、ワークステーション10と動画配信サーバ12を一体化して、それらの機能を有する1つの装置50として構成されるようにしてもよい。
また、ワークステーション10又は動画配信サーバ12の機能ごとに、1又は複数の装置(サーバ)から構成されるようにしてもよい。さらに、カメラ11-1乃至11-Nを、インターネット30に接続可能に構成することで、カメラ11-1乃至11-Nにより撮像された画像のデータが、インターネット30を介してワークステーション10に送信されるようにしてもよい。
(表示端末の構成)
上述した説明では、表示端末20が、ヘッドマウントディスプレイとして構成される場合を例示したが、本技術は、狭義のヘッドマウントディスプレイに限らず、例えば、眼鏡、眼鏡型ディスプレイ、眼鏡型カメラ、ヘッドホン、ヘッドセット(マイクロフォン付きヘッドホン)、イヤホン、イヤリング、耳かけカメラ、帽子、カメラ付き帽子、ヘアバンドなどを装着した場合にも適用することができる。
また、本技術は、単独の装置として構成されるヘッドマウントディスプレイ等の表示端末20に対して適用することは勿論、ヘッドマウントディスプレイに接続されたゲーム機や、パーソナルコンピュータ等の情報処理装置に適用してもよい。
また、上述した説明では、VRライブ配信(全天球ライブ配信)に対応した表示端末20を使用するユーザに対し、3次元映像を表示して、あたかもそこにいるかのような感覚を体験できるようにする仮想現実(VR)を実現した場合を説明したが、本技術は、仮想現実(VR)に限らず、他の映像配信に適用するようにしてもよい。また、表示される映像としては、VR空間内の映像に限らず、例えば、実空間の映像等の他の映像であってもよい。
さらに、上述した説明では、分割階層化方式によって全天球画像を用いる場合を例示し、典型的には、360度の視野角を表す画像が用いられるが、例えば、180度の視野角を表す画像など、ユーザの視野よりも広い画像であれば、他の画像を用いることができる。
なお、本開示において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、全ての構成要素が同一筐体内にあるか否かは問わない。
<4.コンピュータの構成>
上述した一連の処理(例えば、図25乃至図28に示した画像処理等)は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、各装置のコンピュータにインストールされる。図43は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
コンピュータ1000において、CPU(Central Processing Unit)1001、ROM(Read Only Memory)1002、RAM(Random Access Memory)1003は、バス1004により相互に接続されている。バス1004には、さらに、入出力インターフェース1005が接続されている。入出力インターフェース1005には、入力部1006、出力部1007、記録部1008、通信部1009、及び、ドライブ1010が接続されている。
入力部1006は、マイクロフォン、キーボード、マウスなどよりなる。出力部1007は、スピーカ、ディスプレイなどよりなる。記録部1008は、ハードディスクや不揮発性のメモリなどよりなる。通信部1009は、ネットワークインターフェースなどよりなる。ドライブ1010は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブル記録媒体1011を駆動する。
以上のように構成されるコンピュータ1000では、CPU1001が、ROM1002や記録部1008に記録されているプログラムを、入出力インターフェース1005及びバス1004を介して、RAM1003にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ1000(CPU1001)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブル記録媒体1011に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線又は無線の伝送媒体を介して提供することができる。
コンピュータ1000では、プログラムは、リムーバブル記録媒体1011をドライブ1010に装着することにより、入出力インターフェース1005を介して、記録部1008にインストールすることができる。また、プログラムは、有線又は無線の伝送媒体を介して、通信部1009で受信し、記録部1008にインストールすることができる。その他、プログラムは、ROM1002や記録部1008に、あらかじめインストールしておくことができる。
ここで、本明細書において、コンピュータがプログラムに従って行う処理は、必ずしもフローチャートとして記載された順序に沿って時系列に行われる必要はない。すなわち、コンピュータがプログラムに従って行う処理は、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含む。また、プログラムは、1のコンピュータ(プロセッサ)により処理されてもよいし、複数のコンピュータによって分散処理されてもよい。
なお、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
また、上述した処理の各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
なお、本技術は、以下のような構成をとることができる。
(1)
低解像度画像を、低解像度カメラから取得するとともに、
前記低解像度画像よりも狭い画角を有し、前記低解像度画像の解像度よりも高い解像度を有し、かつ前記低解像度画像に含まれる実空間の領域を表す高解像度画像を、高解像度カメラから取得する
画像取得部と、
前記低解像度画像を表す第1の信号と、前記高解像度画像を表す第2の信号のうち、いずれか一方の信号に異常があるか否かを判定する異常判定部と、
前記異常がないと判定された場合、前記低解像度画像と前記高解像度画像との間で連続性を有する第1の合成画像を表示端末に送信し、
前記異常があると判定された場合、前記低解像度カメラと前記高解像度カメラのうち、前記異常があると判定されたカメラから取得される画像を、前記実空間の領域に対応する代替画像で置き換えて、前記連続性を実質的に再現する第2の合成画像を前記表示端末に送信する
送信制御部と
を備える動画配信システム。
(2)
前記第1の合成画像又は前記第2の合成画像を生成する画像処理部をさらに備える
前記(1)に記載の動画配信システム。
(3)
前記画像処理部は、前記低解像度画像と前記高解像度画像を用いたスティッチングによって、前記低解像度画像と前記高解像度画像との間の前記連続性を再現する
前記(2)に記載の動画配信システム。
(4)
前記代替画像は、前記低解像度画像又はあらかじめ用意した静止画を含む
前記(3)に記載の動画配信システム。
(5)
前記画像処理部は、前記第2の信号に前記異常がある場合、前記高解像度画像の欠落した領域を、前記低解像度画像により補完する
前記(4)に記載の動画配信システム。
(6)
前記画像処理部は、
欠落した前記高解像度画像を、透明画像に置き換え、
前記低解像度画像を用いたスティッチングにより得られる低解像度スティッチ画像の上に、前記高解像度画像を用いたスティッチングにより得られる高解像度スティッチ画像をアルファブレンドする
前記(5)に記載の動画配信システム。
(7)
前記画像処理部は、前記低解像度スティッチ画像における前記高解像度スティッチ画像に対応する領域をトリミングし、前記高解像度スティッチ画像に対応する大きさにリサイズする
前記(6)に記載の動画配信システム。
(8)
前記画像処理部は、前記第1の信号に前記異常がある場合、前記低解像度画像の欠落した領域を、欠落した前記低解像度画像に対応した前記静止画により補完する
前記(4)乃至(7)のいずれかに記載の動画配信システム。
(9)
前記静止画は、あらかじめ撮像された背景画像、又は前記低解像度画像が欠落する直前の背景画像を含む
前記(8)に記載の動画配信システム。
(10)
前記低解像度カメラは、少なくとも1つ設けられ、
前記高解像度カメラは、少なくとも1つ設けられ、
前記画像取得部は、複数の前記低解像度画像と、複数の前記高解像度画像を取得する
前記(1)乃至(9)のいずれかに記載の動画配信システム。
(11)
前記異常判定部は、複数の前記低解像度画像に対応した複数の第1の入力信号と、複数の前記高解像度画像に対応した複数の第2の入力信号に基づいて、少なくとも1つの前記低解像度カメラに異常があれば、前記第1の入力信号に前記異常があると判定し、少なくとも1つの前記高解像度カメラに異常があれば、前記第2の入力信号に前記異常があると判定する
前記(10)に記載の動画配信システム。
(12)
前記低解像度スティッチ画像は、正距円筒画像を含み、
前記高解像度スティッチ画像は、部分正距円筒画像を含む
前記(6)に記載の動画配信システム。
(13)
前記第1の合成画像又は前記第2の合成画像において、前記部分正距円筒画像の領域を除いた領域は、前記正距円筒画像に置き換えられる
前記(12)に記載の動画配信システム。
(14)
前記表示端末は、ヘッドマウントディスプレイを含む
前記(1)乃至(13)のいずれかに記載の動画配信システム。
(15)
動画配信システムが、
低解像度画像を、低解像度カメラから取得するとともに、前記低解像度画像よりも狭い画角を有し、前記低解像度画像の解像度よりも高い解像度を有し、かつ前記低解像度画像に含まれる実空間の領域を表す高解像度画像を、高解像度カメラから取得し、
前記低解像度画像を表す第1の信号と、前記高解像度画像を表す第2の信号のうち、いずれか一方の信号に異常があるか否かを判定し、
前記異常がないと判定された場合、前記低解像度画像と前記高解像度画像との間で連続性を有する第1の合成画像を表示端末に送信し、前記異常があると判定された場合、前記低解像度カメラと前記高解像度カメラのうち、前記異常があると判定されたカメラから取得される画像を、前記実空間の領域に対応する代替画像で置き換えて、前記連続性を実質的に再現する第2の合成画像を前記表示端末に送信する
動画配信方法。
(16)
コンピュータを、
低解像度画像を、低解像度カメラから取得するとともに、
前記低解像度画像よりも狭い画角を有し、前記低解像度画像の解像度よりも高い解像度を有し、かつ前記低解像度画像に含まれる実空間の領域を表す高解像度画像を、高解像度カメラから取得する
画像取得部と、
前記低解像度画像を表す第1の信号と、前記高解像度画像を表す第2の信号のうち、いずれか一方の信号に異常があるか否かを判定する異常判定部と、
前記異常がないと判定された場合、前記低解像度画像と前記高解像度画像との間で連続性を有する第1の合成画像を表示端末に送信し、
前記異常があると判定された場合、前記低解像度カメラと前記高解像度カメラのうち、前記異常があると判定されたカメラから取得される画像を、前記実空間の領域に対応する代替画像で置き換えて、前記連続性を実質的に再現する第2の合成画像を前記表示端末に送信する
送信制御部と
して機能させるためのプログラムを記憶したコンピュータが読み取り可能な記憶媒体。
(17)
低解像度カメラから取得された低解像度画像と、
高解像度カメラから取得された高解像度画像として、前記低解像度画像よりも狭い画角を有し、前記低解像度画像の解像度よりも高い解像度を有し、かつ前記低解像度画像に含まれる実空間の領域を表す前記高解像度画像と
の間で連続性を有する第1の合成画像を取得する画像取得部と、
前記低解像度画像を表す第1の信号と、前記高解像度画像を表す第2の信号のうち、いずれか一方の信号に異常がない場合、前記第1の合成画像を表示部に表示し、
前記異常がある場合、前記低解像度カメラと前記高解像度カメラのうち、前記異常があるカメラから取得される画像を、前記実空間の領域に対応する代替画像で置き換えて、前記連続性を実質的に再現する第2の合成画像を前記表示部に表示する
表示制御部と
を備える表示端末。
(18)
前記第2の合成画像に含まれる画像の欠落した領域に対応したアルファ値を含むアルファ画像を適用した前記画像を用いたアルファブレンドを行うことで、前記第2の合成画像を生成する画像処理部をさらに備える
前記(17)に記載の表示端末。
(19)
前記画像取得部は、前記第2の信号に前記異常がある場合、前記第2の合成画像に含まれる高解像度合成画像の欠落した領域に対応した第1のアルファ値を含む高解像度用アルファ画像を取得し、
前記画像処理部は、前記第2の信号に前記異常がある場合、
前記高解像度合成画像の欠落した領域に、前記高解像度用アルファ画像に含まれる前記第1のアルファ値を付加し、
前記第2の合成画像に含まれる低解像度合成画像の上に、前記第1のアルファ値を付加した前記高解像度合成画像をアルファブレンドする
前記(18)に記載の表示端末。
(20)
前記画像取得部は、前記第1の信号に前記異常がある場合、前記第2の合成画像に含まれる高解像度合成画像の欠落した領域に対応した第1のアルファ値を含む高解像度用アルファ画像と、前記第2の合成画像に含まれる低解像度合成画像の欠落した領域に対応した第2のアルファ値を含む低解像度用アルファ画像を取得し、
前記画像処理部は、前記第1の信号に前記異常がある場合、
前記高解像度合成画像の欠落した領域に、前記高解像度用アルファ画像に含まれる前記第1のアルファ値を付加し、
前記低解像度合成画像の欠落した領域に、前記低解像度用アルファ画像に含まれる前記第2のアルファ値を付加し、
前記第2のアルファ値を付加した前記低解像度合成画像の上に、前記第1のアルファ値を付加した前記高解像度合成画像をアルファブレンドし、
あらかじめ用意した背景用静止画の上に、当該アルファブレンドにより得られる画像をアルファブレンドする
(18)又は(19)に記載の表示端末。
(21)
前記代替画像は、前記第2の合成画像に含まれる低解像度合成画像、又はあらかじめ用意した背景用静止画を含む
(17)又は(18)に記載の表示端末。
(22)
表示端末が、
低解像度カメラから取得された低解像度画像と、高解像度カメラから取得された高解像度画像として、前記低解像度画像よりも狭い画角を有し、前記低解像度画像の解像度よりも高い解像度を有し、かつ前記低解像度画像に含まれる実空間の領域を表す前記高解像度画像との間で連続性を有する第1の合成画像を取得し、
前記低解像度画像を表す第1の信号と、前記高解像度画像を表す第2の信号のうち、いずれか一方の信号に異常がない場合、前記第1の合成画像を表示部に表示し、前記異常がある場合、前記低解像度カメラと前記高解像度カメラのうち、前記異常があるカメラから取得される画像を、前記実空間の領域に対応する代替画像で置き換えて、前記連続性を実質的に再現する第2の合成画像を前記表示部に表示する
表示制御方法。
(23)
コンピュータを、
低解像度カメラから取得された低解像度画像と、
高解像度カメラから取得された高解像度画像として、前記低解像度画像よりも狭い画角を有し、前記低解像度画像の解像度よりも高い解像度を有し、かつ前記低解像度画像に含まれる実空間の領域を表す前記高解像度画像と
の間で連続性を有する第1の合成画像を取得する画像取得部と、
前記低解像度画像を表す第1の信号と、前記高解像度画像を表す第2の信号のうち、いずれか一方の信号に異常がない場合、前記第1の合成画像を表示部に表示し、
前記異常がある場合、前記低解像度カメラと前記高解像度カメラのうち、前記異常があるカメラから取得される画像を、前記実空間の領域に対応する代替画像で置き換えて、前記連続性を実質的に再現する第2の合成画像を前記表示部に表示する
表示制御部と
して機能させるためのプログラムを記憶したコンピュータが読み取り可能な記憶媒体。
1,2,3 動画配信システム, 10 ワークステーション, 11,11-1乃至11-N カメラ, 11-1,11-2 高解像度カメラ, 11-3,11-4 低解像度カメラ, 12 動画配信サーバ, 20,20-1乃至20-M 表示端末, 30 インターネット, 100 制御部, 101 入力部, 102 出力部, 103 記憶部, 104 通信部, 111 画像取得部, 112 異常判定部, 113 画像処理部, 114 送信制御部, 121-1乃至121-4 入力監視部, 122 分配部, 123 メモリ, 131-1,131-2 同期処理部, 132-1 高解像度スティッチ処理部, 132-2 低解像度スティッチ処理部, 133 分配部, 134 トリミング・リサイズ部, 135 アルファブレンド部, 136 分割部, 150 制御部, 151 記憶部, 152 通信部, 161 送信制御部, 200 制御部, 201 センサ部, 202 記憶部, 203 表示部, 204 音声出力部, 205 入力端子, 206 出力端子, 207 通信部, 211 画像取得部, 212 画像処理部, 213 表示制御部, 1000 コンピュータ, 1001 CPU

Claims (13)

  1. 低解像度画像を、低解像度カメラから取得するとともに、
    前記低解像度画像よりも狭い画角を有し、前記低解像度画像の解像度よりも高い解像度を有し、かつ前記低解像度画像に含まれる実空間の領域を表す高解像度画像を、高解像度カメラから取得する
    画像取得部と、
    前記低解像度画像を表す第1の信号と、前記高解像度画像を表す第2の信号のうち、いずれか一方の信号に異常があるか否かを判定する異常判定部と、
    前記異常がないと判定された場合、前記低解像度画像と前記高解像度画像との間で連続性を有する第1の合成画像を生成する画像処理部と、
    前記第1の合成画像を表示端末に送信する送信制御部と
    を備え、
    前記画像処理部は、前記異常があると判定された場合、前記低解像度カメラと前記高解像度カメラのうち、前記異常があると判定されたカメラから取得される画像を、前記実空間の領域に対応する代替画像で置き換えて、前記連続性を実質的に再現する第2の合成画像を生成し、
    前記送信制御部は、前記第2の合成画像を前記表示端末に送信し、
    前記画像処理部は、
    前記低解像度画像と前記高解像度画像を用いたスティッチングによって、前記低解像度画像と前記高解像度画像との間の前記連続性を再現し、
    前記異常があると判定された場合において、前記第2の信号に前記異常がある場合には、第1の処理によって前記代替画像に置き換え、前記第1の信号に前記異常がある場合には、前記第1の処理と異なる第2の処理によって前記代替画像に置き換えることで、前記連続性を実質的に再現する前記第2の合成画像を生成する
    動画配信システム。
  2. 前記代替画像は、前記低解像度画像又はあらかじめ用意した静止画を含む
    請求項に記載の動画配信システム。
  3. 前記画像処理部は、前記第2の信号に前記異常がある場合、前記高解像度画像の欠落した領域を、前記低解像度画像により補完する
    請求項に記載の動画配信システム。
  4. 前記画像処理部は、
    欠落した前記高解像度画像を、透明画像に置き換え、
    前記低解像度画像を用いたスティッチングにより得られる低解像度スティッチ画像の上に、前記高解像度画像を用いたスティッチングにより得られる高解像度スティッチ画像をアルファブレンドする
    請求項に記載の動画配信システム。
  5. 前記画像処理部は、前記低解像度スティッチ画像における前記高解像度スティッチ画像に対応する領域をトリミングし、前記高解像度スティッチ画像に対応する大きさにリサイズする
    請求項に記載の動画配信システム。
  6. 前記画像処理部は、前記第1の信号に前記異常がある場合、前記低解像度画像の欠落した領域を、欠落した前記低解像度画像に対応した前記静止画により補完する
    請求項に記載の動画配信システム。
  7. 前記静止画は、あらかじめ撮像された背景画像、又は前記低解像度画像が欠落する直前の背景画像を含む
    請求項に記載の動画配信システム。
  8. 前記低解像度カメラは、少なくとも1つ設けられ、
    前記高解像度カメラは、少なくとも1つ設けられ、
    前記画像取得部は、複数の前記低解像度画像と、複数の前記高解像度画像を取得する
    請求項1に記載の動画配信システム。
  9. 前記異常判定部は、複数の前記低解像度画像に対応した複数の第1の入力信号と、複数の前記高解像度画像に対応した複数の第2の入力信号に基づいて、少なくとも1つの前記低解像度カメラに異常があれば、前記第1の入力信号に前記異常があると判定し、少なくとも1つの前記高解像度カメラに異常があれば、前記第2の入力信号に前記異常があると判定する
    請求項に記載の動画配信システム。
  10. 前記低解像度スティッチ画像は、正距円筒画像を含み、
    前記高解像度スティッチ画像は、部分正距円筒画像を含む
    請求項に記載の動画配信システム。
  11. 前記第1の合成画像又は前記第2の合成画像において、前記部分正距円筒画像の領域を除いた領域は、前記正距円筒画像に置き換えられる
    請求項10に記載の動画配信システム。
  12. 前記表示端末は、ヘッドマウントディスプレイを含む
    請求項1に記載の動画配信システム。
  13. 動画配信システムが、
    低解像度画像を、低解像度カメラから取得するとともに、前記低解像度画像よりも狭い画角を有し、前記低解像度画像の解像度よりも高い解像度を有し、かつ前記低解像度画像に含まれる実空間の領域を表す高解像度画像を、高解像度カメラから取得し、
    前記低解像度画像を表す第1の信号と、前記高解像度画像を表す第2の信号のうち、いずれか一方の信号に異常があるか否かを判定し、
    前記異常がないと判定された場合、前記低解像度画像と前記高解像度画像との間で連続性を有する第1の合成画像を生成し、
    前記第1の合成画像を表示端末に送信し、
    前記異常があると判定された場合、前記低解像度カメラと前記高解像度カメラのうち、前記異常があると判定されたカメラから取得される画像を、前記実空間の領域に対応する代替画像で置き換えて、前記連続性を実質的に再現する第2の合成画像を生成し、
    前記第2の合成画像を前記表示端末に送信し、
    前記低解像度画像と前記高解像度画像を用いたスティッチングによって、前記低解像度画像と前記高解像度画像との間の前記連続性を再現し、
    前記異常があると判定された場合において、前記第2の信号に前記異常がある場合には、第1の処理によって前記代替画像に置き換え、前記第1の信号に前記異常がある場合には、前記第1の処理と異なる第2の処理によって前記代替画像に置き換えることで、前記連続性を実質的に再現する前記第2の合成画像を生成する
    動画配信方法。
JP2021507147A 2019-03-15 2020-02-28 動画配信システム、及び動画配信方法 Active JP7505483B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019048111 2019-03-15
JP2019048111 2019-03-15
PCT/JP2020/008240 WO2020189223A1 (ja) 2019-03-15 2020-02-28 動画配信システム、動画配信方法、及び表示端末

Publications (2)

Publication Number Publication Date
JPWO2020189223A1 JPWO2020189223A1 (ja) 2020-09-24
JP7505483B2 true JP7505483B2 (ja) 2024-06-25

Family

ID=

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017099037A1 (ja) 2015-12-09 2017-06-15 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
WO2018070121A1 (ja) 2016-10-11 2018-04-19 キヤノン株式会社 画像処理システム、画像処理装置、及び、制御方法
JP2020501436A (ja) 2016-12-07 2020-01-16 クアルコム,インコーポレイテッド 関心領域のシグナリングのシステムおよび方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017099037A1 (ja) 2015-12-09 2017-06-15 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
WO2018070121A1 (ja) 2016-10-11 2018-04-19 キヤノン株式会社 画像処理システム、画像処理装置、及び、制御方法
JP2020501436A (ja) 2016-12-07 2020-01-16 クアルコム,インコーポレイテッド 関心領域のシグナリングのシステムおよび方法

Similar Documents

Publication Publication Date Title
JP7029562B2 (ja) コンテンツを提供及び表示するための装置及び方法
US11381801B2 (en) Methods and apparatus for receiving and/or using reduced resolution images
RU2665872C2 (ru) Стереопросмотр
US11303871B2 (en) Server and display apparatus, and control methods thereof
US11252391B2 (en) Methods and apparatus for packing images into a frame and/or including additional content or graphics
JP7191853B2 (ja) ヘッドマウントディスプレイおよび方法
KR102257132B1 (ko) 몰입형 비디오 컨텐츠를 생성 및 렌더링하기 위한 방법들, 시스템들 및 매체들
US20220239888A1 (en) Video distribution system, video distribution method, and display terminal
US20230018560A1 (en) Virtual Reality Systems and Methods
US11430178B2 (en) Three-dimensional video processing
WO2020189223A1 (ja) 動画配信システム、動画配信方法、及び表示端末
JP6934052B2 (ja) 表示制御装置、表示制御方法及びプログラム
JP7505483B2 (ja) 動画配信システム、及び動画配信方法
EP3742402B1 (en) Generation of a virtual viewpoint image
KR101773929B1 (ko) 광 시야각 영상 처리 시스템, 광 시야각 영상의 전송 및 재생 방법, 및 이를 위한 컴퓨터 프로그램
JP2021015417A (ja) 画像処理装置、画像配信システム、および画像処理方法
US11863902B2 (en) Techniques for enabling high fidelity magnification of video
US20230222754A1 (en) Interactive video playback techniques to enable high fidelity magnification