JP7205485B2 - Vrビデオ用に画像解像度を最適化してビデオストリーミングの帯域幅を最適化する画像処理のための方法及びストリーミングサーバ - Google Patents

Vrビデオ用に画像解像度を最適化してビデオストリーミングの帯域幅を最適化する画像処理のための方法及びストリーミングサーバ Download PDF

Info

Publication number
JP7205485B2
JP7205485B2 JP2019553044A JP2019553044A JP7205485B2 JP 7205485 B2 JP7205485 B2 JP 7205485B2 JP 2019553044 A JP2019553044 A JP 2019553044A JP 2019553044 A JP2019553044 A JP 2019553044A JP 7205485 B2 JP7205485 B2 JP 7205485B2
Authority
JP
Japan
Prior art keywords
video
viewport
signaling information
video input
metadata
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019553044A
Other languages
English (en)
Other versions
JP2020512772A5 (ja
JP2020512772A (ja
Inventor
ガルドン, セバスチャン アメンガル
サンチェス, ビクター, エルネスト ガルシア
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yerba Buena Vr Inc
Original Assignee
Yerba Buena Vr Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yerba Buena Vr Inc filed Critical Yerba Buena Vr Inc
Publication of JP2020512772A publication Critical patent/JP2020512772A/ja
Publication of JP2020512772A5 publication Critical patent/JP2020512772A5/ja
Application granted granted Critical
Publication of JP7205485B2 publication Critical patent/JP7205485B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234345Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements the reformatting operation being performed only on part of the stream, e.g. a region of the image or a time segment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/917Television signal processing therefor for bandwidth reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/40Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video transcoding, i.e. partial or full decoding of a coded input stream followed by re-encoding of the decoded output stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

相互参照
[0001]本出願は、2018年3月26日に出願された米国ユーティリティ特許出願第15/935,381号に対する優先権を主張し、この米国ユーティリティ特許出願は、2017年3月30日に出願された米国特許仮出願第62/478,780号「METHODS AND APPARATUSES TO OPTIMIZE RESOLUTION AND BANDWIDTH FOR VR VIDEOS」の恩恵を主張し、この米国特許仮出願は、参照によって本明細書に組み込まれる。
[0002]分野:実施形態は、パケットの送信元と送信先の間でのリアルタイム又は疑似リアルタイムのビデオ転送に関する。
[0003]背景:仮想現実(VR:virtual reality)体験を生み出すための最も重要なアプローチの1つは、コンピュータ3次元(3D:three-dimensional)グラフィックスのみに頼るのではなく、既存のデジタルビデオの能力を再利用することである。このアプローチは、通常、VRビデオ(例えば、180度ビデオ及び360度ビデオ)と呼ばれ、人工環境と現実世界のビデオキャプチャの両方に同様に適用され得る。このアプローチには、すでに大量に採用されているユーザデバイス(スマートフォン、パーソナルコンピュータ、及びVRヘッドグラスなど)における既存の能力を再利用するという利点がある。
[0004]従来の3Dグラフィックス手法と比較して、VRビデオのアプローチの主な差別化要因は、4K超高解像度(UHD:Ultra-High Definition)テレビを使用しても、ユーザの満足なVR没入体験を生み出すための適切なレベルの品質を提供するのに十分でないということである。また、スポーツ、コンサート、アクション映画などの種類のコンテンツのような、動的なシーンを含むほとんどのコンテンツで現実的な体験を提供するために必要なより高いフレームレートでは、毎秒60フレームが必要最小限のフレームレートになる。それらの要件に加えて、立体ビデオ形式が、必要な情報量を2倍にすることさえある。その結果、高品質の信号を送信するために、4Kを超える解像度及び60Mbpをはるかに超えるビットレートが必要になることがあり、この解像度及ビットレートは、既存のネットワークにわたるユーザデバイス及びプレーヤの大量の配置では、手に負えない。これらの高帯域幅及び高解像度の要件は、所得水準、地理、及びインターネット接続の成熟度などの要因に応じて、ユーザのために克服するべき困難な障害になるということが分かっており、したがって、アドレス可能な人口が大幅に狭められるということが考えられる。
[0005]VRビデオ及びその高解像度の要件との関連において、既存のコード変換方法も、非常に高い計算能力の必要性をもたらすことがあり、ストリームを準備するための時間が指数関数的に増加する。もう1つの重要な結論は、高解像度及び信頼性を有するライブイベントの送信が、現在の技術では困難であるということである。
[0006]ユーザの360度ビデオ体験の品質、及びリアルタイムでのVRビデコンテンツの作成を含む高品質のVRビデオコンテンツが作成される速度を改善できる解決策が必要である。さらに、VRビデオの送信を改善するための解決策が必要である。
概要
[0007]本開示は、360度ビデオ体験の品質及びリアルタイムでの高品質のVRビデオコンテンツを準備するための速度を改善できる解決策について説明する。この解決策は、既存のハードウェア、ビデオコーデック(コーダデコーダ)、及びストリーミングプロトコルとの互換性を維持したまま新しい方法で現在の問題を解決する。開示される解決策のその他の恩恵は、デバイスに課される追加要件がないことである。この解決策は、最適化された高品質のビットレートでインターネットを経由するストリーミングを可能にするサーバ及びクライアントの構成要素を含み、ライブコンテンツ及びファイルベースのコンテンツに適用できる。
[0008]本説明の第1の部分は、ビデオコンテンツの取り込み方法及び受信コンテンツを断片にセグメント化してリポジトリに格納するメカニズムを対象にする。そのようなセグメント化は、ワークフロー内のその後のステップにおいて並列プロセスで処理するときに、ライブビデオコンテンツの同期を可能にする。
[0009]本説明の態様によれば、この方法は、VRビデオを処理し、解像度の大部分を入力画像の特定の領域に割り当てるビデオのセットにすることを対象にする。これらの特定の領域の各々は、ビューポートと呼ばれる。
[0010]本開示の別の態様は、適切なビューポート及び期間の生成を柔軟な方法で調整するために入力「レシピ」ファイルが使用されるプロセスについて説明する。
[0011]本開示のさらに別の態様は、方法が、ビューポートの中心の周囲の解像度を最大にするようにビューポート内のピクセルを割り当て直すための第2のメカニズムをさらに説明するということについて説明する。
[0012]本開示のさらに別の態様は、方法が、ビデオフレームスタンプのメカニズムを説明するということについて説明し、ビデオフレームスタンプは、ユーザに表示される最適化された各ビデオフレームの正確な特徴を決定するための方法をクライアント側のプレーヤに提供するために実行される。
[0013]本開示の別の態様は、適切なフレームスタンプのための望ましい値をビットストリームにマッピングするためのメカニズムについて説明する。
[0014]本開示の別の態様は、フレームスタンプのためのパリティに基づくデータ品質保証メカニズムについて説明する。
[0015]本開示のさらに別の態様は、柔軟性フレームスタンプが、ビューポートの実装及び切り替えに関して、幾何学的変換、投影、及びビデオ解像度のアプローチの価値ある混合を可能にするということについて説明する。
[0016]本開示のさらに別の態様は、生成されたビデオをエンコードしてパッケージ化するための、標準的なコーデック(ブロック指向の動き補償に基づくビデオ圧縮規格H.264又はH.265(又はMPEG-4 Part 10)、Advanced Video Coding(MPEG-4 AVC)など)、及び標準的なメカニズム(MPEG-DASH又はHLSなど)に従う平均ビットレート(ABR:average bitrate)の送信用のパッケージビューポートの利用について説明する。本開示は、立体ビデオの場合に、立体画像の一部において不必要な画像の複雑さを除去することによって(コーデックの実装を変更しないで)エンコーディング効率を改善するための第2のメカニズムも対象にする。
[0017]本開示の別の態様は、ビューポートの構造を識別するための追加の信号伝達メタデータの生成方法について説明する。
[0018]本開示のさらに別の態様は、VRビデオコンテンツをデコードして提示するために行われる方法のクライアント側について説明する。
[0019]本開示のさらに別の態様は、生成されたメタデータをデコードしてビューポート構成に関する情報を受信し、ビューポート構成情報を使用して最も関連性のある最適化されたビューポートをフェッチ(fetch)するために、クライアントによって使用されるメカニズムを提示する。
[0020]本開示の別の態様は、デコードされたメタデータを使用して、特定のビューポート構成に従って受信ビデオフレームを適切に提示するために、クライアントによって使用されるメカニズムを提示する。
[0021]本開示のさらに別の態様は、適切なビューポートのストリームを選択するために使用されるユーザの頭部の位置を決定するために、クライアントのヘッドセットメカニズムの利用を提示する。
[0022]本開示のさらに別の態様は、未来の頭部の位置を推定するための予測モデルのクライアント側の利用についてさらに説明し、この未来の頭部の位置は、その後、クライアント側で適切なビューポートの要求をさらに最適化するために使用される。
[0023]本開示の別の態様は、より速いビューポート変更能力を可能にするために、2つ以上のビューポートを並行して要求する能力、及びビューポートの変更をユーザに切れ目なく表示できる瞬間を検出するためのメカニズムについて説明する。
[0024]本開示のさらに別の態様は、クライアントがフレームスタンプをデコードして、表示されようとしているフレームに関する情報を取得するメカニズム、及びフレームをユーザに表示するときに、投影されたビューポートにおいて調整が実行されるメカニズムについて説明する。
[0025]本開示のさらに別の態様は、フレームスタンプが適切に読み取られていることを保証するため、及び下位互換性を有効化するように機能するための、パリティに基づくデータ品質メカニズムの利用についてさらに説明する。
[0026]本開示の別の態様は、ビューポートのセットをリアルタイムに生成してパッケージ化できる並列処理メカニズムについてさらに説明する。
[0027]本開示のさらに別の態様は、ビデオの再生及びユーザの位置に関する情報がバックエンドの分析処理に返送されるデータ収集メカニズム、並びにユーザの体験及び行動について知るために収集される関連するデータ要素について説明する。
[0028]本開示のさらに別の態様は、クライアント側の予測において役立つ機械学習モデルをトレーニングするために、データを集約して処理するバックエンドのメカニズムをさらに示す。
[0029]本開示のこれら及びその他の態様並びに関連する実施形態は、以降の実施形態の詳細な開示を考慮して明らかになるであろう。
[0030]本開示の態様は、少なくとも8Kの解像度を有するビデオ入力を受信するステップと、受信されたビデオ入力を処理し、少なくともより多くのピクセルを第1の領域に、より少ないピクセルを第2の領域に割り当てる2つ以上のビューポートセグメントにするステップであって、受信されたビデオ入力を2つ以上のビューポートセグメントに処理することが並行して実行される、ステップと、第1の信号伝達情報を生成するステップであって、第1の信号伝達情報が外部のメタデータである、ステップと、第2の信号伝達情報を生成するステップであって、第2の信号伝達情報が外埋め込まれたメタデータである、ステップとを含む方法を対象にする。さらに、この方法は、処理されたビデオを再生するステップと、第1の信号伝達情報及び第2の信号伝達情報を1つ又は複数のビデオフレームに埋め込むステップと、受信されたビデオ入力をリアルタイムに処理するステップと、適応ビットレート表現を生成するステップとのうちの1つ又は複数を含むことができる。さらに、適応ビットレート表現を生成するステップは、立体ビデオの送信を最適化するためのフレーム処理プロセスをさらに含むように構成可能である。この方法は、凝視位置モニタと通信して適切なビューポートをフェッチする追加のステップと、再生のために、クライアント側で、埋め込まれたフレームメタデータをパース(parse)する追加のステップとを含むこともできる。さらに、一部の構成では、ユーザの予測された頭部の位置を計算し、予測された頭部の位置に応答して再生要求を調整するステップが含まれ得る。モデルの状態をフェッチするステップ、モデルの状態をトレーニングするステップ、及びモデルの状態を保存するステップも含まれ得る。
[0031]本開示の別の態様は、メモリと、コントローラとを備えるサーバを対象にし、このコントローラは、少なくとも8Kの解像度を有するビデオ入力を受信することと、ビデオ入力を処理して、より多くのピクセルを第1の領域に割り当て、その結果、より少ないピクセルを第2の領域に割り当てられる2つ以上のビューポートセグメントにし、2つ以上のビューポートセグメントが、並行して作成されることと、外部のメタデータ及びビデオフレームに埋め込まれたメタデータの両方として信号伝達情報を生成することと、処理されたビデオ入力を、デバイスがストリーミングするための標準的なストリーム発生源フォルダーに配信することとを実行するように構成される。サーバは、ストリーミングサーバであることができる。さらに、コントローラは、第1のプロセスとして入力ビデオをセグメント化することと、セグメント化されたソースから処理タスクを設定することと、保留中の処理タスクを検出して、それらの処理タスクのみを処理し、そのような複数のサーバが並行して効率的に動作できるようにすることと、立体ビデオの送信をさらに最適化するために、追加の任意選択的フレーム処理を伴って適応ビットレート表現を生成することとのうちの少なくとも1つ又は複数を実行するように、さらに構成可能である。
[0032]本開示のさらに別の態様は、2つ以上のビデオフレームを含む少なくとも8Kの解像度を有するビデオ入力をシステムに受信するステップと、受信されたビデオ入力を処理し、少なくともより多くのピクセルを第1の領域に、より少ないピクセルを第2の領域に割り当てる2つ以上のビューポートセグメントにするステップであって、受信されたビデオ入力を2つ以上のビューポートセグメントに処理することが並行して実行される、ステップと、第1の信号伝達情報を外部のメタデータとして生成し、第2の信号伝達情報を2つ以上のビデオフレームに埋め込まれたメタデータとして生成するステップと、処理されたビデオ入力をシステムからクライアントデバイスに配信するステップとを含む方法を対象にする。この方法は、埋め込まれたメタデータをビデオフレームに追加して、ビューポートの追加の信号伝達情報を生成するステップと、立体ビデオの送信をさらに最適化するための追加の任意選択的フレーム処理を伴って適応ビットレート表現を生成するステップとのうちの1つ又は複数を含むようにさらに構成可能である。
[0033]本開示のさらに別の態様は、少なくとも8Kの解像度を有するビデオ入力を受信することと、受信されたビデオ入力を処理することと、第1の信号伝達情報を生成することであって、第1の信号伝達情報が外部のメタデータである、ことと、第2の信号伝達情報を生成することであって、第2の信号伝達情報が埋め込まれたメタデータである、ことと、第1の信号伝達情報及び第2の信号伝達情報を1つ又は複数のビデオフレームに埋め込むこととを含む方法を対象にする。この方法は、処理されたビデオを再生するステップと、受信されたビデオ入力を処理し、少なくともより多くのピクセルを第1の領域に、より少ないピクセルを第2の領域に割り当てる2つ以上のビューポートセグメントにするステップであって、受信されたビデオ入力を2つ以上のビューポートセグメントに処理することが並行して実行される、ステップと、受信されたビデオ入力をリアルタイムに処理するステップと、適応ビットレート表現を生成するステップとのうちの1つ又は複数を含むようにさらに構成可能である。さらに、一部の構成では、適応ビットレート表現を生成するステップは、立体ビデオの送信を最適化するためのフレーム処理プロセスを含むようにさらに構成可能である。さらに、一部の構成では、凝視位置モニタと通信して適切なビューポートをフェッチするステップ、及び再生のために、クライアント側で、埋め込まれたフレームメタデータをパースするステップも含まれ得る。ユーザの予測された頭部の位置を計算し、予測された頭部の位置に応答して再生要求を調整するステップも提供され得る。一部の構成では、ステップは、モデルの状態をフェッチすることと、モデルの状態をトレーニングすることと、モデルの状態を保存することとも含む。
[0034]本開示の別の態様は、メモリと、コントローラとを備えるサーバを対象にし、このコントローラは、少なくとも8Kの解像度を有するビデオ入力を受信することと、ビデオ入力を処理し、第1のプロセスとして、入力ビデオをセグメント化されたソースからセグメント化することと、外部のメタデータ及びビデオフレームに埋め込まれたメタデータの両方として信号伝達情報を生成することと、処理されたビデオ入力を、デバイスがストリーミングするための標準的なストリーム発生源フォルダーに配信することとを実行するように構成される。サーバは、ストリーミングサーバであることができ、又は任意のその他の適切なサーバ構成であることができる。さらに、コントローラは、ビデオ入力を処理し、より多くのピクセルを第1の領域に割り当て、その結果、より少ないピクセルが第2の領域に割り当てられる2つ以上のビューポートセグメントにし、2つ以上のビューポートセグメントが、並行して作成されることを実行するように、さらに構成可能である。一部の構成では、コントローラは、保留中の処理タスクを検出して、それらの処理タスクのみを処理し、そのような複数のサーバが並行して効率的に動作できるように、さらに構成される。さらに他の構成では、コントローラは、立体ビデオの送信をさらに最適化するために、追加の任意選択的フレーム処理を伴って適応ビットレート表現を生成するように、さらに構成される。
[0035]本開示のさらに別の態様は、2つ以上のビデオフレームを含む少なくとも8Kの解像度を有するビデオ入力をシステムに受信することと、受信されたビデオ入力を処理することと、第1の信号伝達情報を生成することであって、第1の信号伝達情報が外部のメタデータである、ことと、第2の信号伝達情報を生成することであって、第2の信号伝達情報が埋め込まれたメタデータである、ことと、第1の信号伝達情報及び第2の信号伝達情報を1つ又は複数のビデオフレームに埋め込むことと、処理されたビデオ入力をシステムからクライアントデバイスに配信することとを含む方法を対象にする。この方法は、埋め込まれたメタデータをビデオフレームに追加して、ビューポートの追加の信号伝達情報を生成するステップ、及び/又は立体ビデオの送信をさらに最適化するための追加の任意選択的フレーム処理を伴って適応ビットレート表現を生成するステップをさらに含むことができる。
[0036]本開示のさらに別の態様は、少なくとも8Kの解像度を有するビデオ入力を受信することと、受信されたビデオ入力を2つ以上のビューポートセグメントに処理することと、第1の信号伝達情報を生成することであって、第1の信号伝達情報が外部のメタデータである、ことと、第2の信号伝達情報を生成することであって、第2の信号伝達情報が埋め込まれたメタデータである、ことと、凝視位置モニタと通信して適切なビューポートをフェッチすることとを含む方法を対象にする。この方法は、処理されたビデオを再生するステップを含むこともできる。少なくとも一部の構成では、第1の信号伝達情報及び第2の信号伝達情報を1つ又は複数のビデオフレームに埋め込むステップ。さらに、受信されたビデオ入力は、リアルタイムに処理され得る。この方法の一部の構成は、適応ビットレート表現を生成するステップも含む。適応ビットレート表現を生成することは、立体ビデオの送信を最適化するためのフレーム処理プロセスをさらに含むこともできる。少なくとも一部の構成では、ステップは、再生のために、クライアント側で、埋め込まれたフレームメタデータをパースすることと、ユーザの予測された頭部の位置を計算し、予測された頭部の位置に応答して再生要求を調整することと、モデルの状態をフェッチすることと、モデルの状態をトレーニングすることと、モデルの状態を保存することとのうちの1つ又は複数を含む。
[0037]本開示の別の態様は、メモリと、コントローラとを備えるサーバを対象にし、このコントローラは、少なくとも8Kの解像度を有するビデオ入力を受信することと、ビデオ入力を処理して、外部のメタデータ及びビデオフレームに埋め込まれたメタデータの両方として信号伝達情報を生成することと、処理されたビデオ入力を、デバイスがストリーミングするための標準的なストリーム発生源フォルダーに配信することと、凝視位置モニタと通信して適切なビューポートをフェッチすることとを実行するように構成される。コントローラは、第1のプロセスとして入力ビデオをセグメント化すること、セグメント化されたソースから処理タスクを設定すること、保留中の処理タスクを検出して、それらの処理タスクのみを処理し、そのような複数のサーバが並行して効率的に動作できるようにすること、及び/又は立体ビデオの送信をさらに最適化するために、追加の任意選択的フレーム処理を伴って適応ビットレート表現を生成することを実行するように、さらに構成され得る。
[0038]本開示のさらに別の態様は、2つ以上のビデオフレームを含む少なくとも8Kの解像度を有するビデオ入力をシステムに受信することと、受信されたビデオを処理することと、第1の信号伝達情報を外部のメタデータとして生成し、第2の信号伝達情報を2つ以上のビデオフレームに埋め込まれたメタデータとして生成することと、凝視位置モニタと通信して適切なビューポートをフェッチすることとを含む方法を対象にする。この方法は、埋め込まれたメタデータをビデオフレームに追加するステップと、ビューポートの追加の信号伝達情報を生成するステップとをさらに含むように構成可能である。立体ビデオの送信をさらに最適化するための追加の任意選択的フレーム処理を伴って適応ビットレート表現を生成するステップは、立体ビデオの送信を最適化するようにさらに構成され得る。
[0039]本開示の別の態様は、少なくとも8Kの解像度を有するビデオ入力を受信することと、2つ以上のビデオフレームを含む受信されたビデオ入力を処理することであって、各ビデオフレームが前半及び後半を含む、ことと、第1のビデオフレームの前半においてビットレートを増やし、第1のビデオフレームの後半においてビットレートを減らすことと、ビデオ入力全体のエンコードされたビットレートを減らすこととを含む方法を対象にする。さらに、この方法は、処理されたビデオを再生することと、第1の信号伝達情報及び第2の信号伝達情報を1つ又は複数のビデオフレームに埋め込むことと、受信されたビデオ入力をリアルタイムに処理することと、適応ビットレート表現を生成することとのうちの1つ又は複数を含むことができる。さらに、一部の構成では、適応ビットレート表現を生成するステップは、立体ビデオの送信を最適化するためのフレーム処理プロセスをさらに含むことができる。さらに、この方法は、凝視位置モニタと通信して適切なビューポートをフェッチするステップと、再生のために、クライアント側で、埋め込まれたフレームメタデータをパースするステップとを含むことができる。この方法は、ユーザの予測された頭部の位置を計算し、予測された頭部の位置に応答して再生要求を調整するステップを含むことができる。少なくとも一部の構成では、この方法は、モデルの状態をフェッチすることと、モデルの状態をトレーニングすることと、モデルの状態を保存することとも含む。
[0040]本開示の別の態様は、メモリと、コントローラとを備えるサーバを対象にし、このコントローラは、少なくとも8Kの解像度を有するビデオ入力を受信することと、第1のビデオフレームの前半においてビットレートを増やし、第1のビデオフレームの後半においてビットレートを減らすことと、ビデオ入力全体のエンコードされたビットレートを減らすこととを実行するように構成される。サーバは、ストリーミングサーバであることができる。さらに、コントローラは、第1のプロセスとして入力ビデオをセグメント化することと、セグメント化されたソースから処理タスクを設定することと、保留中の処理タスクを検出して、それらの処理タスクのみを処理し、そのような複数のサーバが並行して効率的に動作できるようにすることと、立体ビデオの送信をさらに最適化するために、追加の任意選択的フレーム処理を伴って適応ビットレート表現を生成することとのうちの少なくとも1つを実行するように、さらに構成され得る。
[0041]本開示のさらに別の態様は、2つ以上のビデオフレームを含む少なくとも8Kの解像度を有するビデオ入力をシステムに受信するステップと、受信されたビデオ入力を処理し、少なくともより多くのピクセルを第1の領域に、より少ないピクセルを第2の領域に割り当てる2つ以上のビューポートセグメントにするステップであって、受信されたビデオ入力を2つ以上のビューポートセグメントに処理することが並行して実行される、ステップと、第1の信号伝達情報を外部のメタデータとして生成し、第2の信号伝達情報を2つ以上のビデオフレームに埋め込まれたメタデータとして生成するステップと、処理されたビデオ入力をシステムからクライアントデバイスに配信するステップとを含む方法を対象にする。さらに、この方法は、埋め込まれたメタデータをビデオフレームに追加して、ビューポートの追加の信号伝達情報を生成するステップ、及び/又は立体ビデオの送信をさらに最適化するための追加の任意選択的フレーム処理を伴って適応ビットレート表現を生成するステップを含むことができる。
参照による組み込み
[0042]本明細書において言及されたすべての公開文献、特許、及び特許出願は、本明細書では、個々の公開文献、特許、又は特許出願が具体的且つ個別に参照によって組み込まれていると示された場合と同じ程度まで、参照によって組み込まれる。
[0043]Cole他の2016年3月3日に公開された米国特許出願公開第2016/0065946A1号「Methods and Apparatus for Capturing, Streaming and/or Playing Back Content」
[0044]Budagavi他の2016年5月19日に公開された米国特許出願公開第2016/0142697A1号「Coding of 360 Degree Videos Using Region Adaptive Smoothing」
[0045]Moura他の2016年5月26日に公開された米国特許出願公開第2016/0150212A1号「Live Selective Adaptive Bandwidth」
[0046]Korneliussen他の2016年7月28日に公開された米国特許出願公開第2016/0219241A1号「Video Transmission Based on Independently Encoded Background Updates」
[0047]Roimelaの2016年9月8日に公開された米国特許出願公開第2016/0260196A1号「Video Streaming Method」
[0048]Adams他の2016年12月1日に公開された米国特許出願公開第2016/0352791A1号「Streaming Spherical Video」
[0049]Weaver他の2016年12月1日に公開された米国特許出願公開第2016/0353146A1号「Method and Apparatus to Reduce Spherical Video Bandwidth to User Headset」
[0050]Saxena他の2016年12月29日に公開された米国特許出願公開第2016/0381398A1号「Generating and Transmitting Metadata for Virtual Reality」
[0051]Belch他の2017年2月9日に公開された米国特許出願公開第2017/0039881A1号「Sports Training Using Virtual Reality」
[0052]Long他の2016年10月18日に発行された米国特許第9,473,758B1号「Methods and Systems for Game Video Recording and Virtual Reality Replay」
[0053]El-Ganainy他、「Streaming Virtual Reality Content」(2016年12月26日、https://arxiv.org/pdf/1612.08350で参照可能)
[0054]HOSSEINI他、「Adaptive 360 VR Video Streaming:Divide and Conquer」(2017年1月23日、https://arxiv.org/pdf/1609.08729で参照可能)
[0055]KINGDOM他、「Binocular Vision:The Eyes Add and Subtract」、Current Biology, Vol, 22(1)、2012年1月10日、pp. R22-R24
[0056]PIXVANA、「An Intro to FOVAS:Field of Vision Adaptive Streaming for Virtual Reality」(2016年6月16日、http://blog.pixvana.com/intro-to-field-of-view-adaptive-streaming-for-vrで参照可能)
[0057]添付の特許請求の範囲において特殊性を有する本発明の新しい特徴が示される。本発明の特徴及び利点のより良い理解は、本発明の原理が利用される実施形態例を示す以下の詳細な説明及び添付の図面を参照することによって得られる。
[0058]バックエンドのVR処理フローの高レベルの概要を示す図である。
[0059]幾何学的に変換されたフレームを生成するために行われるフローの高レベルの概要を示す図である。
[0060]立方体の画像が正距円筒図法形式(バックエンドのVR処理フローの可能な入力形式のうちの1つ)でどのように表示されるかを示す図である。
[0061]図3に示されているのと同じ立方体を示す図であり、立方体のマッピングにおいて、正距円筒図法の画像の幾何学的変換の前身が示されている。
[0062]選択した面により多くの解像度を提供するための、立方体マップ変換の修正の例を示す図である。
[0063]立方体マップの面への3D環境の面の投影に起因する、ピクセル密度の現象を示す図である。
[0064]等しいピクセル密度を実現するための立方体マップの面のプリワーピングの例を示す図である。
[0065]立方体マップの面の中心領域内のより大きい密度を実現するように調整された、ピクセル密度の逆プリワーピングを示す図である。
[0066]すでに変換されたフレームにスタンプするためのフロー図を示す図である。
[0067]ビデオフレーム内の黒色のスタンプでビット0を表し(図10)、ビデオフレーム内の白色のスタンプでビット1を表す(図11)、ビデオフレーム内のスタンプを示す図である。 [0067]ビデオフレーム内の黒色のスタンプでビット0を表し(図10)、ビデオフレーム内の白色のスタンプでビット1を表す(図11)、ビデオフレーム内のスタンプを示す図である。
[0068]層の深さが1(図12)~3(図14)に増えるビデオのスタンプビット構成のレイアウトを示す図であり、ビット配置及びエンコードできるビットの量における増加を示す。 [0068]層の深さが1(図12)~3(図14)に増えるビデオのスタンプビット構成のレイアウトを示す図であり、ビット配置及びエンコードできるビットの量における増加を示す。 [0068]層の深さが1(図12)~3(図14)に増えるビデオのスタンプビット構成のレイアウトを示す図であり、ビット配置及びエンコードできるビットの量における増加を示す。
[0069]意味のある値へのビットの可能なマッピング(例えば、5の深さのスタンプビット構成の場合のビットと10進数の間のマッピング)を示す図であり、このマッピングは、スタンプから意味のある変数をエンコード及びデコードするために、サーバとクライアント側の間で共有されなければならない。
[0070]最適化されたVRビデオの望ましいセットを生成するために、処理命令(「レシピ」と呼ばれる)の完全なセットがパースされる、基本的なフロー図である。
[0071]最適化されたビューポートを生成するための例示的なレシピファイルを示す図である。 [0071]最適化されたビューポートを生成するための例示的なレシピファイルを示す図である。 [0071]最適化されたビューポートを生成するための例示的なレシピファイルを示す図である。 [0071]最適化されたビューポートを生成するための例示的なレシピファイルを示す図である。 [0071]最適化されたビューポートを生成するための例示的なレシピファイルを示す図である。
[0072]JSON形式で生成された信号伝達情報に関して生成された、追加の信号伝達の例を示す図である。 [0072]JSON形式で生成された信号伝達情報に関して生成された、追加の信号伝達の例を示す図である。
[0073]異なるヨーとピッチの組み合わせをカバーする8ビューポートのレイアウトを示すことによって、複数のビューポートを示す図である。
[0074]クライアント側の機能ブロックを示す図である。
[0075]オンデマンドのライブVRビデオの処理のための拡張性の考慮を示す図であり、各ケースでの計算ノードの増加を推進する主要な変数、及び各ケースで必要な一時的リポジトリを示す。 [0075]オンデマンドのライブVRビデオの処理のための拡張性の考慮を示す図であり、各ケースでの計算ノードの増加を推進する主要な変数、及び各ケースで必要な一時的リポジトリを示す。
[0076]クライアント側でのイベントの再生順序を示す図である。
[0077]さらに分析を実行するためにクライアントから収集されたデータ要素の一部の例を示す図である。
[0078]VRビデオストリーミングにおいて利用される機械学習モデルのデータ処理のフローチャートを示す図である。
[0079]図25に示されたフローを通ることができる視界方向モデルの具体的な特徴エンジニアリングチェーンを示す図である。 [0079]図25に示されたフローを通ることができる視界方向モデルの具体的な特徴エンジニアリングチェーンを示す図である。
[0080]図26A~26Bのプロセスの後に存在する可能性あるデータのトレーニングセットのスキーマを示す図である。
[0081]コーデックの効率を改善するために立体ビデオフレームに適用できる任意選択的処理を示す図である。
詳細な説明
[0082]図1に示されているように、開示される方法及び装置の入り口点であるVRビデオ処理フロー100が示されている。VRビデオ処理フロー100のバックエンドには、高品質のVRビデオ入力(例えば、360度ビデオ及び180度ビデオが最も一般的なビデオである)が存在し、正距円筒図法の投影が、この目的のために一般的に利用される形式であるが、その他の形状(例えば、立方体マップ、魚眼レンズ出力)も可能である。VRビデオ処理フロー100は、受信ビデオのセグメント入力104から開始する(102)。レシピ106に従ってビューポートを生成してスタンプするステップを実行するために、受信VRビデオのセグメント入力104が、処理されてセグメント化され、指定された形状に従って変換を適用するためにさらに処理され、ABR表現を生成する(108)ための複数のビットレートを生成するように再エンコードされる。ABR表現108が生成された後に、パッケージビューポートが設定される(110)。最後に、追加の信号伝達情報が生成され(112)、クライアント側でビューポート情報を適切にパースできるようにする。この時点で、VRビデオ処理フロー100が終了する(120)。
[0083]すべての(図1に示されているステップ106~110の間に発生する)処理ステップは、高解像度の要件、フレームレート、及びコンテンツの立体映像のために、並列計算能力を必要とする。例えば、音声トラック及びビデオトラックの非同期化又はビューポート間の非同期化をもたらすことのあるフレームの非同期化を含む、可能性のある問題に対処するために、この追加の処理能力が必要になる。同期を保証するために、提案される実施形態は、360度ビデオのセグメント入力104としての時間セグメント(又は単にセグメント)でのビデオコンテンツの取り込みが提供されることを保証するための方法を提案する。ビデオのセグメントは、閉じた画像グループ(GOP:group of pictures)を使用し、図22に示されているような断片の番号の関数としてコード化されたファイル名で、共有されたリポジトリのファイルに格納される。このようにして、ファイル名を順序の参照として使用することによって、ビデオ全体の同期を失わずに、個別のセグメントファイルに並行して、さらに処理を適用することができる。
[0084]ビューポート生成及びエンコーディングに必要なすべての並列処理は、プロセスの数を生成されたセグメント化ファイルに合わせて調整することによって、システムによって自動的に管理される。図21~22は、オンデマンドでのライブの状況で行われる考慮を示す。図21では、オンデマンドのケースが、視界の生成及び視界のコード変換のためにあまり並列計算を必要としないように示されており、一方、図22は、リアルタイムの処理速度を達成するために、システム及び装置が、単一のビューポートに対して、「n」個の並列なViewGenコンピューティングノードを必要とするように設計されていることを示す。
[0085]開示される方法は、正しい単一のファイル名を割り当てることによって、一度に単一のプロセスが単一のファイルに割り当てられることを保証する。ファイルが処理されているとき、ファイル名が新しいコード化された名前に変更され、その結果、名前が変更されておらず、したがってまだプロセスに割り当てられていないファイルに対してのみ、新しいプロセスが確立される。ファイル名を新しいコード化された名前に変更することによって、システムは、複数のプロセスを同時に、並行して実行できる。例えば、方法をより軽いコンピューティングノード上で実行しながら、異なるビデオファイルを並行して処理することができる。
[0086]当業者によって理解されるように、VRビデオコンテンツを超える文脈において、並列処理を適用できる。例えば、コンテンツの並列処理が必要又は有用であり、並列ジョブの同期が重要になる場合に、並列処理を任意のビデオコンテンツの種類に適用できる。
[0087]明らかになるように、可能性のある組み合わせ(コーデック、解像度、幾何学的変換、及びVRビデオストリームに対して実行され得るその他の調整)の量は、極めて重要である。そのため、レシピ106に従ってビューポートを生成し、ビューポートにスタンプするステップの間に、特定のソースビデオに対して実行されるべき変換を記述する一連のステップを含む構成ファイルを使用することが必要になる。当業者によって理解されるように、レシピは、実際の動作中に、望ましい結果を実現しながら、かなりの柔軟性を提供できる。このファイルは、処理レシピと呼ばれ、例えば図17A~17Eに示されており、これらの図は、ビューポートの異なる記述ブロックを含むようにレシピがどのように構成可能であるかを示しており、ブロックビューポートの幾何学的特徴及びビデオエンコーディングの特徴、並びにブロックビューポートを表示に利用できる期間を詳細に示す。このファイルに加えて、レシピ106に従ってビューポートを生成し、ビューポートにスタンプするステップを適切に実行するために、完全なパース及び実行プロセスが提供され得る。
[0088]図2は、ビューポート生成200の高レベルのフローを示す。ビューポート生成200の高レベルのフローのプロセスは、変換マップが存在するかどうかを判定する(204)ことから開始する(202)。変換マップが存在する場合(はい)、変換マップが読み込まれる(206)。変換マップを読み込んだ(206)後に、システムによって、変換ルール210に従ってピクセルが入力から出力に変換される。さらに、システムによって変換マップが読み込まれた(206)後に、データが、格納用の変換マップキャッシュ208から取り出されるか、又は変換マップキャッシュ208に提供され得る。変換マップが存在しない場合(いいえ)、システムは、すべてのターゲットピクセルがマッピングされたかどうかを判定する(214)。すべてのターゲットピクセルがマッピングされていない場合(いいえ)、システムによって、出力ビデオのピクセルが3D座標にマッピングされ、システムは、例えば、出力形状タイプに従ってビデオのピクセルが表されるべきであるということを決定する(218)。任意選択的なステップとして、出力ビデオのピクセルがマッピングされた後に、プリワープ強度に従って3D座標のターゲット形状の選択された角度により細かい粒度を割り当てるように、プリワープ強度係数に従って3D座標が調整される(220)。当業者によって理解されるように、この任意選択的なステップの間に、本開示の範囲を逸脱せずに、複数のプリワープ方法が使用されてもよい。
[0089]システムによって3D座標が調整された後に、システムによって、3D座標がピクセルにマッピングされ、その位置で、入力形状タイプに従って、入力ビデオ内でピクセルが表される(222)。システムによって3D座標がマッピングされた後に、1つ又は複数のソースピクセルから1つ又は複数のターゲットピクセルへの変換ルールが作成される(224)。この時点で、ターゲットピクセルがマッピングされ(はい)、変換ルールセット(又は変換マップ)が格納される(216)。データが、格納された変換ルールセットからの変換マップキャッシュ208から取り出されるか、又は変換マップキャッシュ208に提供され得る。システムによって変換ルールセットが格納された(216)後に、変換ルールに従ってピクセルを入力から出力に変換することができ(210)、その後プロセスが、図16の変換済みビューポートのスタンプのステップ1626に進む。
[0090]図16は、レシピ106(図1)のビューポートを生成してビューポートにスタンプするステップに従って、システムによってビューポートを生成してビューポートにスタンプするステップの内部動作1600をさらに詳細に示しており、この内部動作は、専用の調整計算ノードによって制御される。開始(1602)後の第1のステップの間に、処理されるべき期間を決定するために、レシピファイルがパースされる(1604)。レシピがパースされた(1604)後に、システムが、未処理の期間が存在するかどうかを判定する(1606)。未処理の期間が存在しない場合(いいえ)、システムによって期間のセット全体のABRマニフェストが生成され(1608)、それに続いて、期間のセット全体に関して追加の信号伝達を生成し(1610)、プロセスを終了する(1612)。
[0091]未処理の期間が存在する場合(はい)、システムが、未処理のビューポートが期間内に存在するかどうかを判定する(1620)。未処理のビューポートが期間内に存在しない場合(いいえ)、プロセスが、未処理の期間が存在するかどうかを判定するステップ1606に戻る。未処理のビューポートが期間内に存在する場合(はい)、システムが、未処理の表現がビューポート内に存在するかどうかを判定する(1622)。未処理の表現がビューポート内に存在しない場合(いいえ)、プロセスが、未処理のビューポートが期間内に存在するかどうかを判定するステップ1620に戻る。未処理の表現がビューポート内に存在する場合(はい)、システムが、幾何学的変換を生成するステップで、ビューポート及び形状に対して指定されたタイプ及びサイズの幾何学的変換を生成し(1624)、変換済みビューポートにスタンプする(1626)。幾何学的変換を生成するステップ1624及び変換済みビューポートにスタンプするステップ1626は、幾何学的変換の実際の生成を含むことができる。幾何学的変換を生成するステップ1624が図2(ステップ206~220)に要約されており、変換済みビューポートにスタンプするプロセス1626が図9(ステップ904~914)に要約されている。当業者によって理解されるように、これらの2つのプロセスは、順次モード(例えば、図22においてViewGenと呼ばれる同じコンピューティングノードによって実行される)又は並列モード(例えば、図2において調整ノードによって調整される別々のノードによる)のいずれかで実行され得る。並列処理では、通常、視界を生成しているノードが、個別の処理ジョブを受信し、その処理ジョブに関して(特に、プロセスの完了に関して)調整ノードに報告することが必要になる。すべての期間のビューポート及び表現が終了した後に、図1で説明されているように、ABR表現を生成するステップ108に進むことができる。
[0092]幾何学的変換プロセスが、図2で概説されている。入力ビデオ形式は、既知の幾何学的等価性を有していなければならない。幾何学的変換の最も一般的なケースは、正距円筒図法のビデオにおいて発生し、システムによる、球形状のビデオへの正距円筒図法のビデオのマッピングが知られている。例えば図3を参照すると、図3は、左302、前304、右306、及び後308からの正距円筒図法形式300へのマッピングプロセスを示す。立方体マップ及び180度投影などのその他の投影も可能である。ターゲット形状を前提として、出力ビデオのピクセルを、それらが表すべき3D座標にマッピングするステップ(218)、及び入力形状タイプに関する、その3D空間から新しい平面への投影変換(222)の間に、ターゲットのビデオ入力から3D空間への数学的変換が実現される。
[0093]図4は、立方体マッピングの例を示しており、立方体マッピングは、図3に示されている正距円筒図法形式300の入力を、例えば、右402、左404、上406、下408、前410、及び後412を含む6つの正方形を有する立方体マップ400に変換する。
[0094]ビデオは離散的行列であり、同等の3Dは実数であるため、等価性が正確でないことがあり、又は3D空間の離散化に起因するアーチファクトが発生することがある、ということがあり得る。そのため、ターゲットの2D座標におけるわずかな変動の影響がソースビデオの2D座標における差異をもたらすかどうかを判定するために、ターゲットピクセルごとにサブマッピングが実行される。その場合、ソースピクセルからターゲットピクセルへの変換ルールを作成するプロセス(224)の一部として、加重平均化のアプローチが獲得され得る。
[0095]さらに、システムによって、わずかな「埋め込み」を面に追加できるということに注意するべきである。埋め込みは、ビデオを3Dの状況で表示するときにアーチファクトを防ぐために実行され、面の端の周囲の3D座標の一部を効果的に複製する。埋め込みは、ユーザの頭部が動いたときに、クライアントデバイスでの描画時に仮想空間が安定し、連続したままであることを保証するために使用できる、先取権のあるステップである。当業者によって理解されるように、埋め込みは、ユーザを取り囲むメッシュを使用する場合の、3Dグラフィックスにおいて一般によく知られた慣行である。埋め込みの正確な強度は、バックエンドとクライアントプレーヤの間で、信号伝達情報112の一部として、メタデータとして知られている、共有されたパラメータである。
[0096]対象領域へのより多いピクセルの割り当ては、例えば、変換マップをシステムに読み込み(206)、変換ルールに従ってピクセルを入力から出力に変換する(210)ことによって、図2で概説されたプロセスの間にいつでも実現できる。例えば異なる面のマッピングを含むことによる、任意の介在するステップが、変換ルールの一部として実行されてもよい。例えば、面のうちの1つが、より大きい2D空間を占めるが、より小さい3D領域を表すよう意図されていてよく、このようにして、その領域に関してさらに詳細を捕捉できる。この効果を実現するための別の方法は、変換関数の「原点」を3D空間の幾何学的中心にあるデフォルトの位置から「中心を外れた」原点に移動することであり、これによって、「中心を外れた」軸で、マッピングされた面ごとのピクセル割り当てにおける滑らかな段階的変化の効果を実現する。
[0097]図5は、開示されたアプローチの2つの可能な実装を示す。第1の構成では、立方体マッピングは、図4に示されて説明された立方体マップ400である。次に、システムによって、わずかな変形を立方体マッピング手法に適用することができ、例えば、より大きい2D表面を立方体の面のうちの1つに割り当てることができる。第1の立方体マップの変形410では、右512、左514、及び上516が、互いに隣り合って左から右に配置され、ほぼ同じサイズを有する。後522及び下518は、上516の下で上から下に配置されており、上部の列に沿って左から右に走る右512、左514、及び上516と同じサイズをも有する。前520は、後522及び下518の左の、右512及び左514の下に配置されており、残りの正方形のいずれかの約4倍のサイズを有する。前520の角は上516の角に接触しているが、前520の辺は、上516にどのサイズでも接触していない。第2の立方体マップの変形530では、右532、左534、上536、下542、及び後540が、1つの辺(示されているように、右辺)に沿って上から下に配置されており、前540が、右532、左534、上536、下542、及び後540に隣り合って配置されている。前540の1つの辺が、右532、左534、上536、下542、及び後540の各々の1つの辺に接触している。第3の立方体マップの変形550は、右552及び左554が、上端に沿って互いに隣り合って左から右に配置され、上560、後562、及び下558が、上端と直角な側端に沿って配置されて、示されている。前560は、1つの辺上の右552及び左554の一部の下に配置されており、第1の辺と直角な第2の辺上で、上560、後562、及び下558の1つの辺に隣り合っている。第4の立方体マップの変形570は、右572及び左574が、前580の第1の辺に沿って左から右に配置されて、示されている。上576、下578、及び後582は、上から下の順序で、左564の1つの辺に隣り合って配置されている。右562、左564、及び後572の辺は、前562の1つの辺に隣り合っている。前580の残りの3つの辺は、右572、左574、上576、下578、又は後582のどの他の辺とも接触していない。
[0098]より大きい3D領域を表すために、2Dピクセル空間が小さくなるという代償を払って、3D空間の1つのサブセットで最適化が実行され、その結果、この部分の空間の品質が低下する。したがって、この手法を使用して最適化された個々のビューポートは、特定の境界内のみでより良い解像度を提供し、残りの空間ではその解像度を提供しない。このために、複数の最適化されたビューポートが必要であり、この方法が、異なる頭部の位置及び回転で配置された複数のビューポートを生成し、伝達し、再生するように設計されている。図19は、すべて同じ透視投影における、8つの視点を含む可能なビューポートレイアウト1900を示しており、ピッチ1910は第1の軸を中心にし、ヨー1920は第2の軸を中心にする。ピッチ1910は、例えば、点1、5、4、及び6を含んでおり、ヨー1920は、点1、7、2、3、及び8を含む。
[0099]ピクセルマッピングは計算負荷が高いタスクであることがあり、ピクセルマッピングが計算された後に、ソースビデオ及びターゲットビデオが同じ幾何学的意味を維持している限り、そのピクセルマッピングは有効なままである。このため、キャッシングメカニズムがこの方法に追加され、システムによって実行される。図2で前述したように、ピクセルマッピングの計算を試みる前に、システムによって変換マップキャッシュ208がチェックされ、変換マップを読み込むステップ206が成功した場合に、変換マップキャッシュ208が読み込まれる。ピクセルマッピングが計算された後に、後で変換タスクにおいて使用するために、変換ルールセットを格納するステップ216の間に、システムによってピクセルマッピングがキャッシュに格納される。入力ビデオと出力ビデオの両方で、例えば次を含む同じ幾何学的特徴及びビデオの特徴が検出された場合に、変換マップキャッシュ208が存在するということが決定される。
a.解像度
b.形状及び投影の種類
c.面のワーピング
d.面の埋め込み
e.サブマッピングの精度
f.透視投影の中心
[0100]システムによって適用される幾何学的変換の正確な性質に応じて、平坦な面を3D環境に配置することの結果として、クライアント側でピクセル密度のワープ現象が発生することがある。
[0101]図6は、立方体マップの面610が3D環境620に投影された後に、どのような密度のワープ現象が立方体マップの面610に発生するかを示す。基本的に、視界の中心がユーザの仮想位置の近くに配置されるということに起因して、視界の中心でピクセルがより大きい角度間隔を占め、したがって、より高い解像度が割り当てられるべき部分において、より低い解像度を正確に提供する。密度のワープを相殺するために、幾何学的変換の各部分内で、図2に示されているプリワープ強度に従って3D座標を調整するステップ220において、逆ピクセル割り当てのワープが追加される。システムによって、逆ピクセル割り当てのワープを追加することによって、より多くのピクセルを、より高い解像度を提供する変換面の中心に効果的に割り当てる。図7に示されているように、第1のピクセル密度マップ710が第2のピクセル密度マップ720に変換されるときに、ピクセル割り当てのワープが変化する。
[0102]領域の外側のピクセル密度を減らすという代償を払うが、クライアント側での再生時に最大の全体的解像度を提供するという望ましい効果を伴って、各画像フレームの外側に向かって、より大きい粒度が実現される。等角投影などの類似するアプローチとは異なり、この望ましい効果は、ピクセル割り当ての均一性にあるのではなく、図8に示されているように、ユーザの注意が発生する可能性が高い中心領域で最大のピクセル密度を提供することにある。第1のピクセル密度マップ810は、中心においてより高いピクセル密度を示しており、外側の角でピクセル密度が著しく低下している。第2のピクセル密度マップ820は、中心におけるより高いピクセル密度及び外側の角での低下したピクセル密度を示しており、この外側の角での低下したピクセル密度は、第1のピクセル密度マップ810において示されている外側の角のピクセル密度より高い。
[0103]望ましい幾何学的変換を伴ってフレームが生成され、ワーピングされた後に、スタンプに進むことができる。この手順は、装置全体が、専用のメタデータストリーム、タイリング、又はその他のコーデック固有の手法のいずれにも依存しないため、圧縮メカニズム及びコーデックについて不可知のままでいることができるようにするために、必要になる。スタンプのレイアウトは、次の基準に従って設計されている。
a.シンボルのすべての位置は、画像の全幅及び全高を基準にする。これによって、(解像度及びエンコーディングの品質がシンボルを壊さない限り)ビデオのサイズ及び縦横比で変化するように、スタンプを弾力的にする。
b.システムは将来においても有効であるべきである。つまり、追加情報に対応するために、システムを将来拡張することができ、現在のバージョンのスタンプを使用してエンコードされたビデオが、ビデオ処理を必要とせずに、より新しいバージョンを使用して動作するということである。
[0104]スタンプするためのプロセスの信号伝達スタンプを生成するためのサブシステム900が、図9で説明されている。このサブシステムは、フレーム内にスタンプされる必要があるビットのセットが存在するという前提に依存するが、ビットの正確な意味に関して事前に定義された仮定を行わない。したがって、図15に示されているような、意味のある値を含むエンコードされた(後でプレーヤ側でデコードされる)ビットのハンドシェイクマッピング、及びスタンプフェーズに移行する前にそれらの値からビットストリームを生成するためのメカニズムがあらかじめ生成されていなければならない。
[0105]スタンププロセス900が開始した(902)後に、ビデオの外部境界内でシンボルと同じ幅の黒色の帯が挿入されて(904)、スタンプが配置される領域にマークを付ける。スタンプはフレームに重なり、フレームの小さい部分を上書きするが、フレームの解像度は同じままであり、縞が意味のあるフレームの情報を上書きするのを防ぐように、フレームを生成する瞬間に埋め込みがキャリブレートされるべきであり、ソースピクセルからターゲットピクセルへの変換ルールの作成(図2の224)の一部として実行されるべきである、ということに注意する。次に、最初の4つのシンボルが、画像の端の各々の中央に配置され(906)、例えば、ビット「1」の場合は(図11に示されているように)白色のシンボルをスタンプし、又はビット「0」の場合は(図10に示されているように)黒色のシンボルをスタンプする。4つの角の空間を、4つのパリティビットに使用できる(図9に示されている2進数としてパリティ値を角にスタンプするステップ914で、実現される)。辺の各々の値の大きさの順序付けは、例えば、0-上、1-左、2-右、3-下というように設定されなければならず、0は最下位ビットである。増加の方向の事前に設定された理解は、スタンプから意味を抽出することを可能にする。各シンボルの中心は、1の長さのフレーム1200の辺の中心に揃えられなければならず、アルゴリズムの最初の通過の後に、フレームスタンプが、図12に示されているように配置されている。各シンボルの中心は、正しいスタンプの読み取りを可能にするために、フレームの辺の中心と一致する。1の長さのフレーム1200の角は、左上から時計回りに、P0、P1、P3、及びP2である。さらに層の深さが必要かどうかの判定908が(いいえ)である場合、シンボルが各辺の残りの再分割の中央に配置され(910)る。角の各々に対して同じ動作が繰り返され、辺の関連性の同じ順序に従って、シンボルを各辺の残りの再分割の中央に配置する。さらに層の深さが必要かどうかの判定が(はい)である場合、システムは、スタンプされた「1」ビットの数を数えることによってパリティチェック値を取得し(912)、mod 16演算を適用する。次にパリティ値が、2進数として角にスタンプされ(914)、プロセスが終了する(916)。
[0106]図13~14は、開示されたアルゴリズムが2の長さのフレーム1300及び3の長さのフレーム1400の長さでそれぞれ生成する、ビットのフレームレイアウトを示す。図13及び図14では、2の長さのフレーム1300及び3の長さのフレーム1400の角は、左上から時計回りに、P0、P1、P3、及びP2である。特定の層数(n)で配置されるシンボルの総数は、次の等比級数によって定義される。
Figure 0007205485000001
[0107]その後、パリティチェック値を取得するプロセス912に達する。すべてのビットがスタンプに配置された後に、システムによって「パリティ」動作が実行される。システムが、スタンプされた「1」ビットの数を数えることによってパリティチェック値を取得した(912)後に、データの完全性の目的で、パリティチェック値がクライアント側で使用され得る。パリティチェック値は、0~15の範囲内の値を含むことができ、スタンプ内で「1」に設定されたビットの数に対してモジュロ16演算を実行することによって計算され得る。
p=(1のビットの数)mod 16
パリティチェック値は、フレーム内の角に、あらかじめ予約された2進数としてスタンプされ得る(914)。それらのビットの順序付けは、左から右に進んだ後に上から下に進み、図12示されているように、P0(左上隅)は最下位ビットであり、P3(右下隅)は最上位ビットである。このステップが終了した後に、フレームが完全にスタンプされ、パッケージ化に進む準備ができる。
[0108]レシピ106に従ってビューポートを生成してスタンプするステップにおいてビューポートが生成されてスタンプされた後に、ABR表現が生成され(108)、図22に示されているように、取り込みにおいてセグメンタによって提供されるのと同じ構造及びタイミングに従う新しいファイルセグメントに格納されるときに、標準的なコーデック(H.264又はH.265など)を使用してコンテンツがエンコードされる。
[0109]図22は、ライブビデオストリーミング用の拡張可能な並列構造を有するVRビデオ処理フローを示す。セグメンタ2212と通信するビデオソース2210が提供される。セグメンタ2212は、データをセグメンタのデータベース2214に提供する。セグメンタのデータベース2214からのデータは、ViewGen xn2220、ViewGen xn2222、ViewGen xn2224、及びViewGen xn2226からの複数の視界を介して処理され、nはビューポートごとの視界生成器の数であり、vは生成するビューポートの数である。ViewGenから得られたデータは、生成された視界のデータベース2230に集められる。生成された視界のデータベース2230からのデータは、複数のトランスコーダ(トランスコーダxr2242、トランスコーダxr2244、トランスコーダxr2246、及びトランスコーダxr2248)を介して処理される。トランスコーダから得られたデータは、トランスコーダのデータベース2250に挿入され、次に、パッケージャ2252を介して処理され、その後、発生源データベース2254に挿入される。
[0110]さらに既知の標準的なコード変換手法を使用して、複数のビットレートでコンテンツをエンコードして、ABRビデオを生成することも可能である。その後、システムによって、同期を維持するための名前のコード化に従って、得られたすべてのファイルが新しいディレクトリに格納される。商用のパッケージャ(MPEG-DASH又はHTTPライブストリーミング(HLSストリーム)など)によって供給されるパケットを形成するために、パッケージビューポートが設定される(110)ときに、そのようなファイル構造が使用される。そのような商用のパッケージャは、コンテンツを一連の小さいHTTPベースのファイルセグメントに分割する適応ビットレートストリーミング手法である。商用のパッケージャは、標準的な事例において見られるように、すべてのビューポート及びビットレートのストリームのコレクションを含む、セグメントの適切なマニフェストも提供する。標準的なコード変換手法を使用してABR表現を生成できるが、本明細書に記載された実施形態は、異なる形状を同じ視界方向に追加できるように、この能力を拡張し、したがって、より低い解像度及びビットレートで構成されだけでなく、異なる幾何学的変換及び、したがって、異なる視界(FOV:Field Of View)の最適化でも構成される、ABR表現のサブセットを生成するということに注意するべきである。
[0111]低周波数の画像(例えば、エンコードされた同じ色を含む領域)が提示される場合、既存のビデオエンコーディングアルゴリズムが、通常はより効率的であるため、各目の差分を計算し、元のフレームの代わりに、そのような動作の結果をエンコードすることによって、立体ビデオの場合のエンコーディング段階で、さらに任意選択的改善を適用できる。そのようなエンコーディングにおいて、エンコードされた値を計算するための1つの可能な論理を次に示す。
L及びRを、縮尺0~MAXでユーザに表示される色の元の値とし、EncodedL及びEncodedRを、ビデオにおいて最終的にエンコードされた値とする。
Figure 0007205485000002

この論理を使用して出力されたエンコーディングのサンプルが、図28に示されている。このエンコーディングは、立体ビデオの固有の冗長性を有利に使用して、画像の半分のビットレートをわずかに増やし(2810)、画像の残りの半分のビットレートを劇的に減らす(2820)ことによって、一定の品質レベルで、ビデオ全体のエンコードされたビットレートを全体的に減らす。
[0112]図1に示されているように、パッケージビューポートが設定された(110)後に、すべてのビューポートを同じリスト内に含むように、ABRマニフェストを構成できる。ABRマニフェスト内のどのビデオが3D空間内のどのビューポートに属するかというマッピングを実行するために、クライアントプレーヤによる追加の信号伝達が必要になることがある。ABRマニフェストが完全に規格に準拠することを維持するために、ABRマニフェストは、変更も拡張もされない。代わりに、追加の信号伝達情報の例において示されたように生成されたビューポートマップと呼ばれる補完的な信号伝達ファイルが、図18に示されたJSON形式で生成される。レシピに従ってビューポートを生成し、ビューポートにスタンプするステップ106(図1)において概説されたワークフローのレシピのメタデータから、マッピングに関する情報がパースされ、この情報は、水平(ヨー)角及び鉛直(ピッチ)角で最適化された視界の中心を含む。この信号伝達ファイルを構築するときに考慮するべき追加の側面がいくつか存在する。
a.ビデオマニフェストの識別子が信号伝達ファイルにおいて参照として使用されるため、ビデオマニフェスト生成との調整が必要になる。
b.ビューポートが3D空間内で構成される特定の方法(例えば、幾何学的変換、ピクセルワーピングなど)に関する情報が、この信号伝達ファイルの一部として送信されず、フレームスタンプの一部としてのみ残される。
c.ビューポートの空間的位置に関する情報(位置及び回転)が、信号伝達ファイル及び各フレームの一部の両方によって送信される。これが行われる理由は、この情報が、再生シーケンスのさまざまな瞬間に使用されるためである(このことは、本文書において、それに関するセクションで説明される)。
[0113]前述した空間マッピングに加えて、ビューポートマップファイルも、再生中の複数の期間に関する情報を提供する。デフォルトとして、ビデオの期間の間、空間マッピングが適用されるが、空間マッピングは、開始時間及び終了時間によって区切られた特定の期間の間、信号伝達部分を定義することもできる。図18は、JSON形式でのこの信号の出力形式の例を示しており、特定のタイムラインを記述の一部として含まないことによって、デフォルトの事例が信号伝達され、時間の上限及び下限が、特定の期間に先行する。任意選択で、補完的な信号伝達は、ビデオの代替手段を、この透視投影に関連するもののみを含むように制限するためにクライアント側で使用される、異なる視点の記述を含むこともできる。MPEG DASHなどの一部のストリーミングプロトコルも、それ自身の期間の実装を提供するが、このアプローチは、プロトコルの実装から分離する能力を可能にし、装置全体がストリーミングプロトコルについて不可知であるようにする。
[0114]この記述の次の部分は、VRビデオのクライアント側の再生に対応する。図20は、既存のホームデバイス及びモバイルデバイス上で実行するように設計されたクライアント側アプリケーション2010の主な機能構成要素(ユーザインターフェイス2011、VABRプレーヤ2012、分析レポータ2014、ローカルWebサーバ2016、信号伝達デコーダ2018、ビューポートレンダラ2020、及びピクセル再割り当て2022)を示す。
[0115]図23は、ビューポートを生成して信号伝達するための開示された方法を前提として、VRビデオ2300の再生フローを対象にする。インターネット2310は、クライアントアプリ2320と通信する。クライアントアプリ2320は、ネットワークインターフェイス2323、ユーザインターフェイス2326、VABRプレーヤ2329(信号伝達デコーダ2332及び凝視位置モニタ2335を含むことができる)、デバイスビデオデコーダ2347、及びビューポートレンダラ2338(スタンプリーダ2341及び3Dシーン調整器2344を含むことができる)を含む。クライアントアプリ2320の各構成要素は、クライアントアプリ2320の1つ又は複数の下位構成要素と通信し、及び/又はそれらの下位構成要素間でデータを提供する。
[0116]実際のビデオ再生の前に、ユーザは、ユーザインターフェイス2326に関与し、再生するビデオを選択する。次に、UI-VABR間通信プロセス2330の間に、選択されたビデオコンテンツのアドレスが仮想現実適応ビットレートプレーヤ(図23では、VABRプレーヤ2329として参照されている)に送信され、次に、VRビデオが表示されるビューポートレンダラ2338による3Dシーンの準備をトリガし、VRビデオ信号伝達メタデータのリモート要求を開始する。リモート要求は、第1のI-NI間データ転送プロセス2312の間に、ネットワークインターフェイス及びVABRプレーヤ及び2322の間、並びにネットワークインターフェイス2323とインターネット2310の間で発生する。
[0117]第2のI-NI間データ転送プロセス2314の間に、リモートサーバが、インターネット2310とネットワークインターフェイス2323の間の信号伝達情報に応答するときに、第2のNI-VABR間データ転送プロセス2324の間に、信号伝達情報が、ネットワークインターフェイス2323からVABRプレーヤ2329に直ちに送信され、VABRプレーヤ2329によって信号伝達デコーダ2332でパースされる。信号伝達デコーダ2332は、信号伝達メタデータを読み取って、信号伝達された位置で関連するビューポートを設定し、第1のSD-GPM間データ転送プロセス2351の間に、データを信号伝達デコーダ2332及び凝視位置モニタ2335から送信し、凝視位置モニタの下位構成要素を初期化する。凝視位置モニタ2335及び信号伝達デコーダ2332が初期化された後に、VABRプレーヤ2329が、信号伝達メタデータによって示された達第1のセグメントを要求する準備ができる。信号伝達デコーダ2332及び凝視位置モニタ2335は、第1のSD-GPM間データ転送プロセス2351及び第2のSD-GPM間データ転送プロセス2352によって示されているように、構成要素間で第1の方向及び第2の方向にデータを送信することによって、後方及び前方に通信するよう構成可能である。
[0118]図23は、前述した準備が終了した後の、VRビデオ再生のフローも対象にする。凝視位置モニタは、視界の赤道に向かう動きを優先するために、一方で、ヘッドセットのインターフェイスを使用して、未来の頭部の位置の予測を実行し、頭部の位置の一次導関数及び二次導関数並びに相殺変数のセットを考慮する回帰モデルを使用し、現在の頭部の位置及び予測された頭部の位置を継続的に計算する。この予測は、現在アクティブな視点における予測された頭部の位置への最短角距離を有するビューポートとして定義される、ユーザに最も関連するビューポートを計算するために、(凝視位置モニタ2351で)すでに設定されたビューポート構成情報と組み合わせられる。この情報は、VABRプレーヤに返され(2352)、VABRプレーヤ2329によって、ネットワークインターフェイスからパースされたネットワークの状態(例えば、帯域幅、待ち時間)及び再生バッファの状態と共に使用され、次にどのビューポートをどのビットレートで要求するべきかを決定する。次に、要求が、第1のNI-VABR間データ転送プロセス2322の間に、VABRプレーヤ2329からネットワークインターフェイス2323に対して行われ、その後、第1のI-NI間データ転送プロセス2312の間に、ネットワークインターフェイス2323によってインターネット2310に転送される。この要求に対する応答が、第1のI-NI間データ転送プロセス2312の間に、ネットワークインターフェイス2323とインターネット2310の間で、及び第2のNI-VABR間データ転送プロセス2324の間に、ネットワークインターフェイス2323とVABRプレーヤ2329の間で、リモートサーバから受信される。ビューポートが変化していない限り、VABRプレーヤ2329がセグメントを順序通りに要求し、それらのセグメントを順次バッファに格納するということに注意するのは、重要である。ビューポートが変化する場合、2つのビューポートデコーディングプロセスを並行して処理できるようにするために、バッファリング及びデコーディングの第2のチェーンが、VABRプレーヤ2329によって作成される。したがって、VABRプレーヤ2329の結果が新しいビューポートである場合、第1のNI-VABR間データ転送プロセス2322の間に、VABRプレーヤ2329とネットワークインターフェイス2323の間の要求が既存のビューポートの順序に従わず、代わりに、再生位置に近いセグメントを読み込もうと試みる。第1のNI-VABR間データ転送プロセス2322の間の、VABRプレーヤ2329とネットワークインターフェイス2323の間の要求からの応答は、第2のI-NI間データ転送プロセス2314の間に、ネットワークインターフェイス2323によってインターネット2310から受信された後に、第2のNI-VABR間データ転送プロセス2324の間に、新しいバッファ及びデコードのチェーンとしてネットワークインターフェイス2323からVABRプレーヤ2329に送信される。第1のVE-VABR間通信プロセス2342の間に、データがデバイスビデオエンコーダ2347からVABRプレーヤ2329に送信されるときに、VABRプレーヤ2329が、受信されたフレームをデバイスビデオエンコーダ2347に送信する。ビューポートが変化する場合に、任意選択で、複数の要求-応答のチェーンの結果として、2つ以上のデコードチェーンが存在してもよいということに注意する。第1のVE-VABR間通信プロセス2342の間に、システムによってデータがデバイスビデオエンコーダ2347からVABRプレーヤ2329に送信されるときに、デバイスビデオエンコーダ2347が、デコード済みフレームをVABRプレーヤ2329に返し、VABR-VR間データ転送プロセス2353の間に、VABRプレーヤ2329が、ビューポートレンダラ2338と通信して、描画するためにどのフレームを送信するべきかを評価する。単一のデコードチェーンが存在する場合、描画するためにどのフレームを送信するべきかの決定は、フレームの単なる通過であるが、ビューポートが変化する場合、VABRプレーヤ2329は、すでに存在するビューポートとの同期を達成した後にのみ、新しいビューポートに対応するフレームを送信する。そうでない場合、VABRプレーヤは、古いビューポートからのフレームを送信する。ユーザに最も関連するデコード済みフレームであると決定されたデコード済みフレームが、3Dエンジンに送信され、3Dエンジンでは、スタンプリーダ2341がフレームの特徴(例えば、角座標でのビューポートの中心、デカルト座標での透視投影点の中心、ビューポートで使用される正確な幾何学的変換の識別子、スタンプ方法のバージョンなど)を再構成する。この情報は、上で説明されたようにビットストリームとしてエンコードされ、このビットストリームの正確な意味は、図15に示されているようなビットと10進数の間の変換の影響を受ける。
[0119]スタンプリーダ構成要素は、スタンプの第1の有効ビットから読み取られたバージョンに従って、ビットへの10進数の正確なマッピングに関する情報を含み、その共有された定義に従ってビットストリーム全体をデコードすることを進める。これらのパラメータが、3Dシーン調整器2344においてデコードされた後に、3Dエンジン内のシーン調整器の下位構成要素が、スタンプリーダ2341による情報を受け取り、再生3Dモデルに対して必要な調整を行って、スタンプされたメタデータに正確に適応する(例えば、シーンを回転する、透視投影の中心を移動する、フレームがエンコードされた3D形状に一致する正確な3D形状を準備する、立体ビデオのエンコーディング時に実行される演算とは逆の演算を使用して元のフレームを組み立て直す、など)。最後に、3Dシーンに対する調整が実行された後に、3Dエンジンがフレームをユーザに表示する準備ができ、VR-UI間データ転送プロセス2350の間に、データがビューポートレンダラからユーザインターフェイス2326に送信される。明らかになるように、この再生方法は、エンドユーザの体験が影響を受けないように、投影が適切に実行されることを保証しながら、動的な切り替えの状況に対応して、フレームごとに異なる最適化方法の混合を可能にする。
[0120]ビューポートが変化する場合、2つのアプローチが選択され得る。第1のアプローチは、ネットワークインターフェイスからVABRプレーヤ1330へのデータの転送の一部として、新しいビューポートに属するビデオを再生キュー内に連続的に配置し、ビデオバッファ内のストリーミングチャンクを、それらのストリームが利用可能になるにつれて徐々に置き換えることである。第2のアプローチは、2つのデバイスビデオデコーダを並行して実行させることによって、さらに高速なビューポートの変化を実現することができ、第1のVE-VABR間通信プロセス2342の間に、データがデバイスビデオエンコーダ2347からVABRプレーヤ2329に転送されるときに、異なるビューポートに対応するフレームを提供する。これらは、ビューポートの変化が検出されたときに交換する必要のある、同じコンテンツの2つの視界である。この交換は、元のビューポートと目的のビューポートの間で、ユーザにとって切れ目なく効果的に実行される必要がある。並列ビデオデコーディングに支援されるクライアントデバイスのみが、本明細書に記載された第2のアプローチから恩恵を受けることができる。
[0121]データ転送2350の間に、ビューポートレンダラ2338からの元のビューポートの最後のフレームがユーザインターフェイス2326に提示された後に、目的のビューポートの最初のフレームが使用可能になる必要がある。それらの異なるビューポートの連続する2つのフレームは、元の正距円筒図法のビデオ内の連続するフレームに対応しなければならない。第2のVE-VABR間データ転送2346の間にデバイスビデオデコーダ2347から取得された、元のビューポート及び目的のビューポートに対応するビデオフレームの両方のストリームが、スタンプリーダ2341で連続的に使用可能になる。スタンプリーダ2341は、ビデオフレームを順序付けるため、及び両方のビューポート内の正確な元の一致するフレームを決定するための十分なデータを含むスタンプ情報を連続的に読み取ることができる。したがって、スタンプリーダ2341と3Dシーン調整器2344の間のデータ転送2354の間に、元のビューポートのシーケンス番号が(n-1)になり、目的のビューポート上で使用できる最初のフレームのシーケンス番号が(n)になるように、両方のビデオフレームのストリームが調整される。
[0122]装置は、スタンプされていないビデオの再生をサポートするように構成可能でもある。スタンプされていないビデオの再生をサポートすることは、コンテンツがスタンププロセスを通るという要件を課さず、正距円筒図法形式ですでに存在しているコンテンツとの下位互換性を許容する。ビューポートレンダラ2338は、スタンプなしでデータを描画するように構成可能であり、その場合、ビットを数える同じ計算を行い、その計算結果を読み取られたビットと比較することによって、デコードされた信号伝達メタデータが有効であることを検証するために、パリティビットが使用される。パリティテストに合格した場合、3Dシーン調整器2344が、前述したように動作する。パリティテストに合格しなかった場合、デフォルトでは、フレームは正距円筒図法と見なされ、3Dシーン調整器2344は、正距円筒図法のフレームとしてフレームを投影するデフォルトの動作を実行する。
[0123]凝視位置モニタ2335は、任意選択で、未来の頭部の位置の測定及び予測を実行するように構成可能である。図23は、頭部の位置の予測をもたらすデータ収集及びデータ処理の方法を説明するために、凝視位置モニタ2335さらに詳しく示す。ユーザインターフェイス2326でコンテンツの選択が実行され、マニフェスト情報が、データ転送2324を介してネットワークインターフェイス2323からVABRプレーヤ2329に到着した後に、再生状態に関する情報が、VABRプレーヤ2329によって収集される。収集されたビデオ再生情報2514は、ビデオ自体に関する要素と、VR固有の視覚化の態様に関する要素を含む収集された視覚化情報2516とを含む。収集されたデータ要素の図が、図24に示されている。
[0124]図24は、クライアントから収集されたデータ要素2400のブロック図を示す。クライアント2410は、頭部の位置(x,y,z)2412、頭部の向き(ヨー、ピッチ、ロール)2414、目の向き(ヨー、ピッチ、ロール)2416、コントローラの位置(xyz)2418、コントローラの向き(ヨー、ピッチ、ロール)2420、コンテンツのURL2422、ビットレート2424、表示されるビューポート2426、タイムスタンプ2428、及びコンテンツのタイムスタンプ2430を含む。
[0125]また、図25は、クライアントデータが予測モデル化2500に使用可能になる前の、クライアントデータの処理のフロー図を示す。クライアント2510が、(図23のネットワークインターフェイス2323とVABRプレーヤ2329の間のデータ転送2324から)開始する(2512)。開始後に、ビデオ再生情報が収集され(2514)、それに続いて、視覚化情報を収集する(2516)。そこから、プロセスがバックエンドのデータ層2540に進み、クライアント情報を集約する(2542)。クライアント情報が集約された後に、フィルター及びデータクリーンアッププロセス2544が実行され、その後、任意選択でメタデータに情報を付加することができる(2546)。フィルター及びクリーンアップ又は情報付加のいずれかのステップの結果が、中間データストア2548に提供される。さらに、この結果は、外部データ層2530及びそのメタデータデータベース2538に提供できる。バックエンドのデータ層2540は、クライアント2510上のモデルの状態取得2518プロセス及びバックエンドの機械学習層2570上のモデルの状態のフェッチ2578と通信するモデルデータストア2550を含むこともできる。
[0126]モデルの状態取得2518は、情報を凝視位置モニタ2521に提供し、凝視位置モニタ2521は、予測された頭部の位置を計算して(2522)から、再生要求を調整する(2524)。再生要求が調整された後に、プロセスが終了し、図23に示されているVABRプレーヤ2329内の凝視位置モニタ2335に戻ることができる。さらに、バックエンドのビデオ発生源層が、情報をクライアント2510上の発生源フォルダープロセス2520に提供する発生源フォルダー2562を含む。発生源フォルダー2562は、図1、2、9、及び16に示されているプロセスからの情報を含むビデオワークフロー2564を受信する。
[0127]バックエンドの機械学習層2570が、中間データストレージ2584から情報を受信し、その後、特徴エンジニア2572を介してデータを準備する。特徴エンジニア2572からの出力が、トレーニング、テスト、及び相互検証のセットを選択するためのプロセス2574に提供される。システムによってトレーニング、テスト、及び相互検証のセットが選択された後に、プロセスが、既存のモデルの状態が存在するかどうかを判定する(2576)。既存のモデルの状態が存在する場合(はい)、モデルの状態がフェッチされる(2578)。モデルの状態は、バックエンドのデータ層2540内のモデルデータストア2550からフェッチされ得る。その後、出力が、モデルをトレーニングする(2580)ために提供される。既存のモデルの状態が存在しない場合(いいえ)、プロセスがモデルのトレーニング2580に直接進む。モデルトレーニングプロセスが完了した後に、モデルの状態が保存され(2582)、出力がモデルデータストア2550に提供される。
[0128]クライアント情報が集約されるときに(2542)、バックエンドのデータ層2540によって個々のクライアントからの生データが集約され、タイムスタンプに関する情報を均一にし、偽のデータ要素が到着しないようにするために、フィルタリング及びデータクリーンアッププロセス2544がその生データに適用され、発生源に関する追加情報のタグをデータ要素に付け、複数の個々のクライアントの要求を処理して、データ格納に適したより大きいデータセットにマージする。ビデオワークフロー2564(図1、2、9、及び16を参照)の間に、サードパーティのコンテンツメタデータプロバイダが、ユーザによって見られているコンテンツに関する情報について詳しく説明するようにという連絡を受けることがある。このステップは、この情報なしでモデルが機能できるため、任意選択的である。この処理されたデータは、次に、モデルのトレーニングに今後使用するため、システムによってデータストアに送信される。
[0129]また、図25に示されているバックエンドの機械学習層は、定期的な間隔で実行するように設定され得る。さらに、バックエンドの機械学習層は、モデルのトレーニングを実行するために、バックエンドのデータ層によって生成された情報を受け取るように構成されてもよい。そのために、データは、特徴エンジニア2572において、複数の特徴エンジニアリング手法を介して準備される。特徴エンジニア2572におけるデータの準備は、生データ要素の種類に応じて異なってよく、特に、離散化、正規化範囲のバケット化、畳み込み、及び圧縮を含むことができる。
[0130]図26A~Bは、格納されたデータを、機械学習モデルを介して処理される準備ができている要素に変換するために使用される、特徴エンジニアリングステップの例を示す。データ変換が完了した状態で、変換済みデータを、機械学習のトレーニング及び検証パイプラインにおいて使用することが可能である。
[0131]図27は、図25に示されている検証パイプラインに入るデータセットのスキーマを示す。このデータセットは、図25のトレーニング、テスト、及び相互検証のセットの選択2574の間に、トレーニング、テスト、及び相互検証のセットに分割される。システムによってすでにトレーニングされたモデルの前の状態が存在する場合、モデルの状態のフェッチ2578の間にモデルを初期化するために、システムによってモデルがフェッチされる。次にこのデータセットは、モデルをトレーニングする(2580)ために、システムによって使用される。得られたモデルの状態は、モデルの状態を保存する(2582)ために、対応するデータストア内で追加されるか、又は更新される。
[0132]モデルのトレーニング2580プロセスの間に生成され、モデルの状態の保存2582の間に格納されたモデルの加重及びパラメータは、1つ又は複数のクライアント2510によって利用されるよう意図されている。これは、処理されて格納されたモデルの加重及びパラメータが、未来の頭部の位置を予測するようにモデルをキャリブレートするために採用される加重を含むためである。この再生セッションに関連するモデルの状態は、モデルの取得段階2518で、リモートデータストアから取り出される。次に、ユーザの現在の頭部の位置が、システムによってヘッドセットから取得され、予測された頭部の位置が計算される(2522)ときに、特定の時間枠内の未来の頭部の位置の推定を生成するための推定モデルの入力として追加される(この予測の長さは、凝視位置モニタ2521の構成可能なパラメータである)。この頭部の位置の予測は、パースされ信号伝達メタデータと組み合わせて使用され、信号伝達デコーダ2332(図23)が、この予測を使用して、予測された頭部の位置への最も近い角距離を有するビューポートを計算する。視点の計算が完了した後に、凝視位置モニタ2335で再生プロセスが続行し、その後、前述したように進む。
[0133]バックエンドの学習層2500内のモデルトレーニングパイプラインは、使用可能なトレーニングサンプルの数に応じて使用される、さまざまなレベルの粒度に対応するように構成可能である。
レベル0 - 単一のマスターモデル
レベル1 - ヘッドセットの種類に固有のモデル
レベル2 -ユーザアカウントに固有のモデル
レベル3 - コンテンツの種類に固有のモデル
レベル4- ヘッドセット及びユーザの両方に固有のモデル
レベル5- ヘッドセット及びコンテンツの種類の両方に固有のモデル
レベル6- ヘッドセット、コンテンツの種類、及びユーザのすべてに固有のモデル
これらのモデルは、モデルの状態のフェッチ2578の一部として別々のパイプライン内でフェッチされ、モデルのトレーニング2580の一部としてトレーニングされ、独立したモデルの状態が、モデルの状態の保存2582の一部として格納されるが、保存されたモデルのうちの1つのみが、モデルの状態取得2518の一部としてクライアント2510に提供される。どのモデルを提供するべきかを決定するためにシステムによって使用される基本論理は、最も高い資格を満たすモデルのレベルを選択することであり、モデルのレベルは、モデルのトレーニングに使用されるトレーニングサンプルの数が指定されたサンプルの最小しきい値を超える場合に、資格を満たすと見なされる。
[0134]開示された対象の態様に従うシステム及び方法は、さまざまなコンピュータ及びコンピューティングシステム、通信デバイス、ネットワーク、並びに/又はデジタル/論理デバイスを、動作に利用してもよい。さらにシステム及び方法の各々は、命令を使用して製造され、命令を搭載し、及び/又は何らかのストレージデバイスから命令をフェッチし、その後、命令を実行することができる、適切なコンピューティングデバイスを利用するように構成可能であってよく、それらの命令は、コンピューティングデバイスに、開示された対象の態様に従って方法を実行させる。本開示の特定の部分は、特定の各デバイスの計算能力に従って、有効化又は無効化されてよい。
[0135]コンピューティングデバイスは、携帯電話、スマートフォン及びセルラーフォン、パーソナルデジタルアシスタント(PDA:personal digital assistant)、タブレット、ラップトップ、専用の仮想現実ヘッドマウントディスプレイ(HMD:Head-Mounted Display)などの、モバイルユーザデバイスを含むことができるが、これらに限定されない。少なくとも一部の構成では、ユーザは、インターネットなどのネットワークを経由してブラウザアプリケーションを実行し、画面表示などのデジタルコンテンツを表示して、操作することができる。表示は、例えば、コンピューティングデバイスからのデータの視覚的表現を可能にするインターフェイスを含む。他の形態のコンピューティングネットワーク及び/又は通信ネットワークを経由して、又は部分的に経由して、アクセスが可能である。ユーザは、Webブラウザにアクセスして、例えば、アプリケーション及びデータ並びにWebサイト上又はWebサイトのWebページ上にあるその他のコンテンツにアクセスすることができてよい。
[0136]適切なコンピューティングデバイスは、論理及びその他の計算動作を実行するためのプロセッサ(例えば、スタンドアロンのコンピュータ処理ユニット(CPU:computer processing unit)、又はマイクロコントローラにおけるような配線論理、或いはその組み合わせ)を含んでよく、オペレーティングシステムに従う命令、及び方法のステップ又はプロセスの要素を実行するための命令を実行してもよい。ユーザのコンピューティングデバイスは、コンピューティングデバイスのネットワークの一部であってよく、開示された対象の方法は、ネットワークに関連付けられたさまざまなコンピューティングデバイスによって、おそらくはさまざまな物理的位置で、開示された方法を実行するように連携して、又はその他の方法で相互作用して、実行されてよい。例えば、ユーザのポータブルコンピューティングデバイスは、アプリを単独で、又はインターネット上のサーバなどのリモートコンピューティングデバイスと連動して実行してもよい。本出願の目的では、「コンピューティングデバイス」という用語は、前述した論理回路、通信デバイス、及びデジタル処理能力、又はこれらの組み合わせのいずれか又はすべてを含む。
[0137]開示された対象の特定の実施形態は、ソフトウェアを実行するコンピューティングデバイス上で実行されてよい方法のステップとして、例示の目的で説明されてよく、プロセスフローのブロック図として、単に例として示されてよい。そのような実施形態は、ソフトウェアフローチャートと見なされてもよい。実行される方法又はコンピューティングデバイスの動作のそのようなブロック図などの動作の説明、及びブロック図内のブロックの組み合わせは、例として、コンピューティングデバイスに提供され得るソフトウェアプログラムコード/命令、又は命令の実行中にコンピューティングデバイスによって実行される機能及び動作の少なくとも短縮された記述を示すことができる。一部の可能な代替の実装は、ブロック図のブロックに示された関数、機能、及び動作が、同時若しくはほぼ同時に発生すること、又は別の順序で発生すること、或いは全く発生しないことを含む、ブロック図に示された順序と異なる順序で発生することを含んでよい。開示された対象の態様は、例えばインターネットなどを含む相互接続されたネットワークを経由する、コンピューティングデバイスのアレイ又はネットワーク内で、同じ場所に配置されたか、又は少なくとも一部において互いにリモートに配置された、ハードウェア、ファームウェア、ソフトウェア、又はこれらの任意の組み合わせ(複数可)において、並列に又は逐次的に実装されてよい。
[0138]命令は、コンピューティングデバイス内にあるか、又はコンピューティングデバイスが通信若しくはその他の方法でアクセスできる、適切な「機械可読媒体」に格納されてよい。本出願で使用されるとき、機械可読媒体は有形のストレージデバイスであり、命令は非一時的方法で格納される。同時に、動作中に命令は、時々、例えば通信リンクを経由したリモートストレージデバイスからコンピューティングデバイスへの送信中に、一時的であってよい。しかし、機械可読媒体が有形且つ非一時的である場合、命令は、少なくともある期間の間、ランダムアクセスメモリ(RAM:random access memory)、読み取り専用メモリ(ROM:read only memory)、磁気ディスクストレージデバイス又は光ディスクストレージデバイスなどの、メモリストレージデバイスに格納され、それらのメモリストレージデバイスのアレイ及び/又は組み合わせが、ローカルキャッシュメモリ(例えば、プロセッサの集積回路上に存在する)、ローカルメインメモリ(例えば、コンピューティングデバイスのプロセッサ、ローカル電子又はディスクハードドライブ、ローカルサーバ又はネットワークを経由するリモートサーバアクセスに接続されたリモートストレージの場所の、筐体内に収容される)などを形成してもよい。そのように格納される場合、ソフトウェアは、有形の、命令を非一時的形態で格納する「機械可読媒体」を構成する。したがって、少なくとも、関連するコンピューティングデバイス上で実行するための命令を格納する機械可読媒体は、コンピューティングデバイスのプロセッサによる命令の実行時、及び命令がコンピューティングデバイスによるその後のアクセスのために格納されているときに、「有形」且つ「非一時的」になる。
[0139]本明細書では、本発明の好ましい実施形態が示され、説明されたが、そのような実施形態が単に例として提供されているということは、当業者にとって明らかであろう。当業者は、本発明から逸脱することなく、多くの変形、変更、及び代替に思い当たるであろう。本明細書に記載された本発明の実施形態のさまざまな代替手段が、本発明の実践において採用されてよいということが、理解されるべきである。以下の特許請求の範囲が本発明の範囲を定義し、以て、以下の特許請求の範囲内の方法及び構造並びにそれらと同等のものが対象にされるということが意図される。
[発明の項目]
[項目1]
方法であって、
少なくとも8Kの解像度を有するビデオ入力を受信するステップと、
前記受信されたビデオ入力を処理し、少なくともより多くのピクセルを第1の領域に、より少ないピクセルを第2の領域に割り当てる2つ以上のビューポートセグメントにするステップであって、前記受信されたビデオ入力を2つ以上のビューポートセグメントに処理することが並行して実行される、ステップと、
第1の信号伝達情報を生成するステップであって、前記第1の信号伝達情報が外部のメタデータである、ステップと、
第2の信号伝達情報を生成するステップであって、前記第2の信号伝達情報が埋め込まれたメタデータである、ステップと、
を含む、方法。
[項目2]
前記処理されたビデオを再生するステップをさらに含む、項目1に記載の方法。
[項目3]
前記第1の信号伝達情報及び前記第2の信号伝達情報を1つ又は複数のビデオフレームに埋め込むステップをさらに含む、項目1に記載の方法。
[項目4]
前記受信されたビデオ入力をリアルタイムに処理するステップをさらに含む、項目1に記載の方法。
[項目5]
適応ビットレート表現を生成するステップをさらに含む、項目1に記載の方法。
[項目6]
適応ビットレート表現を生成する前記ステップが、立体ビデオの送信を最適化するためのフレーム処理プロセスをさらに含む、項目5に記載の方法。
[項目7]
適切なビューポートをフェッチするために凝視位置モニタと通信するステップと、再生のために、クライアント側で、埋め込まれたフレームメタデータをパースするステップと、をさらに含む、項目1に記載の方法。
[項目8]
ユーザの予測された頭部の位置を計算し、前記予測された頭部の位置に応答して再生要求を調整するステップをさらに含む、項目7に記載の方法。
[項目9]
モデルの状態をフェッチするステップと、前記モデルの状態をトレーニングするステップと、前記モデルの状態を保存するステップと、をさらに含む、項目1に記載の方法。
[項目10]
ストリーミングサーバであって、
メモリと、
コントローラであって、前記コントローラが、
少なくとも8Kの解像度を有するビデオ入力を受信することと、
前記ビデオ入力を処理し、より多くのピクセルを第1の領域に割り当て、その結果、より少ないピクセルが第2の領域に割り当てられる2つ以上のビューポートセグメントにし、前記2つ以上のビューポートセグメントが、並行して作成されることと、
外部のメタデータと、前記ビデオフレームに埋め込まれたメタデータとの両方として信号伝達情報を生成することと、
前記処理されたビデオ入力を、デバイスがストリーミングするための標準的なストリーム発生源フォルダーに配信することと、
を実行するように構成されている、コントローラと、
を備える、ストリーミングサーバ。
[項目11]
前記コントローラが、第1のプロセスとして前記入力ビデオをセグメント化することと、セグメント化されたソースから前記処理タスクを設定することと、を実行するようにさらに構成されている、項目10に記載のストリーミングサーバ。
[項目12]
前記コントローラが、保留中の処理タスクを検出して、それらの処理タスクのみを処理するようにさらに構成されており、そのような複数のサーバが並行して効率的に動作できるようにする、項目10に記載のストリーミングサーバ。
[項目13]
前記コントローラが、立体ビデオの送信をさらに最適化するために、追加の任意選択的フレーム処理を伴って適応ビットレート表現を生成するように、さらに構成されている、項目10に記載のストリーミングサーバ。
[項目14]
方法であって、
2つ以上のビデオフレームを含む少なくとも8Kの解像度を有するビデオ入力をシステムに受信するステップと、
前記受信されたビデオ入力を処理し、少なくともより多くのピクセルを第1の領域に、より少ないピクセルを第2の領域に割り当てる2つ以上のビューポートセグメントにするステップであって、前記受信されたビデオ入力を2つ以上のビューポートセグメントに処理することが並行して実行される、ステップと、
第1の信号伝達情報を外部のメタデータとして生成し、第2の信号伝達情報を前記2つ以上のビデオフレームに埋め込まれたメタデータとして生成するステップと、
処理されたビデオ入力を前記システムからクライアントデバイスに配信するステップと、
を含む、方法。
[項目15]
埋め込まれたメタデータを前記ビデオフレームに追加するステップと、ビューポートの追加の信号伝達情報を生成するステップと、をさらに含む、項目14に記載の方法。
[項目16]
立体ビデオの送信をさらに最適化するために、追加の任意選択的フレーム処理を伴って適応ビットレート表現を生成するステップをさらに含む、項目14に記載の方法。
[項目17]
方法であって、
少なくとも8Kの解像度を有するビデオ入力を受信するステップと、
前記受信されたビデオ入力を処理するステップと、
第1の信号伝達情報を生成するステップであって、前記第1の信号伝達情報が外部のメタデータである、ステップと、
第2の信号伝達情報を生成するステップであって、前記第2の信号伝達情報が埋め込まれたメタデータである、ステップと、
前記第1の信号伝達情報及び前記第2の信号伝達情報を1つ又は複数のビデオフレームに埋め込むステップと、
を含む、方法。
[項目18]
前記処理されたビデオを再生するステップをさらに含む、項目17に記載の方法。
[項目19]
前記受信されたビデオ入力を処理し、少なくともより多くのピクセルを第1の領域に、より少ないピクセルを第2の領域に割り当てる2つ以上のビューポートセグメントにするステップであって、前記受信されたビデオ入力を2つ以上のビューポートセグメントに処理することが並行して実行される、ステップをさらに含む、項目17に記載の方法。
[項目20]
前記受信されたビデオ入力をリアルタイムに処理するステップをさらに含む、項目17に記載の方法。
[項目21]
適応ビットレート表現を生成するステップをさらに含む、項目17に記載の方法。
[項目22]
適応ビットレート表現を生成する前記ステップが、立体ビデオの送信を最適化するためのフレーム処理プロセスをさらに含む、項目21に記載の方法。
[項目23]
適切なビューポートをフェッチするために凝視位置モニタと通信するステップと、再生のために、クライアント側で、埋め込まれたフレームメタデータをパースするステップと、をさらに含む、項目17に記載の方法。
[項目24]
ユーザの予測された頭部の位置を計算し、前記予測された頭部の位置に応答して再生要求を調整するステップをさらに含む、項目23に記載の方法。
[項目25]
モデルの状態をフェッチするステップと、前記モデルの状態をトレーニングするステップと、前記モデルの状態を保存するステップと、をさらに含む、項目17に記載の方法。
[項目26]
ストリーミングサーバであって、
メモリと、
コントローラであって、前記コントローラが、
少なくとも8Kの解像度を有するビデオ入力を受信することと、
前記ビデオ入力を処理することと、
セグメント化されたソースから第1のプロセスとして、前記入力ビデオをセグメント化することと、
外部のメタデータと、前記ビデオフレームに埋め込まれたメタデータとの両方として信号伝達情報を生成することと、
前記処理されたビデオ入力を、デバイスがストリーミングするための標準的なストリーム発生源フォルダーに配信することと、
を実行するように構成されている、コントローラと、
を備える、ストリーミングサーバ。
[項目27]
前記コントローラが、前記ビデオ入力を処理し、より多くのピクセルを第1の領域に割り当て、その結果、より少ないピクセルが第2の領域に割り当てられる2つ以上のビューポートセグメントにし、前記2つ以上のビューポートセグメントが、並行して作成されることを実行するようにさらに構成されている、項目26に記載のストリーミングサーバ。
[項目28]
前記コントローラが、保留中の処理タスクを検出して、それらの処理タスクのみを処理するようにさらに構成されており、そのような複数のサーバが並行して効率的に動作できるようにする、項目26に記載のストリーミングサーバ。
[項目29]
前記コントローラが、立体ビデオの送信をさらに最適化するために、追加の任意選択的フレーム処理を伴って適応ビットレート表現を生成するように、さらに構成されている、項目26に記載のストリーミングサーバ。
[項目30]
方法であって、
2つ以上のビデオフレームを含む少なくとも8Kの解像度を有するビデオ入力をシステムに受信するステップと、
前記受信されたビデオ入力を処理するステップと、
第1の信号伝達情報を生成するステップであって、前記第1の信号伝達情報が外部のメタデータである、ステップと、
第2の信号伝達情報を生成するステップであって、前記第2の信号伝達情報が埋め込まれたメタデータである、ステップと、
前記第1の信号伝達情報及び前記第2の信号伝達情報を1つ又は複数のビデオフレームに埋め込むステップと、
処理されたビデオ入力を前記システムからクライアントデバイスに配信するステップと、
を含む、方法。
[項目31]
埋め込まれたメタデータを前記ビデオフレームに追加するステップと、ビューポートの追加の信号伝達情報を生成するステップと、をさらに含む、項目30に記載の方法。
[項目32]
立体ビデオの送信をさらに最適化するために、追加の任意選択的フレーム処理を伴って適応ビットレート表現を生成するステップをさらに含む、項目31に記載の方法。
[項目33]
方法であって、
少なくとも8Kの解像度を有するビデオ入力を受信するステップと、
前記受信されたビデオ入力を2つ以上のビューポートセグメントに処理するステップと、
第1の信号伝達情報を生成するステップであって、前記第1の信号伝達情報が外部のメタデータである、ステップと、
第2の信号伝達情報を生成するステップであって、前記第2の信号伝達情報が埋め込まれたメタデータである、ステップと、
適切なビューポートをフェッチするために凝視位置モニタと通信するステップと、
を含む、方法。
[項目34]
前記処理されたビデオを再生するステップをさらに含む、項目33に記載の方法。
[項目35]
前記第1の信号伝達情報及び前記第2の信号伝達情報を1つ又は複数のビデオフレームに埋め込むステップをさらに含む、項目33に記載の方法。
[項目36]
前記受信されたビデオ入力をリアルタイムに処理するステップをさらに含む、項目33に記載の方法。
[項目37]
適応ビットレート表現を生成するステップをさらに含む、項目33に記載の方法。
[項目38]
適応ビットレート表現を生成する前記ステップが、立体ビデオの送信を最適化するためのフレーム処理プロセスをさらに含む、項目37に記載の方法。
[項目39]
再生のために、クライアント側で、埋め込まれたフレームメタデータをパースするステップをさらに含む、項目33に記載の方法。
[項目40]
ユーザの予測された頭部の位置を計算し、前記予測された頭部の位置に応答して再生要求を調整するステップをさらに含む、項目39に記載の方法。
[項目41]
モデルの状態をフェッチするステップと、前記モデルの状態をトレーニングするステップと、前記モデルの状態を保存するステップと、をさらに含む、項目33に記載の方法。
[項目42]
ストリーミングサーバであって、
メモリと、
コントローラであって、前記コントローラが、
少なくとも8Kの解像度を有するビデオ入力を受信することと、
前記ビデオ入力を処理することと、
外部のメタデータと、前記ビデオフレームに埋め込まれたメタデータとの両方として信号伝達情報を生成することと、
前記処理されたビデオ入力を、デバイスがストリーミングするための標準的なストリーム発生源フォルダーに配信することと、
適切なビューポートをフェッチするために凝視位置モニタと通信することと、
を実行するように構成されている、コントローラと、
を備える、ストリーミングサーバ。
[項目43]
前記コントローラが、第1のプロセスとして前記入力ビデオをセグメント化することと、セグメント化されたソースから前記処理タスクを設定することと、を実行するようにさらに構成されている、項目42に記載のストリーミングサーバ。
[項目44]
前記コントローラが、保留中の処理タスクを検出して、それらの処理タスクのみを処理するようにさらに構成されており、そのような複数のサーバが並行して効率的に動作できるようにする、項目42に記載のストリーミングサーバ。
[項目45]
前記コントローラが、立体ビデオの送信をさらに最適化するために、追加の任意選択的フレーム処理を伴って適応ビットレート表現を生成するように、さらに構成されている、項目42に記載のストリーミングサーバ。
[項目46]
方法であって、
2つ以上のビデオフレームを含む少なくとも8Kの解像度を有するビデオ入力をシステムに受信するステップと、
前記受信されたビデオを処理するステップと、
第1の信号伝達情報を外部のメタデータとして生成し、第2の信号伝達情報を前記2つ以上のビデオフレームに埋め込まれたメタデータとして生成するステップと、
適切なビューポートをフェッチするために凝視位置モニタと通信するステップと、
を含む、方法。
[項目47]
埋め込まれたメタデータを前記ビデオフレームに追加するステップと、ビューポートの追加の信号伝達情報を生成するステップと、をさらに含む、項目46に記載の方法。
[項目48]
立体ビデオの送信をさらに最適化するために、追加の任意選択的フレーム処理を伴って適応ビットレート表現を生成するステップをさらに含む、項目47に記載の方法。
[項目49]
方法であって、
少なくとも8Kの解像度を有するビデオ入力を受信するステップと、
2つ以上のビデオフレームを含む前記受信されたビデオ入力を処理するステップであって、各ビデオフレームが前半及び後半を含む、ステップと、
第1のビデオフレームの前記前半においてビットレートを増やし、前記第1のビデオフレームの前記後半においてビットレートを減らすステップと、
ビデオ入力全体のエンコードされたビットレートを減らすステップと、
を含む、方法。
[項目50]
前記処理されたビデオを再生するステップをさらに含む、項目49に記載の方法。
[項目51]
第1の信号伝達情報及び第2の信号伝達情報を1つ又は複数のビデオフレームに埋め込むステップをさらに含む、項目49に記載の方法。
[項目52]
前記受信されたビデオ入力をリアルタイムに処理するステップをさらに含む、項目49に記載の方法。
[項目53]
適応ビットレート表現を生成するステップをさらに含む、項目49に記載の方法。
[項目54]
適応ビットレート表現を生成する前記ステップが、立体ビデオの送信を最適化するためのフレーム処理プロセスをさらに含む、項目53に記載の方法。
[項目55]
適切なビューポートをフェッチするために凝視位置モニタと通信するステップと、再生のために、クライアント側で、埋め込まれたフレームメタデータをパースするステップと、をさらに含む、項目49に記載の方法。
[項目56]
ユーザの予測された頭部の位置を計算し、前記予測された頭部の位置に応答して再生要求を調整するステップをさらに含む、項目55に記載の方法。
[項目57]
モデルの状態をフェッチするステップと、前記モデルの状態をトレーニングするステップと、前記モデルの状態を保存するステップと、をさらに含む、項目49に記載の方法。
[項目58]
ストリーミングサーバであって、
メモリと、
コントローラであって、前記コントローラが、
少なくとも8Kの解像度を有するビデオ入力を受信することと、
第1のビデオフレームの前記前半においてビットレートを増やし、前記第1のビデオフレームの前記後半においてビットレートを減らすことと、
ビデオ入力全体のエンコードされたビットレートを減らすことと、
を実行するように構成されている、コントローラと、
を備える、ストリーミングサーバ。
[項目59]
前記コントローラが、第1のプロセスとして前記入力ビデオをセグメント化することと、セグメント化されたソースから前記処理タスクを設定することと、を実行するようにさらに構成されている、項目58に記載のストリーミングサーバ。
[項目60]
前記コントローラが、保留中の処理タスクを検出して、それらの処理タスクのみを処理するようにさらに構成されており、そのような複数のサーバが並行して効率的に動作できるようにする、項目58に記載のストリーミングサーバ。
[項目61]
前記コントローラが、立体ビデオの送信をさらに最適化するために、追加の任意選択的フレーム処理を伴って適応ビットレート表現を生成するように、さらに構成されている、項目58に記載のストリーミングサーバ。
[項目62]
方法であって、
2つ以上のビデオフレームを含む少なくとも8Kの解像度を有するビデオ入力をシステムに受信するステップと、
前記受信されたビデオ入力を処理し、少なくともより多くのピクセルを第1の領域に、より少ないピクセルを第2の領域に割り当てる2つ以上のビューポートセグメントにするステップであって、前記受信されたビデオ入力を2つ以上のビューポートセグメントに処理することが並行して実行される、ステップと、
第1の信号伝達情報を外部のメタデータとして生成し、第2の信号伝達情報を前記2つ以上のビデオフレームに埋め込まれたメタデータとして生成するステップと、
処理されたビデオ入力を前記システムからクライアントデバイスに配信するステップと、
を含む、方法。
[項目63]
埋め込まれたメタデータを前記ビデオフレームに追加するステップと、ビューポートの追加の信号伝達情報を生成するステップと、をさらに含む、項目62に記載の方法。
[項目64]
立体ビデオの送信をさらに最適化するために、追加の任意選択的フレーム処理を伴って適応ビットレート表現を生成するステップをさらに含む、項目63に記載の方法。

Claims (20)

  1. コンピューティングデバイスによって実行される方法であって、
    2つ以上のビデオフレームを含む少なくとも8Kの解像度とソース画像を有する仮想現実ビデオ入力を受信するステップと、
    入力された前記画像の幾何学的変換を有する第1のビューポートに前記受信された仮想現実ビデオ入力を処理するステップであって、
    前記幾何学的変換は、第1の適応ビットレートターゲットについて前記仮想現実ビデオ入力のパノラマ画像全体の第1の頭部位置からの第1のターゲット投影にて再マッピングされた画像を生成し、
    前記再マッピングされた前記画像の一部分にはより大きな解像度が割り当てられ、再マッピングされた前記画像の残りにはより小さな解像度が割り当てられ、
    再マッピングされた前記画像は、
    立体ビデオの送信を最適化するために処理される、ステップと、
    第2の適応ビットレートターゲットにて第2の頭部位置からの第2のビューポートに前記仮想現実ビデオ入力を処理することを繰り返すステップと、
    全ての処理されたビューポートについての第1の信号伝達情報を生成するステップであって、前記第1の信号伝達情報が、メディアストリームとは別個のJSОN形式ファイルを示す外部のメタデータである、ステップと、
    前記2つ以上のビデオフレームの一のビデオフレームに対応する特定のビューポートから第2の信号伝達情報を生成するステップであって、前記第2の信号伝達情報が、前記一のビデオフレームに埋め込まれたメタデータである、ステップと、
    を含む、方法。
  2. 前記処理された仮想現実ビデオを再生するステップをさらに含む、請求項1に記載の方法。
  3. 前記受信された仮想現実ビデオ入力をリアルタイムに処理するステップをさらに含む、請求項1に記載の方法。
  4. 適切なビューポートをフェッチするために凝視位置モニタと通信するステップと、再生のために、クライアント側で、埋め込まれたフレームメタデータをパースするステップと、をさらに含む、請求項1に記載の方法。
  5. ユーザの予測された頭部の位置を計算し、前記予測された頭部の位置に応答して再生要求を調整するステップをさらに含む、請求項に記載の方法。
  6. 機械学習エンジンにデータを送信するステップと、頭部位置の予測位置を特定するために機械学習モデルの状態をフェッチするステップと、複数のソースからの集約されたデータを用いて前記機械学習モデルの状態をトレーニングするステップと、クライアントデバイスによる後のアクセスのために前記モデルの状態を保存するステップと、をさらに含む、請求項1に記載の方法。
  7. ストリーミングサーバであって、
    メモリと、
    コントローラであって、前記コントローラが、
    2つ以上のビデオフレームを含む少なくとも8Kの解像度とソース画像を有する仮想現実ビデオ入力を受信することと、
    入力された前記画像の幾何学的変換を有する第1のビューポートに前記仮想現実ビデオ入力を処理することであって、
    前記幾何学的変換は、第1の適応ビットレートターゲットについて前記仮想現実ビデオ入力のパノラマ画像全体の第1の頭部位置からの第1のターゲット投影にて再マッピングされた画像を生成し、
    前記再マッピングされた前記画像の一部分にはより大きな解像度が割り当てられ、再マッピングされた前記画像の残りにはより小さな解像度が割り当てられ、
    再マッピングされた前記画像は、
    立体ビデオの送信を最適化するために処理される、処理することと、
    第2の適応ビットレートターゲットにて第2の頭部位置からの第2のビューポートに前記仮想現実ビデオ入力を再処理することと、
    メディアストリームとは別個のJSОN形式ファイルを示す外部のメタデータと、前記ビデオフレームに埋め込まれたメタデータとの両方として、全ての処理されたビューポートについての信号伝達情報を生成することであり、
    前記信号伝達情報の一部が、前記外部のメタデータに適用され、
    前記信号伝達情報の別の一部が、前記埋め込まれたメタデータに適用され、
    前記信号伝達情報のさらに別の一部が、前記外部のメタデータ及び前記埋め込まれたメタデータの両方に適用される、
    生成することと、
    前記処理された仮想現実ビデオ入力を、デバイスがストリーミングするための標準的なストリーム発生源フォルダーに配信することと、
    を実行するように構成されている、コントローラと、
    を備える、ストリーミングサーバ。
  8. 前記コントローラが、第1のプロセスとして前記仮想現実ビデオ入力をセグメント化することと、セグメント化されたソースから処理タスクを設定することと、を実行するようにさらに構成されている、請求項に記載のストリーミングサーバ。
  9. 前記コントローラが、保留中の処理タスクを検出するようにさらに構成されており、各プロセスが単一のファイルに割り当てられ、並列プロセスが、まだ処理されていない異なる名前を有する複数のファイルについて生じる、請求項に記載のストリーミングサーバ。
  10. コンピューティングデバイスによって実行される方法であって、
    2つ以上のビデオフレームを含む少なくとも8Kの解像度とソース画像を有する仮想現実ビデオ入力をシステムに受信するステップと、
    入力された前記画像の幾何学的変換を有するビューポートに前記受信された仮想現実ビデオ入力を処理するステップであって、前記幾何学的変換は、第1の適応ビットレートターゲットについて前記仮想現実ビデオ入力のパノラマ画像全体の第1の頭部位置からの第1のターゲット投影にて再マッピングされた画像を生成し、
    前記再マッピングされた前記画像の一部分にはより大きな解像度が割り当てられ、再マッピングされた前記画像の残りにはより小さな解像度が割り当てられ、
    再マッピングされた前記画像は、
    立体ビデオの送信を最適化するために処理される、ステップと、
    第2の適応ビットレートターゲットにて前記仮想現実ビデオ入力の各フレームについてのビューポートに前記仮想現実ビデオ入力を処理することを繰り返すステップと、
    全ての処理されたビューポートについての第1の信号伝達情報を、メディアストリームとは別個のJSОN形式ファイルを示す外部のメタデータとして生成し、前記2つ以上のビデオフレームの一のビデオフレームに対応する特定のビューポートについて第2の信号伝達情報を前記2つ以上のビデオフレームの前記一のビデオフレームに埋め込まれたメタデータとして生成するステップと、
    処理されたビデオ出力を前記システムからクライアントデバイスに配信するステップであって、処理された前記ビデオ出力の各フレームが低密度ピクセル領域および高密度ピクセル領域を有する、ステップと、
    を含む、方法。
  11. コンピューティングデバイスによって実行される方法であって、
    2つ以上のビデオフレームを含む少なくとも8Kの解像度とソース画像を有するビデオ入力を受信するステップと、
    入力された前記画像の幾何学的変換を有する第1のビューポートに前記受信されたビデオ入力を処理するステップであって、
    前記幾何学的変換は、第1の適応ビットレートターゲットについて前記ビデオ入力のパノラマ画像全体の第1の頭部位置からの第1のターゲット投影にて再マッピングされた画像を生成し、
    前記再マッピングされた前記画像の一部分にはより大きな解像度が割り当てられ、再マッピングされた前記画像の残りにはより小さな解像度が割り当てられる、ステップと、
    第2の適応ビットレートターゲットにて第2の頭部位置からの第2のビューポートに前記ビデオ入力を処理することを繰り返すステップと、
    全ての処理されたビューポートについての第1の信号伝達情報を生成するステップであって、前記第1の信号伝達情報が、メディアストリームとは別個のJSОN形式ファイルを示す外部のメタデータである、ステップと、
    前記2つ以上のビデオフレームの一のビデオフレームに対応する特定のビューポートから第2の信号伝達情報を生成するステップであって、前記第2の信号伝達情報が、前記一のビデオフレームに埋め込まれたメタデータである、ステップと、
    機械学習エンジンにデータを送信するステップと、頭部位置の予測位置を特定するために機械学習モデルの状態をフェッチするステップと、複数のソースからの集約されたデータを用いて前記機械学習モデルの状態をトレーニングするステップと、クライアントデバイスによる後のアクセスのために前記モデルの状態を保存するステップと、
    を含む、方法。
  12. 前記処理された仮想現実ビデオを再生するステップをさらに含む、請求項11に記載の方法。
  13. 前記受信された仮想現実ビデオ入力をリアルタイムに処理するステップをさらに含む、請求項11に記載の方法。
  14. 適切なビューポートをフェッチするために凝視位置モニタと通信するステップと、再生のために、クライアント側で、埋め込まれたフレームメタデータをパースするステップと、をさらに含む、請求項11に記載の方法。
  15. ユーザの予測された頭部の位置を計算し、前記予測された頭部の位置に応答して再生要求を調整するステップをさらに含む、請求項14に記載の方法。
  16. 体ビデオの送信を最適化するためのフレーム処理プロセスを有する適応ビットレート表現を生成するステップをさらに含む、請求項11に記載の方法。
  17. ストリーミングサーバであって、
    メモリと、
    コントローラであって、前記コントローラが、
    2つ以上のビデオフレームを含む少なくとも8Kの解像度とソース画像を有するビデオ入力を受信することと、
    入力された前記画像の幾何学的変換を有する第1のビューポートに前記ビデオ入力を処理することであって、
    前記幾何学的変換は、第1の適応ビットレートターゲットについて前記ビデオ入力のパノラマ画像全体の第1の頭部位置からの第1のターゲット投影にて再マッピングされた画像を生成し、
    前記再マッピングされた前記画像の一部分にはより大きな解像度が割り当てられ、再マッピングされた前記画像の残りにはより小さな解像度が割り当てられる、
    処理することと、
    第2の適応ビットレートターゲットにて第2の頭部位置からの第2のビューポートに前記ビデオ入力を再処理することと、
    メディアストリームとは別個のJSОN形式ファイルを示す外部のメタデータと、前記ビデオフレームに埋め込まれたメタデータとの両方として全ての処理されたビューポートについての信号伝達情報を生成することであり、
    前記信号伝達情報の一部が、前記外部のメタデータに適用され、
    前記信号伝達情報の別の一部が、前記埋め込まれたメタデータに適用され、
    前記信号伝達情報のさらに別の一部が、前記外部のメタデータ及び前記埋め込まれたメタデータの両方に適用される、
    生成することと、
    前記処理されたビデオ入力を、デバイスがストリーミングするための標準的なストリーム発生源フォルダーに配信することと、
    機械学習エンジンにデータを送信し、頭部位置の予測位置を特定するために機械学習モデルの状態をフェッチし、複数のソースからの集約されたデータを用いて前記機械学習モデルの状態をトレーニングし、クライアントデバイスによる後のアクセスのために前記モデルの状態を保存することと、
    を実行するように構成されている、コントローラと、
    を備える、ストリーミングサーバ。
  18. 前記コントローラが、第1のプロセスとして前記ビデオ入力をセグメント化することと、セグメント化されたソースから処理タスクを設定することと、を実行するようにさらに構成されている、請求項17に記載のストリーミングサーバ。
  19. 前記コントローラが、保留中の処理タスクを検出するようにさらに構成されており、各プロセスが単一のファイルに割り当てられ、並列プロセスが、まだ処理されていない異なる名前を有する複数のファイルについて生じる、請求項17に記載のストリーミングサーバ。
  20. 前記コントローラが、立体ビデオの送信をさらに最適化するためのフレーム処理プロセスを有する適応ビットレート表現を生成するように、さらに構成されている、請求項19に記載のストリーミングサーバ。
JP2019553044A 2017-03-30 2018-03-27 Vrビデオ用に画像解像度を最適化してビデオストリーミングの帯域幅を最適化する画像処理のための方法及びストリーミングサーバ Active JP7205485B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201762478780P 2017-03-30 2017-03-30
US62/478,780 2017-03-30
US15/935,381 US10979663B2 (en) 2017-03-30 2018-03-26 Methods and apparatuses for image processing to optimize image resolution and for optimizing video streaming bandwidth for VR videos
US15/935,381 2018-03-26
PCT/US2018/024465 WO2018183257A1 (en) 2017-03-30 2018-03-27 Methods and apparatuses for image processing to optimize image resolution and for optimizing video streaming bandwidth for vr videos

Publications (3)

Publication Number Publication Date
JP2020512772A JP2020512772A (ja) 2020-04-23
JP2020512772A5 JP2020512772A5 (ja) 2021-04-30
JP7205485B2 true JP7205485B2 (ja) 2023-01-17

Family

ID=63671183

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019553044A Active JP7205485B2 (ja) 2017-03-30 2018-03-27 Vrビデオ用に画像解像度を最適化してビデオストリーミングの帯域幅を最適化する画像処理のための方法及びストリーミングサーバ

Country Status (5)

Country Link
US (1) US10979663B2 (ja)
EP (1) EP3586518A4 (ja)
JP (1) JP7205485B2 (ja)
AU (1) AU2018246131A1 (ja)
WO (1) WO2018183257A1 (ja)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11004173B2 (en) * 2017-03-13 2021-05-11 Mediatek Inc. Method for processing projection-based frame that includes at least one projection face packed in 360-degree virtual reality projection layout
US11057643B2 (en) 2017-03-13 2021-07-06 Mediatek Inc. Method and apparatus for generating and encoding projection-based frame that includes at least one padding region and at least one projection face packed in 360-degree virtual reality projection layout
US10979663B2 (en) 2017-03-30 2021-04-13 Yerba Buena Vr, Inc. Methods and apparatuses for image processing to optimize image resolution and for optimizing video streaming bandwidth for VR videos
CN111034191A (zh) 2017-08-18 2020-04-17 联发科技股份有限公司 用于减少基于投影的帧中的伪影的方法和装置
CN107613338A (zh) * 2017-09-25 2018-01-19 中兴通讯股份有限公司 视频传输方法、服务器、vr播放终端及计算机可读存储介质
US10834413B2 (en) * 2018-08-24 2020-11-10 Disney Enterprises, Inc. Fast and accurate block matching for computer generated content
CN111818336B (zh) * 2019-04-12 2022-08-26 华为技术有限公司 视频处理方法、装置、存储介质以及通信装置
US10997693B2 (en) * 2019-07-03 2021-05-04 Gopro, Inc. Apparatus and methods for non-uniform processing of image data
US11284141B2 (en) * 2019-12-18 2022-03-22 Yerba Buena Vr, Inc. Methods and apparatuses for producing and consuming synchronized, immersive interactive video-centric experiences
WO2021151761A1 (en) * 2020-01-29 2021-08-05 Nokia Technologies Oy A method, an apparatus and a computer program product for video streaming
KR20210103867A (ko) 2020-02-14 2021-08-24 삼성전자주식회사 Vr 영상을 스트리밍하는 방법 및 장치
US11245911B1 (en) * 2020-05-12 2022-02-08 Whirlwind 3D, LLC Video encoder/decoder (codec) for real-time applications and size/b and width reduction
US11800184B2 (en) 2021-01-06 2023-10-24 Tencent America LLC Method and apparatus for media scene description
CN112929691B (zh) * 2021-01-29 2022-06-14 复旦大学 多用户全景视频传输方法
CN113038222B (zh) * 2021-03-08 2023-11-10 Oppo广东移动通信有限公司 视频处理方法、装置、电子设备及存储介质
CN113515193B (zh) * 2021-05-17 2023-10-27 聚好看科技股份有限公司 一种模型数据传输方法及装置
US11704891B1 (en) 2021-12-29 2023-07-18 Insight Direct Usa, Inc. Dynamically configured extraction, preprocessing, and publishing of a region of interest that is a subset of streaming video data
US11509836B1 (en) 2021-12-29 2022-11-22 Insight Direct Usa, Inc. Dynamically configured processing of a region of interest dependent upon published video data selected by a runtime configuration file
US20230300338A1 (en) * 2022-03-16 2023-09-21 Apple Inc. Resolution-based video encoding
US11778167B1 (en) 2022-07-26 2023-10-03 Insight Direct Usa, Inc. Method and system for preprocessing optimization of streaming video data
CN117156175B (zh) * 2023-10-30 2024-01-30 山东大学 基于视口预测距离控制的全景视频流QoE优化方法
CN117876430B (zh) * 2024-03-13 2024-06-18 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) 一种全景图像及视频中的扫视路径预测方法、设备及介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013520874A (ja) 2010-02-22 2013-06-06 ドルビー ラボラトリーズ ライセンシング コーポレイション ビデオデータへの上書きによるビデオ配信および制御
WO2015184416A1 (en) 2014-05-29 2015-12-03 Nextvr Inc. Methods and apparatus for delivering content and/or playing back content
WO2016010668A1 (en) 2014-07-14 2016-01-21 Sony Computer Entertainment Inc. System and method for use in playing back panorama video content
WO2016134048A1 (en) 2015-02-17 2016-08-25 Nextvr Inc. Methods and apparatus for generating and using reduced resolution images and/or communicating such images to a playback or content distribution device
WO2016191694A1 (en) 2015-05-27 2016-12-01 Google Inc. Streaming spherical video

Family Cites Families (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130294513A1 (en) * 2012-05-07 2013-11-07 Qualcomm Incorporated Inter layer merge list construction for video coding
KR101879519B1 (ko) 2013-07-29 2018-07-17 코닌클리즈케 케이피엔 엔.브이. 타일 비디오 스트림을 클라이언트에게 제공하는 방법
US10346465B2 (en) * 2013-12-20 2019-07-09 Qualcomm Incorporated Systems, methods, and apparatus for digital composition and/or retrieval
EP2894852A1 (en) 2014-01-14 2015-07-15 Alcatel Lucent Process for increasing the quality of experience for users that watch on their terminals a high definition video stream
US9392212B1 (en) * 2014-04-17 2016-07-12 Visionary Vr, Inc. System and method for presenting virtual reality content to a user
US9986154B2 (en) * 2014-05-21 2018-05-29 Here Global B.V. Developing a panoramic image
US20150346812A1 (en) * 2014-05-29 2015-12-03 Nextvr Inc. Methods and apparatus for receiving content and/or playing back content
KR102632421B1 (ko) * 2014-09-03 2024-02-01 네버마인드 캐피탈 엘엘씨 콘텐트를 캡처, 스트리밍, 및/또는 재생하기 위한 방법들 및 장치
US20160277772A1 (en) * 2014-09-30 2016-09-22 Telefonaktiebolaget L M Ericsson (Publ) Reduced bit rate immersive video
US10104361B2 (en) * 2014-11-14 2018-10-16 Samsung Electronics Co., Ltd. Coding of 360 degree videos using region adaptive smoothing
US20160150212A1 (en) * 2014-11-26 2016-05-26 Sony Corporation Live selective adaptive bandwidth
KR102343700B1 (ko) 2015-01-22 2021-12-27 허들리 인코포레이티드 독립적으로 인코딩된 배경 업데이트들에 기초한 비디오 송신
US10412413B2 (en) * 2015-03-05 2019-09-10 Sony Corporation Image processing device and image processing method
GB2536025B (en) 2015-03-05 2021-03-03 Nokia Technologies Oy Video streaming method
US10075693B2 (en) * 2015-04-29 2018-09-11 Han Jin Embedding calibration metadata into stereoscopic video files
US20160353146A1 (en) * 2015-05-27 2016-12-01 Google Inc. Method and apparatus to reduce spherical video bandwidth to user headset
US10586469B2 (en) 2015-06-08 2020-03-10 STRIVR Labs, Inc. Training using virtual reality
US11245939B2 (en) 2015-06-26 2022-02-08 Samsung Electronics Co., Ltd. Generating and transmitting metadata for virtual reality
US10491711B2 (en) * 2015-09-10 2019-11-26 EEVO, Inc. Adaptive streaming of virtual reality data
US9681111B1 (en) * 2015-10-22 2017-06-13 Gopro, Inc. Apparatus and methods for embedding metadata into video stream
US9473758B1 (en) 2015-12-06 2016-10-18 Sliver VR Technologies, Inc. Methods and systems for game video recording and virtual reality replay
US10977764B2 (en) * 2015-12-29 2021-04-13 Dolby Laboratories Licensing Corporation Viewport independent image coding and rendering
US10282814B2 (en) * 2016-01-07 2019-05-07 Mediatek Inc. Method and apparatus of image formation and compression of cubic images for 360 degree panorama display
US10313745B2 (en) * 2016-01-17 2019-06-04 Bitmovin Gmbh Adaptive streaming of an immersive video scene
US9922387B1 (en) * 2016-01-19 2018-03-20 Gopro, Inc. Storage of metadata and images
US10484621B2 (en) * 2016-02-29 2019-11-19 Gopro, Inc. Systems and methods for compressing video content
US20170274411A1 (en) * 2016-03-22 2017-09-28 Western Tube & Conduit Corporation Wiper system
US10319071B2 (en) * 2016-03-23 2019-06-11 Qualcomm Incorporated Truncated square pyramid geometry and frame packing structure for representing virtual reality video content
US10645362B2 (en) * 2016-04-11 2020-05-05 Gopro, Inc. Systems, methods and apparatus for compressing video content
US11019257B2 (en) * 2016-05-19 2021-05-25 Avago Technologies International Sales Pte. Limited 360 degree video capture and playback
EP3466075A1 (en) * 2016-05-26 2019-04-10 VID SCALE, Inc. Geometric conversion for 360-degree video coding
US10645366B2 (en) * 2016-06-10 2020-05-05 Lucid VR, Inc. Real time re-calibration of stereo cameras
US10368067B2 (en) * 2016-06-15 2019-07-30 Mediatek Inc. Method and apparatus for selective filtering of cubic-face frames
US10277914B2 (en) * 2016-06-23 2019-04-30 Qualcomm Incorporated Measuring spherical image quality metrics based on user field of view
US11089280B2 (en) * 2016-06-30 2021-08-10 Sony Interactive Entertainment Inc. Apparatus and method for capturing and displaying segmented content
EP3378229A4 (en) * 2016-08-23 2018-12-26 SZ DJI Technology Co., Ltd. System and method for improving efficiency in encoding/decoding a curved view video
CN109644262A (zh) * 2016-08-25 2019-04-16 Lg电子株式会社 发送全向视频的方法、接收全向视频的方法、发送全向视频的装置和接收全向视频的装置
WO2018044073A1 (en) * 2016-09-01 2018-03-08 Samsung Electronics Co., Ltd. Image streaming method and electronic device for supporting the same
JP6620079B2 (ja) * 2016-09-08 2019-12-11 株式会社ソニー・インタラクティブエンタテインメント 画像処理システム、画像処理方法およびコンピュータプログラム
KR102352933B1 (ko) * 2016-09-09 2022-01-20 삼성전자주식회사 3차원 이미지를 프로세싱하기 위한 방법 및 장치
KR20180029315A (ko) * 2016-09-12 2018-03-21 삼성전자주식회사 가상 현실 컨텐트의 영상을 투영하기 위한 영상 처리 방법 및 장치
US20180098090A1 (en) * 2016-10-04 2018-04-05 Mediatek Inc. Method and Apparatus for Rearranging VR Video Format and Constrained Encoding Parameters
US10917564B2 (en) * 2016-10-12 2021-02-09 Qualcomm Incorporated Systems and methods of generating and processing files for partial decoding and most interested regions
ES2883151T3 (es) * 2016-10-12 2021-12-07 Koninklijke Kpn Nv Procesamiento de datos de vídeo esféricos sobre la base de una zona de interés
US10440361B2 (en) * 2016-11-22 2019-10-08 Pixvana, Inc. Variable image data reduction system and method
EP3334164B1 (en) * 2016-12-09 2019-08-21 Nokia Technologies Oy A method and an apparatus and a computer program product for video encoding and decoding
US10620441B2 (en) * 2016-12-14 2020-04-14 Qualcomm Incorporated Viewport-aware quality metric for 360-degree video
US10313664B2 (en) * 2017-01-11 2019-06-04 Qualcomm Incorporated Adjusting field of view of truncated square pyramid projection for 360-degree video
WO2018135321A1 (ja) * 2017-01-19 2018-07-26 ソニー株式会社 画像処理装置および方法
WO2018156243A1 (en) * 2017-02-22 2018-08-30 Twitter, Inc. Transcoding video
KR102305633B1 (ko) * 2017-03-17 2021-09-28 엘지전자 주식회사 퀄리티 기반 360도 비디오를 송수신하는 방법 및 그 장치
WO2018182192A1 (en) * 2017-03-28 2018-10-04 Samsung Electronics Co., Ltd. Method and apparatus for displaying image based on user motion information
WO2018182144A1 (ko) * 2017-03-29 2018-10-04 엘지전자 주식회사 360 비디오를 전송하는 방법, 360 비디오를 수신하는 방법, 360 비디오 전송 장치, 360 비디오 수신 장치
US10979663B2 (en) 2017-03-30 2021-04-13 Yerba Buena Vr, Inc. Methods and apparatuses for image processing to optimize image resolution and for optimizing video streaming bandwidth for VR videos
US20190005709A1 (en) * 2017-06-30 2019-01-03 Apple Inc. Techniques for Correction of Visual Artifacts in Multi-View Images

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013520874A (ja) 2010-02-22 2013-06-06 ドルビー ラボラトリーズ ライセンシング コーポレイション ビデオデータへの上書きによるビデオ配信および制御
WO2015184416A1 (en) 2014-05-29 2015-12-03 Nextvr Inc. Methods and apparatus for delivering content and/or playing back content
WO2016010668A1 (en) 2014-07-14 2016-01-21 Sony Computer Entertainment Inc. System and method for use in playing back panorama video content
WO2016134048A1 (en) 2015-02-17 2016-08-25 Nextvr Inc. Methods and apparatus for generating and using reduced resolution images and/or communicating such images to a playback or content distribution device
WO2016191694A1 (en) 2015-05-27 2016-12-01 Google Inc. Streaming spherical video

Also Published As

Publication number Publication date
US20180288363A1 (en) 2018-10-04
EP3586518A1 (en) 2020-01-01
EP3586518A4 (en) 2020-08-12
WO2018183257A1 (en) 2018-10-04
JP2020512772A (ja) 2020-04-23
US10979663B2 (en) 2021-04-13
AU2018246131A1 (en) 2019-10-31

Similar Documents

Publication Publication Date Title
JP7205485B2 (ja) Vrビデオ用に画像解像度を最適化してビデオストリーミングの帯域幅を最適化する画像処理のための方法及びストリーミングサーバ
US10230565B2 (en) Allocation of GPU resources across multiple clients
Qian et al. Toward practical volumetric video streaming on commodity smartphones
CN108780584B (zh) 用于流传输和渲染的球形视频的转换和预处理
US11153550B2 (en) Depth codec for real-time, high-quality light field reconstruction
US20200404241A1 (en) Processing system for streaming volumetric video to a client device
CN114930812B (zh) 用于解码3d视频的方法和装置
CN117280680A (zh) 动态网格对齐的并行方式
KR20240063961A (ko) 장면-기반 몰입형 미디어의 스트리밍을 위한 스마트 클라이언트
US20240242389A1 (en) Displacement vector coding for 3d mesh
US20240137564A1 (en) Fast computation of local coordinate system for displacement vectors in mesh coding
US20230379495A1 (en) A method and apparatus for encoding mpi-based volumetric video
US20240244259A1 (en) Methods and apparatuses for encoding/decoding a volumetric video, methods and apparatus for reconstructing a computer generated hologram
US20240040148A1 (en) Methods for instance-based mesh coding
Shi et al. Towards Full-scene Volumetric Video Streaming via Spatially Layered Representation and NeRF Generation
KR20240052837A (ko) 몰입형 미디어를 위한 스트리밍 장면 우선순위화기
Wang Low-Latency Adaptive Media Streaming: From 2D to 6-DoF
KR20230119018A (ko) 자산 복잡도에 의해 우선순위가 정해지는 몰입형 미디어스트리밍
KR20230152130A (ko) 클라이언트 질의를 이용한 중복 자산의 재사용
Tian et al. Quantization Parameter and Lagrange Multiplier Determination for Virtual Reality 360 Video Source Coding
KR20240035928A (ko) 게임 엔진으로의 장면-기반 몰입형 미디어의 스트리밍을 위한 스마트 클라이언트
KR20240112296A (ko) 인스턴스 기반 메시 코딩을 위한 적응적 양자화
KR20230121144A (ko) 재이용가능한 몰입형 미디어 자산들을 위한 리던던트캐시
CN117397243A (zh) 用于沉浸式媒体的流式传输场景优先级排序器
Basu et al. 3d Online Multimedia And Games: Processing, Visualization And Transmission

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210317

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210317

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220316

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220426

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220722

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221212

R150 Certificate of patent or registration of utility model

Ref document number: 7205485

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150