JP6701310B2 - 3dルックアップテーブル符号化に色域スケーラビリティを提供するシステムおよび方法 - Google Patents

3dルックアップテーブル符号化に色域スケーラビリティを提供するシステムおよび方法 Download PDF

Info

Publication number
JP6701310B2
JP6701310B2 JP2018229354A JP2018229354A JP6701310B2 JP 6701310 B2 JP6701310 B2 JP 6701310B2 JP 2018229354 A JP2018229354 A JP 2018229354A JP 2018229354 A JP2018229354 A JP 2018229354A JP 6701310 B2 JP6701310 B2 JP 6701310B2
Authority
JP
Japan
Prior art keywords
vertex
vertices
lut
decoded
coding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2018229354A
Other languages
English (en)
Other versions
JP2019068451A (ja
Inventor
イエン イエ
イエン イエ
ジエ ドン
ジエ ドン
ユーウェン ホー
ユーウェン ホー
Original Assignee
ヴィド スケール インコーポレイテッド
ヴィド スケール インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ヴィド スケール インコーポレイテッド, ヴィド スケール インコーポレイテッド filed Critical ヴィド スケール インコーポレイテッド
Publication of JP2019068451A publication Critical patent/JP2019068451A/ja
Application granted granted Critical
Publication of JP6701310B2 publication Critical patent/JP6701310B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/40Tree coding, e.g. quadtree, octree
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/64Systems for the transmission or the storage of the colour picture signal; Details therefor, e.g. coding or decoding means therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/147Data rate or code amount at the encoder output according to rate distortion criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/33Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the spatial domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/34Scalability techniques involving progressive bit-plane based encoding of the enhancement layer, e.g. fine granular scalability [FGS]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/463Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/96Tree coding, e.g. quad-tree coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Description

3Dルックアップテーブル符号化に色域スケーラビリティを提供するシステムおよび方法に関する。
(関連出願の相互参照)
本特許出願は、2013年1月7日に出願された米国特許仮出願第61/880,715号明細書の利益を主張し、その開示内容は、参照により本明細書に組み込まれる。
三次元(3D)ルックアップテーブル(LUT)は、カラリストによるカラーグレーディング処理によって作成され得るか、またはエンコーダによって(例えば、ある色空間のオリジナル信号と別の色空間の対応する信号が使用されて)推定され得る。3D LUTは、層間処理中にデコーダが色域変換処理(例えば、同じ色域の変換処理)を適用できるように、エンコーダからデコーダにビットストリームで送信される必要がある。
3D LUTのシグナリングオーバーヘッドは、ルックアップテーブルの次元が大きいため、かなり大きい。例えば、サンプルビット深度は、8ビットであり、オクタントの単位サイズは16×16×16であり(例えば、色空間は、16×16×16オクタントの表現にパーティションされる)そのため3D LUTテーブルには17×17×17エントリが存在する。3D LUTの各エントリは、3つのコンポーネントを有し得る。従って、圧縮されていないテーブルの総サイズは、117,912(17×17×17×3×8)ビットであり、その結果シグナリングオーバーヘッドが大きくなる。このオーバーヘッドの量に対し、3D LUTは、例えば、個々のピクチャがこのようなオーバーヘッドを処理する能力がないため、シーケンスレベルでシグナルされなければならない。シーケンスレベルにおいて、シーケンスのそれぞれのピクチャは、同じ3D LUTを使用することもあり、その結果、準最適な色域変換が生じ、および/またはエンハンスメント層の符号化効率を下げる恐れがある。カラリストは(芸術作品である理由で)、色域をピクチャごとにまたはシーンごとに変更することもあり、従って効果的な閾値予測には3D LUTのピクチャレベルのシグナリングが要求され得る。
三次元(3D)ルックアップテーブル(LUT)符号化の効率を改善し、および/または3D LUTのテーブルサイズ(例えば、符号化された表現のビットサイズ)を縮小するためのシステムおよび方法が提供され得る。例えば、3D LUTと関連付けられたオクタントは、色空間のセグメント化に提供され、そしてオクタントと関連付けられたオクツリー(octree)の符号化が遂行され得る。1または複数のオクタントは、不均一なオクタントとなり得る。オクタントのパラメータは、精度の低いロッシー符号化される場合もある。3D LUTは、頂点を備えることができる。隣接している頂点間の距離がより大きくなるように1または複数のオクタントをより粗くすることができる。
オクタントはさらに、符号化をオクツリーで構成できる階層木構造化された3Dデータを提供できる。以下の少なくとも1つを適用できる:オクツリーは、複数の層を備えることができる。オクツリーの各ノードは、オクツリーの1つを表すことができる。または各ノードは、ルートから参照できる。さらに、1または複数のオクタントは、1または複数の層に分割することができ、および/または少なくとも1つのオクタントは、サブオクタントにセグメント化することができる。3D LUTの頂点の1つの頂点は、オクツリーの異なる層でオクタントを表すことができる1または複数のノードに属するおよび/または対応することができる。オクツリーの符号化は、例えば、3D LUTのノードおよびそれらのノードと関連付けられた頂点を層優先(layer-first)のトラバース順序で符号化するために符号化オクタント関数を再帰的に呼び出して実行することによって遂行され得る。3D LUTもまた(例えば、シーケンスおよび/またはピクチャレベルに基づいて)シグナルされ得る。
N層など1または複数の層を有するスケーラブルなビデオ符号化システムのブロック図である。 マルチビュービデオコーディング(MVC)を使用した立体(例えば、2視点)ビデオ符号化の時間および/または層間予測を示す図である。 CIE色度におけるBT.709(HDTV)とBT.2020(UHDTV)間の主色の比較を示す図である。 BT.709色域とP3色域間のエンドユーザの視覚的差異を示す図である。 BT.709色域とP3色域間のエンドユーザの視覚的差異を示す図である。 ピクチャレベルの層間予測(ILP)を用いた色域スケーラビリティ(CGS)符号化を示す図である。 8ビットYUV信号の3Dルックアップテーブルを示す図である。 トライリニア3D LUTを示す図である。 3D LUT符号化のオクツリーを示す図である。 2層を有するグローバル3D LUTと3層を有するピクチャレベルの3D LUTを示し、3層を有するピクチャレベルの3D LUTが2層を有するより粗いグローバル3D LUTから予測され得る図である。 2層を有するグローバル3D LUTと3層を有するピクチャレベルの3D LUTを示し、3層を有するピクチャレベルの3D LUTが2層を有するより粗いグローバル3D LUTから予測され得る図である。 開示された1または複数の実施形態を実装できる例示的な通信システムの図である。 図10Aに示した通信システム内で使用され得る例示的な無線送信/受信ユニット(WTRU)のシステム図である。 図10Aに示した通信システム内で使用され得る例示的な無線アクセスネットワークおよび例示的なコアネットワークのシステム図である。 図10Aに示した通信システム内で使用され得る別の例示的な無線アクセスネットワークおよび別の例示的なコアネットワークのシステム図である。 図10Aに示した通信システム内で使用され得る別の例示的な無線アクセスネットワークおよび別の例示的なコアネットワークのシステム図である。
ビデオデータは現在、有線ネットワークと無線ネットワークとの組み合わせを通じて送信され、このことは、下層の伝送チャネル特性をさらに複雑にする恐れがある。このようなシナリオにおいて、スケーラブルなビデオ符号化を前提に、異種ネットワークを通じて異なる能力を有するデバイス上で稼働するビデオアプリケーションの経験品質を改善する魅力的なソリューションを提供できる。例えば、スケーラブルなビデオ符号化は、時間分解能、空間分解能、品質、および/またはその他など最高表現で信号を(例えば、一度)符号化できるが、固有のクライアントデバイス上で稼働するあるアプリケーションによって使用される固有のレートおよび/または表現に応じてビデオストリームのサブセットから復号化することを可能にできる。スケーラブルでないソリューションと比較して、帯域幅および記憶域を節約できる。MPEG−2ビデオ、H.263、MPEG4ビジュアルおよび/またはH.264といったビデオの国際標準規格は、スケーラビリティの一部のモードをサポートするツールおよび/またはプロファイルを有することができる。
図1は、単純なブロックベースのスケーラブルなビデオ符号化混成システムのブロック図を示している。層1(ベース層)によって表される空間/時間信号分解能は、入力ビデオ信号のダウンサンプリングによって作成され得る。後続の符号化ステージにおいて、量子化器の適切な設定(Q1)により、基本情報をある品質レベルに導くことができる。後続の上位層をより効率的に符号化するために、上位層の分解能レベルの近似値であるベース層の再構成Y1が、後続の層を符号化/復号化する時に利用され得る。アップサンプリングユニットは、ベース層の再構成信号によるアップサンプリングを層2の分解能に遂行できる。ダウンサンプリングおよびアップサンプリングは、層(1,2,…N)にわたって遂行され、および/またはダウンサンプリングおよびアップサンプリングは、2つの所与の層間のスケーラビリティの次元に応じて異なる。図1のシステムにおいて、所与の上位層n(2≦n≦N)では、差分信号は、サンプリングされた下位層の信号(例えば、層n−1の信号)を現在の層nの信号から差し引くことによって作成され得る。このようにして得られた差分信号は、符号化され得る。2つの層(例えば、n1およびn2)によって表されるビデオ信号が同じ空間分解能を有していれば、対応するダウンサンプリングおよびアップサンプリングの動作は、バイパスされる。所与の層n(1≦n≦N)または複数の層は、上位層から復号化された情報を使用せずに復号化され得る。しかしながら、図1のシステムによって与えられているように、ベース層を除くそれぞれの層に対する残差信号(例えば、2つの層間の差分信号)の符号化に依存することにより、例えば、残差信号を量子化するおよび/または正規化して、そのダイナミックレンジおよび/または残差を符号化する間に遂行される付加的な量子化を制限することに起因して時折視覚的アーチファクトが生じることもある。上位層のエンコーダの一部または全ては、動き推定および動き補償予測を符号化モードとして採用できる。しかしながら、残差信号の動き予測および補償は、従来の動き推定とは異なる場合があり、視覚的アーチファクトが起こりやすい。このような視覚的アーチファクトを最小限にするために、高度な残差量子化ならびに例えば、残差信号の量子化および/または正規化における量子化結合および残差を符号化する間に遂行される付加的な量子化を提供するおよび/または使用することができ、それによってシステムの複雑性が増す。
スケーラブルビデオコーディング(SVC)は、部分ビットストリームのレートに与えられた相対的に高い再構成品質を保持しながら、より低い時間または空間分解能または低下した忠実度を有するビデオサービスを提供する部分的ビットストリームの伝送および復号化を可能にできるH.264の拡張規格である。SVCの1つの設計特性は、シングルループ復号化である。シングルループ復号化は、SVCデコーダが復号化される層の動き補償ループを起動することができ、そして他の下位層(複数)の動き補償ループ(複数)を起動しなくてもよいというファクトを指す。例えば、ビットストリームは、層1(ベース層)と層2(エンハンスメント層)など2つの層を含むことができる。デコーダが層2のビデオを再構成したい場合、層2の復号化ピクチャバッファおよび動き補償予測が起動されるが、層1(例えば、層2が依存し得るベース層)には起動されない。従って、SVCは、完全に再構成された下位層からの参照ピクチャを要求するおよび/または使用する必要がなく、例えば、それによってデコーダの計算の複雑性およびメモリ必要量が削減される。
シングルループ復号化は、所与の層の現在のブロックに対し、下位層からの空間テクスチャ予測が、対応する下位層ブロックがイントラモード(これは、制限されたイントラ予測とも呼ばれ得る)で符号化されるのであれば許可される、制約された層間テクスチャ予測によって実現することができる。例えば、下位層ブロックがイントラモードで符号化される場合、動き補償動作および符号化ピクチャバッファを必要とせずに再構成される。エンハンスメント層のレート歪み効率を改善するために、SVCは、下位層からの動きベクトル予測、残差予測、モード予測、および/またはその他など付加的な層間予測技術を使用できる。SVCのシングルループ復号化特性によりデコーダの計算の複雑性およびメモリ必要量が削減できるが、満足できる性能を実現するためにブロックレベルの層間予測方法に大きく依存することによって実装の複雑性が増す恐れがある。さらにシングルループ復号化に制約を課すことによって受ける性能ペナルティを補償するために、所望の性能を実現できるようなエンコーダの設計および計算の複雑性が増す恐れがある。インタレースコンテンツの符号化は、SVCで十分にサポートされない場合もあり、放送産業による採用に影響を及ぼし得る。その結果として、SVCエンコーダおよびデコーダの設計およびシステム実装の複雑な事態によって市場におけるSVCの採用が限られる。
マルチビュービデオコーディング(MCV)は、ビュースケーラビリティ(view scalability)を提供できるH.264の別の拡張規格にすることができる。ビュースケーラビリティにおいて、ベース層ビットストリームを復号化して従来の2Dビデオを再構成することができ、そして付加的なエンハンスメント層を復号化して同じビデオ信号の他のビュー表現を再構成することができる。ビューが組み合わされて適正な3D表示で表示されると、ユーザは、適正な奥行き知覚で3Dビデオを体験できる。図2は、MVCを使用して左ビュー(層1)と右ビュー(層2)を有する立体ビデオを符号化する例示的な予測構造を提供できる。0入力の左ビューのビデオは、IBBP予測構造を用いて符号化できる。右ビューのビデオは、PBBB予測構造を用いて符号化できる。右ビューにおいて、左ビューの第1のピクチャIとコロケートされた第1のピクチャは、Pピクチャとして符号化できる。右ビューの別のピクチャは、右ビューの時間参照に由来する第1の予測と左ビューの層間参照に由来する第2の予測を用いてBピクチャとして符号化できる。
3Dメガネを使用できる立体3D TVは、自宅で3Dコンテンツ(例えば、映画、スポーツ実況、および/またはその他)を楽しむために使用される。SVCとは異なり、MVCは、シングルループ復号化特性をサポートしなくてもよい。図2に示すように、右ビュー(層2)のビデオの復号化は、動き補償ループがビュー/層の両方でサポートされるように使用可能である左ビュー(層1)のピクチャ(例えば、ほとんど全てのピクチャ)を必要とする。しかしながら、MVCは、H.264/AVCへのハイレベルのシンタックス変更を含むことができ、およびブロックレベルの変更を含まなくてよいという設計の利点を有することができる。これによって、下層のMVCエンコーダ/デコーダ論理が同じ論理を保持することができ、容易に複製することができ、および/またはスライス/ピクチャレベルの参照ピクチャが有効なMVCに正しく構成される必要があるのでより容易な実装が可能となる。これは、近年の3Dビデオコンテンツの爆発的な増加(例えば、主に3D映画制作および3Dスポーツ実況放送)と相まって、MVCがSVCと比較してずっと幅広い商業的成功を収めることを可能にさせる。MVCはまた、層間予測を遂行する例示的な0入力を複数のビューに拡張することによって3以上のビューの符号化をサポートすることもできる。
3Dビデオ符号化において、例えば、MPEGフレームコンパチブル(MFC)符号化もまた、提供するおよび/または使用することができる。例えば、本明細書で説明するように、3Dコンテンツは、左ビューと右ビューなど2つのビューを含むことができる立体3Dビデオにすることができる。立体3Dコンテンツの配信は、2つのビューを1つのフレームにパックする/多重化する(従って、その名称はフレームコンパチブルである)および/またはパックされたビデオをH.264/AVCなど既存の標準規格を用いて圧縮して送信することによって実現され得る。受信者側において、復号化の後、フレームは、アンパックされて2つのビューとして表示され得る。ビューのこのような多重化は、時間領域または空間領域で行われ得る。2つのビューは、2つの因子によって空間的にダウンサンプリングされ、そして(例えば、空間領域で同じピクチャサイズを維持するために行われる場合)さまざまな配置によってパックされ得る。例えば、サイドバイサイド配置は、ダウンサンプリングされた左ビューをピクチャの左半分に置き、ダウンサンプリングされた右ビューをピクチャの右半分に置くことができる。他の配置は、トップアンドボトム配置、ラインバイライン配置、格子配置および/またはその他を含むことができる。フレームコンパチブル3Dビデオを実現するために使用できる固有の配置は、フレームパッキング配置のサプリメンタルエンハンスメント情報(SEI)メッセージによって伝達され得る。帯域幅要件のわずかな増加(例えば、パックされたフレームの圧縮がより困難であるのでさらに多少の増加もあり得る)によるこのような配置で3D配信を実現できるが、空間ダウンサンプリングは、ビューのエイリアシングを引き起こし、3Dビデオの視覚的品質およびユーザ体験を低下させる場合もある。従って、MFCの開発は、フレームコンパチブルな(即ち、2つのビューが同じフレームにパックされる)ベース層ビデオのスケーラブルな拡張を提供し、および/またはビューの分解能を回復させる、例えば、3D体験を改善する1または複数のエンハンスメント層を提供することに重点を置く。そのため、3Dビデオ配信の提供を対象としているが、フル分解能のMFCを可能にする主な基盤技術は、空間スケーラビリティ技術に密接に(例えば、より密接に)関係している。
HEVCのスケーラブルな強化型の要件および/またはユースケースが提供され、作り出され、および/または使用され得る。さらに、例えば、空間スケーラビリティに対する1または複数のターゲットが確立されている。高分解能のビデオが測定される、スケーラブルでない符号化の使用と比較して、2倍の空間スケーラビリティに対して25%のビットレート削減および1.5倍の空間スケーラビリティに対して50%のビットレート削減を実現できる。スケーラブルなHEVCのユースケースを拡大するために、いわゆるスケーラビリティを使用できる。標準のスケーラビリティは、ベース層ではH.264/AVC、またはさらにMPEG2など初期の標準規格を用いて符号化される場合のスケーラビリティのタイプである一方、1または複数のエンハンスメント層では、HEVC標準規格など最近の標準規格を使用して符号化されるスケーラビリティのタイプを指す。標準のスケーラビリティは、以前の標準規格を使用してすでに符号化されているレガシーコンテンツの後方互換性を提供し、そしてより良い符号化効率を提供できるHEVCのような次世代標準規格を用いて符号化される1または複数のエンハンスメント層を用いてレガシーコンテンツの品質を強化することを目的としている。
3Dビデオ符号化または3DVと呼ばれる別の3Dスケーラブルビデオ符号化技術も提供するおよび/または使用することができる。3DVの主タスクは、裸眼立体アプリケーションをターゲットとするビュースケーラビリティのさまざまな特性を開発することである。裸眼立体ディスプレイおよびアプリケーションは、利用者が面倒なメガネを用いずに3Dを体験させるまたは可能にできる。メガネ無しの適したまたは良好な3D体験を実現するために、3以上のビューを提供するおよび/または使用することができる。多数のビュー(例えば、9ビューまたは10ビューなど)の符号化は、費用がかかる。従って、3DVは、ビューの深度情報を提供できる深度マップと一緒に比較的大きい視差を用いて少数のビュー(例えば、2または3ビュー)を符号化する混成アプローチを提供するおよび/または使用することができる。表示側において、符号化されたビューおよび深度マップが復号化され、そして残りのビューは、復号されたビューを使用して作成されて、それらの深度マップは、ビュー合成技術を使用する。3DVは、ビューおよび深度マップを符号化するさまざまな方法を考慮することができ、例えば、1つの標準規格(例えば、H.264/AVC)を用いてベース層を符号化し、および別の標準規格(例えば、HEVC)を用いて1または複数のエンハンスメント層を符号化することを含む、H.264/AVC、MVCおよびHEVCなど異なる標準規格の組み合わせを使用してビューおよび深度マップを符号化する。3DVは、アプリケーションが選択される異なるオプションのメニューを提供できる。
表1は、本明細書で説明される異なるタイプのスケーラビリティをまとめている。表1の最後において、ビット深度スケーラビリティおよびクロマフォーマットスケーラビリティは、主に専門的なビデオアプリケーションによって使用されるビデオフォーマット(例えば、8ビットビデオよりも上位であり、クロマサンプリングフォーマットがYUV4:2:0よりも上位である)に関係している。
進歩した表示技術により、ITU BT.2020で指定された超高精細度TV(UHDTV)は、HDTV仕様(BT.709)と比較してより大きい分解能、より大きいビット深度、より高いフレームレート、およびより広い色域をサポートできる。このような技術を用いて、ユーザ体験は、BT.2020が提供できる高忠実度品質のため大いに改善され得る。HDTVは、120Hzまでのフレームレート、および10ビットまたは12ビットのピクチャサンプルのビットを有する4K(3840×2160)および8K(7680×4320)分解能までサポートできる。UHDTVの色空間は、BT.2020で定義され得る。図3は、CIE色解像度におけるBT.709(HDTV)とBT.2020(UHDTV)間の比較を示している。BT.2020でレンダリングされた色のボリュームは、BT.709でレンダリングされたものよりも広く、これは、UHDTV仕様を使用してより多い可視色情報がレンダリングされ得るという意味である。
提供するおよび/または使用することができる1つのタイプのスケーラビリティは、色域スケーラビリティである。色域スケーラビリティ(CGS)符号化は、3以上の層が異なる色域およびビット深度を有することができる多層(multi-layer)符号化である。例えば、表1に示すように、層2のスケーラブルシステムにおいて、ベース層は、BT.709で定義されたHDTV色域であり、エンハンスメント層は、BT.2020で定義されたUHDTV色域である。使用できる別の色域は、P3色域である。P3色域は、デジタルシネマアプリケーションで使用され得る。CGS符号化の層間処理は、ベース層の色域をエンハンスメント層の色域に変換する色域変換方法を使用できる。色域変換が適用された後、作成された層間参照ピクチャを使用してエンハンスメント層のピクチャを例えば、より良いまたは改善された正確さで予測できる。図4A−4Bはそれぞれ、BT.709色域とP3色域間のエンドユーザの視覚的差異の例を示している。図4A−4Bにおいて、同じコンテンツは、異なる色域を使用して2回カラーグレーディングをされる。例えば、図4のコンテンツは、BT.709でカラーグレーディングされてBT.709ディスプレイにレンダリングする/表示することができ、そして図4Bのコンテンツは、P3でカラーグレーディングされてBT.709ディスプレイにレンダリングする/表示することができる。図示されているように、2つの画像間で顕著な色差がある。
例えば、図4Aがベース層で符号化されて、図4Bがエンハンスメント層で符号化されると、例えば、図5のCGS符号化システムを使用して、付加的な層間処理を提供するおよび/または使用してエンハンスメント層の符号化効率を改善できる。色域変換方法をCGSの層間処理に使用することもできる。色域変換方法の使用を通じて、BT.709空間の色をP3空間に変換することができ、P3空間のエンハンスメント層信号をより効率的に予測するために使用できる。
色域変換のモデルパラメータは、BL色域とEL色域が固定された(例えば、BLが709に固定されてELが2020に固定される)場合でも異なるコンテンツごとに異なる。これらのパラメータは、カラリスト(複数)が彼または彼女または彼らの芸術的意図を反映する異なる空間および異なるコンテンツに異なるグレーディングパラメータを適用できるコンテンツ作成後の編集時のカラーグレーディング処理によって決まる。さらに、カラーグレーディングの入力ビデオは、高忠実度ピクチャを含むことができる。スケーラブルな符号化システムにおいて、BLピクチャの符号化は、量子化雑音が生じ得る。階層予測構造など符号化構造を用いて、量子化のレベルは、ピクチャ毎またはピクチャのグループ毎に調整される。従って、カラーグレーディングから作成されたモデルパラメータは、符号化目的としては十分正確ではない。エンコーダがモデルパラメータをオンザフライで推定することによって符号化雑音を補償することがより効果的である。エンコーダは、パラメータをピクチャ毎またはピクチャのグループ毎に推定できる。これらのモデルパラメータは例えば、カラーグレーディング処理中に作成されるおよび/またはエンコーダによって、層間予測中にデコーダが同じ色域の変換処理を遂行できるようにデコーダにシーケンスおよび/またはピクチャレベルでシグナルされる。
線形または区分線形などさまざまな色域変換方法が存在する。映画産業において、3Dルックアップテーブル(3D LUT)は、ある色域方法または技術から別の色域方法または技術への色域変換に使用され得る。さらに、CGS符号化のための3D LUTを提供するおよび/または使用することができる。図5は、ピクチャレベルの層間予測(ILP)を用いた例示的なCGS符号化スキームを示している。ILPは、ベース層(BL)の色域からエンハンスメント層(EL)の色域への色域変換、BL空間分解能からEL空間分解能へのアップサンプリング、および/またはBLサンプルビット深度からELサンプルビット深度への逆トーンマッピング(例えば、サンプルビット深度の変換)を含む。
本明細書で説明されるように、3D LUTを色域変換に使用できる。例えば、(y,u,v)は、ベース層の色域のサンプルトリプレットとして示され、(Y,U,V)は、EL色域のサンプルトリプレットとして示される。3D LUTにおいて、BL色空間の範囲は、図6に示すように等しいオクタントにセグメント化される。3D LUTの入力は、BL色域の(y,u,v)であり、3D LUTの出力は、EL色域にマップされるトリプレット(Y,U,V)である。変換処理中、入力(y,u,v)がオクタントの頂点の1つと重なれば、出力(Y,U,V)は、3D LUTエントリの1つを直接参照することによって得られる。そうでなければ、入力(y,u,v)がオクタントの内側(例えば、その頂点の1つでない)であれば、図7に示すようなトライリニア補間が入力に最も近い8つの頂点に適用される。トライリニア補間は、以下の1または複数の式を使用して実施できる。

ここに(yi,uj,vk)は、BL色域の頂点(即ち、3D LUTへの入力)を表し、LUT[yi][uj][vk]は、EL色域の頂点(即ち、エントリ(yi,uj,vk)における3D LUTの出力)およびs0(y)=y1−y,s1(y)=y−y0,s0(u)=u1−u,s1(u)=u−u0,s0(v)=v1−v,s1(v)=v−v0を表す。
本明細書で説明されるように、3D LUTは、カラリストによるカラーグレーディング処理によって作成され得るか、またはエンコーダによって−例えば、ある色空間のオリジナル信号と別の色空間の対応する信号が使用されて推定され得る。3D LUTは、層間処理中にデコーダが同じ色域の変換処理を適用できるように、エンコーダからデコーダにビットストリームで送信され得る。3D LUTのシグナリングオーバーヘッドは、ルックアップテーブルの次元が大きいため、増加が(例えば、かなり)大きいまたは高い。例えば、図6に示すように、サンプルビット深度は、8ビットである。オクタントの単位サイズが16×16×16であれば、3D LUTテーブルに17×17×17エントリが存在する。3D LUTの各エントリはまた、3つのコンポーネントを含むこともできる。従って、圧縮されていないテーブルの総サイズは、117912(17×17×17×3×8)ビットである。このオーバーヘッドの量に対し、3D LUTは、個々のピクチャがこのように大きいオーバーヘッドを処理する能力がないため、(例えば、唯一)シーケンスレベルでシグナルされ得る。シーケンスのピクチャは、同じ3D LUTを使用することもあり、その結果、準最適な色域変換が生じ、そしてエンハンスメント層の符号化効率を下げる恐れがある。
このため、3D LUT符号化を改善するシステムおよび/または方法を提供できる。例えば、不均一なオクタントが色空間のセグメント化に使用されると、3D LUTのテーブルサイズが縮小する。一部の色範囲では、オクタントをより粗くして(例えば、隣接する頂点間の距離がより大きくなる)3D LUTテーブルのエントリの数を減らすことができる。
この種の階層木構造化された三次元データに対し、効率的な符号化のためにオクツリーを提供するおよび/または使用することができる。図8に示すように、3つの層があり、層1のオクタント3と6が分割されている。オクツリーの各ノードは、1つのオクタントを表し、そして各ノードは、ルートから参照される。例えば、層1のオクタント3に属する層2のオクタント0は、“−”が層のデリミタとして使用されるルートノードから“0−3−0”として参照される。オクタントは、さらに分割される場合、8サブオクタントにセグメント化される。図8の例では、層2のノードと層1の一部のノード(例えば、さらに分割されるノード3と6を除く)を含むオクツリーのリーフオクタントが符号化される。3D LUTのある頂点は、異なる層における複数のノードに属する。例えば、図8の頂点Nは、ノード0−0、0−1、0−2、0−3、および0−3−0に属する。オクツリーを使用して3D LUTを符号化する場合、この重畳関係は、頂点の不必要なシグナリングを回避するために考慮され(例えば、各頂点は、一回符号化される)、そして本明細書で説明されるように、効率的な3D LUTを提供するために使用され得る。
表2は、3D LUT符号化のシンタックス要素を記載している。表2の関数coding_octant()を再帰的に呼び出して、例えば、表3のコンテキストにおいで説明されるように、層優先のトラバース順序で3D LUTの頂点を符号化できる。関数u(n)、ue(v)およびse(v)は、u(n):nビットを使用する符号なし整数、ue(v):0次指数ゴロム符号化された符号なし整数、および/またはse(v):0次指数ゴロム符号化された符号あり整数として定義される。
num_layers_minus 1:(num_layers_minus 1+1)を使用してオクツリーが有する層の数を算出できる。図8のオクツリーの例では2となる。
prediction_modeは、オクツリー符号化の3つの可能な予測モードを含むことができる。prediction_modeが0であると、現在の3D LUTからの親オクタントは、その子オクタントのそれぞれを符号化するための予測として使用され得る。各子オクタント/頂点の予測値は、トライリニア補間を用いてその親オクタントから作成され得る。この予測モードは、表3のコンテキストにおいてさらに論じられる。prediction_modeが1である場合、既存のグローバル3D LUT(例えば、以下で定義されるように)現在の3D LUTを符号化するための予測として使用され、そして各頂点の予測は、既存のグローバル3D LUTのコロケートされた頂点(例えば、存在しなければ、コロケートされた頂点が補間される)から作成され得る。prediction_modeが2である場合、現在の3D LUTと既存のグローバル3D LUTの両方を予測として使用でき、そして各オクタント/頂点符号化に使用される予測は、各オクタント/頂点に別個にシグナルされる。
LUT_precision_luma_minus 1を提供するおよび/または使用することができる。LUT_precision_luma_minus 1+1)は、符号化されるLUTパラメータとそのルマ(Y)コンポーネントの予測との差を符号化するために使用される精度パラメータである。
LUT_precision_chroma_minus 1を提供するおよび/または使用することができる。LUT_precision_chroma_minus 1+1は、LUTパラメータとそのクロマ(U,V)コンポーネントの予測との差を符号化するために使用される精度パラメータである。精度パラメータは、ルマ信号のパラメータとは異なる。
本明細書で説明されるように、LUT_precision_luma_minus 1とLUT_precision_chroma_minus 1をLUTパラメータ復号化処理に使用できる。これらの精度パラメータのより小さい値は、3D LUTをより正確にし、そして色域変換の歪みを低下させる。さらに、より小さい値は、符号化ビットの数を増加できる。従って、これらの精度パラメータの適切な値は、レート歪み最適化(RDO)処理によって判定され得る。
表3は、層優先のトラバース順序でオクツリー符号化を行う例示的なシンタックス要素を記載している。層優先のトラバース順序符号化の例を図8に示すことができる。例えば、3D LUTは、図8の2つの表現で示される。例えば、左側では、3D LUTは、開始オクタント(beginning octant)がより小さいオクタントに再帰的にパーティションされて、各オクタントが8つの頂点を有していることを示している。右側では、3D LUTの対応するオクツリー表現を示している。右側のオクツリーの各ノードは、左側の1つのオクタント(または同等としては8頂点)に対応する。各オクタント(または各オクツリーノード)を符号化するために、8つを表す頂点を符号化できる。これは、表3の“for(i=0;i<8;i++)”の“for”ループによって参照される。図8において、層0の開始オクタントを“px”でラベル付けされた8頂点の形式で符号化することができ、その後層1の8オクタントの符号化が続いて、それぞれのオクタントが自身の8頂点を有する。層1のこれらの19個の頂点は固有であり(例えば、それらの頂点は、“qx”としてラベル付けされ得る)符号化する必要がある。これは、表3のシンタックスと他のシンタックスとの差である。層1のオクタントが符号化された後、層1のオクタント3と6は、それぞれが層2の8つの子オクタントに再度分割される。
図示されているように、提案されたシグナリングを所与の頂点が符号化された時のフラグにして、オクツリーの2以上のノードによって共有される時の状況で頂点を反復的に送信することを回避できる。図8の例において、これは、層1の符号化される頂点の数を64(8×8)から19に減らすことができる。さらに、予測モジュールが2である場合、提案された方法は、(例えば、既存の3D LUTのコロケートされた頂点または現在の3D LUTの親頂点の)予測方法を各頂点にシグナルできる。
図示されているように、0は、現在の3D LUTの親オクタントを使用して現在の頂点を予測することを指し、および/または1は、既存のグローバル3D LUTのコロケートされたオクタントを使用して現在の頂点を予測することを指すvertex_prediction_modeを提供するおよび/または使用することができる。prediction_modeが2に等しくなければ、vertex_prediction_modeは、そのprediction_modeに等しくなるように設定される。
現在の3D LUTの親オクタントを使用して現在の頂点を予測できる(例えば、頂点予測モードが0に設定される場合)。これまで説明したように、層優先のトラバース順序を使用できるので、層(1)の親オクタントは、層(1+1)の子オクタントが符号化される前に符号化される。図8の例において、層0の8個の頂点pxを最初に符号化できる。19個の頂点qxの1つが符号化されると、層0の8個の頂点pxからのトライリニア補間を使用して予測子が最初に形成される。頂点qxを直接符号化する代わりに、qxとその予測子間の差を符号化してビットのオーバーヘッドを削減できる。
例えば、1は、符号化される非ゼロの残差があることを示し、0は、残差がゼロであり、および/または符号化された値がその予測と等しいことを示すnonzero_residual_flagを提供するおよび/または使用することができる。
デルタYまたはルマコンポーネントのデルタを符号化できる。デルタYは、以下のように算出される:
ルマコンポーネントのLUTパラメータをデコーダにおいて以下のように再構成できる。
(LUT_precision_luma_minus 1+1)が2のべき乗であれば、式(1)の除算は、log2(LUT_precision_luma_minus 1+1)ビット右シフトすることによって置換され、および/または式(2)の乗算は、log2(LUT_precision_luma_minus 1+1)ビット左シフトすることによって置換される。左/右シフトは、ハードウェアの実装において容易であるので、色域スケーラブル符号化システムでは、(LUT_precision_luma_minus 1+1)を実行して2のべき乗にすると有益である。このような事例において、代わりに表2のシンタックス要素を変更して、log2(LUT_precision_luma_minus 1+1)の値を表すことができる。
デルタUまたはクロマUコンポーネントのデルタを符号化して、例えば、以下のように算出できる:
クロマUコンポーネントのLUTパラメータをデコーダにおいて以下のように再構成できる。
デルタVまたはクロマVコンポーネントのデルタを符号化できる。デルタVを以下のように算出できる:
クロマVコンポーネントのLUTパラメータをデコーダにおいて以下のように再構成できる。
ルマコンポーネントと同様に、色域スケーラブル符号化システムでは、乗算および除算の代わりに左/右シフトが使用されるように(LUT_precision_chroma_minus 1+1)を実行して2のべき乗にすると有益である。
(LUT_precision_chroma_minus 1+1)が2のべき乗にならない場合、ASICなどのハードウェア実装を除数で実装するのにコストがかかるため、除算を直接適用する代わりに乗算とシフティングとを組み合わせることによって除算を近似する。例えば、式(1)(3)(5)を式(7)(8)(9)のように実装できる:
ここに(LUT_precision_luma_minus 1+1)と(LUT_precision_chroma_minus 1+1)を以下のように算出できる:
デルタYは、LUT_precision_luma_minus 1が0となるようにデルタYを算出できる。LUT_precision_chroma_minus 1が0となるようにデルタUとデルタVを計算できる。
さらに、prediction_Y、precision_Uおよびprecision_Vは、1または複数のLUTパラメータの予測である。それらは、prediction_modeに従って得られる。prediction_modeが0であれば、予測は、現在の頂点の上位層からのトライリニア補間である。例えば、現在の符号化頂点が図9Bの頂点Vであれば、その予測は、層1のオクタント3の8個の頂点からのトライリニア補間である。prediction_modeが1であれば、予測は、グローバルLUTのコロケートされた頂点に等しい。
例えば、1は、現在のオクタントをさらに分割して8つの子オクタントが符号化されることを示すことができるoctant_split_flagを提供するおよび/または使用することができる。0に等しいOctant_split_flagは、現在のオクタントがリーフオクタントであることを示すことができる。
表3のdy[i]、du[i]およびdv[i]は、表4で定義することができる。
新しい関数getVertex(y,u,v,i)を使用して最初の頂点が(y,u,v)に置かれるオクタントの頂点インデックスを得ることができる。以下の疑似コードを使用して関数getVertex(y,u,v,i)を算出できる:
octant_len_y、octant_len_uおよびoctant_len_vの値はそれぞれ、ルマ、色コンポーネントUと色コンポーネントVの最小のオクタントの長さを表すことができる。size_in_verticesは、各次元の頂点の最大数である。
(例えば、ひとたびgetVertex(y,u,v,i)を使用してnの値が算出されると)フラグcoded_flag[n]が設定される。フラグは続いて、頂点“n”が符号化されたことを追跡するおよび/または頂点“n”を再度符号化することを回避するために使用できる。
シーケンスおよびピクチャレベルの3D LUTシグナリングも提供するおよび/または使用することができる。例えば、3D LUTシグナリングでは、システムは、シーケンスレベルの解析に基づいて3D LUTをシグナルできる。これは、グローバルまたはシーケンスレベルの3D LUTである。このようなシーケンスレベルの3D LUTは、ビデオパラメータセット(VPS)、シーケンスパラメータセット(SPS)またはピクチャパラメータセット(PPS)などハイレベルのパラメータセットで伝達され得る。ビデオシーケンスのピクチャは、グローバル3D LUTを使用できる。
表5は、グローバル3D LUTをPPSでシグナルする例示的なシンタックス表を示している。3D LUTを使用することに加え、表5のシンタックスは、線形マッピング、区分線形マッピング、および/またはその他など他のタイプの色域変換方法を使用してサポートできる。固有の色域変換方法は、付加的な色域変換方法がサポートされることを可能にするue(v)符号化を使用してPPSに符号化され得る。さらに、表5は、色域のスケーラビリティをサポートするシンタックス要素が含まれるかどうかを示すフラグ(color_gamut_scalability_flag)を含む。CGSが固有の2つの層間でサポートされるか、または(例えば、scalability_maskを使用する)VPSでシグナルされるか否かに関わらず、VSPとPPSとの間の構文解析の独立性を有することが望ましい。従って、PPSの付加的な1−bitフラグは、CGSを含む表5のように含まれる。
図示しているように、color_gamut_scalability_flagを提供できる。color_gamut_scalability_flagを使用して、色域スケーラビリティに関係するマッピング情報が存在するか否かを示すことができる。
color_gamut_conversion_methodを使用して2つの層間の色域変換を遂行するために使用される固有の方法を示すこともできる。色域変換方法のセットは、線形マッピング、区分線形、3D LUT、多項式モデルなどを含むことができる。color_gamut_conversion_methodが3D LUTに設定される場合、表2で定義されたような3D_LUT()シグナリングが使用される。
ビデオシーケンスの1または複数のピクチャに対し、エンコーダは、(例えば、スケーラブルな符号化効率をさらに改善するために)ビットストリームのピクチャレベルの3D LUTをシグナルすることを決定できる。この更新された3D LUT情報は、符号化されたスライスデータと共にスライスセグメントヘッダ内にシグナルされ得るおよび/または適応パラメータセット(APS)など別個のNALユニットでシグナルされ得る。グローバル3D LUTと区別するために、後者の場合は、ピクチャレベルの3D LUTである。
3D_LUT_present_flagを使用して、ピクチャレベルの3D LUT情報が存在するか否かを示すことができる。
ピクチャレベルの3D LUTは、現在の3D LUTの親頂点から予測することによって符号化され、ピクチャレベルの3D LUTは、グローバル3D LUTをその予測として使用して符号化され、および/またはピクチャレベルの3D LUTは、両方を予測として使用して頂点レベルの予測モードをシグナルすることができる。これは、表2のprediction_modeの値を適切な値に設定することによって実現され得る。ピクチャレベルの3D LUTは、グローバル3D LUTと比較して異なる数の層を有することができる。例えば、ピクチャレベルの3D LUTは、ピクチャレベルの3D LUTをより正確にするより多い層を有することができ、次に色域変換処理を改善し、従ってエンハンスメント層の符号化効率を改善することができる。ピクチャレベルの3D LUTがシーケンスレベルの3D LUTよりも多い層を有していれば、シーケンスレベルの3D LUTを予測として使用してピクチャレベルの3D LUTを符号化すると有益である。この場合、もはやグローバル3D LUTに存在していないコロケートされた頂点は、まだグローバル3D LUTに存在しているその頂点の隣接頂点からのトライリニア補間によって得ることができる。図9A−9Bは、ピクチャレベルの3D LUT(図9B)が3つの層を有し、グローバル3D LUT(図9A)が2つの層を有して予測として使用され得る例を示している。ピクチャレベルの3D LUTの層2における頂点Vが符号化されると、予測は、グローバル3D LUTの層1における隣接頂点P0,P1,…P7からトライリニア補間される。
図10Aは、開示された1または複数の実施形態を実装できるおよび/または使用できる例示的な通信システム100の図である。通信システム100は、音声、データ、ビデオ、メッセージング、ブロードキャストなどのコンテンツを複数の無線ユーザに提供する、多元接続システムである。通信システム100は、複数の無線ユーザが、無線帯域幅を含むシステムリソースの共有を通じてそのようなコンテンツにアクセスすることを可能にできる。例えば、通信システム100は、符号分割多元接続(CDMA)、時分割多元接続(TDMA)、周波数分割多元接続(FDMA)、直交FDMA(OFDMA)、シングルキャリアFDMA(SC−FDMA)などの、1または複数のチャネルアクセス方法を用いることができる。
図10Aに示すように、通信システム100は、無線送信/受信ユニット(WTRU)102a、102b、102c、および/または102d(一般的にまたはまとめてWTRU102と呼ぶことができる)、無線アクセスネットワーク(RAN)103/104/105、コアネットワーク106/107/109、公衆交換電話網(PSTN)108、インターネット110、および他のネットワーク112を含むことができるが、開示された実施形態は、任意の数のWTRU、基地局、ネットワーク、および/またはネットワーク要素を企図することが認識されよう。WTRU102a、102b、102c、および/または102dのそれぞれは、無線環境で操作および/または通信するように構成された任意のタイプのデバイスである。一例として、WTRU102a、102b、102c、および/または102dは、無線信号を送信および/または受信するように構成することができ、そしてユーザ機器(UE)、移動局、固定式または移動式加入者ユニット、ページャ、セルラー電話、携帯情報端末(PDA)、スマートフォン、ラップトップ、ネットブック、パーソナルコンピュータ、無線センサ、家電製品などを含むことができる。
通信システム100はまた、基地局114aと基地局114bを含むこともできる。基地局114a、114bのそれぞれは、WTRU102a、102b、102c、および/または102dの少なくとも1つとワイヤレスにインタフェースして、コアネットワーク106/107/109、インターネット110、および/またはネットワーク112など1または複数の通信ネットワークへのアクセスを容易にするように構成された任意のタイプのデバイスである。一例として、基地局114aおよび/または114bは、ベーストランシーバ基地局(BTS)、ノードB、eノードB、ホームノードB、ホームeノードB、サイトコントローラ、アクセスポイント(AP)、無線ルータなどである。基地局114a、114bはそれぞれ、単一要素として示されているが、基地局114a、114bは、相互接続された任意の数の基地局および/またはネットワーク要素を含むことができることが認識されよう。
基地局114aは、基地局コントローラ(BSC)、無線ネットワークコントローラ(RNC)、中継ノードその他などの他の基地局および/またはネットワーク要素(図示せず)を含むこともできる、RAN103/104/105の一部である。基地局114aおよび/または基地局114bは、セル(図示せず)と呼ぶことができる、特定の地理的領域内で無線信号を送信および/または受信するように構成され得る。セルは、セルセクタにさらに分割され得る。例えば、基地局114aと関連付けられたセルを3つのセクタに分割できる。従って、一実施形態において、基地局114aは、3つのトランシーバ、即ち、セルの各セクタに1トランシーバを含むことができる。別の実施形態において、基地局114aは、MIMO(multiple-input multiple output)技術を用いることができ、従って、セルの各セクタに複数のトランシーバを利用できる。
基地局114aおよび/または114bは、適した任意の無線通信リンク(例えば、無線周波数(RF)、マイクロ波、赤外線(IR)、紫外線(UV)、可視光線その他)である、エアインタフェース115/116/117を介してWTRU102a、102b、102cおよび/または102dの1または複数と通信できる。エアインタフェース115/116/117は、適した任意の無線アクセス技術(RAT)を使用して確立できる。
より詳細には、上述のように、通信システム100は、多元接続システムであり、そして、CDMA、TDMA、FDMA、OFDMA、SC−FDMAなど1または複数のチャネルアクセススキームを用いることができる。例えば、RAN103/104/105内の基地局114aおよびWTRU102a、102bおよび/または102cは、WCDMA(広域帯CDM)を使用してエアインタフェース115/116/117を確立できる、UTRA(ユニバーサル移動体通信システム(UMTS)地上波無線アクセス)など無線技術を実装できる。WCDMAは、高速パケットアクセス(HSPA)および/または発展型HSPA(HSPA+)など通信プロトコルを含むことができる。HSPAは、高速ダウンリンクパケットアクセス(HSDPA)および/または高速アップリンクパケットアクセス(HSUPA)を含むことができる。
別の実施形態において、基地局114aおよびWTRU102a、102bおよび/または102cは、LTE(ロングタームエボリューション)および/またはLTE−A(LTEアドバンスト)を使用してエアインタフェース115/116/117を確立できる、E−UTRA(発展型UMTS地上波無線アクセス)など無線技術を実装できる。
他の実施形態において、基地局114aおよびWTRU102a、102bおよび/または102cは、IEEE802.16(即ち、WiMAX(Worldwide Interoperability for Microwave Access)、CDMA2000、CDMA20001X、CDMA2000EV−DO、IS−2000(Interim Standard 2000)、IS−95(Interim Standard 95)、IS−856(Interim Standard 856)、GSM(Global System for Mobile communications)、EDGE(Enhanced Data rates for GSM Evolution)、GERAN(GSM EDGE)その他など無線技術を実装できる。
図10Aの基地局114bは、例えば、無線ルータ、ホームノードB、ホームeノードB、またはアクセスポイントであり、職場、自宅、車、キャンパスその他などローカルエリアで無線接続性を容易にするために適した任意のRATを利用できる。一実施形態において、基地局114bおよびWTRU102c、102dは、無線ローカルエリアネットワーク(WLAN)を確立するIEEE802.11など無線技術を実装できる。別の実施形態において、基地局114bおよびWTRU102c、102dは、無線パーソナルエリアネットワーク(WPAN)を確立するIEEE802.15など無線技術を実装できる。さらに別の実施形態において、基地局114bおよびWTRU102c、102dは、セルベースのRAT(例えば、WCDMA、CDMA2000、GSM、LTE、LTE−Aその他)を利用して、ピコセルまたはフェムトセルを確立できる。図10Aに示しているように、基地局114bは、インターネット110に直接接続できる。従って、基地局114bは、コアネットワーク106/107/109経由でインターネット110にアクセスする必要がない。
RAN103/104/105は、音声、データ、アプリケーション、および/またはVoIP(ボイスオーバーインターネットプロトコル)サービスをWTRU102a、102b、102cおよび/または102dの1または複数に提供するように構成された任意のタイプのネットワークである、コアネットワーク106/107/109と通信できる。例えば、コアネットワーク106/107/109は、呼制御、課金サービス、モバイルロケーションベースのサービス、プリペイド電話、インターネット接続性、ビデオ分散その他を提供でき、および/またはユーザ認証などのハイレベルのセキュリティ機能を遂行できる。図10Aに示していないが、RAN103/104/105および/またはコアネットワーク106/107/109は、RAN103/104/105と同じRATまたは異なるRATを用いる、他のRATとの直接または間接通信であることが認識されよう。例えば、E−UTRA無線技術を利用できるRAN103/104/105に接続されることに加えて、コアネットワーク106/107/109はまた、GSM無線技術を用いた別のRAN(図示せず)と通信することもできる。
コアネットワーク106/107/109はまた、WTRU102a、102b、102cおよび/または102dがPSTN108、インターネット110、および/または他のネットワーク112にアクセスするためのゲートウェイとして機能することもできる。PSTN108は、旧来の音声電話サービス(POST)を提供する回線交換電話網を含むことができる。インターネット110は、TCP/IPインターネットプロトコルスイートにおける伝送制御プロトコル(TCP)、ユーザデータグラムプロトコル(UDP)およびインターネットプロトコル(IP)など共通の通信プロトコルを使用して相互接続されたコンピュータネットワークおよびデバイスのグローバルシステムを含むことができる。ネットワーク112は、他のサービスプロバイダによって所有および/または運用される有線または無線通信ネットワークを含むことができる。例えば、ネットワーク112は、RAN103/104/105と同じRATまたは異なるRATを用いることができる、1または複数のRANに接続された別のコアネットワークを含むことができる。
通信システム100内のWTRU102a、102b、102cおよび/または102dの一部またはすべては、マルチモード能力を含むことができる。即ち、WTRU102a、102b、102cおよび/または102dは、異なる無線リンクを介して異なる無線ネットワークと通信する複数のトランシーバを含むことができる。例えば、図10Aに示したWTRU102cは、セルベースの無線技術を用いることができる基地局114aと、IEEE802無線技術を用いることができる基地局114bとの通信を行うように構成され得る。
図10Bは、例示的なWTRU102のシステム図を示している。図1Bに示すように、WTRU102は、プロセッサ118、トランシーバ120、送信/受信要素122、スピーカ/マイクロフォン124、キーパッド126、ディスプレイ/タッチパッド128、ノンリムーバブルメモリ130、リムーバブルメモリ132、電源134、全地球測位システム(GPS)チップセット136、および他の周辺機器138を含むことができる。WTRU102は、実施形態と整合性を保った上で、上述の要素の任意の組み合わせを含むことができることが認識されよう。また、実施形態は、基地局114aおよび114b、および/または基地局114aおよび114bが、限定されるわけではないが、とりわけトランシーバ基地局(BTS)、ノードB、サイトコントローラ、アクセスポイント(AP)、ホームノードB、発展型ホームノードB(eノードB)、ホーム発展型ノードB(HeNB)、ホーム発展型ノードBゲートウェイ、およびプロキシノードを表すことができるノードが、図10Bおよび本明細書で説明される要素の一部またはすべてを含むことができることを企図する。
プロセッサ118は、汎用プロセッサ、専用プロセッサ、従来型プロセッサ、デジタル信号プロセッサ(DSP)、複数のマイクロプロセッサ、DSPコアと連動する1または複数のマイクロプロセッサ、コントローラ、マイクロコントローラ、特定用途向け集積回路(ASIC)、現場プログラム可能ゲートアレイ(FPGA)回路、その他のタイプの集積回路(IC)、ステートマシンなどである。プロセッサ118は、信号コーディング、データ処理、電力制御、入力/出力処理、および/またはWTRU102が無線環境で動作可能にさせるその他の機能性を遂行できる。プロセッサ118をトランシーバ120に結合でき、そのトランシーバを送信/受信要素122に結合できる。図10Bは、プロセッサ118とトランシーバ120とを個別のコンポーネントとして示しているが、プロセッサ118とトランシーバ120とを電子パッケージまたはチップ内にまとめることができることが認識されよう。
送信/受信要素122は、エアインタフェース115/116/117を介して基地局(例えば、基地局114a)に信号を送信する、または基地局から信号を受信するように構成され得る。例えば、一実施形態において、送信/受信要素122は、RF信号を送信および/または受信するように構成されたアンテナである。別の実施形態において、送信/受信要素122は、例えば、IR、UV、または可視光線信号を送信および/または受信するように構成されたエミッタ/検出器である。さらに別の実施形態において、送信/受信要素122は、RF信号と光信号との両方を送受信するように構成され得る。送信/受信要素122は、無線信号の任意の組み合わせを送信および/または受信するように構成され得ることが認識されよう。
さらに、送信/受信要素122を単一要素として図10Bに示しているが、WTRU102は、任意の数の送信/受信要素122を含むことができる。より詳細には、WTRU102は、MIMO技術を用いることができる。従って、一実施形態において、WTRU102は、エアインタフェース115/116/117を介して無線信号を送受信する2または3以上の送信/受信要素122(例えば、複数のアンテナ)を含むことができる。
トランシーバ120は、送信/受信要素122によって送信される信号を変調して、送信/受信要素122によって受信された信号を復調するように構成され得る。上述のように、WTRU102は、マルチモード能力を有することができる、従って、トランシーバ120は、WTRU102が、例えば、UTRAおよびIEEE802.11など複数のRAT経由で通信することを可能にする複数のトランシーバを含むことができる。
WTRU102のプロセッサ118は、スピーカ/マイクロフォン124、キーパッド126、および/またはディスプレイ/タッチパッド128(例えば、液晶ディスプレイ(LCD)表示ユニットまたは有機発光ダイオード(OLED)表示ユニット)に結合されて、それらからユーザ入力データを受信できる。プロセッサ118はまた、スピーカ/マイクロフォン124、キーパッド126、および/またはディスプレイ/タッチパッド128にユーザデータを出力することもできる。さらに、プロセッサ118は、ノンリムーバブルメモリ130および/またはリムーバブルメモリ132など適した任意のタイプのメモリからの情報にアクセスして、それらのメモリにデータを記憶できる。ノンリムーバブルメモリ130は、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、ハードディスク、またはその他のタイプのメモリ記憶デバイスを含むことができる。リムーバブルメモリ132は、契約者識別モジュール(SIM)カード、メモリスティック、セキュアデジタル(SD)メモリカードなどを含むことができる。他の実施形態において、プロセッサ118は、サーバまたはホームコンピュータ(図示せず)など物理的にWTRU102に置かれていないメモリからの情報にアクセスして、それらのメモリにデータを記憶できる。
プロセッサ118は、電源134から電力を受け取ることができ、その電力をWTRU102内の他のコンポーネントに分散および/または制御するように構成され得る。電源134は、WTRU102に電力供給するのに適した任意のデバイスである。例えば、電源134は、1または複数の乾電池(例えば、ニッケルカドミウム(NiCd)、ニッケル亜鉛(NiZn)、ニッケル水素(NiMH)、リチウムイオン(Li−ion)その他)、太陽電池、燃料電池などを含むことができる。
プロセッサ118はまた、GPSチップセット136を、WTRU102の現在の位置に関する位置情報(例えば、経緯度)を提供するように構成され得る、GPSチップセット136にも結合され得る。追加または代替として、GPSチップセット136からの情報により、WTRU102は、基地局(例えば、基地局114a、114b)からエアインタフェース115/116/117を介して位置情報を受信し、および/または2または3以上の近隣の基地局から受信される信号のタイミングに基づいてWTRUの位置を判定できる。WTRU102は、実施形態と整合性を保った上で、適した任意の位置判定方法によって位置情報を獲得できることが認識されよう。
プロセッサ118は、付加的な特徴、機能性および/または有線または無線接続性を提供する、1または複数のソフトウェアモジュールおよび/またはハードウェアモジュールを含むことができる、他の周辺機器138にさらに結合され得る。例えば、周辺機器138は、加速度計、電子コンパス、衛星トランシーバ、デジタルカメラ(写真またはビデオ用)、ユニバーサルシリアルバス(USB)ポート、振動デバイス、テレビトランシーバ、ハンズフリーヘッドセット、Bluetooth(登録商標)モジュール、周波数変調(FM)無線ユニット、デジタル音楽プレーヤ、メディアプレーヤ、ビデオゲームプレーヤモジュール、インターネットブラウザなどを含むことができる。
図10Cは、実施形態に従ったRAN103およびコアネットワーク106のシステム図を示している。上述のように、RAN103は、UTRA無線技術を用いて、エアインタフェース115を介してWTRU102a、102bおよび/または102cと通信できる。RAN103はさらに、コアネットワーク106とも通信できる。図10Cに示すように、RAN103は、エアインタフェース115を介してWTRU102a、102bおよび/または102cと通信するための1または複数のトランシーバを含むことができる、ノードB140a、140bおよび/または140cを含むことができる。ノードB140a、140b、140cのそれぞれをRAN103内の特定のセル(図示せず)と関連付けることができる。RAN103はさらに、RNC142aおよび/または142bを含むこともできる。RAN103は、実施形態と整合性を保った上で、任意の数のノードBおよびRNCを含むことができることが認識されよう。
図10Cに示すように、ノードB140aおよび/または140bは、RNC142aと通信できる。さらに、ノードB140cは、RNC142bと通信できる。ノードB140a、140bおよび/または140cは、Iubインタフェース経由でそれぞれRNC142a、142bと通信できる。RNC142a、142bは、Iurインタフェース経由で互いに通信できる。142a、142bのそれぞれは、接続されているノードB140a、140bおよび/または140cのそれぞれを制御するように構成され得る。さらに、RNC142a、142bのそれぞれは、外ループ電力制御、読み込み制御、許可制御、パケットスケジューリング、ハンドオーバー制御、マクロダイバーシティ、セキュリティ関数、データ暗号化など他の機能性を実施するまたはサポートするように構成され得る。
図10Cに示したコアネットワーク106は、メディアゲートウェイ(MGW)144、モバイル交換センター(MSC)146、サービングGPRSサポートノード(SGSN)148、および/またはゲートウェイGPRSサポートノード(GGSN)150を含むことができる。上述した要素のそれぞれをコアネットワーク106の一部として示しているが、これらの要素のいずれも、コアネットワーク通信業者以外のエンティティによって所有および/または運用可能であることが認識されよう。
RAN103内のRNC142aをIuCSインタフェース経由でコアネットワーク106内のMSC146に接続できる。MSC146をMGW144に接続できる。MSC146およびMGW144は、WTRU102a、102bおよび/または102cにPSTN108などの回路交換ネットワークへのアクセスを提供して、WTRU102a、102bおよび/または102cと従来の固定電話回線による通信デバイスとの間の通信を容易にすることができる。
RAN103内のRNC142aはまた、IuPSインタフェース経由でコアネットワーク106内のSGSN148にも接続され得る。SGSN148をGCSN150に接続できる。SGSN148およびGCSN150は、WTRU102a、102bおよび/または102cにインターネット110などパケット交換ネットワークへのアクセスを提供して、WTRU102a、102b、102cとIP対応(IP-enabled)デバイスとの間の通信を容易にすることができる。
上述のように、コアネットワーク106はまた、他のサービスプロバイダによって所有および/または運用される他の有線または無線ネットワークを含むことができる、ネットワーク112にも接続され得る。
図10Dは、別の実施形態に従ったRAN104およびコアネットワーク107のシステム図を示している。上述のように、RAN104は、E−UTRA無線技術を用いて、エアインタフェース116を介してWTRU102a、102bおよび/または102cと通信できる。RAN104はまた、コアネットワーク107とも通信できる。
RAN104は、eノードB160a、160bおよび/または160cを含むことができるが、RAN104は、実施形態と整合性を保った上で、任意の数のeノードBを含むことができることが認識されよう。eノードB160a、160bおよび/または160cはそれぞれ、エアインタフェース116を介してWTRU102a、102bおよび/または102cと通信するための1または複数のトランシーバを含むことができる。一実施形態において、eノードB160a、160bおよび/または160cは、MIMO技術を実装できる。従って、eノードB160aは、例えば、WTRU102aに無線信号を送信し、そしてそのWTRUから無線信号を受信するための複数のアンテナを使用できる。
eノードB160a、160bおよび/または160cのそれぞれを特定のセル(図示せず)と関連付けることができ、そして無線リソース管理決定、ハンドオーバー決定、アップリンクおよび/またはダウンリンクのユーザのスケジューリングなどを処理するように構成できる。図10Dに示すように、eノードB160a、160bおよび/または160cは、X2インタフェースを介して互いに通信できる。
図10Dに示したコアネットワーク107は、MMEモビリティ管理ゲートウェイ(MME)162、サービングゲートウェイ164、およびパケットデータネットワーク(PDN)ゲートウェイ166を含むことができる。上述した要素のそれぞれをコアネットワーク107の一部として示しているが、これらの要素のいずれもコアネットワーク通信業者以外のエンティティによって所有および/または運用可能であることが認識されよう。
MME162をS1インタフェース経由でRAN104内のeノードB160a、160bおよび/または160cのそれぞれに接続でき、制御ノードとして機能できる。例えば、MME162は、WTRU102a、102bおよび/または102cのユーザを認証すること、ベアラのアクティブ化/非アクティブ化、WTRU102a、102b、102cの初期接続(initial attach)時に特定のサービングゲートウェイを選択することその他に関与することができる。MME162はまた、RAN104と、GSMまたはWCDMAなどの他の無線技術を用いる他のRAN(図示せず)とを切り替える制御プレーン機能を提供することもできる。
サービングゲートウェイ164をS1インタフェース経由でRAN104内のeノードB160a、160bおよび/または160cのそれぞれに接続できる。サービングゲートウェイ164は一般に、WTRU102a、102bおよび/または102cへの/からのユーザデータパケットをルートしてフォワードできる。サービングゲートウェイ164は、eノードB間のハンドオーバー時にユーザプレーンをアンカーすること、ダウンリンクデータがWTRU102a、102bおよび/または102cに使用可能になった時にページングをトリガすること、WTRU102a、102bおよび/または102cのコンテキストを管理して記憶することその他など他の機能も遂行できる。
サービングゲートウェイ164はまた、WTRU102a、102bおよび/または102cにインターネット110などの、パケット交換ネットワークへのアクセスを提供して、WTRU102a、102bおよび/または102cとIP対応(IP-enabled)デバイスとの間の通信を容易にすることができる、PDNゲートウェイ166にも接続され得る。
コアネットワーク107は、他のネットワークとの通信を容易にすることができる。例えば、コアネットワーク107は、WTRU102a、102bおよび/または102cにPSTN108などの回路交換ネットワークへのアクセスを提供して、WTRU102a、102bおよび/または102cと従来の固定電話回線による通信デバイスとの間の通信を容易にすることができる。例えば、コアネットワーク107は、コアネットワーク107とPSTN108との間のインタフェースとして機能するIPゲートウェイ(例えば、IPマルチメディアサブシステム(IMS)サーバ)を含むことができるか、またはこれと通信できる。さらに、コアネットワーク107は、他のサービスプロバイダによって所有および/または運用される他の有線または無線通信ネットワークを含むことができる、ネットワーク112へのアクセスをWTRU102a、102bおよび/または102cに提供できる。
図10Eは、別の実施形態に従ったRAN105およびコアネットワーク109のシステム図を示している。RAN105は、IEEE802.16無線技術を用いて、エアインタフェース117を介してWTRU102a、102bおよび/または102cと通信するアクセスサービスネットワーク(ASN)である。以下にさらに論じられるように、WTRU102a、102bおよび/または102cの異なる機能エンティティとRAN105とコアネットワーク109との間の通信リンクを参照ポイントとして定義できる。
図10Eに示すように、RAN105は、基地局180a、180bおよび/または180cおよびASNゲートウェイ182を含むことができるが、RAN105は、実施形態と整合性を保った上で、任意の数の基地局およびASNゲートウェイを含むことができることが認識されよう。基地局180a、180bおよび/または180cをそれぞれ、RAN105内の特定のセル(図示せず)と関連付けることができ、そしてそれぞれは、エアインタフェース117を介してWTRU102a、102bおよび/または102cと通信するための1または複数のトランシーバを含むことができる。一実施形態において、基地局180a、180bおよび/または180cは、MIMO技術を実装できる。従って、基地局180aは、例えば、WTRU102aに無線信号を送信する、およびそのWTRUから無線信号を受信するための複数のアンテナを使用できる。基地局180a、180b、180cはさらに、ハンドオフトリガリング、トンネル確立、無線リソース管理、トラフィック分類、サービス品質(QoS)ポリシー強制その他などモビリティ管理機能を提供することもできる。ASNゲートウェイ182は、トラフィック集合ポイントとして機能でき、そしてページング、加入者プロファイルのキャッシング、コアネットワーク109へのルーティングその他に関与することができる。
WTRU102a、102bおよび/または102cとRAN105との間のエアインタフェース117は、IEEE802.16仕様を実装するR1参照ポイントとして定義され得る。さらに、WTRU102a、102bおよび/または102cのそれぞれは、コアネットワーク109との論理インタフェース(図示せず)を確立できる。WTRU102a、102bおよび/または102cとコアネットワーク109との間の論理インタフェースは、認証、承認、IPホスト構成管理、および/またはモビリティ管理に使用できる、R2参照ポイントとして定義され得る。
基地局180a、180bおよび/または180cのそれぞれの間の通信リンクは、WTRUハンドオーバーおよび基地局間のデータ転送を容易にするためのプロトコルを含むR8参照ポイントとして定義できる。基地局180a、180bおよび/または180cとASNゲートウェイ182との間の通信リンクをR6参照ポイントとして定義され得る。R6参照ポイントは、WTRU102a、102bおよび/または102cのそれぞれと関連付けられるモビリティイベントに基づいてモビリティ管理を容易にするためのプロトコルを含むことができる。
図10Eに示すように、RAN105をコアネットワーク109に接続できる。RAN105とコアネットワーク109との間の通信リンクは、例えば、データ転送およびモビリティ管理能力を容易にするためのプロトコルを含むR3参照ポイントとして定義できる。コアネットワーク109は、モバイルIPホームエージェント(MIP−HA)184、認証、承認、アカウンティング(AAA)サーバ186、およびゲートウェイ188を含むことができる。上述した要素のそれぞれをコアネットワーク109の一部として示しているが、これらの要素のいずれもコアネットワーク通信業者以外のエンティティによって所有および/または運用可能であることが認識されよう。
MIP−HAは、IPアドレス管理に関与することができ、そしてWTRU102a、102bおよび/または102cが、異なるASNおよび/または異なるコアネットワーク間でロームすることを可能にできる。MIP−HA184は、WTRU102a、102bおよび/または102cにインターネット110などパケット交換ネットワークへのアクセスを提供して、WTRU102a、102bおよび/または102cとIP対応の(IP-enabled)デバイスとの間の通信を容易にすることができる。AAAサーバ186は、ユーザ認証およびユーザサービスのサポートに関与することができる。ゲートウェイ188は、他のネットワークとの相互作用を容易にすることができる。例えば、ゲートウェイ188は、WTRU102a、102bおよび/または102cにPSTN108など回路交換ネットワークへのアクセスを提供して、WTRU102a、102bおよび/または102cと従来の固定電話回線による通信デバイスとの間の通信を容易にすることができる。さらに、ゲートウェイ188は、他のサービスプロバイダによって所有および/または運用される他の有線または無線ネットワークを含むことができる、ネットワーク112へのアクセスをWTRU102a、102bおよび/または102cに提供できる。
図10Eに示していないが、RAN105を他のASNに接続でき、およびコアネットワーク109を他のコアネットワークに接続できることを認識されたい、および/または認識されよう。RAN105と他のASNとの間の通信リンクは、RAN105と他のASNとの間のWTRU102a、102bおよび/または102cのモビリティを調整するためのプロトコルを含むことができる、R4参照ポイントとして定義され得る。コアネットワーク109と他のコアネットワークとの間の通信リンクは、ホームコアネットワークと移動してきた(visited)コアネットワークとの間の相互作用を容易にするためのプロトコルを含むことができる、R5参照ポイントとして定義され得る。
特定の組み合わせにおいて特徴および要素を上述しているが、各特徴または要素は、単独で、または他の特徴および要素との任意の組み合わせにおいて使用できることが当業者には認識されよう。さらに、本明細書で説明される方法は、コンピュータまたはプロセッサによって実行するためのコンピュータ可読媒体に組み込まれるコンピュータプログラム、ソフトウェア、またはファームウェアに実装され得る。コンピュータ可読媒体の例は、(有線および/または無線接続を介して送信される)電子信号および/またはコンピュータ可読記憶媒体を含む。コンピュータ可読記憶媒体の例は、限定されるわけではないが、リードオンリーメモリ(ROM)、ランダムアクセスメモリ(RAM)、レジスタ、キャッシュメモリ、半導体メモリデバイス、内部ハードディスクおよびリムーバブルディスクなどの磁気媒体、光磁気媒体、およびCD−ROMディスク、およびデジタル多用途ディスク(DVD)など光媒体を含む。ソフトウェアと連動するプロセッサを使用して、WTRU、UE、端末機、基地局、RNC、および/または任意のホストコンピュータで使用するための無線周波数トランシーバを実装することができる。

Claims (13)

  1. 複数のセグメントに分割された色マッピングテーブルを受信することであり、セグメントは色空間の一部に対応し、セグメントは複数の頂点を有する、ことと、
    1のセグメントの第1の頂点が復号化されたかどうかを、前記第1の頂点と関連付けられた頂点符号化追跡インジケータに基づいて、決定することであって、前記頂点符号化追跡インジケータは、前記第1の頂点が復号化されたかどうかを示す、ことと、
    前記第1の頂点がまだ復号化されてないという決定に基づいて、前記第1の頂点を解析することと
    を含む方法。
  2. 前記第1の頂点の頂点インデックスを得ることと、
    前記第1の頂点の前記頂点インデックスに基づいて、前記第1の頂点と関連付けられた前記頂点符号化追跡インジケータの値を決定することであり、前記第1の頂点が復号化されたかどうかは前記第1の頂点と関連づけられた前記頂点符号化追跡インジケータの前記値に基づいて決定される、ことと、
    をさらに含む、請求項1に記載の方法。
  3. 前記色マッピングテーブルは複数の頂点を含み、各セグメントは前記複数の頂点のサブセットと関連付けられ、前記複数の頂点の少なくとも1つは1つより多いセグメントと関連付けられ、前記方法は、
    前記色空間における前記第1の頂点の位置に基づいて、前記第1の頂点を一意に識別する頂点インデックスを得ることであり、前記第1の頂点が復号化されたかどうかを決定することは前記第1の頂点の前記得られた頂点インデックスに基づいて前記第1の頂点が復号化されたかどうかを決定することを含む、こと
    をさらに含む、請求項1に記載の方法。
  4. 析すると前記第1の頂点を復号化し、前記第1の頂点と関連付けられた前記頂点符号化追跡インジケータを、前記第1の頂点が復号化されたことを示す値に設定すること
    をさらに含む、請求項1に記載の方法。
  5. 記第1のセグメントの第2の頂点が復号化されたかどうかを、前記第2の頂点と関連付けられた頂点符号化追跡インジケータに基づいて、決定することであり、前記第2の頂点と関連付けられた前記頂点符号化追跡インジケータは、前記第2の頂点が符号化されたかどうかを示す、決定することと、
    前記第2の頂点が復号化されたという決定に基づいて、前記第2の頂点を解析することを迂回することと
    をさらに含む、請求項1に記載の方法。
  6. 前記第1の頂点と関連付けられた色マッピング係数パラメータは色マッピング係数残差値を示前記第1の頂点を解析することは前記第1の頂点と関連付けられた前記色マッピング係数パラメータを解析することを含む、請求項1に記載の方法。
  7. 前記第1のセグメントは前記色空間のオクタントである、請求項1に記載の方法。
  8. 複数のセグメントに分割された色マッピングテーブルを受信し、セグメントは色空間の一部に対応し、セグメントは複数の頂点を有し、
    第1のセグメントの第1の頂点が復号化されたかどうかを、前記第1の頂点と関連付けられた頂点符号化追跡インジケータに基づいて、決定し、前記頂点符号化追跡インジケータは、前記第1の頂点が復号化されたかどうかを示し、
    前記第1の頂点がまだ復号化されてないという決定に基づいて、前記第1の頂点を解析する
    ように構成されたプロセッサ
    を備えたビデオ復号化デバイス。
  9. 前記プロセッサは
    前記第1の頂点の頂点インデックスを得て、
    前記第1の頂点の前記頂点インデックスに基づいて、前記第1の頂点と関連付けられた前記頂点符号化追跡インジケータの値を決定し、前記第1の頂点が復号化されたかどうかは前記第1の頂点と関連づけられた前記頂点符号化追跡インジケータの前記値に基づいて決定される、
    ようにさらに構成されている、請求項に記載のビデオ復号化デバイス。
  10. 前記色マッピングテーブルは複数の頂点を含み、各セグメントは前記複数の頂点のサブセットと関連付けられ、前記複数の頂点の少なくとも1つは1つより多いセグメントと関連付けられ、前記プロセッサは、
    前記色空間における前記第1の頂点の位置に基づいて、前記第1の頂点を一意に識別する頂点インデックスを得るようにさらに構成され、前記第1の頂点が復号化されたかどうかを決定することは前記第1の頂点の前記得られた頂点インデックスに基づいて前記第1の頂点が復号化されたかどうかを決定することを含む、請求項に記載のビデオ復号化デバイス。
  11. 前記プロセッサは、
    前記第1の頂点を解析すると、前記第1の頂点と関連付けられた前記頂点符号化追跡インジケータを、前記第1の頂点が復号化されたことを示す値に設定する
    ようにさらに構成されている、請求項に記載のビデオ復号化デバイス。
  12. 前記プロセッサは、
    記第1のセグメントの第2の頂点が復号化されたかどうかを、前記第2の頂点と関連付けられた頂点符号化追跡インジケータに基づいて、決定し、前記第2の頂点と関連付けられた前記頂点符号化追跡インジケータは、前記第2の頂点が符号化されたかどうかを示し、
    前記第2の頂点が復号化されたという決定に基づいて、前記第2の頂点を解析することを迂回する
    ようにさらに構成されている、請求項に記載のビデオ復号化デバイス。
  13. 前記第1の頂点と関連付けられた色マッピング係数パラメータは色マッピング係数残差値を示前記第1の頂点を解析することは前記第1の頂点と関連付けられた前記色マッピング係数パラメータを解析することを含む、請求項に記載のビデオ復号化デバイス。
JP2018229354A 2013-09-20 2018-12-06 3dルックアップテーブル符号化に色域スケーラビリティを提供するシステムおよび方法 Expired - Fee Related JP6701310B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201361880715P 2013-09-20 2013-09-20
US61/880,715 2013-09-20

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016544028A Division JP6449892B2 (ja) 2013-09-20 2014-09-19 3dルックアップテーブル符号化に色域スケーラビリティを提供するシステムおよび方法

Publications (2)

Publication Number Publication Date
JP2019068451A JP2019068451A (ja) 2019-04-25
JP6701310B2 true JP6701310B2 (ja) 2020-05-27

Family

ID=51691147

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2016544028A Active JP6449892B2 (ja) 2013-09-20 2014-09-19 3dルックアップテーブル符号化に色域スケーラビリティを提供するシステムおよび方法
JP2018229354A Expired - Fee Related JP6701310B2 (ja) 2013-09-20 2018-12-06 3dルックアップテーブル符号化に色域スケーラビリティを提供するシステムおよび方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2016544028A Active JP6449892B2 (ja) 2013-09-20 2014-09-19 3dルックアップテーブル符号化に色域スケーラビリティを提供するシステムおよび方法

Country Status (9)

Country Link
US (3) US9955174B2 (ja)
EP (2) EP3386179A1 (ja)
JP (2) JP6449892B2 (ja)
KR (2) KR102028186B1 (ja)
CN (2) CN105556943B (ja)
DK (1) DK3047639T3 (ja)
HK (1) HK1222075A1 (ja)
RU (1) RU2016115055A (ja)
WO (1) WO2015042432A1 (ja)

Families Citing this family (79)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230165873A (ko) 2013-04-08 2023-12-05 돌비 인터네셔널 에이비 Lut를 인코딩하는 방법, lut를 디코딩하는 방법 및 대응하는 장치들
RU2016115055A (ru) * 2013-09-20 2017-10-25 Вид Скейл, Инк. Системы и способы обеспечения кодирования 3d справочной таблицы для масштабируемости цветовой гаммы
US9948916B2 (en) 2013-10-14 2018-04-17 Qualcomm Incorporated Three-dimensional lookup table based color gamut scalability in multi-layer video coding
CN108337519B (zh) 2013-12-13 2021-12-03 Vid拓展公司 视频编码设备及方法
US10531105B2 (en) 2013-12-17 2020-01-07 Qualcomm Incorporated Signaling partition information for 3D lookup table for color gamut scalability in multi-layer video coding
US9756337B2 (en) 2013-12-17 2017-09-05 Qualcomm Incorporated Signaling color values for 3D lookup table for color gamut scalability in multi-layer video coding
US20160286224A1 (en) * 2015-03-26 2016-09-29 Thomson Licensing Method and apparatus for generating color mapping parameters for video encoding
SG11201701137SA (en) 2015-05-15 2017-03-30 Hewlett Packard Development Co Printer cartridges and memory devices containing compressed multi-dimensional color tables
JP6872098B2 (ja) * 2015-11-12 2021-05-19 ソニーグループ株式会社 情報処理装置、情報記録媒体、および情報処理方法、並びにプログラム
US9992382B2 (en) 2016-07-08 2018-06-05 Hewlett-Packard Development Company, L.P. Color table compression
US10674043B2 (en) 2016-07-08 2020-06-02 Hewlett-Packard Development Company, L.P. Color table compression
EP3459236B1 (en) 2016-07-08 2021-04-21 Hewlett-Packard Development Company, L.P. Color look up table compression
DE112016007098T5 (de) * 2016-07-26 2019-04-18 Hewlett-Packard Development Company, L.P. Indexierung von voxeln für das 3d-drucken
JP6769231B2 (ja) * 2016-10-17 2020-10-14 富士通株式会社 動画像符号化装置、動画像符号化方法、動画像復号装置、動画像復号方法、及び動画像符号化用コンピュータプログラムならびに動画像復号用コンピュータプログラム
EP3367659A1 (en) * 2017-02-28 2018-08-29 Thomson Licensing Hue changing color gamut mapping
US10805646B2 (en) * 2018-06-22 2020-10-13 Apple Inc. Point cloud geometry compression using octrees and binary arithmetic encoding with adaptive look-up tables
US10861196B2 (en) 2017-09-14 2020-12-08 Apple Inc. Point cloud compression
US11818401B2 (en) 2017-09-14 2023-11-14 Apple Inc. Point cloud geometry compression using octrees and binary arithmetic encoding with adaptive look-up tables
US10897269B2 (en) 2017-09-14 2021-01-19 Apple Inc. Hierarchical point cloud compression
US10909725B2 (en) 2017-09-18 2021-02-02 Apple Inc. Point cloud compression
US11113845B2 (en) 2017-09-18 2021-09-07 Apple Inc. Point cloud compression using non-cubic projections and masks
EP3467777A1 (en) * 2017-10-06 2019-04-10 Thomson Licensing A method and apparatus for encoding/decoding the colors of a point cloud representing a 3d object
US10607373B2 (en) 2017-11-22 2020-03-31 Apple Inc. Point cloud compression with closed-loop color conversion
CA3090465A1 (en) * 2018-02-08 2019-08-15 Panasonic Intellectual Property Corporation Of America Three-dimensional data encoding method, three-dimensional data decoding method, three-dimensional data encoding device, and three-dimensional data decoding device
US11010928B2 (en) 2018-04-10 2021-05-18 Apple Inc. Adaptive distance based point cloud compression
US10939129B2 (en) 2018-04-10 2021-03-02 Apple Inc. Point cloud compression
US10909726B2 (en) 2018-04-10 2021-02-02 Apple Inc. Point cloud compression
US10909727B2 (en) 2018-04-10 2021-02-02 Apple Inc. Hierarchical point cloud compression with smoothing
EP3779886A4 (en) * 2018-04-10 2021-06-16 Panasonic Intellectual Property Corporation of America TRIMDIMENSIONAL DATA CODING AND DECODING PROCESS AND TRIDMENSIONAL DATA ENCODING AND DECODING DEVICE
US11405004B2 (en) 2018-06-05 2022-08-02 Telefonaktiebolaget Lm Ericsson (Publ) Low-power approximate DPD actuator for 5G-new radio
EP3804129A1 (en) 2018-06-05 2021-04-14 Telefonaktiebolaget LM Ericsson (publ) Digital predistortion low power implementation
WO2019234612A1 (en) 2018-06-05 2019-12-12 Beijing Bytedance Network Technology Co., Ltd. Partition tree with four sub-blocks symmetric or asymmetric
SG11202012293RA (en) 2018-06-29 2021-01-28 Beijing Bytedance Network Technology Co Ltd Update of look up table: fifo, constrained fifo
EP3791586A1 (en) 2018-06-29 2021-03-17 Beijing Bytedance Network Technology Co. Ltd. Concept of using one or multiple look up tables to store motion information of previously coded in order and use them to code following blocks
CN110662043B (zh) 2018-06-29 2021-12-21 北京字节跳动网络技术有限公司 一种用于处理视频数据的方法、装置和计算机可读介质
EP4322533A3 (en) 2018-06-29 2024-03-06 Beijing Bytedance Network Technology Co., Ltd. Checking order of motion candidates in lut
TWI731360B (zh) 2018-06-29 2021-06-21 大陸商北京字節跳動網絡技術有限公司 查找表的使用條件
TWI728390B (zh) 2018-06-29 2021-05-21 大陸商北京字節跳動網絡技術有限公司 查找表尺寸
CN110662052B (zh) 2018-06-29 2022-07-08 北京字节跳动网络技术有限公司 更新查找表(lut)的条件
EP3791585A1 (en) 2018-06-29 2021-03-17 Beijing Bytedance Network Technology Co. Ltd. Partial/full pruning when adding a hmvp candidate to merge/amvp
US11017566B1 (en) 2018-07-02 2021-05-25 Apple Inc. Point cloud compression with adaptive filtering
WO2020008349A1 (en) 2018-07-02 2020-01-09 Beijing Bytedance Network Technology Co., Ltd. Merge index coding
US11202098B2 (en) 2018-07-05 2021-12-14 Apple Inc. Point cloud compression with multi-resolution video encoding
US11012713B2 (en) 2018-07-12 2021-05-18 Apple Inc. Bit stream structure for compressed point cloud data
US10771797B2 (en) * 2018-07-30 2020-09-08 Logmein, Inc. Enhancing a chroma-subsampled video stream
WO2020053800A1 (en) 2018-09-12 2020-03-19 Beijing Bytedance Network Technology Co., Ltd. How many hmvp candidates to be checked
US11367224B2 (en) 2018-10-02 2022-06-21 Apple Inc. Occupancy map block-to-patch information compression
EP3672244B1 (en) 2018-12-20 2020-10-28 Axis AB Methods and devices for encoding and decoding a sequence of image frames in which the privacy of an object is protected
EP3901916A4 (en) * 2018-12-21 2022-02-23 Panasonic Intellectual Property Corporation of America THREE-DIMENSIONAL DATA CODING METHOD, THREE-DIMENSIONAL DATA DECODING METHOD, THREE-DIMENSIONAL DATA CODING DEVICE AND THREE-DIMENSIONAL DATA DECODING DEVICE
JP7275286B2 (ja) 2019-01-10 2023-05-17 北京字節跳動網絡技術有限公司 Lut更新の起動
WO2020143824A1 (en) 2019-01-13 2020-07-16 Beijing Bytedance Network Technology Co., Ltd. Interaction between lut and shared merge list
WO2020147772A1 (en) 2019-01-16 2020-07-23 Beijing Bytedance Network Technology Co., Ltd. Motion candidates derivation
WO2020192611A1 (en) 2019-03-22 2020-10-01 Beijing Bytedance Network Technology Co., Ltd. Interaction between merge list construction and other tools
US11057564B2 (en) 2019-03-28 2021-07-06 Apple Inc. Multiple layer flexure for supporting a moving image sensor
KR20230165888A (ko) * 2019-04-02 2023-12-05 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 양방향 광학 흐름 기반 비디오 코딩 및 디코딩
WO2020211866A1 (en) 2019-04-19 2020-10-22 Beijing Bytedance Network Technology Co., Ltd. Applicability of prediction refinement with optical flow process
CN113711609B (zh) 2019-04-19 2023-12-01 北京字节跳动网络技术有限公司 利用光流的预测细化过程中的增量运动矢量
CN113728630B (zh) 2019-04-19 2023-11-17 北京字节跳动网络技术有限公司 不同运动矢量细化中的基于区域的梯度计算
CN114009024B (zh) 2019-06-21 2024-04-02 北京字节跳动网络技术有限公司 视频编解码中自适应环内颜色空间变换的选择性启用
US10970882B2 (en) * 2019-07-24 2021-04-06 At&T Intellectual Property I, L.P. Method for scalable volumetric video coding
US10979692B2 (en) 2019-08-14 2021-04-13 At&T Intellectual Property I, L.P. System and method for streaming visible portions of volumetric video
CN114365490B (zh) 2019-09-09 2024-06-18 北京字节跳动网络技术有限公司 高精度图像和视频编解码的系数缩放
EP4018648A4 (en) 2019-09-21 2022-11-23 Beijing Bytedance Network Technology Co., Ltd. HIGH PRECISION TRANSFORMATION AND QUANTIZATION FOR IMAGE AND VIDEO CODING
US11562507B2 (en) 2019-09-27 2023-01-24 Apple Inc. Point cloud compression using video encoding with time consistent patches
US11627314B2 (en) 2019-09-27 2023-04-11 Apple Inc. Video-based point cloud compression with non-normative smoothing
US11538196B2 (en) 2019-10-02 2022-12-27 Apple Inc. Predictive coding for point cloud compression
US11895307B2 (en) 2019-10-04 2024-02-06 Apple Inc. Block-based predictive coding for point cloud compression
CN110781932B (zh) * 2019-10-14 2022-03-11 国家广播电视总局广播电视科学研究院 一种多类别图像转换与对比的超高清片源色域检测方法
WO2021086021A1 (ko) * 2019-10-28 2021-05-06 엘지전자 주식회사 적응적 변환을 이용한 영상 부호화/복호화 방법, 장치 및 비트스트림을 전송하는 방법
WO2021086022A1 (ko) * 2019-10-28 2021-05-06 엘지전자 주식회사 적응적 색상 변환을 이용한 영상 부호화/복호화 방법, 장치 및 비트스트림을 전송하는 방법
WO2021086023A1 (ko) * 2019-10-28 2021-05-06 엘지전자 주식회사 적응적 변환을 이용하여 레지듀얼 처리를 수행하는 영상 부호화/복호화 방법, 장치 및 비트스트림을 전송하는 방법
CN115152219A (zh) 2019-11-07 2022-10-04 抖音视界有限公司 视频编解码的自适应环内颜色空间变换的量化特性
CN114930827A (zh) 2019-11-22 2022-08-19 Lg电子株式会社 使用无损颜色变换的图像编码/解码方法和装置及比特流发送方法
US11798196B2 (en) 2020-01-08 2023-10-24 Apple Inc. Video-based point cloud compression with predicted patches
US11625866B2 (en) 2020-01-09 2023-04-11 Apple Inc. Geometry encoding using octrees and predictive trees
US11620768B2 (en) 2020-06-24 2023-04-04 Apple Inc. Point cloud geometry compression using octrees with multiple scan orders
US11615557B2 (en) 2020-06-24 2023-03-28 Apple Inc. Point cloud compression using octrees with slicing
US11948338B1 (en) 2021-03-29 2024-04-02 Apple Inc. 3D volumetric content encoding using 2D videos and simplified 3D meshes
CN114363702B (zh) * 2021-12-28 2023-09-08 上海网达软件股份有限公司 Sdr视频转换为hdr视频的方法、装置、设备及存储介质

Family Cites Families (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2899461B2 (ja) 1990-12-20 1999-06-02 株式会社リコー 色信号補間方法、色信号補間装置および色補正方法
US5583656A (en) 1992-12-31 1996-12-10 Eastman Kodak Company Methods and apparatus for attaching compressed look-up table (LUT) representations of N to M-dimensional transforms to image data and for processing image data utilizing the attached compressed LUTs
US5504821A (en) 1993-03-31 1996-04-02 Matsushita Electric Industrial Co., Ltd. Color converting apparatus for performing a three-dimensional color conversion of a colored picture in a color space with a small capacity of memory
US5737032A (en) 1995-09-05 1998-04-07 Videotek, Inc. Serial digital video processing with concurrent adjustment in RGB and luminance/color difference
KR100189908B1 (ko) 1996-05-06 1999-06-01 윤종용 2차원 색도분할을 이용한 색보정장치 및 그 방법
US6400843B1 (en) * 1999-04-22 2002-06-04 Seiko Epson Corporation Color image reproduction with accurate inside-gamut colors and enhanced outside-gamut colors
US6301393B1 (en) * 2000-01-21 2001-10-09 Eastman Kodak Company Using a residual image formed from a clipped limited color gamut digital image to represent an extended color gamut digital image
RU2190306C2 (ru) 2000-05-10 2002-09-27 Государственное унитарное предприятие "Калужский научно-исследовательский институт телемеханических устройств" Способ обработки цветного полутонового изображения с использованием векторной диффузии ошибки цвета и устройство для его осуществления
US7929610B2 (en) 2001-03-26 2011-04-19 Sharp Kabushiki Kaisha Methods and systems for reducing blocking artifacts with reduced complexity for spatially-scalable video coding
US7643675B2 (en) 2003-08-01 2010-01-05 Microsoft Corporation Strategies for processing image information using a color information data structure
KR100552695B1 (ko) 2003-11-20 2006-02-20 삼성전자주식회사 칼라영상의 색조절방법 및 장치
US7659911B2 (en) 2004-04-21 2010-02-09 Andreas Wittenstein Method and apparatus for lossless and minimal-loss color conversion
CN101005620B (zh) 2004-09-03 2011-08-10 微软公司 为隔行扫描和逐行扫描视频编码和解码宏块和运动信息中的革新
US7755817B2 (en) * 2004-12-07 2010-07-13 Chimei Innolux Corporation Color gamut mapping
JP4477675B2 (ja) 2005-01-26 2010-06-09 キヤノン株式会社 色処理装置およびその方法
US7961963B2 (en) 2005-03-18 2011-06-14 Sharp Laboratories Of America, Inc. Methods and systems for extended spatial scalability with picture-level adaptation
CN1859576A (zh) 2005-10-11 2006-11-08 华为技术有限公司 对空间分层编码视频图象的上采样方法及其***
JP5039142B2 (ja) 2006-10-25 2012-10-03 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン 品質スケーラブルな符号化方法
US8233536B2 (en) 2007-01-23 2012-07-31 Sharp Laboratories Of America, Inc. Methods and systems for multiplication-free inter-layer image prediction
JP2008211310A (ja) 2007-02-23 2008-09-11 Seiko Epson Corp 画像処理装置および画像表示装置
JP4996501B2 (ja) * 2007-04-06 2012-08-08 キヤノン株式会社 多次元データの符号化装置及び復号装置並びにその制御方法
US8237990B2 (en) * 2007-06-28 2012-08-07 Adobe Systems Incorporated System and method for converting over-range colors
US8625676B2 (en) * 2007-06-29 2014-01-07 Pai Kung Limited Liability Company Video bitstream decoding using least square estimates
US7684084B2 (en) * 2007-09-25 2010-03-23 Xerox Corporation Multiple dimensional color conversion to minimize interpolation error
WO2012122423A1 (en) * 2011-03-10 2012-09-13 Dolby Laboratories Licensing Corporation Pre-processing for bitdepth and color format scalable video coding
US8169434B2 (en) * 2008-09-29 2012-05-01 Microsoft Corporation Octree construction on graphics processing units
JP2012520045A (ja) 2009-03-09 2012-08-30 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 多原色変換
US8860745B2 (en) * 2009-06-01 2014-10-14 Stmicroelectronics, Inc. System and method for color gamut mapping
US9185422B2 (en) * 2010-07-15 2015-11-10 Qualcomm Incorporated Variable localized bit-depth increase for fixed-point transforms in video coding
JP5663093B2 (ja) * 2010-10-01 2015-02-04 ドルビー ラボラトリーズ ライセンシング コーポレイション 参照ピクチャー処理のための最適化されたフィルタ選択
CN101977316B (zh) 2010-10-27 2012-07-25 无锡中星微电子有限公司 一种可伸缩编码方法
UA109312C2 (uk) 2011-03-04 2015-08-10 Імпульсно-кодова модуляція з квантуванням при кодуванні відеоінформації
GB2495468B (en) * 2011-09-02 2017-12-13 Skype Video coding
US11184623B2 (en) * 2011-09-26 2021-11-23 Texas Instruments Incorporated Method and system for lossless coding mode in video coding
KR20130068823A (ko) 2011-12-16 2013-06-26 삼성전자주식회사 영상 신호 처리를 위한 방법 및 장치
US9756353B2 (en) * 2012-01-09 2017-09-05 Dolby Laboratories Licensing Corporation Hybrid reference picture reconstruction method for single and multiple layered video coding systems
US9673936B2 (en) * 2013-03-15 2017-06-06 Google Inc. Method and system for providing error correction to low-latency streaming video
KR20230165873A (ko) 2013-04-08 2023-12-05 돌비 인터네셔널 에이비 Lut를 인코딩하는 방법, lut를 디코딩하는 방법 및 대응하는 장치들
RU2016115055A (ru) * 2013-09-20 2017-10-25 Вид Скейл, Инк. Системы и способы обеспечения кодирования 3d справочной таблицы для масштабируемости цветовой гаммы
US9756337B2 (en) * 2013-12-17 2017-09-05 Qualcomm Incorporated Signaling color values for 3D lookup table for color gamut scalability in multi-layer video coding
MX2016012130A (es) * 2014-03-19 2017-04-27 Arris Entpr Inc Codificacion escalable de secuencias de video utilizando mapeo de tonos y diferentes gamas de colores.
JP6330507B2 (ja) * 2014-06-19 2018-05-30 ソニー株式会社 画像処理装置及び画像処理方法

Also Published As

Publication number Publication date
CN105556943B (zh) 2019-03-29
CN105556943A (zh) 2016-05-04
JP2019068451A (ja) 2019-04-25
US20180213241A1 (en) 2018-07-26
JP2016534679A (ja) 2016-11-04
RU2016115055A (ru) 2017-10-25
DK3047639T3 (en) 2018-10-15
US20190356925A1 (en) 2019-11-21
US10390029B2 (en) 2019-08-20
WO2015042432A1 (en) 2015-03-26
KR20160058163A (ko) 2016-05-24
EP3047639B1 (en) 2018-07-18
KR102028186B1 (ko) 2019-10-02
EP3386179A1 (en) 2018-10-10
US20160295219A1 (en) 2016-10-06
CN110033494A (zh) 2019-07-19
JP6449892B2 (ja) 2019-01-09
KR20190112854A (ko) 2019-10-07
EP3047639A1 (en) 2016-07-27
US9955174B2 (en) 2018-04-24
HK1222075A1 (zh) 2017-06-16

Similar Documents

Publication Publication Date Title
JP6701310B2 (ja) 3dルックアップテーブル符号化に色域スケーラビリティを提供するシステムおよび方法
US10841615B2 (en) Systems and methods for model parameter optimization in three dimensional based color mapping
JP7448572B2 (ja) マルチレイヤビデオコーディングのコンバインドスケーラビリティ処理
JP6574223B2 (ja) 複数レイヤビデオ符号化のためのコーデックアーキテクチャ
EP3090540B1 (en) Color space conversion

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190107

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191119

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200303

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200331

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200501

R150 Certificate of patent or registration of utility model

Ref document number: 6701310

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees