JP2000228768A - デジタル信号伝送装置および方法、並びに提供媒体 - Google Patents
デジタル信号伝送装置および方法、並びに提供媒体Info
- Publication number
- JP2000228768A JP2000228768A JP2937799A JP2937799A JP2000228768A JP 2000228768 A JP2000228768 A JP 2000228768A JP 2937799 A JP2937799 A JP 2937799A JP 2937799 A JP2937799 A JP 2937799A JP 2000228768 A JP2000228768 A JP 2000228768A
- Authority
- JP
- Japan
- Prior art keywords
- data
- picture
- function
- mpeg
- encoded
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
て、画像データを迅速に処理できるようにする。 【解決手段】 MPEGビデオエンコーダ42Aは、エンコ
ードしたビデオデータのエレメンタリストリームに、画
像の符号化順序と表示順序を表すPicture OrderInforma
tionを重畳し、SDTI-CPインタフェース46を介して、
同一スタジオ内のSDTI-CPネットワークに伝送する。TS
MUX/DEMUX61は、SDTI-CPインタフェース46,51を
介して、エレメンタリストリームの供給を受けたとき、
そこに含まれているPicture Order Informationを抽出
し、それに基づいてタイムスタンプを生成し、トランス
ポートストリームに重畳して、他のスタジオに伝送す
る。
Description
装置および方法、並びに提供媒体に関し、特に、異なる
スタジオ間で画像を送受信し、処理する場合において、
送受信する画像信号のシステム全体における遅延量をで
きるだけ少なくするようにした、デジタル信号伝送装置
および方法、並びに提供媒体に関する。
送する場合、ISO/IEC11172(MPEG-1)もしくはISO/IEC13
818(MPEG-2)に示されている符号化方式が用いられるこ
とが多い。画像信号を、MPEG(Moving Picture Experts
Group)方式で符号化する場合の技術として、コーディ
ングフェーズ(coding phase)と両方向予測があげられ
る。
枚の画像の画素エリア1のうち、符号化が行われる範囲
としての有効画素エリア2を規定するためのコードであ
り、具体的には、全てのラインのうち、有効画素エリア
2の最初のライン(図1のV-phase[line]の矢印で示
されたライン)、および、全てのサンプル(画素)のう
ち、有効画素エリア2の最初のラインの最初のサンプル
(図1のH-phase[sample]の矢印で示されたサンプル
(画素))を示すものである。画素エリア1の最後のラ
インを、V-Phase[Lmax]とし、画素エリア1のラインの
最後のサンプル(画素)を、H-Phase[Smax]とすると
き、符号化は、例えば、垂直方向に、V-Phase[line]か
ら、(V-Phase[Lmax] - V-Phase[line]+1)までの範囲
で行われ、水平方向に、H-Phase[sample]から、(H-Pha
se[Smax]-H - Phase[sample]+1)までの範囲で行われ
る。
ョン受像機などの画像信号において、図1の画像信号の
フレームは、図2に示すように、2枚のフィールド(図
2のフィールド1およびフィールド2)から構成されて
いる。フィールド1には、例えば、奇数ラインのデータ
が表示され、フィールド2には偶数ラインのデータが表
示される。2枚のフィールドは、それぞれ、補助データ
(ancillary data)と、画像(イメージ)データ(imag
e data)から構成されている。
字放送用のテレテキストデータ、タイムコード、または
映画などの字幕のクローズドキャプションデータに利用
され、ブランキング区間(例えば、各フィールドの第1
0ライン乃至第22ライン)(図2においては、いずれ
のフィールドも、そのフィールド内の上から順番の番号
でラインが表されている)のうちの所定のラインに挿入
されている。一般に、各フィールドの第23ラインより
図中下に位置するラインの部分(実際に、画像として表
示される部分)は、画像データとして、MPEG方式などに
より符号化される。
のみ適用され、coding phase、および補助データについ
ては、MPEGの規格には、特に明確に記述(規定)されて
いない。そのため、coding phaseは、自由度を有し、様
々なアプリケーションによって異なっている。
するときのシステム構成を、図3を参照して説明する。
アプリケーションAの画像データは、アプリケーション
A用MPEGエンコーダ11で符号化され、エレメンタリス
トリーム(ES)として出力され、アプリケーションA用
MPEGデコーダ12で復号される。アプリケーションBの
画像データは、アプリケーションB用MPEGエンコーダ1
3で符号化され、エレメンタリストリーム(ES)として
出力され、アプリケーションB用MPEGデコーダ14で復
号される。
タは、そのアプリケーション専用のエンコーダ(例え
ば、アプリケーションA用MPEGエンコーダ11)で符号
化され、エレメンタリストリーム(ES)として、そのア
プリケーションに対応した専用のデコーダ(例えば、ア
プリケーションA用MPEGデコーダ12)に出力される。
専用デコーダに入力されたエレメンタリストリーム(E
S)は、そのデコーダが有している、そのアプリケーシ
ョンのcoding phaseに関する情報に基づき、復号され
る。
伝送方式について、図4を参照して説明する。画像信号
は、MPEGエンコーダ21に入力され、分離部21におい
て、画像データと補助データに分離される。MPEGエンコ
ード部23は、画像データをMPEG符号化する。補助デー
タは、可変長符号化部24で、MPEGエンコード部23よ
り出力されたMPEG方式のトランスポートストリーム中の
user dataに挿入される。このトランスポートストリー
ム中のuser dataは、符号化された画像データ(ピクチ
ャ)単位に挿入(記述)できるため、補助データは、対
応する各符号化画像データのフレームのuser dataごと
に挿入される。
トランスポートストリームは、所定の伝送路を介して伝
送され、MPEGデコーダ25に入力される。MPEGデコーダ
25内の可変長復号部26は、補助データと画像データ
とを分離する。画像データはMPEGデコード部27で復号
され、合成部28で補助データと合成されて、画像信号
として、図示せぬ表示装置に出力される。
両方向予測に基づいて生成された符号化画像データのピ
クチャはBピクチャと称される。Bピクチャは、時間的
に前または後に位置する2枚の参照画像データから予測
されて生成される。前方予測に基づいて生成された符号
化画像データのピクチャはPピクチャと称される。Pピ
クチャは、時間的に前に位置する1枚の参照画像データ
から予測されて生成される。予測が行われず、そのまま
画像データが符号化(イントラ符号化)された符号化画
像データのピクチャはIピクチャと称される。つまり、
入力された画像データは、Bピクチャ、Pピクチャ、ま
たはIピクチャのいずれかの符号化画像データに符号化
される。
を参照して説明する。図5の例では、1つのGOP(Group
of Picture)が、9枚のピクチャから構成されてい
る。図5の上段は、符号化画像データが生成されるとき
の、予測の方向(依存関係)を示す予測構造を表してお
り、図5の下段は、実際に画像データが符号化される順
序を示す符号化構造を表している。Bピクチャ、または
Pピクチャは、時間的に前または後の画像データから予
測されて生成されるために、Bピクチャ、またはPピク
チャだけでは、符号化を行うことはできない。すなわ
ち、Bピクチャ、またはPピクチャは、参照画像データ
との差分をデータとする符号化画像データであるので、
Bピクチャ、またはPピクチャだけでは、画像データを
復号することもできない。
と、例えば、GOP(N-1)において、表示順序が先頭のBピ
クチャは、先頭から3番目のIピクチャと、図示されて
いないGOP(N-2)(GOP(N-1)の直前のGOP)の最後のPピ
クチャから予測されて符号化される。先頭から2番目の
Bピクチャも同様に、先頭から3番目のIピクチャと、
図示されていないGOP(N-2)の最後のPピクチャから予測
されて符号化される。先頭から3番目のIピクチャは、
そのまま符号化(イントラ符号化)される。先頭から4
番目、および5番目のBピクチャは、先頭から3番目の
Iピクチャと先頭から6番目のPピクチャから予測され
て符号化される。先頭から6番目のPピクチャは、先頭
から3番目のIピクチャから予測されて符号化される。
(例えば、先頭のBピクチャと先頭から2番目のBピク
チャ)が符号化されるには、予測の参照画像データ(例
えば、3番目のIピクチャとGOP(N-2)の最後のPピクチ
ャ)が、先に符号化されている必要がある。すなわち、
図5の下段に示すような、符号化構造の順番で符号化さ
れなければならない。そのため、MPEGエンコーダは、符
号化(エンコード)時、IピクチャとPピクチャの間に
存在する、2枚の連続したBピクチャを符号化するため
に必要な参照画像データ(先頭から3番目のIピクチ
ャ)が入力されるまで、2枚のBピクチャをバッファリ
ングする(Iピクチャが入力されるまで、符号化の開始
を遅延させる)必要がある。このバッファリングによ
り、MPEGエンコーダにおいて、入力された画像信号を符
号化するとき、参照画像データに挟まれたBピクチャの
枚数(=2)+1枚(合計3枚)の遅延時間が発生す
る。
について、図6を参照して、さらに詳細に説明する。図
6の上段はMPEGエンコーダ31における、入力画像(画
像データ)の入力順番(表示順序)とその種別を表して
おり、図6の中段は、入力画像(画像データ)が符号化
された符号化画像データの順番を表している。
チャが入力されるまで(Bピクチャの枚数(=2)+1
枚分の時間だけ)、時刻t1に入力されたIピクチャの
符号化を遅延させる(前述のバッファリングを行う)。
すなわち、MPEGエンコーダ31は、時刻t4で時刻t1
に入力されたIピクチャを符号化し、時刻t5で時刻t
4に入力されたPピクチャを符号化し、時刻t6で時刻
t2に入力されたBピクチャを符号化し、時刻t7で時
刻t3に入力されたBピクチャを符号化する。その後、
MPEGエンコーダ31は、入力画像を図6の中段の符号化
画像データの順番で、順次、符号化する。
画像に対して、予測に必要な参照画像データから順次符
号化する。つまり、MPEGエンコーダ31において、入力
画像(画像データ)は、入力画像の順番から、符号化さ
れる画像の順番に並べ変えられ、図6の中段に示すよう
に、入力画像が符号化された順番にビットストリームと
して、MPEGデコーダ32に出力される。
と表示される順番は一致しないので、MPEGにおいては、
符号化順序を表すDTS(Decoding Time Stamp)と、表示
順序を表すPTS(Presentation Time Stamp)が、トラン
スポートストリーム中に挿入されるようになされてい
る。入力画像の符号化順序と表示順序の関係をさらに説
明すると、いま、符号化順序をフレーム単位で表すもの
とすると、図6に示すように、入力画像は符号化される
順番で付番され、時刻t4で符号化されたIピクチャの
符号化順序の値は”1”となり、時刻t5で符号化され
たPピクチャの符号化順序の値は”2”となり、時刻t
6で符号化されたBピクチャの符号化順序の値は”3”
となる。以下、同様に符号化される順番に符号化順序が
付番される。DTSはフレーム単位で符号化順序を表して
いるわけではないが、ほぼ、この符号化順序に対応す
る。DTSはまた、ビットストリームを音声信号などと多
重化して出力するとき、MPEGデコーダ32において、復
号する順番として使用される。
される順番(入力画像データの順番と同じ)となる。具
体的には、時刻t4で符号化されるIピクチャ(符号化
順序=1)の表示順序は、時刻t5でPピクチャ(符号
化順序=2)が符号化されるときに表示されなければな
らないので、そのPピクチャの符号化順序と同じ値”
2”となる。時刻t5で符号化されるPピクチャ(符号
化順序=2)の表示順序は、時刻t8でPピクチャ(符
号化順序=5)が符号化されるとき表示されなければな
らないので、そのPピクチャの符号化順序と同じ値”
5”となる。時刻t6で符号化されるBピクチャ(符号
化順序=3)は、符号化されると、直ちに復号されて表
示されなければならないので、符号化順序と表示順序は
同一となり、表示順序の値は”3”となる。時刻t7で
符号化されるBピクチャ(符号化順序=4)も同様に、
表示順序=符号化順序=4となる。PTSはフレーム単位
で表示順序を表しているわけではないが、ほぼ、この表
示順序に対応する。PTSはまた、MPEGデコーダ32にお
いて、復号後、出力(表示)する順番として使用され
る。
する2枚のIピクチャもしくはPピクチャのうち、最初
の1枚目は、2枚目が復号されるとき、表示される。例
えば、MPEGエンコーダ31が出力したビットストリーム
中の符号化画像データの1枚目のIピクチャ(符号化順
序=1,表示順序=2)と、2枚目のPピクチャ(符号
化順序=2,表示順序=5)は、符号化順序が連続して
おり、2枚目のPピクチャが符号化されるとき(時刻t
5のとき)、1枚目のIピクチャが復号されて表示され
る。
画像(画像データ)の予測構造(参照画像データに挟ま
れているBピクチャの枚数)を知っているので、画像デ
ータに符号化順序(DTS)と表示順序(PTS)を付番する
ことができる。
ステム構成で、MPEG符号化されたビットストリームを伝
送することが考えられている。スタジオ41内のMPEGエ
ンコーダ42、MPEGエンコーダ43、MPEGデコーダ4
4、およびMPEGデコーダ45は、それぞれ、SDTI-CP(S
erial Data Transfer Interface - Content Package)
インタフェース46乃至49を介して、SDTI-CPネット
ワーク(例えば、同軸ケーブルにより構成されるネット
ワーク)50に接続される。SDTI-CPネットワーク50
は、SDI(Serial Data Interface)をベースとした27
0Mbpsの伝送速度を有し、MPEG方式のエレメンタリスト
リーム(ES)をそのまま伝送することが可能であり、ス
タジオ内のような閉じたネットワークに適している。
コーダ42は、MPEG符号化されたエレメンタリストリー
ム(ES)を、SDTI-CPネットワーク50を介して、MPEG
デコーダ44、MPEGデコーダ45に伝送することができ
る。
るエレメンタリストリーム(ES)は、図8に示す構造と
なっており、画像信号のフレーム単位で、画像データ
(図8において薄い影を付けた部分)と音声データ(図
8において濃い影を付けた部分)がパッキングされてお
り、フレームシンク(図8の点線)により区切られたフ
レーム境界で、簡単に編集を行うことができる。このエ
レメンタリストリーム(ES)における画像データと音声
データは、イントラ(フレーム内符号化)処理されたデ
ータである。
のMPEGエンコーダ42,43とMPEGデコーダ44,45
が、SDTI-CPインタフェース46乃至49を介して、SDT
I-CPネットワーク50に接続されており、図3に示した
ような、アプリケーションごとに専用のエンコーダ(例
えば、アプリケーションA用MPEGエンコーダ11)とデ
コーダ(例えば、アプリケーションA用MPEGデコーダ1
2)が1対1に対応するシステムとは構成が異なってい
る。すなわち、デコーダ(例えば、図7のMPEGデコーダ
44)は、エンコーダ(例えば、図7のMPEGエンコーダ
42またはMPEGエンコーダ43)で、様々なアプリケー
ションの画像信号が符号化された、エレメンタリストリ
ーム(ES)を受け取ることができる。
成に対応させた図9を参照して説明すると、アプリケー
ションA用MPEGエンコーダ42で符号化されたエレメン
タリストリーム(ES)と、アプリケーションB用MPEGエ
ンコーダ43で符号化されたエレメンタリストリーム
(ES)は、それぞれSDTI-CPインタフェース46,47
に入力される。SDTI-CPインタフェース46,47は、
それぞれMPEG符号化されたエレメンタリストリーム(E
S)を、SDTIフォーマットのエレメンタリストリーム(E
S)に変換して、SDTI-CPネットワーク50を介して伝送
する。SDTI-CPインタフェース48は、SDTIフォーマッ
トのエレメンタリストリーム(ES)を、MPEG符号化され
たエレメンタリストリーム(ES)に変換し、MPEGデコー
ダ44に出力する。
アプリケーションA用のエレメンタリストリーム(ES)
とアプリケーションB用のエレメンタリストリーム(E
S)を復号する。
トリーム中のuser dataに挿入される場合、補助データ
は、対応する符号化画像のフレーム単位で挿入されるた
め、その挿入は1フレーム(2フィールド)ごととな
る。
理(例えば、24Hzのフレームレートを持つ映画の画像
信号を、30Hzのフレームレートを持つNTSC方式の画像
信号に変換する処理)された信号である場合、その信号
は、図10に示すように、24Hzの各フレームを、交互
に、リピートフィールドが作成されていない2フィール
ドのフレーム、またはリピートフィールドが作成されて
いる3フィールドのフレームとすることで、30Hzの信
号とされている。
−2プルダウン処理により30Hzのフレームレートに変
換された画像信号が入力されたとき、フィールドの繰り
返しを検出して、元の24Hzの符号化フレーム単位で符
号化を行い、その処理に対応して、フラグ(Repeat_fir
st_field,Top_field_first)を生成する。
リピートフィールドが作成されたことを意味し、Repeat
_first_fieldのフラグの”0”は、リピートフィールド
が作成されていないことを意味する。Top_field_first
のフラグは、フレームを構成するフィールドのうち、最
初のフィールドがトップフィールドであるのか、または
ボトムフィールドであるのかを表している。Top_field_
firstのフラグの”1”は、トップフィールドがボトム
フィールドより時間的に早いフレーム構造であることを
表しており、Top_field_firstのフラグの”0”は、ボ
トムフィールドがトップフィールドより時間的に早いフ
レーム構造であることを表している。
3フィールドのフレームである場合、対応する1つの符
号化フレームには、同一位相の2枚のフィールド(3−
2プルダウン処理によりコピーにより生成されたフィー
ルドとそのコピー元のフィールド)が存在する。しかし
ながら、この元の1つのフレームを構成する3フィール
ドが符号化フレーム単位で符号化されるとき、各符号化
フレームごとの補助データは、符号化フレーム単位で、
1つの補助データとして、user dataに記述されるた
め、原信号の同一位相のフィールドに異なった補助デー
タが記述されていても、その異なった補助データを区別
することができなくなってしまう。
オで、MPEG方式でエンコードした画像を処理し、他のス
タジオにトランスポートストリームとして伝送し、他の
スタジオでも処理するような場合、画像データの伝送
は、符号化された順序で行う必要があるが、トランスポ
ートストリームとして画像データを伝送する装置は、通
常、符号化順序を知らないので、入力された画像データ
を一旦バッファリングし、符号化順序を知る必要があ
る。その結果、バッファリングのために画像データの供
給を受けてから、それを伝送するまでに時間がかかり、
迅速な処理、特に、リアルタイム処理が困難となる課題
があった。
ものであり、画像データを迅速に処理することができる
ようにするものである。
ル信号伝送装置は、画像信号の符号化順序と、画像信号
の表示順序に関する順序情報が、画像信号のアクセスユ
ニット単位で挿入されている第1のビットストリームを
受信する第1の受信手段と、第1の受信手段により受信
された第1のビットストリームから順序情報を抽出し、
抽出した順序情報に基づいてタイムスタンプを生成し、
第2のビットストリームに挿入して出力する第1の出力
手段とを含むことを特徴とする。
は、画像信号の符号化順序と、画像信号の表示順序に関
する順序情報が、画像信号のアクセスユニット単位で挿
入されている第1のビットストリームを受信する受信ス
テップと、受信ステップの処理で受信された第1のビッ
トストリームから順序情報を抽出し、抽出した順序情報
に基づいてタイムスタンプを生成し、第2のビットスト
リームに挿入して出力する出力ステップとを含むことを
特徴とする。
符号化順序と、画像信号の表示順序に関する順序情報
が、画像信号のアクセスユニット単位で挿入されている
第1のビットストリームを受信する受信ステップと、受
信ステップの処理で受信された第1のビットストリーム
から順序情報を抽出し、抽出した順序情報に基づいてタ
イムスタンプを生成し、第2のビットストリームに挿入
して出力する出力ステップとを含む処理をデジタル信号
伝送装置に実行させるコンピュータが読み取り可能なプ
ログラムを提供することを特徴とする。
請求項4に記載のデジタル信号伝送方法、および請求項
5に記載の提供媒体においては、受信された第1のビッ
トストリームから順序情報が抽出され、抽出した順序情
報に基づいてタイムスタンプが生成され、第2のビット
ストリームに挿入される。
置するスタジオ41とスタジオ71の間で、MPEG符号化
されたビットストリームを伝送するシステムの例を表し
ており、図7における場合と対応する部分には、同一の
符号を付してある。この例の場合、各スタジオ内のネッ
トワークを、多重化装置(以下、TS MUX/DEMUXと称す
る)を介して、衛星やATM(Asynchronous Transfer Mod
e)などの公衆網と接続することで、ビットストリーム
の伝送を行うことができる。スタジオ71のMPEGエンコ
ーダ72乃至SDTI-CPインタフェース79は、図7のス
タジオ41のMPEGエンコーダ42乃至SDTI-CPインタフ
ェース49に対応するものであるので、ここでは、その
説明を省略する。
ンタリストリーム(ES)は、図12に示すように、TS M
UX/DEMUX61により、188バイト単位のトランスポー
トストリーム(TS)に変換されて所定の伝送媒体を介し
て伝送され、伝送されたトランスポートストリーム(T
S)は、TS MUX/DEMUX62で、SDTIフォーマットのエレ
メンタリストリーム(ES)に変換される。なお、図12
において、薄い影を付けた部分は画像データのパケット
を示しており、濃い影を付けた部分は音声データのパケ
ットを示しており、影をつけていない部分は空きデータ
のパケットを示している。
ンコーダ42の出力するエレメンタリストリーム(ES)
が、TS MUX/DEMUX61でトランスポートストリーム(T
S)に変換されるまでを、図13を参照して説明する。M
PEGエンコーダ42内のMPEGビデオエンコーダ42A
は、MPEG符号化された画像データのエレメンタリストリ
ーム(ES)を、SDTI-CPインタフェース46に出力し、
オーディオエンコーダ42Bは、音声データのエレメン
タリストリーム(ES)を、SDTI-CPインタフェース46
に出力する。SDTI-CPインタフェース46は、入力され
たエレメンタリストリーム(ES)をSDTIベースのフォー
マットのエレメンタリストリーム(ES)に変換し、SDTI
-CPネットワーク50を介して、SDTI-CPインタフェース
51に出力する。SDTI-CPインタフェース51は、SDTI
フォーマットのESをMPEG符号化のエレメンタリストリ
ーム(ES)に変換し、TS MUX/DEMUX61に出力する。TS
MUX/DEMUX61は、MPEG符号化のエレメンタリストリー
ム(ES)を188バイト単位のトランスポートストリー
ム(TS)に変換して伝送媒体に出力する。
送されたトランスポートストリーム(TS)は、ATMなど
の公衆網を介して、TS MUX/DEMUX62に入力され、MPEG
符号化のエレメンタリストリーム(ES)に変換される。
SDTI-CPインタフェース81において、MPEG符号化され
たエレメンタリストリーム(ES)は、SDTIフォーマット
のエレメンタリストリーム(ES)に変換され、スタジオ
71のSDTI-CPネットワーク80に出力される。MPEGデ
コーダ74は、SDTI-CPインタフェース78を介して、
スタジオ21から伝送されたエレメンタリストリーム
(ES)を受信することができる。
とスタジオ71の間で、画像信号を伝送する場合、多重
化装置(例えば、図11のTS MUX/DEMUX61)には、画
像データが符号化されたエレメンタリストリーム(ES)
のみが入力されるので、多重化装置は、エンコーダ(例
えば、図11のMPEGエンコーダ42)において行われた
符号化順序の並べ変えの情報を知らない。このため、多
重化装置は、入力されたエレメンタリストリーム(ES)
を解釈して、エレメンタリストリーム(ES)をトランス
ポートストリーム(TS)に変換する処理をしなければな
らない。
理は、画像信号の符号化構造を把握する処理である。つ
まり、前述したエンコーダで入力画像をバッファリング
して符号化し、ビットストリームに変換するときと同様
の処理が、多重化装置でも必要となる。この多重化装置
におけるバッファリング処理により、後段での画像デー
タの復号までに遅延が発生し、リアルタイム処理が困難
になる。
上、問題となる遅延について、図14を用いて説明す
る。多重化装置に、図14に示す符号化順序で、エンコ
ーダで符号化されたビットストリームが入力された場
合、多重化装置は、2枚の連続したIピクチャ(時刻t
4)とPピクチャ(時刻t5)が入力された後、さらに
それらに挟まれた2枚のBピクチャ(時刻t6と時刻t
7)に続いてPピクチャ(時刻t8)が入力されるま
で、表示順序を確定することができない。つまり、多重
化装置は、図5に示したような符号化構造(Iピクチャ
とPピクチャの間に2枚のBピクチャが挟まれている構
造)を知らないので、2枚のBピクチャが入力され、そ
の次のPピクチャ(時刻t8)が入力されたとき(Bピ
クチャの入力が終了したことを確認したとき)、時刻t
4に入力されたIピクチャの表示順序(PTS)を確定す
ることができる。
刻t8になって初めて、符号化順序=1のIピクチャの
表示順序=2を確定することができる。このため、多重
化装置では、2枚の連続したIピクチャまたはPピクチ
ャ+2枚のBピクチャの出現周期(=4)の遅延が発生
する。この遅延は、エンコーダでの遅延とは別に新たに
発生するため、システム全体として、エンコーダの遅延
(=3)+多重化装置の遅延(=4)=7の大幅な遅延
が生じる。
示順序を含む順序情報を、PictureOrder Infoとしてエ
レメンタリストリームに重畳するようにしている。この
点のについては、後に詳述する。
ダ42の構成例を表している。MPEGエンコーダ42の分
離部101は、入力された画像信号から、画像データと
補助データを分離し、画像データをMPEGエンコード部1
03に出力し、補助データをエンコードコントローラ1
02に出力する。MPEGエンコード部103は、入力され
た画像データをMPEG方式により符号化するとともに、符
号化順序を示すDTS_counter、および表示順序を示すPTS
_counterを含むPOI(Picture Order Infomation)をエ
ンコードコントローラ102に出力する。また、MPEGエ
ンコード部103は、符号化した範囲の左上の位置(図
1の有効画素エリア2の左上の画素の位置)を表すコー
ディングフェーズ(Coding Phase(V-Phase,H-Phas
e))をエンコードコントローラ102に供給する。
101より供給された補助データに、それが属するフィ
ールドを識別するField IDと、それが挿入されているラ
インを表すLine_numberを付加し、その補助データと、M
PEGエンコード部103より供給されたPOI、およびCodi
ng Phase Information(CPI)を適宜処理し、user data
のフォーマットのデータとして、可変長符号化部104
に出力し、多重化させる。
部103より供給されたエンコードされた画像データを
可変長符号化するとともに、エンコードコントローラ1
02より供給されたuser dataを画像データのエレメン
タリストリームに挿入する。可変長符号化部104より
出力されたエレメンタリストリームは、送信バッファ1
05を介して出力される。
44の構成例を表している。受信バッファ111は、入
力されたデータを一旦バッファリングした後、可変長復
号部112に出力する。可変長復号部112は、入力さ
れたデータから、画像データとuser dataとを分離し、
画像データをMPEGデコード部114に出力し、user dat
aをデコードコントローラ113に出力する。デコード
コントローラ113は、user dataからPOIとCPIを分離
し、それらをMPEGデコード部114に出力する。また、
デコードコントローラ113は、user dataから分離し
た補助データを合成部115に出力する。MPEGデコード
部114は、可変長復号部112より入力された画像デ
ータを、デコードコントローラ113より入力されたPO
IとCPIを参照してデコードし、デコードした結果を合成
部115に出力している。合成部115は、デコードコ
ントローラ113より供給された補助データをMPEGデコ
ード部114より供給された画像データと合成し、出力
する。
ダ44の動作について説明する。
ストリーム(ES)に重畳して出力する動作を、図17を
参照して説明すると、アプリケーションA用MPEGエンコ
ーダ42は、アプリケーションAの画像信号を符号化し
たエレメンタリストリーム(ES)に、CPI(画像信号の
フォーマットにおける有効画素エリアを示すデータであ
るV-PhaseとH-Phase)をuser dataに記述して(図15
の可変長符号化部104がエンコードコントローラ10
2から出力されるCPIのデータをuser dataに記述し
て)、SDTI-CPインタフェース46に出力する。アプリ
ケーションB用MPEGエンコーダ43も、MPEGエ
ンコーダ42と同様に構成されており、アプリケーショ
ンBの画像信号を符号化したエレメンタリストリーム
(ES)に、CPIをuser dataとして記述して、SDTI-CPイ
ンタフェース47に出力する。
いて、図18を参照して説明する(他のSDTI-CPインタ
フェースも同様に構成されている)。復号部121は、
MPEGエンコーダ42から入力されたMPEG符号化されたエ
レメンタリストリーム(ES)を、符号化パラメータと画
像データに分離し、画像データを復号し、符号化パラメ
ータとともに符号化パラメータ多重化部122に出力す
る。符号化パラメータ多重化部122は、画像信号と符
号化パラメータから、SDTI-CPベースのエレメンタリス
トリーム(ES)を生成して出力する。
ースのエレメンタリストリーム(ES)が入力された場
合、符号化パラメータ分離部123は、エレメンタリス
トリーム(ES)から画像データと符号化パラメータを分
離して、それぞれ符号化部124に出力する。符号化部
124は、符号化パラメータを用いて、画像データを符
号化し、MPEG符号化されたエレメンタリストリーム(E
S)として出力するか、またはパケット化部125でMPE
G符号化されたトランスポートストリーム(TS)として
出力する。
G符号化されたエレメンタリストリーム(ES)を、SDTI
フォーマットのエレメンタリストリーム(ES)に変換し
て、SDTI-CPネットワーク50を介して、伝送する。SDT
I-CPインタフェース48は、SDTIフォーマットのエレメ
ンタリストリーム(ES)をMPEG符号化されたエレメンタ
リストリーム(ES)に変換し、MPEGデコーダ44に出力
する。
ーションAのエレメンタリストリーム(ES)またはアプ
リケーションBのエレメンタリストリーム(ES)を復号
し、それぞれのエレメンタリストリーム(ES)に記述さ
れている(図16のデコードコントローラ113が出力
する)CPIに基づいて、画像信号を有効画素エリアに配
置するように復号する。
符号化したアプリケーションの画像信号のCPIをMPEG符
号化されたエレメンタリストリーム(ES)中のuser dat
aに記述することにより、画像データとともに、CPIを伝
送することができる。また、MPEGエンコーダ42,43
は、CPIを伝送する機能を有することにより、様々なア
プリケーションを符号化して伝送することができる。
レメンタリストリーム(ES)に挿入されているCPIを分
離、解釈することにより、様々なCoding Phaseを有する
アプリケーションの画像を、適切に、有効画素エリアに
配置するように復号処理することができる。
Iを、MPEG符号化されたエレメンタリストリームのuser
dataに挿入したが、ビットストリームに他の方法で挿入
するようにしてもよい。
ィールドごとの複数の補助データを識別する動作につい
て、図19を参照して説明する。3−2プルダウン処理
が実施されている符号化フレームの原信号(30Hz)の
各フィールドに、補助データが挿入されているものとす
る。この補助データを有する原信号(30Hz)が、元の
フレームレートの符号化フレーム(24Hz)に符号化さ
れるとき、各符号化フレームに含まれる2つまたは3つ
のフィールドに記述されている補助データに、符号化さ
れたフィールドに対応した識別子が、field_ID(0乃至
2のカウンタの値)として付加されて(図15のエンコ
ードコントローラ102で補助データにfield_IDが付加
されて)、補助データともに伝送される。このfield_ID
が補助データに付加されることにより、補助データがど
の符号化フレーム内の、どのフィールドに対応したもの
であるかが識別される。
化フレームのフィールドの枚数は、2枚であるので、補
助データは2つ存在する。符号化フレームは2枚のフィ
ールドから生成され、その符号化フレームに対応する2
枚のフィールドの、それぞれの補助データに、field_ID
として、”0”または”1”が付加される。
ルドの枚数は、3枚であるので、補助データは3つ存在
する。符号化フレームは3枚のフィールドから生成さ
れ、その符号化フレームに対応する3枚のフィールド
の、それぞれの補助データに、field_IDとして、”
0”,”1”または”2”が付加される。
1つの補助データが生成されるのではなく、符号化フレ
ームに含まれていたフィールドの枚数と同じ数の補助デ
ータが生成され、それぞれにfield_IDが付加される。そ
の結果、同一の符号化フレームに含まれる複数の補助デ
ータは、付加されたfield_IDにより、符号化フレーム内
で識別されるので、それぞれの補助データに異なった情
報が含まれていても、識別できなくなることはない。
EGエンコード部103でエンコードされ、可変長符号化
部104で可変長符号化される。また、エンコードコン
トローラ102で補助データにfield_IDと、補助データ
が挿入されていたライン番号(Line_number)が付加さ
れ、エレメンタリストリーム中のuser data中に、ancil
lary dataとして挿入される。これにより、複数の補助
データを識別して伝送することができる。
エレメンタリストリーム中のuser dataが可変長復号部
112で分離され、デコードコントローラ113に供給
される。デコードコントローラ113は、user dataに
挿入されているancillary dataのfield_IDとLine_numbe
rに基づいて、複数の補助データを識別、分離し、合成
部115に出力する。合成部115は、MPEGデコード部
114で復号された画像データと、それに対応する補助
データ(テキストデータ)を合成し、出力する。
延を少なくするために、図20に示すような符号化順序
と表示順序を管理するPOIを生成する。
ード部103に入力された画像データが、3−2プルダ
ウン処理により、24Hzのフレームレートに変換された
画像信号である場合、図20(A)に示すようなフラグ
(Repeat_first_field,Top_field_first)により、各
フレームが管理される。
リピートフィールドを作成する必要があることを意味
し、Repeat_first_fieldのフラグの”0”は、リピート
フィールドを作成する必要がないことを意味する。Top_
field_firstのフラグは、フレームを構成するフィール
ドのうち、最初のフィールドがトップフィールドである
のか、またはボトムフィールドであるのかを表してい
る。Top_field_firstフラグの”1”は、トップフィー
ルドがボトムフィールドより時間的に早いフレーム構造
であることを表しており、Top_field_firstフラグの”
0”は、ボトムフィールドがトップフィールドより時間
的に早いフレーム構造であることを表している。
と、最初にMPEGエンコード部103に入力されるFrame
No1の符号化フレームの符号化画像データ種別は、Iピ
クチャであり、このIピクチャの2フィールド(トップ
フィールドとボトムフィールド)は、トップフィールド
をコピーしてリピートフィールドを作成することで、3
フィールドに変換する必要があるので、対応するRepeat
_first_fieldのフラグは”1”となり、Top_field_firs
tのフラグは”1”となる。
データ種別は、Bピクチャであり、このBピクチャに
は、リピートフィールドが生成する必要がないので、Re
peat_first_fieldのフラグは”0”とされ、ボトムフィ
ールドがトップフィールドより時間的に早いフレームで
あるため、Top_field_firstのフラグは”0”とされ
る。このときのTop_field_firstのフラグの値は、3−
2プルダウン処理には関係しない。
データ種別は、Bピクチャであり、Frame No3のBピク
チャでは、そのボトムフィールドをコピーしてリピート
フィールドが作成され、符号化フレームが3フィールド
に変換されている。従って、Repeat_first_fieldのフラ
グは”1”とされ、Top_field_firstのフラグは”0”
とされる。
データ種別は、Pピクチャであり、このPピクチャに対
しては、リピートフィールドが作成されておらず、Repe
at_first_fieldのフラグは”0”とされ、Top_field_fi
rstのフラグは1とされる。
に示すような3−2プルダウン処理が施された画像デー
タが入力されてきたとき、内蔵するカウンタPTS_counte
rでフィールドの数をカウントし、その値PTS_counterを
表示順序としてエンコードコントローラ102に出力す
る。カウンタPTS_counterは、0から127まで増加し
た後、再び0に戻るカウント動作を行う。従って、カウ
ンタPTS_counterの値は、図20(B)に示すように変
化する。
ame No1のIピクチャのPTS_counterの値は値”0”で
ある。先頭から2番目に入力されるFrame No2のBピク
チャのPTS_counterの値は、Frame No1のIピクチャのP
TS_counterの値”0”に、Pピクチャのフィールド数3
を加算した値”3”(=0+3)となる。
BピクチャのPTS_counterの値は、Frame No2のBピク
チャのPTS_counterの値”3”に、Bピクチャのフィー
ルド数2を加算した値”5”(=3+2)となる。先頭
から4番目に入力されるFrameNo4のPピクチャのPTS_c
ounterの値は、Frame No3のBピクチャのPTS_counter
の値”5”に、Bピクチャのフィールド数3を加算した
値”8”(=5+3)となる。Frame No5のBピクチャ
以降のPTS_counterの値も同様に算出される。
するカウンタDTS_counterでエンコードしたフレームを
計数し、計数した結果をエンドコントローラ102に出
力する。
ると、Frame No1のIピクチャのDTS_counterの値12
5は、Frame No1のIピクチャが表示される表示順序PT
S_counter=0を基準としたとき、1フレーム分の出現
周期前に符号化される必要がある(図14に対応させる
と、先頭のIピクチャの符号化順序の値は”1”であ
り、表示順序の値は”2”であり、符号化順序の値は表
示順序の値より1フレーム分早い必要がある)。つま
り、Iピクチャが3つのフィールドを持っているため、
DTS_counterの値は、0より3だけ前の値”125”(D
TS_counterは27(=128)のモジュロで表されるた
め、その値は0から127の間の値を循環する)とな
る。
るFrame No4のPピクチャのDTS_counterの値は、Frame
No1のIピクチャのDTS_counterの値125にIピクチ
ャのフィールド数3を加えた値0(=128=125+
3)となる。
る、Frame No2のBピクチャのDTS_counterの値は、B
ピクチャのためにPTS_counter=DTS_counterであり、PT
S_counterの値と同一とされ、その値は”3”となる。
同様に、Frame No2のBピクチャの次に符号化される、
Frame No3のBピクチャのDTS_counterの値も、PTS_cou
nterの値と同一とされ、その値は”5”とされる。以
下、Frame No7のPピクチャ以降のDTS_counterの値
も、同様に算出されるので、ここでは、その説明を省略
する。
ようなフラグRepeat_first_field,Top_field_first、
並びにカウンタPTS_counter,DTS_counterをPOIとし
て、エンコードコントローラ102に出力する。
るスタジオ41のMPEGエンコーダ42から、スタジオ7
1のMPEGデコーダ74に、SDTI-CPネットワーク50,
80、TS MUX/DEMUX61,62、およびATMのネットワ
ークを使用して、画像信号の伝送を行うシステムの、符
号化順序と表示順序について、図21を参照して説明す
る。
ーダ42Aは、MPEG符号化された画像データのエレメン
タリストリーム(ES)を出力するとともに、POIを、そ
のエレメンタリストリーム(ES)中のuser dataに挿入
する(図15のエンコードコントローラ102がPOIの
データをuser dataに記述し、可変長符号化部104に
出力して、多重化させる)。MPEGエンコーダ42内のオ
ーディオエンコーダ42Bは、音声データを符号化して
エレメンタリストリーム(ES)として出力する。SDTI-C
Pインタフェース46は、MPEGビデオエンコーダ42A
からのエレメンタリストリーム(ES)(POIを含んだス
トリーム)と、オーディオエンコーダ42Bからのエレ
メンタリストリーム(ES)を、SDTIフォーマットのエレ
メンタリストリームに変換して、SDTI-CPネットワーク
50に出力する。
たSDTIフォーマットのエレメンタリストリーム(ES)
を、MPEG符号化のエレメンタリストリーム(ES)に変換
し(図18を参照してSDTI-CPインタフェース46の動
作として説明したように)、TSMUX/DEMUX61に出力す
る。TS MUX/DEMUX61は、エレメンタリストリーム(E
S)に挿入されているPOIを参照して、PTS_counterの値
をPTS(Presentation TimeStamp)に、また、DTS_count
erの値をDTS(Decoding Time Stamp)に、それぞれ換算
し、多重化処理を行い、188バイト単位のパケットか
ら構成されるトランスポートストリーム(TS)を生成し
て出力する(従って、トランスポートストリーム(TS)
には、PTS_counterとDTS_counterではなく、PTSとDTSが
含まれる)。
ーム(ES)に挿入されているPOIを解釈することによ
り、前述のバッファリング処理を行うことなく、直ちに
多重化処理を行うことができ、TS MUX/DEMUX61におい
て、新たに遅延が発生することはない。また、POIはエ
レメンタリストリーム(ES)中に挿入されているため、
TS MUX/DEMUX61は、POIを後段に伝達するために、POI
をビットストリームに含ませる処理を行わなくてもよ
い。
公衆網を介して入力されたトランスポートストリーム
(TS)から画像データと音声データを分離して、MPEG符
号化のエレメンタリストリーム(ES)に変換する。TS M
UX/DEMUX62はまた、PTS,DTSをPTS_counter,DTS_cou
nterに換算して、エレメンタリストリームのuser data
に挿入し、SDTI-CPインタフェース81に出力する。SDT
I-CPインタフェース81は、MPEG符号化されたエレメン
タリストリーム(ES)をSDTIフォーマットのエレメンタ
リストリーム(ES)に変換し、スタジオ71のSDTI-CP
ネットワーク80に出力する。MPEGデコーダ74(MPEG
デコーダ44と同一の構成)は、SDTI-CPインタフェー
ス78を介して、伝送されてきた画像データと音声デー
タのエレメンタリストリーム(ES)を受信し、復号す
る。
同様に、エレメンタリストリーム(ES)に挿入されてい
るPOIを解釈して、前述のバッファリング処理を行うこ
となく、直ちに復号する(図16のデコードコントロー
ラ113が出力するPOIに基づき、MPEGデコード部11
4が画像データを復号する)ことができ、MPEGデコーダ
74において、新たに遅延が発生することはない。つま
り、MPEGビデオエンコーダ42Aが、MPEG符号化された
エレメンタリストリーム(ES)とともに、POIをエレメ
ンタリストリームに挿入して出力することにより、後段
のTS MUX/DEMUX61と、MPEGデコーダ74は、POIを解
釈して多重化処理、または復号処理を直ちに行うことが
でき、システム全体としての遅延を、MPEGエンコーダ4
2で生ずるBピクチャの枚数(=2)+1枚=3の遅延
のみに抑えることができる。すなわち、このような符号
化、多重化、および復号を含むシステムにおいて、理論
的に最も小さい遅延とすることができる。
18に示したSDTI-CPインタフェース46を用いること
により、SDTI-CPネットワーク50を使用して画像信号
を伝送するとき、スタジオ41の内部では、ビットスト
リームを、編集が容易で、短距離伝送に適したエレメン
タリストリーム(ES)の形態で伝送することが可能とな
り、離れたスタジオ間でATMなどの公衆網を使用して画
像信号を伝送するとき、ビットストリームを、長距離伝
送に適したトランスポートストリーム(TS)の形態で伝
送することが可能となる。
リームに挿入するようにしたが、TSMUX/DEMUX61とMPE
Gエンコーダ42の距離が近いような場合には、図22
に示すように、POIをMPEGエンコーダ42から、TS MUX/
DEMUX61に直接供給するようにしてもよい。
ンタリストリームを伝送するSDTI-CPネットワーク50
以外の配線処理が必要となる。
情報を、エレメンタリストリーム(ES)中のuser data
に記述して、多重化装置またはデコーダに出力すること
により、エンコーダのみが有していた情報(Coding Pha
se(V-PhaseとH-Phase)、Field_ID、符号化順序DTS_co
unter、および表示順序PTS_counter)を、エンコーダよ
り後段の多重化装置、デコーダに供給することができ
る。
ストリームのシンタックスについて説明する。
タックスを表わした図である。MPEGエンコーダ42は、
この図23に示されたシンタックスに従った符号化エレ
メンタリストリームを生成する。以下に説明するシンタ
ックスにおいて、関数や条件文は細活字で表わされ、デ
ータエレメントは、太活字で表されている。データ項目
は、その名称、ビット長およびそのタイプ・伝送順序を
示すニーモニック(Mnemonic)で記述されている。
クスにおいて使用されている関数について説明する。実
際には、この図23に示されているシンタックスは、MP
EGデコーダ44側において、伝送されてきた符号化ビッ
トストリームから所定の意味のあるデータエレメントを
抽出するために使用されるシンタックスである。MPEGエ
ンコーダ42側において使用されるシンタックスは、図
23に示されたシンタックスからif文やwhile文等の条
件文を省略したシンタックスである。
ているnext_start_code()関数は、ビットストリーム中
に記述されているスタートコードを探すための関数であ
る。この図23に示されたシンタックスに従って生成さ
れた符号化ストリームには、まず最初に、sequence_hea
der()関数とsequence_extension()関数によって定義さ
れたデータエレメントが記述されている。このsequence
_header()関数は、MPEGビットストリームのシーケンス
レイヤのヘッダデータを定義するための関数であって、
sequence_extension()関数は、MPEGビットストリームの
シーケンスレイヤの拡張データを定義するための関数で
ある。
ている do{ }while構文は、while文によって定義されて
いる条件が真である間、do文の{ }内の関数に基いて記
述されたデータエレメントが符号化データストリーム中
に記述されていることを示す構文である。このwhile文
に使用されているnextbits()関数は、ビットストリーム
中に記述されているビット又はビット列と、参照される
データエレメントとを比較するための関数である。この
図23に示されたシンタックスの例では、nextbits()関
数は、ビットストリーム中のビット列とビデオシーケン
スの終わりを示すsequence_end_codeとを比較し、ビッ
トストリーム中のビット列とsequence_end_codeとが一
致しないときに、このwhile文の条件が真となる。従っ
て、sequence_extension()関数の次に配置されている d
o{ }while構文は、ビットストリーム中に、ビデオシー
ケンスの終わりを示すsequence_end_codeが現れない
間、do文中の関数によって定義されたデータエレメント
が符号化ビットストリーム中に記述されていることを示
している。
ce_extension()関数によって定義された各データエレメ
ントの次には、extension_and_user_data(0)関数によっ
て定義されたデータエレメントが記述されている。この
extension_and_user_data(0)関数は、MPEGビットストリ
ームのシーケンスレイヤにおける拡張データとユーザデ
ータを定義するための関数である。
に配置されている do{ }while構文は、while文によって
定義されている条件が真である間、do文の{ }内の関数
に基いて記述されたデータエレメントが、ビットストリ
ームに記述されていることを示す関数である。このwhil
e文において使用されているnextbits()関数は、ビット
ストリーム中に現れるビット又はビット列と、picture_
start_code又はgroup_start_codeとの一致を判断するた
めの関数であるって、ビットストリーム中に現れるビッ
ト又はビット列と、picture_start_code又はgroup_star
t_codeとが一致する場合には、while文によって定義さ
れた条件が真となる。よって、このdo{ }while構文は、
符号化ビットストリーム中において、picture_start_co
de又はgroup_start_codeが現れた場合には、そのスター
トコードの次に、do文中の関数によって定義されたデー
タエレメントのコードが記述されていることを示してい
る。
符号化ビットストリーム中にgroup_start_codeが現れた
場合、という条件を示しいる。このif文による条件は真
である場合には、符号化ビットストリーム中には、この
group_start_codeの次にgroup_of_picture_header()関
数およびextension_and_user_data(1)関数によって定義
されているデータエレメントが順に記述されている。
PEG符号化ビットストリームのGOPレイヤのヘッダデータ
を定義するための関数であって、extension_and_user_d
ata(1)関数は、MPEG符号化ビットストリームのGOPレイ
ヤの拡張データおよびユーザデータを定義するための関
数である。
いて、group_of_picture_header()関数およびextension
_and_user_data(1)関数によって定義されているデータ
エレメントの次には、picture_header()関数とpicture_
coding_extension()関数によって定義されたデータエレ
メントが記述されている。もちろん、先に説明したif文
の条件が真とならない場合には、 group_of_picture_he
ader()関数およびextension_and_user_data(1)関数によ
って定義されているデータエレメントは記述されていな
いので、 extension_and_user_data(0)関数によって定
義されているデータエレメントの次に、picture_header
()関数、picture_coding_extension()関数およびextens
ion_and_user_data(2)関数によって定義されたデータエ
レメントが記述されている。
ビットストリームのピクチャレイヤのヘッダデータを定
義するための関数であって、picture_coding_extension
()関数は、MPEG符号化ビットストリームのピクチャレイ
ヤの第1の拡張データを定義するための関数である。ex
tension_and_user_data(2)関数は、MPEG符号化ビットス
トリームのピクチャレイヤの拡張データおよびユーザデ
ータを定義するための関数である。このextension_and_
user_data(2)関数によって定義されるユーザデータは、
ピクチャレイヤに記述されているデータであって、各ピ
クチャ毎に記述することのできるデータである。
ャレイヤのユーザデータの次には、picture_data()関数
によって定義されるデータエレメントが記述されてい
る。このpicture_data()関数は、スライスレイヤおよび
マクロブロックレイヤに関するデータエレメントを記述
するための関数である。
いるwhile文は、このwhile文によって定義されている条
件が真である間、次のif文の条件判断を行うための関数
である。このwhile文において使用されているnextbit
s()関数は、符号化ビットストリーム中に、picture_sta
rt_code又はgroup_start_codeが記述されているか否か
を判断するための関数であって、ビットストリーム中に
picture_start_code又はgroup_start_codeが記述されて
いる場合には、このwhile文によって定義された条件が
真となる。
sequence_end_code が記述されているか否かを判断する
ための条件文であって、sequence_end_code が記述され
ていないのであれば、sequence_header()関数とsequenc
e_extension()関数とによって定義されたデータエレメ
ントが記述されていることを示している。sequence_end
_codeは符号化ビデオストリームのシーケンスの終わり
を示すコードであるので、符号化ストリームが終了しな
い限り、符号化ストリーム中にはsequence_header()関
数とsequence_extension()関数とによって定義されたデ
ータエレメントが記述されている。
tension()関数によって記述されたデータエレメント
は、ビデオストリームのシーケンスの先頭に記述された
sequence_header()関数とsequence_extension()関数に
よって記述されたデータエレメントと全く同じである。
このように同じデータをストリーム中に記述する理由
は、ビットストリーム受信装置側でデータストリームの
途中(例えばピクチャレイヤに対応するビットストリー
ム部分)から受信が開始された場合に、シーケンスレイ
ヤのデータを受信できなくなり、ストリームをデコード
出来なくなることを防止するためである。
nce_extension()関数とによって定義されたデータエレ
メントの次、つまり、データストリームの最後には、シ
ーケンスの終わりを示す2ビットのsequence_end_code
が記述されている。
e_extension()関数、extension_and_user_data(0)関
数、group_of_picture_header()関数、picture_heade
r()関数、picture_coding_extension()関数、およびpic
ture_data()関数について詳細に説明する。
タックスを説明するための図である。このsequence_hea
der()関数によって定義されたデータエレメントは、seq
uence_header_code、horizontal_size_value、vertical
_size_value、aspect_ratio_information、frame_rate_
code、bit_rate_value、marker_bit、vbv_buffer_size_
value、constrained_parameter_flag、load_intra_quan
tizer_matrix、intra_quantizer_matrix[64]、load_non
_intra_quantizer_matrix、およびnon_intra_quantizer
_matrix等である。
ヤのスタート同期コードを表すデータである。horizont
al_size_valueは、画像の水平方向の画素数の下位12
ビットから成るデータである。vertical_size_value
は、画像の縦のライン数の下位12ビットからなるデー
タである。aspect_ratio_informationは、画素のアスペ
クト比(縦横比)または表示画面アスペクト比を表すデ
ータである。frame_rate_codeは、画像の表示周期を表
すデータである。bit_rate_valueは、発生ビット量に対
する制限のためのビット・レートの下位18ビット(4
00bsp単位で切り上げる)データである。marker_bit
は、スタートコードエミュレーションを防止するために
挿入されるビットデータである。vbv_buffer_size_valu
eは、発生符号量制御用の仮想バッファ(ビデオバッフ
ァベリファイヤー)の大きさを決める値の下位10ビッ
トデータである。constrained_parameter_flagは、各パ
ラメータが制限以内であることを示すデータである。lo
ad_intra_quantizer_matrixは、イントラMB用量子化マ
トリックス・データの存在を示すデータである。intra_
quantizer_matrix[64]は、イントラMB用量子化マトリッ
クスの値を示すデータである。load_non_intra_quantiz
er_matrixは、非イントラMB用量子化マトリックス・デ
ータの存在を示すデータである。non_intra_quantizer_
matrixは、非イントラMB用量子化マトリックスの値を表
すデータである。
タックスを説明するための図である。このsequence_ext
ension()関数によって定義されたデータエレメントと
は、extension_start_code、extension_start_code_ide
ntifier、profile_and_level_indication、progressive
_sequence、chroma_format、horizontal_size_extensio
n、vertical_size_extension、bit_rate_extension、vb
v_buffer_size_extension、low_delay、frame_rate_ext
ension_n 、および frame_rate_extension_d等のデータ
エレメントである。
ンデータのスタート同期コードを表すデータである。ex
tension_start_code_identifierは、どの拡張データが
送られるかを示すデータである。profile_and_level_in
dicationは、ビデオデータのプロファイルとレベルを指
定するためのデータである。progressive_sequenceは、
ビデオデータが順次走査であることを示すデータであ
る。chroma_formatは、ビデオデータの色差フォーマッ
トを指定するためのデータである。horizontal_size_ex
tensionは、シーケンスヘッダのhorizntal_size_value
に加える上位2ビットのデータである。vertical_size_
extensionは、シーケンスヘッダのvertical_size_value
加える上位2ビットのデータである。bit_rate_extensi
onは、シーケンスヘッダのbit_rate_valueに加える上位
12ビットのデータである。vbv_buffer_size_extensio
nは、シーケンスヘッダのvbv_buffer_size_valueに加え
る上位8ビットのデータである。low_delayは、Bピク
チャを含まないことを示すデータである。frame_rate_e
xtension_nは、シーケンスヘッダのframe_rate_codeと
組み合わせてフレームレートを得るためのデータであ
る。frame_rate_extension_dは、シーケンスヘッダのfr
ame_rate_codeと組み合わせてフレームレートを得るた
めのデータである。
数のシンタックスを説明するための図である。このexte
nsion_and_user_data(i)関数は、「i」が1以外のとき
は、extension_data()関数によって定義されるデータエ
レメントは記述せずに、user_data()関数によって定義
されるデータエレメントのみを記述する。よって、exte
nsion_and_user_data(0)関数は、user_data()関数によ
って定義されるデータエレメントのみを記述する。
において使用されている関数について説明する。nextbi
ts()関数は、ビットストリーム中に現れるビットまたは
ビット列と、次に復号されるデータエレメントとを比較
するための関数である。
に、user_data_start_code,V-phase()関数,H-phas
e()関数,Time_code()関数,Picture-order()関数,Anc
illary_data()関数,history_data()関数,およびuser_
dataのデータエレメントを記述するための関数である。
トストリームのピクチャレイヤのユーザデータエリアの
開始を示すためのスタートコードである。このuser_dat
a_start_codeの次に記述されているif文は、user_data
(i)関数のiが”0”のとき、次に記述されているwhile
構文を実行する。このwhile構文は、ビットストリーム
中に、23個の”0”とそれに続く”1”から構成され
る24ビットのデータが現れない限り真となる。
ら構成される24ビットのデータは、すべてのスタート
コードの先頭に付与されるデータであって、すべてのス
タートコードは、この24ビットの後ろに設けられるこ
とによって、nextbits()関数は、ビットストリーム中に
おいて、各スタートコードの位置を見つけることができ
る。
ているif文のnextbits()関数は、V-Phaseを示すビット
列(Data_ID)を検出すると、そのビット列(Data_ID)
の次ビットからV-Phase()関数で示されるV-Phaseのデー
タエレメントが記述されていることを知る。次のElse i
f文のnextbits()関数は、H-Phaseを示すビット列(Data
_ID)を検出すると、そのビット列(Data_ID)の次ビッ
トからH-Phase()関数で示されるH-Phaseのデータエレメ
ントが記述されていることを知る。
ata_IDは、”01”を表すビット列であり、H-PhaseのD
ata_IDは、”02”を表すビット列である。
関数のシンタックスについて、図29を参照して説明す
る。まず、Data_IDは、前述したように、そのData_IDの
次のビット列のデータエレメントがV-Phaseであること
を表す8ビットのデータであり、図28で示した値”0
1”である。V-Phaseは、画像信号のフレームにおい
て、符号化される最初のラインを示す16ビットのデー
タである。
関数のシンタックスについて、図30を参照して説明す
る。まず、Data_IDは、前述したように、そのData_IDの
次のビット列のデータエレメントがH-Phaseであること
を表す8ビットのデータであり、図28で示した値”0
2”である。H-Phaseは、画像信号フレームにおいて、
符号化される最初のサンプルを示す8ビットのデータで
ある。
data(i)関数のiが2のとき、次に記述されているwhile
構文を実行する。while構文の内容は前述した場合と同
様であるので、ここではその説明を省略する。
て、nextbits()関数は、Time code1を示すビット列を検
出するか、または、Time code2を示すビット列を検出
すると、そのビット列の次ビットからTime_code()関数
で示されるTime codeのデータエレメントが記述されて
いることを知る。
うに、”03”を表すビット列であり、Time code1のデ
ータは、画像の垂直ブランキング期間に挿入されたタイ
ムコードを示す、VITC(Vertical Interval Time Cod
e)である。Time code2のData_IDは、図28に示すよ
うに、”04”を表すビット列であり、Time code2の
データは、記録媒体のタイムコードトラックに記録され
たタイムコードを示す、LTC(Longitudinal Time Cod
e)である。
数は、Picture Orderを示すビット列を検出すると、そ
のビット列の次ビットからPicture_Order()関数で示さ
れるPicture Orderのデータエレメントが記述されてい
ることを知る。ここで、Picture_Order()関数のData_ID
は、図28に示すように、”05”を表すビット列であ
る。
ーム(ES)に挿入するPicture_Order()関数のシンタッ
クスを、図31を参照して説明する。まず、Data_IDは
前述したように、そのData_ID以降のデータがPOIのデー
タであることを示す8ビットのデータであり、その値
は”05”である。DTS_presenceは、符号化順序DTS_co
unterの有無を表す1ビットのデータである。例えば、
BピクチャのようにDTS_counter=PTS_counterとなる場
合、表示順序PTS_counterのみが存在し、DTS_presence
のビットは”0”となる。逆に、PピクチャおよびIピ
クチャの場合、符号化順序DTS_counterと表示順序PTS_c
ounterは同一ではないので、表示順序PTS_counterと符
号化順序DTS_counterの双方が存在し、DTS_presenceの
ビットは1となる。
ーム中の1フィールドが入力されるごとにカウントアッ
プを行う、表示順序を表す7ビットのデータである。こ
の7ビットのデータは、0から127までの値をとるモ
ジュロである。if文以降は、DTS_presenceのビットが1
のとき、すなわち、PピクチャおよびIピクチャのと
き、DTS_counterのカウントアップが実行される。
ット列が、偶然に前述したスタートコードと一致し、画
像破錠を引き起こす可能正が高い、スタートコードエミ
ュレーションを防止するために、16ビットごとに挿入
されるビットである。
ルド分の符号化画像データが符号化されるごとにカウン
トアップを行う、符号化順序を表す7ビットのデータで
ある。この7ビットのデータは、0から127までの値
をとるモジュロである。
は、フィールド単位で付番されるために、例えば、符号
化画像データを24Hzから30Hzのフレームレートに変
換して符号化する場合、3−2プルダウン処理を行った
後に、付番する必要がある。
while構文も、内容は前述した場合と同様であるので、
ここではその説明を省略する。while構文が真のとき、
次のif文において、nextbits()関数は、Ancillary data
を示すビット列を検出すると、そのビット列の次ビット
からAncillary_data()関数で示されるAncillary dataの
データエレメントが記述されていることを知る。Ancill
ary_data()関数のData_IDは、図28に示すように、”
07”を表すビット列である。
ary dataのシンタックスを図32を参照して説明する。
Ancillary_data()関数はピクチャ層のuser dataとして
伝送され、データとしてはField識別子(Field_ID)、
ラインの番号(Line_number)および補如データ(ancil
lary data)が挿入される。
llary dataであることを示す8ビットのデータであり、
その値は図28に示したように”07”である。
ressive_sequence flag(図25)の値が”0”のと
き、符号化フレーム内のフィールドごとにField_IDが付
加される。repeat_first_fieldに”0”が設定されてい
るとき、この符号化フレームにはフィールドが2枚存在
し、Field_IDは、図19に示したように、最初のフィー
ルドに”0”、およびその次のフィールドに”1”が設
定され、repeat_first_fieldに”1”が設定されている
とき、この符号化フレームにはフィールドが3枚存在
し、Field_IDとしては、最初のフィールドに”0”が設
定され、それ以降のフィールドに”1”,”2”が設定
される。
の値が”1”のとき、符号化フレームごとに付加され
る。Field_IDには、repeat_first_fieldとTop_field_fi
rstにともに”0”が設定されているとき、その符号化
フレームは1枚のprogressiveframeが存在するので、
値”0”が設定され、repeat_first_fieldに値”1”お
よびTop_field_firstに値”0”が設定されていると
き、その符号化フレームは2枚のprogressive frameが
存在するので、値”0”,”1”が設定され、repeat_f
irst_fieldとTop_field_firstにともに”1”が設定さ
れているとき、その符号化フレームは3枚のprogressiv
e frameが存在するので、値”0”乃至”2”が設定さ
れる。
り、各フレームにおける補助データが記述されている、
ITU-R BT.656-3,SMPTE274M,SMPTE293M,SMPTE296Mで規定
されたライン番号を示す。
データであり、ancillary_data_payloadのデータ長を示
す。Ancillary_data_payloadは、22ビットのデータか
らなる補助データの内容を表しており、Ancillary_data
_payloadのAncillary_data_lengthの値がjの値(初期
値0)より大きいとき、値j(Ancillary_data_length
のデータ長)を1だけインクリメントして、そのjの値
のビット列目から記述される。
めのシンタックスを表しており、次のデータがbytealig
ned()関数でないとき(While構文が真のとき)、Zero_b
it(1ビットのデータ”0”)を記述する。
て、nextbits()関数は、History dataを示すビット列を
検出すると、そのビット列の次ビットからHistory_data
()関数で示されるHistory dataのデータエレメントが
記述されていることを知る。History_data()関数のDa
ta_IDは、図28に示すように、”08”を表すビット
列であり、Data_IDが”08”で示されるデータは、符
号化パラメータの履歴情報を含むHistory dataを表して
いる。
user dataを示すビット列を検出すると、そのビット列
の次ビットからuser_data()関数で示されるuser_dataの
データエレメントが記述されていることを知る。
ータエレメントが記述されていることを知るビット列
は、図28に示すData_IDとして記述されている。ただ
し、Data_IDとして”00”を使用することは禁止され
ている。Data_IDが”80”で示されるデータは、制御
フラグを表しており、Data_IDが”FF”で示されるデ
ータは、user dataを表している。
数のシンタックスを説明するための図である。このgrou
p_of_picture_header()関数によって定義されたデータ
エレメントは、group_start_code、time_code、closed_
gop、およびbroken_linkから構成される。
期コードを示すデータである。time_codeは、GOPの先頭
ピクチャのシーケンスの先頭からの時間を示すタイムコ
ードである。closed_gopは、GOP内の画像が他のGOPから
独立再生可能なことを示すフラグデータである。broken
_linkは、編集などのためにGOP内の先頭のBピクチャが
正確に再生できないことを示すフラグデータである。
ension_and_user_data(0)関数と同じように、user_data
()関数によって定義されるデータエレメントのみを記述
するための関数である。
化ストリームのピクチャレイヤに関するデータエレメン
トを記述するためのpicture_headr()関数、picture_cod
ing_extension()関数、およびpicture_data()について
説明する。
クスを説明するための図である。このpicture_headr()
関数によって定義されたデータエレメントは、picture_
start_code、temporal_reference、picture_coding_typ
e、vbv_delay、full_pel_forward_vector、forward_f_c
ode、full_pel_backward_vector、backward_f_code、ex
tra_bit_picture、およびextra_information_pictureで
ある。
チャレイヤの開始同期コードを表すデータである。temp
oral_referenceは、ピクチャの表示順を示す番号で、GO
Pの先頭でリセットされるデータである。picture_codin
g_typeは、ピクチャタイプを示すデータである。
すデータであって、各ピクチャ毎に設定されている。送
信側システムから受信側システムに伝送された符号化エ
レメンタリストリームのピクチャは、受信側システムに
設けられたVBVバッファにバッファリングされ、DTS
(Decoding Time Stamp)によって指定された時刻に、
このVBVバッファから引き出され(読み出され)、デコ
ーダに供給される。vbv_delayによって定義される時間
は、復号化対象のピクチャがVBVバッファにバッファリ
ングされ始めてから、符号化対象のピクチャがVBVバッ
ファから引き出されるまでの時間、つまりDTSによって
指定された時刻までの時間を意味する。このピクチャヘ
ッダに格納されたvbv_delayを使用することによって、V
BVバッファのデータ占有量が不連続にならないシームレ
スなスプライシングが実現できる。
ベクトルの精度が整数単位か半画素単位かを示すデータ
である。forward_f_codeは、順方向動きベクトル探索範
囲を表すデータである。full_pel_backward_vectorは、
逆方向動きベクトルの精度が整数単位か半画素単位かを
示すデータである。backward_f_codeは、逆方向動きベ
クトル探索範囲を表すデータである。extra_bit_pictur
eは、後続する追加情報の存在を示すフラグである。こ
のextra_bit_pictureが「1」の場合には、次にextra_i
nformation_pictureが存在し、extra_bit_pictureが
「0」の場合には、これに続くデータが無いことを示し
ている。extra_information_pictureは、規格において
予約された情報である。
数のシンタックスを説明するための図である。このpict
ure_coding_extension()関数によって定義されたデータ
エレメントは、extension_start_code、extension_star
t_code_identifier、f_code[0][0]、f_code[0][1]、f_c
ode[1][0]、f_code[1][1]、intra_dc_precision、pictu
re_structure、top_field_first、frame_predictive_fr
ame_dct、concealment_motion_vectors、q_scale_typ
e、intra_vlc_format、alternate_scan、repeat_first_
field、chroma_420_type、progressive_frame、composi
te_display_flag、v_axis、field_sequence、sub_carri
er、burst_amplitude、およびsub_carrier_phaseから構
成される。
のエクステンションデータのスタートを示す開始コード
である。extension_start_code_identifierは、どの拡
張データが送られるかを示すコードである。f_code[0]
[0]は、フォアード方向の水平動きベクトル探索範囲を
表すデータである。f_code[0][1]は、フォアード方向の
垂直動きベクトル探索範囲を表すデータである。f_code
[1][0]は、バックワード方向の水平動きベクトル探索範
囲を表すデータである。f_code[1][1]は、バックワード
方向の垂直動きベクトル探索範囲を表すデータである。
intra_dc_precisionは、DC係数の精度を表すデータであ
る。picture_structureは、フレームストラクチャかフ
ィールドストラクチャかを示すデータである。これは、
フィールドストラクチャの場合は、上位フィールドか下
位フィールドかもあわせて示す。
ャの場合、最初のフィールドがトップフィールドである
のか、ボトムフィールドであるのかを示すフラグであ
る。frame_predictive_frame_dctは、フレーム・ストラ
クチャの場合、フレーム・モードDCTの予測がフレーム
・モードだけであることを示すデータである。concealm
ent_motion_vectorsは、イントラマクロブロックに伝送
エラーを隠蔽するための動きベクトルがついていること
を示すデータである。q_scale_typeは、線形量子化スケ
ールを利用するか、非線形量子化スケールを利用するか
を示すデータである。intra_vlc_formatは、イントラマ
クロブロックに、別の2次元VLC(可変長符号)を使う
かどうかを示すデータである。alternate_scanは、ジグ
ザグスキャンを使うか、オルタネート・スキャンを使う
かの選択を表すデータである。
トフィールドを生成するか否かを示すフラグであって、
復号化時の処理において、repeat_first_field が
「1」の場合にはリピートフィールドを生成し、repeat
_first_fieldが「0」の場合にはリピートフィールドを
生成しないという処理が行われる。
4:2:0の場合、次のprogressive_frame と同じ値、
そうでない場合は0を表すデータである。progressive_
frameは、そのピクチャが、順次走査できているかどう
かを示すデータである。composite_display_flagは、ソ
ース信号がコンポジット信号であったかどうかを示すデ
ータである。v_axisは、ソース信号が、PALの場合に使
われるデータである。field_sequenceは、ソース信号
が、PALの場合に使われるデータである。sub_carrier
は、ソース信号が、PALの場合に使われるデータであ
る。burst_amplitudeは、ソース信号が、PALの場合に使
われるデータである。sub_carrier_phaseは、ソース信
号が、PALの場合に使われるデータである。
クスを説明するための図である。このpicture_data()関
数によって定義されるデータエレメントは、slice()関
数によって定義されるデータエレメントである。但し、
ビットストリーム中に、slice()関数のスタートコード
を示すslice_start_codeが存在しない場合には、このsl
ice()関数によって定義されるデータエレメントはビッ
トストリーム中に記述されていない。
データエレメントを記述するための関数であって、具体
的には、slice_start_code、slice_quantiser_scale_co
de、intra_slice_flag、intra_slice、reserved_bits、
extra_bit_slice、extra_information_slice、およびex
tra_bit_slice 等のデータエレメントと、macroblock()
関数によって定義されるデータエレメントを記述するた
めの関数である。
て定義されるデータエレメントのスタートを示すスター
トコードである。slice_quantiser_scale_codeは、この
スライスレイヤに存在するマクロブロックに対して設定
された量子化ステップサイズを示すデータである。しか
し、各マクロブロック毎に、quantiser_scale_codeが設
定されている場合には、各マクロブロックに対して設定
されたmacroblock_quantiser_scale_codeのデータが優
先して使用される。intra_slice_flagは、ビットストリ
ーム中にintra_sliceおよびreserved_bitsが存在するか
否かを示すフラグである。intra_sliceは、スライスレ
イヤ中にノンイントラマクロブロックが存在するか否か
を示すデータである。スライスレイヤにおけるマクロブ
ロックのいずれかがノンイントラマクロブロックである
場合には、intra_sliceは「0」となり、スライスレイ
ヤにおけるマクロブロックの全てがノンイントラマクロ
ブロックである場合には、intra_sliceは「1」とな
る。reserved_bitsは、7ビットのデータであって
「0」の値を取る。extra_bit_sliceは、符号化ストリ
ームとして追加の情報が存在することを示すフラグであ
って、次にextra_information_sliceが存在する場合に
は「1」に設定される。追加の情報が存在しない場合に
は「0」に設定される。
ヤに関するデータエレメントを記述するための関数であ
って、具体的には、macroblock_escape、macroblock_ad
dress_increment、およびmacroblock_quantiser_scale_
code等のデータエレメントと、macroblock_modes()関
数、および macroblock_vecters(s)関数によって定義さ
れたデータエレメントを記述するための関数である。
クと前のマクロブロックとの水平方向の差が34以上で
あるか否かを示す固定ビット列である。参照マクロブロ
ックと前のマクロブロックとの水平方向の差が34以上
の場合には、macroblock_address_incrementの値に33
をプラスする。macroblock_address_incrementは、参照
マクロブロックと前のマクロブロックとの水平方向の差
を示すデータである。もし、このmacroblock_address_i
ncrementの前にmacroblock_escapeが1つ存在するので
あれば、このmacroblock_address_incrementの値に33
をプラスした値が、実際の参照マクロブロックと前のマ
クロブロックとの水平方向の差分を示すデータとなる。
macroblock_quantiser_scale_codeは、各マクロブロッ
ク毎に設定された量子化ステップサイズである。各スラ
イスレイヤには、スライスレイヤの量子化ステップサイ
ズを示すslice_quantiser_scale_codeが設定されている
が、参照マクロブロックに対してmacroblock_quantiser
_scale_codeが設定されている場合には、この量子化ス
テップサイズを選択する。
構造を示す説明図である。この図に示したように、ビデ
オエレメンタリストリームのデータ構造は、少なくとも
シーケンスレイヤ、GOPレイヤ、およびピクチャレイヤ
を含んでいる。
関数201、sequence_header()関数202、extension
_start_code()203、sequence_extension()関数20
4、extension_and_user_data(0)関数205によって定
義されるデータエレメントから構成されている。GOPレ
イヤは、group_start_code206、group_of_picture_h
eader()関数207、extension_and_user_data(1)関数
208によって定義されるデータエレメントから構成さ
れている。ピクチャレイヤは、picture_header()関数2
09、picture_coding_extension()関数210、extens
ion_and_user_data(2)関数211、picture_data()関数
212によって定義されるデータエレメントを含んでい
る。ビデオシーケンスの最後には、sequence_end_code
213が記述されている。
は、既に図26において説明したシンタックスからも理
解できるように、user_data_start_code214、user_d
ata()関数215、next_start_code216によって定義
されるデータエレメントを含んでいる。
おいて説明したシンタックスからも理解できるように、
time_code()関数217とuser_data218によって定義
されるデータエレメントを含んでいる。
複数の装置により構成される装置全体を表すものとす
る。
行するコンピュータプログラムをユーザに提供する提供
媒体には、磁気ディスク、CD-ROMなどの情報記録媒体の
他、インターネット、デジタル衛星などのネットワーク
による伝送媒体も含まれる。
信号伝送装置、請求項4に記載のデジタル信号伝送方
法、および請求項5に記載の提供媒体によれば、第1の
ビットストリームから順序情報を抽出し、抽出した順序
情報に基づいてタイムスタンプを生成し、第2のビット
ストリームに挿入するようにしたので、所定の場所にお
ける画像データの処理を迅速に行うことができるように
なるとともに、他の場所においても、画像データを迅速
に処理することが可能となる。
構成を示す図である。
である。
する図である。
る図である。
る。
明する図である。
テムの構成を示す図である。
タを説明する図である。
送するときのシステム構成を表すブロック図である。
構成を表す図である。
ストリームを伝送する構成を表すブロック図である。
すブロック図である。
ブロック図である。
図である。
を表すブロック図である。
とDTS_counterを説明する図である。
図である。
表す図である。
る図である。
明する図である。
説明する図である。
クスを説明する図である。
ある。
する図である。
である。
である。
する図である。
する図である。
クスを説明する図である。
する図である。
クスを説明する図である。
る図である。
ーダ, 46乃至49SDTI-CPインタフェース, 50
SDTI-CPネットワーク, 51 SDTI-CPインタフェー
ス, 61,62 TS MUX/DEMUX, 72,73 MPEG
エンコーダ,74,75 MPEGデコーダ, 76乃至8
1 SDTI-CPインタフェース, 80 SDTI-CPネットワ
ーク
Claims (5)
- 【請求項1】 画像信号の符号化順序と、前記画像信号
の表示順序に関する順序情報が、前記画像信号のアクセ
スユニット単位で挿入されている第1のビットストリー
ムを受信する第1の受信手段と、 前記第1の受信手段により受信された前記第1のビット
ストリームから前記順序情報を抽出し、抽出した前記順
序情報に基づいてタイムスタンプを生成し、第2のビッ
トストリームに挿入して出力する第1の出力手段とを含
むことを特徴とするデジタル信号伝送装置。 - 【請求項2】 前記第2のビットストリームを受信する
第2の受信手段と、 前記第2の受信手段により受信された前記第2のビット
ストリームから、前記タイムスタンプを生成し、前記第
1のビットストリームに挿入して出力する第2の出力手
段とをさらに含むことを特徴とする請求項1に記載のデ
ジタル信号伝送装置。 - 【請求項3】 前記符号化順序は、前記画像信号のフィ
ールドの表示時間を単位とすることを特徴とする請求項
1に記載のデジタル信号伝送装置。 - 【請求項4】 画像信号の符号化順序と、前記画像信号
の表示順序に関する順序情報が、前記画像信号のアクセ
スユニット単位で挿入されている第1のビットストリー
ムを受信する受信ステップと、 前記受信ステップの処理で受信された前記第1のビット
ストリームから前記順序情報を抽出し、抽出した前記順
序情報に基づいてタイムスタンプを生成し、第2のビッ
トストリームに挿入して出力する出力ステップとを含む
ことを特徴とするデジタル信号伝送方法。 - 【請求項5】 画像信号の符号化順序と、前記画像信号
の表示順序に関する順序情報が、前記画像信号のアクセ
スユニット単位で挿入されている第1のビットストリー
ムを受信する受信ステップと、 前記受信ステップの処理で受信された前記第1のビット
ストリームから前記順序情報を抽出し、抽出した前記順
序情報に基づいてタイムスタンプを生成し、第2のビッ
トストリームに挿入して出力する出力ステップとを含む
処理をデジタル信号伝送装置に実行させるコンピュータ
が読み取り可能なプログラムを提供することを特徴とす
る提供媒体。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2937799A JP2000228768A (ja) | 1999-02-05 | 1999-02-05 | デジタル信号伝送装置および方法、並びに提供媒体 |
US12/487,356 US8160134B2 (en) | 1999-02-05 | 2009-06-18 | Encoding system and method, decoding system and method, multiplexing apparatus and method, and display system and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2937799A JP2000228768A (ja) | 1999-02-05 | 1999-02-05 | デジタル信号伝送装置および方法、並びに提供媒体 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005344688A Division JP2006109513A (ja) | 2005-11-29 | 2005-11-29 | 符号化装置および方法、並びに記録媒体 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2000228768A true JP2000228768A (ja) | 2000-08-15 |
Family
ID=12274469
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2937799A Pending JP2000228768A (ja) | 1999-02-05 | 1999-02-05 | デジタル信号伝送装置および方法、並びに提供媒体 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2000228768A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1536651A1 (en) * | 2002-07-19 | 2005-06-01 | Sony Corporation | Encoding device, encoding method, decoding device, and decoding method |
JP2011109665A (ja) * | 2009-11-18 | 2011-06-02 | Tektronix Internatl Sales Gmbh | コード化タイミング情報のないビデオ・エレメンタリ・ストリームをマルチプレクスする方法及び装置 |
WO2017033748A1 (ja) * | 2015-08-25 | 2017-03-02 | ソニー株式会社 | 送信装置、送信方法、受信装置および受信方法 |
-
1999
- 1999-02-05 JP JP2937799A patent/JP2000228768A/ja active Pending
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1536651A1 (en) * | 2002-07-19 | 2005-06-01 | Sony Corporation | Encoding device, encoding method, decoding device, and decoding method |
EP1536651A4 (en) * | 2002-07-19 | 2010-12-29 | Sony Corp | ENCODING DEVICE, ENCODING METHOD, DECODING DEVICE, AND DECODING METHOD |
US8228988B2 (en) | 2002-07-19 | 2012-07-24 | Sony Corporation | Encoding device, encoding method, decoding device, and decoding method |
US8259799B2 (en) | 2002-07-19 | 2012-09-04 | Sony Corporation | Encoding device, encoding method, decoding device, and decoding method |
JP2011109665A (ja) * | 2009-11-18 | 2011-06-02 | Tektronix Internatl Sales Gmbh | コード化タイミング情報のないビデオ・エレメンタリ・ストリームをマルチプレクスする方法及び装置 |
WO2017033748A1 (ja) * | 2015-08-25 | 2017-03-02 | ソニー株式会社 | 送信装置、送信方法、受信装置および受信方法 |
CN107925776A (zh) * | 2015-08-25 | 2018-04-17 | 索尼公司 | 发送装置、发送方法、接收装置和接收方法 |
US10834444B2 (en) | 2015-08-25 | 2020-11-10 | Sony Corporation | Transmitting apparatus, transmission method, receiving apparatus, and reception method |
CN107925776B (zh) * | 2015-08-25 | 2021-06-08 | 索尼公司 | 发送装置、发送方法、接收装置和接收方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8160134B2 (en) | Encoding system and method, decoding system and method, multiplexing apparatus and method, and display system and method | |
KR100420740B1 (ko) | 인코딩 장치, 인코딩 방법, 디코딩 장치, 디코딩 방법,코딩 시스템, 코딩 방법 | |
US11601696B2 (en) | Transmission apparatus, transmission method, reception apparatus, and reception method | |
US11368744B2 (en) | Device and associated method for using layer description and decoding syntax in multi-layer video | |
EP0944249B1 (en) | Encoded stream splicing device and method, and an encoded stream generating device and method | |
JP7192910B2 (ja) | 送信方法および送信装置 | |
US20230388524A1 (en) | Coding apparatus, coding method, transmission apparatus, and reception apparatus | |
JP2000228768A (ja) | デジタル信号伝送装置および方法、並びに提供媒体 | |
JP3584460B2 (ja) | ビットストリーム変換装置および方法、並びに提供媒体 | |
JP2000228769A (ja) | デジタル信号伝送装置および方法、デジタル信号受信装置および方法、並びに提供媒体 | |
JP5976189B2 (ja) | 送信装置、送信方法、受信装置および受信方法 | |
JP5947444B2 (ja) | 送信装置、送信方法、受信装置および受信方法 | |
JP2006109513A (ja) | 符号化装置および方法、並びに記録媒体 | |
JP6614281B2 (ja) | 受信装置および受信方法 | |
JP6614275B2 (ja) | 受信装置、受信方法、送信装置および送信方法 | |
JP6350638B2 (ja) | 送信装置、送信方法、受信装置および受信方法 | |
JP6341228B2 (ja) | 符号化装置、符号化方法、送信装置、送信方法、受信装置および受信方法 | |
JP6052354B2 (ja) | 送信装置、送信方法、受信装置および受信方法 | |
JP2004328771A (ja) | エンコーディング装置及び方法、デコーディング装置及び方法、並びに記録媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20050301 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050307 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050428 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050930 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20051129 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20060601 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060802 |
|
A911 | Transfer of reconsideration by examiner before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20060815 |
|
A912 | Removal of reconsideration by examiner before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20070316 |