JP2000228768A - デジタル信号伝送装置および方法、並びに提供媒体 - Google Patents

デジタル信号伝送装置および方法、並びに提供媒体

Info

Publication number
JP2000228768A
JP2000228768A JP2937799A JP2937799A JP2000228768A JP 2000228768 A JP2000228768 A JP 2000228768A JP 2937799 A JP2937799 A JP 2937799A JP 2937799 A JP2937799 A JP 2937799A JP 2000228768 A JP2000228768 A JP 2000228768A
Authority
JP
Japan
Prior art keywords
data
picture
function
mpeg
encoded
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2937799A
Other languages
English (en)
Inventor
Katsumi Tawara
勝己 田原
Yoshihiro Murakami
芳弘 村上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2937799A priority Critical patent/JP2000228768A/ja
Publication of JP2000228768A publication Critical patent/JP2000228768A/ja
Priority to US12/487,356 priority patent/US8160134B2/en
Pending legal-status Critical Current

Links

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

(57)【要約】 【課題】 所定のスタジオと他のスタジオの両方におい
て、画像データを迅速に処理できるようにする。 【解決手段】 MPEGビデオエンコーダ42Aは、エンコ
ードしたビデオデータのエレメンタリストリームに、画
像の符号化順序と表示順序を表すPicture OrderInforma
tionを重畳し、SDTI-CPインタフェース46を介して、
同一スタジオ内のSDTI-CPネットワークに伝送する。TS
MUX/DEMUX61は、SDTI-CPインタフェース46,51を
介して、エレメンタリストリームの供給を受けたとき、
そこに含まれているPicture Order Informationを抽出
し、それに基づいてタイムスタンプを生成し、トランス
ポートストリームに重畳して、他のスタジオに伝送す
る。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、デジタル信号伝送
装置および方法、並びに提供媒体に関し、特に、異なる
スタジオ間で画像を送受信し、処理する場合において、
送受信する画像信号のシステム全体における遅延量をで
きるだけ少なくするようにした、デジタル信号伝送装置
および方法、並びに提供媒体に関する。
【0002】
【従来の技術】画像信号または音声信号を符号化して伝
送する場合、ISO/IEC11172(MPEG-1)もしくはISO/IEC13
818(MPEG-2)に示されている符号化方式が用いられるこ
とが多い。画像信号を、MPEG(Moving Picture Experts
Group)方式で符号化する場合の技術として、コーディ
ングフェーズ(coding phase)と両方向予測があげられ
る。
【0003】coding phaseとは、図1に示すように、1
枚の画像の画素エリア1のうち、符号化が行われる範囲
としての有効画素エリア2を規定するためのコードであ
り、具体的には、全てのラインのうち、有効画素エリア
2の最初のライン(図1のV-phase[line]の矢印で示
されたライン)、および、全てのサンプル(画素)のう
ち、有効画素エリア2の最初のラインの最初のサンプル
(図1のH-phase[sample]の矢印で示されたサンプル
(画素))を示すものである。画素エリア1の最後のラ
インを、V-Phase[Lmax]とし、画素エリア1のラインの
最後のサンプル(画素)を、H-Phase[Smax]とすると
き、符号化は、例えば、垂直方向に、V-Phase[line]か
ら、(V-Phase[Lmax] - V-Phase[line]+1)までの範囲
で行われ、水平方向に、H-Phase[sample]から、(H-Pha
se[Smax]-H - Phase[sample]+1)までの範囲で行われ
る。
【0004】また、一般の例えば、NTSC方式のテレビジ
ョン受像機などの画像信号において、図1の画像信号の
フレームは、図2に示すように、2枚のフィールド(図
2のフィールド1およびフィールド2)から構成されて
いる。フィールド1には、例えば、奇数ラインのデータ
が表示され、フィールド2には偶数ラインのデータが表
示される。2枚のフィールドは、それぞれ、補助データ
(ancillary data)と、画像(イメージ)データ(imag
e data)から構成されている。
【0005】補助データは、耳の不自由な人のための文
字放送用のテレテキストデータ、タイムコード、または
映画などの字幕のクローズドキャプションデータに利用
され、ブランキング区間(例えば、各フィールドの第1
0ライン乃至第22ライン)(図2においては、いずれ
のフィールドも、そのフィールド内の上から順番の番号
でラインが表されている)のうちの所定のラインに挿入
されている。一般に、各フィールドの第23ラインより
図中下に位置するラインの部分(実際に、画像として表
示される部分)は、画像データとして、MPEG方式などに
より符号化される。
【0006】前述したMPEG符号化方式は、画像データに
のみ適用され、coding phase、および補助データについ
ては、MPEGの規格には、特に明確に記述(規定)されて
いない。そのため、coding phaseは、自由度を有し、様
々なアプリケーションによって異なっている。
【0007】このような画像信号を、符号化または復号
するときのシステム構成を、図3を参照して説明する。
アプリケーションAの画像データは、アプリケーション
A用MPEGエンコーダ11で符号化され、エレメンタリス
トリーム(ES)として出力され、アプリケーションA用
MPEGデコーダ12で復号される。アプリケーションBの
画像データは、アプリケーションB用MPEGエンコーダ1
3で符号化され、エレメンタリストリーム(ES)として
出力され、アプリケーションB用MPEGデコーダ14で復
号される。
【0008】つまり、あるアプリケーションの画像デー
タは、そのアプリケーション専用のエンコーダ(例え
ば、アプリケーションA用MPEGエンコーダ11)で符号
化され、エレメンタリストリーム(ES)として、そのア
プリケーションに対応した専用のデコーダ(例えば、ア
プリケーションA用MPEGデコーダ12)に出力される。
専用デコーダに入力されたエレメンタリストリーム(E
S)は、そのデコーダが有している、そのアプリケーシ
ョンのcoding phaseに関する情報に基づき、復号され
る。
【0009】次に、現在主流となっている補助データの
伝送方式について、図4を参照して説明する。画像信号
は、MPEGエンコーダ21に入力され、分離部21におい
て、画像データと補助データに分離される。MPEGエンコ
ード部23は、画像データをMPEG符号化する。補助デー
タは、可変長符号化部24で、MPEGエンコード部23よ
り出力されたMPEG方式のトランスポートストリーム中の
user dataに挿入される。このトランスポートストリー
ム中のuser dataは、符号化された画像データ(ピクチ
ャ)単位に挿入(記述)できるため、補助データは、対
応する各符号化画像データのフレームのuser dataごと
に挿入される。
【0010】補助データが挿入されたuser dataを含む
トランスポートストリームは、所定の伝送路を介して伝
送され、MPEGデコーダ25に入力される。MPEGデコーダ
25内の可変長復号部26は、補助データと画像データ
とを分離する。画像データはMPEGデコード部27で復号
され、合成部28で補助データと合成されて、画像信号
として、図示せぬ表示装置に出力される。
【0011】次に、MPEG方式の予測について説明する。
両方向予測に基づいて生成された符号化画像データのピ
クチャはBピクチャと称される。Bピクチャは、時間的
に前または後に位置する2枚の参照画像データから予測
されて生成される。前方予測に基づいて生成された符号
化画像データのピクチャはPピクチャと称される。Pピ
クチャは、時間的に前に位置する1枚の参照画像データ
から予測されて生成される。予測が行われず、そのまま
画像データが符号化(イントラ符号化)された符号化画
像データのピクチャはIピクチャと称される。つまり、
入力された画像データは、Bピクチャ、Pピクチャ、ま
たはIピクチャのいずれかの符号化画像データに符号化
される。
【0012】両方向予測および前方予測について、図5
を参照して説明する。図5の例では、1つのGOP(Group
of Picture)が、9枚のピクチャから構成されてい
る。図5の上段は、符号化画像データが生成されるとき
の、予測の方向(依存関係)を示す予測構造を表してお
り、図5の下段は、実際に画像データが符号化される順
序を示す符号化構造を表している。Bピクチャ、または
Pピクチャは、時間的に前または後の画像データから予
測されて生成されるために、Bピクチャ、またはPピク
チャだけでは、符号化を行うことはできない。すなわ
ち、Bピクチャ、またはPピクチャは、参照画像データ
との差分をデータとする符号化画像データであるので、
Bピクチャ、またはPピクチャだけでは、画像データを
復号することもできない。
【0013】予測の依存関係について詳細に説明する
と、例えば、GOP(N-1)において、表示順序が先頭のBピ
クチャは、先頭から3番目のIピクチャと、図示されて
いないGOP(N-2)(GOP(N-1)の直前のGOP)の最後のPピ
クチャから予測されて符号化される。先頭から2番目の
Bピクチャも同様に、先頭から3番目のIピクチャと、
図示されていないGOP(N-2)の最後のPピクチャから予測
されて符号化される。先頭から3番目のIピクチャは、
そのまま符号化(イントラ符号化)される。先頭から4
番目、および5番目のBピクチャは、先頭から3番目の
Iピクチャと先頭から6番目のPピクチャから予測され
て符号化される。先頭から6番目のPピクチャは、先頭
から3番目のIピクチャから予測されて符号化される。
【0014】つまり、予測構造において、Bピクチャ
(例えば、先頭のBピクチャと先頭から2番目のBピク
チャ)が符号化されるには、予測の参照画像データ(例
えば、3番目のIピクチャとGOP(N-2)の最後のPピクチ
ャ)が、先に符号化されている必要がある。すなわち、
図5の下段に示すような、符号化構造の順番で符号化さ
れなければならない。そのため、MPEGエンコーダは、符
号化(エンコード)時、IピクチャとPピクチャの間に
存在する、2枚の連続したBピクチャを符号化するため
に必要な参照画像データ(先頭から3番目のIピクチ
ャ)が入力されるまで、2枚のBピクチャをバッファリ
ングする(Iピクチャが入力されるまで、符号化の開始
を遅延させる)必要がある。このバッファリングによ
り、MPEGエンコーダにおいて、入力された画像信号を符
号化するとき、参照画像データに挟まれたBピクチャの
枚数(=2)+1枚(合計3枚)の遅延時間が発生す
る。
【0015】このMPEGエンコーダにおいて発生する遅延
について、図6を参照して、さらに詳細に説明する。図
6の上段はMPEGエンコーダ31における、入力画像(画
像データ)の入力順番(表示順序)とその種別を表して
おり、図6の中段は、入力画像(画像データ)が符号化
された符号化画像データの順番を表している。
【0016】MPEGエンコーダ31は、時刻t4のPピク
チャが入力されるまで(Bピクチャの枚数(=2)+1
枚分の時間だけ)、時刻t1に入力されたIピクチャの
符号化を遅延させる(前述のバッファリングを行う)。
すなわち、MPEGエンコーダ31は、時刻t4で時刻t1
に入力されたIピクチャを符号化し、時刻t5で時刻t
4に入力されたPピクチャを符号化し、時刻t6で時刻
t2に入力されたBピクチャを符号化し、時刻t7で時
刻t3に入力されたBピクチャを符号化する。その後、
MPEGエンコーダ31は、入力画像を図6の中段の符号化
画像データの順番で、順次、符号化する。
【0017】このように、MPEGエンコーダ31は、入力
画像に対して、予測に必要な参照画像データから順次符
号化する。つまり、MPEGエンコーダ31において、入力
画像(画像データ)は、入力画像の順番から、符号化さ
れる画像の順番に並べ変えられ、図6の中段に示すよう
に、入力画像が符号化された順番にビットストリームと
して、MPEGデコーダ32に出力される。
【0018】このように、入力画像が符号化される順番
と表示される順番は一致しないので、MPEGにおいては、
符号化順序を表すDTS(Decoding Time Stamp)と、表示
順序を表すPTS(Presentation Time Stamp)が、トラン
スポートストリーム中に挿入されるようになされてい
る。入力画像の符号化順序と表示順序の関係をさらに説
明すると、いま、符号化順序をフレーム単位で表すもの
とすると、図6に示すように、入力画像は符号化される
順番で付番され、時刻t4で符号化されたIピクチャの
符号化順序の値は”1”となり、時刻t5で符号化され
たPピクチャの符号化順序の値は”2”となり、時刻t
6で符号化されたBピクチャの符号化順序の値は”3”
となる。以下、同様に符号化される順番に符号化順序が
付番される。DTSはフレーム単位で符号化順序を表して
いるわけではないが、ほぼ、この符号化順序に対応す
る。DTSはまた、ビットストリームを音声信号などと多
重化して出力するとき、MPEGデコーダ32において、復
号する順番として使用される。
【0019】表示順序は、画像データが復号されて表示
される順番(入力画像データの順番と同じ)となる。具
体的には、時刻t4で符号化されるIピクチャ(符号化
順序=1)の表示順序は、時刻t5でPピクチャ(符号
化順序=2)が符号化されるときに表示されなければな
らないので、そのPピクチャの符号化順序と同じ値”
2”となる。時刻t5で符号化されるPピクチャ(符号
化順序=2)の表示順序は、時刻t8でPピクチャ(符
号化順序=5)が符号化されるとき表示されなければな
らないので、そのPピクチャの符号化順序と同じ値”
5”となる。時刻t6で符号化されるBピクチャ(符号
化順序=3)は、符号化されると、直ちに復号されて表
示されなければならないので、符号化順序と表示順序は
同一となり、表示順序の値は”3”となる。時刻t7で
符号化されるBピクチャ(符号化順序=4)も同様に、
表示順序=符号化順序=4となる。PTSはフレーム単位
で表示順序を表しているわけではないが、ほぼ、この表
示順序に対応する。PTSはまた、MPEGデコーダ32にお
いて、復号後、出力(表示)する順番として使用され
る。
【0020】MPEGデコーダ32では、符号化順序が連続
する2枚のIピクチャもしくはPピクチャのうち、最初
の1枚目は、2枚目が復号されるとき、表示される。例
えば、MPEGエンコーダ31が出力したビットストリーム
中の符号化画像データの1枚目のIピクチャ(符号化順
序=1,表示順序=2)と、2枚目のPピクチャ(符号
化順序=2,表示順序=5)は、符号化順序が連続して
おり、2枚目のPピクチャが符号化されるとき(時刻t
5のとき)、1枚目のIピクチャが復号されて表示され
る。
【0021】このように、MPEGエンコーダ31は、入力
画像(画像データ)の予測構造(参照画像データに挟ま
れているBピクチャの枚数)を知っているので、画像デ
ータに符号化順序(DTS)と表示順序(PTS)を付番する
ことができる。
【0022】放送局などのスタジオ内で、図7に示すシ
ステム構成で、MPEG符号化されたビットストリームを伝
送することが考えられている。スタジオ41内のMPEGエ
ンコーダ42、MPEGエンコーダ43、MPEGデコーダ4
4、およびMPEGデコーダ45は、それぞれ、SDTI-CP(S
erial Data Transfer Interface - Content Package)
インタフェース46乃至49を介して、SDTI-CPネット
ワーク(例えば、同軸ケーブルにより構成されるネット
ワーク)50に接続される。SDTI-CPネットワーク50
は、SDI(Serial Data Interface)をベースとした27
0Mbpsの伝送速度を有し、MPEG方式のエレメンタリスト
リーム(ES)をそのまま伝送することが可能であり、ス
タジオ内のような閉じたネットワークに適している。
【0023】スタジオ41において、例えば、MPEGエン
コーダ42は、MPEG符号化されたエレメンタリストリー
ム(ES)を、SDTI-CPネットワーク50を介して、MPEG
デコーダ44、MPEGデコーダ45に伝送することができ
る。
【0024】このSDTI-CPネットワーク50で伝送され
るエレメンタリストリーム(ES)は、図8に示す構造と
なっており、画像信号のフレーム単位で、画像データ
(図8において薄い影を付けた部分)と音声データ(図
8において濃い影を付けた部分)がパッキングされてお
り、フレームシンク(図8の点線)により区切られたフ
レーム境界で、簡単に編集を行うことができる。このエ
レメンタリストリーム(ES)における画像データと音声
データは、イントラ(フレーム内符号化)処理されたデ
ータである。
【0025】図7に示すスタジオ41のシステムは、そ
のMPEGエンコーダ42,43とMPEGデコーダ44,45
が、SDTI-CPインタフェース46乃至49を介して、SDT
I-CPネットワーク50に接続されており、図3に示した
ような、アプリケーションごとに専用のエンコーダ(例
えば、アプリケーションA用MPEGエンコーダ11)とデ
コーダ(例えば、アプリケーションA用MPEGデコーダ1
2)が1対1に対応するシステムとは構成が異なってい
る。すなわち、デコーダ(例えば、図7のMPEGデコーダ
44)は、エンコーダ(例えば、図7のMPEGエンコーダ
42またはMPEGエンコーダ43)で、様々なアプリケー
ションの画像信号が符号化された、エレメンタリストリ
ーム(ES)を受け取ることができる。
【0026】図7のシステム構成を、図3のシステム構
成に対応させた図9を参照して説明すると、アプリケー
ションA用MPEGエンコーダ42で符号化されたエレメン
タリストリーム(ES)と、アプリケーションB用MPEGエ
ンコーダ43で符号化されたエレメンタリストリーム
(ES)は、それぞれSDTI-CPインタフェース46,47
に入力される。SDTI-CPインタフェース46,47は、
それぞれMPEG符号化されたエレメンタリストリーム(E
S)を、SDTIフォーマットのエレメンタリストリーム(E
S)に変換して、SDTI-CPネットワーク50を介して伝送
する。SDTI-CPインタフェース48は、SDTIフォーマッ
トのエレメンタリストリーム(ES)を、MPEG符号化され
たエレメンタリストリーム(ES)に変換し、MPEGデコー
ダ44に出力する。
【0027】MPEGデコーダ44は、それぞれ入力された
アプリケーションA用のエレメンタリストリーム(ES)
とアプリケーションB用のエレメンタリストリーム(E
S)を復号する。
【0028】ところで、補助データがトランスポートス
トリーム中のuser dataに挿入される場合、補助データ
は、対応する符号化画像のフレーム単位で挿入されるた
め、その挿入は1フレーム(2フィールド)ごととな
る。
【0029】符号化される信号が、3−2プルダウン処
理(例えば、24Hzのフレームレートを持つ映画の画像
信号を、30Hzのフレームレートを持つNTSC方式の画像
信号に変換する処理)された信号である場合、その信号
は、図10に示すように、24Hzの各フレームを、交互
に、リピートフィールドが作成されていない2フィール
ドのフレーム、またはリピートフィールドが作成されて
いる3フィールドのフレームとすることで、30Hzの信
号とされている。
【0030】例えば、図4のMPEGエンコーダ21は、3
−2プルダウン処理により30Hzのフレームレートに変
換された画像信号が入力されたとき、フィールドの繰り
返しを検出して、元の24Hzの符号化フレーム単位で符
号化を行い、その処理に対応して、フラグ(Repeat_fir
st_field,Top_field_first)を生成する。
【0031】Repeat_first_fieldのフラグの”1”は、
リピートフィールドが作成されたことを意味し、Repeat
_first_fieldのフラグの”0”は、リピートフィールド
が作成されていないことを意味する。Top_field_first
のフラグは、フレームを構成するフィールドのうち、最
初のフィールドがトップフィールドであるのか、または
ボトムフィールドであるのかを表している。Top_field_
firstのフラグの”1”は、トップフィールドがボトム
フィールドより時間的に早いフレーム構造であることを
表しており、Top_field_firstのフラグの”0”は、ボ
トムフィールドがトップフィールドより時間的に早いフ
レーム構造であることを表している。
【0032】図10に示すように、原信号のフレームが
3フィールドのフレームである場合、対応する1つの符
号化フレームには、同一位相の2枚のフィールド(3−
2プルダウン処理によりコピーにより生成されたフィー
ルドとそのコピー元のフィールド)が存在する。しかし
ながら、この元の1つのフレームを構成する3フィール
ドが符号化フレーム単位で符号化されるとき、各符号化
フレームごとの補助データは、符号化フレーム単位で、
1つの補助データとして、user dataに記述されるた
め、原信号の同一位相のフィールドに異なった補助デー
タが記述されていても、その異なった補助データを区別
することができなくなってしまう。
【0033】
【発明が解決しようとする課題】例えば、所定のスタジ
オで、MPEG方式でエンコードした画像を処理し、他のス
タジオにトランスポートストリームとして伝送し、他の
スタジオでも処理するような場合、画像データの伝送
は、符号化された順序で行う必要があるが、トランスポ
ートストリームとして画像データを伝送する装置は、通
常、符号化順序を知らないので、入力された画像データ
を一旦バッファリングし、符号化順序を知る必要があ
る。その結果、バッファリングのために画像データの供
給を受けてから、それを伝送するまでに時間がかかり、
迅速な処理、特に、リアルタイム処理が困難となる課題
があった。
【0034】本発明はこのような状況に鑑みてなされた
ものであり、画像データを迅速に処理することができる
ようにするものである。
【0035】
【課題を解決するための手段】請求項1に記載のデジタ
ル信号伝送装置は、画像信号の符号化順序と、画像信号
の表示順序に関する順序情報が、画像信号のアクセスユ
ニット単位で挿入されている第1のビットストリームを
受信する第1の受信手段と、第1の受信手段により受信
された第1のビットストリームから順序情報を抽出し、
抽出した順序情報に基づいてタイムスタンプを生成し、
第2のビットストリームに挿入して出力する第1の出力
手段とを含むことを特徴とする。
【0036】請求項4に記載のデジタル信号伝送方法
は、画像信号の符号化順序と、画像信号の表示順序に関
する順序情報が、画像信号のアクセスユニット単位で挿
入されている第1のビットストリームを受信する受信ス
テップと、受信ステップの処理で受信された第1のビッ
トストリームから順序情報を抽出し、抽出した順序情報
に基づいてタイムスタンプを生成し、第2のビットスト
リームに挿入して出力する出力ステップとを含むことを
特徴とする。
【0037】請求項5に記載の提供媒体は、画像信号の
符号化順序と、画像信号の表示順序に関する順序情報
が、画像信号のアクセスユニット単位で挿入されている
第1のビットストリームを受信する受信ステップと、受
信ステップの処理で受信された第1のビットストリーム
から順序情報を抽出し、抽出した順序情報に基づいてタ
イムスタンプを生成し、第2のビットストリームに挿入
して出力する出力ステップとを含む処理をデジタル信号
伝送装置に実行させるコンピュータが読み取り可能なプ
ログラムを提供することを特徴とする。
【0038】請求項1に記載のデジタル信号伝送装置、
請求項4に記載のデジタル信号伝送方法、および請求項
5に記載の提供媒体においては、受信された第1のビッ
トストリームから順序情報が抽出され、抽出した順序情
報に基づいてタイムスタンプが生成され、第2のビット
ストリームに挿入される。
【0039】
【発明の実施の形態】図11は、相互に離れた場所に位
置するスタジオ41とスタジオ71の間で、MPEG符号化
されたビットストリームを伝送するシステムの例を表し
ており、図7における場合と対応する部分には、同一の
符号を付してある。この例の場合、各スタジオ内のネッ
トワークを、多重化装置(以下、TS MUX/DEMUXと称す
る)を介して、衛星やATM(Asynchronous Transfer Mod
e)などの公衆網と接続することで、ビットストリーム
の伝送を行うことができる。スタジオ71のMPEGエンコ
ーダ72乃至SDTI-CPインタフェース79は、図7のス
タジオ41のMPEGエンコーダ42乃至SDTI-CPインタフ
ェース49に対応するものであるので、ここでは、その
説明を省略する。
【0040】SDTI-CPネットワーク50におけるエレメ
ンタリストリーム(ES)は、図12に示すように、TS M
UX/DEMUX61により、188バイト単位のトランスポー
トストリーム(TS)に変換されて所定の伝送媒体を介し
て伝送され、伝送されたトランスポートストリーム(T
S)は、TS MUX/DEMUX62で、SDTIフォーマットのエレ
メンタリストリーム(ES)に変換される。なお、図12
において、薄い影を付けた部分は画像データのパケット
を示しており、濃い影を付けた部分は音声データのパケ
ットを示しており、影をつけていない部分は空きデータ
のパケットを示している。
【0041】図11において、スタジオ41内のMPEGエ
ンコーダ42の出力するエレメンタリストリーム(ES)
が、TS MUX/DEMUX61でトランスポートストリーム(T
S)に変換されるまでを、図13を参照して説明する。M
PEGエンコーダ42内のMPEGビデオエンコーダ42A
は、MPEG符号化された画像データのエレメンタリストリ
ーム(ES)を、SDTI-CPインタフェース46に出力し、
オーディオエンコーダ42Bは、音声データのエレメン
タリストリーム(ES)を、SDTI-CPインタフェース46
に出力する。SDTI-CPインタフェース46は、入力され
たエレメンタリストリーム(ES)をSDTIベースのフォー
マットのエレメンタリストリーム(ES)に変換し、SDTI
-CPネットワーク50を介して、SDTI-CPインタフェース
51に出力する。SDTI-CPインタフェース51は、SDTI
フォーマットのESをMPEG符号化のエレメンタリストリ
ーム(ES)に変換し、TS MUX/DEMUX61に出力する。TS
MUX/DEMUX61は、MPEG符号化のエレメンタリストリー
ム(ES)を188バイト単位のトランスポートストリー
ム(TS)に変換して伝送媒体に出力する。
【0042】図11において、TS MUX/DEMUX61から伝
送されたトランスポートストリーム(TS)は、ATMなど
の公衆網を介して、TS MUX/DEMUX62に入力され、MPEG
符号化のエレメンタリストリーム(ES)に変換される。
SDTI-CPインタフェース81において、MPEG符号化され
たエレメンタリストリーム(ES)は、SDTIフォーマット
のエレメンタリストリーム(ES)に変換され、スタジオ
71のSDTI-CPネットワーク80に出力される。MPEGデ
コーダ74は、SDTI-CPインタフェース78を介して、
スタジオ21から伝送されたエレメンタリストリーム
(ES)を受信することができる。
【0043】図11のシステムにおいて、スタジオ41
とスタジオ71の間で、画像信号を伝送する場合、多重
化装置(例えば、図11のTS MUX/DEMUX61)には、画
像データが符号化されたエレメンタリストリーム(ES)
のみが入力されるので、多重化装置は、エンコーダ(例
えば、図11のMPEGエンコーダ42)において行われた
符号化順序の並べ変えの情報を知らない。このため、多
重化装置は、入力されたエレメンタリストリーム(ES)
を解釈して、エレメンタリストリーム(ES)をトランス
ポートストリーム(TS)に変換する処理をしなければな
らない。
【0044】このエレメンタリストリームを解釈する処
理は、画像信号の符号化構造を把握する処理である。つ
まり、前述したエンコーダで入力画像をバッファリング
して符号化し、ビットストリームに変換するときと同様
の処理が、多重化装置でも必要となる。この多重化装置
におけるバッファリング処理により、後段での画像デー
タの復号までに遅延が発生し、リアルタイム処理が困難
になる。
【0045】この多重化装置で発生する、システム構成
上、問題となる遅延について、図14を用いて説明す
る。多重化装置に、図14に示す符号化順序で、エンコ
ーダで符号化されたビットストリームが入力された場
合、多重化装置は、2枚の連続したIピクチャ(時刻t
4)とPピクチャ(時刻t5)が入力された後、さらに
それらに挟まれた2枚のBピクチャ(時刻t6と時刻t
7)に続いてPピクチャ(時刻t8)が入力されるま
で、表示順序を確定することができない。つまり、多重
化装置は、図5に示したような符号化構造(Iピクチャ
とPピクチャの間に2枚のBピクチャが挟まれている構
造)を知らないので、2枚のBピクチャが入力され、そ
の次のPピクチャ(時刻t8)が入力されたとき(Bピ
クチャの入力が終了したことを確認したとき)、時刻t
4に入力されたIピクチャの表示順序(PTS)を確定す
ることができる。
【0046】すなわち、この多重化装置においては、時
刻t8になって初めて、符号化順序=1のIピクチャの
表示順序=2を確定することができる。このため、多重
化装置では、2枚の連続したIピクチャまたはPピクチ
ャ+2枚のBピクチャの出現周期(=4)の遅延が発生
する。この遅延は、エンコーダでの遅延とは別に新たに
発生するため、システム全体として、エンコーダの遅延
(=3)+多重化装置の遅延(=4)=7の大幅な遅延
が生じる。
【0047】そこで本発明においては、符号化順序と表
示順序を含む順序情報を、PictureOrder Infoとしてエ
レメンタリストリームに重畳するようにしている。この
点のについては、後に詳述する。
【0048】図15は、本発明を適用したMPEGエンコー
ダ42の構成例を表している。MPEGエンコーダ42の分
離部101は、入力された画像信号から、画像データと
補助データを分離し、画像データをMPEGエンコード部1
03に出力し、補助データをエンコードコントローラ1
02に出力する。MPEGエンコード部103は、入力され
た画像データをMPEG方式により符号化するとともに、符
号化順序を示すDTS_counter、および表示順序を示すPTS
_counterを含むPOI(Picture Order Infomation)をエ
ンコードコントローラ102に出力する。また、MPEGエ
ンコード部103は、符号化した範囲の左上の位置(図
1の有効画素エリア2の左上の画素の位置)を表すコー
ディングフェーズ(Coding Phase(V-Phase,H-Phas
e))をエンコードコントローラ102に供給する。
【0049】エンコードコントローラ102は、分離部
101より供給された補助データに、それが属するフィ
ールドを識別するField IDと、それが挿入されているラ
インを表すLine_numberを付加し、その補助データと、M
PEGエンコード部103より供給されたPOI、およびCodi
ng Phase Information(CPI)を適宜処理し、user data
のフォーマットのデータとして、可変長符号化部104
に出力し、多重化させる。
【0050】可変長符号化部102は、MPEGエンコード
部103より供給されたエンコードされた画像データを
可変長符号化するとともに、エンコードコントローラ1
02より供給されたuser dataを画像データのエレメン
タリストリームに挿入する。可変長符号化部104より
出力されたエレメンタリストリームは、送信バッファ1
05を介して出力される。
【0051】図16は、本発明を適用したMPEGデコーダ
44の構成例を表している。受信バッファ111は、入
力されたデータを一旦バッファリングした後、可変長復
号部112に出力する。可変長復号部112は、入力さ
れたデータから、画像データとuser dataとを分離し、
画像データをMPEGデコード部114に出力し、user dat
aをデコードコントローラ113に出力する。デコード
コントローラ113は、user dataからPOIとCPIを分離
し、それらをMPEGデコード部114に出力する。また、
デコードコントローラ113は、user dataから分離し
た補助データを合成部115に出力する。MPEGデコード
部114は、可変長復号部112より入力された画像デ
ータを、デコードコントローラ113より入力されたPO
IとCPIを参照してデコードし、デコードした結果を合成
部115に出力している。合成部115は、デコードコ
ントローラ113より供給された補助データをMPEGデコ
ード部114より供給された画像データと合成し、出力
する。
【0052】以下に、MPEGエンコーダ42とMPEGデコー
ダ44の動作について説明する。
【0053】CPIをuser dataに記述して、エレメンタリ
ストリーム(ES)に重畳して出力する動作を、図17を
参照して説明すると、アプリケーションA用MPEGエンコ
ーダ42は、アプリケーションAの画像信号を符号化し
たエレメンタリストリーム(ES)に、CPI(画像信号の
フォーマットにおける有効画素エリアを示すデータであ
るV-PhaseとH-Phase)をuser dataに記述して(図15
の可変長符号化部104がエンコードコントローラ10
2から出力されるCPIのデータをuser dataに記述し
て)、SDTI-CPインタフェース46に出力する。アプリ
ケーションB用MPEGエンコーダ43も、MPEGエ
ンコーダ42と同様に構成されており、アプリケーショ
ンBの画像信号を符号化したエレメンタリストリーム
(ES)に、CPIをuser dataとして記述して、SDTI-CPイ
ンタフェース47に出力する。
【0054】SDTI-CPインタフェース46の構成例につ
いて、図18を参照して説明する(他のSDTI-CPインタ
フェースも同様に構成されている)。復号部121は、
MPEGエンコーダ42から入力されたMPEG符号化されたエ
レメンタリストリーム(ES)を、符号化パラメータと画
像データに分離し、画像データを復号し、符号化パラメ
ータとともに符号化パラメータ多重化部122に出力す
る。符号化パラメータ多重化部122は、画像信号と符
号化パラメータから、SDTI-CPベースのエレメンタリス
トリーム(ES)を生成して出力する。
【0055】SDTI-CPインタフェース46に、SDTI-CPベ
ースのエレメンタリストリーム(ES)が入力された場
合、符号化パラメータ分離部123は、エレメンタリス
トリーム(ES)から画像データと符号化パラメータを分
離して、それぞれ符号化部124に出力する。符号化部
124は、符号化パラメータを用いて、画像データを符
号化し、MPEG符号化されたエレメンタリストリーム(E
S)として出力するか、またはパケット化部125でMPE
G符号化されたトランスポートストリーム(TS)として
出力する。
【0056】SDTI-CPインタフェース46,47は、MPE
G符号化されたエレメンタリストリーム(ES)を、SDTI
フォーマットのエレメンタリストリーム(ES)に変換し
て、SDTI-CPネットワーク50を介して、伝送する。SDT
I-CPインタフェース48は、SDTIフォーマットのエレメ
ンタリストリーム(ES)をMPEG符号化されたエレメンタ
リストリーム(ES)に変換し、MPEGデコーダ44に出力
する。
【0057】MPEGデコーダ44は、入力されたアプリケ
ーションAのエレメンタリストリーム(ES)またはアプ
リケーションBのエレメンタリストリーム(ES)を復号
し、それぞれのエレメンタリストリーム(ES)に記述さ
れている(図16のデコードコントローラ113が出力
する)CPIに基づいて、画像信号を有効画素エリアに配
置するように復号する。
【0058】MPEGエンコーダ42,43は、それぞれが
符号化したアプリケーションの画像信号のCPIをMPEG符
号化されたエレメンタリストリーム(ES)中のuser dat
aに記述することにより、画像データとともに、CPIを伝
送することができる。また、MPEGエンコーダ42,43
は、CPIを伝送する機能を有することにより、様々なア
プリケーションを符号化して伝送することができる。
【0059】MPEGデコーダ44は、MPEG符号化されたエ
レメンタリストリーム(ES)に挿入されているCPIを分
離、解釈することにより、様々なCoding Phaseを有する
アプリケーションの画像を、適切に、有効画素エリアに
配置するように復号処理することができる。
【0060】なお、本発明に実施の形態においては、CP
Iを、MPEG符号化されたエレメンタリストリームのuser
dataに挿入したが、ビットストリームに他の方法で挿入
するようにしてもよい。
【0061】次に、MPEGエンコーダ42において、各フ
ィールドごとの複数の補助データを識別する動作につい
て、図19を参照して説明する。3−2プルダウン処理
が実施されている符号化フレームの原信号(30Hz)の
各フィールドに、補助データが挿入されているものとす
る。この補助データを有する原信号(30Hz)が、元の
フレームレートの符号化フレーム(24Hz)に符号化さ
れるとき、各符号化フレームに含まれる2つまたは3つ
のフィールドに記述されている補助データに、符号化さ
れたフィールドに対応した識別子が、field_ID(0乃至
2のカウンタの値)として付加されて(図15のエンコ
ードコントローラ102で補助データにfield_IDが付加
されて)、補助データともに伝送される。このfield_ID
が補助データに付加されることにより、補助データがど
の符号化フレーム内の、どのフィールドに対応したもの
であるかが識別される。
【0062】具体的に説明すると、図19の先頭の符号
化フレームのフィールドの枚数は、2枚であるので、補
助データは2つ存在する。符号化フレームは2枚のフィ
ールドから生成され、その符号化フレームに対応する2
枚のフィールドの、それぞれの補助データに、field_ID
として、”0”または”1”が付加される。
【0063】先頭から2番目の符号化フレームのフィー
ルドの枚数は、3枚であるので、補助データは3つ存在
する。符号化フレームは3枚のフィールドから生成さ
れ、その符号化フレームに対応する3枚のフィールド
の、それぞれの補助データに、field_IDとして、”
0”,”1”または”2”が付加される。
【0064】つまり、1枚の符号化フレームに対して、
1つの補助データが生成されるのではなく、符号化フレ
ームに含まれていたフィールドの枚数と同じ数の補助デ
ータが生成され、それぞれにfield_IDが付加される。そ
の結果、同一の符号化フレームに含まれる複数の補助デ
ータは、付加されたfield_IDにより、符号化フレーム内
で識別されるので、それぞれの補助データに異なった情
報が含まれていても、識別できなくなることはない。
【0065】MPEGエンコーダ42では、画像データがMP
EGエンコード部103でエンコードされ、可変長符号化
部104で可変長符号化される。また、エンコードコン
トローラ102で補助データにfield_IDと、補助データ
が挿入されていたライン番号(Line_number)が付加さ
れ、エレメンタリストリーム中のuser data中に、ancil
lary dataとして挿入される。これにより、複数の補助
データを識別して伝送することができる。
【0066】MPEGデコーダ44では、MPEG符号化された
エレメンタリストリーム中のuser dataが可変長復号部
112で分離され、デコードコントローラ113に供給
される。デコードコントローラ113は、user dataに
挿入されているancillary dataのfield_IDとLine_numbe
rに基づいて、複数の補助データを識別、分離し、合成
部115に出力する。合成部115は、MPEGデコード部
114で復号された画像データと、それに対応する補助
データ(テキストデータ)を合成し、出力する。
【0067】MPEGエンコーダ42は、システム全体の遅
延を少なくするために、図20に示すような符号化順序
と表示順序を管理するPOIを生成する。
【0068】例えば、MPEGエンコーダ42のMPEGエンコ
ード部103に入力された画像データが、3−2プルダ
ウン処理により、24Hzのフレームレートに変換された
画像信号である場合、図20(A)に示すようなフラグ
(Repeat_first_field,Top_field_first)により、各
フレームが管理される。
【0069】Repeat_first_fieldのフラグの”1”は、
リピートフィールドを作成する必要があることを意味
し、Repeat_first_fieldのフラグの”0”は、リピート
フィールドを作成する必要がないことを意味する。Top_
field_firstのフラグは、フレームを構成するフィール
ドのうち、最初のフィールドがトップフィールドである
のか、またはボトムフィールドであるのかを表してい
る。Top_field_firstフラグの”1”は、トップフィー
ルドがボトムフィールドより時間的に早いフレーム構造
であることを表しており、Top_field_firstフラグの”
0”は、ボトムフィールドがトップフィールドより時間
的に早いフレーム構造であることを表している。
【0070】図20(A)について、具体的に説明する
と、最初にMPEGエンコード部103に入力されるFrame
No1の符号化フレームの符号化画像データ種別は、Iピ
クチャであり、このIピクチャの2フィールド(トップ
フィールドとボトムフィールド)は、トップフィールド
をコピーしてリピートフィールドを作成することで、3
フィールドに変換する必要があるので、対応するRepeat
_first_fieldのフラグは”1”となり、Top_field_firs
tのフラグは”1”となる。
【0071】Frame No2の符号化フレームの符号化画像
データ種別は、Bピクチャであり、このBピクチャに
は、リピートフィールドが生成する必要がないので、Re
peat_first_fieldのフラグは”0”とされ、ボトムフィ
ールドがトップフィールドより時間的に早いフレームで
あるため、Top_field_firstのフラグは”0”とされ
る。このときのTop_field_firstのフラグの値は、3−
2プルダウン処理には関係しない。
【0072】Frame No3の符号化フレームの符号化画像
データ種別は、Bピクチャであり、Frame No3のBピク
チャでは、そのボトムフィールドをコピーしてリピート
フィールドが作成され、符号化フレームが3フィールド
に変換されている。従って、Repeat_first_fieldのフラ
グは”1”とされ、Top_field_firstのフラグは”0”
とされる。
【0073】Frame No4の符号化フレームの符号化画像
データ種別は、Pピクチャであり、このPピクチャに対
しては、リピートフィールドが作成されておらず、Repe
at_first_fieldのフラグは”0”とされ、Top_field_fi
rstのフラグは1とされる。
【0074】MPEGエンコード部103は、図20(A)
に示すような3−2プルダウン処理が施された画像デー
タが入力されてきたとき、内蔵するカウンタPTS_counte
rでフィールドの数をカウントし、その値PTS_counterを
表示順序としてエンコードコントローラ102に出力す
る。カウンタPTS_counterは、0から127まで増加し
た後、再び0に戻るカウント動作を行う。従って、カウ
ンタPTS_counterの値は、図20(B)に示すように変
化する。
【0075】具体的に説明すると、最初に入力されるFr
ame No1のIピクチャのPTS_counterの値は値”0”で
ある。先頭から2番目に入力されるFrame No2のBピク
チャのPTS_counterの値は、Frame No1のIピクチャのP
TS_counterの値”0”に、Pピクチャのフィールド数3
を加算した値”3”(=0+3)となる。
【0076】先頭から3番目に入力されるFrame No3の
BピクチャのPTS_counterの値は、Frame No2のBピク
チャのPTS_counterの値”3”に、Bピクチャのフィー
ルド数2を加算した値”5”(=3+2)となる。先頭
から4番目に入力されるFrameNo4のPピクチャのPTS_c
ounterの値は、Frame No3のBピクチャのPTS_counter
の値”5”に、Bピクチャのフィールド数3を加算した
値”8”(=5+3)となる。Frame No5のBピクチャ
以降のPTS_counterの値も同様に算出される。
【0077】さらに、MPEGエンコード部103は、内蔵
するカウンタDTS_counterでエンコードしたフレームを
計数し、計数した結果をエンドコントローラ102に出
力する。
【0078】図20(C)を参照して、具体的に説明す
ると、Frame No1のIピクチャのDTS_counterの値12
5は、Frame No1のIピクチャが表示される表示順序PT
S_counter=0を基準としたとき、1フレーム分の出現
周期前に符号化される必要がある(図14に対応させる
と、先頭のIピクチャの符号化順序の値は”1”であ
り、表示順序の値は”2”であり、符号化順序の値は表
示順序の値より1フレーム分早い必要がある)。つま
り、Iピクチャが3つのフィールドを持っているため、
DTS_counterの値は、0より3だけ前の値”125”(D
TS_counterは27(=128)のモジュロで表されるた
め、その値は0から127の間の値を循環する)とな
る。
【0079】Frame No1のIピクチャの次に符号化され
るFrame No4のPピクチャのDTS_counterの値は、Frame
No1のIピクチャのDTS_counterの値125にIピクチ
ャのフィールド数3を加えた値0(=128=125+
3)となる。
【0080】Frame No4のPピクチャの次に符号化され
る、Frame No2のBピクチャのDTS_counterの値は、B
ピクチャのためにPTS_counter=DTS_counterであり、PT
S_counterの値と同一とされ、その値は”3”となる。
同様に、Frame No2のBピクチャの次に符号化される、
Frame No3のBピクチャのDTS_counterの値も、PTS_cou
nterの値と同一とされ、その値は”5”とされる。以
下、Frame No7のPピクチャ以降のDTS_counterの値
も、同様に算出されるので、ここでは、その説明を省略
する。
【0081】MPEGエンコード部103は、図20に示す
ようなフラグRepeat_first_field,Top_field_first、
並びにカウンタPTS_counter,DTS_counterをPOIとし
て、エンコードコントローラ102に出力する。
【0082】ここで、図11に示した、離れた場所にあ
るスタジオ41のMPEGエンコーダ42から、スタジオ7
1のMPEGデコーダ74に、SDTI-CPネットワーク50,
80、TS MUX/DEMUX61,62、およびATMのネットワ
ークを使用して、画像信号の伝送を行うシステムの、符
号化順序と表示順序について、図21を参照して説明す
る。
【0083】MPEGエンコーダ42内のMPEGビデオエンコ
ーダ42Aは、MPEG符号化された画像データのエレメン
タリストリーム(ES)を出力するとともに、POIを、そ
のエレメンタリストリーム(ES)中のuser dataに挿入
する(図15のエンコードコントローラ102がPOIの
データをuser dataに記述し、可変長符号化部104に
出力して、多重化させる)。MPEGエンコーダ42内のオ
ーディオエンコーダ42Bは、音声データを符号化して
エレメンタリストリーム(ES)として出力する。SDTI-C
Pインタフェース46は、MPEGビデオエンコーダ42A
からのエレメンタリストリーム(ES)(POIを含んだス
トリーム)と、オーディオエンコーダ42Bからのエレ
メンタリストリーム(ES)を、SDTIフォーマットのエレ
メンタリストリームに変換して、SDTI-CPネットワーク
50に出力する。
【0084】SDTI-CPインタフェース51は、入力され
たSDTIフォーマットのエレメンタリストリーム(ES)
を、MPEG符号化のエレメンタリストリーム(ES)に変換
し(図18を参照してSDTI-CPインタフェース46の動
作として説明したように)、TSMUX/DEMUX61に出力す
る。TS MUX/DEMUX61は、エレメンタリストリーム(E
S)に挿入されているPOIを参照して、PTS_counterの値
をPTS(Presentation TimeStamp)に、また、DTS_count
erの値をDTS(Decoding Time Stamp)に、それぞれ換算
し、多重化処理を行い、188バイト単位のパケットか
ら構成されるトランスポートストリーム(TS)を生成し
て出力する(従って、トランスポートストリーム(TS)
には、PTS_counterとDTS_counterではなく、PTSとDTSが
含まれる)。
【0085】TS MUX/DEMUX61は、エレメンタリストリ
ーム(ES)に挿入されているPOIを解釈することによ
り、前述のバッファリング処理を行うことなく、直ちに
多重化処理を行うことができ、TS MUX/DEMUX61におい
て、新たに遅延が発生することはない。また、POIはエ
レメンタリストリーム(ES)中に挿入されているため、
TS MUX/DEMUX61は、POIを後段に伝達するために、POI
をビットストリームに含ませる処理を行わなくてもよ
い。
【0086】図11のTS MUX/DEMUX62は、ATMなどの
公衆網を介して入力されたトランスポートストリーム
(TS)から画像データと音声データを分離して、MPEG符
号化のエレメンタリストリーム(ES)に変換する。TS M
UX/DEMUX62はまた、PTS,DTSをPTS_counter,DTS_cou
nterに換算して、エレメンタリストリームのuser data
に挿入し、SDTI-CPインタフェース81に出力する。SDT
I-CPインタフェース81は、MPEG符号化されたエレメン
タリストリーム(ES)をSDTIフォーマットのエレメンタ
リストリーム(ES)に変換し、スタジオ71のSDTI-CP
ネットワーク80に出力する。MPEGデコーダ74(MPEG
デコーダ44と同一の構成)は、SDTI-CPインタフェー
ス78を介して、伝送されてきた画像データと音声デー
タのエレメンタリストリーム(ES)を受信し、復号す
る。
【0087】MPEGデコーダ74は、TS MUX/DEMUX61と
同様に、エレメンタリストリーム(ES)に挿入されてい
るPOIを解釈して、前述のバッファリング処理を行うこ
となく、直ちに復号する(図16のデコードコントロー
ラ113が出力するPOIに基づき、MPEGデコード部11
4が画像データを復号する)ことができ、MPEGデコーダ
74において、新たに遅延が発生することはない。つま
り、MPEGビデオエンコーダ42Aが、MPEG符号化された
エレメンタリストリーム(ES)とともに、POIをエレメ
ンタリストリームに挿入して出力することにより、後段
のTS MUX/DEMUX61と、MPEGデコーダ74は、POIを解
釈して多重化処理、または復号処理を直ちに行うことが
でき、システム全体としての遅延を、MPEGエンコーダ4
2で生ずるBピクチャの枚数(=2)+1枚=3の遅延
のみに抑えることができる。すなわち、このような符号
化、多重化、および復号を含むシステムにおいて、理論
的に最も小さい遅延とすることができる。
【0088】また、図21のシステム構成において、図
18に示したSDTI-CPインタフェース46を用いること
により、SDTI-CPネットワーク50を使用して画像信号
を伝送するとき、スタジオ41の内部では、ビットスト
リームを、編集が容易で、短距離伝送に適したエレメン
タリストリーム(ES)の形態で伝送することが可能とな
り、離れたスタジオ間でATMなどの公衆網を使用して画
像信号を伝送するとき、ビットストリームを、長距離伝
送に適したトランスポートストリーム(TS)の形態で伝
送することが可能となる。
【0089】以上においては、POIをエレメンタリスト
リームに挿入するようにしたが、TSMUX/DEMUX61とMPE
Gエンコーダ42の距離が近いような場合には、図22
に示すように、POIをMPEGエンコーダ42から、TS MUX/
DEMUX61に直接供給するようにしてもよい。
【0090】しかしながら、このようにすると、エレメ
ンタリストリームを伝送するSDTI-CPネットワーク50
以外の配線処理が必要となる。
【0091】以上に述べたように、エンコーダの有する
情報を、エレメンタリストリーム(ES)中のuser data
に記述して、多重化装置またはデコーダに出力すること
により、エンコーダのみが有していた情報(Coding Pha
se(V-PhaseとH-Phase)、Field_ID、符号化順序DTS_co
unter、および表示順序PTS_counter)を、エンコーダよ
り後段の多重化装置、デコーダに供給することができ
る。
【0092】次に、図23乃至図36を参照してビット
ストリームのシンタックスについて説明する。
【0093】図23は、MPEGのビデオストリームのシン
タックスを表わした図である。MPEGエンコーダ42は、
この図23に示されたシンタックスに従った符号化エレ
メンタリストリームを生成する。以下に説明するシンタ
ックスにおいて、関数や条件文は細活字で表わされ、デ
ータエレメントは、太活字で表されている。データ項目
は、その名称、ビット長およびそのタイプ・伝送順序を
示すニーモニック(Mnemonic)で記述されている。
【0094】まず、この図23に示されているシンタッ
クスにおいて使用されている関数について説明する。実
際には、この図23に示されているシンタックスは、MP
EGデコーダ44側において、伝送されてきた符号化ビッ
トストリームから所定の意味のあるデータエレメントを
抽出するために使用されるシンタックスである。MPEGエ
ンコーダ42側において使用されるシンタックスは、図
23に示されたシンタックスからif文やwhile文等の条
件文を省略したシンタックスである。
【0095】video_sequence()において最初に記述され
ているnext_start_code()関数は、ビットストリーム中
に記述されているスタートコードを探すための関数であ
る。この図23に示されたシンタックスに従って生成さ
れた符号化ストリームには、まず最初に、sequence_hea
der()関数とsequence_extension()関数によって定義さ
れたデータエレメントが記述されている。このsequence
_header()関数は、MPEGビットストリームのシーケンス
レイヤのヘッダデータを定義するための関数であって、
sequence_extension()関数は、MPEGビットストリームの
シーケンスレイヤの拡張データを定義するための関数で
ある。
【0096】sequence_extension()関数の次に配置され
ている do{ }while構文は、while文によって定義されて
いる条件が真である間、do文の{ }内の関数に基いて記
述されたデータエレメントが符号化データストリーム中
に記述されていることを示す構文である。このwhile文
に使用されているnextbits()関数は、ビットストリーム
中に記述されているビット又はビット列と、参照される
データエレメントとを比較するための関数である。この
図23に示されたシンタックスの例では、nextbits()関
数は、ビットストリーム中のビット列とビデオシーケン
スの終わりを示すsequence_end_codeとを比較し、ビッ
トストリーム中のビット列とsequence_end_codeとが一
致しないときに、このwhile文の条件が真となる。従っ
て、sequence_extension()関数の次に配置されている d
o{ }while構文は、ビットストリーム中に、ビデオシー
ケンスの終わりを示すsequence_end_codeが現れない
間、do文中の関数によって定義されたデータエレメント
が符号化ビットストリーム中に記述されていることを示
している。
【0097】符号化ビットストリームにおいて、sequen
ce_extension()関数によって定義された各データエレメ
ントの次には、extension_and_user_data(0)関数によっ
て定義されたデータエレメントが記述されている。この
extension_and_user_data(0)関数は、MPEGビットストリ
ームのシーケンスレイヤにおける拡張データとユーザデ
ータを定義するための関数である。
【0098】このextension_and_user_data(0)関数の次
に配置されている do{ }while構文は、while文によって
定義されている条件が真である間、do文の{ }内の関数
に基いて記述されたデータエレメントが、ビットストリ
ームに記述されていることを示す関数である。このwhil
e文において使用されているnextbits()関数は、ビット
ストリーム中に現れるビット又はビット列と、picture_
start_code又はgroup_start_codeとの一致を判断するた
めの関数であるって、ビットストリーム中に現れるビッ
ト又はビット列と、picture_start_code又はgroup_star
t_codeとが一致する場合には、while文によって定義さ
れた条件が真となる。よって、このdo{ }while構文は、
符号化ビットストリーム中において、picture_start_co
de又はgroup_start_codeが現れた場合には、そのスター
トコードの次に、do文中の関数によって定義されたデー
タエレメントのコードが記述されていることを示してい
る。
【0099】このdo文の最初に記述されているif文は、
符号化ビットストリーム中にgroup_start_codeが現れた
場合、という条件を示しいる。このif文による条件は真
である場合には、符号化ビットストリーム中には、この
group_start_codeの次にgroup_of_picture_header()関
数およびextension_and_user_data(1)関数によって定義
されているデータエレメントが順に記述されている。
【0100】このgroup_of_picture_header()関数は、M
PEG符号化ビットストリームのGOPレイヤのヘッダデータ
を定義するための関数であって、extension_and_user_d
ata(1)関数は、MPEG符号化ビットストリームのGOPレイ
ヤの拡張データおよびユーザデータを定義するための関
数である。
【0101】さらに、この符号化ビットストリームにお
いて、group_of_picture_header()関数およびextension
_and_user_data(1)関数によって定義されているデータ
エレメントの次には、picture_header()関数とpicture_
coding_extension()関数によって定義されたデータエレ
メントが記述されている。もちろん、先に説明したif文
の条件が真とならない場合には、 group_of_picture_he
ader()関数およびextension_and_user_data(1)関数によ
って定義されているデータエレメントは記述されていな
いので、 extension_and_user_data(0)関数によって定
義されているデータエレメントの次に、picture_header
()関数、picture_coding_extension()関数およびextens
ion_and_user_data(2)関数によって定義されたデータエ
レメントが記述されている。
【0102】このpicture_header()関数は、MPEG符号化
ビットストリームのピクチャレイヤのヘッダデータを定
義するための関数であって、picture_coding_extension
()関数は、MPEG符号化ビットストリームのピクチャレイ
ヤの第1の拡張データを定義するための関数である。ex
tension_and_user_data(2)関数は、MPEG符号化ビットス
トリームのピクチャレイヤの拡張データおよびユーザデ
ータを定義するための関数である。このextension_and_
user_data(2)関数によって定義されるユーザデータは、
ピクチャレイヤに記述されているデータであって、各ピ
クチャ毎に記述することのできるデータである。
【0103】符号化ビットストリームにおいて、ピクチ
ャレイヤのユーザデータの次には、picture_data()関数
によって定義されるデータエレメントが記述されてい
る。このpicture_data()関数は、スライスレイヤおよび
マクロブロックレイヤに関するデータエレメントを記述
するための関数である。
【0104】このpicture_data()関数の次に記述されて
いるwhile文は、このwhile文によって定義されている条
件が真である間、次のif文の条件判断を行うための関数
である。このwhile文において使用されているnextbit
s()関数は、符号化ビットストリーム中に、picture_sta
rt_code又はgroup_start_codeが記述されているか否か
を判断するための関数であって、ビットストリーム中に
picture_start_code又はgroup_start_codeが記述されて
いる場合には、このwhile文によって定義された条件が
真となる。
【0105】次のif文は、符号化ビットストリーム中に
sequence_end_code が記述されているか否かを判断する
ための条件文であって、sequence_end_code が記述され
ていないのであれば、sequence_header()関数とsequenc
e_extension()関数とによって定義されたデータエレメ
ントが記述されていることを示している。sequence_end
_codeは符号化ビデオストリームのシーケンスの終わり
を示すコードであるので、符号化ストリームが終了しな
い限り、符号化ストリーム中にはsequence_header()関
数とsequence_extension()関数とによって定義されたデ
ータエレメントが記述されている。
【0106】このsequence_header()関数とsequence_ex
tension()関数によって記述されたデータエレメント
は、ビデオストリームのシーケンスの先頭に記述された
sequence_header()関数とsequence_extension()関数に
よって記述されたデータエレメントと全く同じである。
このように同じデータをストリーム中に記述する理由
は、ビットストリーム受信装置側でデータストリームの
途中(例えばピクチャレイヤに対応するビットストリー
ム部分)から受信が開始された場合に、シーケンスレイ
ヤのデータを受信できなくなり、ストリームをデコード
出来なくなることを防止するためである。
【0107】この最後のsequence_header()関数とseque
nce_extension()関数とによって定義されたデータエレ
メントの次、つまり、データストリームの最後には、シ
ーケンスの終わりを示す2ビットのsequence_end_code
が記述されている。
【0108】以下に、sequence_header()関数、sequenc
e_extension()関数、extension_and_user_data(0)関
数、group_of_picture_header()関数、picture_heade
r()関数、picture_coding_extension()関数、およびpic
ture_data()関数について詳細に説明する。
【0109】図24は、sequence_header()関数のシン
タックスを説明するための図である。このsequence_hea
der()関数によって定義されたデータエレメントは、seq
uence_header_code、horizontal_size_value、vertical
_size_value、aspect_ratio_information、frame_rate_
code、bit_rate_value、marker_bit、vbv_buffer_size_
value、constrained_parameter_flag、load_intra_quan
tizer_matrix、intra_quantizer_matrix[64]、load_non
_intra_quantizer_matrix、およびnon_intra_quantizer
_matrix等である。
【0110】sequence_header_codeは、シーケンスレイ
ヤのスタート同期コードを表すデータである。horizont
al_size_valueは、画像の水平方向の画素数の下位12
ビットから成るデータである。vertical_size_value
は、画像の縦のライン数の下位12ビットからなるデー
タである。aspect_ratio_informationは、画素のアスペ
クト比(縦横比)または表示画面アスペクト比を表すデ
ータである。frame_rate_codeは、画像の表示周期を表
すデータである。bit_rate_valueは、発生ビット量に対
する制限のためのビット・レートの下位18ビット(4
00bsp単位で切り上げる)データである。marker_bit
は、スタートコードエミュレーションを防止するために
挿入されるビットデータである。vbv_buffer_size_valu
eは、発生符号量制御用の仮想バッファ(ビデオバッフ
ァベリファイヤー)の大きさを決める値の下位10ビッ
トデータである。constrained_parameter_flagは、各パ
ラメータが制限以内であることを示すデータである。lo
ad_intra_quantizer_matrixは、イントラMB用量子化マ
トリックス・データの存在を示すデータである。intra_
quantizer_matrix[64]は、イントラMB用量子化マトリッ
クスの値を示すデータである。load_non_intra_quantiz
er_matrixは、非イントラMB用量子化マトリックス・デ
ータの存在を示すデータである。non_intra_quantizer_
matrixは、非イントラMB用量子化マトリックスの値を表
すデータである。
【0111】図25はsequence_extension()関数のシン
タックスを説明するための図である。このsequence_ext
ension()関数によって定義されたデータエレメントと
は、extension_start_code、extension_start_code_ide
ntifier、profile_and_level_indication、progressive
_sequence、chroma_format、horizontal_size_extensio
n、vertical_size_extension、bit_rate_extension、vb
v_buffer_size_extension、low_delay、frame_rate_ext
ension_n 、および frame_rate_extension_d等のデータ
エレメントである。
【0112】extension_start_codeは、エクステンショ
ンデータのスタート同期コードを表すデータである。ex
tension_start_code_identifierは、どの拡張データが
送られるかを示すデータである。profile_and_level_in
dicationは、ビデオデータのプロファイルとレベルを指
定するためのデータである。progressive_sequenceは、
ビデオデータが順次走査であることを示すデータであ
る。chroma_formatは、ビデオデータの色差フォーマッ
トを指定するためのデータである。horizontal_size_ex
tensionは、シーケンスヘッダのhorizntal_size_value
に加える上位2ビットのデータである。vertical_size_
extensionは、シーケンスヘッダのvertical_size_value
加える上位2ビットのデータである。bit_rate_extensi
onは、シーケンスヘッダのbit_rate_valueに加える上位
12ビットのデータである。vbv_buffer_size_extensio
nは、シーケンスヘッダのvbv_buffer_size_valueに加え
る上位8ビットのデータである。low_delayは、Bピク
チャを含まないことを示すデータである。frame_rate_e
xtension_nは、シーケンスヘッダのframe_rate_codeと
組み合わせてフレームレートを得るためのデータであ
る。frame_rate_extension_dは、シーケンスヘッダのfr
ame_rate_codeと組み合わせてフレームレートを得るた
めのデータである。
【0113】図26は、extension_and_user_data(i)関
数のシンタックスを説明するための図である。このexte
nsion_and_user_data(i)関数は、「i」が1以外のとき
は、extension_data()関数によって定義されるデータエ
レメントは記述せずに、user_data()関数によって定義
されるデータエレメントのみを記述する。よって、exte
nsion_and_user_data(0)関数は、user_data()関数によ
って定義されるデータエレメントのみを記述する。
【0114】まず、図26に示されているシンタックス
において使用されている関数について説明する。nextbi
ts()関数は、ビットストリーム中に現れるビットまたは
ビット列と、次に復号されるデータエレメントとを比較
するための関数である。
【0115】user_data()関数は、図27に示すよう
に、user_data_start_code,V-phase()関数,H-phas
e()関数,Time_code()関数,Picture-order()関数,Anc
illary_data()関数,history_data()関数,およびuser_
dataのデータエレメントを記述するための関数である。
【0116】user_data_start_codeは、MPEG方式のビッ
トストリームのピクチャレイヤのユーザデータエリアの
開始を示すためのスタートコードである。このuser_dat
a_start_codeの次に記述されているif文は、user_data
(i)関数のiが”0”のとき、次に記述されているwhile
構文を実行する。このwhile構文は、ビットストリーム
中に、23個の”0”とそれに続く”1”から構成され
る24ビットのデータが現れない限り真となる。
【0117】この23個の”0”とそれに続く”1”か
ら構成される24ビットのデータは、すべてのスタート
コードの先頭に付与されるデータであって、すべてのス
タートコードは、この24ビットの後ろに設けられるこ
とによって、nextbits()関数は、ビットストリーム中に
おいて、各スタートコードの位置を見つけることができ
る。
【0118】while構文が真のとき、その次に記述され
ているif文のnextbits()関数は、V-Phaseを示すビット
列(Data_ID)を検出すると、そのビット列(Data_ID)
の次ビットからV-Phase()関数で示されるV-Phaseのデー
タエレメントが記述されていることを知る。次のElse i
f文のnextbits()関数は、H-Phaseを示すビット列(Data
_ID)を検出すると、そのビット列(Data_ID)の次ビッ
トからH-Phase()関数で示されるH-Phaseのデータエレメ
ントが記述されていることを知る。
【0119】ここで、図28に示すように、V-PhaseのD
ata_IDは、”01”を表すビット列であり、H-PhaseのD
ata_IDは、”02”を表すビット列である。
【0120】ビットストリームに記述されるV-Phase()
関数のシンタックスについて、図29を参照して説明す
る。まず、Data_IDは、前述したように、そのData_IDの
次のビット列のデータエレメントがV-Phaseであること
を表す8ビットのデータであり、図28で示した値”0
1”である。V-Phaseは、画像信号のフレームにおい
て、符号化される最初のラインを示す16ビットのデー
タである。
【0121】ビットストリームに記述されるH-Phase()
関数のシンタックスについて、図30を参照して説明す
る。まず、Data_IDは、前述したように、そのData_IDの
次のビット列のデータエレメントがH-Phaseであること
を表す8ビットのデータであり、図28で示した値”0
2”である。H-Phaseは、画像信号フレームにおいて、
符号化される最初のサンプルを示す8ビットのデータで
ある。
【0122】図27に戻って、次のElse if文は、user_
data(i)関数のiが2のとき、次に記述されているwhile
構文を実行する。while構文の内容は前述した場合と同
様であるので、ここではその説明を省略する。
【0123】while構文が真のとき、次のif文におい
て、nextbits()関数は、Time code1を示すビット列を検
出するか、または、Time code2を示すビット列を検出
すると、そのビット列の次ビットからTime_code()関数
で示されるTime codeのデータエレメントが記述されて
いることを知る。
【0124】Time code1のData_IDは、図28に示すよ
うに、”03”を表すビット列であり、Time code1のデ
ータは、画像の垂直ブランキング期間に挿入されたタイ
ムコードを示す、VITC(Vertical Interval Time Cod
e)である。Time code2のData_IDは、図28に示すよ
うに、”04”を表すビット列であり、Time code2の
データは、記録媒体のタイムコードトラックに記録され
たタイムコードを示す、LTC(Longitudinal Time Cod
e)である。
【0125】次に、Else if文において、nextbits()関
数は、Picture Orderを示すビット列を検出すると、そ
のビット列の次ビットからPicture_Order()関数で示さ
れるPicture Orderのデータエレメントが記述されてい
ることを知る。ここで、Picture_Order()関数のData_ID
は、図28に示すように、”05”を表すビット列であ
る。
【0126】実際に、エンコーダでエレメンタリストリ
ーム(ES)に挿入するPicture_Order()関数のシンタッ
クスを、図31を参照して説明する。まず、Data_IDは
前述したように、そのData_ID以降のデータがPOIのデー
タであることを示す8ビットのデータであり、その値
は”05”である。DTS_presenceは、符号化順序DTS_co
unterの有無を表す1ビットのデータである。例えば、
BピクチャのようにDTS_counter=PTS_counterとなる場
合、表示順序PTS_counterのみが存在し、DTS_presence
のビットは”0”となる。逆に、PピクチャおよびIピ
クチャの場合、符号化順序DTS_counterと表示順序PTS_c
ounterは同一ではないので、表示順序PTS_counterと符
号化順序DTS_counterの双方が存在し、DTS_presenceの
ビットは1となる。
【0127】PTS_counterは、エンコーダに符号化フレ
ーム中の1フィールドが入力されるごとにカウントアッ
プを行う、表示順序を表す7ビットのデータである。こ
の7ビットのデータは、0から127までの値をとるモ
ジュロである。if文以降は、DTS_presenceのビットが1
のとき、すなわち、PピクチャおよびIピクチャのと
き、DTS_counterのカウントアップが実行される。
【0128】Marker_bitsは、user dataの記述されたビ
ット列が、偶然に前述したスタートコードと一致し、画
像破錠を引き起こす可能正が高い、スタートコードエミ
ュレーションを防止するために、16ビットごとに挿入
されるビットである。
【0129】DTS_counterは、エンコーダで、1フィー
ルド分の符号化画像データが符号化されるごとにカウン
トアップを行う、符号化順序を表す7ビットのデータで
ある。この7ビットのデータは、0から127までの値
をとるモジュロである。
【0130】前述したように、表示順序PTS_counter
は、フィールド単位で付番されるために、例えば、符号
化画像データを24Hzから30Hzのフレームレートに変
換して符号化する場合、3−2プルダウン処理を行った
後に、付番する必要がある。
【0131】図27に戻って、その次に記述されている
while構文も、内容は前述した場合と同様であるので、
ここではその説明を省略する。while構文が真のとき、
次のif文において、nextbits()関数は、Ancillary data
を示すビット列を検出すると、そのビット列の次ビット
からAncillary_data()関数で示されるAncillary dataの
データエレメントが記述されていることを知る。Ancill
ary_data()関数のData_IDは、図28に示すように、”
07”を表すビット列である。
【0132】この補助データに識別子を付加するancill
ary dataのシンタックスを図32を参照して説明する。
Ancillary_data()関数はピクチャ層のuser dataとして
伝送され、データとしてはField識別子(Field_ID)、
ラインの番号(Line_number)および補如データ(ancil
lary data)が挿入される。
【0133】Data_IDは、user data領域において、anci
llary dataであることを示す8ビットのデータであり、
その値は図28に示したように”07”である。
【0134】Field_IDは2ビットのデータであり、prog
ressive_sequence flag(図25)の値が”0”のと
き、符号化フレーム内のフィールドごとにField_IDが付
加される。repeat_first_fieldに”0”が設定されてい
るとき、この符号化フレームにはフィールドが2枚存在
し、Field_IDは、図19に示したように、最初のフィー
ルドに”0”、およびその次のフィールドに”1”が設
定され、repeat_first_fieldに”1”が設定されている
とき、この符号化フレームにはフィールドが3枚存在
し、Field_IDとしては、最初のフィールドに”0”が設
定され、それ以降のフィールドに”1”,”2”が設定
される。
【0135】Field_IDは、progressive_sequence flag
の値が”1”のとき、符号化フレームごとに付加され
る。Field_IDには、repeat_first_fieldとTop_field_fi
rstにともに”0”が設定されているとき、その符号化
フレームは1枚のprogressiveframeが存在するので、
値”0”が設定され、repeat_first_fieldに値”1”お
よびTop_field_firstに値”0”が設定されていると
き、その符号化フレームは2枚のprogressive frameが
存在するので、値”0”,”1”が設定され、repeat_f
irst_fieldとTop_field_firstにともに”1”が設定さ
れているとき、その符号化フレームは3枚のprogressiv
e frameが存在するので、値”0”乃至”2”が設定さ
れる。
【0136】Line_numberは、14ビットのデータであ
り、各フレームにおける補助データが記述されている、
ITU-R BT.656-3,SMPTE274M,SMPTE293M,SMPTE296Mで規定
されたライン番号を示す。
【0137】Ancillary_data_lengthは、16ビットの
データであり、ancillary_data_payloadのデータ長を示
す。Ancillary_data_payloadは、22ビットのデータか
らなる補助データの内容を表しており、Ancillary_data
_payloadのAncillary_data_lengthの値がjの値(初期
値0)より大きいとき、値j(Ancillary_data_length
のデータ長)を1だけインクリメントして、そのjの値
のビット列目から記述される。
【0138】次のWhile構文は、bytealigned()関数のた
めのシンタックスを表しており、次のデータがbytealig
ned()関数でないとき(While構文が真のとき)、Zero_b
it(1ビットのデータ”0”)を記述する。
【0139】図27に戻って、次のElse if文におい
て、nextbits()関数は、History dataを示すビット列を
検出すると、そのビット列の次ビットからHistory_data
()関数で示されるHistory dataのデータエレメントが
記述されていることを知る。History_data()関数のDa
ta_IDは、図28に示すように、”08”を表すビット
列であり、Data_IDが”08”で示されるデータは、符
号化パラメータの履歴情報を含むHistory dataを表して
いる。
【0140】最後のif文において、nextbits()関数は、
user dataを示すビット列を検出すると、そのビット列
の次ビットからuser_data()関数で示されるuser_dataの
データエレメントが記述されていることを知る。
【0141】図27のnextbits()関数が、それぞれのデ
ータエレメントが記述されていることを知るビット列
は、図28に示すData_IDとして記述されている。ただ
し、Data_IDとして”00”を使用することは禁止され
ている。Data_IDが”80”で示されるデータは、制御
フラグを表しており、Data_IDが”FF”で示されるデ
ータは、user dataを表している。
【0142】図33は、group_of_picture_header()関
数のシンタックスを説明するための図である。このgrou
p_of_picture_header()関数によって定義されたデータ
エレメントは、group_start_code、time_code、closed_
gop、およびbroken_linkから構成される。
【0143】group_start_codeは、GOPレイヤの開始同
期コードを示すデータである。time_codeは、GOPの先頭
ピクチャのシーケンスの先頭からの時間を示すタイムコ
ードである。closed_gopは、GOP内の画像が他のGOPから
独立再生可能なことを示すフラグデータである。broken
_linkは、編集などのためにGOP内の先頭のBピクチャが
正確に再生できないことを示すフラグデータである。
【0144】extension_and_user_data(1)関数は、 ext
ension_and_user_data(0)関数と同じように、user_data
()関数によって定義されるデータエレメントのみを記述
するための関数である。
【0145】次に、図34乃至図36を参照して、符号
化ストリームのピクチャレイヤに関するデータエレメン
トを記述するためのpicture_headr()関数、picture_cod
ing_extension()関数、およびpicture_data()について
説明する。
【0146】図34はpicture_headr()関数のシンタッ
クスを説明するための図である。このpicture_headr()
関数によって定義されたデータエレメントは、picture_
start_code、temporal_reference、picture_coding_typ
e、vbv_delay、full_pel_forward_vector、forward_f_c
ode、full_pel_backward_vector、backward_f_code、ex
tra_bit_picture、およびextra_information_pictureで
ある。
【0147】具体的には、picture_start_codeは、ピク
チャレイヤの開始同期コードを表すデータである。temp
oral_referenceは、ピクチャの表示順を示す番号で、GO
Pの先頭でリセットされるデータである。picture_codin
g_typeは、ピクチャタイプを示すデータである。
【0148】vbv_delayは、VBVバッファの初期状態を示
すデータであって、各ピクチャ毎に設定されている。送
信側システムから受信側システムに伝送された符号化エ
レメンタリストリームのピクチャは、受信側システムに
設けられたVBVバッファにバッファリングされ、DTS
(Decoding Time Stamp)によって指定された時刻に、
このVBVバッファから引き出され(読み出され)、デコ
ーダに供給される。vbv_delayによって定義される時間
は、復号化対象のピクチャがVBVバッファにバッファリ
ングされ始めてから、符号化対象のピクチャがVBVバッ
ファから引き出されるまでの時間、つまりDTSによって
指定された時刻までの時間を意味する。このピクチャヘ
ッダに格納されたvbv_delayを使用することによって、V
BVバッファのデータ占有量が不連続にならないシームレ
スなスプライシングが実現できる。
【0149】full_pel_forward_vectorは、順方向動き
ベクトルの精度が整数単位か半画素単位かを示すデータ
である。forward_f_codeは、順方向動きベクトル探索範
囲を表すデータである。full_pel_backward_vectorは、
逆方向動きベクトルの精度が整数単位か半画素単位かを
示すデータである。backward_f_codeは、逆方向動きベ
クトル探索範囲を表すデータである。extra_bit_pictur
eは、後続する追加情報の存在を示すフラグである。こ
のextra_bit_pictureが「1」の場合には、次にextra_i
nformation_pictureが存在し、extra_bit_pictureが
「0」の場合には、これに続くデータが無いことを示し
ている。extra_information_pictureは、規格において
予約された情報である。
【0150】図35は、picture_coding_extension()関
数のシンタックスを説明するための図である。このpict
ure_coding_extension()関数によって定義されたデータ
エレメントは、extension_start_code、extension_star
t_code_identifier、f_code[0][0]、f_code[0][1]、f_c
ode[1][0]、f_code[1][1]、intra_dc_precision、pictu
re_structure、top_field_first、frame_predictive_fr
ame_dct、concealment_motion_vectors、q_scale_typ
e、intra_vlc_format、alternate_scan、repeat_first_
field、chroma_420_type、progressive_frame、composi
te_display_flag、v_axis、field_sequence、sub_carri
er、burst_amplitude、およびsub_carrier_phaseから構
成される。
【0151】extension_start_codeは、ピクチャレイヤ
のエクステンションデータのスタートを示す開始コード
である。extension_start_code_identifierは、どの拡
張データが送られるかを示すコードである。f_code[0]
[0]は、フォアード方向の水平動きベクトル探索範囲を
表すデータである。f_code[0][1]は、フォアード方向の
垂直動きベクトル探索範囲を表すデータである。f_code
[1][0]は、バックワード方向の水平動きベクトル探索範
囲を表すデータである。f_code[1][1]は、バックワード
方向の垂直動きベクトル探索範囲を表すデータである。
intra_dc_precisionは、DC係数の精度を表すデータであ
る。picture_structureは、フレームストラクチャかフ
ィールドストラクチャかを示すデータである。これは、
フィールドストラクチャの場合は、上位フィールドか下
位フィールドかもあわせて示す。
【0152】top_field_firstは、フレームストラクチ
ャの場合、最初のフィールドがトップフィールドである
のか、ボトムフィールドであるのかを示すフラグであ
る。frame_predictive_frame_dctは、フレーム・ストラ
クチャの場合、フレーム・モードDCTの予測がフレーム
・モードだけであることを示すデータである。concealm
ent_motion_vectorsは、イントラマクロブロックに伝送
エラーを隠蔽するための動きベクトルがついていること
を示すデータである。q_scale_typeは、線形量子化スケ
ールを利用するか、非線形量子化スケールを利用するか
を示すデータである。intra_vlc_formatは、イントラマ
クロブロックに、別の2次元VLC(可変長符号)を使う
かどうかを示すデータである。alternate_scanは、ジグ
ザグスキャンを使うか、オルタネート・スキャンを使う
かの選択を表すデータである。
【0153】repeat_first_fieldは、復号化時にリピー
トフィールドを生成するか否かを示すフラグであって、
復号化時の処理において、repeat_first_field が
「1」の場合にはリピートフィールドを生成し、repeat
_first_fieldが「0」の場合にはリピートフィールドを
生成しないという処理が行われる。
【0154】chroma_420_typeは、信号フォーマットが
4:2:0の場合、次のprogressive_frame と同じ値、
そうでない場合は0を表すデータである。progressive_
frameは、そのピクチャが、順次走査できているかどう
かを示すデータである。composite_display_flagは、ソ
ース信号がコンポジット信号であったかどうかを示すデ
ータである。v_axisは、ソース信号が、PALの場合に使
われるデータである。field_sequenceは、ソース信号
が、PALの場合に使われるデータである。sub_carrier
は、ソース信号が、PALの場合に使われるデータであ
る。burst_amplitudeは、ソース信号が、PALの場合に使
われるデータである。sub_carrier_phaseは、ソース信
号が、PALの場合に使われるデータである。
【0155】図36は、picture_data()関数のシンタッ
クスを説明するための図である。このpicture_data()関
数によって定義されるデータエレメントは、slice()関
数によって定義されるデータエレメントである。但し、
ビットストリーム中に、slice()関数のスタートコード
を示すslice_start_codeが存在しない場合には、このsl
ice()関数によって定義されるデータエレメントはビッ
トストリーム中に記述されていない。
【0156】slice()関数は、スライスレイヤに関する
データエレメントを記述するための関数であって、具体
的には、slice_start_code、slice_quantiser_scale_co
de、intra_slice_flag、intra_slice、reserved_bits、
extra_bit_slice、extra_information_slice、およびex
tra_bit_slice 等のデータエレメントと、macroblock()
関数によって定義されるデータエレメントを記述するた
めの関数である。
【0157】slice_start_codeは、slice()関数によっ
て定義されるデータエレメントのスタートを示すスター
トコードである。slice_quantiser_scale_codeは、この
スライスレイヤに存在するマクロブロックに対して設定
された量子化ステップサイズを示すデータである。しか
し、各マクロブロック毎に、quantiser_scale_codeが設
定されている場合には、各マクロブロックに対して設定
されたmacroblock_quantiser_scale_codeのデータが優
先して使用される。intra_slice_flagは、ビットストリ
ーム中にintra_sliceおよびreserved_bitsが存在するか
否かを示すフラグである。intra_sliceは、スライスレ
イヤ中にノンイントラマクロブロックが存在するか否か
を示すデータである。スライスレイヤにおけるマクロブ
ロックのいずれかがノンイントラマクロブロックである
場合には、intra_sliceは「0」となり、スライスレイ
ヤにおけるマクロブロックの全てがノンイントラマクロ
ブロックである場合には、intra_sliceは「1」とな
る。reserved_bitsは、7ビットのデータであって
「0」の値を取る。extra_bit_sliceは、符号化ストリ
ームとして追加の情報が存在することを示すフラグであ
って、次にextra_information_sliceが存在する場合に
は「1」に設定される。追加の情報が存在しない場合に
は「0」に設定される。
【0158】macroblock()関数は、マクロブロックレイ
ヤに関するデータエレメントを記述するための関数であ
って、具体的には、macroblock_escape、macroblock_ad
dress_increment、およびmacroblock_quantiser_scale_
code等のデータエレメントと、macroblock_modes()関
数、および macroblock_vecters(s)関数によって定義さ
れたデータエレメントを記述するための関数である。
【0159】macroblock_escapeは、参照マクロブロッ
クと前のマクロブロックとの水平方向の差が34以上で
あるか否かを示す固定ビット列である。参照マクロブロ
ックと前のマクロブロックとの水平方向の差が34以上
の場合には、macroblock_address_incrementの値に33
をプラスする。macroblock_address_incrementは、参照
マクロブロックと前のマクロブロックとの水平方向の差
を示すデータである。もし、このmacroblock_address_i
ncrementの前にmacroblock_escapeが1つ存在するので
あれば、このmacroblock_address_incrementの値に33
をプラスした値が、実際の参照マクロブロックと前のマ
クロブロックとの水平方向の差分を示すデータとなる。
macroblock_quantiser_scale_codeは、各マクロブロッ
ク毎に設定された量子化ステップサイズである。各スラ
イスレイヤには、スライスレイヤの量子化ステップサイ
ズを示すslice_quantiser_scale_codeが設定されている
が、参照マクロブロックに対してmacroblock_quantiser
_scale_codeが設定されている場合には、この量子化ス
テップサイズを選択する。
【0160】図37は、MPEG符号化ストリームのデータ
構造を示す説明図である。この図に示したように、ビデ
オエレメンタリストリームのデータ構造は、少なくとも
シーケンスレイヤ、GOPレイヤ、およびピクチャレイヤ
を含んでいる。
【0161】シーケンスレイヤは、next_start_code()
関数201、sequence_header()関数202、extension
_start_code()203、sequence_extension()関数20
4、extension_and_user_data(0)関数205によって定
義されるデータエレメントから構成されている。GOPレ
イヤは、group_start_code206、group_of_picture_h
eader()関数207、extension_and_user_data(1)関数
208によって定義されるデータエレメントから構成さ
れている。ピクチャレイヤは、picture_header()関数2
09、picture_coding_extension()関数210、extens
ion_and_user_data(2)関数211、picture_data()関数
212によって定義されるデータエレメントを含んでい
る。ビデオシーケンスの最後には、sequence_end_code
213が記述されている。
【0162】extension_and_user_data(2)関数211
は、既に図26において説明したシンタックスからも理
解できるように、user_data_start_code214、user_d
ata()関数215、next_start_code216によって定義
されるデータエレメントを含んでいる。
【0163】user_data()関数215は、既に図27に
おいて説明したシンタックスからも理解できるように、
time_code()関数217とuser_data218によって定義
されるデータエレメントを含んでいる。
【0164】なお、本明細書において、システムとは、
複数の装置により構成される装置全体を表すものとす
る。
【0165】また、本明細書中において、上記処理を実
行するコンピュータプログラムをユーザに提供する提供
媒体には、磁気ディスク、CD-ROMなどの情報記録媒体の
他、インターネット、デジタル衛星などのネットワーク
による伝送媒体も含まれる。
【0166】
【発明の効果】以上の如く、請求項1に記載のデジタル
信号伝送装置、請求項4に記載のデジタル信号伝送方
法、および請求項5に記載の提供媒体によれば、第1の
ビットストリームから順序情報を抽出し、抽出した順序
情報に基づいてタイムスタンプを生成し、第2のビット
ストリームに挿入するようにしたので、所定の場所にお
ける画像データの処理を迅速に行うことができるように
なるとともに、他の場所においても、画像データを迅速
に処理することが可能となる。
【図面の簡単な説明】
【図1】Coding Phaseを説明する図である。
【図2】補助データを説明する図である。
【図3】エレメンタリストリームを伝送するシステムの
構成を示す図である。
【図4】補助データを伝送するシステムの構成を示す図
である。
【図5】MPEG方式における予測構造と符号化構造を説明
する図である。
【図6】MPEGエンコーダで発生する遅延について説明す
る図である。
【図7】スタジオの内部の構成を示すブロック図であ
る。
【図8】図7のスタジオの内部で伝送されるデータを説
明する図である。
【図9】図7のシステムにおいてデータを伝送するシス
テムの構成を示す図である。
【図10】3−2プルダウン処理された画像の補助デー
タを説明する図である。
【図11】2つのスタジオの間でビットストリームを伝
送するときのシステム構成を表すブロック図である。
【図12】図11のシステムで伝送されるストリームの
構成を表す図である。
【図13】図11のシステムにおいて、トランスポート
ストリームを伝送する構成を表すブロック図である。
【図14】符号化処理の遅延を説明する図である。
【図15】本発明を適用したMPEGエンコーダの構成を表
すブロック図である。
【図16】本発明を適用したMPEGデコーダの構成を表す
ブロック図である。
【図17】CPIを伝送する場合のシステムの構成を表す
図である。
【図18】図11のSDTI-CPインタフェース46の構成
を表すブロック図である。
【図19】補助データの伝送を説明する図である。
【図20】3−2プルダウン処理におけるPTS_counter
とDTS_counterを説明する図である。
【図21】POIを伝送する場合のシステムの構成を表す
図である。
【図22】POIを伝送する場合の他のシステムの構成を
表す図である。
【図23】video_sequence関数のシンタックスを説明す
る図である。
【図24】sequence_header()関数のシンタックスを説
明する図である。
【図25】sequence_extension()関数のシンタックスを
説明する図である。
【図26】extension_and_user_data(i)関数のシンタッ
クスを説明する図である。
【図27】user data()関数のシンタックスを表す図で
ある。
【図28】user dataに記述される関数のData_IDを説明
する図である。
【図29】V-Phase()関数のシンタックスを説明する図
である。
【図30】H-Phase()関数のシンタックスを説明する図
である。
【図31】Picture_Order()関数のシンタックスを説明
する図である。
【図32】Ancillary_data()関数のシンタックスを説明
する図である。
【図33】group_of_picture_header()関数のシンタッ
クスを説明する図である。
【図34】picture_header()関数のシンタックスを説明
する図である。
【図35】picture_coding_extension()関数のシンタッ
クスを説明する図である。
【図36】picture_data()関数のシンタックスを説明す
る図である。
【図37】MPEG方式のレイヤを説明する図である。
【符号の説明】
42,43 MPEGエンコーダ, 44,45 MPEGデコ
ーダ, 46乃至49SDTI-CPインタフェース, 50
SDTI-CPネットワーク, 51 SDTI-CPインタフェー
ス, 61,62 TS MUX/DEMUX, 72,73 MPEG
エンコーダ,74,75 MPEGデコーダ, 76乃至8
1 SDTI-CPインタフェース, 80 SDTI-CPネットワ
ーク
フロントページの続き Fターム(参考) 5C059 KK11 LA09 MA00 ME01 PP05 PP06 PP07 RB02 RB10 RB11 RC04 RC26 SS06 SS08 SS11 UA02 UA05 UA32

Claims (5)

    【特許請求の範囲】
  1. 【請求項1】 画像信号の符号化順序と、前記画像信号
    の表示順序に関する順序情報が、前記画像信号のアクセ
    スユニット単位で挿入されている第1のビットストリー
    ムを受信する第1の受信手段と、 前記第1の受信手段により受信された前記第1のビット
    ストリームから前記順序情報を抽出し、抽出した前記順
    序情報に基づいてタイムスタンプを生成し、第2のビッ
    トストリームに挿入して出力する第1の出力手段とを含
    むことを特徴とするデジタル信号伝送装置。
  2. 【請求項2】 前記第2のビットストリームを受信する
    第2の受信手段と、 前記第2の受信手段により受信された前記第2のビット
    ストリームから、前記タイムスタンプを生成し、前記第
    1のビットストリームに挿入して出力する第2の出力手
    段とをさらに含むことを特徴とする請求項1に記載のデ
    ジタル信号伝送装置。
  3. 【請求項3】 前記符号化順序は、前記画像信号のフィ
    ールドの表示時間を単位とすることを特徴とする請求項
    1に記載のデジタル信号伝送装置。
  4. 【請求項4】 画像信号の符号化順序と、前記画像信号
    の表示順序に関する順序情報が、前記画像信号のアクセ
    スユニット単位で挿入されている第1のビットストリー
    ムを受信する受信ステップと、 前記受信ステップの処理で受信された前記第1のビット
    ストリームから前記順序情報を抽出し、抽出した前記順
    序情報に基づいてタイムスタンプを生成し、第2のビッ
    トストリームに挿入して出力する出力ステップとを含む
    ことを特徴とするデジタル信号伝送方法。
  5. 【請求項5】 画像信号の符号化順序と、前記画像信号
    の表示順序に関する順序情報が、前記画像信号のアクセ
    スユニット単位で挿入されている第1のビットストリー
    ムを受信する受信ステップと、 前記受信ステップの処理で受信された前記第1のビット
    ストリームから前記順序情報を抽出し、抽出した前記順
    序情報に基づいてタイムスタンプを生成し、第2のビッ
    トストリームに挿入して出力する出力ステップとを含む
    処理をデジタル信号伝送装置に実行させるコンピュータ
    が読み取り可能なプログラムを提供することを特徴とす
    る提供媒体。
JP2937799A 1999-02-05 1999-02-05 デジタル信号伝送装置および方法、並びに提供媒体 Pending JP2000228768A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2937799A JP2000228768A (ja) 1999-02-05 1999-02-05 デジタル信号伝送装置および方法、並びに提供媒体
US12/487,356 US8160134B2 (en) 1999-02-05 2009-06-18 Encoding system and method, decoding system and method, multiplexing apparatus and method, and display system and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2937799A JP2000228768A (ja) 1999-02-05 1999-02-05 デジタル信号伝送装置および方法、並びに提供媒体

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2005344688A Division JP2006109513A (ja) 2005-11-29 2005-11-29 符号化装置および方法、並びに記録媒体

Publications (1)

Publication Number Publication Date
JP2000228768A true JP2000228768A (ja) 2000-08-15

Family

ID=12274469

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2937799A Pending JP2000228768A (ja) 1999-02-05 1999-02-05 デジタル信号伝送装置および方法、並びに提供媒体

Country Status (1)

Country Link
JP (1) JP2000228768A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1536651A1 (en) * 2002-07-19 2005-06-01 Sony Corporation Encoding device, encoding method, decoding device, and decoding method
JP2011109665A (ja) * 2009-11-18 2011-06-02 Tektronix Internatl Sales Gmbh コード化タイミング情報のないビデオ・エレメンタリ・ストリームをマルチプレクスする方法及び装置
WO2017033748A1 (ja) * 2015-08-25 2017-03-02 ソニー株式会社 送信装置、送信方法、受信装置および受信方法

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1536651A1 (en) * 2002-07-19 2005-06-01 Sony Corporation Encoding device, encoding method, decoding device, and decoding method
EP1536651A4 (en) * 2002-07-19 2010-12-29 Sony Corp ENCODING DEVICE, ENCODING METHOD, DECODING DEVICE, AND DECODING METHOD
US8228988B2 (en) 2002-07-19 2012-07-24 Sony Corporation Encoding device, encoding method, decoding device, and decoding method
US8259799B2 (en) 2002-07-19 2012-09-04 Sony Corporation Encoding device, encoding method, decoding device, and decoding method
JP2011109665A (ja) * 2009-11-18 2011-06-02 Tektronix Internatl Sales Gmbh コード化タイミング情報のないビデオ・エレメンタリ・ストリームをマルチプレクスする方法及び装置
WO2017033748A1 (ja) * 2015-08-25 2017-03-02 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
CN107925776A (zh) * 2015-08-25 2018-04-17 索尼公司 发送装置、发送方法、接收装置和接收方法
US10834444B2 (en) 2015-08-25 2020-11-10 Sony Corporation Transmitting apparatus, transmission method, receiving apparatus, and reception method
CN107925776B (zh) * 2015-08-25 2021-06-08 索尼公司 发送装置、发送方法、接收装置和接收方法

Similar Documents

Publication Publication Date Title
US8160134B2 (en) Encoding system and method, decoding system and method, multiplexing apparatus and method, and display system and method
KR100420740B1 (ko) 인코딩 장치, 인코딩 방법, 디코딩 장치, 디코딩 방법,코딩 시스템, 코딩 방법
US11601696B2 (en) Transmission apparatus, transmission method, reception apparatus, and reception method
US11368744B2 (en) Device and associated method for using layer description and decoding syntax in multi-layer video
EP0944249B1 (en) Encoded stream splicing device and method, and an encoded stream generating device and method
JP7192910B2 (ja) 送信方法および送信装置
US20230388524A1 (en) Coding apparatus, coding method, transmission apparatus, and reception apparatus
JP2000228768A (ja) デジタル信号伝送装置および方法、並びに提供媒体
JP3584460B2 (ja) ビットストリーム変換装置および方法、並びに提供媒体
JP2000228769A (ja) デジタル信号伝送装置および方法、デジタル信号受信装置および方法、並びに提供媒体
JP5976189B2 (ja) 送信装置、送信方法、受信装置および受信方法
JP5947444B2 (ja) 送信装置、送信方法、受信装置および受信方法
JP2006109513A (ja) 符号化装置および方法、並びに記録媒体
JP6614281B2 (ja) 受信装置および受信方法
JP6614275B2 (ja) 受信装置、受信方法、送信装置および送信方法
JP6350638B2 (ja) 送信装置、送信方法、受信装置および受信方法
JP6341228B2 (ja) 符号化装置、符号化方法、送信装置、送信方法、受信装置および受信方法
JP6052354B2 (ja) 送信装置、送信方法、受信装置および受信方法
JP2004328771A (ja) エンコーディング装置及び方法、デコーディング装置及び方法、並びに記録媒体

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050301

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050307

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050930

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051129

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060601

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060802

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20060815

A912 Removal of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20070316