JP4345217B2 - Data processing method and apparatus - Google Patents
Data processing method and apparatus Download PDFInfo
- Publication number
- JP4345217B2 JP4345217B2 JP2000301393A JP2000301393A JP4345217B2 JP 4345217 B2 JP4345217 B2 JP 4345217B2 JP 2000301393 A JP2000301393 A JP 2000301393A JP 2000301393 A JP2000301393 A JP 2000301393A JP 4345217 B2 JP4345217 B2 JP 4345217B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- scene description
- reproduction
- time
- special reproduction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Compression Or Coding Systems Of Tv Signals (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Television Signal Processing For Recording (AREA)
- Television Systems (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、静止画像や動画像等のビデオデータ、オーディオデータ、テキストデータやグラフィックデータなどから成るマルチメディアデータと共に、それらマルチメディアデータを用いてシーンを構成するためのシーン記述データをネットワークを用いて配信し、その配信されたマルチメディアデータ及びシーン記述データを復号端末において受信し、当該復号端末にて復号して表示するようなデータ配信システムにおいて特殊再生を行う場合に用いて最適な、データ処理方法及び装置に関する。
【0002】
【従来の技術】
静止画像や動画像の画像信号を圧縮して蓄積したビデオデータ等を、伝送媒体を介して配信し、復号端末において受信し、復号して表示するような従来のデータ配信システムの構成例を図39に示す。なお、図39では、説明を簡略化するためにビデオデータの経路のみについて説明している。また、以下の説明では、ビデオデータを例えばISO(Internatioal Organization for Standardization)/IEC(International Electrotechnical Comission)13818−1(いわゆるMPEG2 Systems)で規定されているトランスポートストリーム(Transport stream、以下、単にTSとする)へパケット化して配信する場合を例に挙げている。
【0003】
図39において、サーバ200は、ビデオデータを記憶する記憶部209を備えている。上記記憶部209から読み出されたビデオデータは、多重化部204にてTSへパケット化され、さらに送信部205にて配信データ211となされて伝送媒体210へ出力され、例えば復号端末212へ配信される。このとき、上記TSの配信データ211は、伝送媒体210で使用されるプロトコルを使用して伝送されることになる。例えばISO/IEC13818−1の規定を満たすTSは、IEC61883の「Digital Interface for consumer audio/video equipment」に定められた方法で、例えばIEEE(Institute of Electrical and Electronics Engineers)1394規格の伝送媒体を使用して伝送することが可能である。なお、多重化部204と送信部205は一体の構成であっても構わない。
【0004】
復号端末212では、受信部213により上記配信データ211を受信し、分離部214に送る。分離部214では、上記TSのパケットからビデオデータを分離し、復号部215に送る。復号部215では、符号化されているビデオデータを復号する。この復号されたビデオデータは、例えば図示していない表示装置等に送られ、ビデオ画像として表示されることになる。
【0005】
このようなデータ配信システムにおいて、例えば早送り再生やコマ送り再生、一時停止などの特殊再生表示を行う場合には、例えばユーザによる端末フロントパネル或いはリモートコントローラ等の操作に応じた特殊再生指定信号(早送り再生やコマ送り再生などの指示信号)206が、当該復号端末212の特殊再生制御部216へ入力されることになる。このときの復号端末212の特殊再生制御部216は、特殊再生指定信号206にて指定された種類の特殊再生用のビデオデータをサーバ200に対して要求するための特殊再生要求信号220を発生し、その特殊再生要求信号220を前記伝送媒体210を介してサーバ200の特殊再生制御部201へ送信する。
【0006】
この特殊再生要求信号220を受け取ったサーバ200の特殊再生制御部201は、その要求に応じたコントロール信号202a,202bを発生し、それぞれ対応する多重化部204と送信部205へ送る。多重化部204は、コントロール信号202bによる特殊再生制御部201の制御の元で、記憶部209から、上記ユーザが指定した種類の特殊再生を復号端末212にて可能とするための特殊再生用のビデオデータを読み出す。また、多重化部204では、その当該特殊再生用のビデオデータをTSへパケット化し、送信部205へ送る。送信部205は、コントロール信号202aによる特殊再生制御部201の制御の元で、その特殊再生用のビデオデータのパケットを配信データ211として復号端末212に配信する。
【0007】
当該特殊再生用のビデオデータからなる配信データ211が供給されたときの復号端末212では、上記特殊再生指定信号206に応じた特殊再生制御を行うためのコントロール信号217a,217bが上記特殊再生制御部216から出力され、それぞれ対応する受信部213と復号部215へ送られる。受信部213は、このコントロール信号217bによる特殊再生制御部216の制御の元で、上記特殊再生用のビデオデータからなる配信データ211を受信し、分離部214へ送る。分離部214では、上記TSのパケットから上記特殊再生用のビデオデータを分離し、復号部215へ送る。復号部215では、コントロール信号217aによる特殊再生制御部216の制御の元で、特殊再生用のビデオデータの復号を行う。これにより、図示しない表示装置等には、早送り再生やコマ送り再生などの特殊再生表示がなされることになる。
【0008】
なお、ISO/IEC13818−2に規定されているビデオフレームの符号化方法には、フレーム内データのみから符号化するIピクチャ(Intra-coded picture:イントラ符号化画像)と、フレーム間の予測を利用して符号化するBピクチャ(Bidirectionally predictive-coded picture:両方向予測符号化画像)およびPピクチャ(Predictive-coded picture:前方予測符号化画像)があり、前述の図39に示したデータ配信システムでは、上記記憶部209から読み出される上記特殊再生用のビデオデータとして、上記ビデオフレーム間の予測処理を使用しないIピクチャが用いられている。すなわち、通常再生用のビデオデータ中にはランダムアクセスを可能にするために定期的にIピクチャが含まれおり、そのIピクチャを抽出して特殊再生用のビデオデータを構成している。このように、図39に示した従来のデータ配信システムでは、復号端末212において例えば早送り等の特殊再生が行われる場合、ISO/IEC13818−2のIピクチャのみからなるビデオデータのような特殊再生用のビデオデータを、サーバ200から復号端末212へ配信するようになされている。
【0009】
その一方で、上述したデータ配信システムのように、例えばISO/IEC13818−2(いわゆるMPEG2 video)に準拠した圧縮ビデオデータを配信する場合、当該ISO/IEC13818−2に規定される圧縮ビデオデータは、デコーダバッファをオーバーフローおよびアンダーフローしないように符号化されていなければならない。なお、デコーダバッファとは、復号部215が備える図示しない入力バッファに相当するものである。このISO/IEC13818−2に規定されているバッファのサイズを超えてデータを入力すると、上記デコーダバッファはオーバーフローとなり、一方、復号すべき時刻において復号に必要なデータが到着していなければアンダーフローとなる。
【0010】
しかしながら、上述の特殊再生用のビデオデータのように、Iピクチャのみからなるビデオデータはデータ量が多くなり、デコーダバッファをオーバーフローもしくはアンダーフローさせてしまうことがある。このため、従来のデータ配信システムでは、デコーダバッファをオーバーフロー若しくはアンダーフローさせることなく、且つ特殊再生をも可能とするような、通常再生用とは異なる特殊再生用の特別なデータを予め用意しておき、復号端末において特殊再生を行う際に、その特殊再生用の特別なデータを配信する必要がある。また、復号端末側においても、その特殊再生用の特別なデータに対応した、通常の特殊再生処理とは異なる特別な特殊再生処理が行えるような、特別な端末が必要となっている。
【0011】
すなわち、従来のデータ配信システムによれば、デコーダバッファをオーバーフローもしくはアンダーフローさせることなく、特殊再生を実現するために、上述したIピクチャのみからなる特殊再生用のビデオデータとは異なる特殊再生用の特別なデータを予め用意し、特殊再生時にその特別なデータを配信しなければならない。同じく、復号端末は、その特殊再生用の特別なデータに対応可能な特別な各復号部215を備えた端末が必要となり、また、特殊再生制御部216では、受信部213、分離部214、復号部215を、特殊再生用データ処理のためのコントロールが必要となっている。
【0012】
このようなことから、本件出願人は、特許願2000−178999号や特許願2000−179000号により、サーバにおいて、記憶部から読み出された通常再生用ビデオデータを用い、ユーザから指定された種類の特殊再生を行った結果のデータをISO/IEC13818−2の規定を満足するビデオデータへ変換し、その変換後のビデオデータを復号端末へ配信することにより、前述したような特殊再生用の特別な配信データを使用及び予め用意する必要が無く、また、その特殊再生用の特別な配信データに対応可能な特別な復号端末を必要としない簡易な構成とする技術について提案している。
【0013】
図40には、通常再生用のビデオデータを用いて特殊再生を行った結果のデータを、例えばISO/IEC13818−2の規定を満足するビデオデータへ変換して出力することを実現する、データ配信システムの概略構成を示す。なお、この図40の例では、例えばビデオデータ等をISO(Internatioal Organization for Standardization)/IEC(International Electrotechnical Comission)13818−1(いわゆるMPEG2 Systems)で規定されているトランスポートストリーム(Transport stream:TS)へパケット化して配信する場合を挙げている。
【0014】
図40において、サーバ220は、静止画像や動画像等のビデオデータ、オーディオデータ、テキストデータ、グラフィックデータ等のマルチメディアデータを記憶する記憶部229を備えている。上記記憶部229からは例えばビデオデータが読み出され、そのビデオデータは例えば後述するデータ変換部223を介して多重化部224へ送られる。多重化部224では、データ変換部223から出力されたデータをTSへパケット化する。このTSパケットは、さらに送信部225にて配信データ231となされて伝送媒体230へ出力され、例えば復号端末232へ配信される。このとき、上記TSの配信データ231は、伝送媒体230で使用されるプロトコルを使用して伝送されることになる。例えばISO/IEC13818−1の規定を満たすTSは、IEC61883の「Digital Interface for consumer audio/video equipment」に定められた方法で、例えばIEEE(Institute of Electrical and Electronics Engineers)1394規格の伝送媒体を使用して伝送することが可能である。
【0015】
復号端末232では、受信部233により上記配信データ231を受信し、分離部234に送る。分離部234では、上記TSのパケットからビデオデータを分離し、復号部235に送る。復号部235では、供給されたデータを復号、すなわち符号化されているビデオデータを復号する。この復号されたビデオデータは、例えば図示していない表示装置等に送られ、ビデオ画像として表示されることになる。
【0016】
このデータ配信システムの復号端末232において、特殊再生表示が行われる場合は、例えば、復号端末232のユーザによる操作に応じた特殊再生指定信号226が、当該復号端末232内の図示しない伝送媒体インターフェイス部などから伝送媒体230を介してサーバ220へ送信される。この特殊再生指定信号226は、例えば早送り再生や巻き戻し再生、コマ送り再生などの特殊再生の種類と、記憶部229に格納されているビデオデータ等の指定を含む信号である。なお、サーバ220と復号端末232が例えば家庭用ネットワークのように近距離にて接続され、ユーザがサーバ220のフロントパネルやリモートコントローラ等を操作可能な環境である場合には、当該サーバ220のフロントパネルやリモートコントローラ等をユーザが操作することにより、サーバ220に対して直接に特殊再生指定信号226を入力することも可能である。
【0017】
サーバ220へ入力された特殊再生指定信号226は、当該サーバ220内に設けられている特殊再生制御部221へ入力する。この特殊再生制御部221は、特殊再生指定信号226に応じて、特殊再生の種類、ビデオデータの指定を含む特殊再生制御用のコントロール信号222を発生し、データ変換部223へ送る。
【0018】
データ変換部223は、コントロール信号222による特殊再生制御部221の制御の元で、記憶部229からビデオデータを読み出す。さらに、データ変換部223は、記憶部229から読み出したビデオデータを用い、コントロール信号222にて指定される種類の特殊再生を行った結果のデータを、例えばISO/IEC13818−2の規定を満足するビデオデータへ変換して出力する。すなわち、このときデータ変換部223は、復号端末232の復号部235において通常再生時と同様に復号を行った時に、早送り再生や巻き戻し再生、コマ送り再生等の特殊再生(ユーザにより指定された特殊再生)が実現されるビデオデータへ、記憶部229から読み出したビデオデータを変換する。
【0019】
ここで、図41及び図42を用いて、上記データ変換部223におけるデータ変換処理について簡単に説明する。
【0020】
図41には、MPEG2 videoで符号化されている通常再生用のビデオデータ(記憶部229から読み出されたビデオデータ)を、上記データ変換部223において、特殊再生処理の一例としての早送り再生を実現し且つISO/IEC13818−2の規定を満足するビデオデータへ変換する際の、データ変換処理の概略を示す。なお、図中のIはIピクチャ、PはPピクチャ、BはBピクチャを表している。また、MPEG2 videoの規定では、ピクチャ間の予測を使用して符号化を行う関係上、符号化順(データがビットストリーム中に符号化される順番)と実際の表示順が異なる場合があるため、図41では符号化順と表示順を併記して示している。図41の(a)には、通常再生用ビデオデータの符号化順を示し、図41の(b)には、通常再生用ビデオデータを復号して表示する際の表示順を示している。図41の(c)には、通常再生区間USの次に早送り再生区間FSへ移行し、その後通常再生区間USへ戻されるような特殊再生のための変換処理が行われる場合の符号化順を示し、図41の(d)には、図41の(c)のような特殊再生のための変換処理が行われる場合の表示順を示している。
【0021】
データ変換部223では、特殊再生が行われる早送り再生区間FSについて、図中Ek、Em、Enに示すように、図41の(a)の通常再生用ビデオデータ中のIピクチャ(Ik、Im、In)を抜き出して使用し、さらに、デコーダバッファを破綻させないために、それらIピクチャの間にリピートピクチャBRを挿入するようなデータ変換処理を行う。なお、上記リピートピクチャBRとは、予測元画像を繰り返すピクチャであり、復号の際にはBピクチャとして扱われるピクチャである。また、リピートピクチャBRの挿入は、早送り再生の速度を調節する効果もある。
【0022】
図42には、図41と同様に、MPEG2 videoで符号化されている通常再生用のビデオデータ(記憶部229から読み出されたビデオデータ)を、上記データ変換部223において、特殊再生処理の一例としての巻き戻し再生を実現し且つISO/IEC13818−2の規定を満足するビデオデータへ変換する際の、データ変換処理の概略を示す。図42の(a)には、通常再生用ビデオデータの符号化順を示し、図42の(b)には、通常再生用ビデオデータを復号して表示する際の表示順を示している。図42の(c)には、通常再生区間USの次に巻き戻し再生区間BSへ移行し、その後通常再生区間USに戻されるような特殊再生のための変換処理が行われる場合の符号化順を示し、図42の(d)には、図42の(c)のような特殊再生のための変換処理が行われる場合の表示順を示している。
【0023】
データ変換部223では、特殊再生が行われる巻き戻し再生区間BSについて、図中Ek、Em、Enに示すように、図42の(a)の通常再生用ビデオデータ中のIピクチャ(Ik、Im、In)を抜き出し且つそれらの順序を入れ替え、さらにデコーダバッファを破綻させないために、それらIピクチャの間にリピートピクチャBRを挿入するようなデータ変換処理を行う。
【0024】
このように、データ変換部223にて変換処理された特殊再生用のビデオデータは、前述同様に多重化部224以降の構成を介して復号端末232へ配信されることになる。
【0025】
【発明が解決しようとする課題】
ところで、従来のテレビジョン放送では、1つの画像信号を画像表示装置の画面上に表示し、1つの音声信号のみがスピーカから出力されるようになされているが、近年は、静止画や動画等のビデオデータ、オーディオデータ、テキストデータやグラフィックデータなどから成るマルチメディアデータを用いて1つのシーンを構成するようなことも考えられている。なお、それらマルチメディアデータを用いてシーンの構成を記述する方法としては、いわゆるインターネットのホームページ等で用いられているHTML(HyperText Markup Language)、ISO/IEC14496−1に規定されたシーン記述方式であるMPEG4 BIFS(Binary Format for the Scene)、ISO/IEC14772に規定されたVRML(Virtual Reality Modeling Language)、Java(商標)などがある。以下、シーンの構成を記述したデータをシーン記述と呼ぶことにする。
【0026】
VRMLおよびMPEG4 BIFSを用いたシーン記述の例を、図43を用いて説明する。なお、図43にはシーン記述の内容が示されている。VRMLでは、図43のようなテキストデータによりシーン記述が行われ、MPEG4 BIFSではこのテキストデータをバイナリに符号化したものによりシーン記述が行われる。
【0027】
VRMLおよびMPEG4 BIFSのシーン記述は、ノードと呼ばれる基本的な記述単位により表現され、図43の例ではノードを太線斜体文字にて表している。ノードは、表示される物体や物体同士の結合関係等を記述する単位であり、ノードの特性や属性を示すためにフィールドと呼ばれるデータを含んでいる。例えば、図43中のTransformノードは、三次元の座標変換を指定可能なノードであり、そのノード中のtranslationフィールドにて座標原点の平行移動量が指定されている。また、フィールドには他のノードを指定可能なフィールドも存在する。例えば図43中のTransformノードは、Transformノードにより座標変換される子ノード群を示すChildrenフィールドがあり、このChildrenフィールドにより例えばShapeノード等がグルーピングされている。表示する物体をシーン中に配置するには、物体を表すノードを、属性を表すノードと共にグループ化し、さらに、配置位置を示すノードによってそれらノードをグループ化する。例えば、図43中のShapeノードが表している物体は、その親ノードであるTransformノードによって指定された平行移動を適用されて、シーン中に配置されることになる。
【0028】
前記ビデオデータやオーディオデータなどは、上記シーン記述により空間的および時間的に配置されて表示される。例えば、図43中のMovieTextureノードは、3というIDで指定される動画像を、立方体の表面に貼り付けて表示することを指定している。
【0029】
【発明が解決しようとする課題】
上述のように、近年は、ビデオデータ、オーディオデータ、テキストデータやグラフィックデータなどから成るマルチメディアデータを用いて1つのシーンを構成するようなことが考えられているが、従来のデータ配信システムでは、特殊再生中にはビデオデータのみしか復号および表示等されない。
【0030】
このため、例えばビデオデータ、オーディオデータ、テキストデータやグラフィックデータなどから成るマルチメディアデータを配信するようにしたとしても、特殊再生中にはビデオデータのみしか復号および表示等されず、例えばオーディオデータや字幕用テキスト等のビデオ以外のデータを含むデータが配信されたとしても、従来のデータ配信システムでは、特殊再生中にそれらビデオ以外のデータの復号及び表示等は行われない。
【0031】
このようなことから、早送り再生や巻き戻し再生等の特殊再生中にも、オーディオデータや字幕用テキストデータなどのビデオデータ以外のデータの復号及び表示等を可能とすることが望まれている。
【0032】
また、現在のところ、上述のようなシーンを構成するためのシーン記述データを、特殊再生中にも配信し、復号等するための手法及び手段は実現されていない。このため、従来のデータ配信システムでは、例えば上述のマルチメディアデータを用いて1つのシーンを構成し、そのマルチメディアデータを配信するようにしたとしても、特殊再生中にはシーンの構成が行えず、その結果、例えば特殊再生の開始時及び終了時に表示されるシーンが不連続となってしまうような問題が発生する。
【0033】
このようなことから、上記シーン記述データを、特殊再生中にも配信し、復号等するための手法及び手段の実現が望まれている。
【0034】
さらに、特殊再生中にも上述のマルチメディアデータとシーン記述データを配信し、復号し、表示等することを実現する上では、それらのデータ間の同期関係を保持して表示等がなされるようにする必要があり、また、伝送ビットレートなどの評価基準(デコーダバッファを破綻させない等の基準)を満たすデータとして配信する必要もある。
【0035】
そこで、本発明はこのような実情に鑑みてなされたものであり、特殊再生を行う場合において、ビデオ以外のデータの復号及び表示等を可能とし、また、シーン記述データを配信、復号等するための手法及び手段を実現し、さらに、データ間の同期関係を保持し、伝送ビットレートなどの評価基準を満たすデータとして配信することを可能とする、データ処理方法及び装置を提供することを目的とする。
【0036】
【課題を解決するための手段】
本発明のデータ処理方法は、所定の符号化単位毎に符号化したデータを送信側から受信側に伝送する際のデータ処理方法において、上記受信側から供給された特殊再生指定信号を受信するステップと、上記受信した特殊再生指定信号に基づいて、出力するデータのビットレート調整に応じて上記受信側での特殊再生に使用するデータの出力時の符号化単位を選択するステップと、上記選択した符号化単位の再生に関連する時間情報を上記特殊再生に応じて変換するステップと、上記出力するデータのビットレート調整に応じて、上記特殊再生に使用するデータの出力時の表示領域が記述されたシーン記述データを変更するステップと、上記変換後の時間情報、上記変更後のシーン記述データ及び上記特殊再生に使用するデータを上記受信側に出力するステップとを有することにより、上述した課題を解決する。
【0037】
また、本発明のデータ処理装置は、所定の符号化単位毎に符号化したデータを受信側に伝送するデータ処理装置において、上記受信側から供給された特殊再生指定信号に基づいて、出力するデータのビットレート調整に応じて上記受信側での特殊再生に使用するデータの出力時の符号化単位を選択し、該選択した符号化単位の再生に関連する時間情報を上記特殊再生に応じて変換するデータ変換手段と、上記特殊再生指定信号に基づいて、上記出力するデータのビットレート調整に応じて、上記特殊再生に使用するデータの出力時の表示領域が記述されたシーン記述データを変更するフィルタ手段と、上記データ変換手段により変換した時間情報、上記フィルタ手段により変更したシーン記述データ及び上記特殊再生に使用するデータを上記受信側に出力する送信手段とを備えることにより、上述した課題を解決する。
【0040】
すなわち、本発明によれば、例えば通常再生用データの表示単位の表示時刻および表示時間もしくは表示終了時刻を、特殊再生に応じて算出して書き換えることにより特殊再生用データへ変換することで、復号端末において特殊再生中もデータ間の同期関係を保存して表示することを可能とする。また、本発明によれば、例えばビットレートなどの評価基準を満たすように、通常再生用データ中の表示単位を選択して配信することにより、特殊再生中であってもビットレートなどの評価基準を満たすデータの配信を可能とする。また、本発明によれば、ビットレートなどの評価基準を満たすように、通常再生用データ中の表示単位を変換して出力することにより、特殊再生中であってもビットレートなどの評価基準を満たすデータの配信を可能とする。
【0041】
【発明の実施の形態】
以下、本発明の好ましい実施の形態について、図面を参照しながら説明する。
【0042】
静止画像や動画像等のビデオデータ、オーディオデータ、テキストデータやグラフィックデータなどのマルチメディアデータ、及び、シーン記述データ等を、伝送媒体を介して配信し、復号端末において受信し、復号して表示するような、本発明実施の形態のデータ配信システムの構成例を図1に示す。なお、以下の説明では、例えばビデオデータ等をISO(Internatioal Organization for Standardization)/IEC(International Electrotechnical Comission)13818−1(いわゆるMPEG2 Systems)で規定されているトランスポートストリーム(Transport stream:TS)へパケット化して配信する場合を例に挙げている。
【0043】
図1において、サーバ10は、静止画像や動画像等のビデオデータ、オーディオデータ、テキストデータ、グラフィックデータ等のマルチメディアデータ、及びシーン記述データ等を記憶する記憶部9を備えている。上記記憶部9から読み出されたデータは、例えば後述するデータ変換部7を介して多重化部4へ送られる。多重化部4では、データ変換部7から出力されたデータをTSへパケット化する。このTSパケットは、さらに送信部5にて配信データ22となされて伝送媒体21へ出力され、例えば復号端末12へ配信される。このとき、上記TSの配信データ22は、伝送媒体21で使用されるプロトコルを使用して伝送されることになる。例えばISO/IEC13818−1の規定を満たすTSは、IEC61883の「Digital Interface for consumer audio/video equipment」に定められた方法で、例えばIEEE(Institute of Electrical and Electronics Engineers)1394規格の伝送媒体を使用して伝送することが可能である。なお、多重化部4と送信部5は一体の構成であっても構わない。
【0044】
復号端末12では、受信部13により上記配信データ22を受信し、分離部14に送る。分離部14では、上記TSのパケットからデータを分離し、複数の復号部151〜15nのうちそれぞれ対応する復号部に送る。復号部151〜15nでは、それぞれ供給されたデータを復号、すなわち符号化されているデータを復号する。
【0045】
シーンの構成を記述したシーン記述データが配信されている場合、シーン合成部16では、上記復号部151〜15nより復号されたデータを上記シーン記述データに従って合成する。当該シーン合成部16によりシーン合成された合成データは、例えば図示していない表示装置やスピーカ等に送られ、シーン画像及び音声として表示・放音等されることになる。なお、復号端末12は複数接続されていても良い。
【0046】
また、このデータ配信システムの復号端末12において、特殊再生表示が行われる場合は、例えば、復号端末12のユーザによる操作に応じた特殊再生指定信号6が、当該復号端末12内の図示しない伝送媒体インターフェイス部などから伝送媒体21を介してサーバ10へ送信される。この特殊再生指定信号6は、例えば早送り再生や巻き戻し再生、コマ送り再生、スロー再生などの特殊再生の種類と、記憶部9に格納されているデータの指定を含む信号である。なお、サーバ10と復号端末12が例えば家庭用ネットワークのように近距離にて接続され、ユーザがサーバ10のフロントパネルやリモートコントローラ等を操作可能な環境である場合には、当該サーバ10のフロントパネルやリモートコントローラ等をユーザが操作することにより、サーバ10に対して直接に特殊再生指定信号6を入力することも可能である。
【0047】
サーバ10へ入力された特殊再生指定信号6は、当該サーバ10内に設けられている特殊再生制御部1へ入力する。この特殊再生制御部1は、特殊再生指定信号6に応じて、特殊再生の種類、データの指定を含む特殊再生制御用のコントロール信号2を発生し、データ変換部7へ送る。なお、データ変換部7は、配信するデータの数に応じて任意個存在してよい。
【0048】
データ変換部7は、コントロール信号2による特殊再生制御部1の制御の元で、記憶部9からデータを読み出し、そのデータを、コントロール信号2にて指定される種類の特殊再生を実現する特殊再生用データへ変換する。
【0049】
以下、本発明実施の形態のデータ配信システムにおけるデータ変換部7の詳細な構成及び動作について説明する。
【0050】
図2には、本発明の第1の実施の形態にかかるデータ変換部7を備えたデータ配信システムのサーバ10の詳細な構成を示す。なお、データ変換部7以外の各構成要素の動作は前述同様であるため、それらの詳細な説明は省略する。
【0051】
この図2において、第1の実施の形態のデータ変換部7は、上記特殊再生制御部1からのコントロール信号2の制御の元で上記記憶部9からデータを読み出す読み出し部17と、出力データ中に符号化される時刻情報を特殊再生に応じて書き換える時間情報書き換え部19とを備える。なお、データ変換部7が複数在る場合、データ変換部7中の読み出し部17は、全てのデータ変換部7で共通の構成としても良い。
【0052】
上記読み出し部17は、上記特殊再生制御部1からのコントロール信号2により指定される通常再生用のデータを、上記記憶部9から読み出し、時間情報書き換え部19へ送る。
【0053】
時間情報書き換え部16は、上記読み出し部17により記憶部9から読み出された通常再生用データの時間情報を、上記特殊再生に応じて変換がなされた後のデータの時間情報へ変換し、出力されるデータ中に符号化する。なお、上記データの時間情報とは、データ到着時間、表示開始時刻、表示終了時刻、表示時間もしくは復号時刻等である。なお、オーディオデータの場合、これら各時間情報は、実際には放音に関する時間であるが、画像の表示と音声の放音は関連しているため、上述のように表示開始時刻、表示終了時刻、表示時間等の表現を用いている。以下の説明でも同様である。当該第1の実施の形態では、この時間情報書き換え部16により時間情報の書き換えがなされたデータが、前記多重化部4へ送られる。
【0054】
図3を用いて、データ変換部7の時間情報書き換え部19における時間情報の変換処理について説明する。なお、図3の例では、早送り再生を実現する場合の時間情報の変換処理例を示している。
【0055】
図3の(a)は、上記記憶部9から読み出された通常再生用データについて、上記時間情報書き換え部16による特殊再生のための時間情報変換処理を行わない場合(すなわち復号端末12にて通常再生が行われる場合)のデータの表示タイミングを表している。なお、MPEG2 video等の一部の符号化方法では、実際の表示順番と符号化順番(データがビットストリーム中に符号化される順番)とが異なる場合があるが、図3の例では説明を分かり易くするため表示順番に合わせて示している。図3中のAU30,AU31,AU32等はそれぞれデータの1表示単位を表し、ビデオデータの場合にはピクチャに相当する。データの符号化は通常、この表示単位毎に行われる。この表示単位すなわち符号化単位を、以下AU(アクセスユニット)と呼ぶ。1AUは、表示開始時間Tsから表示を開始し、表示時間ΔT後の表示終了時刻Teにおいて表示を終了する。なお、1AUの表示時間Δは、一般に符号化方法によって異なる。
【0056】
一方、図3の(b)は、上記記憶部9から読み出された通常再生用データについて、上記時間情報書き換え部16による特殊再生(この場合は早送り再生)のための時間情報変換処理を行った場合、つまり復号端末12にて特殊再生が行われる場合の変換済みデータの表示タイミングを表している。すなわち、この図3の(b)には、通常再生区間内のAU30’の途中から早送り再生区間(特殊再生区間)となり、AU31’は早送り再生区間、当該AU31’の後のAU32’は通常再生区間となるような場合の表示タイミングを表している。
【0057】
ここで、特殊再生として図3の例のように早送り再生が行われた場合、上記特殊再生のための変換処理がなされていないときの時間t(以下、変換前の時間tとする)上の時刻Tと、当該特殊再生のための変換処理がなされたときの時間t’(以下、変換後の出力の時間t’とする)上の時刻T’との関係は、当該特殊再生を行う度に変化することになる。
【0058】
このため、本発明実施の形態のデータ変換部7(時間情報書き換え部19)では、上記変換後の出力の時間t’上の時刻T'を、当該変換後の出力の時間t’上の特殊再生開始時刻To’と、上記変換前の時間t上における特殊再生開始時刻To(特殊再生開始時刻To’に対応する変換前の時間t上の開始時刻)とを用いて、式(1)のように算出する。
T’=To’+ (T−To)/n (1)
ただし、式(1)中のnは特殊再生中の再生速度を表し、倍速再生ならばnの値は2であり、巻き戻し再生では負の値とする。
【0059】
一方、通常再生中は、上記変換後の出力の時間t’上の時刻T’を、当該変換後の出力の時間t’上の特殊再生終了時刻Ti’と、上記変換前の時間t上における特殊再生終了時刻Ti(特殊再生開始時刻Ti’に対応する変換前の時間t上の終了時刻)とを用いて、式(2)のように算出する。
T’=Ti’+(T−Ti) (2)
また、通常再生中は、その直前の特殊再生終了時刻は変わらないため、次の特殊再生開始時における特殊再生開始時刻は、式(2)を用いて、式(3)のように求められる。
To’=Ti’+(To−Ti) (3)
上記の式(2)〜(3)に基づいて、上記データ変換部7は、通常再生中も特殊再生中も、変換後の出力の時間t’上におけるAUの表示開始時刻Ts’および表示終了時刻Te’を、変換前の時間t上でのAUの表示開始時刻Tsおよび表示終了時刻Teに基づいて算出することが可能となる。また、表示時間ΔT’は、変換前の時間t上での表示時間ΔTを1/n倍(nは再生速度)するか、もしくは上記表示終了時刻Te’から表示時刻Ts’を減算することにより算出する。
【0060】
また、本実施の形態において、上記特殊再生開始時刻、特殊再生終了時刻及び特殊再生速度nは、上記コントロール信号2と共に特殊再生制御部1から、データ変換部7へ指定される。なお、これら特殊再生開始時刻、特殊再生終了時刻及び特殊再生速度nは、図示しない他のデータ変換部から指定される場合もある。すなわち例えば、本実施の形態のデータ配信システムが、前述の特許願2000−178999号や特許願2000−179000号の図40に示したようにビデオデータを特殊再生用に変換するデータ変換部223を備え、このデータ変換部223にてビデオデータの表示タイミングに合わせて特殊再生終了時刻、特殊再生開始時刻及び特殊再生速度が決定されるような場合には、当該データ変換部223からそれら特殊再生終了時刻、特殊再生開始時刻及び特殊再生速度が、本実施の形態のデータ変換部7に直接指定される場合もある。
【0061】
本実施の形態のデータ配信システムによれば、上述したようにして、通常再生中も特殊再生中も、変換後の出力の時間t’上におけるAUの表示開始時刻Ts’および表示終了時刻Te’を算出し、また、表示時間ΔT’を算出することにより、時間情報書き換え部19では、出力データ中に符号化される表示時刻、表示終了時刻、表示時間を、特殊再生に応じて書き換えることができる。また、復号時刻やデータ到着時刻などの時間情報もデータ中に符号化されている場合、時間情報書き換え部19では、それらの時間情報も式(1)および式(2)に基づいて変換後の時間t’上の時間情報へ変換して出力することができる。
【0062】
以上のように、本実施の形態によれば、復号端末12にて特殊再生が実行される際に、通常再生用データの時間情報が、上記特殊再生に応じて変換された後のデータの時間情報へ変換され、その時間情報がデータへ符号化されてサーバ10から配信されるようになされている。すなわち、本実施の形態のデータ配信システムによれば、復号端末12が受信する配信データは、サーバ10において既に特殊再生用に時間情報を変換済みであるため、復号端末12では特殊再生のための特別な処理は不要であり、通常再生中と同様に表示時間などの時間情報に基づいたタイミングで復号及び表示等を行えば、自動的に特殊再生を行った結果の表示結果が得られる。つまり、本実施の形態の場合の復号端末12は、特殊再生用に特別な処理を行うこと無く、特殊再生用の特別な配信データに対応可能な特別な端末である必要もない。さらに、本実施の形態によれば、配信される複数のデータが等しい再生速度に合わせて変換されているため、それら複数のデータ間の同期にずれは発生せず、またズレが蓄積することも無い。
【0063】
次に、図3と同様に表される図4を用い、特殊再生としてスロー再生を行う場合の時間情報書き換え部19における時間情報の変換処理について説明する。
【0064】
図4の(a)は、図3の(a)と同様に、変換前の時間t上の通常再生用データの表示タイミングを表している。図4中のAU40,AU41,AU42等はそれぞれデータの1表示単位を表している。また、図4の(b)は、図3の(b)と同様に、上記時間情報書き換え部16による特殊再生(この場合はスロー再生)のための時間情報変換処理を行った場合の変換済みデータの表示タイミングを表している。すなわち、この図4の(b)には、通常再生区間内のAU40’の途中からスロー再生区間となり、AU41’はスロー再生区間、当該AU41’の後のAU42’は通常再生区間となるような場合の表示タイミングを表している。
【0065】
ここで、特殊再生として例えば0.5倍速再生を行う場合、本発明実施の形態のデータ変換部7(時間情報書き換え部19)では、再生速度nの値を0.5として前記式(1)の演算が行われる。
【0066】
この図4の例のように、再生速度が等倍速よりも低速の特殊再生を行う場合においても、本実施の形態のデータ変換部7での時間情報の変換処理は前述同様に有効でありしたがって、復号端末12においてはスロー再生用に特別な処理無しに、通常再生時と同様の復号及び表示等を行えば、スロー再生を行った結果の表示結果等を得ることができる。
【0067】
次に、図3と同様に表される図5を用い、時間的に非連続な表示単位へ再生位置を移動するジャンプ等の特殊再生を行う場合の時間情報書き換え部19における時間情報の変換処理について説明する。
【0068】
図5の(a)は、図3の(a)と同様に、変換前の時間t上の通常再生用データの表示タイミングを表している。図5中のAU50,AU51,AU52等はそれぞれデータの1表示単位を表している。また、図5の(b)は、図3の(b)と同様に、上記時間情報書き換え部16による特殊再生(この場合はジャンプ)のための時間情報変換処理を行った場合の変換済みデータの表示タイミングを表している。すなわち、この図5の(b)には、通常再生区間内のAU50’の途中からジャンプが行われ、ジャンプの開始時刻である特殊再生開始時刻To’とジャンプの終了時刻である特殊再生終了時刻Ti’の間のAU51が出力されず、上記AU50’上の特殊再生開始時刻To’に続けて、特殊再生終了時刻Ti’以降のAU51’が出力されるような場合の表示タイミングを表している。
【0069】
ここで、ジャンプの場合は、特殊再生中の再生速度が存在しないため、特殊再生制御部1からはデータ変換部7に対して特殊再生開始時刻および特殊再生終了時刻が指定される。特殊再生開始時刻は、前記式(3)により変換前の時間t上における特殊再生開始時刻Toと、変換後の時間t’上における特殊再生開始時刻To’間の換算が可能であるため、それら変換前後のどちらの時間上で指定しても構わない。また、特殊再生終了時刻は、変換前後の双方の時間上における特殊再生終了時刻TiおよびTi’を指定する。但し、変換後の時間t’上における特殊再生終了時刻To’が、特殊再生開始時刻Ti’と等しい場合には、Ti’を指定しなくとも良い。
【0070】
当該図5の例の場合、データ変換部7は、ジャンプの開始時刻To’と終了時刻Ti’の間のAU51を出力せず、また、ジャンプの開始時刻To’をまたいで表示されるAU50は、表示終了時刻がTo’となるように時間情報を変更して出力するか、若しくは出力しない。さらに、ジャンプの終了時刻Ti’をまたいで表示されるAU52は、表示時刻がTi’となるように時間情報を変更して出力するか、若しくは出力しない。
【0071】
この図5の例のように、時間的に非連続な表示単位へ再生位置を移動するジャンプ等の特殊再生を行う場合においても、本実施の形態のデータ変換部7での時間情報の変換処理は前述同様に有効でありしたがって、復号端末12においてはジャンプのための特別な処理無しに、通常再生時と同様の復号及び表示等を行えば、ジャンプを行った結果の表示結果等を得ることができる。
【0072】
また、本発明によれば、シーンの構成を記述したシーン記述データを、特殊再生に応じて変換することにより、シーン記述データを特殊再生中においても配信し、復号等することが可能となり、したがって、特殊再生の開始時終了時に表示されるシーンが例えば不連続となるような不都合を回避可能となる。
【0073】
なお、上述した例では、表示時刻や復号時刻等の時間情報がデータ自体に符号化されて付加されている場合、データ変換部7の時間情報書き換え部19が、それら時間情報を書き換えて出力する例を挙げているが、その他に、例えば、時間情報が多重化部4によりデータへ付加される場合には、データ変換部7から多重化部4へ時間情報の変更を通知し、多重化部4がその変更後の時間情報をデータへ付加する。或いは、時間情報が送信部5によりデータへ付加される場合には、同様にデータ変換部7からそれら時間情報の変更を送信部5へ通知し、送信部5が当該変更後の時間情報を付加する。このことは、後述する他の各実施の形態においても同様に適用できる。
【0074】
ところで、ビデオデータ、オーディオデータ、テキストデータ、グラフィックデータ等のマルチメディアデータ及びシーン記述データを配信し、復号して表示等するデータ配信システムにおいて、例え特殊再生中であっても、ビットレートなどの評価基準を満たすデータとして配信したいと云う要求がある。
【0075】
すなわち、前記図3の例のような早送り再生中の配信データは、通常再生時の配信データに比べて時間軸上で圧縮されており、その平均ビットレートは通常再生時のものに比べて高くなり、その一方で、本実施の形態のように伝送媒体を介してデータを配信するシステムの場合は、伝送媒体の伝送容量や復号端末の能力に応じて配信時に許されるビットレートの上限が決まっており、例えば配信データのビットレートが上記配信に許されるビットレートの上限を超えてしまうと、データの遅延や損失が生してしまう。このような場合、例えば、上記配信データのビットレートに制限を加えれば、配信データのビットレートが上記配信時に許される上限ビットレートを超えてしまうことを防止できると考えられる。
【0076】
また例えば、一定時間内の配信データ中に含まれるデータが相対的に増加すると、復号やシーン合成および表示の難易度が高くなるため、復号端末において正しく表示されなくなる危険性がある。このような場合、例えば上記配信データの復号、シーン合成、表示の難易度に制限を加えれば、復号端末において正しく表示されなくなる危険性を減らすことができると考えられる。
【0077】
そこで、本発明の第2の実施の形態では、特殊再生中であってもビットレート等の評価基準を満たすようなデータを配信可能とすることにより、データの遅延や損失の発生を防止し、また、復号端末においてシーンを正しく表示可能としている。
【0078】
図6には、本発明の第2の実施の形態にかかるデータ変換部7を備えたデータ配信システムのサーバ10の詳細な構成を示す。
【0079】
この図6において、データ変換部7は、上記特殊再生制御部1からのコントロール信号2の制御の元で上記記憶部9からデータを読み出す読み出し部17と、出力データ中に符号化される時刻情報を特殊再生に応じて書き換える時間情報書き換え部19の他に、ビットレートなどの評価基準に基づいて出力するAUを選択するスケジューラ18を備える。なお、当該データ変換部7において、変換前の通常再生用データの時間から変換後の時間へ時間情報の変換を行い、その時間情報をデータ中に符号化して出力する処理は、第1の実施の形態の場合と同様である。
【0080】
図7及び図8を用いて、第2の実施の形態の場合のデータ変換部7のスケジューラ18における変換処理について説明する。
【0081】
図7は図3と同様に表され、図7の(a)は、図3の(a)と同様に、変換前の時間t上の通常再生用データの表示タイミングを表している。図7中のAU70,AU71,AU72,AU73等はそれぞれデータの1表示単位を表している。また、図7の(b),(c),(d)は、図3の(b)と同様に、上記時間情報書き換え部16による特殊再生(この場合はジャンプ)のための時間情報変換処理が行われると共に、本実施の形態のスケジューラ18によって、配信時に許容されるビットレートに応じてAUが選択された場合の、変換済みデータの表示タイミングを表している。すなわち、この図7の(b)には、早送り再生区間(特殊再生区間)においてスケジューラ18によりAU71とAU72が選択されると共に、それらAU71,72が時間情報書き換え部16により時間情報変換処理されてAU71’,AU72’となされ、その後のAU73’は通常再生区間となされた場合の表示タイミングを表している。また、図7の(c)には、早送り再生区間においてスケジューラ18によりAU71のみが選択されると共に、そのAU71が時間情報書き換え部16により変換処理されてAU71’となされ、一方AU72は出力されず、その後のAU73’は通常再生区間となされた場合の表示タイミングを表している。また、図7の(d)には、早送り再生区間においてスケジューラ18によりAU71とAU72の何れも選択されず、その後のAU73’が通常再生区間となされた場合の表示タイミングを表している。
【0082】
ここで、図7の(a)に示す変換前の時間t上での特殊再生区間(早送り再生区間)には、AU71とAU72の2つのAUが存在し、前述の第1の実施の形態の場合は、それらAU71,AU72の時間情報を特殊再生速度に応じて変換し、AU71’,U72’として出力する。しかし、例えば図8に示すように、特殊再生(図7および8の例では早送り再生)を行うと、その再生速度に応じて配信データのビットレートが変化することになる。このように変化したビットレートが、伝送媒体や復号端末の許容ビットレートを超えると、データの遅延や損失等が発生することになる。
【0083】
そこで、本実施の形態のデータ変換部7が備えるスケジューラ18は、配信データに許されるビットレートを満足するように、出力するAUと出力しないAUを選択する。例えば配信データに許されるビットレートが、AU71のみを出力しAU72を出力しない場合のビットレートBR81以上で且つAU71およびAU2の双方を出力した場合のビットレートBR80未満である場合、スケジューラ18は、AU72を出力しないことを決定する。この場合の変換出力は、図7の(c)に示すようになる。また、配信データに許されるビットレートが、AU71のみを出力しAU72を出力しない場合のビットレートBR81未満である場合、スケジューラ18は、AU71およびAU72の双方とも出力しないことを決定する。この場合の変換出力は、図7の(d)に示すようになる。一方、配信データに許されるビットレートが、AU71およびAU72の双方を出力した場合のビットレートBR80以上である場合、スケジューラ18は、AU71およびAU72の双方とも出力することを決定する。この場合の変換出力は、図7の(a)に示すようになる。このようにしてスケジューラ18により選択されて出力されたAUは、その後、時間情報書き換え部19により、前述したように特殊再生の再生速度に基づいて時間情報が変換される。
【0084】
以上のように、第2の実施の形態によれば、ビットレートなどの評価基準を満たすように、通常再生用データ中の表示単位(AU)を選択して出力することにより、特殊再生中であってもビットレートなどの評価基準を満たすデータの配信が可能となっている。なお、評価基準はビットレートに限らない。例えば、一定時間に許されるポリゴン数やシーン記述データにおけるノードの数等の、データの復号やシーン合成,表示等の難易度を表す評価基準でも良い。また、テキストデータにおける文字数等、一定時間に出力可能なデータを制限可能な評価基準であっても良い。
【0085】
さらに、本発明の第2の実施の形態のデータ変換部7は、上記のように出力する表示単位(AU)と出力しない表示単位を選択する際に、データが表示単位間の予測を用いずに符号化されている表示単位を優先して出力し、予測を用いて符号化されている表示単位を出力しないよう選択することもできる。これにより、復号端末では、上記予測を用いずに符号化されている表示単位を予測元とした予測復号が可能となる。
【0086】
上記第2の実施の形態では、AUを選択して出力するか否かにより、ビットレートなどの評価基準を満たす配信データを出力可能とする例を挙げたが、以下に説明する第3の実施の形態のように、AUの内容自体を変換することにより、ビットレートなどの評価基準を満たす配信データを出力するようなことも可能である。
【0087】
図9には、本発明の第3の実施の形態にかかるデータ配信システムのサーバ10の詳細な構成を示す。
【0088】
この図9において、サーバ10は、前述の各実施の形態の何れかに対応するデータ変換部7の出力段に、フィルタ23を備えること以外は、前記第1,第2の実施の形態と共通である。
【0089】
上記フィルタ23は、前述の第1又は第2の実施の形態のデータ変換部7によって特殊再生用に変換済みのデータ、すなわちAU自体を、ビットレートなどの評価基準を満たすように変換する。なお、データ変換部7およびフィルタ23は、複数存在しても構わない。すなわち、この第3の実施の形態のフィルタ23は、第2の実施の形態のデータ変換部7のように、出力するAUと出力しないAUを選択するだけではなく、AU自体を変換することにより、ビットレートなどの評価基準を満たすデータを出力する。例えばテキストデータの場合、1つのAUに含まれる文字数を減じることにより、配信するデータ量を減じ、所望のビットレートを満足するデータへ変換して出力する。
【0090】
本実施の形態によれば、AU自体を変換することにより、特殊再生中であってもビットレートなどの評価基準を満たすデータの配信が可能となっている。また、フィルタ23に入力するAUは、第1又は第2の実施の形態のデータ変換部7により、既に特殊再生に応じて時間情報が変換済みであるため、復号端末12側では特殊再生用に特別な処理を必要とせず、且つ、復号端末12において特殊再生用の特別な処理無しに通常再生時と同様の復号及び表示等の処理を行っていれば、自動的に特殊再生用の表示等が実現できる。
【0091】
以下に、上記フィルタ23の具体例を説明する。
【0092】
上記フィルタ23の第1の具体例として、例えば、シーン記述中のデータを分割単位毎に扱い、伝送容量などの評価基準を満たすように分割単位毎にシーン記述を変換して出力するものを挙げることができる。当該第1の具体例のフィルタ23を、本発明の第1又は第2の実施の形態のデータ変換部7と組み合わせて使用することにより、特殊再生中であってもビットレートなどの評価基準を満たすデータの配信が可能となる。
【0093】
以下、本発明の第3の実施の形態に適用される上記第1の具体例のフィルタ23の動作について説明する。
【0094】
上記第1の具体例のフィルタ23は、入力されたシーン記述を階層化情報に基づいて変換するものである。当該フィルタ23は、シーン記述を出力する際に、復号端末12の復号及び表示能力を示す復号端末情報を得る。上記復号端末情報とは、復号端末12がシーン記述を表示する際の画枠や、ノード数の上限、ポリゴン数の上限、含まれるオーディオやビデオなどのマルチメディアデータの上限など、復号端末12の復号及び表示能力を示す情報である。また、フィルタ23には、復号端末情報の他に、シーン記述の配信に使用する伝送媒体22の伝送容量を表す情報を加えた階層化情報が入力される。フィルタ23は、上記階層化情報に基づいて、シーン記述入力を、階層構造を成すシーン記述データへ変換する。
【0095】
第1の具体例のフィルタ23を備えた第3の実施の形態のデータ配信システムによれば、上述のように、階層化情報に基づいてシーン記述を変換することにより、配信に使用される伝送媒体22に適したシーン記述データを配信することが可能となり、また、復号端末12の性能に合せたシーン記述を配信することが可能となる。
【0096】
以下、フィルタ23におけるシーン記述変換処理の手順を図10に示す。
【0097】
図10において、フィルタ23は、先ず、ステップS200として、シーン記述を後述するような分割候補単位に分割する。図10においては、分割候補の番号をnで表す。また、入力されたシーン記述を複数の階層から成るシーン記述データへ変換するため、出力となるシーン記述データの階層をmで表す。階層の番号mは0から開始し、番号が小さいほど基本的な階層を表すものとする。
【0098】
次に、フィルタ23は、ステップS201として、階層化情報に基づいて、分割候補nを現在の階層として出力可能であるか判断する。例えば、階層化情報によって現在の階層に許されるデータのバイト数が制限される場合には、分割候補nを加えても現在の階層の出力シーン記述が、上記制限されるバイト数以下であるかを調べる。このステップS201において、分割候補nを現在の階層に出力不可と判断された場合にはステップS202へ進み、一方、出力可能ならばステップS203へ進む。
【0099】
ステップS202へ進むと、フィルタ23は、階層の番号mを1進める。つまり、現在の階層mへの出力を終了し、以降は新しい階層のシーン記述データへ出力することとする。そして、ステップS203へ進む。
【0100】
ステップS203に進むと、フィルタ23は、現在の階層mへ、分割候補nを出力する。そして、ステップS204へ進む。
【0101】
ステップS204へ進むと、フィルタ23は、全ての分割候補を処理したか否か判断し、処理したならば、変換処理を終了する。一方、まだ分割候補が残っているならば、ステップS205へ進む。
【0102】
ステップS205に進むと、フィルタ23は、分割候補の番号nを1進める。つまり、次の分割候補を処理対象とする。そして、ステップS201から処理を繰り返す。
【0103】
ここで、MPEG4 BIFSを例に取り、図10に示したフィルタ23でのシーン記述変換処理における分割について、図11を用いて説明する。
【0104】
先ず、図11のシーン記述データの内容から説明し、その後に、フィルタ23でのシーン記述処理における分割の説明を行う。
【0105】
図11において、ransformノード302は、三次元の座標変換を指定可能なノードで、そのtranslationフィールド303に座標原点の平行移動量を指定できる。フィールドには他のノードを指定可能なフィールドも存在し、シーン記述の構成は図12のようなツリー構造を成す。図12中の楕円はノードを表し、ノード間の破線はイベントの伝播経路を表し、ノード間の実線はノードの親子関係を表す。親ノードに対して、その親ノードのフィールドを表すノードを子ノードと呼ぶこととする。例えば図11中のTransformノード302は、Transformノードにより座標変換される子ノード群を示すChildrenフィールド304があり、TouchSensorノード305およびShapeノード306が子ノードとしてグルーピングされている。このようにChildrenフィールドに子ノードをグルーピングするノードを、グルーピングノードと呼ぶ。グルーピングノードとは、ISO/IES14772−1の4.6.5章に定義されているノードで、ノードのリストから成るフィールドを持つノードを指す。ISO/IES14772−1の4.6.5章に定義されているように、フィールド名がChildrenではない特別な例外もあるが、以下、Childrenフィールドは、このような例外も含むものとして説明する。
【0106】
表示する物体をシーン中に配置するには、物体を表すノードを、属性を表すノードと共にグループ化し、配置位置を示すノードによりさらにグループ化する。図11中のShapeノード306が表している物体は、その親ノードであるTransformノード302によって指定された平行移動を適用されて、シーン中に配置される。図11のシーン記述は、球体を表すSphereノード307、立方体を表すBoxノード312、円錐を表すConeノード317および円柱を表すCylinderノード322を含んでおり、この例のシーン記述を復号及び表示した結果は図13に示すようになる。
【0107】
シーン記述は、ユーザインタラクションを含むことも出来る。図11中のROUTEは、イベントの伝播を表している。ROUTE323は、2という識別子を割り当てられたTouchSensorノード305のtouchTimeフィールドが変化した場合に、その値がイベントとして5という識別子を割り当てられたTimeSensorノード318のstartTimeフィールドへ伝播する、ということを示している。VRMLではDEFというキーワードに続く任意の文字列により識別子を表し、MPEG4 BIFSでは、ノードID(nodeID)と呼ばれる数値が識別子として用いられる。TouchSensorノード305は、その親ノードであるTransformノード302のChildrenフィールド304にグルーピングされているShapeノード306をユーザが選択した場合に、選択した時刻をtouchTimeイベントとして出力する。このようにグルーピングノードによって付随したShapeノードと共にグルーピングされて働くセンサーを、以下、Sensorノードと呼ぶ。VRMLにおけるSensorノードとは、ISO/IEC14772−1の4.6.7.3章に定義されているPointing-device sensorsであり、付随したShapeノードとは、Sensorノードの親ノードにグルーピングされているShapeノードを指す。一方、TimeSensorノード318は、startTimeから1秒間の間、経過時間をfraction_changedベントとして出力する。
【0108】
ROUTE324により、TimeSensorノード318から出力された経過時間を表すfraction_changedイベントは、6という識別子を割り当てられたColorInterpolatorノード319のset_fractionフィールドへ伝播される。ColorInterpolatorノード319は、RGB色空間の値を線形補間する機能を持つ。ColorInterpolatorノード319のkeyとkeyValueフィールドは、入力となるset_fractionフィールドの値が0の場合にはvalue_changedとしてRGBの値[000]をイベント出力し、入力となるset_fractionフィールドの値が1の場合にはvalue_changedとしてRGBの値[111]をイベント出力することを表している。入力となるset_fractionフィールドの値が0と1の間の場合には、value_changedとしてRGBの値[000]と[111]の間を線形補完した値をイベント出力する。つまり、入力となるset_fractionフィールドの値が0.2の場合にはvalue_changedとしてRGBの値[0.2 0.2 0.2]をイベント出力する。
【0109】
ROUTE325により、線形補間結果の値value_changedは、4という識別子を割り当てられたMaterialノード314のdiffuseColorフィールドへ伝播される。diffuseColorは、Materialノード314が属しているShapeノード311が表す物体表面の拡散色を表している。上記のROUTE323、ROUTE324およびROUTE325によるイベント伝播により、ユーザが表示されている球体を選択した直後から1秒の間、表示されている立方体のRGB値が、[000]から[111]まで変化するというユーザインタラクションが実現される。このユーザインタラクションは、ROUTE323,ROUTE324,ROUTE325と、図12中の太線枠で示したイベントの伝播に関連するノードにより表されており、このようにユーザインタラクションに必要なシーン記述中のデータを、以下、イベント伝播に必要なデータ、と呼ぶこととする。なお、太線枠で示した以外は、イベントに関連しないノードである。
【0110】
以上のように一例として挙げた図11のシーン記述データについて、本実施の形態の第1の具体例のフィルタ23では、図10のステップS200において、シーン記述を分割候補単位へ分割する。
【0111】
ここで、いわゆるNode Insertion commandを用いるために、グルーピングノードのChildrenフィールドを分割単位とする。ただし、ユーザインタラクションのためのイベント伝播に必要なデータは分割しないとすると、図11に示す3つの分割候補D0,D1,D2となる。
【0112】
入力シーン記述中の最上位ノードであるGroupノード300を含む分割単位を、n=0の分割候補D0とする。Transformノード315以下のノードをn=1の分割候補D1とする。n=1の分割候補D1中のShapeノード316は、グルーピングノードであるTransformノード315のChildrenフィールドであるため、別個の分割候補とすることも可能である。
【0113】
ただし、この例ではTransformノード315がShapeノード316以外のChildrenフィールドを持たないことから、Shapeノード316を別の分割候補にはしていない。Transformノード320以下のノードをn=2の分割候補D2とする。同様に、Shapeノード321以下を別の分割候補としても良い。
【0114】
n=0の分割候補D0は、階層m=0へ必ず出力される。n=1の分割候補D1は、図10のステップS201により、階層化情報に基づいて、m=0の階層へ出力可能であるか判断される。
【0115】
次に、図14には、階層化情報により、出力するシーン記述データの階層に許されるデータ量が指定される場合の判断例を示す。図14中のAの例では、階層m=0にn=1の分割候補D1も出力したとすると、階層m=0に許されているデータ量を上回ってしまうことから、n=1の分割候補D1を階層m=0へ出力不可と判断する。
【0116】
従って、図10のステップS202の手順により、図14中のBに示す階層m=0の出力はn=0の分割候補D0のみを含むと決定され、以降は階層m=1に出力することとする。ステップS203の手順により、階層m=1へn=1の分割候補D1を出力する。
【0117】
次のn=2の分割候補D2についても同様の手順を行うと、図14中のAに示すように、階層m=1にn=2の分割候補D2を出力しても、階層m=0と階層m=1の合計に許されるデータ量を超過しないため、図14中のCに示すように、n=2の分割候補D2は、n=1の分割候補D1と同じ階層m=1へ出力することが決定される。
【0118】
上記の手順により、フィルタ23は、入力のシーン記述を、図14中のBに示す階層m=0の変換済みシーン記述データ出力と図14中のCに示す階層m=1の変換済みシーン記述データ出力との2階層から成るシーン記述データ出力へと変換する。
【0119】
また、図15中のAに示すシーン記述の変換例は、図14のAと同様のシーン記述入力に対して、異なる階層化情報に基づいて変換を行った結果、3階層から成るシーン記述データ出力へと変換された例を示している。
【0120】
すなわち、図15中のAに示したシーン記述は、図14の場合と同様にして、図15中のBに示す階層m=0の変換済みシーン記述データ出力、図15中のCに示す階層m=1の変換済みシーン記述データ出力、図15中のDに示す階層m=2の変換済みデータ出力に変換される。
【0121】
この変換結果例において、シーン記述の配信に使用する伝送媒体の伝送容量が低く、階層m=0に許されるデータ量までしか伝送できない伝送媒体に対しては、図15中のBに示す階層m=0のシーン記述データのみを配信する。
【0122】
階層m=0のシーン記述のみであっても、ユーザインタラクションのためのイベント伝播に必要なデータは分割されていないために、復号端末12において、変換前と同様のユーザインタラクションが実現できる。
【0123】
また、伝送容量が、m=0およびm=1の階層を合計したデータ量に対して充分である伝送媒体に対しては、図15中のBに示したm=0およ図15中のCに示したびm=1双方の階層のシーン記述データを配信する。
【0124】
階層m=1のシーン記述データは、Node Insertion commandにより階層m=0のシーン記述に挿入されるため、復号端末12においては変換前と同様のシーン記述を復号し、表示することが可能である。
【0125】
第1の具体例のフィルタ23は、時間変化する階層化情報に基づいてシーン記述を変換することにより、伝送媒体22の伝送容量が変化する場合にも適応することが可能となった。なお、伝送媒体22に変換したシーン記述データを記録する場合にも同様の効果がある。
【0126】
また、図15の変換結果例において、シーン記述を受信して復号及び表示する復号端末12の復号及び表示能力が低く、階層m=0に許されるデータ量までしか復号及び表示できない復号端末12に対しては、図15中のBに示した階層m=0のシーン記述データのみを配信することができる。
階層m=0のシーン記述のみであっても、ユーザインタラクションのためのイベント伝播に必要なデータは分割されていないために、復号端末12において、変換前と同様のユーザインタラクションが実現できる。
【0127】
また、復号及び表示能力が、m=0およびm=1の階層を合計したデータ量に対して充分である復号端末12に対しては、図15中のBに示したm=0および図15中のCに示したm=1双方の階層のシーン記述データを配信する。
【0128】
階層m=1のシーン記述100データは、Node Insertion commandにより階層m=0のシーン記述に挿入されるため、復号端末12においては変換前と同様のシーン記述を復号し、表示することが可能である。
【0129】
以上のように第1のフィルタ23によれば、時間変化する復号端末情報に基づいてシーン記述を変換することにより、復号端末12の復号および表示能力が動的に変化したり、あらたな性能を持つ復号端末12が配信対象に加えられた場合にも適応することが可能となった。
【0130】
なお、MPEG4 BIFSにおいては、シーン記述を階層化するために、ノードを挿入するコマンドを使用しても良いし、Inlineノードを使用しても良い。また、ISO/IEC14772−1の4.9章に記載のEXTERNPROTOを使用しても良い。EXTERNPROTOとは、外部のシーン記述データ中でPROTOと呼ばれるノード定義方法により定義したノードを参照する方法であり、MPEG4 BIFSにおいてもVRMLと同様にEXTERNPROTOを使用することが出来る。
【0131】
また、ISO/IEC14772−1の4.6.2章に記載のDEF/USEは、ノードにDEFにより名前を付け、シーン記述中の他の場所からUSEによりDEFしたノードを参照することを可能としている。
【0132】
MPEG4 BIFSにおいてもノードにノードIDと呼ばれる数値の識別子をDEFと同様に設け、シーン記述中の他の場所からノードIDを指定することによりUSEと同様に使用するというVRMLと同様の参照が可能である。
【0133】
従って、シーン記述を階層化する際に、ISO/IEC14772−1の4.6.2章に記載のDEF/USEを使用している部分を異なる分割候補に分割しなければ、USEからDEFしたノードへの参照関係を壊すこと無く、シーン記述変換を行うことが可能である。
【0134】
図14および図15では、階層化情報として、各階層に許されるデータ量を用いた例を示したが、階層化情報はシーン記述中の分割候補をある階層のシーン記述データに含めて良いか判断できる情報であれば良く、例えば階層中に含まれるノード数の上限や、階層中に含まれるコンピュータグラフィックスにおけるポリゴンデータの数などでも良く、階層中に含まれるオーディオやビデオなどのメディアデータの制限でも良く、また複数の階層化情報を組み合わせても良い。
【0135】
以上のように、第1の具体例のフィルタ23によれば、入力のシーン記述を複数の階層構造を成すシーン記述データに変換したことにより、シーン記述を伝送する際に、伝送容量を節約する目的で、シーン記述の階層構造を利用することが可能である。
【0136】
また、第1の具体例のフィルタ23によれば、シーン記述を複数の階層から成るシーン記述データに変換しておき、データを削除する際には、削除すべきデータ量に達するまでの階層のシーン記述データのみを削除することにより、そのシーン記述が記述していたコンテンツの情報の一部を保存しておくことが可能となる。
【0137】
その他、以上説明したことは、シーン記述方法の種類に依存せず、分割可能なあらゆるシーン記述方法において有効である。
【0138】
次に、本発明の第3の実施の形態に適用される前記第2の具体例のフィルタ23の動作について説明する。
【0139】
当該第2の具体例のフィルタ23は、図16に示すように、シーン記述処理部24とES(Elementary Stream)処理部25、及びそれらの動作を制御する制御部26とを備え、シーン記述処理部24によりシーン記述データを変更すると共に、シーン記述データ以外のマルチメディアデータをES処理部25により変更可能となものを挙げることができる。ES処理部25は、伝送容量や復号端末の能力に合わせてデータを異なるビットレートのデータへ再符号化するなどして変換を行うものである。また、シーン記述処理部24は、例えば伝送媒体22の伝送容量や復号端末12の処理能力に合わせてシーン記述の内容を変換することにより、データ量の調節を行うものである。これらシーン記述処理部24やES処理部25を備えたフィルタ23を、本発明の第1又は第2の実施の形態のデータ変換部7と組み合わせて使用することにより、特殊再生中であってもビットレートなどの評価基準を満たすデータの配信が可能となる。なお、この例の場合、図示は省略するが、復号端末12の復号部15には、ESを復号してビデオデータやオーディオデータ等を復元するES復号部と、シーン記述を復号すると共にその復号されたシーン記述に基づいてビデオやオーディオデータ等を用いたシーンを構成するESシーン記述復号部とを備えることになる。
【0140】
ここで、この第2の具体例のフィルタ23を備えた第3の実施の形態のデータ配信システムは、伝送媒体22の伝送可能帯域やトラフィックの混雑状態が変化する場合に、伝送するデータに遅延や損失が生じてしまうという問題に対処するために、以下のようなことを行うようになされている。
【0141】
サーバ10の送信部5は、伝送路(伝送媒体22)へ送出するデータのパケット毎に通し番号(符号化した通し番号)を付加する機能を有し、一方、復号端末12の受信部13は、受け取ったパケット毎に付加されている通し番号(符号化された通し番号)の欠落を監視することにより、データの損失(データ損失割合)を検出する機能を備えている。或いは、サーバ10の送信部5は、伝送路へ送出するデータに時刻情報(符号化した時刻情報)を付加する機能を備え、一方、復号端末12の受信部13は、伝送路から受け取ったデータに付加されている時刻情報(符号化された時刻情報)を監視し、その時刻情報により伝送遅延を検出する機能を備える。復号端末12の受信部13は、このようにして伝送路のデータ損失割合、或いは伝送遅延等を検出すると、その検出情報をサーバ10の送信部5へ送信(報告)する。
【0142】
また、サーバ10の送信部5は、伝送状態検出機能を備え、当該伝送状態機能では、復号端末12の受信部13から送られてきた伝送路のデータ損失割合、或いは伝送遅延等の情報により、伝送路の伝送可能帯域やトラフィックの混雑状態を検出する。すなわち、伝送状態検出機能は、データ損失が高ければ伝送路が混雑していると判断し、或いは、伝送遅延が増加したならば伝送路が混雑していると判断する。また、帯域予約型の伝送路が使用されている場合、伝送状態検出機能は、サーバ10が利用可能な空き帯域幅(伝送可能帯域)を直接知ることが出来る。なお、伝送帯域については、気象条件などに左右される電波などの伝送媒体が用いられた場合、気象条件などに応じてユーザが予め設定する場合もある。当該伝送状態検出機能での伝送状態の検出情報は、フィルタ23の制御部26へ送られる。
【0143】
制御部26は、伝送路の伝送可能帯域やトラフィックの混雑状態の検出情報を元に、ES処理部25において例えばビットレートの異なるESが選択的に切り替えられるような制御を行ったり、或いは、ES処理部25にてISO/IEC13818(いわゆるMPEG2)等の符号化が行われる場合にはその符号化ビットレートを調整するなどの制御を行う。すなわち、例えば伝送路が混雑していると検出された場合に、ES処理部25からビットレートの低いESを出力するようなことを行えば、データの遅延を回避することが可能となる。
【0144】
また例えば、サーバ10に不特定多数の復号端末12が接続されていて、それら復号端末12の仕様が予め統一されておらず、様々な処理能力を持つ復号端末12に向けて当該サーバ10からESを送信するようなシステム構成の場合、これら復号端末12の受信部13は伝送要求処理機能を備え、当該伝送要求処理機能は、自己の復号端末12の処理能力に応じたESを要求するための伝送要求信号をサーバ10へ送信する。この伝送要求信号には、自己の復号端末12の能力を表す信号も含まれる。当該伝送要求処理機能からサーバ10へ渡される、自己の復号端末12の能力を表す信号としては、例えばメモリサイズ、表示部の解像度、演算能力、バッファサイズ、復号可能なESの符号化フォーマット、復号可能なESの数、復号可能なESのビットレートなどを挙げることができる。上記の伝送要求信号を受け取った送信部5は、その伝送要求信号をフィルタ23の制御部26へ送り、当該制御部26は、復号端末12の性能に適合するようなESが送信されるように、ES処理部25を制御する。なお、ES処理部25が復号端末12の性能に適合するようにESを変換する際の画像信号変換処理については、例えば、本件出願人により既に提案がなされている画像信号変換処理方法がある。
【0145】
さらに、上記制御部26は、送信部5の伝送状態検出機能により検出された伝送路の状態に応じて、ES処理部25だけでなくシーン記述処理部24もコントロールする。また、制御部26は、復号端末12が自己の復号,表示性能に応じたシーン記述を要求する復号端末である場合には、その復号端末12の受信部13の伝送要求処理機能から送られてきた当該復号端末自身の能力を表す信号に応じて、ES処理部25およびシーン記述処理部24をコントロールする。なお、制御部26とシーン記述処理部24、ES処理部25は、一体の構成であっても良い。
【0146】
以下、制御部26の制御の元で、ES処理部25が、複数のESの内から送信する特定のESを選択する際の選択方法について説明する。
【0147】
上記制御部26は、上記複数のESの各ES毎に、伝送時の優先度を表す伝送優先度情報を保持しており、ESを送信する際の伝送路の状態若しくは復号端末12からの要求に応じて、上記伝送優先度の高い順に送信可能なESを決定する。すなわち、制御部26は、ESを送信する際の伝送路の状態若しくは復号端末12からの要求に応じて、上記伝送優先度の高い順に送信可能なESが送信されるように、ES処理部25をコントロールする。なおここでは、例えば制御部26が伝送優先度情報を保持しているとして説明するが、記憶部9に記憶させておいても良い。
【0148】
図17には、例えばESa、ESb、EScの3つのESが存在する場合の各ESの伝送優先度の一例を示している。すなわち、図17の例では、ESaの伝送優先度が「30」、ESbの伝送優先度が「20」、EScの伝送優先度が「10」となされている。それら伝送優先度は、値が小さいほど、伝送時の優先度が高いとする。また、図17中のRaはESaを伝送する際の伝送ビットレートであり、RbはESbを伝送する際の伝送ビットレートであり、RcはEScを伝送する際の伝送ビットレートである。
【0149】
ここで、伝送路の状態や復号端末12からの要求により、送信可能なビットレートRが定まった場合、制御部26は、伝送優先度が高い順に、上記伝送可能なビットレートRを超えない範囲でESが選択されて送信されるように、ES処理部24をコントロールする。
【0150】
すなわち例えば、伝送可能なビットレートRと、各ESの伝送ビットレートとの関係が式(4)で表されるとき、制御部26は、最も伝送優先度が高いEScのみを選択して送信するように、ES処理部25をコントロールする。
【0151】
Rc≦R<(Rc+Rb) (4)
また例えば、伝送可能なビットレートRと、各ESの伝送ビットレートとの関係が式(5)で表されるとき、制御部26は、最も伝送優先度が高いEScと次に(2番目に)伝送優先度が高いESbを選択して送信するように、ES処理部25をコントロールする。
【0152】
(Rc+Rb)≦R<(Rc+Rb+Ra) (5)
また例えば、伝送可能なビットレートRと、各ESの伝送ビットレートとの関係が式(6)で表されるとき、制御部26は、全てのESを選択して送信するように、ES処理部25をコントロールする。
【0153】
(Rc+Rb+Ra)≦R (6)
このように、第3の具体例のフィルタ23を備えた第3の実施の形態のデータ配信システムによれば、制御部26がES毎に伝送優先度情報を保持し、ESを送信する際の伝送路の状態や復号端末12からの要求に応じて、その伝送優先度の高い順に送信可能なESを決定することにより、複数存在するESの内から重要なESを優先して伝送することが可能となっている。
【0154】
上述の説明では、予め設定された優先度に基づいて、ESの選択やシーン記述の変換を行う例を挙げているが、当該ESの変換に伴って優先度を変更することも可能である。なお、ESの変換に伴って優先度を変更する場合、当該優先度の変更は、例えばES処理部25にて行う。
【0155】
図18には、ESaのビットレートをRa'になるよう変換したことに伴い、ES処理部25により変換された伝送優先度の一例を示す。なお、図18は、ESaのビットレートを図17の例のビットレートRaよりも低いビットレートRaとした場合を例に挙げており、当該ビットレートを低くしたことに伴って、伝送優先度を例えば高く変換(図17では「30」であったものを図18では「15」に変換)している。
【0156】
さらに、上記伝送優先度は、予め設定した値を制御部26が保持しておく場合の他に、例えば、ESのビットレートや画枠等の符号化パラメータに応じて設定することができる。例えば図19に示すように、ESのビットレートRと伝送優先度の関係Ps(R)を保持しておくことにより、伝送優先度をESのビットレートに応じて設定することもできる。すなわち例えば、ビットレートが高いほど伝送コストが高くなると考えられるため、図19の例のように、ESのビットレートが高いほど伝送優先度を低く割り当てることにより、伝送コストの低い(ビットレートの低い)ESを優先して送信することが可能となる。
【0157】
また、画像データのようにES自体が明示的な画枠を持っている場合は、その画枠に応じて伝送優先度を設定することも可能である。例えば、図20には、ESの画枠領域Sと伝送優先度の関係Ps(S)の例を示しており、この画枠領域Sと伝送優先度の関係Ps(S)を保持しておくことにより、伝送優先度をESの画枠に応じて設定することが出来るようになる。すなわち、一般に画枠が大きいほど伝送コストが高いと考えられるため、図20の例のように、画枠が大きいほど伝送優先度を低く割り当てることにより、伝送コストが低くなると考えられるESを優先して送信するようなことが可能となる。
【0158】
上述したように、ESのビットレートや画枠などの符号化パラメータに応じて伝送優先度を設定する方法は、ES処理部25がESの変換に伴って伝送優先度を変更する際にも使用できる。例えば、ES処理部25がビットレートRaのESをビットレートRa’へ変換したならば、図19に示すように伝送優先度をPs(Ra’)へ変更することが出来る。
【0159】
また、伝送優先度は、動画像や静止画像、テキスト等のESの種類や、ESの符号化フォーマット毎に割り当てても良い。例えばテキストには常に最高の伝送優先度を割り当てるとすれば、伝送路の状態や復号端末からの要求によって伝送可能なビットレートが制限される場合でも、テキストデータは常に優先して送信することが可能となる。
【0160】
また、伝送優先度は、ユーザの嗜好に基づいて決定することもできる。すなわち、サーバ10が、ユーザが好む動画像や静止画像、テキスト等のESの種類や、ESの符号化フォーマット、ESの符号化パラメータ等の嗜好情報を保持しておくことにより、ユーザが好むESの種類、符号化フォーマット、符号化パラメータを持つESに高い伝送優先度を割り当てることができる。これにより、伝送路の状態や復号端末からの要求に応じて伝送可能なビットレートが制限される場合でも、ユーザの嗜好に合ったESを優先的に送信し、高品質で表示させることが可能となる。
【0161】
上述したように、制御部26がES毎に伝送優先度情報を保持し、送信する際の伝送路の状態若しくは復号端末12からの要求に応じて、伝送優先度の高い順に送信可能なESを決定することにより、重要なESを優先して送信することが可能となっている。
【0162】
また、本発明の第3の実施の形態に適用される前記第3の具体例のフィルタ23では、以下のようにして、特殊再生中であってもビットレートなどの評価基準を満たすデータの配信を可能とする。すなわち、この第3の具体例のフィルタ23に設けられるシーン記述処理部24は、制御部26の制御の元で、以下に述べる第1〜第5のシーン記述処理を行うことができる。
【0163】
第1のシーン記述処理として、第3の具体例のフィルタ23は、例えばES処理部25より出力されるESに適したシーン記述を出力可能となっている。すなわち、シーン記述処理部24は、制御部26の制御の元で、ES処理部25より出力されるESに適したシーン記述を出力可能となされている。以下、図21〜図25を用いて第1のシーン記述処理を具体的に説明する。
【0164】
図21には、動画像ESと静止画像ESによって構成されたシーンの一表示例を示す。図21中のEsiはシーン表示領域を示し、図中のEmvはシーン表示領域Esi内の動画像ES表示領域を、図中のEsvはシーン表示領域Esi内の静止画像ES表示領域を示している。
【0165】
また、図22には、図21のシーン表示領域Esiに対応したシーン記述を、MPEG4 BIFSにて記述した場合の内容、テキストにて表す。
【0166】
この図22に示したシーン記述は、2つの立方体を含み、それぞれの表面には、動画像と静止画像をテクスチャとして貼り付けることが指定されている。それぞれの物体は、Transformノードによって座標変換指定されており、図中の#500と#502で示されたtranslationフィールドの値(ローカル座標の原点位置)により、その物体が平行移動してシーン中に配置される。また、図中の#501と#503で示された値(ローカル座標のスケーリング)により、Transformノードに含まれる物体の拡大,縮小が指定されている。
【0167】
ここで例えば、伝送路(伝送媒体22)の状態若しくは復号端末12からの要求によって配信データのビットレートを下げる必要が生じた場合において、例えば伝送時に多くのデータ量が必要となる動画像ESのビットレートを下げるようなESの変換処理を行ったとする。なお、この時点で静止画像については、例えば高解像度の静止画像ESが既に伝送されており、復号端末側に蓄積されているとする。
【0168】
この場合、従来のデータ配信システムでは、ESのビットレート調整の有無に関わらず同一のシーン構成で復号及び表示がなされるため、ビットレートが下げられた動画像は画質等の劣化が目立つようになる。すなわち、図21の例を挙げて具体的に説明すると、従来のデータ配信システムでは、図21中の動画像ES表示領域Emvに表示されることになる動画像ESのビットレートを下げるような調整が行われた場合であっても、その調整以前のものと同じシーン構成のままでESの復号及び表示(実際のビットレートに見合わない広い動画像ES表示領域Emvへの表示)がなされるため、動画像が粗く(例えば空間解像度が粗く)なり、画質の劣化が目立つようになる。
【0169】
これに対し、動画像ESのビットレートを下げた場合に、例えば図23に示すように、動画像ES表示領域Emvを狭くするようなことを行えば、当該動画像ES表示領域Emvに表示される動画像の画質劣化(この例の場合、空間解像度の劣化)を目立たなくすることが可能になると考えられる。また、本実施の形態の場合、静止画像については、既に静止画像ESが伝送されて復号端末に蓄積されているが、当該静止画像が例えば高解像度画像であり、図21中の静止画像ES表示領域Esvが当該解像度には見合わない狭い領域であったような場合には、例えば図23に示すように静止画像ES表示領域Esvを広くすれば、その解像度を十分に活かすことができると考えられる。このように、動画像ES表示領域Emvを狭くし、また、静止画像ES表示領域Esvを広くするような対処は、シーン記述をそのような内容を表すシーン記述に変更しなければ実現できない。
【0170】
そこで、第3の具体例のフィルタ23に設けられているシーン記述処理部24は、ES処理部25におけるESのビットレート調整に応じて、シーン記述を動的に変更して出力するようなことを行う。言い換えると、この第3の具体例における制御部26では、ES処理部25を制御してESのビットレート調整を行わせた場合、そのES処理部25から出力されるESに適したシーン記述が出力されるようにシーン記述処理部24を制御することをも行う。これにより、上述の例のように動画像のビットレートを下げたときの画質の劣化を目立たなくしている。なお、この例では、既に伝送済みの静止画像の解像度を活かすために、図23に示すように動画像ES表示領域Emvを狭くし、一方、静止画像ES領域Esvを広くする、というような対応を実現している。
【0171】
図24を用いて、上述したことを実現する制御部26の具体的な動作を説明する。
【0172】
図24において、伝送路の状態若しくは復号端末12からの要求によって配信データのビットレートを下げる必要が生じた場合、制御部26は、時刻Tにおいて、動画像ES292よりもビットレートを下げた動画像ES293が出力されるようにES処理部25を制御する。
【0173】
また、制御部26は、時刻Tにおいて、図21のシーン表示領域Esiに対応したシーン記述290を、図23のシーン表示領域Esiに対応したシーン記述291へ変更するように、シーン記述処理部24を制御する。すなわちこのときのシーン記述処理部24は、制御部26の制御の元で、図21のシーン表示領域Esiを表す前述の図22に示したシーン記述を、図23のシーン表示領域Esiを表す図25に示すようなシーン記述へ変換する。なお、この図25のシーン記述も図22の場合と同様に、MPEG4 BIFSにて記述されるシーン記述の内容テキストで示している。
【0174】
前述の図22のシーン記述と比較して、図25に示したシーン記述では、図中#600と#602で示されたtranslationフィールドの値(ローカル座標の原点位置)が変更されていることにより、2つの立方体を移動させ、図中#601と#603で示されたtranslationフィールドの値(ローカル座標のスケーリング)により、表面に動画像(図23のEmv)を貼り付けた立方体を小さく変換し、代わりに表面に静止画像(図23のEsv)を貼り付けた立方体を大きく変換している。
【0175】
この第1のシーン記述処理のように、例えば図22に示したシーン記述から図25に示したシーン記述への変換処理は、シーン記述処理部24において、予め記憶部9に記憶されている複数のシーン記述のなかからES処理部25より出力されるESに対応したシーン記述(図25のシーン記述)を選択的に読み出して送出する処理、若しくは、記憶部4から読み出されているシーン記述(図22のシーン記述)を、ES処理部25より出力されるESに対応したシーン記述(図25のシーン記述)に変換して送出する処理、或いは、ES処理部25が出力するESに対応するシーン記述データ(図25のシーン記述)を生成若しくは符号化して送出する処理などを行うことにより実現される。なお、シーン記述の変化分のみを記述可能なシーン記述方法を用いている場合には、その変化分のみを送信するようにしても構わない。また、上述の例では、動画像ESのビットレートを下げたときにその動画像ES表示領域Emvを狭める場合について説明を行ったが、逆に、ビットレートを上げたときに動画像ES表示領域Emvを広げるような場合であっても当然に本発明にかかるシーン記述変換を適用できる。さらに、上述の例では、高解像度の静止画像ESが予め伝送されて蓄積されているとして説明を行ったが、例えば、予め伝送されて蓄積されている静止画像が低解像度のものであった場合、新たに高解像度の静止画像ESを伝送し、且つ、それに対応するシーン記述を伝送するようにしても良いことは言うまでもない。その他、本実施の形態では動画像と静止画像を例に挙げたが、本発明は他のマルチメディアデータのビットレート調整に応じてシーン記述を変更する場合も含まれる。
【0176】
以上、図21〜図25を用いて説明した第1のシーン記述処理によれば、シーンの構成情報を表すシーン記述を変換処理することにより、伝送路の状態や復号端末12からの要求に合わせたシーン記述を送信可能となる上、例えばES処理部25にてESの変換が行われた場合には、その変換後のESに最適なシーン記述を送信することが可能となる。
【0177】
次に、第2のシーン記述処理について説明する。
【0178】
例えば、伝送路や復号端末12の状態に応じてES処理部25よりESのビットレートなどを変換してESの復号に必要な情報が変化した場合、フィルタ23は、第2のシーン記述処理として、そのESの復号に必要な情報を含むシーン記述自体も変換して送信することにより、復号端末側でESのデータ自体から復号に必要な情報を抽出する必要性を無くしている。すなわち、シーン記述処理部24は、制御部26の制御の元で、ES処理部25でES変換処理が行われて当該ESの復号に必要な情報が変化した場合、そのESの復号に必要な情報を含むシーン記述を出力可能となされている。なお、ESの復号に必要な情報とは、例えばESの符号化フォーマット、復号に必要なバッファサイズ、ビットレートなどである。以下、前述した各図と図26及び図27を用いて、第2のシーン記述処理を具体的に説明する。
【0179】
図26は、前述の図21及び図22にて説明したようなシーンで使用されるESの復号に必要な情報の例を、MPEG4で定められている記述子ObjectDescriptorで記述したものである。図22のシーン記述中で、物体表面にテクスチャとしてマッピングする動画像は3(=url3)という数値で指定されているが、これは図26のObjectDescriptorの識別子であるODid=3に対応付けられる。識別子ODid=3のObjectDescriptor内に含まれるES_Descriptorは、ESに関する情報を記述している。また、図中のES_IDは、ESを一意に特定する識別子である。この識別子ES_IDはさらに、例えばESを伝送するために使用している伝送プロトコル中のヘッダの識別子やポート番号等と関連付けることで、実際のESに対応付けされる。
【0180】
また、ES_Descriptorの記述中には、DecoderConfigDescriptorというESの復号に必要な情報の記述子が含まれる。当該記述子DecoderConfigDescriptorの情報は、例えばESの復号に必要なバッファサイズや最大ビットレート、平均ビットレートなどである。
【0181】
一方、図27は、前述の図23に示したシーンに対応する、シーン記述処理部24での変換処理後のシーン記述に付随するESの復号に必要な情報の例を、MPEG4で定められている記述子ObjectDescriptorにより記述したものである。ESの変換によって変化した動画像(ODidが3でシーン記述中から参照される)の復号バッファサイズ(bufferSiseDB)、最大ビットレート(maxBitRate)および平均ビットレート(avgBitRate)が、上記変換前の図26に示したObjectDescriptor中の記述から図27のように変換されている。すなわち、図26の例では、bufferSiseDB=4000、maxBitRate=1000000、avgBitRate=1000000となっていたものが、図27では、bufferSiseDB=2000、maxBitRate=5000000、avgBitRate=5000000に変換されている。
【0182】
この第2のシーン記述処理のように、シーン記述に付随するESの復号に必要な情報の変換処理は、シーン記述処理部24において、予め記憶部9に記憶されている複数のESの復号に必要な情報のなかから、ES処理部25より出力されるESに対応した情報(図27の情報)を選択的に読み出して送出する処理、若しくは、記憶部9から読み出されているESの復号に必要な情報(図26の情報)を、ES処理部25より出力されるESの復号に必要な情報(図27の情報)に変換して送出する処理、或いは、ES処理部25が出力するESの復号に必要な情報(図27の情報)を符号化して送出する処理などを行うことにより実現される。
【0183】
以上、説明した第2のシーン記述処理によれば、伝送路や復号端末12の状態に応じてESのビットレートなどを変換することによりESの復号に必要な情報が変化した場合、図27に示すように、シーン記述中に含まるESの復号に必要な情報を変更して復号端末12へ送信することにより、復号端末12側でESのデータ自体からES復号に必要な情報を抽出する必要性を無くすことが可能となっている。
【0184】
次に、第3のシーン記述処理について説明する。
【0185】
第3のシーン記述処理として、フィルタ23は、シーンを構成するESの数を増減するように明示的にシーン記述を変換して出力することにより、伝送帯域に見合うESのみを送信可能にし、一方、復号端末12においては、表示等に必要なESをESデータの到着遅れやデータの損失に依存せずに判断することを可能としている。すなわち、この例のシーン記述処理部24は、制御部26の制御の元で、ESの数を増減するように明示的にシーン記述を変換して出力し、復号端末12の復号部15に設けられるシーン記述復号機能は、表示等に必要なESをESデータの到着遅れやデータの損失に依存せずに判断する。以下、前述した各図と図28及び図29を用いて第3のシーン記述処理を具体的に説明する。
【0186】
図28は、前述の図21及び図22で説明したようなシーンから、例えば、動画像のESを削除した場合のシーン記述を、MPEG4 BIFSで記述(分かり易くテキストとして記述)したものである。また、図29は、図28のシーン記述に基づいて表示されるシーンの一例を表し、シーン表示領域EsiにはイメージES表示領域(例えば静止画像ES表示領域)Eimのみが配されている。図28のシーン記述中で使用されるESはODidが4のESのみであることがシーン記述から判断可能であるため、復号端末12においては、ODidが3の動画像ESデータが到着しなくとも、それがESデータの到着遅れやデータの損失に依るものではないと判断することが出来る。さらに、図26や図27の例のようなODidが3のObjectDescriptorの記述を削除することにより、ODidが3の動画像ESは不要となったと判定することが出来る。
【0187】
また、この第3のシーン記述処理の例において、シーンを復号して構成するための処理負荷を一時的に減じたいとの伝送要求が復号端末12から伝送された場合、フィルタ23では、例えば図22に示したシーン記述を図28に示したシーン記述に変更することにより、動画像をシーン中にテクスチャとしてマッピングする処理を明示的に不要とすることを復号端末12に知らせることが出来る。これにより、復号端末12では、シーンを復号する処理負荷を減らすことが可能となる。
【0188】
この第3のシーン記述処理のように、前述の図22に示したシーン記述から図28に示したシーン記述への変換処理は、シーン記述処理部24において、予め記憶部9に用意されている複数のシーン記述のなかから、ES処理部25より出力されるES数に対応付けられているシーン記述(図28のシーン記述)を選択的に読み出して送出する処理、若しくは、記憶部9から読み出されたシーン記述を入力とし、出力しないESに対応する部分データ(シーン記述中のデータ)を削除したシーン記述(図28のシーン記述)へ変換して出力する処理、或いは、シーン記述を符号化出力する場合には、出力しないESに対応する部分を符号化しない処理を行うことにより実現できる。
【0189】
以上説明したように、第3のシーン記述処理によれば、上述のようにシーン記述を変換することにより、サーバ10側で意図した通りのシーンを、意図したタイミングにおいて復号端末12側で復元することが可能となる。また、第3のシーン記述処理によれば、シーン記述処理部24において、伝送帯域若しくは復号端末12の処理性能に適合するまで、シーン記述中の重要度の低い部分データから順に削除することが可能となる。また、第3のシーン記述処理によれば、復号端末12の処理性能に余裕が生じた場合には、より詳細なシーン記述を送信することが可能となり、それによって復号端末12の処理性能に対して最適なシーンを復号、表示等させることが可能となる。
【0190】
次に、第4のシーン記述処理について説明する。
【0191】
第4のシーン記述処理として、本実施の形態のサーバ10側では、伝送路の状態や復号端末12からの要求に応じて、シーン記述の複雑さを変換することにより、シーン記述のデータ量を調整し、かつ復号端末12における処理負荷を調整可能としている。すなわちこの例のシーン記述処理部24は、制御部26の制御の元、伝送路の状態や復号端末12からの要求に応じて、シーン記述のデータ量を調整して出力する。以下、図30〜図33を用いて第4のシーン記述処理を具体的に説明する。
【0192】
図30は、ポリゴンで記述した物体を表示するためのシーン記述を、MPEG4 BIFSで記述(分かり易くテキストとして記述)したものである。なお、図30の例では、簡略化のために、ポリゴンの座標は省略している。なお、図30のシーン記述において、IndexedFaceSetとは、Coordinate中のpointで指定した頂点座標を、CoordIndexで指定した順番に接続してできる幾何物体を表している。また、図31は、図30のシーン記述を復号することにより表示されるシーンの表示例(ポリゴンの物体の表示例)を示す。
【0193】
この第4のシーン記述処理の例において、伝送路の状態により、例えばサーバ10が送信するデータ量を減じたい場合、或いは、処理負荷を下げたいとの伝送要求が復号端末12から伝送された場合、フィルタ23のシーン記述処理部24では、シーン記述を、より簡易なシーン記述へと変換する。例えば、図32に示すシーン記述の例では、図31のようなポリゴンを表すIndexedFaceSetを、図33に示すような球体を表すSphereで置き換えることにより、シーン記述のデータ量自体を減じ、且つ復号端末12における復号処理とシーンの構成を行うための処理の負荷を軽減可能となっている。すなわち、図31のようなポリゴンの場合は、多面体を表す各値が必要になるのに対し、図33に示すような球体の場合には、それらが不要となるため、シーン記述のデータ量を減らすことができる。また、復号端末12側では、多面体を表示するための複雑な処理が、球体を表示するための簡単な処理になり、処理負担が軽減されている。
【0194】
この第4のシーン記述処理のように、上記図30に示したシーン記述から図32に示したシーン記述への変換処理は、シーン記述処理部24において、例えば予め記憶部9に用意されている複数のシーン記述のなかから、伝送路の状態や復号端末12からの要求に適した評価基準を満たすシーン記述を選択して出力すること、或いは、記憶部9から読み出されたシーン記述を入力とし、上記評価基準を満たすシーン記述へ変換したり、或いは、上記評価基準を満たすシーン記述を符号化出力することにより実現できる。なお、上記評価基準とは、シーン記述のデータ量や、ノードやポリゴンの数などのシーン記述の複雑さを表す基準であれば良い。
【0195】
また、シーン記述処理部24におけるシーン記述の複雑さを変換する他の処理手法としては、図32のように複雑な部分データを簡易な部分データで置き換える処理若しくはその逆の処理、或いは、部分データを取り除く処理若しくはその逆の処理、或いはシーン記述を符号化する場合には量子化ステップを変更することによってシーン記述データのデータ量を調整するような処理などであっても良い。なお、符号化時の量子化ステップ調整によるシーン記述のデータ量制御は、例えば次のようにして実現できる。例えばMPEG4 BIFSでは、座標や回転軸と角度、サイズ等の量子化カテゴリ毎に、量子化の使用/不使用や使用ビット数を表す量子化パラメータを設定することが可能であり、且つ1つのシーン記述中でも量子化パラメータを変更することができるとされているので、例えば量子化に使用するビット数を小さくすれば、シーン記述のデータ量を減じることが可能となる。
【0196】
以上説明したように、第4のシーン記述処理によれば、シーン記述を変換することにより、サーバ10側で意図した通りに簡易化したシーンを、復号端末12側で復元することが可能となる。また、第4のシーン記述処理によれば、シーン記述処理部24において、伝送帯域若しくは復号端末12の処理性能に適合するまで、シーン記述中の重要度の低い部分データから順に削除することが可能となる。
【0197】
次に、第5のシーン記述処理について説明する。
【0198】
第5のシーン記述処理として、サーバ10側では、伝送路の状態や復号端末12からの要求に応じて、シーン記述を複数の復号単位に分割することにより、シーン記述データのビットレートを調整し、且つ復号端末12における局所的な処理負荷の集中を回避可能としている。すなわち、この例のシーン記述処理部24は、制御部26の制御の元、伝送路の状態や復号端末12からの要求に応じて、シーン記述を複数の復号単位に分割し、それら分割した復号単位のシーン記述の送出タイミングを調整して出力する。なお、ある時刻に復号すべきシーン記述の復号単位は前記符号化単位のAUと同じである。以下、図34〜図38を用いて第5のシーン記述処理を具体的に説明する。
【0199】
図34には、例えば球体、立方体、円錐、円柱の4つの物体を表すシーン記述を、MPEG4 BIFSの1つのAUで記述したものである。また、図35は、図34のシーン記述を復号して表示されるシーンの表示例を示し、球体41、立方体42、円錐44、円柱43の4つの物体が表示されている。この図34に示した1つのAUに記述されたシーンは、指定された復号時刻において全て復号し、指定された表示時刻において表示に反映しなければならない。なお、この復号時刻(AUをデコードして有効にすべき時刻)は、MPEG4においてはDTS(Decoding Time Stamp)と呼ばれている。
【0200】
この第5のシーン記述処理の例において、伝送路の状態若しくは復号端末12からの要求により、例えば送信するデータのビットレートを減じたい場合、或いは復号端末12における局所的な処理負荷を下げたい場合、フィルタ23のシーン記述処理部24では、シーン記述を複数のAUへ分割し、AU毎のDTSをずらすことにより、シーン記述の局所的なビットレートを伝送路の状態若しくは復号端末12からの要求に見合うビットレートへ調整し、DTS毎の復号処理に必要な処理量を復号端末12からの要求に見合う処理量へ調整する。
【0201】
すなわち、シーン記述処理部24は、先ず例えば図34に示したシーン記述を、図36に示すように4つのAU1〜AU4に分割する。ここで、第1のAU1は、グルーピングを行っているGroupノードに1というIDを割り当て、後続のAUから参照することを可能とすることが記述されている。MPEG4 BIFSでは、参照可能なグルーピングノードに対して、後から部分シーンを追加していくことが可能となされている。第2のAU2から第4のAU4は、部分シーンを第1のAU1で定義されているIDが1のGroupノードのChildrenフィールドへ追加するコマンドが記述されている。
【0202】
次に、シーン記述処理部24は、上述の第1のAU1〜第4のAU4について、それぞれ図37に示すようにDTSをずらして指定する。すなわち、第1のAU1に対しては第1のDTS1を指定し、第2のAU2に対しては第2のDTS2を、第3のAU3に対しては第3のDTS3を、第4のAU4に対しては第4のDTS4を指定する。これにより、サーバ10から復号端末12への局所的なシーン記述データのビットレートは減じられ、且つ、復号端末12ではDTS毎に発生する局所的な復号処理の負荷が減じられる。
【0203】
なお、図36のように4つに分割されたシーン記述を、それぞれDTS1〜DTS4にて復号して表示されるシーンは、図38に示すように、DTS毎に物体が追加され、最後のDTS4において図35と同様のシーンが得られることになる。すなわち、DTS1では球体41が表示され、DTS2ではさらに立方体42が追加され、DTS3ではさらに円錐44が追加され、DTS4ではさらに円柱43が追加されることで、最終的に4つの物体が表示される。
【0204】
この第5のシーン記述処理のように、上記図34に示したシーン記述から図36に示したシーン記述への変換処理は、シーン記述処理部24において、例えば予め記憶部9に用意されている複数のシーン記述のなかから、伝送路の状態や復号端末12からの要求に適した評価基準を満たすシーン記述を選択して出力すること、或いは、記憶部9から読み出されたシーン記述を入力とし、上記評価基準を満たすまで分割したシーン記述(AU1〜AU4)へ変換したり、或いは、上記評価基準を満たすまで分割したシーン記述(AU1〜AU4)をそのAU毎に符号化出力することにより実現できる。なお、この第5のシーン記述処理における上記評価基準とは、1つのAUのデータ量や、1つのAUに含まれるノードの数、物体の数、ポリゴン数等、1つのAUに含めるシーンの限界を表す基準であれば良い。
【0205】
以上説明したように、当該第5のシーン記述処理によれば、シーン記述を複数のAUへ分割し、AU毎のDTSの間隔を調整することにより、シーン記述の平均ビットレートを制御することが可能であり、また、復号端末12の局所的な復号処理の負担を軽減可能である。なお、平均ビットレートは、ある時間間隔中に含まれるDTSを持つAUのデータ量の合計を、上記時間間隔で除算することにより算出可能であるため、シーン記述処理部24では、伝送路の状態や復号端末12からの要求に適した平均ビットレートを実現するようにDTSの間隔を調節することができる。なお、上述の例では、AUを分割する例を挙げたが、逆に複数のAUを結合するようなことも可能である。
【0206】
上述の説明では、第1〜第5のシーン記述処理を個々に行う例を挙げているが、それら各シーン記述処理を任意に組み合わせて、複数個のシーン記述処理を同時に行うことも可能である。この場合は、それら組み合わせたシーン記述処理それぞれの前述した作用効果を同時に実現することが可能となる。
【0207】
また、本実施の形態では、シーン記述の例としてMPEG4 BIFSを挙げているが、本発明はこれに限定されるものではなく、あらゆるシーン記述方法に対しても適用可能である。また例えば、シーン記述の変化分のみを記述可能なシーン記述方法を用いている場合には、その変化分のみを送信する場合も本発明は適用可能である。
【0208】
さらに、上述した本発明実施の形態は、ハードウェア構成によっても、また、ソフトウェアによっても実現可能である。
【0209】
また、上述の説明では、シーン記述の例としてHTMLやMPEG4 BIFSを挙げているが、その他にVRML、Java(商標)など、あらゆるシーン記述方法に対しても適用可能である。
【0210】
また、本発明は、ビデオデータ、オーディオデータ、静止画像データ、テキストデータ、グラフィックデータ、シーン記述データなどのデータのタイプに依らず、かつあらゆるデータの符号化方法に対して有効である。さらに、本発明は、ハードウェアによってもソフトウェアによっても実現可能である。
【0211】
【発明の効果】
本発明においては、受信側にて通常再生を行うときには当該通常再生に使用するデータを出力し、受信側にて特殊再生を行うときには通常再生に使用するデータの符号化単位の再生に関連する時間情報を特殊再生に応じて変換して出力することにより、受信側において特殊再生を行う場合に、例えばビデオ以外のデータの復号及び表示等が可能となり、また、シーン記述データを配信、復号等することができ、さらに、データ間の同期関係を保持し、伝送ビットレートなどの評価基準を満たすデータとして配信することが可能となっている。
【図面の簡単な説明】
【図1】本発明実施の形態のデータ配信システムの構成例を示すブロック図である。
【図2】第1の実施の形態のデータ配信システムのサーバの詳細な構成を示すブロック図である。
【図3】第1の実施の形態において早送り再生を行う場合の時間情報の変換処理の説明に用いる図である。
【図4】第1の実施の形態においてスロー再生を行う場合の時間情報の変換処理の説明に用いる図である。
【図5】第1の実施の形態においてジャンプを行う場合の時間情報の変換処理の説明に用いる図である。
【図6】第2の実施の形態のデータ配信システムのサーバの詳細な構成を示すブロック図である。
【図7】第2の実施の形態において早送り再生を行う場合の時間情報の変換処理の説明に用いる図である。
【図8】第2の実施の形態において早送り再生を行う場合のビットレートの変化の説明に用いる図である。
【図9】第3の実施の形態のデータ配信システムのサーバの詳細な構成を示すブロック図である。
【図10】第3の実施の形態の第1の具体例のフィルタにおける分割処理の流れを示すフローチャートである。
【図11】第1の具体例のフィルタにおいてMPEG4 BIFSによるシーン記述の分割候補の説明に用いる図である。
【図12】図11のシーン記述の構造説明に用いる図である。
【図13】図11のシーン記述の復号及び表示結果を表す図である。
【図14】図11のシーン記述の変換結果を表す図である。
【図15】図11のシーン記述の異なる変換候補を表す図である。
【図16】第3の実施の形態の第2の具体例のフィルタの詳細な構成を示すブロック図である。
【図17】第2の具体例のフィルタにおける伝送優先度とビットレートと3つのESとの関係説明に用いる図である。
【図18】ビットレートの変更と伝送優先度の変更の説明に用いる図である。
【図19】ESのビットレートRと伝送優先度の関係Ps(R)を示す図である。
【図20】ESの画枠領域Sと伝送優先度の関係Ps(S)を示す図である。
【図21】第1のシーン記述処理における変換前のシーン記述によるシーン表示結果を示す図である。
【図22】図21のシーンに対応したシーン記述(MPEG4 BIFS)の例を表す図である。
【図23】第1のシーン記述処理における変換後のシーン記述によるシーン表示結果を示す図である。
【図24】第1のシーン記述処理におけるES変換とシーン記述変換のタイミングの説明に用いる図である。
【図25】図23のシーンに対応したシーン記述(MPEG4 BIFS)の例を表す図である。
【図26】図21のシーンに対応するESの復号に必要な、図22のシーン記述に付随する情報(MPEG4 ObjectDescriptor)の例を表す図である。
【図27】図23のシーンに対応するESの復号に必要な、図25のシーン記述に付随する情報(MPEG4 ObjectDescriptor)の例を表す図である。
【図28】図21及び図22で説明したシーンから動画像のESを削除した場合のシーン記述(MPEG4 BIFS)の例を表す図である。
【図29】図28のシーン記述による表示結果を示す図である。
【図30】ポリゴンで記述した物体を表示するためのシーン記述(MPEG4 BIFS)の例を表す図である。
【図31】図30に示すシーン記述による表示結果を示す図である。
【図32】ポリゴンで記述した物体を球体で置換したシーン記述(MPEG4 BIFS)の例を表す図である。
【図33】図32に示すシーン記述による表示結果を示す図である。
【図34】4つの物体からなるシーン記述(MPEG4 BIFS)の例を表す図である。
【図35】図34に示すシーン記述による表示結果を示す図である。
【図36】図34に示すシーン記述を4つのAUに分割した各シーン記述(MPEG4 BIFS)の例を表す図である。
【図37】図36に示す各AUの復号タイミングの説明に用いる図である。
【図38】図36に示す各AUのシーン記述による表示結果を示す図である。
【図39】従来のデータ配信システムの概略構成を示すブロック図である。
【図40】図39に示したデータ配信システムの欠点を解消するデータ配信システムの概略構成を示すブロック図である。
【図41】図40のデータ配信システムにおけるビデオデータ用のデータ変換部の動作の一例(早送り再生)の簡単な説明に用いる図である。
【図42】図40のデータ配信システムにおけるビデオデータ用のデータ変換部の動作の一例(巻き戻し再生)の簡単な説明に用いる図である。
【図43】VRMLおよびMPEG4 BIFSを用いたシーン記述の説明に用いる図である。
【符号の説明】
1 特殊再生制御部、 7 データ変換部、 4 多重化部、 5 送信部、9 記憶部、 10 サーバ、 12 復号端末、 13 受信部、 14 分離部、 15 復号部、 16 シーン合成部、 17 読み出し部、 18スケジューラ、 19 時間情報書き換え部、 23 フィルタ、 24 シーン記述処理部、 25 ES処理部、 26 制御部[0001]
BACKGROUND OF THE INVENTION
The present invention uses a network to describe scene description data for constructing a scene using multimedia data including video data such as still images and moving images, audio data, text data and graphic data. Optimal data used when special reproduction is performed in a data distribution system in which the distributed multimedia data and scene description data are received at the decoding terminal and decoded and displayed at the decoding terminal. Processing method and equipment In place Related.
[0002]
[Prior art]
A configuration example of a conventional data distribution system in which video data or the like stored by compressing and storing still image or moving image image signals is distributed via a transmission medium, received at a decoding terminal, and decoded and displayed. 39. In FIG. 39, only the video data path is described for the sake of simplicity. Further, in the following description, video data is transported (Transport stream, hereafter simply referred to as TS) defined by, for example, ISO (International Organization for Standardization) / IEC (International Electrotechnical Commission) 13818-1 (so-called MPEG2 Systems). In this example, the packet is distributed to
[0003]
In FIG. 39, the
[0004]
In the
[0005]
In such a data distribution system, when performing special playback display such as fast-forward playback, frame-by-frame playback, and pause, for example, a special playback designation signal (fast-forward) according to the operation of the terminal front panel or remote controller by the user, for example. (Instruction signal such as playback or frame advance playback) 206 is input to the special playback control unit 216 of the
[0006]
Upon receiving the special
[0007]
In the
[0008]
Note that the video frame encoding method defined in ISO / IEC13818-2 uses I-picture (intra-coded picture) encoded only from intra-frame data and prediction between frames. B picture (Bidirectionally predictive-coded picture: bi-directional predictive coded picture) and P picture (Predictive-coded picture: forward predictive coded picture) to be encoded. In the data distribution system shown in FIG. As the special reproduction video data read from the
[0009]
On the other hand, when distributing compressed video data compliant with, for example, ISO / IEC13818-2 (so-called MPEG2 video) as in the data distribution system described above, the compressed video data defined in the ISO / IEC13818-2 is The decoder buffer must be encoded so that it does not overflow and underflow. The decoder buffer corresponds to an input buffer (not shown) provided in the
[0010]
However, video data consisting of only I pictures, such as the above-mentioned special playback video data, increases the amount of data and may cause the decoder buffer to overflow or underflow. For this reason, in the conventional data distribution system, special data for special reproduction different from normal reproduction is prepared in advance so that special reproduction can be performed without overflowing or underflowing the decoder buffer. In addition, when special playback is performed at the decoding terminal, it is necessary to distribute special data for the special playback. On the decoding terminal side, a special terminal is required which can perform special special reproduction processing corresponding to the special data for special reproduction, which is different from normal special reproduction processing.
[0011]
That is, according to the conventional data distribution system, in order to realize special reproduction without overflowing or underflowing the decoder buffer, special reproduction video data different from the special reproduction video data including only the I picture described above is used. Special data must be prepared in advance, and the special data must be distributed during special playback. Similarly, the decoding terminal requires a terminal including each
[0012]
For this reason, the applicant of the present application uses the normal playback video data read from the storage unit in the server according to Japanese Patent Application Nos. 2000-178999 and 2000-179000. Is converted into video data that satisfies the ISO / IEC13818-2 standard, and the converted video data is distributed to the decoding terminal, so that special playback for special playback as described above is performed. A technique has been proposed for a simple configuration that does not require the use and preparation in advance of distribution data and does not require a special decoding terminal that can handle the special distribution data for special reproduction.
[0013]
FIG. 40 shows data distribution that realizes conversion and output of data obtained as a result of special reproduction using video data for normal reproduction, for example, into video data satisfying the regulations of ISO / IEC13818-2. 1 shows a schematic configuration of a system. In the example of FIG. 40, for example, video data or the like is transport stream (TS) defined by ISO (International Organization for Standardization) / IEC (International Electrotechnical Commission) 13818-1 (so-called MPEG2 Systems). The case where it is packetized and distributed is given.
[0014]
40, the
[0015]
In the
[0016]
When special reproduction display is performed in the
[0017]
The special
[0018]
The
[0019]
Here, the data conversion processing in the
[0020]
In FIG. 41, normal playback video data encoded in MPEG2 video (video data read out from the storage unit 229) is fast-forwarded as an example of special playback processing in the
[0021]
In the
[0022]
In FIG. 42, as in FIG. 41, video data for normal playback (video data read from the storage unit 229) encoded with MPEG2 video is processed by the
[0023]
In the
[0024]
As described above, the special reproduction video data converted by the
[0025]
[Problems to be solved by the invention]
By the way, in the conventional television broadcast, one image signal is displayed on the screen of the image display device, and only one audio signal is output from the speaker. It is also considered that one scene is formed using multimedia data including video data, audio data, text data, graphic data, and the like. As a method of describing the structure of the scene using the multimedia data, there is a scene description system defined in HTML (HyperText Markup Language), ISO / IEC 14496-1, which is used on a so-called Internet homepage or the like. There are MPEG4 BIFS (Binary Format for the Scene), VRML (Virtual Reality Modeling Language) defined in ISO / IEC14772, Java (trademark), and the like. Hereinafter, data describing the configuration of the scene is referred to as a scene description.
[0026]
An example of scene description using VRML and MPEG4 BIFS will be described with reference to FIG. FIG. 43 shows the contents of the scene description. In VRML, scene description is performed by text data as shown in FIG. 43, and in MPEG4 BIFS, scene description is performed by binary encoding of this text data.
[0027]
VRML and MPEG4 BIFS scene descriptions are expressed in basic description units called nodes, and in the example of FIG. 43, nodes are indicated by bold italic characters. A node is a unit that describes an object to be displayed, a connection relationship between objects, and the like, and includes data called a field to indicate the characteristics and attributes of the node. For example, the Transform node in FIG. 43 is a node capable of designating three-dimensional coordinate transformation, and the translation amount of the coordinate origin is designated in the translation field in the node. In addition, there is a field in which other nodes can be specified. For example, the Transform node in FIG. 43 has a Children field indicating a child node group whose coordinates are transformed by the Transform node, and for example, a Shape node is grouped by the Children field. In order to arrange the objects to be displayed in the scene, the nodes representing the objects are grouped together with the nodes representing the attributes, and further, the nodes are grouped by the nodes representing the arrangement positions. For example, the object represented by the Shape node in FIG. 43 is arranged in the scene by applying the parallel movement specified by the Transform node that is the parent node.
[0028]
The video data, audio data, and the like are displayed spatially and temporally arranged according to the scene description. For example, the MovieTexture node in FIG. 43 specifies that a moving image specified by an ID of 3 is to be pasted and displayed on the surface of a cube.
[0029]
[Problems to be solved by the invention]
As mentioned above, in recent years, video data, audio data, Te Although it is considered that one scene is formed by using multimedia data composed of text data, graphic data, etc., in a conventional data distribution system, only video data is decoded and displayed during special playback. Not.
[0030]
For this reason, even if multimedia data including, for example, video data, audio data, text data, graphic data, and the like is distributed, only video data is decoded and displayed during special playback. Even if data including data other than video, such as subtitle text, is distributed, the conventional data distribution system does not decode or display data other than video during special playback.
[0031]
For this reason, it is desired to be able to decode and display data other than video data such as audio data and subtitle text data during special playback such as fast-forward playback and rewind playback.
[0032]
At present, methods and means for distributing and decoding scene description data for configuring a scene as described above even during special playback have not been realized. For this reason, in a conventional data distribution system, for example, even if a single scene is configured using the above-described multimedia data and the multimedia data is distributed, the scene cannot be configured during special playback. As a result, there arises a problem that, for example, the scene displayed at the start and end of special playback becomes discontinuous.
[0033]
For this reason, it is desired to realize a technique and means for distributing and decoding the scene description data even during special reproduction.
[0034]
Furthermore, in order to deliver, decode, and display the above-mentioned multimedia data and scene description data even during special playback, it is possible to display the data while maintaining the synchronization relationship between the data. It is also necessary to distribute the data as data that satisfies an evaluation criterion such as a transmission bit rate (a criterion that does not cause the decoder buffer to fail).
[0035]
Therefore, the present invention has been made in view of such circumstances, and enables decoding and display of data other than video when special playback is performed, and for distributing and decoding scene description data. In addition, the data processing method and device that realize the above-described method and means, and that can maintain the synchronization relationship between the data and can be distributed as data satisfying the evaluation criteria such as the transmission bit rate. Place The purpose is to provide.
[0036]
[Means for Solving the Problems]
The data processing method of the present invention is a data processing method for transmitting data encoded for each predetermined encoding unit from the transmission side to the reception side, and receiving the special reproduction designation signal supplied from the reception side. And based on the received special reproduction designation signal, Depending on the bit rate adjustment of the output data Selecting a coding unit at the time of outputting data used for special reproduction on the receiving side, converting time information related to reproduction of the selected coding unit according to the special reproduction, and Depending on the bit rate adjustment of the output data The step of changing the scene description data in which the display area at the time of outputting the data used for the special reproduction is described, the time information after the conversion, the scene description data after the change, and the data used for the special reproduction are And a step of outputting to the receiving side.
[0037]
Further, the data processing apparatus of the present invention is a data processing apparatus for transmitting data encoded for each predetermined encoding unit to the receiving side, based on the special reproduction designation signal supplied from the receiving side, Depending on the bit rate adjustment of the output data A data conversion means for selecting a coding unit at the time of output of data used for special reproduction on the receiving side, and converting time information related to reproduction of the selected coding unit according to the special reproduction; and Based on the special playback designation signal, Depending on the bit rate adjustment of the output data, Filter means for changing scene description data describing a display area when outputting data used for special reproduction, time information converted by the data conversion means, scene description data changed by the filter means, and special reproduction The above-mentioned problem is solved by providing a transmission means for outputting data used for the reception to the receiving side.
[0040]
That is, according to the present invention, for example, the display time and the display time or the display end time of the display unit for normal reproduction data are calculated according to the special reproduction and rewritten to be converted into the special reproduction data. It is possible to save and display the synchronization relationship between data even during special playback on the terminal. In addition, according to the present invention, for example, by selecting a display unit in normal reproduction data and delivering it so as to satisfy an evaluation criterion such as a bit rate, an evaluation criterion such as a bit rate even during special reproduction. It is possible to deliver data that meets the requirements. In addition, according to the present invention, by converting the display unit in the normal reproduction data so as to satisfy the evaluation standard such as the bit rate, the evaluation standard such as the bit rate can be obtained even during the special reproduction. Enables distribution of data that meets the requirements.
[0041]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings.
[0042]
Video data such as still images and moving images, audio data, multimedia data such as text data and graphic data, and scene description data are distributed via a transmission medium, received at a decoding terminal, decoded, and displayed. A configuration example of the data distribution system according to the embodiment of the present invention is shown in FIG. In the following description, for example, video data or the like is packetized into a transport stream (TS) defined by ISO (International Organization for Standardization) / IEC (International Electrotechnical Commission) 13818-1 (so-called MPEG2 Systems). An example is given in the case of distribution.
[0043]
In FIG. 1, the
[0044]
In the
[0045]
When scene description data describing the scene configuration is distributed, the
[0046]
Further, when special reproduction display is performed in the
[0047]
The special
[0048]
The
[0049]
The detailed configuration and operation of the
[0050]
FIG. 2 shows a detailed configuration of the
[0051]
In FIG. 2, the
[0052]
The
[0053]
The time
[0054]
The time information conversion process in the time
[0055]
FIG. 3A shows a case where time information conversion processing for special reproduction by the time
[0056]
On the other hand, (b) of FIG. 3 performs time information conversion processing for special reproduction (in this case, fast-forward reproduction) by the time
[0057]
Here, when fast-forward playback is performed as in the example of FIG. 3 as special playback, the time t (hereinafter referred to as time t before conversion) when the conversion processing for special playback is not performed is performed. The relationship between the time T and the time T ′ on the time t ′ when the conversion process for the special reproduction is performed (hereinafter referred to as the output time t ′ after the conversion) is as follows. Will change.
[0058]
For this reason, in the data conversion unit 7 (time information rewriting unit 19) of the embodiment of the present invention, the time T ′ on the output time t ′ after the conversion is changed to a special time on the output time t ′ after the conversion. Using the reproduction start time To ′ and the special reproduction start time To (the start time on the time t before conversion corresponding to the special reproduction start time To ′) on the time t before conversion, the equation (1) Calculate as follows.
T '= To' + (T-To) / n (1)
However, n in the formula (1) represents the playback speed during special playback. The value of n is 2 for double speed playback, and is negative for rewind playback.
[0059]
On the other hand, during normal playback, the time T ′ on the output time t ′ after the conversion is set to the special playback end time Ti ′ on the output time t ′ after the conversion and the time t before the conversion. Using the special reproduction end time Ti (end time on the time t before conversion corresponding to the special reproduction start time Ti ′), the calculation is performed as shown in Expression (2).
T '= Ti' + (T-Ti) (2)
Also, during normal playback, the special playback end time immediately before that does not change, so the special playback start time at the start of the next special playback is obtained as shown in formula (3) using formula (2).
To '= Ti' + (To-Ti) (3)
Based on the above equations (2) to (3), the
[0060]
In this embodiment, the special reproduction start time, special reproduction end time, and special reproduction speed n are specified from the special
[0061]
According to the data distribution system of the present embodiment, as described above, the display start time Ts ′ and the display end time Te ′ of the AU on the output time t ′ after the conversion are performed during normal playback and special playback. In addition, by calculating the display time ΔT ′, the time
[0062]
As described above, according to the present embodiment, when special playback is executed in the
[0063]
Next, time information conversion processing in the time
[0064]
FIG. 4A shows the display timing of normal reproduction data on time t before conversion, as in FIG. AU40, AU41, AU42, etc. in FIG. 4 each represent one display unit of data. 4B is similar to FIG. 3B, and has been converted when time information conversion processing for special reproduction (in this case, slow reproduction) by the time
[0065]
Here, for example, in the case of performing 0.5 × speed playback as special playback, the data conversion unit 7 (time information rewriting unit 19) according to the embodiment of the present invention sets the value of the playback speed n to 0.5 and the above formula (1) Is calculated.
[0066]
As in the example of FIG. 4, the time information conversion process in the
[0067]
Next, the time information conversion processing in the time
[0068]
FIG. 5A shows the display timing of normal reproduction data on time t before conversion, as in FIG. 3A. Each of AU50, AU51, AU52, etc. in FIG. 5 represents one display unit of data. FIG. 5B shows converted data when time information conversion processing for special reproduction (in this case, jump) by the time
[0069]
Here, in the case of jump, since there is no playback speed during special playback, the special
[0070]
In the case of the example of FIG. 5, the
[0071]
Even in the case of performing special reproduction such as jump for moving the reproduction position to a discontinuous display unit as in the example of FIG. 5, the time information conversion processing in the
[0072]
Further, according to the present invention, by converting the scene description data describing the structure of the scene according to the special reproduction, the scene description data can be distributed and decoded even during the special reproduction. Thus, it is possible to avoid the inconvenience that the scene displayed at the end of the special reproduction is discontinuous, for example.
[0073]
In the above-described example, when time information such as display time and decoding time is encoded and added to the data itself, the time
[0074]
By the way, in a data distribution system that distributes multimedia data such as video data, audio data, text data, graphic data, and scene description data, and decodes and displays the data, even during special playback, the bit rate, etc. There is a request to distribute data that satisfies the evaluation criteria.
[0075]
That is, the delivery data during fast-forward playback as in the example of FIG. 3 is compressed on the time axis compared to the delivery data during normal playback, and the average bit rate is higher than that during normal playback. On the other hand, in the case of a system that distributes data via a transmission medium as in this embodiment, the upper limit of the bit rate allowed at the time of distribution is determined according to the transmission capacity of the transmission medium and the capability of the decoding terminal. For example, if the bit rate of the distribution data exceeds the upper limit of the bit rate allowed for the distribution, data delay or loss occurs. In such a case, for example, if the bit rate of the distribution data is limited, it is considered that the bit rate of the distribution data can be prevented from exceeding the upper limit bit rate allowed at the time of distribution.
[0076]
Further, for example, if the data included in the distribution data within a certain period of time relatively increases, the difficulty of decoding, scene synthesis, and display increases, and there is a risk that the data is not correctly displayed on the decoding terminal. In such a case, for example, if the difficulty of decoding of the distribution data, scene synthesis, and display is limited, it is considered that the risk of not being correctly displayed on the decoding terminal can be reduced.
[0077]
Therefore, in the second embodiment of the present invention, it is possible to distribute data that satisfies the evaluation criteria such as the bit rate even during special playback, thereby preventing the occurrence of data delay and loss, In addition, the scene can be correctly displayed on the decoding terminal.
[0078]
FIG. 6 shows a detailed configuration of the
[0079]
In FIG. 6, the
[0080]
The conversion process in the
[0081]
FIG. 7 is expressed in the same manner as FIG. 3, and FIG. 7A shows the display timing of normal reproduction data on time t before conversion, as in FIG. 3A. AU70, AU71, AU72, AU73, etc. in FIG. 7 each represent one display unit of data. 7B, 7C, and 7D are time information conversion processing for special reproduction (in this case, jump) by the time
[0082]
Here, there are two AUs AU71 and AU72 in the special playback section (fast forward playback section) on the time t before conversion shown in FIG. 7A, and the first embodiment described above. In this case, the time information of these AU71 and AU72 is converted according to the special reproduction speed and is output as AU71 ′ and U72 ′. However, for example, as shown in FIG. 8, when special playback (fast forward playback in the examples of FIGS. 7 and 8) is performed, the bit rate of the distribution data changes according to the playback speed. If the bit rate thus changed exceeds the allowable bit rate of the transmission medium or the decoding terminal, data delay or loss occurs.
[0083]
Therefore, the
[0084]
As described above, according to the second embodiment, during the special reproduction, the display unit (AU) in the normal reproduction data is selected and output so as to satisfy the evaluation criteria such as the bit rate. Even in such a case, it is possible to distribute data that satisfies the evaluation criteria such as the bit rate. Note that the evaluation criterion is not limited to the bit rate. For example, it may be an evaluation criterion representing the difficulty of data decoding, scene composition, display, etc., such as the number of polygons allowed in a certain time and the number of nodes in scene description data. Further, it may be an evaluation criterion capable of limiting data that can be output in a certain time, such as the number of characters in text data.
[0085]
Furthermore, when the
[0086]
In the second embodiment, an example has been given in which delivery data satisfying an evaluation criterion such as a bit rate can be output depending on whether or not an AU is selected and output. However, a third embodiment described below will be described. It is also possible to output distribution data that satisfies an evaluation criterion such as a bit rate by converting the content of the AU itself as in the above form.
[0087]
FIG. 9 shows a detailed configuration of the
[0088]
In FIG. 9, the
[0089]
The
[0090]
According to the present embodiment, by converting the AU itself, it is possible to distribute data that satisfies the evaluation criteria such as the bit rate even during special reproduction. Further, the AU input to the
[0091]
A specific example of the
[0092]
As a first specific example of the
[0093]
The operation of the
[0094]
The
[0095]
According to the data distribution system of the third embodiment including the
[0096]
The procedure of the scene description conversion process in the
[0097]
In FIG. 10, the
[0098]
Next, in step S201, the
[0099]
In step S202, the
[0100]
In step S203, the
[0101]
In step S204, the
[0102]
In step S205, the
[0103]
Here, taking MPEG4 BIFS as an example, division in the scene description conversion processing by the
[0104]
First, the contents of the scene description data in FIG. 11 will be described, and then the division in the scene description processing in the
[0105]
In FIG. 11, a
[0106]
In order to arrange the objects to be displayed in the scene, the nodes representing the objects are grouped together with the nodes representing the attributes, and further grouped by the nodes representing the arrangement positions. The object represented by the
[0107]
The scene description can also include user interaction. ROUTE in FIG. 11 represents event propagation. ROUTE 323 indicates that when the touchTime field of the
[0108]
The fraction_changed event representing the elapsed time output from the TimeSensor node 318 is propagated by the ROUTE 324 to the set_fraction field of the
[0109]
By
[0110]
As described above, with the scene description data of FIG. 11 taken as an example, the
[0111]
Here, in order to use a so-called Node Insertion command, the Children field of the grouping node is set as a division unit. However, if the data necessary for event propagation for user interaction is not divided, the three division candidates D0, D1, and D2 shown in FIG. 11 are obtained.
[0112]
A division unit including the
[0113]
However, in this example, since the
[0114]
The division candidate D0 with n = 0 is always output to the hierarchy m = 0. In step S201 in FIG. 10, it is determined whether the division candidate D1 with n = 1 can be output to the hierarchy with m = 0 based on the hierarchization information.
[0115]
Next, FIG. 14 shows an example of determination when the data amount allowed for the hierarchy of the scene description data to be output is specified by the hierarchization information. In the example of A in FIG. 14, if the division candidate D1 with n = 1 is also output to the hierarchy m = 0, the amount of data allowed for the hierarchy m = 0 is exceeded, so the division with n = 1 It is determined that the candidate D1 cannot be output to the hierarchy m = 0.
[0116]
Therefore, according to the procedure of step S202 of FIG. 10, it is determined that the output of the hierarchy m = 0 shown in B in FIG. 14 includes only the division candidate D0 of n = 0, and thereafter the output to the hierarchy m = 1. To do. According to the procedure of step S203, the division candidate D1 with n = 1 is output to the hierarchy m = 1.
[0117]
When the same procedure is performed for the next division candidate D2 with n = 2, as shown by A in FIG. 14, even if the division candidate D2 with n = 2 is output to the hierarchy m = 1, the hierarchy m = 0. Therefore, as shown by C in FIG. 14, the division candidate D2 with n = 2 is moved to the same hierarchy m = 1 as the division candidate D1 with n = 1. It is decided to output.
[0118]
By the above procedure, the
[0119]
In addition, the example of the scene description conversion indicated by A in FIG. 15 is obtained by converting scene description data similar to A in FIG. 14 based on different hierarchization information, as a result of scene description data consisting of three layers. An example converted to output is shown.
[0120]
That is, the scene description shown at A in FIG. 15 is the same as the case shown in FIG. 14, and the converted scene description data output of the hierarchy m = 0 shown at B in FIG. 15 and the hierarchy shown at C in FIG. The converted scene description data output of m = 1 is converted into the converted data output of the hierarchy m = 2 shown at D in FIG.
[0121]
In this conversion result example, the transmission medium used for the delivery of the scene description has a low transmission capacity, and the transmission medium that can transmit only the data amount allowed for the hierarchy m = 0 is the hierarchy m shown in B in FIG. Only the scene description data of = 0 is distributed.
[0122]
Even with only the scene description of the hierarchy m = 0, the data necessary for event propagation for user interaction is not divided, so that the user interaction similar to that before conversion can be realized in the
[0123]
Further, for a transmission medium whose transmission capacity is sufficient for the total data amount of the layers of m = 0 and m = 1, m = 0 shown in FIG. As shown in C, scene description data of both layers of m = 1 is distributed.
[0124]
Since the scene description data of the layer m = 1 is inserted into the scene description of the layer m = 0 by the Node Insertion command, the
[0125]
The
[0126]
In the example of the conversion result in FIG. 15, the
Even with only the scene description of the hierarchy m = 0, the data necessary for event propagation for user interaction is not divided, so that the user interaction similar to that before conversion can be realized in the
[0127]
For the
[0128]
Since the
[0129]
As described above, according to the
[0130]
In MPEG4 BIFS, a command for inserting a node or an Inline node may be used for hierarchizing scene descriptions. Further, EXTERNPROTO described in Chapter 4.9 of ISO / IEC 14772-1 may be used. EXTERNPROTO is a method of referring to a node defined by a node definition method called PROTO in external scene description data. In MPEG4 BIFS, EXTERNPROTO can be used in the same way as VRML.
[0131]
Also, DEF / USE described in Chapter 4.6.2 of ISO / IEC14772-1 makes it possible to name a node by DEF and refer to the node DEF by USE from other places in the scene description. Yes.
[0132]
In MPEG4 BIFS, a numerical identifier called a node ID is provided in a node in the same way as in DEF, and the same reference as VRML can be used in the same way as in USE by specifying the node ID from another place in the scene description. is there.
[0133]
Therefore, when the scene description is hierarchized, if the part using DEF / USE described in Chapter 4.6.2 of ISO / IEC 14772-1 is not divided into different division candidates, the node DEF from USE It is possible to perform scene description conversion without destroying the reference relationship to.
[0134]
14 and 15 show an example in which the amount of data allowed for each layer is used as layering information. However, in layering information, can division candidates in a scene description be included in scene description data of a certain layer? Any information that can be determined may be used. For example, the upper limit of the number of nodes included in the hierarchy, the number of polygon data in the computer graphics included in the hierarchy, and the like of media data such as audio and video included in the hierarchy may be used. It may be limited or a plurality of hierarchized information may be combined.
[0135]
As described above, according to the
[0136]
Further, according to the
[0137]
In addition, what has been described above is effective in any scene description method that can be divided without depending on the type of the scene description method.
[0138]
Next, the operation of the
[0139]
As shown in FIG. 16, the
[0140]
Here, the data distribution system of the third embodiment provided with the
[0141]
The
[0142]
Further, the
[0143]
The
[0144]
Further, for example, an unspecified number of
[0145]
Further, the
[0146]
Hereinafter, a selection method when the
[0147]
The
[0148]
FIG. 17 shows an example of the transmission priority of each ES when there are three ESs, for example, ESa, ESb, and ESc. That is, in the example of FIG. 17, the transmission priority of ESa is “30”, the transmission priority of ESb is “20”, and the transmission priority of ESc is “10”. It is assumed that the transmission priority is higher as the value is lower. Moreover, Ra in FIG. 17 is a transmission bit rate when transmitting ESa, Rb is a transmission bit rate when transmitting ESb, and Rc is a transmission bit rate when transmitting ESc.
[0149]
Here, when the bit rate R that can be transmitted is determined according to the state of the transmission path or the request from the
[0150]
That is, for example, when the relationship between the bit rate R that can be transmitted and the transmission bit rate of each ES is expressed by Expression (4), the
[0151]
Rc ≦ R <(Rc + Rb) (4)
Further, for example, when the relationship between the bit rate R that can be transmitted and the transmission bit rate of each ES is expressed by the equation (5), the
[0152]
(Rc + Rb) ≦ R <(Rc + Rb + Ra) (5)
Further, for example, when the relationship between the bit rate R that can be transmitted and the transmission bit rate of each ES is expressed by Expression (6), the
[0153]
(Rc + Rb + Ra) ≦ R (6)
As described above, according to the data distribution system of the third embodiment including the
[0154]
In the above description, an example of selecting an ES or converting a scene description based on a preset priority is given. However, the priority can be changed along with the conversion of the ES. In addition, when changing a priority with conversion of ES, the change of the said priority is performed in the
[0155]
FIG. 18 shows an example of the transmission priority converted by the
[0156]
Furthermore, the transmission priority can be set according to encoding parameters such as the ES bit rate and image frame, in addition to the case where the
[0157]
Further, when the ES itself has an explicit image frame like image data, the transmission priority can be set according to the image frame. For example, FIG. 20 shows an example of the relationship Ps (S) between the ES image frame area S and the transmission priority, and the relationship Ps (S) between the image frame area S and the transmission priority is held. As a result, the transmission priority can be set according to the ES image frame. That is, since it is generally considered that the larger the image frame is, the higher the transmission cost is. Therefore, as shown in the example of FIG. Can be transmitted.
[0158]
As described above, the method of setting the transmission priority according to the encoding parameters such as the ES bit rate and the image frame is also used when the
[0159]
The transmission priority may be assigned for each ES type such as a moving image, a still image, and text, or for each ES encoding format. For example, if the highest transmission priority is always assigned to text, text data can always be transmitted with priority even if the bit rate that can be transmitted is limited by the state of the transmission path or the request from the decoding terminal. It becomes possible.
[0160]
Also, the transmission priority can be determined based on the user's preference. That is, the
[0161]
As described above, the
[0162]
Further, in the
[0163]
As the first scene description process, the
[0164]
FIG. 21 shows a display example of a scene composed of a moving image ES and a still image ES. 21 indicates a scene display area, Emv in the figure indicates a moving image ES display area in the scene display area Esi, and Esv in the figure indicates a still image ES display area in the scene display area Esi. .
[0165]
Further, in FIG. 22, the scene description corresponding to the scene display area Esi of FIG. 21 is represented by the contents and text when described in MPEG4 BIFS.
[0166]
The scene description shown in FIG. 22 includes two cubes, and it is specified that a moving image and a still image are pasted as textures on each surface. Each object is designated for coordinate transformation by the Transform node, and the object moves in parallel in the scene according to the values of the translation field indicated by # 500 and # 502 in the figure (origin position of local coordinates). Be placed. Further, the enlargement / reduction of the object included in the Transform node is designated by the values (scaling of local coordinates) indicated by # 501 and # 503 in the figure.
[0167]
Here, for example, when it is necessary to reduce the bit rate of distribution data due to the state of the transmission path (transmission medium 22) or a request from the
[0168]
In this case, in the conventional data distribution system, decoding and display are performed with the same scene configuration regardless of whether or not the ES bit rate is adjusted, so that a moving image with a lowered bit rate is conspicuously deteriorated in image quality and the like. Become. That is, to explain specifically with reference to the example of FIG. 21, in the conventional data distribution system, adjustment is performed to lower the bit rate of the moving picture ES to be displayed in the moving picture ES display area Emv in FIG. Even in the case where the image is performed, the ES is decoded and displayed (display on the wide moving image ES display area Emv that does not match the actual bit rate) with the same scene configuration as that before the adjustment. For this reason, the moving image becomes rough (for example, the spatial resolution is rough), and the deterioration of the image quality becomes conspicuous.
[0169]
On the other hand, when the bit rate of the moving image ES is lowered, as shown in FIG. 23, for example, if the moving image ES display area Emv is reduced, the moving image ES is displayed in the moving image ES display area Emv. It is considered that the image quality degradation of the moving image (in this case, the spatial resolution degradation) can be made inconspicuous. In the case of the present embodiment, the still image ES has already been transmitted and stored in the decoding terminal for the still image. However, the still image is, for example, a high-resolution image, and the still image ES display in FIG. In the case where the region Esv is a narrow region that does not match the resolution, for example, if the still image ES display region Esv is widened as shown in FIG. 23, the resolution can be fully utilized. It is done. In this way, a countermeasure for narrowing the moving image ES display area Emv and widening the still image ES display area Esv cannot be realized unless the scene description is changed to a scene description representing such contents.
[0170]
Therefore, the scene
[0171]
A specific operation of the
[0172]
In FIG. 24, when it is necessary to lower the bit rate of the distribution data due to the state of the transmission path or the request from the
[0173]
Further, at time T, the
[0174]
Compared with the scene description of FIG. 22 described above, in the scene description shown in FIG. 25, the value of the translation field (local coordinate origin position) indicated by # 600 and # 602 in the figure is changed. Two cubes are moved, and the cube with the moving image (Emv in FIG. 23) pasted on the surface is converted to a small size by the values of the translation fields (scaling of local coordinates) indicated by # 601 and # 603 in the figure. Instead, a cube with a still image (Esv in FIG. 23) pasted on the surface is largely transformed.
[0175]
As in the first scene description process, for example, the scene
[0176]
As described above, according to the first scene description process described with reference to FIGS. 21 to 25, the scene description representing the scene configuration information is converted, so that it matches the transmission path state and the request from the
[0177]
Next, the second scene description process will be described.
[0178]
For example, when information necessary for ES decoding is changed by converting the ES bit rate or the like from the
[0179]
FIG. 26 describes an example of information necessary for decoding the ES used in the scene as described with reference to FIGS. 21 and 22 described in the descriptor ObjectDescriptor defined in MPEG4. In the scene description of FIG. 22, a moving image to be mapped as a texture on the object surface is designated by a numerical value of 3 (= url3), which is associated with ODid = 3, which is an identifier of ObjectDescriptor of FIG. ES_Descriptor included in the ObjectDescriptor with the identifier ODid = 3 describes information about the ES. Also, ES_ID in the figure is an identifier that uniquely identifies the ES. This identifier ES_ID is further associated with an actual ES by associating it with, for example, an identifier of a header or a port number in a transmission protocol used for transmitting the ES.
[0180]
In addition, the description of ES_Descriptor includes a descriptor of information necessary for decoding of ES called DecoderConfigDescriptor. The information of the descriptor DecoderConfigDescriptor includes, for example, a buffer size, a maximum bit rate, an average bit rate, and the like necessary for ES decoding.
[0181]
On the other hand, FIG. 27 shows an example of information necessary for decoding the ES accompanying the scene description after the conversion processing in the scene
[0182]
As in the second scene description process, the information conversion process necessary for decoding the ES accompanying the scene description is performed by the scene
[0183]
As described above, according to the second scene description process described above, when the information necessary for ES decoding changes by converting the ES bit rate or the like according to the state of the transmission path or the
[0184]
Next, the third scene description process will be described.
[0185]
As the third scene description process, the
[0186]
FIG. 28 shows, for example, a scene description when moving picture ES is deleted from the scene described with reference to FIGS. 21 and 22 described in MPEG4 BIFS (descriptive text). FIG. 29 shows an example of a scene displayed based on the scene description of FIG. 28, and only the image ES display area (for example, still image ES display area) Eim is arranged in the scene display area Esi. Since it can be determined from the scene description that the ES used in the scene description of FIG. 28 is only an ES with an ODid of 4, the
[0187]
Also, in this third scene description processing example, when a transmission request for temporarily reducing the processing load for decoding and configuring a scene is transmitted from the
[0188]
Like the third scene description process, the conversion process from the scene description shown in FIG. 22 to the scene description shown in FIG. 28 is prepared in the
[0189]
As described above, according to the third scene description process, by converting the scene description as described above, the scene as intended on the
[0190]
Next, the fourth scene description process will be described.
[0191]
As the fourth scene description process, on the
[0192]
FIG. 30 shows a scene description for displaying an object described by polygons described in MPEG4 BIFS (described as text for easy understanding). In the example of FIG. 30, polygon coordinates are omitted for simplification. In the scene description of FIG. 30, IndexedFaceSet represents a geometric object that is formed by connecting the vertex coordinates specified by point in Coordinate in the order specified by CoordIndex. FIG. 31 shows a display example of a scene (polygon object display example) displayed by decoding the scene description of FIG.
[0193]
In this fourth scene description processing example, for example, when it is desired to reduce the amount of data transmitted by the
[0194]
As in the fourth scene description process, a conversion process from the scene description shown in FIG. 30 to the scene description shown in FIG. 32 is prepared in the
[0195]
Further, as another processing method for converting the complexity of the scene description in the scene
[0196]
As described above, according to the fourth scene description process, by converting the scene description, a scene simplified as intended on the
[0197]
Next, the fifth scene description process will be described.
[0198]
As the fifth scene description process, the
[0199]
In FIG. 34, for example, a scene description representing four objects of a sphere, a cube, a cone, and a cylinder is described in one AU of MPEG4 BIFS. FIG. 35 shows a display example of a scene displayed by decoding the scene description of FIG. 34, in which four objects of a
[0200]
In the fifth scene description processing example, for example, when it is desired to reduce the bit rate of data to be transmitted or to reduce the local processing load at the
[0201]
That is, the scene
[0202]
Next, the scene
[0203]
As shown in FIG. 38, the scene displayed by decoding the scene description divided into four parts by DTS1 to DTS4 as shown in FIG. 36 has an object added for each DTS and the last DTS4. Thus, the same scene as in FIG. 35 is obtained. That is, a
[0204]
As in the fifth scene description process, a conversion process from the scene description shown in FIG. 34 to the scene description shown in FIG. 36 is prepared in the
[0205]
As described above, according to the fifth scene description process, the average bit rate of the scene description can be controlled by dividing the scene description into a plurality of AUs and adjusting the interval of the DTS for each AU. It is possible, and the burden of local decoding processing of the
[0206]
In the above description, the first to fifth scene description processes are individually performed. However, it is also possible to perform a plurality of scene description processes by combining these scene description processes arbitrarily. . In this case, it is possible to simultaneously realize the above-described functions and effects of the combined scene description processes.
[0207]
In this embodiment, MPEG4 BIFS is given as an example of the scene description. However, the present invention is not limited to this, and can be applied to any scene description method. In addition, for example, when a scene description method capable of describing only a change amount of a scene description is used, the present invention can be applied to a case where only the change amount is transmitted.
[0208]
Furthermore, the above-described embodiment of the present invention can be realized by a hardware configuration or by software.
[0209]
In the above description, HTML and MPEG4 BIFS are given as examples of the scene description. However, the present invention can be applied to all scene description methods such as VRML and Java (trademark).
[0210]
The present invention is effective for any data encoding method regardless of the data type such as video data, audio data, still image data, text data, graphic data, and scene description data. Furthermore, the present invention can be realized by hardware or software.
[0211]
【The invention's effect】
In the present invention, when normal playback is performed on the receiving side, data used for normal playback is output, and when special playback is performed on the receiving side, time associated with playback of the coding unit of data used for normal playback By converting and outputting information according to special playback, when special playback is performed on the receiving side, for example, data other than video can be decoded and displayed, and scene description data is distributed and decoded. Furthermore, it is possible to maintain the synchronization relationship between the data and to distribute the data as satisfying the evaluation criteria such as the transmission bit rate.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration example of a data distribution system according to an embodiment of the present invention.
FIG. 2 is a block diagram illustrating a detailed configuration of a server in the data distribution system according to the first embodiment.
FIG. 3 is a diagram used for explaining time information conversion processing when fast-forward playback is performed in the first embodiment;
FIG. 4 is a diagram used for explaining time information conversion processing when performing slow reproduction in the first embodiment;
FIG. 5 is a diagram used for explaining conversion processing of time information when performing a jump in the first embodiment.
FIG. 6 is a block diagram illustrating a detailed configuration of a server of the data distribution system according to the second embodiment.
FIG. 7 is a diagram used for explaining time information conversion processing when fast-forward playback is performed in the second embodiment;
FIG. 8 is a diagram used for explaining a change in bit rate when fast-forward playback is performed in the second embodiment.
FIG. 9 is a block diagram illustrating a detailed configuration of a server of the data distribution system according to the third embodiment.
FIG. 10 is a flowchart showing a flow of division processing in the filter of the first specific example of the third embodiment;
FIG. 11 is a diagram used for explaining scene description division candidates by MPEG4 BIFS in the filter of the first specific example;
12 is a diagram used for explaining the structure of the scene description in FIG. 11. FIG.
13 is a diagram illustrating a result of decoding and displaying the scene description of FIG. 11. FIG.
14 is a diagram illustrating a conversion result of the scene description of FIG. 11. FIG.
15 is a diagram illustrating conversion candidates with different scene descriptions in FIG. 11;
FIG. 16 is a block diagram illustrating a detailed configuration of a filter according to a second specific example of the third embodiment;
FIG. 17 is a diagram used for explaining the relationship between transmission priority, bit rate, and three ESs in the filter of the second specific example;
FIG. 18 is a diagram used for explaining a change in bit rate and a change in transmission priority.
FIG. 19 is a diagram illustrating a relationship Ps (R) between an ES bit rate R and a transmission priority;
FIG. 20 is a diagram illustrating a relationship Ps (S) between an image frame area S of ES and a transmission priority.
FIG. 21 is a diagram illustrating a scene display result based on a scene description before conversion in the first scene description process;
22 is a diagram illustrating an example of a scene description (MPEG4 BIFS) corresponding to the scene of FIG.
FIG. 23 is a diagram illustrating a scene display result based on a scene description after conversion in the first scene description process.
FIG. 24 is a diagram used for explaining the timing of ES conversion and scene description conversion in the first scene description processing.
FIG. 25 is a diagram illustrating an example of a scene description (MPEG4 BIFS) corresponding to the scene of FIG.
26 is a diagram illustrating an example of information (MPEG4 ObjectDescriptor) attached to the scene description of FIG. 22 necessary for decoding the ES corresponding to the scene of FIG.
27 is a diagram illustrating an example of information (MPEG4 ObjectDescriptor) attached to the scene description of FIG. 25 necessary for decoding the ES corresponding to the scene of FIG.
28 is a diagram illustrating an example of a scene description (MPEG4 BIFS) in a case where an ES of a moving image is deleted from the scene described with reference to FIGS. 21 and 22. FIG.
29 is a diagram showing a display result based on the scene description of FIG. 28. FIG.
FIG. 30 is a diagram illustrating an example of a scene description (MPEG4 BIFS) for displaying an object described by polygons.
31 is a diagram showing a display result based on the scene description shown in FIG. 30. FIG.
FIG. 32 is a diagram illustrating an example of a scene description (MPEG4 BIFS) in which an object described with polygons is replaced with a sphere.
33 is a diagram showing a display result based on the scene description shown in FIG. 32. FIG.
FIG. 34 is a diagram illustrating an example of a scene description (MPEG4 BIFS) including four objects.
35 is a diagram showing a display result based on the scene description shown in FIG. 34. FIG.
36 is a diagram illustrating an example of each scene description (MPEG4 BIFS) obtained by dividing the scene description illustrated in FIG. 34 into four AUs.
FIG. 37 is a diagram used for explaining the decoding timing of each AU shown in FIG. 36;
38 is a diagram showing a display result of each AU shown in FIG. 36 according to the scene description.
FIG. 39 is a block diagram showing a schematic configuration of a conventional data distribution system.
40 is a block diagram showing a schematic configuration of a data distribution system that eliminates the drawbacks of the data distribution system shown in FIG. 39. FIG.
41 is a diagram used for a brief description of an example (fast-forward playback) of an operation of a data conversion unit for video data in the data distribution system of FIG. 40. FIG.
FIG. 42 is a diagram used for a brief description of an example of operation (rewind playback) of the data conversion unit for video data in the data distribution system of FIG. 40;
FIG. 43 is a diagram used for describing scene description using VRML and MPEG4 BIFS.
[Explanation of symbols]
DESCRIPTION OF
Claims (11)
上記受信側から供給された特殊再生指定信号を受信するステップと、
上記受信した特殊再生指定信号に基づいて、出力するデータのビットレート調整に応じて上記受信側での特殊再生に使用するデータの出力時の符号化単位を選択するステップと、
上記選択した符号化単位の再生に関連する時間情報を上記特殊再生に応じて変換するステップと、
上記出力するデータのビットレート調整に応じて、上記特殊再生に使用するデータの出力時の表示領域が記述されたシーン記述データを変更するステップと、
上記変換後の時間情報、上記変更後のシーン記述データ及び上記特殊再生に使用するデータを上記受信側に出力するステップと
を有するデータ処理方法。In a data processing method when transmitting data encoded for each predetermined encoding unit from the transmission side to the reception side,
Receiving a special reproduction designation signal supplied from the receiving side;
Selecting a coding unit at the time of outputting data to be used for special reproduction on the receiving side according to the bit rate adjustment of the data to be output based on the received special reproduction designation signal;
Converting time information related to reproduction of the selected coding unit according to the special reproduction;
Changing the scene description data describing the display area at the time of outputting the data used for the special reproduction according to the bit rate adjustment of the data to be output;
Outputting the time information after the conversion, the changed scene description data, and the data used for the special reproduction to the receiving side.
上記受信側から供給された特殊再生指定信号に基づいて、出力するデータのビットレート調整に応じて上記受信側での特殊再生に使用するデータの出力時の符号化単位を選択し、該選択した符号化単位の再生に関連する時間情報を上記特殊再生に応じて変換するデータ変換手段と、
上記特殊再生指定信号に基づいて、上記出力するデータのビットレート調整に応じて、上記特殊再生に使用するデータの出力時の表示領域が記述されたシーン記述データを変更するフィルタ手段と、
上記データ変換手段により変換した時間情報、上記フィルタ手段により変更したシーン記述データ及び上記特殊再生に使用するデータを上記受信側に出力する送信手段と
を備えるデータ処理装置。In a data processing apparatus for transmitting data encoded for each predetermined encoding unit to the receiving side,
Based on the special reproduction designation signal supplied from the receiving side, the encoding unit at the time of outputting data used for special reproduction on the receiving side is selected according to the bit rate adjustment of the output data, and the selected Data conversion means for converting time information related to reproduction of a coding unit according to the special reproduction;
Filter means for changing scene description data in which a display area at the time of output of data used for the special reproduction is described according to the bit rate adjustment of the output data based on the special reproduction designation signal;
A data processing apparatus comprising: time information converted by the data conversion means, scene description data changed by the filter means, and transmission means for outputting data used for the special reproduction to the reception side.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000301393A JP4345217B2 (en) | 2000-09-29 | 2000-09-29 | Data processing method and apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000301393A JP4345217B2 (en) | 2000-09-29 | 2000-09-29 | Data processing method and apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2002112149A JP2002112149A (en) | 2002-04-12 |
JP4345217B2 true JP4345217B2 (en) | 2009-10-14 |
Family
ID=18782934
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000301393A Expired - Fee Related JP4345217B2 (en) | 2000-09-29 | 2000-09-29 | Data processing method and apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4345217B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103796024B (en) * | 2014-01-17 | 2017-05-03 | 西安空间无线电技术研究所 | Method for transmitting multiple paths of images at the same time based on information hiding |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100983832B1 (en) * | 2002-04-26 | 2010-09-27 | 소니 주식회사 | Encoding device and method, and recording medium |
FR2842979B1 (en) | 2002-07-24 | 2004-10-08 | Thomson Licensing Sa | METHOD AND DEVICE FOR PROCESSING DIGITAL DATA |
JP2004192140A (en) * | 2002-12-09 | 2004-07-08 | Sony Corp | Data communication system, data transmitting device, data receiving device and method, and computer program |
KR100747489B1 (en) * | 2005-04-13 | 2007-08-08 | 한국전자통신연구원 | Method and apparatus for encoding/decoding 3D mesh information |
JP5171655B2 (en) * | 2009-01-09 | 2013-03-27 | キヤノン株式会社 | Image transmitting apparatus, method, and storage medium |
CN113606752B (en) * | 2021-06-29 | 2023-03-03 | 宁波德业日用电器科技有限公司 | Jump-prevention dehumidifier humidity display method |
-
2000
- 2000-09-29 JP JP2000301393A patent/JP4345217B2/en not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103796024B (en) * | 2014-01-17 | 2017-05-03 | 西安空间无线电技术研究所 | Method for transmitting multiple paths of images at the same time based on information hiding |
Also Published As
Publication number | Publication date |
---|---|
JP2002112149A (en) | 2002-04-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3193947B2 (en) | Data transmission system and data transmission method | |
US7610605B2 (en) | Method and apparatus for conversion and distribution of data utilizing trick-play requests and meta-data information | |
US6327421B1 (en) | Multiple speed fast forward/rewind compressed video delivery system | |
JP4118232B2 (en) | Video data processing method and video data processing apparatus | |
JP3874714B2 (en) | Method for controlling MPEG-4 system terminal using caching technique | |
US7725593B2 (en) | Scalable video coding (SVC) file format | |
EP2308203B1 (en) | DYNAMIC QoS IN A NETWORK DISTRIBUTING STREAMED CONTENT | |
US20090022159A1 (en) | Interactive Streaming Media Production Tool Using Communication Optimization | |
JP2009512330A (en) | Multiple stream receiving apparatus and method in portable broadcasting system | |
JPH09139677A (en) | Method and device for splicing coded signal | |
JP2002359818A (en) | Device for transmitting reproduced image | |
JP3828053B2 (en) | Multimedia data restoring apparatus and method capable of changing capacity of buffer for storing received multimedia data | |
US7690018B2 (en) | Data processing apparatus and method | |
JP4345217B2 (en) | Data processing method and apparatus | |
WO2004071085A1 (en) | Code conversion method and device thereof | |
US20020031188A1 (en) | Data transmission system, data transmitting apparatus and method, and scene description processing unit and method | |
JP3072971B2 (en) | Video-on-demand system, video server device and terminal device constituting the system | |
JP4391231B2 (en) | Broadcasting multimedia signals to multiple terminals | |
KR101390880B1 (en) | Method and devices for the transfer of a data flow from a data source to a data sink | |
KR101452269B1 (en) | Content Virtual Segmentation Method, and Method and System for Providing Streaming Service Using the Same | |
JP4491918B2 (en) | Data distribution apparatus and method, data distribution system | |
JP5304539B2 (en) | Media quality conversion apparatus, media quality conversion method, and media quality conversion program | |
JP2004289629A (en) | Apparatus and method for sending image data out | |
JP5358916B2 (en) | Content distribution apparatus and content distribution method | |
KR20070040103A (en) | Method for decording packetized streams |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070124 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20081217 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20081224 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090223 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090324 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090520 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090623 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090706 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120724 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |