JP2004007610A - 逆多重化装置 - Google Patents

逆多重化装置 Download PDF

Info

Publication number
JP2004007610A
JP2004007610A JP2003118603A JP2003118603A JP2004007610A JP 2004007610 A JP2004007610 A JP 2004007610A JP 2003118603 A JP2003118603 A JP 2003118603A JP 2003118603 A JP2003118603 A JP 2003118603A JP 2004007610 A JP2004007610 A JP 2004007610A
Authority
JP
Japan
Prior art keywords
time length
content
total time
multiplexed data
length information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003118603A
Other languages
English (en)
Other versions
JP4436617B2 (ja
JP2004007610A5 (ja
Inventor
Yoji Notoya
能登屋 陽司
Yoshinori Matsui
松井 義徳
Tadamasa Toma
遠間 正真
Koji Imura
井村 康治
Naoto Otake
大岳 直人
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2003118603A priority Critical patent/JP4436617B2/ja
Publication of JP2004007610A publication Critical patent/JP2004007610A/ja
Publication of JP2004007610A5 publication Critical patent/JP2004007610A5/ja
Application granted granted Critical
Publication of JP4436617B2 publication Critical patent/JP4436617B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Time-Division Multiplex Systems (AREA)
  • Television Signal Processing For Recording (AREA)
  • Television Systems (AREA)

Abstract

【課題】ダウンロード再生及びリアルタイム記録の有効性を保持しつつコンテンツのダウンロード再生時の利便性を向上した逆多重化装置及び多重化装置を提供する。
【解決手段】逆多重化装置200は、MP4ファイルデータ100を取得するデータ取得部210と、データ取得部210により取得されたMP4ファイルデータ100を一組のmoov110及びmdat110と一組のmoof130及びmdat140ごとに逆多重化して復号化する復号部213と、データ取得210により取得されたMP4ファイルデータ100のmoov110に含まれるコンテンツ総時間長情報に基づいて、コンテンツ総時間長を特定するコンテンツ時間長特定部211aと、コンテンツ時間長特定部211aにより特定されたコンテンツ総時間長を表示する再生部214とを備える。
【選択図】    図2

Description

【0001】
【発明の属する技術分野】
本発明は、画像データや音楽データ等のマルチメディアデータが多重化された多重化データを逆多重化する逆多重化装置、及びマルチメディアデータを多重化する多重化装置に関する。
【0002】
【従来の技術】
近年、マルチメディアデータ(動画像、音声、テキスト、あるいは、静止画等のコンテンツ)を多重化して格納するファイルフォーマットとしてMP4が注目されている。
【0003】
MP4は、動画像の圧縮符号化方式であるMPEG−4や、自然画像の圧縮符号化方式であるJPEGの次世代バージョンJPEG2000のファイルフォーマットとして採用されるなど、その応用範囲が広がっている。
【0004】
当初、このMP4のファイルフォーマットは、多重化されたコンテンツが格納される1つのデータボックスと、そのデータ領域のコンテンツに関連する情報が格納される1つのヘッダボックスとから構成されていた。
【0005】
したがって、マルチメディアデータからMP4ファイルデータを生成する多重化装置は、マルチメディアデータを取得して符号化及び多重化処理を行い、全てのマルチメディアデータに対する処理が終了した後に、そのヘッダボックスを作成し、MP4ファイルデータを完成させていた。
【0006】
このような多重化装置では、マルチメディアデータの情報量が多い場合には、マルチメディアデータの取得及びこれに対する処理の終了後、そのヘッダボックスの作成のためにしばらくの時間を要する。
【0007】
例えば、録画機能付き携帯電話として構成された多重化装置では、録画中に着信があったときには、これまで録画したコンテンツの全体に関連する情報を含めたヘッダボックスを作成するために、着信にタイムラグが生じる。また、着信を優先するような場合には、ヘッダボックスの作成が途中で中断され、MP4ファイルデータを完成することができないといった問題があった。
【0008】
そこで、MP4のファイルフォーマットは、データボックスとヘッダボックスとの組が複数連なるように改良された(例えば、非特許文献1参照。)。
【0009】
図21は、上述のように改良された従来のMP4ファイルデータの基本的なファイルフォーマットを示すデータ構成図である。
【0010】
このMP4ファイルデータ900は、基本領域900aと拡張領域900bから構成される。
【0011】
基本領域900aは、上記ヘッダボックスたるムービーボックス(以下、「moov」と称す)910と、上記データボックスたるメディアデータボックス(以下、「mdat」と称す)920とからなる。
【0012】
moov910は、さらに、1つのムービーヘッダーボックス(以下「mvhd」と称す)911と、複数のトラックボックス(以下「trak」と称す)912と、1つのムービーエクステンドボックス(以下「mvex」と称す)913とから構成される。
【0013】
拡張領域900bは、上記ヘッダボックスたる1つのムービーフラグメントボックス(以下「moof」と称す)930と、上記データボックスたる1つのメディアデータボックス(以下、「mdat」と称す)940との組が複数連なるように組み合わされて構成される。
【0014】
moof930は、さらに、1つのムービーフラグメントヘッダーボックス(以下「mfhd」と称す)931と、複数のトラックフラグメントボックス(以下「traf」と称す)932とから構成される。
【0015】
図22は、moov910の詳細な構成を示すデータ構成図である。
mvhd911には、基本領域900aに含まれるコンテンツの再生に要する時間長(基本コンテンツ時間長)を示す基本コンテンツ時間長情報を格納するムービー時間長フィールド911aが含まれている。
【0016】
trak912には、さらに、トラックヘッダーボックス(以下「tkhd」と称す)914が含まれ、このtkhd914には、トラックを識別するためのトラック識別情報を格納するトラックIDフィールド916と、トラック時間長フィールド917とが含まれている。また、このトラック時間長フィールド917には、上記トラック識別情報により示される基本領域900aに含まれたトラックの再生に要する時間長(基本トラック時間長)を示す基本トラック時間長情報が格納される。
【0017】
ここでトラックとは、コンテンツの一種であって、動画像や音声やテキストなどを意味する。
【0018】
mvex913には、拡張領域900bに含まれるトラックの数に応じた数のトラックエクステンドボックス(以下「trex」と称す)915が含まれる。
【0019】
このtrex915には、トラックを識別するためのトラック識別情報を格納するトラックIDフィールド918と、そのトラック識別情報により特定される拡張領域900bのトラックのサンプルに対し、デフォルトで設定された時間長を示すデフォルトサンプル時間長情報が格納される第1デフォルト時間長フィールド919とが含まれている。
【0020】
ここで、サンプルとは、MP4のファイルフォーマットの最小単位であって、トラックが動画像であれば1フレームやピクチャを意味し、トラックが音声ならば例えば20(msec)分の音情報を意味する。
【0021】
図23は、moof930の詳細な構成を示すデータ構成図である。
moof930に含まれるtraf932には、さらに、1つのトラックフラグメントヘッダーボックス(以下「tfhd」と称す)933と、複数のトラックフラグメントランボックス(以下「trun」と称す)936とが含まれている。
【0022】
このtfhd933には、トラックを識別するためのトラック識別情報を格納するトラックIDフィールド934と、そのトラック識別情報により特定される拡張領域900bのトラックのサンプルのなかで、tfhd933を格納しているtraf932に関連づけられたサンプルに対し、デフォルトで設定された時間長を示すデフォルトサンプル時間長情報が格納される第2デフォルト時間長フィールド935とが含まれている。ここで、第2デフォルト時間長フィールド935は省略することも可能であり、この場合は、第1デフォルト時間長フィールド919が参照される。
【0023】
trun936には、上記トラック識別情報により特定される拡張領域900bのトラックに含まれる各サンプルの時間長(サンプル時間長)を示すサンプル時間長情報を格納するサンプル時間長フィールド937が含まれている。
【0024】
このように、MP4のファイルフォーマットが、mdat920及びmoov910を一組含み、さらにmdat940及びmoof930を複数組含むように、つまり、多重化されたコンテンツを格納するボックスと、そのボックスに含まれる内容に関連する情報を格納するボックスとの組が複数連なるように構成されたことで、従来の多重化装置は、マルチメディアデータを逐次取得して処理するごとにMP4ファイルデータ900を完成させ、リアルタイム記録において効力を発揮している。そして、録画機能付き携帯電話として構成された従来の多重化装置では、録画中でも着信のタイムラグの発生を防ぐことができる。
【0025】
図24は、上記MP4ファイルデータ900を生成する従来の多重化装置の構成を示す構成図である。
【0026】
この多重化装置700は、画像データ解析部701と、音声データ解析部702と、第1切換スイッチ703と、第2切換スイッチ704と、制御部708と、moof生成部705と、moov生成部706と、ファイル生成部707とを備えている。
【0027】
画像データ解析部701は、画像データを取得してこれを解析することで、その画像データのタイムスタンプやサイズなどを示す内容の画像特定情報を生成する。そして、画像データ解析部701は、画像データを符号化して画像符号化データを作成し、その画像符号化データと画像特定情報とを出力する。
【0028】
音声データ解析部702は、音声データを取得してこれを解析することで、その音声データのタイムスタンプやサイズなどを示す内容の音声特定情報を生成する。そして、音声データ解析部702は、音声データを符号化して音声符号化データを作成し、その音声符号化データと音声特定情報とを出力する。
【0029】
moov生成部706は、制御部708からの制御に応じて、moov910に格納されるデータ(moovデータ)を生成して出力する。
【0030】
moof出力部705は、制御部708からの制御に応じて、moof930に格納されるデータ(moofデータ)を生成して出力する。
【0031】
制御部708は、画像データ解析部701から画像特定情報を取得するとともに、音声データ解析部702から音声特定情報を取得し、その画像特定情報及び音声特定情報に基づいて、第1切換スイッチ703及び第2切換スイッチ704を切り換えることで、第2切換スイッチ704からまずmoovデータを含む基本領域900aに格納されるべきデータを出力させ、次にmoofデータを含む拡張領域900bに格納されるべきデータを出力させる。
【0032】
ファイル生成部707は、第2切換スイッチ704から出力される各データに対して多重化処理を行ってMP4ファイルデータ900を生成し、これを出力する。
【0033】
図25は、従来の多重化装置700のmoovデータ及びmoofデータの生成に関する動作を示すフロー図である。
【0034】
まず、多重化装置700は、moovデータを生成する(ステップS100)。
次に、多重化装置700は、moofデータを作成する(ステップS102)。
【0035】
そして、多重化装置700は、入力された画像データや音声データの符号化及び多重化に対して未処理のデータがあるか否かを判別する(ステップS104)。ここで、未処理のデータがあると判別したときには(ステップS104のY)、ステップS102からの動作を繰り返し実行し、未処理のデータがないと判別したときには(ステップS104のN)、処理を終了する。
【0036】
このように、MP4ファイルデータ900を用いた従来の多重化装置700では、順次moofデータを作成するため、リアルタイム記録に有効である。
【0037】
ところで、上記MP4ファイルデータ900は、図21〜図23に示すように、データボックスとヘッダボックスとの組が複数連なるように構成されていることにより、ストリーミングに適している。つまり、MP4ファイルデータ900を取得して逆多重化処理を行うことによりコンテンツを再生する逆多重化装置は、ストリームとして配信されるMP4ファイルデータ900の全てのダウンロードを完了する前から順次再生(ダウンロード再生)することができる。
【0038】
図26は、上記MP4ファイルデータ900に基づいてコンテンツの再生を行う従来の逆多重化装置の構成を示す構成図である。
【0039】
この逆多重化装置800は、MP4ファイルデータ900を取得して再生するものであって、MP4ファイルデータ900を取得するデータ取得部810と、そのデータ取得部810で取得されたMP4ファイルデータ900を逆多重化して復号化する復号部813と、取得されたMP4ファイルデータ900に基づいて時間的な処理を行う時間処理部811と、取得されたMP4ファイルデータ900に対してランダムアクセスするための処理を行うランダムアクセス処理部812と、復号部813から出力されたデータに基づいて画像や音声を出力する再生部814とを備えている。
【0040】
また時間処理部811は、MP4ファイルデータ900に含まれる一部のコンテンツの再生に要する時間長を特定する時間長特定部811aと、再生時間を特定する再生時間特定部811bとを備えている。ここで、再生時間とは、コンテンツを最初から再生したときに、その再生開始時点から現時点に至るまでの再生にかかった時間をいう。
【0041】
図27は、時間長特定部811aの内部構成を示すブロック図である。
時間長特定部811aは、第1分離部821と、第2分離部822と、第3分離部823と、第1解析部824と、第2解析部825とを備えている。
【0042】
第1分離部821は、MP4ファイルデータ900を取得すると、そのMP4ファイルデータ900からmoovデータを分離して出力する。
【0043】
第2分離部822は、moovデータを取得すると、そのmoovデータから、mvhd911に格納されているデータ(mvhdデータ)と、trak912に格納されているデータ(trakデータ)とを分離して出力する。
【0044】
第3分離部823は、trakデータを取得すると、そのtrakデータから、tkhd914に格納されているデータ(tkhdデータ)を分離して出力する。
【0045】
第1解析部824は、第2分離部822からmvhdデータを取得すると、そのmvhdデータを解析して、そのムービー時間長フィールド911aに格納されている基本コンテンツ時間長情報を出力する。
【0046】
第2解析部825は、第3分離部823からtkhdデータを取得すると、そのtkhdデータを解析して、トラックIDフィールド916に格納されているトラック識別情報を出力するとともに、そのトラック識別情報に対応してトラック時間長フィールド917に格納されている基本トラック時間長情報を出力する。
【0047】
このような時間長特定部811aは、基本コンテンツ時間長情報を再生部814に出力するとともに、トラック識別情報と、そのトラック識別情報により示される基本領域900aのトラックに対応する基本トラック時間長情報とを、再生部814に出力する。
【0048】
そして、再生部814は、基本コンテンツ時間長情報及びトラック時間長情報並びにトラック識別情報を取得すると、必要に応じて、基本コンテンツ時間長を表示したり、基本トラック時間長をトラックごとに表示したりする。また、再生部814は、再生時間特定部811bによる特定結果に基づいて、画像や音声の再生を行いながらその再生時間を表示する。
【0049】
図28は、ランダムアクセス処理部812の構成を示す構成図である。
ランダムアクセス処理部812は、外部から目標時間を示す内容の目標時間情報を取得すると、蓄積されたMP4ファイルデータ900の中から、その目標時間に対応するサンプルを目的サンプルとして検索するものであって、データ蓄積部830aと、第1分離部830と、第2分離部831と、第3分離部832と、第4分離部835と、第5分離部834と、第1解析部836と、第2解析部837と、第3解析部838と、トラック制御部833と、決定部839と、制御部840とを備えている。ここで、目標時間とは、ユーザがコンテンツを途中から再生しようとするときの途中再生開始時間をいう。例えば、ユーザが総時間長10分のコンテンツをその先頭の2分間を見ずに再生しようとする場合には、目標時間は2分である。 データ蓄積部830aは、データ取得部810で取得されたMP4ファイルデータ900を蓄積している。
【0050】
第1分離部830は、データ蓄積部830aからMP4ファイルデータ900を取得すると、そのMP4ファイルデータ900から、moovデータとmoofデータとを分離して出力する。
【0051】
第3分離部832は、moovデータを取得すると、そのmoovデータから、mvex913に格納されているデータ(mvexデータ)を分離して出力する。
【0052】
トラック制御部833は、第1分離部830からmoovデータを取得すると、そのmoovデータに基づいて、トラック識別情報を出力する。
【0053】
第2分離部831は、第1分離部830からmoofデータを取得し、トラック制御部833からトラック識別情報を取得すると、そのmoofデータから、トラック識別情報により特定されるトラックに対応するtraf932に格納されているデータ(trafデータ)を分離して出力する。
【0054】
第4分離部835は、第2分離部831からtrafデータを取得すると、そのtrafデータから、tfhd933に格納されているデータ(tfhdデータ)と、trun936に格納されているデータ(trunデータ)とを分離して出力する。
【0055】
第5分離部834は、第3分離部832からmvexデータを取得し、トラック制御部833からトラック識別情報を取得すると、そのmvexデータから、トラック識別情報により特定されるトラックに対応するtrex915に格納されているデータ(trexデータ)を分離して出力する。
【0056】
第1解析部836は、第5分離部834からtrexデータを取得すると、そのtrexデータを解析して、trexデータに含まれるデフォルトサンプル時間長情報を、第1時間長情報として出力する。
【0057】
第2解析部837は、第4分離部835からtfhdデータを取得すると、そのtfhdデータを解析して、tfhdデータに含まれるサンプル時間長情報を、第2時間長情報として出力する。
【0058】
第3解析部838は、第4分離部835からtrunデータを取得すると、そのtrunデータを解析して、trunデータに含まれるサンプル時間長情報を、第3時間長情報として出力する。
【0059】
決定部839は、第1解析部836から取得した第1時間長情報と、第2解析部837から取得した第2時間長情報と、第3解析部838から取得した第3時間長情報とから、何れか1つを選択決定して、これを時間長情報として出力する。ここで決定部839は、まず、第3時間長情報を優先し、第3時間長情報が省略されていて得られない場合には、第2時間長情報を優先し、第2時間長情報が省略されていて得られない場合には、第1時間長情報を選択して出力する。
【0060】
また、決定部839は、時間長情報を出力するときには、その時間長情報に対応したサンプルを識別するためのサンプル識別情報も出力する。
【0061】
制御部840は、目標時間を示す目標時間情報を取得すると、決定部839から逐次出力される時間長情報に示される時間長を順次加算する。そして制御部840は、加算結果が目標時間情報に示される目標時間に達するまで上記加算を行い、目標時間に達したときに決定部839から取得されたサンプル識別情報を、目的サンプル識別情報として出力する。
【0062】
図29は、トラック制御部833の内部構成を示すブロック図である。
トラック制御部833は、moovデータを取得してそこからtrakデータを分離する第6分離部841と、そのtrakデータを取得してそこからさらにtkhdデータを分離する第7分離部842と、そのtkhdデータを解析することでトラック識別情報を特定してこれを出力する解析部843とを備えている。
【0063】
図30は、ランダムアクセス処理部812の概略的な動作を説明するための説明図である。
【0064】
この図30に示すように、従来のランダムアクセス処理部812は、サンプル時間長を順次加算していくことで目標時間に対応する目的サンプルを特定する。
【0065】
そして、ランダムアクセス処理部812は、MP4ファイルデータ900と目的サンプル識別情報とを復号部813に出力して、その目的サンプル識別情報により示される目的サンプルからのコンテンツの再生を復号部813及び再生部814に実行させる。
【0066】
このような従来の逆多重化装置800は、ストリームとして配信されるMP4ファイルデータ900を取得すると、これに基づいてダウンロード再生することができるとともに、ランダムアクセス処理部812を備えることにより、蓄積された全てのMP4ファイルデータ900に対してランダムアクセスを可能としている。
【0067】
【非特許文献1】
「INTERNATIONAL ORGANISATION FOR STANDARDISATION  ORGANISATIONINTERNATIONALE DE NORMALISATION  ISO/IEC JTC1/SC29/WG11  CODING OF MOVING PICTURES AND AUDIO」,ISO/IEC JTC1/SC29/WG11,MPEG01/N4270−1, 2001.1.20
【0068】
【発明が解決しようとする課題】
しかしながら、上記従来の逆多重化装置800では、MP4ファイルデータ900をダウンロード再生するときには、基本領域900aに含まれるコンテンツの再生に要する時間長を表示することができても、拡張領域900bを含む全体のコンテンツの総時間長を表示することができず、使い勝手が悪いという問題があった。
【0069】
図31は、従来の逆多重化装置800での問題点を説明するための説明図である。
【0070】
携帯電話として構成された逆多重化装置800は、基地局990を介してストリームとして配信されるMP4ファイルデータ900をダウンロードし、そのダウンロードされたMP4ファイルデータ900を順次再生する。このとき、逆多重化装置800は、再生時間を表示するものの、全てのMP4ファイルデータ900を取得した後でなければ、全てのコンテンツを再生に要する時間長を特定することができず、その結果、ダウンロード中又は再生中にコンテンツの総時間長を表示することができない。例えば、利用時間に応じて課金される料金体系では、逆多重化装置800のユーザは、利用料金の目安がわからないといった不安や、バッテリーの残り容量が少ない場合などには、途中で電源が切れてしまうかもしれないといった不安などを感じることがある。このように、従来の逆多重化装置800では、ユーザがコンテンツの総時間長を知ることができず、利便性に欠けるのである。
【0071】
そこで、本発明は、かかる問題点に鑑み、ダウンロード再生及びリアルタイム記録の有効性を保持しつつコンテンツのダウンロード再生時の利便性を向上した逆多重化装置及び多重化装置を提供することを目的とする。
【0072】
【課題を解決するための手段】
上記目的を達成するために、本発明に係る逆多重化装置は、デジタル著作物であるコンテンツが多重化された多重化データを、その先頭部から取得して逆多重化する逆多重化装置であって、前記多重化データは、多重化されたコンテンツの一部を格納するコンテンツ格納ボックスと前記一部のコンテンツに関連する関連情報を格納する関連情報格納ボックスとの組が複数連なるとともに、前記全てのコンテンツの再生に要する総時間長を特定するための総時間長情報が前記先頭部に含まれるように構成されており、前記逆多重化装置は、前記多重化データを取得する取得手段と、前記取得手段により取得された前記多重化データを前記各組ごとに逆多重化処理する処理手段と、前記取得手段により取得された前記多重化データの先頭部に含まれる総時間長情報に基づいて、前記総時間長を特定する総時間長特定手段と、前記総時間長特定手段により特定された総時間長を表示する表示手段とを備える。ここで、前記多重化データは、前記組をそれぞれ有する第1及び第2の領域から構成され、前記総時間長情報は、前記第1の領域に含まれるコンテンツの再生に要する時間長を示す内容の第1の時間長情報と、前記第2の領域に含まれるコンテンツの再生に要する時間長を示す内容の第2の時間長情報とから構成されており、前記総時間長特定手段は、前記第1の時間長情報により示される時間長と、前記第2の時間長情報により示される時間長とを足し合わせることで、前記総時間長を特定することを特徴としても良い。
【0073】
これにより、処理手段で多重化データが各組ごとに逆多重化処理されるため、ストリームとして配信される多重化データからコンテンツをダウンロード再生することができるとともに、多重化データの先端部に含まれる総時間長情報に基づいて総時間長が総時間長特定手段で特定されてその総時間長が表示手段により表示されるため、ダウンロード再生中にでも総時間長をユーザに知らせることができ、コンテンツのダウンロード再生時の利便性を向上することができる。
【0074】
また、前記多重化データは、そこに含まれる前記コンテンツに応じて、第1の領域、又は前記組をそれぞれ有する第1及び第2の領域から構成され、前記多重化データが第1の領域から構成されるときには、前記総時間長情報は、前記第1の領域に含まれるコンテンツの再生に要する時間長を示し、前記多重化データが第1及び第2の領域から構成されるときには、前記総時間長情報は、前記第1の領域に含まれるコンテンツの再生に要する時間長を示す内容の第1の時間長情報と、前記第2の領域に含まれるコンテンツの再生に要する時間長、又は前記時間長が不明であることを示す内容の第2の時間長情報とから構成されており、前記総時間長特定手段は、前記取得手段で取得された前記多重化データが、第1の領域から構成されているか、第1及び第2の領域から構成されているかを判別し、第1の領域から構成されていると判別したときには、前記総時間長情報により示される時間長を前記総時間長として特定し、第1及び第2の領域から構成されていると判別したときには、さらに、前記第2の時間長情報に基づいて、前記第2の領域に含まれるコンテンツの再生に要する時間長が不明であるか否かを判別し、不明でないと判別したときには、前記第1の時間長情報により示される時間長と、前記第2の時間長情報により示される時間長とを足し合わせることで、前記総時間長を特定し、不明であると判別したときには、前記総時間長を特定することができないと判別し、前記表示手段は、前記総時間長特定手段で前記総時間長が特定できないと判別されたときには、前記総時間長が不明であることを報知することを特徴としても良い。
【0075】
これにより、多重化データに第2の領域がなければ、第1の領域に含まれるコンテンツの再生に要する時間長が、総時間長として特定され、多重化データが第1及び第2の領域から構成されているときには、第1及び第2の領域に含まれるコンテンツの再生に要する時間長が加算されて、その加算結果が総時間長として特定されるために、総時間長を的確に特定することができるとともに、多重化データに含まれる第2の時間長情報に基づいて、第2の領域に含まれるコンテンツの再生に要する時間長が不明であるか否かが判別され、不明であるときにはその旨が報知されるため、信頼性のある総時間長のみをユーザに知らせることができる。
【0076】
また、前記逆多重化装置は、さらに、前記処理手段により逆多重化処理されたコンテンツを再生する再生手段と、前記再生手段により前記コンテンツが再生されている再生時間を特定する再生時間特定手段とを備え、前記表示手段は、前記総時間長特定手段により特定された前記総時間長に対する、前記再生時間特定手段により特定された再生時間の割合を算出し、所定の図形を前記割合に応じて移動させて表示することを特徴としても良い。
【0077】
これにより、総時間長に対する再生時間の割合に応じて上記図形が移動するため、ユーザはコンテンツの再生状況を容易に把握することができる。
【0078】
なお、本発明は、上記逆多重化装置が取り扱う多重化データのデータ構造や、その多重化データを格納する記憶媒体や、その多重化データを生成する多重化装置や、上記逆多重化装置及び多重化装置が行う逆多重化方法及び多重化方法や、その方法をコンピュータに実行させるプログラムとしても実現することができる。
【0079】
【発明の実施の形態】
以下、本発明の実施の形態における逆多重化装置及び多重化装置について図面を参照しながら説明する。
【0080】
図1は、本実施の形態における逆多重化装置及び多重化装置が扱うMP4ファイルデータのファイルフォーマットを示すデータ構成図である。
【0081】
このMP4ファイルデータ100は、基本領域100aと拡張領域100bから構成され、そのデータ100に含まれるコンテンツの総時間長を示す内容の情報が基本領域100aに格納されている点に特徴がある。この情報があることで、逆多重化装置においてユーザは総時間長を知ることができ、利便性が向上する。また、リアルタイムに記録する多重化装置などで、この情報を付与するのが困難な装置は、その情報の付与を省略可能としてもよい。
【0082】
基本領域100aは、多重化されたコンテンツが格納されるメディアデータボックス(以下、「mdat」と称す)120と、そのmdat120のコンテンツに関連する情報が格納されるムービーボックス(以下、「moov」と称す)110とからなる。
【0083】
moov110は、さらに、1つのムービーヘッダーボックス(以下「mvhd」と称す)111と、複数のトラックボックス(以下「trak」と称す)112と、1つのムービーエクステンドボックス(以下「mvex」と称す)113とから構成される。
【0084】
拡張領域100bは、多重化されたコンテンツが格納される1つのメディアデータボックス(以下、「mdat」と称す)140と、そのmdat140のコンテンツに関連する情報が格納される1つのムービーフラグメントボックス(以下「moof」と称す)130との組が複数連なるように組み合わされて構成される。ここで、moof130は従来例と同様、さらに、1つのムービーフラグメントヘッダーボックス(以下「mfhd」と称す)と、複数のトラックフラグメントボックス(以下「traf」と称す)とから構成される。つまり、このような拡張領域100bは、従来の拡張領域900bと同様の構造を有する。
【0085】
基本領域100aのmoov110におけるmvhd111には、基本領域100aに含まれるコンテンツの再生に要する時間長(基本コンテンツ時間長)を示す内容の基本コンテンツ時間長情報を格納するムービー時間長フィールド111aが含まれている。
【0086】
trak112には、トラックヘッダーボックス(以下「tkhd」と称す)114が含まれている。ここで、このtkhd114には、トラックを識別するためのトラック識別情報を格納するトラックIDフィールド116と、そのトラック識別情報により示される基本領域100aのトラックを再生するのに要する時間長(基本トラック時間長)を示す基本トラック時間長情報を格納するトラック時間長フィールド117とが含まれている。
【0087】
そして、mvex113には、拡張領域100bに含まれるトラックの数に応じた数のトラックエクステンドボックス(以下「trex」と称す)115が含まれるとともに、さらに、1つのムービーエクステンドヘッダーボックス(以下「mhex」と称す)113aが含まれている。
【0088】
mhex113aには、拡張領域100bに含まれるコンテンツの再生に要する時間長(拡張コンテンツ時間長)を示す内容の拡張コンテンツ時間長情報を格納するムービー時間長フィールド113bが含まれている。ここで、拡張コンテンツ時間長情報は、「0」を示す場合があり、この場合、その拡張コンテンツ時間長情報は、拡張コンテンツ時間長が不明であることを示している。
【0089】
trex115には、拡張領域100bのトラックを識別するためのトラック識別情報を格納するトラックIDフィールド118と、そのトラック識別情報により特定される拡張領域100bのトラックのサンプルに対し、デフォルトで設定された時間長を示すデフォルトサンプル時間長情報が格納される第1デフォルト時間長フィールド119と、そのトラック識別情報により特定される拡張領域100bのトラックの再生に要する時間長(拡張トラック時間長)を示す内容の拡張トラック時間長情報が格納されるトラック時間長フィールド115aとが含まれている。
【0090】
つまり、本実施の形態のMP4ファイルデータ100では、従来例と比べて、mvex113に、拡張コンテンツ時間長情報が格納されるmhex113aが含められ、さらに、mvex113のtrex115に、拡張トラック時間長情報が格納されるトラック時間長フィールド115aが含められている点に特徴がある。
【0091】
なお、MP4ファイルデータ100は、そこに含まれるコンテンツの情報量が少ないときには、基本領域100aのみから構成されることがあり、この場合には、moov110のmvex113が省かれた構成となる。 図2は、上記MP4ファイルデータ100に基づいてコンテンツの再生を行う本実施の形態の逆多重化装置200の構成を示す構成図である。
【0092】
この逆多重化装置200は、MP4ファイルデータ100を取得して再生するものであって、MP4ファイルデータ100を基本領域100aから順次取得するデータ取得部210と、そのデータ取得部210で取得されたMP4ファイルデータ100を、一組のmoov110及びmdat120や一組のmoof130及びmdat140ごとに順次逆多重化して復号化する復号部213と、データ取得部210で取得されたMP4ファイルデータ100に基づいて時間的な処理を行う時間処理部211と、取得されたMP4ファイルデータ100に対してランダムアクセスするための処理を行うランダムアクセス処理部212と、復号部213から出力されたデータに基づいて画像や音声を出力する再生部214とを備えている。
【0093】
ランダムアクセス処理部212は、データ取得部210で取得されたMP4ファイルデータ100を全て蓄積しており、外部から目標時間を示す内容の目標時間情報を取得すると、その蓄積されたMP4ファイルデータ100の中から、その目標時間に対応するサンプルを目的サンプルとして検索し、その目的サンプルからのコンテンツの再生を復号部213及び再生部214に実行させる。
【0094】
また、時間処理部211は、MP4ファイルデータ100に基づいてそこに含まれる全てのコンテンツの再生に要する総時間長を特定するコンテンツ時間長特定部211aと、MP4ファイルデータ100に含まれる全てのトラックの再生に要する時間長をトラック毎に特定するトラック時間長特定部211bと、再生時間を特定する再生時間特定部211cとを備えている。
【0095】
図3は、時間処理部211のコンテンツ時間長特定部211aの内部構成を示すブロック図である。
【0096】
コンテンツ時間長特定部211aは、第1分離部221と、第2分離部222と、第3分離部224と、第1解析部223と、第2解析部225と、加算部226とを備えている。
【0097】
第1分離部221は、MP4ファイルデータ100を取得して、そのMP4ファイルデータ100からmoov110に格納されているデータ(moovデータ)を分離して出力する。
【0098】
第2分離部222は、moovデータを取得すると、そのmoovデータから、mvhd111に格納されているデータ(mvhdデータ)と、mvex113に格納されているデータ(mvexデータ)とを分離して出力する。
【0099】
第3分離部224は、mvexデータを取得すると、そのmvexデータから、mhex113aに格納されているデータ(mhexデータ)を分離して出力する。
【0100】
第1解析部223は、第2分離部222からmvhdデータを取得すると、そのmvhdデータを解析して、そのムービー時間長フィールド111aに格納されている基本コンテンツ時間長情報を出力する。
【0101】
第2解析部225は、第3分離部224からmhexデータを取得すると、そのmhexデータを解析して、そのムービー時間長フィールド113bに格納されている拡張コンテンツ時間長情報を出力する。
【0102】
加算部226は、第1解析部223及び第2解析部225から、基本コンテンツ時間長情報及び拡張コンテンツ時間長情報を取得すると、基本コンテンツ時間長情報により示される基本コンテンツ時間長と、拡張コンテンツ時間長情報により示される拡張コンテンツ時間長とを加算し、その加算された時間長(コンテンツ総時間長)を示すコンテンツ総時間長情報を出力する。また、加算部226は、拡張コンテンツ時間長情報が「0」を示しているときには、基本コンテンツ時間長情報をコンテンツ総時間長情報として出力する。
【0103】
このように、本実施の形態のコンテンツ時間長特定部211aは、MP4ファイルデータ100の基本領域100a及び拡張領域100bに含まれるコンテンツの総時間長を特定して、そのコンテンツ総時間長を示す内容のコンテンツ総時間長情報を出力する。
【0104】
図4は、時間処理部211のトラック時間長特定部211bの内部構成を示すブロック図である。
【0105】
トラック時間長特定部211bは、第1分離部231と、第2分離部232と、第3分離部233と、第4分離部235と、第1解析部234と、第2解析部236と、加算部237とを備えている。
【0106】
第1分離部231は、MP4ファイルデータ100を取得して、そのMP4ファイルデータ100からmoovデータを分離して出力する。
【0107】
第2分離部232は、moovデータを取得すると、そのmoovデータからtrak112に格納されているデータ(trakデータ)と、mvexデータとを分離して出力する。
【0108】
第3分離部233は、trakデータを取得すると、そのtrakデータから、tkhd114に格納されているデータ(tkhdデータ)を分離して出力する。
【0109】
第1解析部234は、第3分離部233からtkhdデータを取得すると、そのtkhdデータを解析して、tkhd114のトラックIDフィールド116に格納されているトラック識別情報を出力する。さらに、第1解析部234は、そのトラック識別情報により特定されるトラックに対応する基本トラック時間長情報を、tkhd114のトラック時間長フィールド117から抽出して、これを出力する。
【0110】
第4分離部235は、第2分離部232からmvexデータを取得し、第1解析部234からトラック識別情報を取得すると、そのmvexデータから、そのトラック識別情報により特定されるトラックに対応するtrex115に格納されているデータ(trexデータ)を分離して出力する。
【0111】
第2解析部236は、第4分離部235からtrexデータを取得すると、そのtrexデータを解析して、トラック時間長フィールド115aに格納されている拡張トラック時間長情報を出力する。
【0112】
加算部237は、第1解析部234から基本トラック時間長情報を取得し、第2解析部236から拡張トラック時間長情報を取得すると、基本トラック時間長情報に示される時間長と、拡張トラック時間長情報に示される時間長とを加算し、その加算された時間長(トラック総時間長)を示すトラック総時間長情報を出力する。
【0113】
このように、本実施の形態のトラック時間長特定部211bは、MP4ファイルデータ100の基本領域100a及び拡張領域100bに含まれるトラックの総時間長を、トラックごとに特定し、そのトラックを示すトラック識別情報と、そのトラックのトラック総時間長を示すトラック総時間長情報とを出力する。
【0114】
図5は、本実施の形態における逆多重化装置200のコンテンツ時間長特定部211aの特徴的な動作を示すフロー図である。
【0115】
まず、コンテンツ時間長特定部211aは、MP4ファイルデータ100を取得し(ステップS200)、そのデータ100のmvhd111を解析して、基本コンテンツ時間長T1を特定する(ステップS202)。
【0116】
次に、コンテンツ時間長特定部211aは、ステップS200で取得したデータ100のmoov110にmvex113が含まれているか否かを判別する(ステップS204)。
【0117】
ここで、コンテンツ時間長特定部211aは、mvex113を検出すると(ステップS204のY)、MP4ファイルデータ100は基本領域100aと拡張領域100bとから構成されていると判断し、さらに、そのmvex113に含まれるmhex113aを解析することで(ステップS206)、そのムービー時間長フィールド113bに格納されている拡張コンテンツ時間長情報が「0」を示すか否かを判別する(ステップS208)。
【0118】
コンテンツ時間長特定部211aは、拡張コンテンツ時間長情報が「0」を示していないと判別すると(ステップS208のN)、その拡張コンテンツ時間長情報から拡張コンテンツ時間長T2を特定する(ステップS210)。
【0119】
そして、コンテンツ時間長特定部211aは、基本コンテンツ時間長T1と拡張コンテンツ時間長T2とを加算して、コンテンツ総時間長Tを算出し(ステップS212)、そのコンテンツ総時間長Tを示す内容のコンテンツ総時間長情報を出力する(ステップS214)。
【0120】
一方、ステップS204でmvex113を検出しなかったときには(ステップS204のN)、コンテンツ時間長特定部211aは、MP4ファイルデータ100は基本領域100aから構成されると判断し、基本コンテンツ時間長T1をコンテンツ総時間長Tとして扱って(ステップS220)、コンテンツ総時間長情報を出力する(ステップS214)。
【0121】
そして、ステップS208で拡張コンテンツ時間長情報が「0」を示していると判別したときには(ステップS208のY)、コンテンツ時間長特定部211aは、コンテンツ総時間長Tを算出することができないと判断し(ステップS216)、コンテンツ総時間長Tが不明であることを知らせる内容の総時間長不明情報を出力する(ステップS218)。
【0122】
ここで、本実施の形態における逆多重化装置200の再生部214は、復号部213からのデータに基づいて画像や音声を出力し、再生時間特定部211cにより特定された再生時間を表示するとともに、コンテンツ時間長特定部211aからコンテンツ総時間長情報が出力されたときには、そのコンテンツ総時間長情報により示されるコンテンツ総時間長を表示し、コンテンツ時間長特定部211aから総時間長不明情報が出力されたときには、コンテンツ総時間長が不明であることを報知する。
【0123】
図6は、コンテンツ総時間長情報が出力されたときの再生部214により表示される画像を示す画像表示図である。
再生部214は、再生画像を表示するための画面P1を表示し、その画面P1上に、再生画像が表示される再生画像表示部P2と、スライダーバーP3と、操作ボタンP4と、時間表示部P5を表示する。
【0124】
時間表示部P5には、図中右側にコンテンツ総時間長が、例えば「00:02:30」のように表示され、図中左側に再生時間が、例えば「00:00:30」のように表示される。
【0125】
スライダーバーP3は、コンテンツ総時間長に対する再生時間の割合に応じて、ラインLn1上を図中左側から右側にスライドする。
【0126】
図7は、総時間長不明情報が出力されたときの再生部214により表示される画像を示す画像表示図である。
【0127】
再生部214は、上述と同様、再生画像表示部P2とスライダーバーP3と操作ボタンP4と時間表示部P5とを含む画面P1を表示するが、時間表示部P5の図中右側には、コンテンツ総時間長が不明であることを示す文字又は記号を、例えば「−−:−−:−−」のように表示する。また、再生部214は時間表示部P5の図中右側に、再生時間を、例えば「00:00:30」のように表示する。
【0128】
スライダーバーP3は、例えば所定の時間に対する再生時間の割合に応じて、ラインLn1上を図中左端から右側にスライドし、再生時間が上記所定の時間を越えれば、再び図中左端から右側へのスライドを繰り返し実行する。
【0129】
また、再生部214は、トラック時間長特定部211bからトラック識別情報及びトラック総時間長情報を取得したときには、必要に応じて、そのトラック識別情報に示されるトラック毎に、トラック総時間長情報により示されるトラック総時間長を表示する。
【0130】
このように本実施の形態における逆多重化装置200は、MP4ファイルデータ100のダウンロードを開始したときには、ダウンロード再生を行うことができるとともに、MP4ファイルデータ100の全てのダウンロードが完了するまでもなく、そのMP4ファイルデータ100のmoov110に格納されたコンテンツ総時長情報に基づいて、コンテンツ総時間長を表示することができ、利便性を向上することができる。
【0131】
次に、本実施の形態におけるMP4ファイルデータ100を作成する多重化装置300について説明する。
【0132】
図8は、本実施の形態における多重化装置300の構成を示す構成図である。この本実施の形態における多重化装置300は、画像データ解析部301と、音声データ解析部302と、第1切換スイッチ303と、第2切換スイッチ304と、制御部308と、moof生成部305と、moov生成部306と、ファイル生成部307とを備えている。 画像データ解析部301は、画像データを取得してこれを解析することで、その画像データのタイムスタンプやサイズなどを示す内容の画像特定情報を生成する。そして、画像データ解析部301は、画像データを符号化して画像符号化データを作成し、その画像符号化データと画像特定情報とを出力する。
【0133】
音声データ解析部302は、音声データを取得してこれを解析することで、その音声データのタイムスタンプやサイズなどを示す内容の音声特定情報を生成する。そして、音声データ解析部302は、音声データを符号化して音声符号化データを作成し、その音声符号化データと音声特定情報とを出力する。
【0134】
moov生成部306は、制御部308からの制御に応じて、moovデータを生成して出力する。ここで本実施の形態におけるmoov生成部306は、moovデータのmvex113にmhex113aを作成する。
【0135】
moof生成部305は、制御部308からの制御に応じて、moofデータを生成して出力する。
【0136】
制御部308は、画像データ解析部301から画像特定情報を取得するとともに、音声データ解析部302から音声特定情報を取得し、その画像特定情報及び音声特定情報に基づいて、第1切換スイッチ303及び第2切換スイッチ304を切り換えることで、第2切換スイッチ304からまずmoovデータを含む基本領域100aに格納されるべきデータを出力させ、次にmoofデータを含む拡張領域100bに格納されるべきデータを出力させる。
【0137】
ここで本実施の形態における制御部308は、moov生成部306からmoovデータを出力させるときには、まず、mhex113aのムービー時間長フィールド113bに格納される拡張コンテンツ時間長情報が「0」を示すようなmoovデータをmoov生成部306に生成させて、これを出力させる。
【0138】
そして、制御部308は、画像特定情報及び音声特定情報に基づいて、画像符号化データ及び音声符号化データの拡張領域100bに納められる各サンプルの時間長を順次加算する。
【0139】
次に制御部308は、入力された音声データや画像データの全てに対してmoofデータをmoof生成部305から出力させると、上述のように加算した時間長を、拡張コンテンツ時間長として、その時間長を示す拡張コンテンツ時間長情報をmoov生成部306に出力する。
【0140】
そして、制御部308から拡張コンテンツ時間長情報を取得したmoov出力部306は、その拡張コンテンツ時間長情報と、その情報が格納されるmhex113aのムービー時間長フィールド113bの位置を示す内容の位置特定情報とをファイル生成部307に出力する。
【0141】
ファイル出力部307は、moov生成部306から拡張コンテンツ時間長情報と位置特定情報とを取得すると、その位置特定情報により示されるmhex113aのムービー時間長フィールド113bに、その取得した拡張コンテンツ時間長情報を上書きする。つまり、ファイル生成部307は、「0」を示す拡張コンテンツ時間長情報を、後に取得した拡張コンテンツ時間長情報に変更して、MP4ファイルデータ100を完成する。
【0142】
図9は、本実施の形態における多重化装置300の動作を示すフロー図である。
まず、多重化装置300は、「0」を示す拡張コンテンツ時間長情報を含むmoovデータを生成する(ステップS300)。つまり、多重化装置300は、最初に仮のmoovデータを生成しておく。
【0143】
次に、多重化装置300は、moofデータを作成する(ステップS302)。
【0144】
そして、多重化装置300は、入力された画像データや音声データの符号化及び多重化に対して未処理のデータがあるか否かを判別する(ステップS304)。ここで、未処理のデータがあると判別したときには(ステップS304のY)、ステップS302からの動作を繰り返し実行し、未処理のデータがないと判別したときには(ステップS302のN)、サンプルの時間長の加算結果に基づく拡張コンテンツ時間長情報をmoovデータに上書きして(ステップS306)、処理を終了する。
【0145】
このような本実施の形態における多重化装置300は、コンテンツの情報量に応じて一組のmoov110及びmdat120と、少なくとも一組のmoof130及びmdat140とが連なるように構成されるMP4ファイルデータ100を生成するため、リアルタイム記録に有効であるとともに、逆多重化装置200の利便性向上のために要する拡張コンテンツ時間長情報をmoov110に格納することができる。
【0146】
図10は、trexのシンタックスを示す表示図である。
trex115のトラック時間長フィールド115aには、バージョンによって、32ビットや64ビットが割り当てられ、第1デフォルト時間長フィールド119には32ビットが割り当てられる。また、タイムスケールはmvhd111により示される。
【0147】
なお、本実施の形態では、MP4ファイルデータ100のmvex113に、拡張コンテンツ時間長情報を含むmhex113aを格納したが、このmhex113aの代わりに、コンテンツ総時間長情報を含むボックス(以下「mehd」と称す)を格納しても良い。
【0148】
図11は、mehdを含むMP4ファイルデータに基づいてコンテンツ総時間長を特定するコンテンツ時間長特定部の内部構成を示すブロック図である。
【0149】
このコンテンツ時間長特定部211a’は、第1分離部211’と、第2分離部222’と、第3分離部224’と、解析部225’とを備えている。第1分離部221’は、MP4ファイルデータを取得して、そのMP4ファイルデータからmoovデータを分離して出力する。第2分離部222’は、moovデータを取得すると、そのmoovデータからmvexデータを分離して出力する。第3分離部224’は、mvexデータを取得すると、そのmvexデータから、上述のmehdに格納されているmehdデータを分離して出力する。解析部225’は、第3分離部224’からmehdデータを取得すると、そのmehdデータを解析してコンテンツ総時間長情報を出力する。
【0150】
図12は、上述のコンテンツ時間長特定部211a’の特徴的な動作を示すフロー図である。
【0151】
まず、コンテンツ時間長特定部211a’は、上述のMP4ファイルデータを取得して(ステップS260)、そのデータにmehdが含まれているか否かを判別する(ステップS262)。
【0152】
ここで、コンテンツ時間長特定部211a’は、mehdを検出すると(ステップS262のY)、そのmehdを解析して(ステップS264)、mehdに格納されているコンテンツ総時間長情報が「0」を示しているか否かを判別する(ステップS266)。
【0153】
そして、コンテンツ時間長特定部211a’は、ステップS266でコンテンツ総時間長情報が「0」を示していないと判別したときには(ステップS266のN)、そのコンテンツ総時間長情報を出力する(ステップS268)。一方、コンテンツ時間長特定部211a’は、ステップS262でデータにmehdが含まれていないと判別したとき(ステップS262のN)、又はステップS266でコンテンツ総時間長情報が「0」を示していると判別したときには(ステップS266のY)、コンテンツ総時間長を特定することができないと判別し(ステップS270)、コンテンツ総時間長が不明であることを知らせる内容の総時間長不明情報を出力する(ステップS272)。
【0154】
このように、mhex113aの代わりにmehdをMP4ファイルデータに格納することにより、コンテンツ時間長特定部211a’は、コンテンツ総時間長を特定するために、基本領域100aのコンテンツの時間長と拡張領域100bのコンテンツの時間長とを加算することなく、mehdデータを解析することで、容易にコンテンツ総時間長を特定することができる。
【0155】
一方、多重化装置300の制御部308は、moov生成部306にmoovデータを生成させるときには、まず、mehdに格納されるコンテンツ総時間長情報が「0」を示すようなmoovデータをmoov生成部306に生成させるとともに、画像特定情報及び音声特定情報に基づいて、画像符号化データ及び音声符号化データの基本領域100a及び拡張領域100bに納められる各サンプルの時間長を順次加算する。そして、制御部308は、入力された音声データや画像データの全てに対してmoofデータをmoof生成部305から出力させると、上述のように加算した時間長をコンテンツ総時間長として、その時間長を示すコンテンツ総時間長情報をmoov生成部306に出力する。これにより多重化装置300のファイル生成部307は、上述のmehdを格納するMP4ファイルデータ100を生成する。
【0156】
図13は、mehdのシンタックスを示す表示図である。
mehdのコンテンツ総時間長情報を格納するムービー時間長フィールドには、バージョンに応じて、32ビットや64ビットが割り当てられる。例えば、バージョンが0を示すときには32ビットが割り当てられ、バージョンが1を示すときには64ビットが割り当てられる。また、タイムスケールはmvhdにより示される。
【0157】
なお、mhex113aが図13に示すようなシンタックスを有していても良い。
【0158】
また、上記実施の形態では、拡張コンテンツ時間長情報が「0」を示す場合に、拡張コンテンツ時間長が不明であるとしたが、その値は「0」以外の例えば負数などであっても良い。
【0159】
(変形例) 次に、上記本実施の形態における逆多重化装置200の変形例について説明する。
【0160】
上述の逆多重化装置200は、従来のファイルフォーマットと基本領域の構造が異なるMP4ファイルデータを取り扱ったが、本変形例に係る逆多重化装置はさらに、従来のファイルフォーマットと拡張領域の構造も異なるMP4ファイルデータを取り扱う。
【0161】
図14は、本変形例に係る逆多重化装置が取り扱うMP4ファイルデータのmoofのファイルフォーマットを示すデータ構成図である。
【0162】
moof130’は、1つのmfhd131と複数のtraf132とから構成されている。
【0163】
mfhd131は、エントリカウンタフィールド131aと、複数の時間長エントリフィールド131bとから構成され、時間長エントリフィールド131bには、さらに、トラックを識別するためのトラック識別情報を格納するトラックIDフィールド131cと、当該moof130’と対になるmdat140において、そのトラック識別情報により特定されるトラックの時間長(moof時間長)を示すmoof時間長情報を格納するmoof時間長フィールド131dとが形成されている。
【0164】
traf132は、1つのトラックフラグメントヘッダーボックス(以下、「tfhd」と称す)133と、複数のトラックフラグメントランボックス(以下「trun」と称す)136とから構成され、tfhd133には、traf時間長情報が格納されるtraf時間長フィールド135と、デフォルトサンプル時間長情報が格納される第2デフォルト時間長フィールド134とが含まれている。
【0165】
traf時間長フィールド135に格納されるtraf時間長情報は、traf132のtrun136に含まれるサンプル時間長情報により示されるサンプルの時間長の総和(traf時間長)を示し、第2デフォルト時間長フィールド134に格納されるデフォルトサンプル時間長情報は、そのtraf時間長に対してデフォルトで設定された時間長を示す。
【0166】
図15は、本変形例に係る逆多重化装置のランダムアクセス処理部の内部構成を示すブロック図である。
【0167】
ランダムアクセス処理部400は、従来のランダムアクセス処理部812と比べて計算量を少なくして迅速に目的サンプルを探し出すことができるものであって、図14に示すmoof130’を有するMP4ファイルデータ100’を蓄積するデータ蓄積部401と、moof時間長を特定するmoof時間長処理部420と、traf時間長を特定するtraf時間長処理部430と、サンプル時間長を特定するサンプル時間長処理部440と、これらの処理部を制御する主制御部410とから構成される。
【0168】
主制御部410は、MP4ファイルデータ100’と、目標時間を示す目標時間情報を取得すると、そのMP4ファイルデータ100’の構成を解析して、moof時間長処理部420とtraf時間長処理部430とサンプル時間長処理部440とを制御し、これらの各処理部により特定されるmoof時間長及びtraf時間長並びにサンプル時間長を積算処理することで、上記目標時間に応じた目的サンプルを示す目的サンプル識別情報を出力する。
【0169】
図16は、moof時間長処理部420の内部構成を示すブロック図である。moof時間長処理部420は、第1分離部421と、第2分離部423と、トラック制御部422と、解析部424とを備えている。
【0170】
第1分離部421は、図14のmoof130’を有するMP4ファイルデータ100’を取得すると、そのMP4ファイルデータ100’から、moovデータとmoofデータとを分離して出力する。
【0171】
第2分離部423は、第1分離部421からmoofデータを取得すると、そのmoofデータから、mfhd131に格納されているデータ(mfhdデータ)を分離して出力する。
【0172】
トラック制御部422は、第1分離部421からmoovデータを取得すると、そのmoovデータに基づいて、トラック識別情報を出力する。
【0173】
解析部424は、第2分離部423からmfhdデータを取得するとともに、トラック制御部422からトラック識別情報を取得すると、mfhdデータを解析してそのmfhdデータから、トラック識別情報により特定されるトラックのmoof時間長情報を抽出して、これを出力する。
【0174】
図17は、traf時間長処理部430の内部構成を示すブロック図である。traf時間長処理部430は、第1分離部431と、第2分離部433と、第3分離部434と、トラック制御部432と、解析部435とを備えている。
【0175】
第1分離部431は、MP4ファイルデータ100’を取得すると、そのMP4ファイルデータ100’から、moovデータとmoofデータとを分離して出力する。
【0176】
トラック制御部432は、第1分離部431からmoovデータを取得すると、そのmoovデータに基づいて、トラック識別情報を出力する。
【0177】
第2分離部433は、第1分離部431からmoofデータを取得するとともに、トラック制御部432からトラック識別情報を取得すると、moofデータを解析してそのmoofデータから、トラック識別情報により特定されるトラックに対応するtrafデータを分離して出力する。
【0178】
第3分離部434は、第2分離部433からtrafデータを取得すると、そのtrafデータからtfhdデータを分離して出力する。
【0179】
解析部435は、第3分離部434からtfhdデータを取得すると、そのtfhdデータを解析して、そのtfhdデータからtraf時間長情報を抽出して出力する。
【0180】
また、サンプル時間長処理部440は、MP4ファイルデータ100’から所定の分離処理を行うことでトラック毎にtrunデータを分離し、そのtrunデータからサンプル時間長情報を抽出して出力する。
【0181】
図18は、ランダムアクセス処理部400の概略的な動作を説明するための説明図である。
【0182】
図18の(a)は、MP4ファイルデータ100’のストリームを示すデータ構成図である。このようなストリームは、サンプル単位で構成され、そのサンプルにはシーク可能(最初に読み出し可能)であることを示すフラグが含められている。
【0183】
図18の(b)は、MP4ファイルデータ100’のセグメント構造を示すデータ構成図である。
【0184】
MP4ファイルデータ100’のファイルフォーマットには、上述のように、moov110とmoof130’とが含まれ、そのmoof130’にはtraf132が含まれている。
【0185】
MP4ファイルデータ100’に含まれるコンテンツ総時間長は、基本コンテンツ時間長Aと、拡張コンテンツ時間長Bとの和で表される。
【0186】
さらに、拡張コンテンツ時間長Bは、拡張領域の各moof130’により示されるmoof時間長C,C,…の総和で表され、moof時間長C,C,…は、それぞれのmoof130’内の各traf132により示されるtraf時間長D,D,…の総和で表される。
【0187】
図18の(c)は、ランダムアクセス処理部400のシーク動作を説明するための説明図である。
【0188】
ランダムアクセス処理部400は、目標時間を示す目標時間情報を取得すると、まず、基本コンテンツ時間長Aに拡張コンテンツ時間長Bを加算する。その加算結果が目標時間と等しくなれば、ランダムアクセス処理部400は、MP4ファイルデータ100’の最後に取得したサンプルを目的サンプルとして特定し、その目的サンプルを示す目的サンプル識別情報を出力する。
【0189】
一方、加算結果が目標時間を越えていれば、ランダムアクセス処理部400は、基本コンテンツ時間長Aに対するmoof時間長C,C,…の加算を時系列に沿って順次行う。その加算結果が目標時間と等しくなったときには、ランダムアクセス処理部400は、最後に加算したmoof時間長に対応する最後のサンプルを目的サンプルとして特定し、その目的サンプルを示す目的サンプル識別情報を出力する。
【0190】
また、その加算結果が目標時間を越えたときには、ランダムアクセス処理部400は、目標時間を越える直前の加算結果に対して、traf時間長D,D,…の加算を時系列に沿って順次行う。その加算結果が目標時間と等しくなったときには、ランダムアクセス処理部400は、最後に加算したtraf時間長に対応する最後のサンプルを目的サンプルとして特定し、そのサンプルを示す目的サンプル識別情報を出力する。
【0191】
そしてさらに、その加算結果が目標時間を越えたときには、ランダムアクセス処理部400は、目標時間を越える直前の加算結果に対して、サンプル時間長E,E,…の加算を時系列に沿って順次行う。ここで、その加算結果が目標時間と等しくなったときには、ランダムアクセス処理部は、最後に加算したサンプル時間長に対応するサンプルを目的サンプルとして特定し、その目的サンプルを示す目的サンプル識別情報を出力する。
【0192】
図19は、ランダムアクセス処理部400の動作を示すフロー図である。
まず、ランダムアクセス処理部400は、基本コンテンツ時間長Aに拡張コンテンツ時間長Bを加算して、その加算結果が目標時間Xと等しくなるか否かを判別する(ステップS400)。
【0193】
その判別の結果、等しいと判別したときには(ステップS400のY)、ランダムアクセス処理部400は、目的サンプルはMP4ファイルデータの最後にあるサンプルであると判別する(ステップS402)。
【0194】
また、等しくないと判別したときには(ステップS400のN)、ランダムアクセス処理部400は、まず変数NをN=1として(ステップS404)、基本コンテンツ時間長A及びmoof時間長Cを用いて時間長aを下記数式により算出する(ステップS406)。
【数1】
Figure 2004007610
【0195】
ここで、ランダムアクセス処理部400は、時間長aが目標時間Xと等しいか否かを判別し(ステップS408)、等しいと判別したときには(ステップS408のY)、目的サンプルはmoof時間長Cに対応する最後のサンプルであると判別する(ステップS410)。
【0196】
また、ランダムアクセス処理部400は、時間長aが目標時間Xと等しくないと判別したときには(ステップS408のN)、さらに、時間長aが目標時間Xよりも大きいか否かを判別する(ステップS412)。
【0197】
ランダムアクセス処理部400は、時間長aが目標時間Xよりも大きくないと判別したときには(ステップS412のN)、N=N+1として(ステップS414)、さらにステップS406からの動作を繰り返し実行する。なお、上記数式は、基本コンテンツ時間長Aとmoof時間長C〜Cとの総和を表しているが、ランダムアクセス処理部400は、Nの増加の度に上記数式の加算処理を全て実行することはなく、加算処理結果を一時保存しておき、Nが1増加する度に、前記Nに相当するCを上記保存された加算処理結果にさらに加算することで上記数式の解を求める。
【0198】
そして、時間長aが目標時間Xよりも大きいと判別したときには(ステップS412のY)、ランダムアクセス処理部400は、まず変数MをM=1として(ステップS416)、基本コンテンツ時間長A及びmoof時間長C並びにtraf時間長Dを用いて時間長bを下記数式により算出する(ステップS417)。
【数2】
Figure 2004007610
【0199】
ここで、ランダムアクセス処理部400は、時間長bが目標時間Xと等しいか否かを判別し(ステップS418)、等しいと判別したときには(ステップS418のY)、目的サンプルはtraf時間長Dに対応する最後のサンプルであると判別する(ステップS420)。
【0200】
また、ランダムアクセス処理部400は、時間長bが目標時間Xと等しくないと判別したときには(ステップS418のN)、さらに、時間長bが目標時間Xよりも大きいか否かを判別する(ステップS422)。
【0201】
ランダムアクセス処理部400は、時間長bが目標時間Xよりも大きくないと判別したときには(ステップS422のN)、M=M+1として(ステップS424)、さらにステップS417からの動作を繰り返し実行する。そして、時間長bが目標時間Xよりも大きいと判別したときには(ステップS422のY)、ランダムアクセス処理部400は、まず変数LをL=1として(ステップS426)、基本コンテンツ時間長A、moof時間長C、traf時間長D、サンプル時間Eを用いて時間長cを下記数式により算出する(ステップS428)。
【数3】
Figure 2004007610
【0202】
ここで、ランダムアクセス処理部400は、時間長cが目標時間Xと等しいか否かを判別し(ステップS430)、等しいと判別したときには(ステップS430のY)、目的サンプルはサンプル時間長Eに対応するサンプルであると判別する(ステップS432)。
【0203】
また、ランダムアクセス処理部400は、時間長cが目標時間Xと等しくないと判別したときには(ステップS430のN)、さらに、時間長cが目標時間Xよりも大きいか否かを判別する(ステップS434)。
【0204】
ランダムアクセス処理部400は、時間長cが目標時間Xよりも大きくないと判別したときには(ステップS434のN)、L=L+1として(ステップS436)、さらにステップS428からの動作を繰り返し実行する。そして、時間長cが目標時間Xよりも大きいと判別したときには(ステップSのY)、ランダムアクセス処理部400は、エラーが発生したものと判断する(ステップS438)。
【0205】
そして、ステップS402、ステップS410、ステップS420、又はステップS432で目的サンプルが特定された後、ランダムアクセス処理部400は、その目的サンプルを示す目的サンプル識別情報を出力する(ステップS440)。
【0206】
このように本変形例では、拡張領域のmoof130’のmfhd131に、moof時間長情報を格納するmoof時間長フィールド131dを設け、さらに、tfhd133に、traf時間長情報を格納するtraf時間長フィールド135を設けるとともに、ランダムアクセス時において目標時間から目的サンプルを探すときには、まず拡張コンテンツ時間長を用い、次に、拡張コンテンツ時間長よりも短いmoof時間長を用い、さらに次に、moof時間長よりも短いtraf時間長を用い、そして最後に、traf時間長よりも短いサンプル時間長を用いるため、図28に示す従来のランダムアクセス処理部812の動作と比べて、計算量を少なくし、迅速に目的サンプルを探し出すことができる。
【0207】
そして、ランダムアクセス処理部400は、MP4ファイルデータ100’と目的サンプル識別情報とを復号部213に出力して、その目的サンプル識別情報により示される目的サンプルからのコンテンツの再生を復号部213及び再生部214に実行させる。
【0208】
図20は、tfhd133のシンタックスを示す表示図である。
この図20に示すように、traf132のtraf時間長フィールド135には、例えば32ビットが割り当てられる。
【0209】
なお、ランダムアクセス処理部400の主制御部410は、moof時間長処理部420からのmoof時間長情報の出力状況や、moof時間長情報により示されるmoof時間長の有効性を判別しており、moof時間長を用いようとする場合に、moof時間長情報が出力されなかったとき、又はmoof時間長が有効でないと判別したときには、traf時間長処理部430にmoof130’に格納されている全てのtraf時間長情報を出力させて、これらtraf時間長の和をmoof時間長の代わりに用いても良い。さらに、ランダムアクセス処理部400の主制御部410は、traf時間長処理部430からのtraf時間長情報の出力状況や、traf時間長情報により示されるtraf時間長の有効性を判別しており、traf時間長を用いようとする場合に、traf時間長情報が出力されなかったとき、又はtraf時間長が有効でないと判別したときには、サンプル時間長処理部440にtraf132に格納されている全てのサンプル時間長情報を出力させて、これらサンプル時間長の和をtraf時間長の代わりに用いても良い。
【0210】
また、上記変形例では、各サンプルにシーク可能か否かを示すフラグを含めたが、moof130に対応する複数のサンプルに対して1つのフラグを含めたり、traf132に対応する複数のサンプルに対して1つのフラグを含めたりしても良い。これにより、各サンプル毎にフラグをチェックする処理を省くことができる。
【0211】
【発明の効果】
以上の説明から明らかなように、本発明に係る逆多重化装置によれば、処理手段で多重化データが各組ごとに逆多重化処理されるため、ストリームとして配信される多重化データからコンテンツをダウンロード再生することができるとともに、多重化データの先端部に含まれる総時間長情報に基づいて総時間長が総時間長特定手段で特定されてその総時間長が表示手段により表示されるため、ダウンロード再生中にでも総時間長をユーザに知らせることができ、コンテンツのダウンロード再生時の利便性を向上することができる。また、本発明に係る逆多重化装置は、MP4ファイルデータをダウンロードして再生するパーソナルコンピュータや携帯電話などに用いるのに適し、本発明に係る多重化装置は、画像や音声などのマルチメディアデータを取得してMP4ファイルデータを作成して記録するデジタルビデオカメラや録画機能付き携帯電話などに用いるのに適している。
【図面の簡単な説明】
【図1】実施の形態における逆多重化装置及び多重化装置が扱うMP4ファイルデータのファイルフォーマットを示すデータ構成図である。
【図2】同上のMP4ファイルデータに基づいて再生を行う逆多重化装置の構成を示す構成図である。
【図3】同上の時間処理部のコンテンツ時間長特定部の内部構成を示すブロック図である。
【図4】同上の時間処理部のトラック時間長特定部の内部構成を示すブロック図である。
【図5】同上の逆多重化装置のコンテンツ時間長特定部の特徴的な動作を示すフロー図である。
【図6】同上の逆多重化装置の再生部により表示される画像を示す画像表示図である。
【図7】同上の逆多重化装置の再生部により表示される他の画像を示す画像表示図である。
【図8】同上の多重化装置の構成を示す構成図である。
【図9】同上の多重化装置の動作を示すフロー図である。
【図10】同上のtrexのシンタックスを示す表示図である。
【図11】同上のmehdを含むMP4ファイルデータを扱うコンテンツ時間長特定部の内部構成を示すブロック図である。
【図12】同上のコンテンツ時間長特定部の特徴的な動作を示すフロー図である。
【図13】同上のmehdのシンタックスを示す表示図である。
【図14】同上の変形例に係る逆多重化装置が取り扱うMP4ファイルデータのmoofのファイルフォーマットを示すデータ構成図である。
【図15】同上の変形例に係る逆多重化装置のランダムアクセス処理部の内部構成を示すブロック図である。
【図16】同上の変形例に係るmoof時間長処理部の内部構成を示すブロック図である。
【図17】同上の変形例に係るtraf時間長処理部の内部構成を示すブロック図である。
【図18】同上の変形例に係るランダムアクセス処理部の概略的な動作を説明するための説明図である。
【図19】同上の変形例に係るランダムアクセス処理部の動作を示すフロー図である。
【図20】同上の変形例に係るtfhdのシンタックスを示す表示図である。
【図21】従来例におけるMP4ファイルデータの基本的なファイルフォーマットを示すデータ構成図である。
【図22】同上のmoovの詳細な構成を示すデータ構成図である。
【図23】同上のmoofの詳細な構成を示すデータ構成図である。
【図24】同上のMP4ファイルデータを生成する従来の多重化装置の構成を示す構成図である。
【図25】同上の多重化装置のmoovデータ及びmoofデータの生成に関する動作を示すフロー図である。
【図26】同上のMP4ファイルデータに基づいて再生を行う従来の逆多重化装置の構成を示す構成図である。
【図27】同上の時間長特定部の内部構成を示すブロック図である。
【図28】同上のランダムアクセス処理部の構成を示す構成図である。
【図29】同上のトラック制御部の内部構成を示すブロック図である。
【図30】同上のランダムアクセス処理部の概略的な動作を説明するための説明図である。
【図31】同上の従来の逆多重化装置での問題点を説明するための説明図である。
【符号の説明】
100 MP4ファイルデータ
100a 基本領域
100b 拡張領域
110 moov
113a mhex
113b ムービー時間長フィールド
120 mdat
130 moof
140 mdat
200 逆多重化装置
210 データ取得部
211 時間処理部
211a コンテンツ時間長特定部
211b トラック時間長特定部
211c 再生時間特定部
212 ランダムアクセス処理部
213 復号部
214 再生部

Claims (29)

  1. デジタル著作物であるコンテンツが多重化された多重化データを、その先頭部から取得して逆多重化する逆多重化装置であって、
    前記多重化データは、多重化されたコンテンツの一部を格納するコンテンツ格納ボックスと前記一部のコンテンツに関連する関連情報を格納する関連情報格納ボックスとの組が複数連なるとともに、前記全てのコンテンツの再生に要する総時間長を特定するための総時間長情報が前記先頭部に含まれるように構成されており、
    前記逆多重化装置は、
    前記多重化データを取得する取得手段と、
    前記取得手段により取得された前記多重化データを前記各組ごとに逆多重化処理する処理手段と、
    前記取得手段により取得された前記多重化データの先頭部に含まれる総時間長情報に基づいて、前記総時間長を特定する総時間長特定手段と、
    前記総時間長特定手段により特定された総時間長を表示する表示手段と
    を備えることを特徴とする逆多重化装置。
  2. 前記総時間長情報は、前記全てのコンテンツの再生に要する総時間長を示し、
    前記取得手段は、前記総時間長情報を含む前記多重化データを取得する
    ことを特徴とする請求項1記載の逆多重化装置。
  3. 前記多重化データは、前記組をそれぞれ有する第1及び第2の領域から構成され、
    前記総時間長情報は、前記第1の領域に含まれるコンテンツの再生に要する時間長を示す内容の第1の時間長情報と、前記第2の領域に含まれるコンテンツの再生に要する時間長を示す内容の第2の時間長情報とから構成されており、
    前記総時間長特定手段は、
    前記第1の時間長情報により示される時間長と、前記第2の時間長情報により示される時間長とを足し合わせることで、前記総時間長を特定する
    ことを特徴とする請求項1記載の逆多重化装置。
  4. 前記多重化データは、そこに含まれる前記コンテンツに応じて、第1の領域、又は前記組をそれぞれ有する第1及び第2の領域から構成され、
    前記多重化データが第1の領域から構成されるときには、前記総時間長情報は、前記第1の領域に含まれるコンテンツの再生に要する時間長を示し、
    前記多重化データが第1及び第2の領域から構成されるときには、前記総時間長情報は、前記第1の領域に含まれるコンテンツの再生に要する時間長を示す内容の第1の時間長情報と、前記第2の領域に含まれるコンテンツの再生に要する時間長を示す内容の第2の時間長情報とから構成されており、
    前記総時間長特定手段は、
    前記取得手段で取得された前記多重化データが、第1の領域から構成されているか、第1及び第2の領域から構成されているかを判別し、
    第1の領域から構成されていると判別したときには、前記総時間長情報により示される時間長を前記総時間長として特定し、
    第1及び第2の領域から構成されていると判別したときには、前記第1の時間長情報により示される時間長と、前記第2の時間長情報により示される時間長とを足し合わせることで、前記総時間長を特定する
    ことを特徴とする請求項1記載の逆多重化装置。
  5. 前記総時間長情報は、前記全てのコンテンツの再生に要する総時間長、又は前記総時間長以外の所定の内容を示し、
    前記総時間長特定手段は、
    前記取得手段で取得された前記多重化データに前記総時間長情報が含まれているか否かを判別するとともに、前記総時間長情報が含まれていると判別したときには、さらに、前記総時間長情報が前記所定の内容を示しているか否かを判別し、
    前記所定の内容を示していないと判別したときには、
    前記総時間長情報により示される前記総時間長を特定し、
    前記多重化データに前記総時間長情報が含まれていないと判別したとき、又は前記総時間長情報が前記所定の内容を示していると判別したときには、
    前記総時間長を特定することができないと判別し、
    前記表示手段は、
    前記総時間長特定手段で前記総時間長が特定できないと判別されたときには、前記総時間長が不明であることを報知する
    ことを特徴とする請求項1記載の逆多重化装置。
  6. 前記多重化データは、そこに含まれる前記コンテンツに応じて、第1の領域、又は前記組をそれぞれ有する第1及び第2の領域から構成され、
    前記多重化データが第1の領域から構成されるときには、前記総時間長情報は、前記第1の領域に含まれるコンテンツの再生に要する時間長を示し、
    前記多重化データが第1及び第2の領域から構成されるときには、前記総時間長情報は、前記第1の領域に含まれるコンテンツの再生に要する時間長を示す内容の第1の時間長情報と、前記第2の領域に含まれるコンテンツの再生に要する時間長、又は前記時間長が不明であることを示す内容の第2の時間長情報とから構成されており、
    前記総時間長特定手段は、
    前記取得手段で取得された前記多重化データが、第1の領域から構成されているか、第1及び第2の領域から構成されているかを判別し、
    第1の領域から構成されていると判別したときには、前記総時間長情報により示される時間長を前記総時間長として特定し、
    第1及び第2の領域から構成されていると判別したときには、さらに、前記第2の時間長情報に基づいて、前記第2の領域に含まれるコンテンツの再生に要する時間長が不明であるか否かを判別し、
    不明でないと判別したときには、
    前記第1の時間長情報により示される時間長と、前記第2の時間長情報により示される時間長とを足し合わせることで、前記総時間長を特定し、
    不明であると判別したときには、
    前記総時間長を特定することができないと判別し、
    前記表示手段は、
    前記総時間長特定手段で前記総時間長が特定できないと判別されたときには、前記総時間長が不明であることを報知する
    ことを特徴とする請求項1記載の逆多重化装置。
  7. 前記多重化データの先頭部には、前記多重化データが第1及び第2の領域から構成されているか否かを示す領域特定情報が含められており、
    前記総時間長特定手段は、前記領域特定情報に基づいて、前記取得手段で取得された前記多重化データが、第1の領域から構成されているか、第1及び第2の領域から構成されているかを判別する
    ことを特徴とする請求項6記載の逆多重化装置。
  8. 前記逆多重化装置は、さらに、
    前記処理手段により逆多重化処理されたコンテンツを再生する再生手段と、
    前記再生手段により前記コンテンツが再生されている再生時間を特定する再生時間特定手段とを備え、
    前記表示手段は、
    前記総時間長特定手段により特定された前記総時間長に対する、前記再生時間特定手段により特定された再生時間の割合を算出し、
    所定の図形を前記割合に応じて移動させて表示する
    ことを特徴とする請求項1記載の逆多重化装置。
  9. 前記コンテンツは複数の種類から構成され、前記多重化データの先頭部には、前記各種類のコンテンツの再生に要する種別総時間長を示す種別総時間長情報が含められており、
    前記総時間長特定手段は、
    前記取得手段により取得された前記多重化データの先頭部に含まれる種別総時間長情報に基づいて前記種別総時間長を特定し、
    前記表示手段は、
    前記総時間長特定手段により特定された種別総時間長を表示する
    ことを特徴とする請求項1記載の逆多重化装置。
  10. 前記多重化データには、前記多重化されたコンテンツが複数の構成要素に分けて含まれるとともに、前記各構成要素の再生に要する要素時間長を示す内容の要素時間長情報と、複数の構成要素からなる構成単位の再生に要する単位時間長を示す単位時間長情報とが含められており、
    前記逆多重化装置は、さらに、
    所定の目標時間を示す目標時間情報を取得すると、前記要素時間長情報により示される要素時間長よりも、前記単位時間長情報により示される単位時間長を優先して用いることで、前記取得手段により取得された前記多重化データの中から、前記目標時間情報により示される目標時間に応じた構成要素を特定するランダムアクセス処理手段と、
    前記ランダムアクセス処理手段により特定された前記構成要素からコンテンツを再生する再生手段と
    を備えることを特徴とする請求項1記載の逆多重化装置。
  11. 前記ランダムアクセス処理手段は、
    先に前記各構成単位の単位時間長を加算することで、前記目標時間に応じた構成要素を検索し、
    前記目標時間に応じた構成要素がなければ、前記目標時間に最も近い前記加算結果に対して、前記各構成要素の要素時間長をさらに加算することで、前記目標時間に応じた構成要素を特定する
    ことを特徴とする請求項10記載の逆多重化装置。
  12. 前記ランダムアクセス処理手段は、
    前記単位時間長情報により示される内容が有効な単位時間長であるか否かを判別し、
    有効な単位時間長ではないと判別したときには、前記要素時間長情報により示される要素時間長を用いて、前記目標時間に応じた構成要素を特定する
    ことを特徴とする請求項11記載の逆多重化装置。
  13. デジタル著作物であるコンテンツが多重化された多重化データを格納する記憶媒体であって、
    前記多重化データは、
    多重化されたコンテンツの一部を格納するコンテンツ格納ボックスと前記一部のコンテンツに関連する関連情報を格納する関連情報格納ボックスとの組が複数連なるとともに、
    前記多重化データの先頭部には、
    前記全てのコンテンツの再生に要する総時間長を特定するための総時間長情報が含まれるように構成されている
    ことを特徴とする記憶媒体。
  14. 前記多重化データは、前記組をそれぞれ有する第1及び第2の領域から構成され、
    前記総時間長情報は、前記第1の領域に含まれるコンテンツの再生に要する時間長を示す内容の第1の時間長情報と、前記第2の領域に含まれるコンテンツの再生に要する時間長を示す内容の第2の時間長情報とから構成される
    ことを特徴とする請求項13記載の記憶媒体。
  15. 前記多重化データは、前記多重化データに含まれる前記コンテンツに応じて、第1の領域、又は前記組をそれぞれ有する第1及び第2の領域から構成され、
    前記多重化データが第1の領域から構成されるときには、前記総時間長情報は、前記第1の領域に含まれるコンテンツの再生に要する時間長を示し、
    前記多重化データが第1及び第2の領域から構成されるときには、前記総時間長情報は、前記第1の領域に含まれるコンテンツの再生に要する時間長を示す内容の第1の時間長情報と、前記第2の領域に含まれるコンテンツの再生に要する時間長を示す内容の第2の時間長情報とから構成される
    ことを特徴とする請求項13記載の記憶媒体。
  16. 前記多重化データは、前記多重化データに含まれる前記コンテンツに応じて、第1の領域、又は前記組をそれぞれ有する第1及び第2の領域から構成され、
    前記多重化データが第1の領域から構成されるときには、前記総時間長情報は、前記第1の領域に含まれるコンテンツの再生に要する時間長を示し、
    前記多重化データが第1及び第2の領域から構成されるときには、前記総時間長情報は、前記第1の領域に含まれるコンテンツの再生に要する時間長を示す内容の第1の時間長情報と、前記第2の領域に含まれるコンテンツの再生に要する時間長、又は前記時間長が不明であることを示す内容の第2の時間長情報とから構成される
    ことを特徴とする請求項13記載の記憶媒体。
  17. 前記多重化データの先頭部には、
    前記多重化データが第1及び第2の領域から構成されているか否かを示す領域特定情報が含められている
    ことを特徴とする請求項16記載の記憶媒体。
  18. 前記総時間長情報は、前記全てのコンテンツの再生に要する総時間長、又は前記総時間長が不明であることを示す
    ことを特徴とする請求項13記載の記憶媒体。
  19. デジタル著作物であるコンテンツを多重化して多重化データを生成する多重化装置であって、
    前記コンテンツを取得する取得手段と、
    前記コンテンツを多重化する多重化手段と、
    前記取得手段により取得されたコンテンツに基づき、前記コンテンツの再生に要する総時間長を特定するための総時間長情報を生成する時間長情報生成手段と、
    前記多重化手段により多重化されたコンテンツの一部を格納するコンテンツ格納ボックスと前記一部のコンテンツに関連する関連情報を格納する関連情報格納ボックスとの組が複数連なるように、さらに、前記総時間長情報生成手段により生成された総時間長情報が先頭部に含められるように、前記多重化データを生成するデータ生成手段
    とを備えることを特徴とする多重化装置。
  20. 前記データ生成手段は、
    前記組をそれぞれ有する第1及び第2の領域から前記多重化データを構成し、
    前記時間長情報生成手段は、
    前記総時間長情報を、前記第1の領域に含まれるコンテンツの再生に要する時間長を示す内容の第1の時間長情報と、前記第2の領域に含まれるコンテンツの再生に要する時間長を示す内容の第2の時間長情報とから構成する
    ことを特徴とする請求項19記載の多重化装置。
  21. 前記データ生成手段は、
    前記多重化データを、前記多重化データに含まれる前記コンテンツに応じて、第1の領域、又は前記組をそれぞれ有する第1及び第2の領域から構成し、
    前記時間長情報生成手段は、
    前記多重化データが第1の領域から構成されるときには、前記総時間長情報を、前記第1の領域に含まれるコンテンツの再生に要する時間長を示す内容として生成し、
    前記多重化データが第1及び第2の領域から構成されるときには、前記総時間長情報を、前記第1の領域に含まれるコンテンツの再生に要する時間長を示す内容の第1の時間長情報と、前記第2の領域に含まれるコンテンツの再生に要する時間長を示す内容の第2の時間長情報とから構成する
    ことを特徴とする請求項19記載の多重化装置。
  22. 前記データ生成手段は、
    前記多重化データを、前記多重化データに含まれる前記コンテンツに応じて、第1の領域、又は前記組をそれぞれ有する第1及び第2の領域から構成し、
    前記時間長情報生成手段は、
    前記多重化データが第1の領域から構成されるときには、前記総時間長情報を、前記第1の領域に含まれるコンテンツの再生に要する時間長を示す内容として生成し、
    前記多重化データが第1及び第2の領域から構成されるときには、前記総時間長情報を、前記第1の領域に含まれるコンテンツの再生に要する時間長を示す内容の第1の時間長情報と、前記第2の領域に含まれるコンテンツの再生に要する時間長、又は前記時間長が不明であることを示す内容の第2の時間長情報とから構成する
    ことを特徴とする請求項19記載の多重化装置。
  23. 前記データ生成手段は、
    前記多重化データが第1及び第2の領域から構成されているか否かを示す領域特定情報を先頭部に含めて前記多重化データを生成する
    ことを特徴とする請求項22記載の多重化装置。
  24. 前記時間長情報生成手段は、
    前記全てのコンテンツの再生に要する総時間長、又は前記総時間長が不明であることを示す内容の前記総時間長情報を生成する
    ことを特徴とする請求項19記載の多重化装置。
  25. デジタル著作物であるコンテンツが多重化された多重化データを、その先頭部から取得して逆多重化する逆多重化方法であって、
    前記多重化データは、多重化されたコンテンツの一部を格納するコンテンツ格納ボックスと前記一部のコンテンツに関連する関連情報を格納する関連情報格納ボックスとの組が複数連なるとともに、前記全てのコンテンツの再生に要する総時間長を特定するための総時間長情報が前記先頭部に含まれるように構成されており、
    前記逆多重化方法は、
    前記多重化データを取得する取得ステップと、
    前記取得ステップで取得された前記多重化データを前記各組ごとに逆多重化処理する処理ステップと、
    前記取得ステップで取得された前記多重化データの先頭部に含まれる総時間長情報に基づいて、前記総時間長を特定する総時間長特定ステップと、
    前記総時間長特定ステップにより特定された総時間長を表示する表示ステップと
    を含むことを特徴とする逆多重化方法。
  26. 前記多重化データは、前記組をそれぞれ有する第1及び第2の領域から構成され、
    前記総時間長情報は、前記第1の領域に含まれるコンテンツの再生に要する時間長を示す内容の第1の時間長情報と、前記第2の領域に含まれるコンテンツの再生に要する時間長を示す内容の第2の時間長情報とから構成されており、
    前記総時間長特定ステップでは、
    前記第1の時間長情報により示される時間長と、前記第2の時間長情報により示される時間長とを足し合わせることで、前記総時間長を特定する
    ことを特徴とする請求項25記載の逆多重化方法。
  27. デジタル著作物であるコンテンツを多重化して多重化データを生成する多重化方法であって、
    前記コンテンツを取得する取得ステップと、
    前記コンテンツを多重化する多重化ステップと、
    前記取得ステップで取得されたコンテンツに基づき、前記コンテンツの再生に要する総時間長を特定するための総時間長情報を生成する時間長情報生成ステップと、
    前記多重化ステップで多重化されたコンテンツの一部を格納するコンテンツ格納ボックスと前記一部のコンテンツに関連する関連情報を格納する関連情報格納ボックスとの組が複数連なるように、さらに、前記総時間長情報生成ステップで生成された総時間長情報が先頭部に含められるように、前記多重化データを生成するデータ生成ステップ
    とを含むことを特徴とする多重化方法。
  28. 前記データ生成ステップでは、
    前記組をそれぞれ有する第1及び第2の領域から前記多重化データを構成し、
    前記時間長情報生成ステップでは、
    前記総時間長情報を、前記第1の領域に含まれるコンテンツの再生に要する時間長を示す内容の第1の時間長情報と、前記第2の領域に含まれるコンテンツの再生に要する時間長を示す内容の第2の時間長情報とから構成する
    ことを特徴とする請求項27記載の多重化方法。
  29. デジタル著作物であるコンテンツが多重化された多重化データを、その先頭部から取得して逆多重化する逆多重化方法をコンピュータに実行させるプログラムであって、
    前記多重化データは、多重化されたコンテンツの一部を格納するコンテンツ格納ボックスと前記一部のコンテンツに関連する関連情報を格納する関連情報格納ボックスとの組が複数連なるとともに、前記全てのコンテンツの再生に要する総時間長を特定するための総時間長情報が前記先頭部に含まれるように構成されており、
    前記プログラムは、
    前記多重化データを取得する取得ステップと、
    前記取得ステップで取得された前記多重化データを前記各組ごとに逆多重化処理する処理ステップと、
    前記取得ステップで取得された前記多重化データの先頭部に含まれる総時間長情報に基づいて、前記総時間長を特定する総時間長特定ステップと、
    前記総時間長特定ステップにより特定された総時間長を表示する表示ステップと
    を含むことを特徴とするプログラム。
JP2003118603A 2002-04-26 2003-04-23 逆多重化装置 Expired - Fee Related JP4436617B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003118603A JP4436617B2 (ja) 2002-04-26 2003-04-23 逆多重化装置

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2002126028 2002-04-26
US37864402P 2002-05-09 2002-05-09
JP2003118603A JP4436617B2 (ja) 2002-04-26 2003-04-23 逆多重化装置

Publications (3)

Publication Number Publication Date
JP2004007610A true JP2004007610A (ja) 2004-01-08
JP2004007610A5 JP2004007610A5 (ja) 2006-03-30
JP4436617B2 JP4436617B2 (ja) 2010-03-24

Family

ID=30449172

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003118603A Expired - Fee Related JP4436617B2 (ja) 2002-04-26 2003-04-23 逆多重化装置

Country Status (1)

Country Link
JP (1) JP4436617B2 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007129716A (ja) * 2005-11-04 2007-05-24 Lg Electronics Inc モバイル通信ターミナル及びモバイル通信ターミナルのメディア再生時間を計算する方法
JP2008113452A (ja) * 2007-11-19 2008-05-15 Kyocera Corp ディジタル放送受信装置
JP2009500909A (ja) * 2005-07-01 2009-01-08 マイクロソフト コーポレーション 対話型マルチメディア・プレゼンテーション管理の同期性
US8656268B2 (en) 2005-07-01 2014-02-18 Microsoft Corporation Queueing events in an interactive media environment
US8799757B2 (en) 2005-07-01 2014-08-05 Microsoft Corporation Synchronization aspects of interactive multimedia presentation management
JPWO2013088986A1 (ja) * 2011-12-16 2015-04-27 ソニー株式会社 受信装置及びその制御方法、配信装置及び配信方法、プログラム、並びに配信システム
WO2015083354A1 (ja) * 2013-12-03 2015-06-11 パナソニックIpマネジメント株式会社 ファイル生成方法、再生方法、ファイル生成装置、再生装置および記録媒体
US20180196635A1 (en) * 2015-08-06 2018-07-12 Sony Corporation Information processing device, information processing method, and program

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009500909A (ja) * 2005-07-01 2009-01-08 マイクロソフト コーポレーション 対話型マルチメディア・プレゼンテーション管理の同期性
US8656268B2 (en) 2005-07-01 2014-02-18 Microsoft Corporation Queueing events in an interactive media environment
US8799757B2 (en) 2005-07-01 2014-08-05 Microsoft Corporation Synchronization aspects of interactive multimedia presentation management
JP2007129716A (ja) * 2005-11-04 2007-05-24 Lg Electronics Inc モバイル通信ターミナル及びモバイル通信ターミナルのメディア再生時間を計算する方法
JP2008113452A (ja) * 2007-11-19 2008-05-15 Kyocera Corp ディジタル放送受信装置
JPWO2013088986A1 (ja) * 2011-12-16 2015-04-27 ソニー株式会社 受信装置及びその制御方法、配信装置及び配信方法、プログラム、並びに配信システム
WO2015083354A1 (ja) * 2013-12-03 2015-06-11 パナソニックIpマネジメント株式会社 ファイル生成方法、再生方法、ファイル生成装置、再生装置および記録媒体
US20180196635A1 (en) * 2015-08-06 2018-07-12 Sony Corporation Information processing device, information processing method, and program
US10656900B2 (en) * 2015-08-06 2020-05-19 Sony Corporation Information processing device, information processing method, and program

Also Published As

Publication number Publication date
JP4436617B2 (ja) 2010-03-24

Similar Documents

Publication Publication Date Title
CN105612753B (zh) 媒体流传输期间在适配集合间的切换方法和装置
KR101516325B1 (ko) Iso 기반 미디어 파일 포맷으로 mpeg-2전송스트림을 저장 및 재생하는 방법 및 장치
US7139470B2 (en) Navigation for MPEG streams
CN103959802B (zh) 影像提供方法、发送装置以及接收装置
JP5346338B2 (ja) ビデオを索引化する方法及びビデオを索引化する装置
KR100941248B1 (ko) 기록 장치 및 방법, 재생 장치 및 방법, 기록 재생 장치, 컴퓨터 판독가능한 기록 프로그램 기록 매체, 및 컴퓨터 판독가능한 재생 프로그램 기록 매체
CN105103540B (zh) 文件生成方法、文件生成装置及记录介质
CN103069812B (zh) 提供基于分段的多媒体流服务的方法及装置、接收基于分段的多媒体流服务的方法及装置
EP2416321B1 (en) Data generating device and data generating method, and data processing device and data processing method
HUE029013T2 (en) Subband fragment layout for streaming video data
US7558296B2 (en) Multiplexer and demultiplexer
WO2003030126A2 (en) System and method for transmitting multimedia information streams, for instance for remote teaching
CN112369016A (zh) 信息处理装置、信息处理方法和程序
US20070292102A1 (en) Image processing method, image processing device, image processing program and image browsing system
JP2011228862A (ja) データ構造、画像処理装置、画像処理方法、およびプログラム
JP4436617B2 (ja) 逆多重化装置
Angelides et al. The handbook of MPEG applications: standards in practice
EP1501301A1 (en) Demultiplexing device
WO2014048576A2 (en) System for video clips
KR100918537B1 (ko) 역다중화 장치
JP2006222930A (ja) 情報記録装置、情報再生装置、情報記録プログラムおよび情報再生プログラム
KR101995270B1 (ko) 비디오 데이터를 재생하는 방법 및 장치
JP4383721B2 (ja) 多重化分離装置
US20090119314A1 (en) Method for Storing Individual Data Elements of a Scalable Bit Stream in File, and Associated Device
JP2006304103A (ja) 動画記録装置、および動画記録再生装置

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20030509

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20030604

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20030609

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060210

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090127

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090319

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091201

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091228

R150 Certificate of patent or registration of utility model

Ref document number: 4436617

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130108

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130108

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees