JP4481889B2 - データ記録装置及びその方法、プログラム、記録媒体 - Google Patents

データ記録装置及びその方法、プログラム、記録媒体 Download PDF

Info

Publication number
JP4481889B2
JP4481889B2 JP2005188297A JP2005188297A JP4481889B2 JP 4481889 B2 JP4481889 B2 JP 4481889B2 JP 2005188297 A JP2005188297 A JP 2005188297A JP 2005188297 A JP2005188297 A JP 2005188297A JP 4481889 B2 JP4481889 B2 JP 4481889B2
Authority
JP
Japan
Prior art keywords
data
recording
fragment
recorded
file
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005188297A
Other languages
English (en)
Other versions
JP2007012112A (ja
JP2007012112A5 (ja
Inventor
亨 強矢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2005188297A priority Critical patent/JP4481889B2/ja
Priority to US11/425,464 priority patent/US7817903B2/en
Publication of JP2007012112A publication Critical patent/JP2007012112A/ja
Publication of JP2007012112A5 publication Critical patent/JP2007012112A5/ja
Application granted granted Critical
Publication of JP4481889B2 publication Critical patent/JP4481889B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/32Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier
    • G11B27/322Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier used signal is digitally coded
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/84Television signal recording using optical recording
    • H04N5/85Television signal recording using optical recording on discs or drums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/907Television signal recording using static stores, e.g. storage tubes or semiconductor memories
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/806Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal
    • H04N9/8063Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal using time division multiplex of the PCM audio and PCM video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)

Description

本発明は比較的長時間にわたるマルチメディアファイルの記録に好適なデータ記録方法および装置およびプログラムに関する。
近年、動画・音声符号化形式の多様化にともない、様々な形式を均一的な枠組みの中で相互接続可能な形で処理出来るようにする必要性が高まってきている。そこで、ISO/IEC JTC1/SC29/WG11(International Organization for Standardization/International Engineering Consortium)によって、MPEGなどの動画・音声のコンテンツデータをファイルに記録するために「ISO Base Media File Format」という汎用のファイル形式が規格化されている(非特許文献1参照)。
このファイル形式は特定の符号化形式を前提とはしていない基本ファイル形式として定義されており、所定の符号化形式や目的に適合させるにはこの規格を部分的に拡張した規格を別途定義することによって対応するといった特徴を持っている。その拡張の代表例として、MPEG−4の動画・音声符号化データを記録するための標準ファイル形式である「MP4ファイル形式」(非特許文献2参照)のようなものがある。また、同じくMPEG−4の動画・音声を扱う形式であるが、第三世代携帯電話を中心とする無線端末上での利用を前提に制約が課せられた動画ファイル規格として、3GPP(Third Generation Partnership Project)によって定められた3GPPファイル形式(非特許文献3参照)のようなものもある。
近年では、デジタルカメラや携帯電話などの機器で動画・音声データをMPEG−4形式で符号化してファイルに記録する際の記録形式として、上記のようなファイル形式を採用するケースが増えてきており、今後更に普及するものと考えられる。
ISO/IEC 14496−12;"Information technology−−Coding of audio−visual objects−−Part 12:ISO base media file format";ISO/IEC;2004−01−23 ISO/IEC 14496−14;"Information technology−−Coding of audio−visual objects−−Part 14:MP4 file format";ISO/IEC;2003−11−24 3GPP TS 26.244"Technical Specification Group Services and System Aspects Transparent end−to−end packet switched streaming service (PSS);3GPP file format (3GP) (Release 6)"3rd Generation Partnership Project;2003−02−28
MPEG−4は比較的高圧縮な符号化方式であり、ストリーミング配信などにおいてもエラー訂正技術などにおいて優れていることから、記録データの蓄積も考慮した監視カメラ(監視ビデオ)などへの応用も進められている。そこで、監視映像及び音声の蓄積に注目すると、長時間の監視映像及び音声を記録メディアに残したいというニーズに対しては、記録メディアに十分な容量が用意されていない場合、記録メディアの容量を使い切った時点で記録を終了されていた。
最新のデータは残しておきたいというニーズに対しては、ファイルを分割して記録するなどして、容量が足りなくなったら古いデータを削除して新しいデータを追記するような処理方法が考えられるが、この処理方法で最新のデータを記録メディアに残す場合、ファイルがバラバラで記録されるためハンドリングを良くするためにプレイリストなどで対応付けする手法などが考えられる。しかし、この場合、他の再生処理系にデータを移動した場合にプレイリストの機能が使用できないなど、データの汎用性やハンドリングの点で問題が発生する可能性が高い。
このように、監視ビデオのように比較的長時間の動画像や音声データを、容量に限りのある記録メディアに最新のデータを優先して記録する場合には、記録したデータの扱いの点において、汎用性やハンドリングなどの点で問題があった。
本発明は前記の問題を解決するため、容量に限りのある記録メディアに、最新のデータを優先して残すように記録することが可能で、尚且つ記録したデータの汎用性を損なわない技術を提供することを目的とする。
上記の目的を達成するため、本発明に係るデータ記録装置は、動画像データと音声データのうち少なくとも1つのメディアデータを記録するデータ記録装置であって、前記メディアデータをフラグメント単位で記録する記録手段と、前記フラグメントを時系列順に連結する連結手段と、前記動画像データあるいは音声データに閾値を超える変化があった場合、前記閾値を超える変化があった動画像データあるいは音声データのメディアデータのフラグメントに、変化があったことを示すフラグをセットする設定手段と、前記フラグメントが前記記録手段によりクラスタ境界から記録されるように制御すると共に、前記記録手段により記録されたデータ容量が所定のデータ容量に達したあとに記録されるフラグメントが、前記記録手段により記録済のフラグメントであって前記変化があったことを示すフラグがセットされていないフラグメントのうち記録順序が最も古いフラグメントが記録されたクラスタ境界から記録されるように制御する記録制御手段と、前記記録手段により記録されたデータ容量が前記所定のデータ容量に達したあとに前記メディアデータの先頭のフラグメントに上書きでフラグメントを記録した場合、当該フラグメントの記録後に記録されているフラグメントのうち記録順序が最も古いフラグメントのヘッダ情報を先頭のフラグメントであることを示す形式のヘッダ情報に変換するヘッダ変換手段と、前記ヘッダ変換手段によって変換されたヘッダ情報と、前記記録手段によりクラスタ境界から記録され前記連結手段により時系列順に連結されたフラグメントとに基づいて、ファイルを生成するファイル生成手段とを有する。
また本発明に係るデータ記録方法は、動画像データと音声データのうち少なくとも1つのメディアデータをフラグメント単位で記録手段に記録するデータ記録装置が行うデータ記録方法であって、前記フラグメントを時系列順に連結する連結工程前記フラグメントが前記記録手段によりクラスタ境界から記録されるように制御すると共に、前記記録工程により記録されたデータ容量が所定のデータ容量に達したあとに記録されるフラグメントが、前記記録手段により記録済のフラグメントのうち記録順序が最も古いフラグメントが記録されたクラスタ境界から記録されるように制御する記録制御工程と、前記記録手段により記録されたデータ容量が前記所定のデータ容量に達したあとにフラグメントを記録した場合、当該フラグメントの記録後に記録されているフラグメントのうち記録順序が最も古いフラグメントのヘッダ情報を先頭のフラグメントであることを示すヘッダ情報に変換するヘッダ変換工程と、前記ヘッダ変換工程によって変換されたヘッダ情報と、前記記録手段によりクラスタ境界から記録され前記連結工程により時系列順に連結されたフラグメントとに基づいて、ファイルを生成するファイル生成工程とを有することを特徴とする。
本発明によれば、容量に限りのある記録メディアに長時間の動画像及び音声を記録する場合などに、最新のデータを優先して、汎用性に優れたファイル形式で記録することが可能になる。
以下、本発明の実施形態を、図面を参照しながら詳細に説明する。
なお、本発明の実施形態は処理対象のファイルがMP4ファイル形式である場合を中心に解説しているが、MP4に限らず類似のファイル形式を用いるケースに対しても適用できる。例えば、ISOではMP4と同様の基本構造を持つファイル形式規格として、「Motion JPEG 2000ファイル形式」(ISO/IEC 15444−3)や、「AVCファイル形式」(ISO/IEC 14496−15)といった標準規格が制定されている。これらの標準規格や、前述の3GPPファイル形式など、MP4で規定されるものと類似のファイル形式およびアーキテクチャが採用されている規格に対しても、本発明の一部あるいは全部を適用することが可能である。
図1は、上記のMP4ファイル形式におけるデータ構造を説明するための概念図である。
MP4ファイル101は、映像・音声データの物理的位置、時間的位置や特性情報を示すメタデータ(ヘッダ情報)102と、符号化された映像・音声データの実体を示すメディアデータ103から構成されている。
MP4形式では、コンテンツ全体のプレゼンテーションを「ムービー」、コンテンツを構成するメディアストリームのプレゼンテーションを「トラック」と呼んでいるが、メタデータ102には、典型的には、動画像のデータ全体を論理的に取り扱うビデオトラック104と音声のデータ全体を論理的に取り扱うオーディオトラック105が含まれており、ビデオトラック104とオーディオトラック105の基本的な構成内容は、ほとんど同等のものとなっている。
すなわち、それぞれのトラックは、実際のメディアデータの様々なメタデータ情報を記録しており、その内容がメディアデータの特性に応じて多少異なっているだけである。
ビデオトラック104に含まれるデータは、例えば、符号化データを復号化するための所謂デコーダの構成情報や動画像の矩形サイズなどの情報が含まれ、加えて、メディアデータが実際に記録されているファイル上の位置を示すオフセット106や、メディアデータのそれぞれのフレームデータ(ピクチャと呼ばれることもある)のサイズを示すサンプルサイズ107、それぞれのフレームデータのデコード時間を示すタイムスタンプ108などが記録されている。
一方、メディアデータ103には、符号化データの基本単位を示す「サンプル」が連続して1つ以上記録されている「チャンク」と呼ばれるデータ構造により、動画像のデータと音声のデータの実体が記録されている。このチャンクは、メタデータ102のトラックに従って、動画像のメディアデータを含むビデオチャンク109と音声のメディアデータを含むオーディオチャンク310とにより構成されている。
図1に示す構成は、ビデオチャンク109とオーディオチャンク310が交互に記録されているように示しているが、その記録位置や順序は必ずしもこのようになっている必要はない。この例は、一般的に記録される形式の一例に過ぎない。しかしながら、このような交互の配置(インターリーブ)は、ほぼ同時刻に再生されるべき動画と音声のデータを近い位置に配置することにより、ファイルに記録されたデータのアクセス性を高めるといった効果があり、極めて一般的に見られる方法である。
チャンクには、個々のメディアデータのサンプルがひとつ以上含まれている。例えば、図1に示すように、ビデオチャンク109には、ビデオサンプル(フレーム)311が連続して記録される。一般的には、このビデオサンプル(フレーム)311は、ビデオのひとつのフレームデータ(ピクチャ)に相当する。
それぞれのトラックとチャンクは次のように関連付けられている。
例えば動画像のデータの場合、ビデオトラック104に含まれる情報は、メディアデータ103に含まれるそれぞれのビデオチャンク109に関する情報を含んでいる。
オフセット106は、ビデオチャンク109のそれぞれのファイル上の相対位置を示す情報のテーブルから構成されており、テーブルの個々のエントリを参照することにより、どの位置に実際のビデオチャンクが記録されていてもその位置を知ることができるようになっている。
サンプルサイズ107は、複数のチャンク内に含まれる複数のサンプル、すなわちビデオのフレームのそれぞれのサイズをテーブルとして記載している。より正確には、個々のチャンクの中に含まれるサンプルの数を記載した情報もビデオトラック104の中に記載されており、これらの情報から、個々のビデオチャンク109の中に含まれるサンプルを正確に取得することが可能となっている。
タイムスタンプ108は、個々のサンプルのデコード時間をサンプル間の差分としてテーブルに記録するようになっている。このテーブルを参照することにより、それぞれのサンプルの所謂タイムスタンプを積算時間を計算することにより取得することが可能となる。
このような、トラックとチャンクの関係は、オーディオトラック105とオーディオチャンク310についても同様に成立するよう定義されている。
これによって、MP4ファイルおよびISO Base Media File Formatにおいては、メタデータ102とメディアデータ103により、符号化データを必要な単位で任意の位置からタイムスタンプなどの付加情報を持って取得することが出来るようになっている。
なお、説明を簡単にするために、ここには規格化されているすべての記録情報については記載していないことに注意しなければならない。規格化されている定義内容の詳細は、ISO/IEC 14496の該当部分を参照することで知ることができる。
MP4ファイル形式では、ファイルに記録されるデータは「BOX」と呼ばれるデータ構造の内部に記述され、BOXを単位としてファイルに記録される。
図2はBOXのフィールド定義を示す図である。BOXは、次のようなフィールドから構成される。
Size:sizeフィールド自体を含む、BOX全体のサイズ。
Type:BOXの種類を表す4バイトのタイプ識別子。通常は4文字の英数字で表される。
その他のフィールドはBOXによってはオプションであるため、ここでは説明を省略する。
ファイル中に記録されるデータは、その種類によって異なるタイプのBOXに保持される。例えば、メディアデータ103は符号化データを格納するMedia Data BOX(typeフィールドの内容は‘mdat’。以降の説明でBOXのタイプを示す識別子が用いられる場合は、そのタイプで示されるBOXを表現しているものとする)として、メタデータ102はコンテンツ全体のメタデータ情報を格納するMovie BOX(‘moov’)として記録される。
また、前述のチャンクおよびサンプルに関する情報については、チャンクのファイル中でのオフセット位置はChunk Offset BOX(‘stco’)、サンプルとチャンクとの対応関係はSample To Chunk BOX(‘stsc’)、各サンプルの時間情報はTime To Sample BOX(‘stts’)、各サンプルのサイズ情報はSample Size BOX(‘stsz’)、ランダムアクセス可能なサンプルの情報はSync Sample BOX(‘stss’)、サンプルに適用される特性情報はSample Description BOX(‘stsd’)といったBOXとして、Movie BOXの内部にトラック毎に記録される。
また、MP4ファイル形式では、moovにすべてのメタデータを記録する形だけではなく、メタデータを時系列順に複数の領域に分割して記録するような形式も許可している。この形式は「フラグメントムービー」(Fragmented Movie)と呼ばれている。
図3に、フラグメントムービー形式のファイルの構造を示す。フラグメントムービー形式では、コンテンツのメディアデータおよびメタデータは任意の時間単位で分割することができ、分割された「フラグメント」はファイルの先頭から時系列順に記録される。例えば図3では、moov301は最初のフラグメントのメタデータを示しており、mdat302に含まれるデータに関する情報を保持する。次に出現するmoof303は2番目のフラグメントのメタデータであり、mdat304の情報を保持する、というように以下同様にして記録される。
このように、MP4ファイル形式のファイルでは、メディアデータに関する各種属性をメタデータ領域としてメディアデータと分離して保持することによって、メディアデータが物理的にどのように格納されているかに関わらず、所望のサンプルデータに容易にアクセスすることが可能になる。
本発明における動画像及び音声データの記録方法は、図4に示すように、フラグメントムービー形式で記録メディアに書き込む際に、各フラグメントはクラスタの境界から記録を始め、ある一定時間記録したら、次のクラスタ境界から続きのフラグメントの記録を開始するという動作を繰り返す。
即ち、moov401はクラスタ境界から記録を始め、ある一定時間分moov401とmdat402を記録したら、mdat402の最後から次の空き領域のクラスタ境界まで移動(407)して、次のフラグメントmoof403とmdat404の記録を行ない、このフラグメントの記録が終了したら再び次の空き領域のクラスタ境界まで移動(408)して、同様にフラグメントmoof405とmdat406の記録を行なうという動作を繰り返す。
通常は各フラグメントの記録をクラスタ境界から始める必要は無いが、各フラグメントの記録はクラスタ境界から始めることで、高速に各フラグメントを時間順に並び替えて連結することが可能となる。この連結手段については後で詳細に説明する。
尚、mdatのデータの終端から次のクラスタ境界までの空き領域は最終的にFree Space BOX(‘free’)に設定する必要があるが、この設定は、記録中に随時行なっても、記録終了時にまとめて行なっても良い。
この記録メディアには、メモリカードやハードディスク、又はDVD(Digital Versatile Disc)に代表される書き込み可能なディスクメディアなどが考えられるが、これらの記録メディアにはそれぞれ記録可能な容量に制限があるため、前記の動作で動画像及び音声データを記録していくと記録容量に達した時点で新しいデータを書き込むことが出来なくなる。
そこで本発明では、図5のように記録したデータが、記録メディアの容量一杯や又は任意に設定した容量制限に達した時点で、先頭のmoov形式のヘッダ情報を持つデータも含めて、最も古いフラグメントからデータを削除し、新しいデータはその削除した領域に記録していく。
即ち、容量制限に達した時点で最初に削除されるデータは、通常、フラグメントムービーの先頭にあたるmoov形式のヘッダ情報(メタデータ)と、そのmoovに対応するmdat(メディアデータ)となり、このデータを削除してmoof形式のメタデータとそれに対応するmdatの形で新しいデータを記録する。続いて削除されるデータはmoof形式で最初に記録されたメタデータとそれに対応するmdatであり、削除した領域にはやはりmoofとmdatの形式で新しいデータを記録するという動作を繰り返すことで、常に新しいデータがファイルに上書きされていくようになる。
なお実際には、符号化形式にも因るが、一定時間分のメディアデータのサイズは必ずしも一定のサイズにはならないため、前述のようなデータの上書き処理を行なう際には、新しく書き込むデータのサイズが、書き込み用に用意した領域のサイズより大きくなってしまわないように制御する必要がある。つまり、2つ以上のフラグメントを一度に削除して、新しいデータを書き込む領域を確保する場合もあり得る。
記録終了時、図6のように先頭のデータ(moov形式のメタデータ)が残されている場合には、moov605内にある全フラグメントを含む最終的なコンテンツ全体のdurationをセットし、各フラグメント間にある空き領域(601,602)がfreeに設定されていなければこれを設定(603,604)して、フラグメントムービー形式のMP4ファイルを生成する。
一方、図7のように先頭のデータが削除されて残っていない場合には、まず残されたフラグメントの中で時間的に最も古いデータをファイルの先頭にするため、moof形式のメタデータをmoov形式のメタデータに変換する必要がある。以降、ファイル構成上、時間順に各フラグメントを並び替えて連結し、各フラグメントのmoofに含まれるオフセット情報を正しい値にセットする必要がある。更に各フラグメント間の空き領域がfreeに設定されていなければこれを設定して、フラグメントムービー形式のMP4ファイルを生成する。
(第1の実施の形態)
図8は、本実施形態における動画像及び音声のマルチメディアデータの最新データを記録メディアに残すように記録するための情報処理装置の構成を示すブロック図である。
図8において、CPU801はROM802あるいはRAM803あるいは外部記憶装置804に格納された制御プログラムとして記述された記録処理を実行する。外部記憶装置804によって格納された制御プログラムは、RAM803にロードされ、CPU801によって実行されることになる。
映像入力装置810から映像I/F805を介して入力された映像データ、および、音声入力装置811から音声I/F806を介して入力された音声データは、メディアドライブI/F808を介してメモリカードやCD(Compact Disc)、DVDなどのメディア812に記録される。また、ネットワークI/F807を介してネットワーク(インターネット、LANを含む。有線、無線を問わない)越しの外部ストレージに記録しても良い。
また、上記各構成はバス809により相互に通信可能に接続され、各種機能が達成される。
図9は本発明の実施形態において、上記のマルチメディアデータの記録処理を実行する機能モジュールの構成例である。このモジュール構成は、図8の情報処理装置において、CPUが実行するマルチメディアデータ記録処理プログラムの構成要素を示す。
図9においてデータ記録処理部901は、まず始めに動作制御に必要なパラメータとして、これから記録する各フラグメントの時間長、記録するメディアの空き容量、出力するファイルサイズの上限値、入力される動画像または音声データのビットレートなどを受け取り、記録するデータとして動画像或いは音声のデータが入力され、上記パラメータによる制御を行ないながらファイルにデータを記録していく。
連結処理部902は、ファイルへのデータ記録処理が終了した後、各フラグメントの順番を時系列順に整列して連結する(再構成する)機能を有する。
ファイル出力部903は、再構成されたファイルをMP4のフラグメントムービー形式として正しいデータになるように、メタデータの変換処理や、オフセット値の補正処理などを行ない、出力ファイルとして記録メディアに出力する。
続いて、本実施形態で行われるデータ記録処理の基本的な手順について、図10のフローチャートを用いて説明する。
まず、ステップS101において、動作制御に必要なパラメータとして、これから記録する各フラグメントの時間長、記録するメディアの空き容量、出力するファイルサイズの上限値、入力される動画像または音声データのデータレート(ビットレート)などを受け取り、メモリ上などに保持する。
次にステップS102において、入力されるメディアデータのデコードのために必要な情報や、ファイルの識別のために任意に入力される情報などを受け取り、また、これから生成するフラグメントムービー形式のヘッダ情報(メタデータ)を形成するために必要なメモリの初期化処理などを行なう。
続いてステップS103において、入力されたメディアデータをファイルに記録する処理を開始する。
続くステップS104では、データ記録中に任意のタイミングで記録終了の指示が行なわれた場合に、ステップS105の動画記録終了処理へと処理を移行させる。動画記録終了処理の内容については図11の説明の中で後述する。
次にステップS106において、現在記録中のフラグメントに記録されたデータの再生時間長がステップS101にて入力されたフラグメントの時間長に達したか否かの判定が行なわれる。まだ達していない場合(Yes)は、ステップS103に戻りさらにデータを記録し、達している場合(No)は、ステップS107の処理へと移行する。
ステップS107では、記録中のファイルサイズが出力ファイルサイズの上限値に達したか否かの判定が行なわれる。上限に達している場合(Yes)、ステップS108へ進み、記録されたファイル中の先頭を含めたフラグメントのなかで最も古いデータからデータ削除を実行し、ステップS103に戻り、データ削除を行なった領域に新しいデータの記録を実行する。この時のデータ削除は、実際にファイル中に書き込まれているデータを初期化する必要は無く、現在書き込まれている有効なフラグメントの物理的および時間軸上の位置を識別できるように、メモリ上や別ファイルなどに有効なフラグメント全ての先頭アドレスとサイズ、及び録画開始時間を記録し、随時更新することで対応可能である。
一方、まだ上限に達していない場合(No)は、ステップS109において、現在のメディアデータの書き込み位置から最も近いクラスタ境界までの領域をFree Space BOX(‘free’)に設定し、ステップS110へ移行する。
ステップS110では、次のフラグメントの書き出し位置をクラスタ境界に設定し、ステップS103に戻り処理を継続する。
引き続き、図10のステップS105における動画記録終了処理の内容について説明するにあたり、フラグメントムービーの先頭以外のヘッダ情報(メタデータ)を先頭のヘッダ情報(メタデータ)の形式に再構成しなければならないケースが生じる。そのため、まずフラグメントムービー形式における分割されたメタデータの、先頭とそれ以外の形式の違いについて簡単に説明する。
<メタデータの再構成(変換)処理>
図12は、フラグメントムービー形式のファイル構成の概略を示すものである。図において、フラグメントムービー形式のファイルの場合、最初のmoovに含まれるMovie Extends BOX(‘mvex’)に含まれるMovie Extends Header BOX(‘mehd’)のfragment_durationフィールドには、全フラグメントを含むコンテンツ全体のdurationをセットしなければならない。また、moofに含まれるTrack Fragment BOX(‘traf’)に含まれるTrack Fragment Header(‘tfhd’)のbase_data_offsetフィールド、およびtrafに含まれるTrack Fragment Run BOX(‘trun’)のdata_offsetフィールドには、それぞれ後続のmdatの基準オフセット、および基準オフセットからの相対オフセットをセットしなければならない。
したがって、メタデータの再構成処理では、上記に述べたような形式の違いを考慮した変換処理を行わなければならない。
続いて、図10のステップS105における動画記録終了処理の内容について、図11のフローチャートを用いて説明する。
まずステップS201において、フラグメントムービー形式のMP4の先頭のヘッダ情報形式であるmoovが、有効なフラグメントとして残されているかどうかチェックする。
moov形式のヘッダ情報(メタデータ)が残されている場合、フラグメントの削除は発生していないので、ファイル中の論理的なデータの並び順は時系列順に並んでいるので、この場合、フラグメント単位でのデータの並べ替えを行なう必要は無く、記録終了時に確定したムービー全体のdurationを設定すれば正しいMP4ファイルを生成できる。
即ち、図6のように先頭のデータ(moov形式のメタデータ)が残されている場合には、moov605内にあるMovie Extends BOX (‘mvex’)に含まれるMovie Extends Header BOX(‘mehd’)のfragment_durationフィールドに、全フラグメントを含む最終的なコンテンツ全体のdurationをセットすることでフラグメントムービー形式のMP4ファイルを生成できる。
一方、moov形式のヘッダ情報(メタデータ)が残されていない場合、ステップS203のヘッダ形式変換処理により、moov形式のヘッダ情報を生成する必要がある。
即ち、図7のように先頭のデータ(moov形式のメタデータ)が削除されて残っていない場合には、記録されたmoof形式のヘッダを持つフラグメントの中で時系列的に最も古いデータをファイルの先頭にするため、そのmoof形式のヘッダをmoov形式のヘッダに変換し、以降、ステップS204において、時系列順にフラグメントを並び替えて連結する。moof形式のヘッダをmoov形式のヘッダに変換する方法、及び、時系列順にフラグメントを並び替えて連結する方法については後述する。
続いてステップS205において、フラグメント単位の並び変えにより、各フラグメントのヘッダ情報にもともと設定されていた、ファイル中の位置を表すオフセット値が正しくない値になるため、このオフセット値を再設定する必要がある。
即ち、各フラグメントのmoofに含まれるTrack Fragment BOX(‘traf’)に含まれるTrack Fragment Header(‘tfhd’)のbase_data_offsetフィールド、およびtrafに含まれるTrack Fragment Run BOX(‘trun’)のdata_offsetフィールドに、それぞれ後続のmdatの基準オフセット、および基準オフセットからの相対オフセットを正しい値に再設定する必要がある。
この時、基準オフセット(base_data_offset)には、予め各フラグメントの先頭のオフセット値を設定するようにしておくと、本実施形態のようにフラグメント単位でファイル中での配置が変更されても変更を要するのは基準オフセットのみで、相対オフセット(data_offset)の値は変更する必要が無いため、処理が容易になる。
最後に、ステップS206において、ファイルをクローズし、ムービーフラグメント形式のMP4として正しいファイルを出力する。ステップS201からステップS202を経てステップS206に至る処理のものは、通常のムービーフラグメント形式のMP4生成と同様の処理手順である。
なお、図11のステップS203とステップS204は処理の順番が入れ替わっても良い。但し、ステップS203のヘッダ変換処理により、基のmoof形式のヘッダ領域よりも変換後のmoov形式のヘッダ領域の方が大きくなる場合には、オフセット値に影響が出る可能性があるので、図11の通りの順番で処理した方が処理の冗長性を防ぐ意味では望ましい。
ここで、図11のステップS203におけるmoofからmoovへの変換処理について、図13のフローチャートを用いて説明する。
なお説明を簡略化するため、本実施形態では処理対象ファイルのサンプルはすべて同じ再生時間を持ち(動画像データの場合、フレームレート固定。音声データの場合、サンプリングレート固定)、優先度、パディングビットなどは設定されていないものと想定する。また、同一トラックの全てのサンプルは符号化形式などにおいて同一の情報をもつものとする。
<moofからmoovへのメタデータ形式変換>
まず、ステップS301において、連結処理部902は処理対象のフラグメントのメタデータ部に含まれるTrack Fragment BOX(‘tfhd’)から track_ID、base_data_offset、default_sample_durationを取得する。
次に、ステップS302において、新しく作成するmoovヘッダに含まれるTrack Header BOX (‘tkhd’)のtrack_id に、取得したtrack_IDを設定する。
次に、ステップS303において、新しく作成するmoovヘッダに含まれる上記のtrack_IDを設定したトラックに含まれるSample Table BOX ¥(‘stts’)のsample_delta にdefault_sample_durationを設定し、sttsのentry_countは1を設定する。
次に、ステップS304において、通常複数存在するチャンク単位での処理を実行するため、ループ処理の初期化を行う。ここでは、処理対象チャンクのインデックスとして用いられる変数iを1に初期化する。
次に、ステップS305において、i番目のチャンクに対応するtrun[i]から、sample_countとdata_offsetを取得する。この値はそれぞれ、新しく作成するmoovヘッダ内の当該トラック内のi番目のチャンクに含まれるサンプルの数とチャンクのオフセット値に相当する。
次に、ステップS306において、新しく作成するmoovヘッダに含まれる上記のtrack_IDを設定したトラックに含まれるChunk Offset BOX(‘stco’)のi番目のchunk_offsetに base_data_offset+data_offsetの値を設定する。
次に、ステップS307において、通常1つのチャンクに複数存在するサンプル単位での処理を実行するため、ループ処理の初期化を行う。ここでは、処理対象チャンク内のサンプル番号として用いられる変数kを1に初期化する。
次に、ステップS308において、i番目のチャンク内のk番目のサンプルのsample_sizeを取得し、新しく作成するmoovヘッダに含まれる上記のtrack_IDを設定したトラックに含まれるSample Size BOX(‘stsz’)のk番目のsample_size に設定する。
次に、ステップS309において、i番目のチャンク内のk番目のサンプルのsample_flagsを取得する。
次に、ステップS310において、ステップS309において取得したsample_flagsがキーフレームを示しているかチェックする。チェックの結果、キーフレームであることを示している場合、ステップS311へと処理を進め、新しく作成するmoovヘッダに含まれる上記のtrack_IDを設定したトラックに含まれるSync Sample BOX(‘stss’)のsample_numberに処理対象のトラックに含まれる先頭からの累計のサンプル番号を設定する。
次に、ステップS312において、i番目のチャンクのすべてのサンプルが処理されたかチェックする。変数kがi番目のチャンク内のサンプル数に満たない場合は、変数kをインクリメントし、ステップS308からS312までの処理を繰り返す。
次に、ステップS313において、すべてのチャンクが処理されたかチェックする。未処理のtrunが存在する場合は、変数iをインクリメントし、ステップS305からS313までの処理を繰り返す。
以上の処理を変換対象の各トラックに対して行う。即ち、moofに含まれる全てのtfhd以下の構成情報に対して行なうことで、処理対象フラグメントのmoof形式のメタデータをmoov形式のメタデータに再構成することができる。
また、moovを生成する際に必要な情報で、moofには含まれない情報が存在する。例えば、Sample Description BOX(‘stsd’)に含まれる“デコード固有情報”は、moofには含まれないので、moovを削除する際には、このような情報をメモリに保持しておく必要がある。即ち、連結処理部902では、すでに処理されているmoovの内容をRAM上に保持しておき、moofからmoovへの変換を行う際に、変換元のmoofに存在しない情報をRAM上に保持されているmoovから補充するという形の処理が行われることが求められる。
<mvexの再生成処理>
また上述の通り、フラグメントムービー形式の場合、moovにはmvexを付加しなければならないが、本実施形態において、動画像及び音声データの記録中にmoovを削除したことにより、改めてmoofをmoovに変換することでmoovを生成する際に、mvexも再生成する必要がある。
mvexにはTrack Extends BOX(‘trex’)という、図14で示されるフィールド定義のBOXが含まれる。各トラックを構成するすべてのサンプルが同じ属性を持つ場合に、全サンプルに適用されるデフォルト属性を保持することが出来る。そのため、各トラックの全サンプルに適用すべき属性がある場合、trexに値をセットするようにする。例えば本実施形態の例では、サンプルの時間間隔はすべて同一であるものとして、defaulr_sample_durationフィールドにデフォルトのサンプルの時間間隔を設定するものとする。
<シーケンスナンバーの整列処理>
フラグメントムービーでは、moofに含まれるMovie Fragment Header BOX(‘mfhd’)内に、通常1からスタートしてファイル中のムービーフラグメント毎に、それらの出現順に増加するsequence_numberが含まれる。
本実施形態では、限られた記録容量に最新のデータを残すために、古いフラグメントのデータを新しいフラグメントのデータで上書きする処理を行なうため、sequence_numberの乱れが発生する。そこで、本実施形態では、最も古いmoofのmoovへの変換処理を実行する際、即ち、フラグメントの上書き処理により、sequence_numberに乱れが発生した場合には、フラグメントを時間順に並び替える際に、moovに変換したmoofの次に古いmoofデータのsequence_numberを1として、順に1ずつ加算したsequence_numberをmoofの出現順に各々のmfhdの領域に設定し直さなければならない。
続いて、図11のステップS204の各フラグメントの時系列順の連結処理について説明する。
<フラグメントの時系列連結処理>
フラグメントムービー形式のMP4では、前述の通り、各フラグメントのシーケンスナンバーは出現順に増加しなければならない。つまり、各フラグメントのファイル先頭からの出現順序は時系列で整列されている必要がある。本実施形態では、データ記録処理部901においてファイルサイズがある閾値を超えないように、古いデータを新しいデータで上書きする処理を行なうため、ファイル中の各フラグメントのファイル先頭からの出現順序は、上書き処理が発生した時点で時系列順には並ばなくなる。そこでファイルを記録するメディアのファイルシステムとしてFAT(File Allocation Table)ファイルシステムを採用し、このFAT領域の情報を操作することにより、各フラグメントの時系列順の整列を行なう。
FATを採用したファイルシステムでは、記憶媒体の読み書きをクラスタ(cluster)単位で扱い、1クラスタに収まらないような大きさのファイルは、複数のクラスタに分けて格納される。このときのクラスタのアドレスは連続しているとは限らないので、どの順番でクラスタが連なっているかをFAT領域に記録する。このクラスタの連なりのことをクラスタ・チェーン(Cluster Chain)と呼ぶ。
なおクラスタは、通常512バイトを1つの単位とするセクタ(sector)と呼ばれる基本ブロックを複数まとめたもので、フォーマットされる記録メディアの容量などにより、最適なクラスタのサイズは変化する。
本実施形態では、図4に示すように、クラスタの境界から各フラグメントの記録を開始しているので、連結処理部902において、各フラグメントの書き出し位置のFATエントリを任意に書き換えることにより、ファイル中の各フラグメントの論理的な並び順を、時系列順に整列させることが可能になる。
この連結処理を行なうと、各フラグメントのファイル先頭からのオフセット値が変化するため、正しい値に修正する必要があるが、この処理内容については図11の説明で述べた通りである。
(第2の実施の形態)
本発明の第1の実施形態では、限られた容量の記録メディアに最新の動画像及び音声データを1つのファイルとして記録する方法について述べた。
そこで次に第2の実施の形態として、第1の実施形態の実現方法に加えて、入力された動画像データ又は音声データに、ある閾値を超える変化があった部分のデータを別ファイルとして記録メディアに書き出す手段について説明する。
図15は、本実施形態におけるデータ記録処理部901での処理フローを示す。基本的な処理フローは、第1の実施形態における図10の場合と同様であるので、図10における処理フローと異なる点について重点的に説明を行なう。
まず、ステップS401において、各フラグメントの時間長、記録するメディアの空き容量、出力するファイルサイズの上限値、入力される動画像または音声データのデータレート(ビットレート)などに加えて、入力するデータの種類に対応したイベント検出のための閾値を受け取り、RAM803や外部記憶装置804或いは記録メディア812などに保持する。このイベント検出のための閾値は、例えば動画像データの場合、ある一定時間内における動きベクトルや、明度の変化量などがあげられる。一方、音声データの場合、音の大きさ(絶対値)やある一定時間内における音の大きさの変化量などがあげられる。
次にステップS402において、入力されるメディアデータのデコードのために必要な情報や、ファイルの識別のために任意に入力される情報などを受け取り、また、これから生成するフラグメントムービー形式のヘッダ情報(メタデータ)を形成するために必要なメモリの初期化処理などを行ない、続いてステップS403において、入力されたメディアデータをファイルに記録する処理を開始する。
次にステップS404では、ステップS403でファイルに記録したメディアデータに、イベント発生を示す変化があったか否かの判定を行なう。
このイベント検出のため、データ記録処理部902では、映像I/F805及び音声I/F806から、記録するメディアデータと共に、映像の場合は動きベクトルや一定時間内の明度の変化量、音声の場合は音の大きさや一定時間内の音の大きさの変化量などを受け取り、ステップS401で受け取った閾値との比較を行なう。
閾値を超える変化があった場合、記録中のフラグメント部に変化があったことを示すフラグをセットする(ステップS409)。以下、本実施形態ではこのフラグをイベントフラグと呼ぶ。
イベントフラグは、例えば図16のような表形式でRAM上に保持し、フラグメント毎にそのフラグメントの開始アドレスを示す基準オフセットと、そのフラグメントのfree領域まで含めた全体のサイズと共に、そのフラグメントに記録されたデータにイベントが発生したか否かを示すイベントフラグを記録する。
ステップS405において、記録中のファイルサイズが出力ファイルサイズの上限値に達した場合(Yes)、本実施形態では、削除対象となる古いフラグメントのデータにイベントフラグがセットされているかを確認し、イベントフラグが設定されていた場合は、このフラグメントのデータは削除せず、ステップS407において、単独の別ファイルとして記録メディアに書き出す。
この時、書き出すフラグメントがmoof形式のヘッダ情報を持つ場合は、前述した手段により、moof形式からmoov形式のヘッダとなるようにメタデータの変換処理を行なう。この変換処理を実行するタイミングは、最終的にファイルの記録を終了するまでの間の、いつ実行しても良い。
また、フラグメント毎の設定時間が短い場合など、フラグメント1つを単独のファイルに変換しても視聴する上で短すぎる場合などは、例えばイベントフラグが設定されたフラグメントを中心として、複数のフラグメントを別ファイルとして書き出しても良い。この処理方法に関しては、本明細書では説明を割愛する。
ステップS407において古いデータを別ファイルとして書き出した場合、更にステップS408において、その次に古いフラグメントのデータを削除し、新しいデータを記録するための領域を確保する。
図15の説明において、特に説明を行なっていない部分は、第1の実施形態における図10の場合と同様である。また、説明を行った部分以外の処理や構成は、第1の実施形態と同様である。
(その他の実施の形態)
本発明は、例えば、システム、装置、方法、プログラムもしくは記憶媒体等としての実施態様をとることが可能であり、具体的には、複数の機器から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。
本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体(または記録媒体)を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。プログラムを供給するための記録媒体としては、例えば、フロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、MO、CD−ROM、CD−R、CD−RW、磁気テープ、不揮発性のメモリカード、ROM、DVD(DVD−ROM,DVD−R,DVD+R,DVD−RW,DVD+RW,DVD−RAM)、HDDVD、Blu−rayDiscなどがある。
本発明を上記記憶媒体に適用する場合、その記憶媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。
MP4或いは類似のファイル形式におけるメタデータ、メディアデータの概念を説明する図である。 BOXのフィールド定義を示す図である。 フラグメントムービーの概念を説明する図である。 本発明における基本的なデータ記録の方法を説明する図である。 本発明における最新のデータをファイルに記録する方法を説明する図である。 本発明における記録終了時の基本的なデータ処理の方法を説明する図である。 本発明における記録終了時の最新のデータを記録したファイルを正しいMP4ファイル形式に変換するための方法を説明する図である。 本発明の実施形態における動画像及び音声のマルチメディアデータの最新データを記録メディアに残すように記録するための情報処理装置の構成を示すブロック図である。 本発明の実施形態におけるマルチメディアデータの記録処理を実行する機能モジュールの構成例である。 本発明の実施形態におけるデータ記録処理の基本的な手順を示すフローチャートである。 本発明の実施形態における動画記録終了処理の手順を示すフローチャートである。 フラグメントムービー形式のファイル構成の概略を示すものである。 本発明の実施形態におけるmoofをmoovに変換する処理を説明するフローチャートである。 Track Extends Box(‘trex’)のフィールド定義を示す図である。 本発明の実施形態におけるデータ記録処理において、イベント発生時のデータを記録する手順を示すフローチャートである。 本発明の実施形態におけるイベントフラグの記録方法を説明する図である。

Claims (3)

  1. 動画像データと音声データのうち少なくとも1つのメディアデータを記録するデータ記録装置であって、
    前記メディアデータをフラグメント単位で記録する記録手段と、
    前記フラグメントを時系列順に連結する連結手段と、
    前記動画像データあるいは音声データに閾値を超える変化があった場合、前記閾値を超える変化があった動画像データあるいは音声データのメディアデータのフラグメントに、変化があったことを示すフラグをセットする設定手段と、
    前記フラグメントが前記記録手段によりクラスタ境界から記録されるように制御すると共に、前記記録手段により記録されたデータ容量が所定のデータ容量に達したあとに記録されるフラグメントが、前記記録手段により記録済のフラグメントであって前記変化があったことを示すフラグがセットされていないフラグメントのうち記録順序が最も古いフラグメントが記録されたクラスタ境界から記録されるように制御する記録制御手段と、
    前記記録手段により記録されたデータ容量が前記所定のデータ容量に達したあとに前記メディアデータの先頭のフラグメントに上書きでフラグメントを記録した場合、当該フラグメントの記録後に記録されているフラグメントのうち記録順序が最も古いフラグメントのヘッダ情報を先頭のフラグメントであることを示す形式のヘッダ情報に変換するヘッダ変換手段と、
    前記ヘッダ変換手段によって変換されたヘッダ情報と、前記記録手段によりクラスタ境界から記録され前記連結手段により時系列順に連結されたフラグメントとに基づいて、ファイルを生成するファイル生成手段と
    を有することを特徴とするデータ記録装置。
  2. 前記連結手段は、FAT(File Allocation Table)のクラスタ連結情報を書き換えることで、前記フラグメント単位のデータを時系列順に連結することを特徴とする請求項1に記載のデータ記録装置。
  3. 前記ファイルは、MP4におけるフラグメントムービー形であることを特徴とする請求項1又は2に記載のデータ記録装置。
JP2005188297A 2005-06-28 2005-06-28 データ記録装置及びその方法、プログラム、記録媒体 Expired - Fee Related JP4481889B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2005188297A JP4481889B2 (ja) 2005-06-28 2005-06-28 データ記録装置及びその方法、プログラム、記録媒体
US11/425,464 US7817903B2 (en) 2005-06-28 2006-06-21 Data recording apparatus, method, program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005188297A JP4481889B2 (ja) 2005-06-28 2005-06-28 データ記録装置及びその方法、プログラム、記録媒体

Publications (3)

Publication Number Publication Date
JP2007012112A JP2007012112A (ja) 2007-01-18
JP2007012112A5 JP2007012112A5 (ja) 2008-08-14
JP4481889B2 true JP4481889B2 (ja) 2010-06-16

Family

ID=37567458

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005188297A Expired - Fee Related JP4481889B2 (ja) 2005-06-28 2005-06-28 データ記録装置及びその方法、プログラム、記録媒体

Country Status (2)

Country Link
US (1) US7817903B2 (ja)
JP (1) JP4481889B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101957992B1 (ko) * 2018-10-17 2019-03-13 국방과학연구소 가상 네트워크 슬라이스의 버퍼 관리 방법 및 그 장치

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8788933B2 (en) * 2005-12-01 2014-07-22 Nokia Corporation Time-shifted presentation of media streams
US20100031088A1 (en) * 2006-12-26 2010-02-04 International Business Machines Corporation Method and system for processing information
DE102007045741A1 (de) * 2007-06-27 2009-01-08 Siemens Ag Verfahren und Vorrichtung zum Codieren und Decodieren von Multimediadaten
US9794605B2 (en) * 2007-06-28 2017-10-17 Apple Inc. Using time-stamped event entries to facilitate synchronizing data streams
US7860866B2 (en) * 2008-03-26 2010-12-28 Microsoft Corporation Heuristic event clustering of media using metadata
US20110030031A1 (en) * 2009-07-31 2011-02-03 Paul Lussier Systems and Methods for Receiving, Processing and Organizing of Content Including Video
JP5512038B2 (ja) * 2010-04-20 2014-06-04 サムスン エレクトロニクス カンパニー リミテッド メディアデータを送受信するためのインターフェース装置及び方法
KR101739272B1 (ko) 2011-01-18 2017-05-24 삼성전자주식회사 멀티미디어 스트리밍 시스템에서 컨텐트의 저장 및 재생을 위한 장치 및 방법
US20130188922A1 (en) * 2012-01-23 2013-07-25 Research In Motion Limited Multimedia File Support for Media Capture Device Position and Location Timed Metadata
US9219929B2 (en) * 2012-02-27 2015-12-22 Fritz Barnes Enhanced startup and channel change for fragmented media stream delivery
US9420217B2 (en) 2012-08-17 2016-08-16 Microsoft Technology Licensing, Llc Program identifier based recording
TWI555406B (zh) 2014-11-20 2016-10-21 聯詠科技股份有限公司 儲存方法及其處理裝置與錄影系統
US9996463B2 (en) * 2015-11-10 2018-06-12 International Business Machines Corporation Selection and placement of volumes in a storage system using stripes
JP6418400B2 (ja) * 2015-12-17 2018-11-07 京セラドキュメントソリューションズ株式会社 電子機器および情報処理プログラム
US10652625B1 (en) 2016-06-27 2020-05-12 Amazon Technologies, Inc. Synchronization of multiple encoders for streaming content
US10812558B1 (en) 2016-06-27 2020-10-20 Amazon Technologies, Inc. Controller to synchronize encoding of streaming content
US10652292B1 (en) * 2016-06-28 2020-05-12 Amazon Technologies, Inc. Synchronization of multiple encoders for streaming content
AU2017310554A1 (en) * 2016-08-08 2019-02-28 Record Sure Limited A method of generating a secure record of a conversation
US10474908B2 (en) * 2017-07-06 2019-11-12 GM Global Technology Operations LLC Unified deep convolutional neural net for free-space estimation, object detection and object pose estimation
CN111275846B (zh) * 2018-12-04 2022-01-07 比亚迪股份有限公司 数据记录的生成方法、装置、电子设备及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000021093A (ja) * 1998-07-03 2000-01-21 Sony Corp データ記録装置及び記録方法並びにデータ再生装置及び再生方法
JP2000285653A (ja) * 1999-03-29 2000-10-13 Sony Corp 情報記録再生装置
WO2001037563A1 (fr) * 1999-11-18 2001-05-25 Fujitsu Limited Enregistreur video sans fin
JP2004312268A (ja) * 2003-04-04 2004-11-04 Mitsubishi Electric Corp マルチメディアコンテンツファイルのデータ構造、マルチメディアコンテンツ生成装置、及びマルチメディアコンテンツ閲覧装置
JP2005079891A (ja) * 2003-08-29 2005-03-24 Toshiba Corp 録画装置および録画方法
JP2005117534A (ja) * 2003-10-10 2005-04-28 Sony Corp ファイル再生装置、ファイル再生方法、ファイル再生方法のプログラム及びファイル再生方法のプログラムを記録した記録媒体

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6985669B1 (en) * 2000-11-13 2006-01-10 Sony Corporation Method and system for electronic capture of user-selected segments of a broadcast data signal
US7257308B2 (en) * 2001-12-06 2007-08-14 Scientific-Atlanta, Inc. Converting time-shift buffering for personal video recording into permanent recordings
WO2005039174A1 (ja) * 2003-10-20 2005-04-28 Matsushita Electric Industrial Co., Ltd. マルチメディアデータ記録装置、モニタシステム、およびマルチメディアデータ記録方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000021093A (ja) * 1998-07-03 2000-01-21 Sony Corp データ記録装置及び記録方法並びにデータ再生装置及び再生方法
JP2000285653A (ja) * 1999-03-29 2000-10-13 Sony Corp 情報記録再生装置
WO2001037563A1 (fr) * 1999-11-18 2001-05-25 Fujitsu Limited Enregistreur video sans fin
JP2004312268A (ja) * 2003-04-04 2004-11-04 Mitsubishi Electric Corp マルチメディアコンテンツファイルのデータ構造、マルチメディアコンテンツ生成装置、及びマルチメディアコンテンツ閲覧装置
JP2005079891A (ja) * 2003-08-29 2005-03-24 Toshiba Corp 録画装置および録画方法
JP2005117534A (ja) * 2003-10-10 2005-04-28 Sony Corp ファイル再生装置、ファイル再生方法、ファイル再生方法のプログラム及びファイル再生方法のプログラムを記録した記録媒体

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101957992B1 (ko) * 2018-10-17 2019-03-13 국방과학연구소 가상 네트워크 슬라이스의 버퍼 관리 방법 및 그 장치

Also Published As

Publication number Publication date
JP2007012112A (ja) 2007-01-18
US20060291798A1 (en) 2006-12-28
US7817903B2 (en) 2010-10-19

Similar Documents

Publication Publication Date Title
JP4481889B2 (ja) データ記録装置及びその方法、プログラム、記録媒体
JP4299836B2 (ja) データ処理装置
US8320733B2 (en) Method of preparing DVD-video formatted data, method for reconstructing DVD-video data and DVD-video data structure
CN101351845B (zh) 记录装置、记录方法和记录程序、以及摄像装置、摄像方法和摄像程序
KR20070090104A (ko) 데이터 처리 장치, 데이터 처리 방법 및 데이터 처리프로그램, 데이터 구조 및 기록 매체와, 재생 장치, 재생방법 및 재생 프로그램
WO2006033279A1 (ja) データ処理装置
US8165455B2 (en) Data processing apparatus and data processing method, and computer program
US20080301380A1 (en) Data Processor
EP1870895B1 (en) Apparatus, method, and computer program for converting a set of still images into a photo movie
JP2008053763A (ja) Avデータ記録装置及び方法、avデータ再生装置及び方法、当該avデータ記録装置又は方法で記録された記録媒体
EP2018054A1 (en) Information processing device, information processing method, and computer program
US20090310930A1 (en) Data processing apparatus, data processing method, and computer program
JPWO2005015907A1 (ja) データ処理装置
KR101375058B1 (ko) 정보 처리 장치, 및 정보 처리 방법, 및 컴퓨터 프로그램이 기록된 기록 매체
WO2006033275A1 (ja) データ処理装置
JP2004178788A (ja) 記録装置および記録方法
EP1768402A1 (en) Data processor
CN101352037A (zh) 信息处理设备、信息处理方法和计算机程序
JP2004128938A (ja) Avデータ記録再生装置および方法
KR100967972B1 (ko) 기록 방법
CN101356809B (zh) 信息处理装置、信息处理方法
JP4280701B2 (ja) データファイルの編集方法及び装置及び制御プログラム及び記憶媒体
JP2006129078A (ja) データファイル編集方法及び装置及び制御プログラム及び記憶媒体
US20040151473A1 (en) Audio/video data recording/reproduction apparatus, system, and method, recording medium recorded by them, audio/video data reproduction apparatus, and data structure
US20060193607A1 (en) Method, system and software for fast archiving from hdd to optical disk drive

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080626

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080626

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090721

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090914

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20091117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100122

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100201

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20100226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100316

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100318

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130326

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4481889

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140326

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees