JP2002158971A - Information processor and processing method, and recording medium therefor, and program and its recording medium - Google Patents

Information processor and processing method, and recording medium therefor, and program and its recording medium

Info

Publication number
JP2002158971A
JP2002158971A JP2001089959A JP2001089959A JP2002158971A JP 2002158971 A JP2002158971 A JP 2002158971A JP 2001089959 A JP2001089959 A JP 2001089959A JP 2001089959 A JP2001089959 A JP 2001089959A JP 2002158971 A JP2002158971 A JP 2002158971A
Authority
JP
Japan
Prior art keywords
stream
information
clip
time
playlist
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001089959A
Other languages
Japanese (ja)
Other versions
JP4682434B2 (en
Inventor
Motoki Kato
元樹 加藤
Toshiya Hamada
俊也 浜田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2001089959A priority Critical patent/JP4682434B2/en
Publication of JP2002158971A publication Critical patent/JP2002158971A/en
Application granted granted Critical
Publication of JP4682434B2 publication Critical patent/JP4682434B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)

Abstract

PROBLEM TO BE SOLVED: To retrieve a specified mark quickly. SOLUTION: An AV stream, as an entity of contents, is managed by ClipInformation and reproduction of the AV stream is managed by PlayList. As the attribute information of the AV stream, address information on discontinuity points in the AV stream RSPN arrival time discontinuity, information on associating the time information and address information in the AV stream EP map, TU map, and time information on a characteristic image in the AV stream ClipMark are recorded in the ClipInformation.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は情報処理装置および
方法、記録媒体、並びにプログラムに関し、特に、AVス
トリーム内のIピクチャのアドレス情報、符号化パラメ
ータ、変化点情報、マークなどの情報をファイルとして
記録する情報処理装置および方法、記録媒体、並びにプ
ログラムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an information processing apparatus and method, a recording medium, and a program. The present invention relates to an information processing apparatus and method for recording, a recording medium, and a program.

【0002】[0002]

【従来の技術】近年、記録再生装置から取り外し可能な
ディスク型の記録媒体として、各種の光ディスクが提案
されつつある。このような記録可能な光ディスクは、数
ギガバイトの大容量メディアとして提案されており、ビ
デオ信号等のAV(Audio Visual)信号を記録するメディア
としての期待が高い。この記録可能な光デイスクに記録
するデジタルのAV信号のソース(供給源)としては、CS
デジタル衛星放送やBSデジタル放送があり、また、将来
はデジタル方式の地上波テレビジョン放送等も提案され
ている。
2. Description of the Related Art In recent years, various optical disks have been proposed as disk-type recording media detachable from a recording / reproducing apparatus. Such recordable optical disks have been proposed as large-capacity media of several gigabytes, and are highly expected as media for recording AV (Audio Visual) signals such as video signals. The source (supply source) of the digital AV signal recorded on this recordable optical disc is CS
There are digital satellite broadcasting and BS digital broadcasting, and digital terrestrial television broadcasting has been proposed in the future.

【0003】ここで、これらのソースから供給されるデ
ジタルビデオ信号は、通常MPEG(Moving Picture Exper
ts Group)2方式で画像圧縮されているのが一般的であ
る。また、記録装置には、その装置固有の記録レートが
定められている。従来の民生用映像蓄積メディアで、デ
ジタル放送のデジタルビデオ信号を記録する場合、アナ
ログ記録方式であれば、デジタルビデオ信号をデコード
後、帯域制限をして記録する。あるいは、MPEG1 Vide
o、MPEG2 Video、DV方式をはじめとするデジタル記録
方式であれば、1度デコードされた後に、その装置固有
の記録レート・符号化方式で再エンコードされて記録さ
れる。
Here, digital video signals supplied from these sources are usually MPEG (Moving Picture Exper
(ts Group) 2 image compression. Further, a recording rate specific to the recording apparatus is determined. When recording a digital video signal of a digital broadcast on a conventional consumer video storage medium, if the digital recording is an analog recording method, the digital video signal is decoded and then recorded with a band limitation. Or MPEG1 Vide
In the case of a digital recording method such as o, MPEG2 Video, DV, etc., after being decoded once, it is re-encoded and recorded at a recording rate / encoding method specific to the apparatus.

【0004】しかしながら、このような記録方法は、供
給されたビットストリームを1度デコードし、その後で
帯域制限や再エンコードを行って記録するため、画質の
劣化を伴う。画像圧縮されたデジタル信号の記録をする
場合、入力されたデジタル信号の伝送レートが記録再生
装置の記録レートを超えない場合には、供給されたビッ
トストリームをデコードや再エンコードすることなく、
そのまま記録する方法が最も画質の劣化が少ない。ただ
し、画像圧縮されたデジタル信号の伝送レートが記録媒
体としてのディスクの記録レートを超える場合には、記
録再生装置でデコード後、伝送レートがディスクの記録
レートの上限以下になるように、再エンコードをして記
録する必要はある。
However, in such a recording method, the supplied bit stream is decoded once, and then subjected to band limitation and re-encoding for recording. When recording an image-compressed digital signal, if the transmission rate of the input digital signal does not exceed the recording rate of the recording / reproducing device, without decoding or re-encoding the supplied bit stream,
The method of recording as it is has the least deterioration in image quality. However, if the transmission rate of the image-compressed digital signal exceeds the recording rate of the disc as the recording medium, after decoding by the recording / reproducing device, re-encoding is performed so that the transmission rate becomes lower than the upper limit of the disc recording rate. Need to be recorded.

【0005】また、入力デジタル信号のビットレートが
時間により増減する可変レート方式によって伝送されて
いる場合には、回転ヘッドが固定回転数であるために記
録レートが固定レートになるテープ記録方式に比べ、1
度バッファにデータを蓄積し、バースト的に記録ができ
るディスク記録装置の方が記録媒体の容量をより無駄な
く利用できる。
When the bit rate of an input digital signal is transmitted by a variable rate method in which the bit rate is increased or decreased with time, the recording rate is fixed compared to a tape recording method in which the recording rate is fixed because the rotating head has a fixed number of rotations. , 1
A disk recording device capable of storing data in a buffer and recording in bursts can use the capacity of a recording medium more efficiently.

【0006】以上のように、デジタル放送が主流となる
将来においては、データストリーマのように放送信号を
デジタル信号のまま、デコードや再エンコードすること
なく記録し、記録媒体としてディスクを使用した記録再
生装置が求められると予測される。
As described above, in the future in which digital broadcasting will become the mainstream, a broadcast signal is recorded as a digital signal without decoding or re-encoding as in a data streamer, and recording / reproduction using a disk as a recording medium is performed. It is expected that equipment will be required.

【0007】[0007]

【発明が解決しようとする課題】上述したような装置に
より、複数のデータ(例えば、映像データや音声データ
などから構成される番組のデータ)が記録されている記
録媒体を再生する際、ユーザのランダムアクセスや特殊
再生の指示に対して、記録媒体からのAVストリームの読
み出し位置の決定やストリームの復号といった処理を速
やかに行わなくてはならないが、記録媒体に記録される
データ量が増加するに従い、そのような処理を速やかに
できないといった課題があった。
When a recording medium on which a plurality of data (for example, data of a program composed of video data, audio data, etc.) is recorded is reproduced by the above-described apparatus, the user is required to reproduce the data. In response to an instruction for random access or trick play, processing such as determining the read position of the AV stream from the recording medium and decoding the stream must be performed promptly, but as the amount of data recorded on the recording medium increases, However, there is a problem that such processing cannot be performed quickly.

【0008】本発明はこのような状況に鑑みてなされた
ものであり、AVストリーム内のIピクチャのアドレス情
報、符号化パラメータ、変化点情報、マークなどの情報
をファイルとして記録することにより、AVストリームの
読み出し位置の決定や復号処理を速やかに行えるように
し、特に、所定のマークを迅速に検索できるようにする
ことを目的とする。
The present invention has been made in view of such a situation, and records information such as address information, coding parameters, change point information, and marks of I pictures in an AV stream as a file, thereby enabling an AV stream to be recorded. It is an object of the present invention to enable a stream reading position to be determined and a decoding process to be performed quickly, and in particular, to allow a predetermined mark to be quickly searched.

【0009】[0009]

【課題を解決するための手段】本発明の第1の情報処理
装置は、AVストリーム中の符号化情報が連続な区間の開
始アドレス情報、AVストリーム中の時刻情報とアドレス
情報を関連づける情報、およびAVストリーム中の特徴的
な画像の時刻情報を生成する生成手段と、生成手段によ
り生成された情報をClip情報として記録媒体に記録する
記録手段とを備えることを特徴とする。
A first information processing apparatus according to the present invention comprises: a start address information of a section where encoded information in an AV stream is continuous; information for associating time information and address information in the AV stream; It is characterized by comprising a generation unit that generates time information of a characteristic image in an AV stream, and a recording unit that records information generated by the generation unit as Clip information on a recording medium.

【0010】前記符号化情報が連続な区間の開始アドレ
ス情報は、STCシーケンスまたはプログラムシーケンス
の開始アドレスであり、時刻情報とアドレス情報を関連
づける情報は、EP_mapまたはTU_mapであり、特徴的な画
像の時刻情報は、ClipMarkとすることができる。
[0010] The start address information of the section in which the encoded information is continuous is the start address of the STC sequence or the program sequence, and the information that associates the time information with the address information is EP_map or TU_map. The information can be a ClipMark.

【0011】前記記録手段は、AVストリームの記録レー
トの平均値に関する情報を記録媒体にさらに記録するこ
とができる。
[0011] The recording means may further record information on an average value of a recording rate of the AV stream on a recording medium.

【0012】前記平均値に関する情報は、TS_average_r
ateとすることができる。
The information on the average value is TS_average_r
ate.

【0013】前記AVストリームはトランスポートストリ
ームとすることができる。
[0013] The AV stream may be a transport stream.

【0014】前記AVストリーム中の符号化情報が連続な
区間の開始アドレス情報は、トランスポートストリーム
のシステムタイムクロックが連続な区間であるSTCシー
ケンスの開始アドレスを含むようにすることができる。
[0014] The start address information of the section where the coded information in the AV stream is continuous may include a start address of an STC sequence in which the system time clock of the transport stream is a continuous section.

【0015】前記AVストリーム中の符号化情報が連続な
区間の開始アドレス情報は、トランスポートストリーム
のプログラム内容が一定な区間であるプログラムシーケ
ンスの開始アドレスを含むようにすることができる。
[0015] The start address information of the section where the coded information in the AV stream is continuous may include a start address of a program sequence in which the program content of the transport stream is a constant section.

【0016】前記AVストリーム中の符号化情報が連続な
区間の開始アドレス情報は、トランスポートストリーム
のトランスポートパケットの到着時間に基づくアライバ
ルタイムが連続な区間の開始アドレスを含むようにする
ことができる。
[0016] The start address information of the section where the encoded information in the AV stream is continuous may include the start address of the section where the arrival time based on the arrival time of the transport packet of the transport stream is continuous. .

【0017】前記AVストリーム中の時刻情報とアドレス
情報を関連づける情報は、トランスポートストリームの
Iピクチャのアドレスとそのプレゼンテーションタイム
スタンプを含むようにすることができる。
The information relating the time information and the address information in the AV stream is the transport stream
It can include the address of the I-picture and its presentation timestamp.

【0018】前記AVストリーム中の時刻情報とアドレス
情報を関連づける情報の少なくとも一部を圧縮する圧縮
手段をさらに備え、記録手段は、圧縮手段により圧縮さ
れた情報を記録することができる。
[0018] The information processing apparatus may further include compression means for compressing at least a part of information relating the time information and address information in the AV stream, and the recording means may record the information compressed by the compression means.

【0019】前記AVストリーム中の時刻情報とアドレス
情報を関連づける情報は、トランスポートパケットの到
着時刻に基づいたアライバルタイムと、それに対応する
トランスポートパケットのAVストリームデータ中のアド
レスを含むようにすることができる。
The information relating the time information and the address information in the AV stream includes an arrival time based on the arrival time of the transport packet and the corresponding address in the AV stream data of the transport packet. Can be.

【0020】本発明の第1の情報処理方法は、AVストリ
ーム中の符号化情報が連続な区間の開始アドレス情報、
AVストリーム中の時刻情報とアドレス情報を関連づける
情報、およびAVストリーム中の特徴的な画像の時刻情報
を生成する生成ステップと、生成ステップにより生成さ
れた情報をClip情報として記録媒体に記録する記録ステ
ップとを含むことを特徴とする。
According to a first information processing method of the present invention, start address information of a section where encoded information in an AV stream is continuous,
A generating step of generating information for associating time information and address information in the AV stream, and time information of a characteristic image in the AV stream; and a recording step of recording the information generated by the generating step as Clip information on a recording medium. And characterized in that:

【0021】本発明の第1の記録媒体のプログラムは、
AVストリーム中の符号化情報が連続な区間の開始アドレ
ス情報、AVストリーム中の時刻情報とアドレス情報を関
連づける情報、およびAVストリーム中の特徴的な画像の
時刻情報を生成する生成ステップと、生成ステップによ
り生成された情報をClip情報として記録媒体に記録する
記録ステップとを含むことを特徴とする。
[0021] The program of the first recording medium of the present invention comprises:
A generation step of generating start address information of a section in which encoded information in the AV stream is continuous, information for associating time information in the AV stream with address information, and time information of a characteristic image in the AV stream; Recording the information generated by the above as Clip information on a recording medium.

【0022】本発明の第1のプログラムは、AVストリー
ム中の符号化情報が連続な区間の開始アドレス情報、AV
ストリーム中の時刻情報とアドレス情報を関連づける情
報、およびAVストリーム中の特徴的な画像の時刻情報を
生成する生成ステップと、生成ステップにより生成され
た情報をClip情報として記録媒体に記録する記録ステッ
プとを実行させる。
The first program according to the present invention comprises: start address information of a section where coding information in an AV stream is continuous;
A generation step of generating information for associating time information and address information in a stream, and time information of a characteristic image in an AV stream; and a recording step of recording the information generated by the generation step as Clip information on a recording medium. Is executed.

【0023】本発明の第2の情報処理装置は、Clip情報
として、AVストリーム中の符号化情報が連続な区間の開
始アドレス情報、AVストリーム中の時刻情報とアドレス
情報を関連づける情報、およびAVストリーム中の特徴的
な画像の時刻情報を再生する再生手段と、再生手段によ
り再生されたClip情報に基づいて、AVストリームの出力
を制御する制御手段とを備えることを特徴とする。
According to the second information processing apparatus of the present invention, as Clip information, start address information of a section where encoded information in an AV stream is continuous, information for associating time information and address information in an AV stream, and an AV stream It is characterized by comprising reproduction means for reproducing the time information of the characteristic image inside, and control means for controlling the output of the AV stream based on the Clip information reproduced by the reproduction means.

【0024】本発明の第2の情報処理方法は、Clip情報
として、AVストリーム中の符号化情報が連続な区間の開
始アドレス情報、AVストリーム中の時刻情報とアドレス
情報を関連づける情報、およびAVストリーム中の特徴的
な画像の時刻情報を再生する再生ステップと、再生ステ
ップの処理により再生されたClip情報に基づいて、AVス
トリームの出力を制御する制御ステップとを含むことを
特徴とする。
According to a second information processing method of the present invention, as Clip information, start address information of a section where encoded information in an AV stream is continuous, information for associating time information and address information in an AV stream, and an AV stream It is characterized by including a reproducing step of reproducing the time information of the characteristic image in it, and a control step of controlling the output of the AV stream based on the Clip information reproduced by the processing of the reproducing step.

【0025】本発明の第2の記録媒体のプログラムは、
Clip情報として、AVストリーム中の符号化情報が連続な
区間の開始アドレス情報、AVストリーム中の時刻情報と
アドレス情報を関連づける情報、およびAVストリーム中
の特徴的な画像の時刻情報を再生する再生ステップと、
再生ステップの処理により再生されたClip情報に基づい
て、AVストリームの出力を制御する制御ステップとを含
むことを特徴とする。
The program of the second recording medium of the present invention comprises:
A reproduction step of reproducing, as Clip information, start address information of a section where encoded information in the AV stream is continuous, information relating the time information in the AV stream to the address information, and time information of a characteristic image in the AV stream. When,
A control step of controlling the output of the AV stream based on the Clip information reproduced by the processing of the reproduction step.

【0026】本発明の第2のプログラムは、Clip情報と
して、AVストリーム中の符号化情報が連続な区間の開始
アドレス情報、AVストリーム中の時刻情報とアドレス情
報を関連づける情報、およびAVストリーム中の特徴的な
画像の時刻情報を再生する再生ステップと、再生ステッ
プの処理により再生されたClip情報に基づいて、AVスト
リームの出力を制御する制御ステップとを実行させるプ
ログラム。
According to a second program of the present invention, as Clip information, start address information of a section where encoded information in an AV stream is continuous, information relating time information and address information in an AV stream, and information in an AV stream A program for executing a reproducing step of reproducing time information of a characteristic image and a control step of controlling output of an AV stream based on Clip information reproduced by the processing of the reproducing step.

【0027】本発明の記録媒体は、Clip情報として、AV
ストリーム中の符号化情報が連続な区間の開始アドレス
情報、AVストリーム中の時刻情報とアドレス情報を関連
づける情報、およびAVストリーム中の特徴的な画像の時
刻情報が記録されていることを特徴とする。
The recording medium of the present invention stores AV information as Clip information.
It is characterized by recording start address information of a section where encoded information in the stream is continuous, information relating the time information and the address information in the AV stream, and time information of a characteristic image in the AV stream. .

【0028】本発明の第1の情報処理装置および方法、
記録媒体、並びにプログラムにおいては、Clip情報とし
て、AVストリーム中の符号化情報が連続な区間の開始ア
ドレス情報、AVストリーム中の時刻情報とアドレス情報
を関連づける情報、およびAVストリーム中の特徴的な画
像の時刻情報が記録される。
A first information processing apparatus and method according to the present invention,
In the recording medium and the program, as Clip information, start address information of a section where encoded information in the AV stream is continuous, information relating time information and address information in the AV stream, and a characteristic image in the AV stream. Is recorded.

【0029】本発明の第2の情報処理装置および方法、
記録媒体、並びにプログラムにおいては、Clip情報とし
て、AVストリーム中の符号化情報が連続な区間の開始ア
ドレス情報、AVストリーム中の時刻情報とアドレス情報
を関連づける情報、およびAVストリーム中の特徴的な画
像の時刻情報が再生される。
A second information processing apparatus and method according to the present invention,
In the recording medium and the program, as Clip information, start address information of a section where encoded information in the AV stream is continuous, information relating time information and address information in the AV stream, and a characteristic image in the AV stream. Is reproduced.

【0030】[0030]

【発明の実施の形態】以下に、本発明の実施の形態につ
いて、図面を参照して説明する。図1は、本発明を適用
した記録再生装置1の内部構成例を示す図である。ま
ず、外部から入力された信号を記録媒体に記録する動作
を行う記録部2の構成について説明する。記録再生装置
1は、アナログデータ、または、デジタルデータを入力
し、記録することができる構成とされている。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a diagram showing an example of the internal configuration of a recording / reproducing device 1 to which the present invention has been applied. First, the configuration of the recording unit 2 that performs an operation of recording an externally input signal on a recording medium will be described. The recording / reproducing apparatus 1 is configured to be able to input and record analog data or digital data.

【0031】端子11には、アナログのビデオ信号が、
端子12には、アナログのオーディオ信号が、それぞれ
入力される。端子11に入力されたビデオ信号は、解析
部14とAVエンコーダ15に、それぞれ出力される。端
子12に入力されたオーディオ信号は、解析部14とAV
エンコーダ15に出力される。解析部14は、入力され
たビデオ信号とオーディオ信号からシーンチェンジなど
の特徴点を抽出する。
The terminal 11 receives an analog video signal,
An analog audio signal is input to the terminal 12. The video signal input to the terminal 11 is output to the analysis unit 14 and the AV encoder 15, respectively. The audio signal input to the terminal 12 is sent to the
Output to the encoder 15. The analysis unit 14 extracts a feature point such as a scene change from the input video signal and audio signal.

【0032】AVエンコーダ15は、入力されたビデオ信
号とオーディオ信号を、それぞれ符号化し、符号化ビデ
オストリーム(V)、符号化オーディオストリーム(A)、お
よびAV同期等のシステム情報(S)をマルチプレクサ16
に出力する。
The AV encoder 15 encodes the input video signal and audio signal, respectively, and multiplexes the encoded video stream (V), the encoded audio stream (A), and system information (S) such as AV synchronization. 16
Output to

【0033】符号化ビデオストリームは、例えば、MPEG
(Moving Picture Expert Group)2方式により符号化
されたビデオストリームであり、符号化オーディオスト
リームは、例えば、MPEG1方式により符号化されたオー
ディオストリームや、ドルビーAC3方式(商標)により
符号化されたオーディオストリーム等である。マルチプ
レクサ16は、入力されたビデオおよびオーディオのス
トリームを、入力システム情報に基づいて多重化して、
スイッチ17を介して多重化ストリーム解析部18とソ
ースパケッタイザ19に出力する。
The encoded video stream is, for example, MPEG
(Moving Picture Expert Group) A video stream encoded by the 2 system, and the encoded audio stream is, for example, an audio stream encoded by the MPEG1 system or an audio stream encoded by the Dolby AC3 system (trademark). And so on. The multiplexer 16 multiplexes the input video and audio streams based on the input system information,
The data is output to the multiplexed stream analyzer 18 and the source packetizer 19 via the switch 17.

【0034】多重化ストリームは、例えば、MPEG2トラ
ンスポートストリームやMPEG2プログラムストリームで
ある。ソースパケッタイザ19は、入力された多重化ス
トリームを、そのストリームを記録させる記録媒体10
0のアプリケーションフォーマットに従って、ソースパ
ケットから構成されるAVストリームに符号化する。AVス
トリームは、ECC(誤り訂正)符号化部20と変調部2
1でECC符号の付加と変調処理が施され、書き込み部2
2に出力される。書き込み部22は、制御部23から出
力される制御信号に基づいて、記録媒体100にAVスト
リームファイルを書き込む(記録する)。
The multiplexed stream is, for example, an MPEG2 transport stream or an MPEG2 program stream. The source packetizer 19 converts the input multiplexed stream into a recording medium 10 for recording the stream.
In accordance with an application format of 0, encoding is performed into an AV stream composed of source packets. The AV stream includes an ECC (error correction) encoder 20 and a modulator 2
The ECC code addition and modulation processing are performed in 1 and the writing unit 2
2 is output. The writing unit 22 writes (records) the AV stream file on the recording medium 100 based on the control signal output from the control unit 23.

【0035】デジタルインタフェースまたはデジタルテ
レビジョンチューナから入力されるデジタルテレビジョ
ン放送等のトランスポートストリームは、端子13に入
力される。端子13に入力されたトランスポートストリ
ームの記録方式には、2通りあり、それらは、トランス
ペアレントに記録する方式と、記録ビットレートを下げ
るなどの目的のために再エンコードをした後に記録する
方式である。記録方式の指示情報は、ユーザインターフ
ェースとしての端子24から制御部23へ入力される。
A transport stream such as a digital television broadcast input from a digital interface or a digital television tuner is input to a terminal 13. There are two types of recording methods for the transport stream input to the terminal 13, a method for recording transparently and a method for recording after re-encoding for the purpose of lowering the recording bit rate. . The instruction information of the recording method is input to the control unit 23 from a terminal 24 as a user interface.

【0036】入力トランスポートストリームをトランス
ペアレントに記録する場合、端子13に入力されたトラ
ンスポートストリームは、スイッチ17を介して多重化
ストリーム解析部18と、ソースパケッタイザ19に出
力される。これ以降の記録媒体100へAVストリームが
記録されるまでの処理は、上述のアナログの入力オーデ
ィオ信号とビデオ信号を符号化して記録する場合と同一
の処理なので、その説明は省略する。
When the input transport stream is recorded transparently, the transport stream input to the terminal 13 is output to the multiplexed stream analyzer 18 and the source packetizer 19 via the switch 17. Subsequent processing until the AV stream is recorded on the recording medium 100 is the same processing as when the analog input audio signal and the video signal are encoded and recorded, and the description thereof is omitted.

【0037】入力トランスポートストリームを再エンコ
ードした後に記録する場合、端子13に入力されたトラ
ンスポートストリームは、デマルチプレクサ26に入力
される。デマルチプレクサ26は、入力されたトランス
ポートストリームに対してデマルチプレクス処理を施
し、ビデオストリーム(V)、オーディオストリーム(A)、
およびシステム情報(S)を抽出する。
When recording after re-encoding the input transport stream, the transport stream input to the terminal 13 is input to the demultiplexer 26. The demultiplexer 26 performs demultiplex processing on the input transport stream, and performs a video stream (V), an audio stream (A),
And system information (S) is extracted.

【0038】デマルチプレクサ26により抽出されたス
トリーム(情報)のうち、ビデオストリームはAVデコー
ダ27に、オーディオストリームとシステム情報はマル
チプレクサ16に、それぞれ出力される。AVデコーダ2
7は、入力されたビデオストリームを復号し、その再生
ビデオ信号をAVエンコーダ15に出力する。AVエンコー
ダ15は、入力ビデオ信号を符号化し、符号化ビデオス
トリーム(V)をマルチプレクサ16に出力する。
Of the streams (information) extracted by the demultiplexer 26, the video stream is output to the AV decoder 27, and the audio stream and system information are output to the multiplexer 16. AV decoder 2
7 decodes the input video stream and outputs the reproduced video signal to the AV encoder 15. The AV encoder 15 encodes the input video signal and outputs an encoded video stream (V) to the multiplexer 16.

【0039】一方、デマルチプレクサ26から出力さ
れ、マルチプレクサ16に入力されたオーディオストリ
ームとシステム情報、および、AVエンコーダ15から出
力されたビデオストリームは、入力システム情報に基づ
いて、多重化されて、多重化ストリームとして多重化ス
トリーム解析部18とソースパケットタイザ19にスイ
ッチ17を介して出力される。これ以後の記録媒体10
0へAVストリームが記録されるまでの処理は、上述のア
ナログの入力オーディオ信号とビデオ信号を符号化して
記録する場合と同一の処理なので、その説明は省略す
る。
On the other hand, the audio stream and system information output from the demultiplexer 26 and input to the multiplexer 16 and the video stream output from the AV encoder 15 are multiplexed and multiplexed based on the input system information. The multiplexed stream is output to the multiplexed stream analyzer 18 and the source packetizer 19 via the switch 17. Subsequent recording medium 10
The processing up to the recording of the AV stream to 0 is the same as the processing of encoding and recording the analog input audio signal and video signal described above, and a description thereof will be omitted.

【0040】本実施の形態の記録再生装置1は、AVスト
リームのファイルを記録媒体100に記録すると共に、
そのファイルを説明するアプリケーションデータベース
情報も記録する。アプリケーションデータベース情報
は、制御部23により作成される。制御部23への入力
情報は、解析部14からの動画像の特徴情報、多重化ス
トリーム解析部18からのAVストリームの特徴情報、お
よび端子24から入力されるユーザからの指示情報であ
る。
The recording / reproducing apparatus 1 of the present embodiment records an AV stream file on the recording medium 100,
Also record application database information describing the file. The application database information is created by the control unit 23. The input information to the control unit 23 is the characteristic information of the moving image from the analysis unit 14, the characteristic information of the AV stream from the multiplexed stream analysis unit 18, and the instruction information from the user input from the terminal 24.

【0041】解析部14から供給される動画像の特徴情
報は、AVエンコーダ15がビデオ信号を符号化する場合
において、解析部14により生成されるものである。解
析部14は、入力ビデオ信号とオーディオ信号の内容を
解析し、入力動画像信号の中の特徴的な画像(クリップ
マーク)に関係する情報を生成する。これは、例えば、
入力ビデオ信号の中のプログラムの開始点、シーンチェ
ンジ点やCMコマーシャルのスタート点・エンド点、タイ
トルやテロップなどの特徴的なクリップマーク点の画像
の指示情報であり、また、それにはその画像のサムネー
ルも含まれる。さらにオーディオ信号のステレオとモノ
ラルの切り換え点や、無音区間などの情報も含まれる。
The moving image feature information supplied from the analysis unit 14 is generated by the analysis unit 14 when the AV encoder 15 encodes a video signal. The analysis unit 14 analyzes the contents of the input video signal and the audio signal, and generates information related to a characteristic image (clip mark) in the input moving image signal. This is, for example,
It is the instruction information of the image of the program start point, scene change point, start / end point of commercials, and characteristic clip mark points such as titles and telops in the input video signal. Also includes thumbnails. Further, information such as a switching point of the audio signal between stereo and monaural and a silent section is also included.

【0042】これらの画像の指示情報は、制御部23を
介して、マルチプレクサ16へ入力される。マルチプレ
クサ16は、制御部23からクリップマークとして指定
される符号化ピクチャを多重化する時に、その符号化ピ
クチャをAVストリーム上で特定するための情報を制御部
23に返す。具体的には、この情報は、ピクチャのPT
S(プレゼンテーションタイムスタンプ)またはその符
号化ピクチャのAVストリーム上でのアドレス情報であ
る。制御部23は、特徴的な画像の種類とその符号化ピ
クチャをAVストリーム上で特定するための情報を関連付
けて記憶する。
The instruction information of these images is input to the multiplexer 16 via the control unit 23. When multiplexing the coded picture specified as the clip mark from the control unit 23, the multiplexer 16 returns information for specifying the coded picture on the AV stream to the control unit 23. Specifically, this information is the PT of the picture.
S (presentation time stamp) or address information of the encoded picture on the AV stream. The control unit 23 stores the characteristic image type and information for specifying the encoded picture in the AV stream in association with each other.

【0043】多重化ストリーム解析部18からのAVスト
リームの特徴情報は、記録されるAVストリームの符号化
情報に関係する情報であり、解析部18により生成され
る。例えば、AVストリーム内のIピクチャのタイムスタ
ンプとアドレス情報、システムタイムクロックの不連続
点情報、AVストリームの符号化パラメータ、AVストリー
ムの中の符号化パラメータの変化点情報などが含まれ
る。また、端子13から入力されるトランスポートスト
リームをトランスペアレントに記録する場合、多重化ス
トリーム解析部18は、入力トランスポートストリーム
の中から前出のクリップマークの画像を検出し、その種
類とクリップマークで指定するピクチャを特定するため
の情報を生成する。
The characteristic information of the AV stream from the multiplexed stream analyzer 18 is information relating to the encoded information of the AV stream to be recorded, and is generated by the analyzer 18. For example, it includes the time stamp and address information of the I picture in the AV stream, discontinuous point information of the system time clock, coding parameters of the AV stream, and change point information of the coding parameters in the AV stream. When the transport stream input from the terminal 13 is recorded transparently, the multiplexed stream analyzer 18 detects the image of the above-mentioned clip mark from the input transport stream, and determines the type and the clip mark. Generates information for specifying a picture to be specified.

【0044】端子24からのユーザの指示情報は、AVス
トリームの中の、ユーザが指定した再生区間の指定情
報、その再生区間の内容を説明するキャラクター文字、
ユーザが好みのシーンにセットするブックマークやリジ
ューム点の情報などである。
The user's instruction information from the terminal 24 includes, in the AV stream, designation information of a reproduction section specified by the user, character characters for explaining the contents of the reproduction section,
Information such as a bookmark and a resume point set by the user in a favorite scene.

【0045】制御部23は、上記の入力情報に基づい
て、AVストリームのデータベース(Clip)、 AVストリー
ムの再生区間(PlayItem)をグループ化したもの(PlayLi
st)のデータベース、記録媒体100の記録内容の管理
情報(info.dvr)、およびサムネイル画像の情報を作成す
る。これらの情報から構成されるアプリケーションデー
タベース情報は、AVストリームと同様にして、ECC符号
化部20、変調部21で処理されて、書き込み部22へ
入力される。書き込み部22は、制御部23から出力さ
れる制御信号に基づいて、記録媒体100へデータベー
スファイルを記録する。
The control unit 23 groups the AV stream database (Clip) and the AV stream playback section (PlayItem) based on the input information (PlayLimit).
st), the management information (info.dvr) of the recorded content of the recording medium 100, and the information of the thumbnail image are created. The application database information composed of these pieces of information is processed by the ECC encoding unit 20 and the modulation unit 21 and input to the writing unit 22 in the same manner as the AV stream. The writing unit 22 records a database file on the recording medium 100 based on a control signal output from the control unit 23.

【0046】上述したアプリケーションデータベース情
報についての詳細は後述する。
The details of the application database information will be described later.

【0047】このようにして記録媒体100に記録され
たAVストリームファイル(画像データと音声データのフ
ァイル)と、アプリケーションデータベース情報が再生
部3により再生される場合、まず、制御部23は、読み
出し部28に対して、記録媒体100からアプリケーシ
ョンデータベース情報を読み出すように指示する。そし
て、読み出し部28は、記録媒体100からアプリケー
ションデータベース情報を読み出し、そのアプリケーシ
ョンデータベース情報は、復調部29とECC復号部30
の復調と誤り訂正処理を経て、制御部23へ入力され
る。
When the AV stream file (image data and audio data file) and the application database information thus recorded on the recording medium 100 are reproduced by the reproducing unit 3, first, the control unit 23 28 to read application database information from the recording medium 100. Then, the reading unit 28 reads the application database information from the recording medium 100, and the application database information is read by the demodulation unit 29 and the ECC decoding unit 30.
After being demodulated and error-corrected, it is input to the control unit 23.

【0048】制御部23は、アプリケーションデータベ
ース情報に基づいて、記録媒体100に記録されている
PlayListの一覧を端子24のユーザインターフェースへ
出力する。ユーザは、PlayListの一覧から再生したいPl
ayListを選択し、再生を指定されたPlayListに関する情
報が制御部23へ入力される。制御部23は、そのPlay
Listの再生に必要なAVストリームファイルの読み出し
を、読み出し部28に指示する。読み出し部28は、そ
の指示に従い、記録媒体100から対応するAVストリー
ムを読み出し復調部29に出力する。復調部29に入力
されたAVストリームは、所定の処理が施されることによ
り復調され、さらにECC復号部30の処理を経て、ソー
スデパケッタイザ31出力される。
The control unit 23 is recorded on the recording medium 100 based on the application database information.
The list of PlayList is output to the user interface of the terminal 24. The user wants to play Pl from the PlayList list.
The ayList is selected, and information on the PlayList designated to be reproduced is input to the control unit 23. The control unit 23 transmits the Play
The reading unit 28 is instructed to read an AV stream file necessary for reproducing the List. The reading unit 28 reads the corresponding AV stream from the recording medium 100 and outputs the read AV stream to the demodulation unit 29 according to the instruction. The AV stream input to the demodulation unit 29 is demodulated by performing predetermined processing, and is further output to the source depacketizer 31 through the processing of the ECC decoding unit 30.

【0049】ソースデパケッタイザ31は、記録媒体1
00から読み出され、所定の処理が施されたアプリケー
ションフォーマットのAVストリームを、デマルチプレク
サ26が処理可能なストリームに変換する。デマルチプ
レクサ26は、制御部23により指定されたAVストリー
ムの再生区間(PlayItem)を構成するビデオストリーム
(V)、オーディオストリーム(A)、およびAV同期等のシス
テム情報(S)を、AVデコーダ27に出力する。AVデコー
ダ27は、ビデオストリームとオーディオストリームを
復号し、再生ビデオ信号と再生オーディオ信号を、それ
ぞれ対応する端子32と端子33から出力する。
The source depacketizer 31 stores the recording medium 1
The demultiplexer 26 converts the application format AV stream read from 00 and subjected to predetermined processing into a stream that can be processed by the demultiplexer 26. The demultiplexer 26 is a video stream constituting a playback section (PlayItem) of the AV stream specified by the control unit 23.
(V), an audio stream (A), and system information (S) such as AV synchronization are output to the AV decoder 27. The AV decoder 27 decodes the video stream and the audio stream, and outputs a reproduced video signal and a reproduced audio signal from the corresponding terminals 32 and 33, respectively.

【0050】また、ユーザインタフェースとしての端子
24から、ランダムアクセス再生や特殊再生を指示する
情報が入力された場合、制御部23は、AVストリームの
データベース(Clip)の内容に基づいて、記憶媒体100
からのAVストリームの読み出し位置を決定し、そのAVス
トリームの読み出しを、読み出し部28に指示する。例
えば、ユーザにより選択されたPlayListを、所定の時刻
から再生する場合、制御部23は、指定された時刻に最
も近いタイムスタンプを持つIピクチャからのデータを
読み出すように読み出し部28に指示する。
When information for instructing random access reproduction or special reproduction is input from a terminal 24 serving as a user interface, the control unit 23 transmits the information to the storage medium 100 based on the contents of the AV stream database (Clip).
, And instructs the reading unit 28 to read the AV stream. For example, when playing the PlayList selected by the user from a predetermined time, the control unit 23 instructs the reading unit 28 to read data from an I picture having a time stamp closest to the specified time.

【0051】また、Clip Informationの中のClipMarkに
ストアされている番組の頭出し点やシーンチェンジ点の
中から、ユーザがあるクリップマークを選択した時(例
えば、この動作は、ClipMarkにストアされている番組の
頭出し点やシーンチェンジ点のサムネール画像リストを
ユーザインタフェースに表示して、ユーザが、その中か
らある画像を選択することにより行われる)、制御部2
3は、Clip Informationの内容に基づいて、記録媒体1
00からのAVストリームの読み出し位置を決定し、その
AVストリームの読み出しを読み出し部28へ指示する。
すなわち、ユーザが選択した画像がストアされているAV
ストリーム上でのアドレスに最も近いアドレスにあるI
ピクチャからのデータを読み出すように読み出し部28
へ指示する。読み出し部28は、指定されたアドレスか
らデータを読み出し、読み出されたデータは、復調部2
9、ECC復号部30、ソースデパケッタイザ31の処理
を経て、デマルチプレクサ26へ入力され、AVデコーダ
27で復号されて、マーク点のピクチャのアドレスで示
されるAVデータが再生される。
Also, when the user selects a certain clip mark from the start point or scene change point of the program stored in the ClipMark in the Clip Information (for example, this operation is performed when the clip mark is stored in the ClipMark). A thumbnail image list of the start point and the scene change point of the program being displayed is displayed on the user interface, and the user selects a certain image from the list, and the control unit 2
3 is a recording medium 1 based on the contents of Clip Information.
Determine the reading position of the AV stream from 00
The reading unit 28 is instructed to read the AV stream.
That is, the AV in which the image selected by the user is stored
I at the address closest to the address on the stream
The reading unit 28 reads data from a picture.
To The reading unit 28 reads data from the designated address, and reads the read data from the demodulation unit 2.
9. After being processed by the ECC decoding unit 30 and the source depacketizer 31, the data is input to the demultiplexer 26, decoded by the AV decoder 27, and the AV data indicated by the address of the picture at the mark point is reproduced.

【0052】また、ユーザによって高速再生(Fast-forw
ard playback)が指示された場合、制御部23は、AVス
トリームのデータベース(Clip)に基づいて、AVストリー
ムの中のI-ピクチャデータを順次連続して読み出すよう
に読み出し部28に指示する。
[0052] In addition, high-speed reproduction (Fast-forw
When “ard playback” is instructed, the control unit 23 instructs the reading unit 28 to sequentially and sequentially read the I-picture data in the AV stream based on the database (Clip) of the AV stream.

【0053】読み出し部28は、指定されたランダムア
クセスポイントからAVストリームのデータを読み出し、
読み出されたデータは、後段の各部の処理を経て再生さ
れる。
The reading unit 28 reads the data of the AV stream from the designated random access point,
The read data is reproduced through the processing of each unit at the subsequent stage.

【0054】次に、ユーザが、記録媒体100に記録さ
れているAVストリームの編集をする場合を説明する。ユ
ーザが、記録媒体100に記録されているAVストリーム
の再生区間を指定して新しい再生経路を作成したい場
合、例えば、番組Aという歌番組から歌手Aの部分を再
生し、その後続けて、番組Bという歌番組の歌手Aの部
分を再生したいといった再生経路を作成したい場合、ユ
ーザインタフェースとしての端子24から再生区間の開
始点(イン点)と終了点(アウト点)の情報が制御部2
3に入力される。制御部23は、AVストリームの再生区
間(PlayItem)をグループ化したもの(PlayList)のデー
タベースを作成する。
Next, a case where a user edits an AV stream recorded on the recording medium 100 will be described. When the user wants to create a new playback path by designating the playback section of the AV stream recorded on the recording medium 100, for example, the part of the singer A is reproduced from the song program A, and then the program B is continued. When the user wants to create a reproduction path such as reproducing the part of the singer A of the song program, the information of the start point (in point) and the end point (out point) of the reproduction section is transmitted from the terminal 24 as a user interface to the control unit 2.
3 is input. The control unit 23 creates a database of a group (PlayList) of playback sections (PlayItems) of the AV stream.

【0055】ユーザが、記録媒体100に記録されてい
るAVストリームの一部を消去したい場合、ユーザインタ
フェースとしての端子24から消去区間のイン点とアウ
ト点の情報が制御部23に入力される。制御部23は、
必要なAVストリーム部分だけを参照するようにPlayList
のデータベースを変更する。また、AVストリームの不必
要なストリーム部分を消去するように、書き込み部22
に指示する。
When the user wants to erase a part of the AV stream recorded on the recording medium 100, information on the IN point and the OUT point of the erase section is input to the control unit 23 from the terminal 24 as a user interface. The control unit 23
PlayList to refer only to the necessary AV stream part
To change the database. In addition, the writing unit 22 deletes unnecessary stream portions of the AV stream.
To instruct.

【0056】ユーザが、記録媒体100に記録されてい
るAVストリームの再生区間を指定して新しい再生経路を
作成したい場合であり、かつ、それぞれの再生区間をシ
ームレスに接続したい場合について説明する。このよう
な場合、制御部23は、AVストリームの再生区間(PlayI
tem)をグループ化したもの(PlayList)のデータベース
を作成し、さらに、再生区間の接続点付近のビデオスト
リームの部分的な再エンコードと再多重化を行う。
The case where the user wants to create a new playback path by designating the playback section of the AV stream recorded on the recording medium 100 and wants to seamlessly connect the respective playback sections will be described. In such a case, the control unit 23 sets the playback section (PlayI
tem) are grouped (PlayList), and a video stream near the connection point of the playback section is partially re-encoded and re-multiplexed.

【0057】まず、端子24から再生区間のイン点のピ
クチャの情報と、アウト点のピクチャの情報が制御部2
3へ入力される。制御部23は、読み出し部28にイン
点側ピクチャとアウト点側のピクチャを再生するために
必要なデータの読み出しを指示する。そして、読み出し
部28は、記録媒体100からデータを読み出し、その
データは、復調部29、ECC復号部30、ソースデパケ
ッタイザ31を経て、デマルチプレクサ26に出力され
る。
First, from the terminal 24, the information of the picture at the in-point and the information of the picture at the out-point of the reproduction section are transmitted to the control unit 2.
3 is input. The control unit 23 instructs the reading unit 28 to read out data necessary for reproducing the in-point side picture and the out-point side picture. Then, the reading unit 28 reads data from the recording medium 100, and outputs the data to the demultiplexer 26 via the demodulation unit 29, the ECC decoding unit 30, and the source depacketizer 31.

【0058】制御部23は、デマルチプレクサ26に入
力されたデータを解析して、ビデオストリームの再エン
コード方法(picture_coding_typeの変更、再エンコー
ドする符号化ビット量の割り当て)と、再多重化方式を
決定し、その方式をAVエンコーダ15とマルチプレクサ
16に供給する。
The control unit 23 analyzes the data input to the demultiplexer 26 and determines a video stream re-encoding method (change of picture_coding_type, allocation of the amount of coded bits to be re-encoded) and a re-multiplexing method. Then, the system is supplied to the AV encoder 15 and the multiplexer 16.

【0059】次に、デマルチプレクサ26は、入力され
たストリームをビデオストリーム(V)、オーディオスト
リーム(A)、およびシステム情報(S)に分離する。ビデオ
ストリームは、AVデコーダ27に入力されるデータとマ
ルチプレクサ16に入力されるデータがある。前者のデ
ータは、再エンコードするために必要なデータであり、
これはAVデコーダ27で復号され、復号されたピクチャ
はAVエンコーダ15で再エンコードされて、ビデオスト
リームにされる。後者のデータは、再エンコードをしな
いで、オリジナルのストリームからコピーされるデータ
である。オーディオストリーム、システム情報について
は、直接、マルチプレクサ16に入力される。
Next, the demultiplexer 26 separates the input stream into a video stream (V), an audio stream (A), and system information (S). The video stream includes data input to the AV decoder 27 and data input to the multiplexer 16. The former data is necessary for re-encoding,
This is decoded by the AV decoder 27, and the decoded picture is re-encoded by the AV encoder 15 to be a video stream. The latter data is data copied from the original stream without re-encoding. Audio streams and system information are directly input to the multiplexer 16.

【0060】マルチプレクサ16は、制御部23から入
力された情報に基づいて、入力ストリームを多重化し、
多重化ストリームを出力する。多重化ストリームは、EC
C符号化部20、変調部21で処理されて、書き込み部
22に入力される。書き込み部22は、制御部23から
供給される制御信号に基づいて、記録媒体100にAVス
トリームを記録する。
The multiplexer 16 multiplexes the input stream based on the information input from the control unit 23,
Output multiplexed stream. The multiplexed stream is EC
The signals are processed by the C encoding unit 20 and the modulation unit 21 and input to the writing unit 22. The writing unit 22 records an AV stream on the recording medium 100 based on a control signal supplied from the control unit 23.

【0061】以下に、アプリケーションデータベース情
報や、その情報に基づく再生、編集といった操作に関す
る説明をする。図2は、アプリケーションフォーマット
の構造を説明する図である。アプリケーションフォーマ
ットは、AVストリームの管理のためにPlayListとClipの
2つのレイヤをもつ。Volume Informationは、ディスク
内のすべてのClipとPlayListの管理をする。ここでは、
1つのAVストリームとその付属情報のペアを1つのオブ
ジェクトと考え、それをClipと称する。AVストリームフ
ァイルはClip AV stream fileと称し、その付属情報
は、Clip Information fileと称する。
The following describes application database information and operations such as reproduction and editing based on the information. FIG. 2 is a diagram illustrating the structure of the application format. The application format has two layers, PlayList and Clip, for AV stream management. Volume Information manages all Clips and PlayLists in the disc. here,
A pair of one AV stream and its attached information is considered as one object, and is called a Clip. An AV stream file is referred to as a Clip AV stream file, and its accompanying information is referred to as a Clip Information file.

【0062】1つのClip AV stream fileは、MPEG2トラ
ンスポートストリームをアプリケーションフォーマット
によって規定される構造に配置したデータをストアす
る。一般的に、ファイルは、バイト列として扱われる
が、Clip AV stream fileのコンテンツは、時間軸上に
展開され、Clipの中のエントリーポイント(Iピクチ
ャ)は、主に時間ベースで指定される。所定のClipへの
アクセスポイントのタイムスタンプが与えられた時、Cl
ip Information fileは、Clip AV stream fileの中でデ
ータの読み出しを開始すべきアドレス情報を見つけるた
めに役立つ。
One Clip AV stream file stores data in which an MPEG2 transport stream is arranged in a structure defined by an application format. Generally, a file is treated as a byte sequence, but the contents of a Clip AV stream file are developed on a time axis, and an entry point (I picture) in the Clip is specified mainly on a time basis. When a time stamp of an access point to a predetermined Clip is given, Cl
The ip Information file is useful for finding address information to start reading data from the Clip AV stream file.

【0063】PlayListについて、図3を参照して説明す
る。PlayListは、Clipの中からユーザが見たい再生区間
を選択し、それを簡単に編集することができるようにす
るために設けられている。1つのPlayListは、Clipの中
の再生区間の集まりである。所定のClipの中の1つの再
生区間は、PlayItemと呼ばれ、それは、時間軸上のイン
点(IN)とアウト点(OUT)の対で表される。従って、P
layListは、複数のPlayItemが集まることにより構成さ
れる。
The PlayList will be described with reference to FIG. The PlayList is provided in order to allow the user to select a playback section desired to be viewed from the Clip and easily edit it. One PlayList is a group of playback sections in a Clip. One playback section in a predetermined Clip is called a PlayItem, which is represented by a pair of an IN point (IN) and an OUT point (OUT) on the time axis. Therefore, P
The layList is configured by collecting a plurality of PlayItems.

【0064】PlayListには、2つのタイプがある。1つ
は、Real PlayListであり、もう1つは、Virtual PlayL
istである。Real PlayListは、それが参照しているClip
のストリーム部分を共有している。すなわち、Real Pla
yListは、それの参照しているClipのストリーム部分に
相当するデータ容量をディスクの中で占め、Real PlayL
istが消去された場合、それが参照しているClipのスト
リーム部分もまたデータが消去される。
There are two types of PlayLists. One is Real PlayList and the other is Virtual PlayL
ist. Real PlayList is the Clip it refers to
Share the stream part. That is, Real Pla
yList occupies the data capacity in the disc corresponding to the stream portion of the Clip referred to by the
When the ist is deleted, the data of the stream portion of the Clip referred to by the ist is also deleted.

【0065】Virtual PlayListは、Clipのデータを共有
していない。従って、Virtual PlayListが変更または消
去されたとしても、Clipの内容には何も変化が生じな
い。
The Virtual PlayList does not share Clip data. Therefore, even if the Virtual PlayList is changed or deleted, there is no change in the contents of the Clip.

【0066】次に、Real PlayListの編集について説明
する。図4(A)は、Real PlayListのクリエイト(crea
te:作成)に関する図であり、AVストリームが新しいCli
pとして記録される場合、そのClip全体を参照するReal
PlayListが新たに作成される操作である。
Next, editing of the Real PlayList will be described. FIG. 4A shows the creation (crea) of Real PlayList.
te: creation), where the AV stream is a new Cli
If recorded as p, Real refers to the entire Clip
This is an operation in which a PlayList is newly created.

【0067】図4(B)は、Real PlayListのディバイ
ド(divide:分割)に関する図であり、Real PlayListが
所望な点で分けられて、2つのReal PlayListに分割さ
れる操作である。この分割という操作は、例えば、1つ
のPlayListにより管理される1つのクリップ内に、2つ
の番組が管理されているような場合に、ユーザが1つ1
つの番組として登録(記録)し直したいといったような
ときに行われる。この操作により、Clipの内容が変更さ
れる(Clip自体が分割される)ことはない。
FIG. 4B is a diagram relating to the division of the Real PlayList, and is an operation in which the Real PlayList is divided at desired points and divided into two Real PlayLists. This division operation is performed, for example, when two programs are managed in one clip managed by one PlayList.
This is performed when the user wants to register (record) as one program again. This operation does not change the contents of the Clip (the Clip itself is divided).

【0068】図4(C)は、Real PlayListのコンバイ
ン(combine:結合)に関する図であり、2つのReal Play
Listを結合して、1つの新しいReal PlayListにする操
作である。この結合という操作は、例えば、ユーザが2
つの番組を1つの番組として登録し直したいといったよ
うなときに行われる。この操作により、Clipが変更され
る(Clip自体が1つにされる)ことはない。
FIG. 4C is a diagram relating to a combine of Real PlayLists.
This is an operation for combining Lists into one new Real PlayList. The operation of this combination is performed when the user
This is performed when one program is to be re-registered as one program. This operation does not change the Clip (the Clip itself is changed to one).

【0069】図5(A)は、Real PlayList全体のデリ
ート(delete:削除)に関する図であり、所定のReal Pla
yList全体を消去する操作がされた場合、削除されたRea
l PlayListが参照するClipの、対応するストリーム部分
も削除される。
FIG. 5A is a diagram relating to the deletion (delete) of the entire Real PlayList.
If an operation to delete the entire yList is performed, the deleted Rea
l The corresponding stream portion of the Clip referenced by the PlayList is also deleted.

【0070】図5(B)は、Real PlayListの部分的な
削除に関する図であり、Real PlayListの所望な部分が
削除された場合、対応するPlayItemが、必要なClipのス
トリーム部分だけを参照するように変更される。そし
て、Clipの対応するストリーム部分は削除される。
FIG. 5B is a diagram relating to the partial deletion of the Real PlayList. When a desired portion of the Real PlayList is deleted, the corresponding PlayItem refers to only the necessary Clip stream portion. Is changed to Then, the corresponding stream portion of the Clip is deleted.

【0071】図5(C)は、Real PlayListのミニマイ
ズ(Minimize:最小化)に関する図であり、Real PlayLis
tに対応するPlayItemを、Virtual PlayListに必要なCli
pのストリーム部分だけを参照するようにする操作であ
る。Virtual PlayList にとって不必要なClipの、対応
するストリーム部分は削除される。
FIG. 5C is a diagram relating to minimization (Minimize) of Real PlayList.
The PlayItem corresponding to the t
This operation refers to only the stream part of p. The corresponding stream portion of the Clip unnecessary for the Virtual PlayList is deleted.

【0072】上述したような操作により、Real PlayLis
tが変更されて、そのReal PlayListが参照するClipのス
トリーム部分が削除された場合、その削除されたClipを
使用しているVirtual PlayListが存在し、そのVirtual
PlayListにおいて、削除されたClipにより問題が生じる
可能性がある。
By the operation as described above, Real PlayLis
If the t is changed and the stream portion of the Clip referred to by the Real PlayList is deleted, there is a Virtual PlayList using the deleted Clip, and
In PlayList, there is a possibility that a problem may occur due to the deleted Clip.

【0073】そのようなことが生じないように、ユーザ
に、削除という操作に対して、「そのReal PlayListが
参照しているClipのストリーム部分を参照しているVirt
ual PlayListが存在し、もし、そのReal PlayListが消
去されると、そのVirtual PlayListもまた消去されるこ
とになるが、それでも良いか?」といったメッセージな
どを表示させることにより、確認(警告)を促した後
に、ユーザの指示により削除の処理を実行、または、キ
ャンセルする。または、Virtual PlayListを削除する代
わりに、Real PlayListに対してミニマイズの操作が行
われるようにする。
In order to prevent such a case from occurring, the user instructs the user to delete the “Virt referencing the stream portion of the Clip referenced by the Real PlayList”.
ual PlayList exists, and if the Real PlayList is deleted, the Virtual PlayList will also be deleted. Is that ok? Is displayed, thereby prompting confirmation (warning), and then executing or canceling the deletion process according to the user's instruction. Alternatively, instead of deleting the Virtual PlayList, a minimizing operation is performed on the Real PlayList.

【0074】次にVirtual PlayListに対する操作につい
て説明する。Virtual PlayListに対して操作が行われた
としても、Clipの内容が変更されることはない。図6
は、アセンブル(Assemble) 編集 (IN-OUT 編集)に関す
る図であり、ユーザが見たいと所望した再生区間のPlay
Itemを作り、Virtual PlayListを作成するといった操作
である。PlayItem間のシームレス接続が、アプリケーシ
ョンフォーマットによりサポートされている(後述)。
Next, the operation for the Virtual PlayList will be described. Even if an operation is performed on the Virtual PlayList, the contents of the Clip are not changed. FIG.
Is a diagram related to assemble editing (IN-OUT editing).
This is an operation to create an Item and a Virtual PlayList. Seamless connection between PlayItems is supported by the application format (described later).

【0075】図6(A)に示したように、2つのReal P
layList1,2と、それぞれのRealPlayListに対応するC
lip1,2が存在している場合に、ユーザがReal PlayLi
st1内の所定の区間(In1乃至Out1までの区間:PlayI
tem1)を再生区間として指示し、続けて再生する区間
として、Real PlayList2内の所定の区間(In2乃至Out
2までの区間:PlayItem2)を再生区間として指示した
とき、図6(B)に示すように、PlayItem1とPlayItem
2から構成される1つのVirtual PlayListが作成され
る。
As shown in FIG. 6A, two Real Ps
layList1, 2 and C corresponding to each RealPlayList
If lip1 and lip2 exist, the user
A predetermined section in st1 (section from In1 to Out1: PlayI
tem1) as a playback section, and as a section to be continuously played back, a predetermined section (In2 to Out) in Real PlayList2.
2 (PlayItem 2) is designated as a playback section, and as shown in FIG.
One Virtual PlayList composed of two is created.

【0076】次に、Virtual PlayList の再編集(Re-edi
ting)について説明する。再編集には、Virtual PlayLis
tの中のイン点やアウト点の変更、Virtual PlayListへ
の新しいPlayItemの挿入(insert)や追加(append)、Virt
ual PlayListの中のPlayItemの削除などがある。また、
Virtual PlayListそのものを削除することもできる。
Next, the virtual play list is re-edited (Re-edi
ting) will be described. For reediting, Virtual PlayLis
Change in and out points in t, insert (insert) and add (append) new PlayItems to Virtual PlayList, Virt
For example, there is a deletion of PlayItem in the ual PlayList. Also,
The Virtual PlayList itself can be deleted.

【0077】図7は、Virtual PlayListへのオーディオ
のアフレコ(Audio dubbing (post recording))に関する
図であり、Virtual PlayListへのオーディオのアフレコ
をサブパスとして登録する操作のことである。このオー
ディオのアフレコは、アプリケーションフォーマットに
よりサポートされている。Virtual PlayListのメインパ
スのAVストリームに、付加的なオーディオストリーム
が、サブパスとして付加される。
FIG. 7 is a diagram relating to audio dubbing (post recording) of audio to the Virtual PlayList, and refers to an operation of registering audio dubbing to the Virtual PlayList as a sub path. This audio dubbing is supported by the application format. An additional audio stream is added as a sub-path to the main stream AV stream of the Virtual PlayList.

【0078】Real PlayListとVirtual PlayListで共通
の操作として、図8に示すようなPlayListの再生順序の
変更(Moving)がある。この操作は、ディスク(ボリュー
ム)の中でのPlayListの再生順序の変更であり、アプリ
ケーションフォーマットにおいて定義されるTable Of P
layList(図20などを参照して後述する)によってサ
ポートされる。この操作により、Clipの内容が変更され
るようなことはない。
As an operation common to the Real PlayList and the Virtual PlayList, there is a change (Moving) in the playback order of the PlayList as shown in FIG. This operation is a change in the playback order of the PlayList in the disk (volume), and the Table Of P
layList (described later with reference to FIG. 20 and the like). This operation does not change the contents of the Clip.

【0079】次に、マーク(Mark)について説明する。
マークは、図9に示されるように、ClipおよびPlayList
の中のハイライトや特徴的な時間を指定するために設け
られている。Clipに付加されるマークは、ClipMark(ク
リップマーク)と呼ばれる。ClipMarkは、AVストリーム
の内容に起因する特徴的なシーンを指定する、例えば番
組の頭だし点やシーンチェンジ点などである。ClipMark
は、図1の例えば解析部14によって生成される。Play
Listを再生する時、そのPlayListが参照するClipのマー
クを参照して、使用する事ができる。
Next, the mark (Mark) will be described.
The mark is, as shown in FIG. 9, Clip and PlayList.
It is provided to specify the highlight and the characteristic time in. The mark added to the Clip is called ClipMark (clip mark). The ClipMark specifies a characteristic scene caused by the contents of the AV stream, such as a program start point or a scene change point. ClipMark
Is generated by, for example, the analysis unit 14 in FIG. Play
When the List is reproduced, it can be used by referring to the mark of the Clip referred to by the PlayList.

【0080】PlayListに付加されるマークは、PlayList
Mark(プレイリストマーク)と呼ばれる。PlayListMark
は、主にユーザによってセットされる、例えば、ブック
マークやリジューム点などである。ClipまたはPlayList
にマークをセットすることは、マークの時刻を示すタイ
ムスタンプをマークリストに追加することにより行われ
る。また、マークを削除することは、マークリストの中
から、そのマークのタイムスタンプを除去する事であ
る。従って、マークの設定や削除により、AVストリーム
は何の変更もされない。
The mark added to the PlayList is a PlayList
It is called Mark (playlist mark). PlayListMark
Are mainly set by the user, such as a bookmark and a resume point. Clip or PlayList
Is set by adding a time stamp indicating the time of the mark to the mark list. Deleting a mark means removing the time stamp of the mark from the mark list. Therefore, the AV stream is not changed at all by setting or deleting the mark.

【0081】ClipMarkの別のフォーマットとして、Clip
Markが参照するピクチャをAVストリームの中でのアドレ
スベースで指定するようにしても良い。Clipにマークを
セットすることは、マーク点のピクチャを示すアドレス
ベースの情報をマークリストに追加することにより行わ
れる。また、マークを削除することは、マークリストの
中から、そのマーク点のピクチャを示すアドレスベース
の情報を除去する事である。従って、マークの設定や削
除により、AVストリームは何の変更もされない。
As another format of ClipMark, Clip
The picture referenced by Mark may be specified on an address basis in the AV stream. The setting of the mark in the Clip is performed by adding address-based information indicating the picture at the mark point to the mark list. Deleting a mark means removing address-based information indicating a picture at the mark point from the mark list. Therefore, the AV stream is not changed at all by setting or deleting the mark.

【0082】次にサムネイルについて説明する。サムネ
イルは、Volume、PlayList、およびClipに付加される静
止画である。サムネイルには、2つの種類があり、1つ
は、内容を表す代表画としてのサムネイルである。これ
は主としてユーザがカーソル(不図示)などを操作して
見たいものを選択するためのメニュー画面で使われるも
のである。もう1つは、マークが指しているシーンを表
す画像である。
Next, the thumbnail will be described. The thumbnail is a still image added to Volume, PlayList, and Clip. There are two types of thumbnails, and one is a thumbnail as a representative image representing the content. This is mainly used on a menu screen for allowing a user to operate a cursor (not shown) or the like to select a desired item. The other is an image representing the scene indicated by the mark.

【0083】Volumeと各Playlistは代表画を持つことが
できるようにする必要がある。Volumeの代表画は、ディ
スク(記録媒体100、以下、記録媒体100はディス
ク状のものであるとし、適宜、ディスクと記述する)を
記録再生装置1の所定の場所にセットした時に、そのデ
ィスクの内容を表す静止画を最初に表示する場合などに
用いられることを想定している。Playlistの代表画は、
Playlistを選択するメニュー画面において、Playlistの
内容を表すための静止画として用いられることを想定し
ている。
It is necessary that the Volume and each Playlist can have a representative picture. When a disk (recording medium 100; hereinafter, recording medium 100 is disk-shaped and is appropriately described as a disk) is set at a predetermined location of recording / reproducing apparatus 1, a representative image of the Volume is It is assumed that it is used when a still image representing the content is displayed first. The representative image of Playlist is
It is assumed that the menu screen for selecting a Playlist is used as a still image for representing the contents of the Playlist.

【0084】Playlistの代表画として、Playlistの最初
の画像をサムネイル(代表画)にすることが考えられる
が、必ずしも再生時刻0の先頭の画像が内容を表す上で
最適な画像とは限らない。そこで、Playlistのサムネイ
ルとして、任意の画像をユーザが設定できるようにす
る。以上Volumeを表す代表画としてのサムネイルと、Pl
ayListを表す代表画としてのサムネイルの2種類のサム
ネイルをメニューサムネイルと称する。メニューサムネ
イルは頻繁に表示されるため、ディスクから高速に読み
出される必要がある。このため、すべてのメニューサム
ネイルを1つのファイルに格納することが効率的であ
る。メニューサムネイルは、必ずしもボリューム内の動
画から抜き出したピクチャである必要はなく、図10に
示すように、パーソナルコンピュータやデジタルスチル
カメラから取り込こまれた画像でもよい。
As the representative picture of the playlist, it is conceivable that the first picture of the playlist is a thumbnail (representative picture), but the picture at the beginning of the reproduction time 0 is not always the most suitable picture for representing the contents. Therefore, the user can set an arbitrary image as a thumbnail of the playlist. The thumbnail as a representative picture representing Volume and Pl
The two types of thumbnails as representative images representing the ayList are called menu thumbnails. Since menu thumbnails are displayed frequently, they need to be read from the disk at high speed. Therefore, it is efficient to store all menu thumbnails in one file. The menu thumbnail need not necessarily be a picture extracted from a moving image in the volume, but may be an image captured from a personal computer or a digital still camera as shown in FIG.

【0085】一方、ClipとPlaylistには、複数個のマー
クを打てる必要があり、マーク位置の内容を知るために
マーク点の画像を容易に見ることが出来るようにする必
要がある。このようなマーク点を表すピクチャをマーク
サムネイル(Mark Thumbnails)と称する。従って、マ
ークサムネイルの元となる画像は、外部から取り込んだ
画像よりも、マーク点の画像を抜き出したものが主とな
る。
On the other hand, it is necessary to put a plurality of marks on the Clip and the Playlist, and it is necessary to easily see the image of the mark point in order to know the contents of the mark position. A picture representing such a mark point is called a mark thumbnail (Mark Thumbnails). Therefore, the image serving as the basis of the mark thumbnail is mainly an image obtained by extracting the image at the mark point, rather than an image fetched from outside.

【0086】図11は、PlayListに付けられるマーク
と、そのマークサムネイルの関係について示す図であ
り、図12は、Clipに付けられるマークと、そのマーク
サムネイルの関係について示す図である。マークサムネ
イルは、メニューサムネイルと異なり、Playlistの詳細
を表す時に、サブメニュー等で使われるため、短いアク
セス時間で読み出されるようなことは要求されない。そ
のため、サムネイルが必要になる度に、記録再生装置1
がファイルを開き、そのファイルの一部を読み出すこと
で多少時間がかかっても、問題にはならない。
FIG. 11 is a diagram showing the relationship between the mark attached to the PlayList and the mark thumbnail, and FIG. 12 is a diagram showing the relationship between the mark attached to the Clip and the mark thumbnail. The mark thumbnail, unlike the menu thumbnail, is used in a submenu or the like when representing the details of the playlist, so that it is not required to be read out in a short access time. Therefore, each time a thumbnail is required, the recording / reproducing device 1
It doesn't matter if it takes some time to open the file and read part of it.

【0087】また、ボリューム内に存在するファイル数
を減らすために、すべてのマークサムネイルは1つのフ
ァイルに格納するのがよい。Playlistはメニューサムネ
イル1つと複数のマークサムネイルを有することができ
るが、Clipは直接ユーザが選択する必要性がない(通
常、Playlist経由で指定する)ため、メニューサムネイ
ルを設ける必要はない。
Further, in order to reduce the number of files existing in the volume, all the mark thumbnails are preferably stored in one file. A Playlist can have one menu thumbnail and a plurality of mark thumbnails, but there is no need to provide a menu thumbnail because the Clip does not need to be directly selected by the user (usually specified via the Playlist).

【0088】図13は、上述したことを考慮した場合の
メニューサムネイル、マークサムネイル、PlayList、お
よびClipの関係について示した図である。メニューサム
ネイルファイルには、PlayList毎に設けられたメニュー
サムネイルがファイルされている。メニューサムネイル
ファイルには、ディスクに記録されているデータの内容
を代表するボリュームサムネイルが含まれている。マー
クサムネイルファイルは、各PlayList毎と各Clip毎に作
成されたサムネイルがファイルされている。
FIG. 13 is a diagram showing the relationship among menu thumbnails, mark thumbnails, PlayLists, and Clips in consideration of the above. In the menu thumbnail file, menu thumbnails provided for each PlayList are filed. The menu thumbnail file includes a volume thumbnail representing the content of data recorded on the disc. In the mark thumbnail file, thumbnails created for each PlayList and each Clip are stored.

【0089】次に、CPI(Characteristic Point Inform
ation)について説明する。CPIは、Clipインフォメーシ
ョンファイルに含まれるデータであり、主に、それはCl
ipへのアクセスポイントのタイムスタンプが与えられた
時、Clip AV stream fileの中でデータの読み出しを開
始すべきデータアドレスを見つけるために用いられる。
本実施の形態では、2種類のCPIを用いる。1つは、EP_
mapであり、もう一つは、TU_mapである。
Next, CPI (Characteristic Point Inform)
ation) will be described. The CPI is data contained in the Clip information file.
When the time stamp of the access point to the ip is given, it is used to find a data address to start reading data in the Clip AV stream file.
In the present embodiment, two types of CPI are used. One is EP_
map, and the other is TU_map.

【0090】EP_mapは、エントリーポイント(EP)データ
のリストであり、それはエレメンタリーストリームおよ
びトランスポートストリームから抽出されたものであ
る。これは、AVストリームの中でデコードを開始すべき
エントリーポイントの場所を見つけるためのアドレス情
報を持つ。1つのEPデータは、プレゼンテーションタイ
ムスタンプ(PTS)と、そのPTSに対応するアクセスユニ
ットのAVストリームの中のデータアドレスの対で構成さ
れる。
EP_map is a list of entry point (EP) data, which is extracted from the elementary stream and the transport stream. It has address information for finding the location of the entry point where decoding should start in the AV stream. One piece of EP data includes a pair of a presentation time stamp (PTS) and a data address in an AV stream of an access unit corresponding to the PTS.

【0091】EP_mapは、主に2つの目的のために使用さ
れる。第1に、PlayListの中でプレゼンテーションタイ
ムスタンプによって参照されるアクセスユニットのAVス
トリームの中のデータアドレスを見つけるために使用さ
れる。第2に、ファーストフォワード再生やファースト
リバース再生のために使用される。記録再生装置1が、
入力AVストリームを記録する場合、そのストリームのシ
ンタクスを解析することができるとき、EP_mapが作成さ
れ、ディスクに記録される。
The EP_map is mainly used for two purposes. First, it is used to find the data address in the AV stream of the access unit referenced by the presentation time stamp in the PlayList. Second, it is used for fast forward reproduction and first reverse reproduction. The recording / reproducing device 1
When recording the input AV stream, when the syntax of the stream can be analyzed, an EP_map is created and recorded on the disc.

【0092】TU_mapは、デジタルインタフェースを通し
て入力されるトランスポートパケットの到着時刻に基づ
いたタイムユニット(TU)データのリストを持つ。これ
は、到着時刻ベースの時間とAVストリームの中のデータ
アドレスとの関係を与える。記録再生装置1が、入力AV
ストリームを記録する場合、そのストリームのシンタク
スを解析することができないとき、TU_mapが作成され、
ディスクに記録される。
[0092] The TU_map has a list of time unit (TU) data based on the arrival time of the transport packet input through the digital interface. This gives a relation between the time based on the arrival time and the data address in the AV stream. The recording / reproducing apparatus 1 receives the input AV
When recording a stream, when the syntax of the stream cannot be analyzed, a TU_map is created,
Recorded on the disc.

【0093】STCInfoは、MPEG2トランスポートストリ
ームをストアしているAVストリームファイルの中にある
STCの不連続点情報をストアする。
[0093] STCInfo exists in the AV stream file storing the MPEG2 transport stream.
Stores STC discontinuity point information.

【0094】AVストリームがSTCの不連続点を持つ場
合、そのAVストリームファイルの中で同じ値のPTSが現
れるかもしれない。そのため、AVストリーム上のある時
刻をPTSベースで指す場合、アクセスポイントのPTSだけ
ではそのポイントを特定するためには不十分である。更
に、そのPTSを含むところの連続なSTC区間のインデック
スが必要である。連続なSTC区間を、このフォーマット
では STC-sequenceと呼び、そのインデックスをSTC-seq
uence-idと呼ぶ。STC-sequenceの情報は、Clip Informa
tion fileのSTCInfoで定義される。
If the AV stream has a discontinuous point of STC, the same value of PTS may appear in the AV stream file. Therefore, when a certain point in the AV stream is indicated on a PTS basis, the PTS of the access point alone is not enough to specify the point. Further, an index of a continuous STC section including the PTS is required. A continuous STC section is called STC-sequence in this format, and its index is STC-seq
Call it uence-id. STC-sequence information is available in Clip Informa
Defined in STCInfo of the action file.

【0095】STC-sequence-idは、EP_mapを持つAVスト
リームファイルで使用するものであり、TU_mapを持つAV
ストリームファイルではオプションである。
The STC-sequence-id is used for an AV stream file having an EP_map, and is used for an AV stream file having a TU_map.
Optional for stream files.

【0096】プログラムは、エレメンタリストリームの
集まりであり、これらのストリームの同期再生のため
に、ただ1つのシステムタイムベースを共有するもので
ある。
A program is a collection of elementary streams, and shares a single system time base for synchronous reproduction of these streams.

【0097】再生装置(図1の記録再生装置1)にとっ
て、AVストリームのデコードに先だち、そのAVストリー
ムの内容がわかることは有用である。例えば、ビデオや
オーディオのエレメンタリーストリームを伝送するトラ
ンスポートパケットのPIDの値や、ビデオやオーディオ
のコンポーネント種類(例えば、HDTVのビデオとMPEG-
2 AACのオーディオストリームなど)などの情報であ
る。この情報はAVストリームを参照するところのPlayLi
stの内容をユーザに説明するメニュー画面を作成するの
に有用であるし、また、AVストリームのデコードに先だ
って、再生装置のAVデコーダおよびデマルチプレクサの
初期状態をセットするために役立つ。
It is useful for the reproducing apparatus (recording / reproducing apparatus 1 in FIG. 1) to know the contents of the AV stream before decoding the AV stream. For example, a PID value of a transport packet for transmitting a video or audio elementary stream, or a video or audio component type (for example, HDTV video and MPEG-
2 AAC audio stream). This information is the PlayLi
It is useful for creating a menu screen explaining the contents of st to the user, and also for setting the initial state of the AV decoder and demultiplexer of the playback device prior to decoding of the AV stream.

【0098】この理由のために、Clip Information fil
eは、プログラムの内容を説明するためのProgramInfoを
持つ。
For this reason, Clip Information fil
e has ProgramInfo for explaining the contents of the program.

【0099】MPEG2トランスポートストリームをストア
しているAVストリームファイルは、ファイルの中でプロ
グラム内容が変化するかもしれない。例えば、ビデオエ
レメンタリーストリームを伝送するところのトランスポ
ートパケットのPIDが変化したり、ビデオストリームの
コンポーネント種類がSDTVからHDTVに変化するなどであ
る。
An AV stream file storing an MPEG-2 transport stream may have a different program content in the file. For example, the PID of a transport packet that transmits a video elementary stream changes, or the component type of a video stream changes from SDTV to HDTV.

【0100】ProgramInfoは、AVストリームファイルの
中でのプログラム内容の変化点の情報をストアする。AV
ストリームファイルの中で、このフォーマットで定める
ところのプログラム内容が一定である区間をProgram-se
quenceと呼ぶ。
The ProgramInfo stores information on a change point of the program contents in the AV stream file. AV
In the stream file, the section where the program content defined by this format is constant
Call it a quence.

【0101】Program-sequenceは、EP_mapを持つAVスト
リームファイルで使用するものであり、TU_mapを持つAV
ストリームファイルではオプションである。
The Program-sequence is used for an AV stream file having an EP_map, and is used for an AV stream file having a TU_map.
Optional for stream files.

【0102】本実施の形態では、セルフエンコードのス
トリームフォーマット(SESF)を定義する。SESFは、ア
ナログ入力信号を符号化する目的、およびデジタル入力
信号(例えばDV)をデコードしてからMPEG2トランスポ
ートストリームに符号化する場合に用いられる。
In the present embodiment, a self-encoding stream format (SESF) is defined. SESF is used for encoding an analog input signal and for decoding a digital input signal (for example, DV) and then encoding it into an MPEG2 transport stream.

【0103】SESFは、MPEG-2トランスポートストリーム
およびAVストリームについてのエレメンタリーストリー
ムの符号化制限を定義する。記録再生装置1が、SESFス
トリームをエンコードし、記録する場合、EP_mapが作成
され、ディスクに記録される。
The SESF defines the encoding restriction of the elementary stream for the MPEG-2 transport stream and the AV stream. When the recording / reproducing apparatus 1 encodes and records an SESF stream, an EP_map is created and recorded on a disc.

【0104】デジタル放送のストリームは、次に示す方
式のうちのいずれかが用いられて記録媒体100に記録
される。まず、デジタル放送のストリームをSESFストリ
ームにトランスコーディングする。この場合、記録され
たストリームは、SESFに準拠しなければならない。この
場合、EP_mapが作成されて、ディスクに記録されなけれ
ばならない。
The digital broadcast stream is recorded on the recording medium 100 by using one of the following methods. First, a digital broadcast stream is transcoded into a SESF stream. In this case, the recorded stream must conform to SESF. In this case, an EP_map must be created and recorded on the disc.

【0105】あるいは、デジタル放送ストリームを構成
するエレメンタリーストリームを新しいエレメンタリス
トリームにトランスコーディングし、そのデジタル放送
ストリームの規格化組織が定めるストリームフォーマッ
トに準拠した新しいトランスポートストリームに再多重
化する。この場合、EP_mapが作成されて、ディスクに記
録されなければならない。
Alternatively, the elementary stream constituting the digital broadcast stream is transcoded into a new elementary stream, and re-multiplexed into a new transport stream conforming to a stream format defined by the standardization organization of the digital broadcast stream. In this case, an EP_map must be created and recorded on the disc.

【0106】例えば、入力ストリームがISDB(日本のデ
ジタルBS放送の規格名称)準拠のMPEG-2トランスポート
ストリームであり、それがHDTVビデオストリームとMPEG
AACオーディオストリームを含むとする。HDTVビデオス
トリームをSDTVビデオストリームにトランスコーディン
グし、そのSDTVビデオストリームとオリジナルのAACオ
ーディオストリームをTSに再多重化する。SDTVストリー
ムと記録されるトランスポートストリームは、共にISDB
フォーマットに準拠しなければならない。
For example, the input stream is an MPEG-2 transport stream conforming to ISDB (standard name of digital BS broadcasting in Japan), which is an HDTV video stream and an MPEG-2 transport stream.
Assume that it contains an AAC audio stream. Transcode the HDTV video stream into an SDTV video stream and remultiplex the SDTV video stream and the original AAC audio stream into TS. Both the SDTV stream and the recorded transport stream are ISDB
Must conform to format.

【0107】デジタル放送のストリームが、記録媒体1
00に記録される際の他の方式として、入力トランスポ
ートストリームをトランスペアレントに記録する(入力
トランスポートストリームを何も変更しないで記録す
る)場合であり、その時にEP_mapが作成されてディスク
に記録される。
The digital broadcast stream is recorded on the recording medium 1
Another method for recording at 00 is to record the input transport stream transparently (record without changing the input transport stream), at which time an EP_map is created and recorded on the disc. You.

【0108】または、入力トランスポートストリームを
トランスペアレントに記録する(入力トランスポートス
トリームを何も変更しないで記録する)場合であり、そ
の時にTU_mapが作成されてディスクに記録される。
Alternatively, the input transport stream is recorded transparently (recording the input transport stream without any change), at which time a TU_map is created and recorded on the disc.

【0109】次にディレクトリとファイルについて説明
する。以下、記録再生装置1をDVR(Digital Video Rec
ording)と適宜記述する。図14はディスク上のディレ
クトリ構造の一例を示す図である。DVRのディスク上に
必要なディレクトリは、図14に示したように、"DVR"
ディレクトリを含むrootディレクトリ、"PLAYLIST"ディ
レクトリ、"CLIPINF"ディレクトリ、"M2TS"ディレクト
リ、および"DATA"ディレクトリを含む"DVR"ディレクト
リである。rootディレクトリの下に、これら以外のディ
レクトリを作成されるようにしても良いが、それらは、
本実施の形態のアプリケーションフォーマットでは、無
視されるとする。
Next, directories and files will be described. Hereinafter, the recording / reproducing apparatus 1 is connected to a DVR (Digital Video Rec).
ording). FIG. 14 shows an example of a directory structure on a disk. The directory required on the DVR disk is "DVR" as shown in FIG.
A “PLAYLIST” directory, a “CLIPINF” directory, a “M2TS” directory, and a “DVR” directory that includes a “DATA” directory. Other directories may be created under the root directory, but they are
In the application format of the present embodiment, it is assumed that this is ignored.

【0110】"DVR"ディレクトリの下には、 DVRアプリ
ケーションフォーマットによって規定される全てのファ
イルとディレクトリがストアされる。"DVR"ディレクト
リは、4個のディレクトリを含む。"PLAYLIST"ディレク
トリの下には、Real PlayListとVirtual PlayListのデ
ータベースファイルが置かれる。このディレクトリは、
PlayListが1つもなくても存在する。
[0110] Under the "DVR" directory, all files and directories specified by the DVR application format are stored. The “DVR” directory includes four directories. Under the “PLAYLIST” directory, database files of Real PlayList and Virtual PlayList are placed. This directory is
It exists even if there is no PlayList.

【0111】"CLIPINF"ディレクトリの下には、Clipの
データベースが置かれる。このディレクトリも、Clipが
1つもなくても存在する。"M2TS"ディレクトリの下に
は、AVストリームファイルが置かれる。このディレクト
リは、AVストリームファイルが1つもなくても存在す
る。"DATA"ディレクトリは、デジタルTV放送などのデー
タ放送のファイルがストアされる。
[0111] Under the "CLIPINF" directory, a Clip database is placed. This directory exists even if there is no Clip. An AV stream file is placed under the "M2TS" directory. This directory exists even if there is no AV stream file. The “DATA” directory stores data broadcast files such as digital TV broadcasts.

【0112】"DVR"ディレクトリは、次に示すファイル
をストアする。"info.dvr"ファイルは、 DVRディレクト
リの下に作られ、アプリケーションレイヤの全体的な情
報をストアする。DVRディレクトリの下には、ただ一つ
のinfo.dvrがなければならない。ファイル名は、info.d
vrに固定されるとする。"menu.thmb"ファイルは、メニ
ューサムネイル画像に関連する情報をストアする。DVR
ディレクトリの下には、ゼロまたは1つのメニューサム
ネイルがなければならない。ファイル名は、memu.thmb
に固定されるとする。メニューサムネイル画像が1つも
ない場合、このファイルは、存在しなくても良い。
The “DVR” directory stores the following files. The "info.dvr" file is created under the DVR directory and stores the overall information of the application layer. There must be only one info.dvr under the DVR directory. The file name is info.d
Suppose it is fixed to vr. The "menu.thmb" file stores information related to the menu thumbnail image. DVR
There must be zero or one menu thumbnail below the directory. The file name is memu.thmb
And fixed to If there is no menu thumbnail image, this file does not have to exist.

【0113】"mark.thmb"ファイルは、マークサムネイ
ル画像に関連する情報をストアする。DVRディレクトリ
の下には、ゼロまたは1つのマークサムネイルがなけれ
ばならない。ファイル名は、mark.thmbに固定されると
する。メニューサムネイル画像が1つもない場合、この
ファイルは、存在しなくても良い。
[0113] The "mark.thmb" file stores information related to the mark thumbnail image. Under the DVR directory, there must be zero or one mark thumbnail. It is assumed that the file name is fixed to mark.thmb. If there is no menu thumbnail image, this file does not have to exist.

【0114】"PLAYLIST"ディレクトリは、2種類のPlay
Listファイルをストアするものであり、それらは、Real
PlayListとVirtual PlayListである。"xxxxx.rpls" フ
ァイルは、1つのReal PlayListに関連する情報をスト
アする。それぞれのReal PlayList毎に、1つのファイ
ルが作られる。ファイル名は、"xxxxx.rpls"である。こ
こで、"xxxxx"は、5個の0乃至9まで数字である。フ
ァイル拡張子は、"rpls"でなければならないとする。
[0114] The "PLAYLIST" directory contains two types of Play.
Stores List files, which are Real
PlayList and Virtual PlayList. The “xxxxx.rpls” file stores information related to one Real PlayList. One file is created for each Real PlayList. The file name is "xxxxx.rpls". Here, "xxxxx" is five numbers from 0 to 9. Assume that the file extension must be "rpls".

【0115】"yyyyy.vpls"ファイルは、1つのVirtual
PlayListに関連する情報をストアする。それぞれのVirt
ual PlayList毎に、1つのファイルが作られる。ファイ
ル名は、"yyyyy.vpls"である。ここで、"yyyyy"は、5
個の0乃至9まで数字である。ファイル拡張子は、"vpl
s"でなければならないとする。
The “yyyyy.vpls” file has one Virtual
Stores information related to PlayList. Each Virt
One file is created for each ual PlayList. The file name is "yyyyy.vpls". Here, "yyyyy" is 5
Are numbers from 0 to 9. The file extension is "vpl
s ".

【0116】"CLIPINF"ディレクトリは、それぞれのAV
ストリームファイルに対応して、1つのファイルをスト
アする。"zzzzz.clpi" ファイルは、1つのAVストリー
ムファイル(Clip AV stream file または Bridge-Clip
AV stream file)に対応するClip Information fileであ
る。ファイル名は、"zzzzz.clpi"であり、"zzzzz"は、
5個の0乃至9までの数字である。ファイル拡張子
は、"clpi"でなければならないとする。
The “CLIPINF” directory stores each AV
One file is stored corresponding to the stream file. The "zzzzz.clpi" file is a single AV stream file (Clip AV stream file or Bridge-Clip
AV stream file). The file name is "zzzzz.clpi", and "zzzzz" is
Five numbers from 0 to 9. Assume that the file extension must be "clpi".

【0117】"M2TS"ディレクトリは、AVストリームのフ
ァイルをストアする。"zzzzz.m2ts"ファイルは、DVRシ
ステムにより扱われるAVストリームファイルである。こ
れは、Clip AV stream fileまたはBridge-Clip AV stre
amである。ファイル名は、"zzzzz.m2ts"であり、"zzzz
z"は、5個の0乃至9までの数字である。ファイル拡張
子は、"m2ts"でなければならないとする。
The “M2TS” directory stores AV stream files. The “zzzzz.m2ts” file is an AV stream file handled by the DVR system. This is a Clip AV stream file or Bridge-Clip AV stre
am. The file name is "zzzzz.m2ts" and "zzzz
"z" is five numbers from 0 to 9. Assume that the file extension must be "m2ts".

【0118】"DATA"ディレクトリは、データ放送から伝
送されるデータをストアするものであり、データとは、
例えば、XML fileやMHEGファイルなどである。
The "DATA" directory stores data transmitted from a data broadcast.
For example, an XML file or an MHEG file.

【0119】次に、各ディレクトリ(ファイル)のシン
タクスとセマンティクスを説明する。まず、"info.dvr"
ファイルについて説明する。図15は、"info.dvr"ファ
イルのシンタクスを示す図である。"info.dvr"ファイル
は、3個のオブジェクトから構成され、それらは、DVRV
olume()、TableOfPlayLists()、およびMakersPrivateDa
ta()である。
Next, the syntax and semantics of each directory (file) will be described. First, "info.dvr"
The file will be described. FIG. 15 is a diagram illustrating the syntax of the “info.dvr” file. The "info.dvr" file consists of three objects, which are DVRV
olume (), TableOfPlayLists (), and MakersPrivateDa
ta ().

【0120】図15に示したinfo.dvrのシンタクスにつ
いて説明するに、TableOfPlayLists_Start_addressは、
info.dvrファイルの先頭のバイトからの相対バイト数を
単位として、TableOfPlayList()の先頭アドレスを示
す。相対バイト数はゼロからカウントされる。
To describe the syntax of info.dvr shown in FIG. 15, TableOfPlayLists_Start_address is
Indicates the start address of TableOfPlayList () in units of relative bytes from the start byte of the info.dvr file. Relative bytes are counted from zero.

【0121】MakersPrivateData_Start_addressは、inf
o.dvrファイルの先頭のバイトからの相対バイト数を単
位として、MakersPrivateData()の先頭アドレスを示
す。相対バイト数はゼロからカウントされる。padding_
word(パディングワード)は、info.dvrのシンタクスに
従って挿入される。N1とN2は、ゼロまたは任意の正
の整数である。それぞれのパディングワードは、任意の
値を取るようにしても良い。
MakersPrivateData_Start_address is inf
Indicates the start address of MakersPrivateData () in units of relative bytes from the first byte of the o.dvr file. Relative bytes are counted from zero. padding_
The word (padding word) is inserted according to the syntax of info.dvr. N1 and N2 are zero or any positive integer. Each padding word may take an arbitrary value.

【0122】DVRVolume()は、ボリューム(ディスク)
の内容を記述する情報をストアする。図16は、DVRVol
ume()のシンタクスを示す図である。図16に示したDVR
Volume()のシンタクスを説明するに、version_number
は、このDVRVolume()のバージョンナンバを示す4個の
キャラクター文字を示す。version_numberは、ISO 646
に従って、"0045"と符号化される。
DVRVolume () is a volume (disk)
Stores information that describes the contents of FIG. 16 shows the DVRVol
It is a figure showing the syntax of ume (). DVR shown in FIG.
To explain the syntax of Volume (), use version_number
Indicates four character characters indicating the version number of this DVRVolume (). version_number is ISO 646
Is encoded as “0045”.

【0123】lengthは、このlengthフィールドの直後か
らDVRVolume()の最後までのDVRVolume()のバイト数を示
す32ビットの符号なし整数で表される。
The length is represented by a 32-bit unsigned integer indicating the number of bytes of the DVRVolume () from immediately after the length field to the end of the DVRVolume ().

【0124】ResumeVolume()は、ボリュームの中で最後
に再生したReal PlayListまたはVirtual PlayListのフ
ァイル名を記憶している。ただし、Real PlayListまた
はVirtual PlayListの再生をユーザが中断した時の再生
位置は、PlayListMark()において定義されるresume-mar
kにストアされる(図42、図43)。
[0124] ResumeVolume () stores the file name of the Real PlayList or Virtual PlayList that has been reproduced last in the volume. However, the playback position when the user interrupts the playback of Real PlayList or Virtual PlayList is the resume-mar defined in PlayListMark ().
k (FIGS. 42 and 43).

【0125】図17は、ResumeVolume()のシンタクスを
示す図である。図17に示したResumeVolume()のシンタ
クスを説明するに、valid_flagは、この1ビットのフラ
グが1にセットされている場合、resume_PlayList_name
フィールドが有効であることを示し、このフラグが0に
セットされている場合、resume_PlayList_nameフィール
ドが無効であることを示す。
FIG. 17 is a diagram showing the syntax of ResumeVolume (). To explain the syntax of ResumeVolume () shown in FIG. 17, valid_flag indicates that when this 1-bit flag is set to 1, resume_PlayList_name
This flag indicates that the field is valid. If this flag is set to 0, it indicates that the resume_PlayList_name field is invalid.

【0126】resume_PlayList_nameの10バイトのフィ
ールドは、リジュームされるべきReal PlayListまたはV
irtual PlayListのファイル名を示す。
[0126] The 10-byte field of resume_PlayList_name contains the Real PlayList or V to be resumed.
Indicates the file name of irtual PlayList.

【0127】図16に示したDVRVolume()のシンタクス
のなかの、UIAppInfoVolume は、ボリュームについての
ユーザインターフェースアプリケーションのパラメータ
をストアする。図18は、UIAppInfoVolumeのシンタク
スを示す図であり、そのセマンティクスを説明するに、
character_setの8ビットのフィールドは、Volume_name
フィールドに符号化されているキャラクター文字の符号
化方法を示す。その符号化方法は、図19に示される値
に対応する。
UIAppInfoVolume in the syntax of DVRVolume () shown in FIG. 16 stores the parameters of the user interface application for the volume. FIG. 18 is a diagram showing the syntax of UIAppInfoVolume, and its semantics will be described below.
The 8-bit field of character_set is Volume_name
Shows how to encode character characters encoded in the field. The encoding method corresponds to the values shown in FIG.

【0128】name_lengthの8ビットフィールドは、Volu
me_nameフィールドの中に示されるボリューム名のバイ
ト長を示す。Volume_nameのフィールドは、ボリューム
の名称を示す。このフィールドの中の左からname_lengt
h数のバイト数が、有効なキャラクター文字であり、そ
れはボリュームの名称を示す。Volume_nameフィールド
の中で、それら有効なキャラクター文字の後の値は、ど
んな値が入っていても良い。
The 8-bit field of name_length is Volu
Indicates the byte length of the volume name indicated in the me_name field. The Volume_name field indicates the name of the volume. Name_lengt from left in this field
The h number of bytes is a valid character character, which indicates the name of the volume. The value after those valid character characters in the Volume_name field may contain any value.

【0129】Volume_protect_flagは、ボリュームの中
のコンテンツを、ユーザに制限することなしに見せてよ
いかどうかを示すフラグである。このフラグが1にセッ
トされている場合、ユーザが正しくPIN番号(パスワー
ド)を入力できたときだけ、そのボリュームのコンテン
ツを、ユーザに見せる事(再生される事)が許可され
る。このフラグが0にセットされている場合、ユーザが
PIN番号を入力しなくても、そのボリュームのコンテン
ツを、ユーザに見せる事が許可される。
[0129] Volume_protect_flag is a flag indicating whether contents in the volume may be shown without restriction to the user. When this flag is set to 1, showing (reproducing) the contents of the volume to the user is permitted only when the user can correctly input the PIN number (password). If this flag is set to 0, the user
The user is allowed to show the contents of the volume without entering the PIN number.

【0130】最初に、ユーザが、ディスクをプレーヤへ
挿入した時点において、もしこのフラグが0にセットさ
れているか、または、このフラグが1にセットされてい
てもユーザがPIN番号を正しく入力できたならば、記録
再生装置1は、そのディスクの中のPlayListの一覧を表
示させる。それぞれのPlayListの再生制限は、volume_p
rotect_flagとは無関係であり、それはUIAppInfoPlayLi
st()の中に定義されるplayback_control_flagによって
示される。
First, at the time when the user inserts the disc into the player, if this flag is set to 0, or if this flag is set to 1, the user can correctly input the PIN number. Then, the recording / reproducing apparatus 1 displays a list of PlayLists in the disc. The playback limit of each PlayList is volume_p
Unrelated to rotect_flag, it is UIAppInfoPlayLi
Indicated by playback_control_flag defined in st ().

【0131】PINは、4個の0乃至9までの数字で構成
され、それぞれの数字は、ISO/IEC 646に従って符号化
される。ref_thumbnail_indexのフィールドは、ボリュ
ームに付加されるサムネイル画像の情報を示す。ref_th
umbnail_indexフィールドが、0xFFFFでない値の場合、
そのボリュームにはサムネイル画像が付加されており、
そのサムネイル画像は、menu.thumファイルの中にスト
アされている。その画像は、menu.thumファイルの中でr
ef_thumbnail_indexの値を用いて参照される。ref_thum
bnail_indexフィールドが、0xFFFF である場合、そのボ
リュームにはサムネイル画像が付加されていないことを
示す。
The PIN is composed of four numbers from 0 to 9, and each number is encoded according to ISO / IEC 646. The field of ref_thumbnail_index indicates information of a thumbnail image added to the volume. ref_th
If the umbnail_index field is not 0xFFFF,
Thumbnail images are added to the volume,
The thumbnail image is stored in the menu.thum file. The image is r in the menu.thum file
It is referenced using the value of ef_thumbnail_index. ref_thum
When the bnail_index field is 0xFFFF, it indicates that no thumbnail image is added to the volume.

【0132】次に図15に示したinfo.dvrのシンタクス
内のTableOfPlayLists()について説明する。TableOfPla
yLists()は、PlayList(Real PlayListとVirtual PlayLi
st)のファイル名をストアする。ボリュームに記録され
ているすべてのPlayListファイルは、TableOfPlayLis
t()の中に含まれる。TableOfPlayLists()は、ボリュー
ムの中のPlayListのデフォルトの再生順序を示す。
Next, TableOfPlayLists () in the syntax of info.dvr shown in FIG. 15 will be described. TableOfPla
yLists () is a PlayList (Real PlayList and Virtual PlayLi
Store the file name of st). All PlayList files recorded in the volume are stored in TableOfPlayLis
Included in t (). TableOfPlayLists () indicates the default playback order of the PlayList in the volume.

【0133】図20は、TableOfPlayLists()のシンタク
スを示す図であり、そのシンタクスについて説明する
に、TableOfPlayListsのversion_numberは、このTableO
fPlayListsのバージョンナンバーを示す4個のキャラク
ター文字を示す。version_numberは、ISO 646に従っ
て、"0045"と符号化されなければならない。
FIG. 20 is a diagram showing the syntax of TableOfPlayLists (). The syntax will be described.
Four character characters indicating the version number of fPlayLists are shown. version_number must be encoded as "0045" according to ISO 646.

【0134】lengthは、このlengthフィールドの直後か
らTableOfPlayLists()の最後までのTableOfPlayLists()
のバイト数を示す32ビットの符号なしの整数である。
number_of_PlayListsの16ビットのフィールドは、Pla
yList_file_nameを含むfor-loopのループ回数を示す。
この数字は、ボリュームに記録されているPlayListの数
に等しくなければならない。PlayList_file_nameの10
バイトの数字は、PlayListのファイル名を示す。
[0134] length is TableOfPlayLists () from immediately after this length field to the end of TableOfPlayLists ().
Is an unsigned 32-bit integer indicating the number of bytes of
The 16-bit field of number_of_PlayLists is Pla
Indicates the number of times of for-loop including yList_file_name.
This number must be equal to the number of PlayLists recorded on the volume. PlayList_file_name 10
The byte number indicates the file name of the PlayList.

【0135】図21は、TableOfPlayLists()のシンタク
スの別の構成を示す図である。図21に示したシンタク
スは、図20に示したシンタクスに、UIAppinfoPlayLis
t(後述)を含ませた構成とされている。このように、U
IAppinfoPlayListを含ませた構成とすることで、TableO
fPlayListsを読み出すだけで、メニュー画面を作成する
ことが可能となる。ここでは、図20に示したシンタク
スを用いるとして以下の説明をする。
[0135] Fig. 21 is a diagram illustrating another configuration of the syntax of TableOfPlayLists (). The syntax shown in FIG. 21 is obtained by adding UIAppinfoPlayLis to the syntax shown in FIG.
t (described later) is included. Thus, U
By including IAppinfoPlayList, TableO
A menu screen can be created simply by reading fPlayLists. Here, the following description is made assuming that the syntax shown in FIG. 20 is used.

【0136】図15に示したinfo.dvrのシンタクス内の
MakersPrivateDataについて説明する。MakersPrivateDa
taは、記録再生装置1のメーカが、各社の特別なアプリ
ケーションのために、MakersPrivateData()の中にメー
カのプライベートデータを挿入できるように設けられて
いる。各メーカのプライベートデータは、それを定義し
たメーカを識別するために標準化されたmaker_IDを持
つ。MakersPrivateData()は、1つ以上のmaker_IDを含
んでも良い。
[0136] In the syntax of info.dvr shown in FIG.
MakersPrivateData will be described. MakersPrivateDa
ta is provided so that the maker of the recording / reproducing apparatus 1 can insert the maker's private data into MakersPrivateData () for a special application of each company. Each manufacturer's private data has a standardized maker_ID to identify the manufacturer that defined it. MakersPrivateData () may include one or more maker_IDs.

【0137】所定のメーカが、プライベートデータを挿
入したい時に、すでに他のメーカのプライベートデータ
がMakersPrivateData()に含まれていた場合、他のメー
カは、既にある古いプライベートデータを消去するので
はなく、新しいプライベートデータをMakersPrivateDat
a()の中に追加するようにする。このように、本実施の
形態においては、複数のメーカのプライベートデータ
が、1つのMakersPrivateData()に含まれることが可能
であるようにする。
When a predetermined maker wants to insert private data, if the private data of another maker is already included in MakersPrivateData (), the other maker does not delete the existing old private data. New private data MakersPrivateDat
Add it inside a (). Thus, in the present embodiment, private data of a plurality of manufacturers can be included in one MakersPrivateData ().

【0138】図22は、MakersPrivateDataのシンタク
スを示す図である。図22に示したMakersPrivateData
のシンタクスについて説明するに、version_numberは、
このMakersPrivateData()のバージョンナンバを示す4
個のキャラクター文字を示す。version_numberは、ISO
646に従って、"0045"と符号化されなければならない。l
engthは、このlengthフィールドの直後からMakersPriva
teData()の最後までのMakersPrivateData()のバイト数
を示す32ビットの符号なし整数を示す。
FIG. 22 is a diagram showing the syntax of MakersPrivateData. MakersPrivateData shown in Fig. 22
To explain the syntax of, version_number is
4 indicating the version number of this MakersPrivateData ()
Character characters. version_number is the ISO
It must be encoded as "0045" according to 646. l
ength is MakersPriva immediately after this length field.
Indicates a 32-bit unsigned integer indicating the number of bytes of MakersPrivateData () up to the end of teData ().

【0139】mpd_blocks_start_addressは、MakersPriv
ateData()の先頭のバイトからの相対バイト数を単位と
して、最初のmpd_block()の先頭バイトアドレスを示
す。相対バイト数はゼロからカウントされる。number_o
f_maker_entriesは、MakersPrivateData()の中に含まれ
ているメーカプライベートデータのエントリー数を与え
る16ビットの符号なし整数である。MakersPrivateDat
a()の中に、同じmaker_IDの値を持つメーカプライベー
トデータが2個以上存在してはならない。
[0139] mpd_blocks_start_address is MakersPriv
Indicates the first byte address of the first mpd_block () in units of the relative number of bytes from the first byte of ateData (). Relative bytes are counted from zero. number_o
f_maker_entries is a 16-bit unsigned integer giving the number of entries of maker private data included in MakersPrivateData (). MakersPrivateDat
In a (), there must not be more than one maker private data with the same maker_ID value.

【0140】mpd_block_sizeは、1024バイトを単位
として、1つのmpd_blockの大きさを与える16ビット
の符号なし整数である。例えば、mpd_block_size=1な
らば、それは1つのmpd_blockの大きさが1024バイ
トであることを示す。number_of_mpd_blocksは、Makers
PrivateData()の中に含まれるmpd_blockの数を与える1
6ビットの符号なし整数である。maker_IDは、そのメー
カプライベートデータを作成したDVRシステムの製造メ
ーカを示す16ビットの符号なし整数である。maker_IDに
符号化される値は、このDVRフォーマットのライセンサ
によって指定される。
Mpd_block_size is a 16-bit unsigned integer giving the size of one mpd_block in units of 1024 bytes. For example, if mpd_block_size = 1, it indicates that the size of one mpd_block is 1024 bytes. number_of_mpd_blocks is Makers
1 that gives the number of mpd_blocks contained in PrivateData ()
6-bit unsigned integer. maker_ID is a 16-bit unsigned integer indicating the maker of the DVR system that created the maker private data. The value encoded in maker_ID is specified by the licensor of this DVR format.

【0141】maker_model_codeは、そのメーカプライベ
ートデータを作成したDVRシステムのモデルナンバーコ
ードを示す16ビットの符号なし整数である。maker_mo
del_codeに符号化される値は、このフォーマットのライ
センスを受けた製造メーカによって設定される。start_
mpd_block_numberは、そのメーカプライベートデータが
開始されるmpd_blockの番号を示す16ビットの符号な
し整数である。メーカプライベートデータの先頭データ
は、mpd_blockの先頭にアラインされなければならな
い。start_mpd_block_numberは、mpd_blockのfor-loop
の中の変数jに対応する。
Maker_model_code is a 16-bit unsigned integer indicating the model number code of the DVR system that created the maker private data. maker_mo
The value encoded in del_code is set by the manufacturer who has licensed this format. start_
The mpd_block_number is a 16-bit unsigned integer indicating the number of the mpd_block at which the maker private data starts. The head data of the maker private data must be aligned with the head of the mpd_block. start_mpd_block_number is the for-loop of mpd_block
Corresponds to the variable j in.

【0142】mpd_lengthは、バイト単位でメーカプライ
ベートデータの大きさを示す32ビットの符号なし整数
である。mpd_blockは、メーカプライベートデータがス
トアされる領域である。MakersPrivateData()の中のす
べてのmpd_blockは、同じサイズでなければならない。
The mpd_length is a 32-bit unsigned integer indicating the size of the maker private data in byte units. mpd_block is an area where maker private data is stored. All mpd_blocks in MakersPrivateData () must be the same size.

【0143】次に、Real PlayList fileとVirtual Play
List fileについて、換言すれば、xxxxx.rplsとyyyyy.v
plsについて説明する。図23は、xxxxx.rpls(Real Pl
ayList)、または、yyyyy.vpls(Virtual PlayList)の
シンタクスを示す図である。xxxxx.rplsとyyyyy.vpls
は、同一のシンタクス構成をもつ。xxxxx.rplsとyyyyy.
vplsは、それぞれ、3個のオブジェクトから構成され、
それらは、PlayList()、PlayListMark()、およびMakers
PrivateData()である。
Next, Real PlayList file and Virtual Play
For the List file, in other words, xxxxx.rpls and yyyyy.v
pls is explained. FIG. 23 shows xxxxx.rpls (Real Pl
ayList) or yyyyy.vpls (Virtual PlayList). xxxxx.rpls and yyyyy.vpls
Have the same syntax configuration. xxxxx.rpls and yyyyy.
vpls are each composed of three objects,
They are PlayList (), PlayListMark (), and Makers
PrivateData ().

【0144】PlayListMark_Start_addressは、PlayList
ファイルの先頭のバイトからの相対バイト数を単位とし
て、PlayListMark()の先頭アドレスを示す。相対バイト
数はゼロからカウントされる。
[0144] PlayListMark_Start_address is a PlayList
Indicates the start address of PlayListMark () in units of relative bytes from the first byte of the file. Relative bytes are counted from zero.

【0145】MakersPrivateData_Start_addressは、Pla
yListファイルの先頭のバイトからの相対バイト数を単
位として、MakersPrivateData()の先頭アドレスを示
す。相対バイト数はゼロからカウントされる。
MakersPrivateData_Start_address is Pla
Indicates the start address of MakersPrivateData () in units of relative bytes from the first byte of the yList file. Relative bytes are counted from zero.

【0146】padding_word(パディングワード)は、Pl
ayListファイルのシンタクスにしたがって挿入され、N
1とN2は、ゼロまたは任意の正の整数である。それぞ
れのパディングワードは、任意の値を取るようにしても
良い。
[0146] The padding_word (padding word) is Pl
inserted according to the syntax of the ayList file, N
1 and N2 are zero or any positive integer. Each padding word may take an arbitrary value.

【0147】ここで、既に、簡便に説明したが、PlayLi
stについてさらに説明する。ディスク内にあるすべての
Real PlayListによって、Bridge-Clip(後述)を除くす
べてのClipの中の再生区間が参照されていなければなら
ない。かつ、2つ以上のRealPlayListが、それらのPlay
Itemで示される再生区間を同一のClipの中でオーバーラ
ップさせてはならない。
Here, as described briefly above, PlayLi
st will be further described. Everything in the disc
The playback section in all Clips except for the Bridge-Clip (described later) must be referenced by the Real PlayList. And two or more RealPlayLists
The playback section indicated by Item must not overlap in the same Clip.

【0148】図24を参照してさらに説明するに、図2
4(A)に示したように、全てのClipは、対応するReal
PlayListが存在する。この規則は、図24(B)に示
したように、編集作業が行われた後においても守られ
る。従って、全てのClipは、どれかしらのReal PlayLis
tを参照することにより、必ず視聴することが可能であ
る。
Referring further to FIG. 24, FIG.
As shown in FIG. 4 (A), all Clips have the corresponding Real
PlayList exists. This rule is maintained even after the editing operation is performed, as shown in FIG. Therefore, all Clips are any Real PlayLis
By referring to t, it is always possible to view.

【0149】図24(C)に示したように、Virtual Pl
ayListの再生区間は、Real PlayListの再生区間またはB
ridge-Clipの再生区間の中に含まれていなければならな
い。どのVirtual PlayListにも参照されないBridge-Cli
pがディスクの中に存在してはならない。
As shown in FIG. 24C, Virtual Pl
The playback section of ayList is the playback section of Real PlayList or B
Must be included in the playback section of the ridge-Clip. Bridge-Cli not referenced in any Virtual PlayList
p must not be in the disk.

【0150】Real PlayListは、PlayItemのリストを含
むが、SubPlayItemを含んではならない。Virtual PlayL
istは、PlayItemのリストを含み、PlayList()の中に示
されるCPI_typeがEP_map typeであり、かつPlayList_ty
peが0(ビデオとオーディオを含むPlayList)である場
合、Virtual PlayListは、ひとつのSubPlayItemを含む
事ができる。本実施の形態におけるPlayList()では、Su
bPlayIteはオーディオのアフレコの目的にだけに使用さ
れる、そして、1つのVirtual PlayListが持つSubPlayI
temの数は、0または1でなければならない。
[0150] The Real PlayList includes a list of PlayItems, but does not include SubPlayItems. Virtual PlayL
ist includes a list of PlayItems, CPI_type indicated in PlayList () is EP_map type, and PlayList_ty
When pe is 0 (PlayList including video and audio), Virtual PlayList can include one SubPlayItem. In the PlayList () in the present embodiment, Su
bPlayIte is used only for the purpose of audio dubbing, and the SubPlayI that one Virtual PlayList has
The number of tems must be 0 or 1.

【0151】次に、PlayListについて説明する。図25
は、PlayListのシンタクスを示す図である。図25に示
したPlayListのシンタクスを説明するに、version_numb
erは、このPlayList()のバージョンナンバーを示す4個
のキャラクター文字である。version_numberは、ISO 64
6に従って、"0045"と符号化されなければならない。len
gthは、このlengthフィールドの直後からPlayList()の
最後までのPlayList()のバイト数を示す32ビットの符
号なし整数である。PlayList_typeは、このPlayListの
タイプを示す8ビットのフィールドであり、その一例を
図26に示す。
Next, the PlayList will be described. FIG.
Fig. 4 is a diagram illustrating the syntax of a PlayList. To explain the syntax of the PlayList shown in FIG. 25, version_numb
er is four character characters indicating the version number of this PlayList (). version_number is ISO 64
According to 6, it must be encoded as "0045". len
gth is a 32-bit unsigned integer indicating the number of bytes of PlayList () from immediately after this length field to the end of PlayList (). PlayList_type is an 8-bit field indicating the type of the PlayList, an example of which is shown in FIG.

【0152】CPI_typeは、1ビットのフラグであり、Pl
ayItem()およびSubPlayItem()によって参照されるClip
のCPI_typeの値を示す。1つのPlayListによって参照さ
れる全てのClipは、それらのCPI()の中に定義されるCPI
_typeの値が同じでなければならない。number_of_PlayI
temsは、PlayListの中にあるPlayItemの数を示す16ビ
ットのフィールドである。
CPI_type is a 1-bit flag.
Clip referenced by ayItem () and SubPlayItem ()
Indicates the value of CPI_type of All Clips referenced by one PlayList are CPIs defined in their CPI ().
_type values must be the same. number_of_PlayI
tems is a 16-bit field indicating the number of PlayItems in the PlayList.

【0153】所定のPlayItem()に対応するPlayItem_id
は、PlayItem()を含むfor-loopの中で、そのPlayItem()
の現れる順番により定義される。PlayItem_idは、0か
ら開始される。number_of_SubPlayItemsは、PlayListの
中にあるSubPlayItemの数を示す16ビットのフィール
ドである。この値は、0または1である。付加的なオー
ディオストリームのパス(オーディオストリームパス)
は、サブパスの一種である。
[0153] PlayItem_id corresponding to a predetermined PlayItem ()
Is the PlayItem () in the for-loop that contains the PlayItem ()
Are defined by the order in which they appear. PlayItem_id starts from 0. number_of_SubPlayItems is a 16-bit field indicating the number of SubPlayItems in the PlayList. This value is 0 or 1. Additional audio stream path (audio stream path)
Is a kind of sub-path.

【0154】次に、図25に示したPlayListのシンタク
スのUIAppInfoPlayListについて説明する。UIAppInfoPl
ayListは、PlayListについてのユーザインターフェース
アプリケーションのパラメータをストアする。図27
は、UIAppInfoPlayListのシンタクスを示す図である。
図27に示したUIAppInfoPlayListのシンタクスを説明
するに、character_setは、8ビットのフィールドであ
り、PlayList_nameフィールドに符号化されているキャ
ラクター文字の符号化方法を示す。その符号化方法は、
図19に示したテーブルに準拠する値に対応する。
Next, the UIAppInfoPlayList of the syntax of the PlayList shown in FIG. 25 will be described. UIAppInfoPl
ayList stores the parameters of the user interface application for PlayList. FIG.
Fig. 5 is a diagram illustrating the syntax of UIAppInfoPlayList.
To explain the syntax of the UIAppInfoPlayList shown in FIG. 27, character_set is an 8-bit field, and indicates the encoding method of the character characters encoded in the PlayList_name field. The encoding method is
This corresponds to a value based on the table shown in FIG.

【0155】name_lengthは、8ビットフィールドであ
り、PlayList_nameフィールドの中に示されるPlayList
名のバイト長を示す。PlayList_nameのフィールドは、P
layListの名称を示す。このフィールドの中の左からnam
e_length数のバイト数が、有効なキャラクター文字であ
り、それはPlayListの名称を示す。PlayList_nameフィ
ールドの中で、それら有効なキャラクター文字の後の値
は、どんな値が入っていても良い。
[0155] The name_length is an 8-bit field, and the PlayList indicated in the PlayList_name field.
Indicates the byte length of the name. PlayList_name field is P
Indicates the name of layList. Nam from left in this field
The number of bytes of the e_length number is a valid character character, which indicates the name of the PlayList. The value after these valid character characters in the PlayList_name field may contain any value.

【0156】record_time_and_dateは、PlayListが記録
された時の日時をストアする56ビットのフィールドで
ある。このフィールドは、年/月/日/時/分/秒につ
いて、14個の数字を4ビットのBinary Coded Decimal
(BCD)で符号化したものである。例えば、2001/12/23:0
1:02:03 は、"0x20011223010203"と符号化される。
[0156] record_time_and_date is a 56-bit field that stores the date and time when the PlayList was recorded. This field is a four-bit Binary Coded Decimal for 14 numbers for year / month / day / hour / minute / second.
(BCD). For example, 2001/12/23: 0
1:02:03 is encoded as "0x20011223010203".

【0157】durationは、PlayListの総再生時間を時間
/分/秒の単位で示した24ビットのフィールドであ
る。このフィールドは、6個の数字を4ビットのBinary
CodedDecimal(BCD)で符号化したものである。例えば、
01:45:30は、"0x014530"と符号化される。
The duration is a 24-bit field indicating the total playback time of the PlayList in units of hours / minutes / seconds. This field is a 6-bit binary binary
Coded with CodedDecimal (BCD). For example,
01:45:30 is encoded as "0x014530".

【0158】valid_periodは、PlayListが有効である期
間を示す32ビットのフィールドである。このフィール
ドは、8個の数字を4ビットのBinary Coded Decimal(B
CD)で符号化したものである。例えば、記録再生装置1
は、この有効期間の過ぎたPlayListを自動消去する、と
いったように用いられる。例えば、2001/05/07 は、"0x
20010507"と符号化される。
[0158] The valid_period is a 32-bit field indicating a period during which the PlayList is valid. In this field, 8 numbers are converted to 4-bit Binary Coded Decimal (B
CD). For example, the recording / reproducing device 1
Is used to automatically delete a PlayList whose validity period has passed. For example, 2001/05/07 is "0x
20010507 ".

【0159】maker_idは、そのPlayListを最後に更新し
たDVRプレーヤ(記録再生装置1)の製造者を示す16
ビットの符号なし整数である。maker_idに符号化される
値は、DVRフォーマットのライセンサによって割り当て
られる。maker_codeは、そのPlayListを最後に更新した
DVRプレーヤのモデル番号を示す16ビットの符号なし
整数である。maker_codeに符号化される値は、DVRフォ
ーマットのライセンスを受けた製造者によって決められ
る。
[0159] The maker_id indicates the manufacturer of the DVR player (recording / reproducing apparatus 1) that last updated the PlayList.
An unsigned integer of bits. The value encoded in maker_id is assigned by the licensor in DVR format. maker_code last updated its PlayList
This is a 16-bit unsigned integer indicating the model number of the DVR player. The value encoded in maker_code is determined by the manufacturer who has licensed the DVR format.

【0160】playback_control_flagのフラグが1にセ
ットされている場合、ユーザが正しくPIN番号を入力で
きた場合にだけ、そのPlayListは再生される。このフラ
グが0にセットされている場合、ユーザがPIN番号を入
力しなくても、ユーザは、そのPlayListを視聴すること
ができる。
When the playback_control_flag flag is set to 1, the PlayList is reproduced only when the user can correctly input the PIN number. When this flag is set to 0, the user can view the PlayList without the user inputting a PIN number.

【0161】write_protect_flagは、図28(A)にテ
ーブルを示すように、1にセットされている場合、writ
e_protect_flagを除いて、そのPlayListの内容は、消去
および変更されない。このフラグが0にセットされてい
る場合、ユーザは、そのPlayListを自由に消去および変
更できる。このフラグが1にセットされている場合、ユ
ーザが、そのPlayListを消去、編集、または上書きする
前に、記録再生装置1はユーザに再確認するようなメッ
セージを表示させる。
When the write_protect_flag is set to 1 as shown in the table of FIG.
Except for e_protect_flag, the contents of the PlayList are not deleted or changed. When this flag is set to 0, the user can freely delete and change the PlayList. When this flag is set to 1, the recording / reproducing apparatus 1 displays a message for reconfirming the user before the user deletes, edits, or overwrites the PlayList.

【0162】write_protect_flagが0にセットされてい
るReal PlayListが存在し、かつ、そのReal PlayListの
Clipを参照するVirtual PlayListが存在し、そのVirtua
l PlayListのwrite_protect_flagが1にセットされてい
ても良い。ユーザが、RealPlayListを消去しようとする
場合、記録再生装置1は、そのReal PlayListを消去す
る前に、上記Virtual PlayListの存在をユーザに警告す
るか、または、そのReal PlayListを"Minimize"する。
A Real PlayList in which write_protect_flag is set to 0 exists, and
There is a Virtual PlayList that refers to the Clip and its Virtua
l The write_protect_flag of the PlayList may be set to 1. When the user intends to delete the RealPlayList, the recording / reproducing apparatus 1 warns the user of the existence of the Virtual PlayList or “Minimizes” the Real PlayList before deleting the Real PlayList.

【0163】is_played_flagは、図28(B)に示すよ
うに、フラグが1にセットされている場合、そのPlayLi
stは、記録されてから一度は再生されたことを示し、0
にセットされている場合、そのPlayListは、記録されて
から一度も再生されたことがないことを示す。
As shown in FIG. 28B, when the flag is set to 1, is_played_flag
st indicates that the recording has been performed once since it was recorded, and 0
When the PlayList is set to, this indicates that the PlayList has never been reproduced since it was recorded.

【0164】archiveは、図28(C)に示すように、
そのPlayListがオリジナルであるか、コピーされたもの
であるかを示す2ビットのフィールドである。ref_thum
bnail_index のフィールドは、PlayListを代表するサム
ネイル画像の情報を示す。ref_thumbnail_indexフィー
ルドが、0xFFFFでない値の場合、そのPlayListには、Pl
ayListを代表するサムネイル画像が付加されており、そ
のサムネイル画像は、menu.thum ファイルの中にストア
されている。その画像は、menu.thumファイルの中でref
_thumbnail_indexの値を用いて参照される。ref_thumbn
ail_indexフィールドが、0xFFFF である場合、そのPlay
Listには、PlayListを代表するサムネイル画像が付加さ
れていない。
The archive is, as shown in FIG.
This is a 2-bit field indicating whether the PlayList is an original or a copied one. ref_thum
The bnail_index field indicates information on a thumbnail image representing the PlayList. If the ref_thumbnail_index field has a value other than 0xFFFF, the PlayList contains Pl
A thumbnail image representing ayList is added, and the thumbnail image is stored in the menu.thum file. The image is called ref in the menu.thum file
It is referenced using the value of _thumbnail_index. ref_thumbn
If the ail_index field is 0xFFFF, the Play
No thumbnail image representing the PlayList is added to the List.

【0165】次にPlayItemについて説明する。1つのPl
ayItem()は、基本的に次のデータを含む。Clipのファイ
ル名を指定するためのClip_information_file_name、Cl
ipの再生区間を特定するためのIN_timeとOUT_timeのペ
ア、PlayList()において定義されるCPI_typeがEP_map t
ypeである場合、IN_timeとOUT_timeが参照するところの
STC_sequence_id、および、先行するPlayItemと現在のP
layItemとの接続の状態を示すところのconnection_cond
itionである。
Next, PlayItem will be described. One Pl
ayItem () basically includes the following data. Clip_information_file_name to specify the file name of Clip, Cl
A pair of IN_time and OUT_time for specifying the playback section of ip, and CPI_type defined in PlayList () is EP_map t
ype, where IN_time and OUT_time refer to
STC_sequence_id, preceding PlayItem and current P
connection_cond indicating the state of the connection with the layItem
ition.

【0166】PlayListが2つ以上のPlayItemから構成さ
れる時、それらのPlayItemはPlayListのグローバル時間
軸上に、時間のギャップまたはオーバーラップなしに一
列に並べられる。PlayList()において定義されるCPI_ty
peがEP_map typeであり、かつ現在のPlayItemがBridgeS
equence()を持たない時、そのPlayItemにおいて定義さ
れるIN_timeとOUT_timeのペアは、STC_sequence_idによ
って指定される同じSTC連続区間上の時間を指していな
ければならない。そのような例を図29に示す。
When a PlayList is composed of two or more PlayItems, those PlayItems are arranged in a line on the global time axis of the PlayList without a time gap or overlap. CPI_ty defined in PlayList ()
pe is EP_map type and the current PlayItem is BridgeS
When there is no equence (), the pair of IN_time and OUT_time defined in the PlayItem must point to a time on the same STC continuous section specified by STC_sequence_id. FIG. 29 shows such an example.

【0167】図30は、PlayList()において定義される
CPI_typeがEP_map typeであり、かつ現在のPlayItemがB
ridgeSequence()を持つ時、次に説明する規則が適用さ
れる場合を示している。現在のPlayItemに先行するPlay
ItemのIN_time (図の中でIN_time1と示されているもの)
は、先行するPlayItemのSTC_sequence_idによって指定
されるSTC連続区間上の時間を指している。先行するPla
yItemのOUT_time(図の中でOUT_time1と示されているも
の)は、現在のPlayItemのBridgeSequenceInfo()の中で
指定されるBridge-Clipの中の時間を指している。このO
UT_timeは、後述する符号化制限に従っていなければな
らない。
FIG. 30 is defined in PlayList ().
CPI_type is EP_map type and current PlayItem is B
When ridgeSequence () is used, the following rules are applied. Play preceding the current PlayItem
Item IN_time (indicated as IN_time1 in the figure)
Indicates the time on the STC continuous section specified by the STC_sequence_id of the preceding PlayItem. Preceding Pla
OUT_time of yItem (shown as OUT_time1 in the figure) indicates the time in the Bridge-Clip specified in BridgeSequenceInfo () of the current PlayItem. This O
UT_time must comply with the encoding restrictions described below.

【0168】現在のPlayItemのIN_time(図の中でIN_ti
me2と示されているもの)は、現在のPlayItemのBridgeS
equenceInfo()の中で指定されるBridge-Clipの中の時間
を指している。このIN_timeも、後述する符号化制限に
従っていなければならない。現在のPlayItemのPlayItem
のOUT_time (図の中でOUT_time2と示されているもの)
は、現在のPlayItemのSTC_sequence_idによって指定さ
れるSTC連続区間上の時間を指している。
[0168] The IN_time of the current PlayItem (IN_ti in the figure)
me2) is the BridgeS of the current PlayItem
Points to the time in the Bridge-Clip specified in equenceInfo (). This IN_time must also comply with the encoding restrictions described below. PlayItem of current PlayItem
OUT_time (shown as OUT_time2 in the figure)
Indicates the time on the STC continuous section specified by the STC_sequence_id of the current PlayItem.

【0169】図31に示すように、PlayList()のCPI_ty
peがTU_map typeである場合、PlayItemのIN_timeとOUT_
timeのペアは、同じClip AVストリーム上の時間を指し
ている。
As shown in FIG. 31, CPI_ty of PlayList ()
If pe is TU_map type, IN_time and OUT_ of PlayItem
A pair of time points to a time on the same Clip AV stream.

【0170】PlayItemのシンタクスは、図32に示すよ
うになる。図32に示したPlayItemのシンタクスを説明
するに、Clip_Information_file_nameのフィールドは、
ClipInformation fileのファイル名を示す。このClip I
nformation fileのClipInfo()において定義されるClip_
stream_typeは、Clip AV streamを示していなければな
らない。
[0170] The syntax of the PlayItem is as shown in FIG. To explain the syntax of the PlayItem shown in FIG. 32, the field of Clip_Information_file_name is
Indicates the file name of the ClipInformation file. This Clip I
Clip_ defined in ClipInfo () of nformation file
stream_type must indicate a Clip AV stream.

【0171】STC_sequence_idは、8ビットのフィール
ドであり、PlayItemが参照するSTC連続区間のSTC_seque
nce_idを示す。PlayList()の中で指定されるCPI_typeが
TU_map typeである場合、この8ビットフィールドは何
も意味を持たず、0にセットされる。IN_timeは、32
ビットフィールドであり、PlayItemの再生開始時刻をス
トアする。IN_timeのセマンティクスは、図33に示す
ように、PlayList()において定義されるCPI_typeによっ
て異なる。
[0171] STC_sequence_id is an 8-bit field, and the STC_sequence of the STC continuous section referred to by PlayItem.
Indicates nce_id. CPI_type specified in PlayList () is
If it is TU_map type, this 8-bit field has no meaning and is set to 0. IN_time is 32
This is a bit field and stores the playback start time of the PlayItem. As shown in FIG. 33, the semantics of IN_time differ depending on the CPI_type defined in PlayList ().

【0172】OUT_timeは、32ビットフィールドであ
り、PlayItemの再生終了時刻をストアする。OUT_timeの
セマンティクスは、図34に示すように、PlayList()に
おいて定義されるCPI_typeによって異なる。
[0172] OUT_time is a 32-bit field and stores the playback end time of PlayItem. The semantics of OUT_time differ depending on the CPI_type defined in PlayList (), as shown in FIG.

【0173】Connection_Conditionは、図35に示した
ような先行するPlayItemと、現在のPlayItemとの間の接
続状態を示す2ビットのフィールドである。図36は、
図35に示したConnection_Conditionの各状態について
説明する図である。
[0173] Connection_Condition is a 2-bit field indicating the connection state between the preceding PlayItem as shown in Fig. 35 and the current PlayItem. FIG.
FIG. 36 is a diagram illustrating each state of Connection_Condition illustrated in FIG. 35.

【0174】次に、BridgeSequenceInfoについて、図3
7を参照して説明する。BridgeSequenceInfo()は、現在
のPlayItemの付属情報であり、次に示す情報を持つ。Br
idge-Clip AV streamファイルとそれに対応するClip In
formation file(図45)を指定するBridge_Clip_Info
rmation_file_nameを含む。
Next, BridgeSequenceInfo will be described with reference to FIG.
This will be described with reference to FIG. BridgeSequenceInfo () is information attached to the current PlayItem, and has the following information. Br
idge-Clip AV stream file and corresponding Clip In
Bridge_Clip_Info that specifies the formation file (Figure 45)
Contains rmation_file_name.

【0175】また、先行するPlayItemが参照するClip A
V stream上のソースパケットのアドレスであり、このソ
ースパケットに続いてBridge-Clip AV streamファイル
の最初のソースパケットが接続される。このアドレス
は、RSPN_exit_from_previous_Clipと称される。さらに
現在のPlayItemが参照するClip AV stream上のソースパ
ケットのアドレスであり、このソースパケットの前にBr
idge-Clip AV streamファイルの最後のソースパケット
が接続される。このアドレスは、RSPN_enter_to_curren
t_Clipと称される。
Also, Clip A referred to by the preceding PlayItem
This is the address of the source packet on the V stream, and the first source packet of the Bridge-Clip AV stream file is connected following this source packet. This address is called RSPN_exit_from_previous_Clip. In addition, it is the address of the source packet on the Clip AV stream referred to by the current PlayItem, and Br
The last source packet of the idge-Clip AV stream file is connected. This address is RSPN_enter_to_curren
It is called t_Clip.

【0176】図37において、RSPN_arrival_time_disc
ontinuityは、the Bridge-Clip AVstreamファイルの中
でアライバルタイムベースの不連続点があるところのソ
ースパケットのアドレスを示す。このアドレスは、Clip
Info()(図46)の中において定義される。
In FIG. 37, RSPN_arrival_time_disc
ontinuity indicates the address of the source packet where the arrival time base has a discontinuity in the Bridge-Clip AVstream file. This address is
Info () (FIG. 46).

【0177】図38は、BridgeSequenceinfoのシンタク
スを示す図である。図38に示したBridgeSequenceinfo
のシンタクスを説明するに、Bridge_Clip_Information_
file_nameのフィールドは、Bridge-Clip AV streamファ
イルに対応するClip Information fileのファイル名を
示す。このClip Information fileのClipInfo()におい
て定義されるClip_stream_typeは、'Bridge-Clip AV st
ream'を示していなければならない。
[0177] Fig. 38 is a diagram illustrating the syntax of BridgeSequenceinfo. BridgeSequenceinfo shown in FIG. 38
Bridge_Clip_Information_
The file_name field indicates the file name of the Clip Information file corresponding to the Bridge-Clip AV stream file. Clip_stream_type defined in ClipInfo () of this Clip Information file is' Bridge-Clip AV st
must show ream '.

【0178】RSPN_exit_from_previous_Clipの32ビッ
トフィールドは、先行するPlayItemが参照するClip AV
stream上のソースパケットの相対アドレスであり、この
ソースパケットに続いてBridge-Clip AV streamファイ
ルの最初のソースパケットが接続される。RSPN_exit_fr
om_previous_Clipは、ソースパケット番号を単位とする
大きさであり、先行するPlayItemが参照するClip AV st
reamファイルの最初のソースパケットからClipInfo()に
おいて定義されるoffset_SPNの値を初期値としてカウン
トされる。
[0178] The 32-bit field of RSPN_exit_from_previous_Clip is the Clip AV referenced by the preceding PlayItem.
This is the relative address of the source packet on the stream, and the first source packet of the Bridge-Clip AV stream file is connected following this source packet. RSPN_exit_fr
The om_previous_Clip has a size in units of a source packet number, and a Clip AV st referenced by a preceding PlayItem.
The value of offset_SPN defined in ClipInfo () is counted from the first source packet of the ream file as an initial value.

【0179】RSPN_enter_to_current_Clipの32ビット
フィールドは、現在のPlayItemが参照するClip AV stre
am上のソースパケットの相対アドレスであり、このソー
スパケットの前にBridge-Clip AV streamファイルの最
後のソースパケットが接続される。RSPN_exit_from_pre
vious_Clipは、ソースパケット番号を単位とする大きさ
であり、現在のPlayItemが参照するClip AV streamファ
イルの最初のソースパケットからClipInfo()において定
義されるoffset_SPNの値を初期値としてカウントされ
る。
[0179] The 32-bit field of the RSPN_enter_to_current_Clip is a Clip AV stream referenced by the current PlayItem.
This is the relative address of the source packet on am, and the last source packet of the Bridge-Clip AV stream file is connected before this source packet. RSPN_exit_from_pre
The vious_Clip has a size in units of a source packet number, and is counted from an initial value of offset_SPN defined in ClipInfo () from the first source packet of the Clip AV stream file referenced by the current PlayItem.

【0180】次に、SubPlayItemについて、図39を参
照して説明する。SubPlayItem()の使用は、PlayList()
のCPI_typeがEP_map typeである場合だけに許される。
本実施の形態においては、SubPlayItemはオーディオの
アフレコの目的のためだけに使用されるとする。SubPla
yItem()は、次に示すデータを含む。まず、PlayListの
中のsub pathが参照するClipを指定するためのClip_inf
ormation_file_ nameを含む。
Next, SubPlayItem will be described with reference to FIG. SubPlayItem () uses PlayList ()
Is allowed only when the CPI_type of the is the EP_map type.
In the present embodiment, it is assumed that the SubPlayItem is used only for the purpose of audio dubbing. SubPla
yItem () includes the following data. First, Clip_inf for specifying the Clip referenced by the sub path in the PlayList
ormation_file_ name is included.

【0181】また、Clipの中のsub pathの再生区間を指
定するためのSubPath_IN_time と SubPath_OUT_timeを
含む。さらに、main pathの時間軸上でsub pathが再生
開始する時刻を指定するためのsync_PlayItem_id と sy
nc_start_PTS_of_PlayItemを含む。sub pathに参照され
るオーディオのClip AV streamは、STC不連続点(シス
テムタイムベースの不連続点)を含んではならない。su
b pathに使われるClipのオーディオサンプルのクロック
は、main pathのオーディオサンプルのクロックにロッ
クされている。
[0181] Also, SubPath_IN_time and SubPath_OUT_time for designating the playback section of the sub path in the Clip are included. Furthermore, sync_PlayItem_id and sy for specifying the time when the sub path starts playing on the time axis of the main path
nc_start_PTS_of_PlayItem is included. The audio Clip AV stream referenced by the sub path must not include STC discontinuities (system time base discontinuities). su
The clock of the audio sample of the Clip used for the b path is locked to the clock of the audio sample of the main path.

【0182】図40は、SubPlayItemのシンタクスを示
す図である。図40に示したSubPlayItemのシンタクス
を説明するに、Clip_Information_file_nameのフィール
ドは、Clip Information fileのファイル名を示し、そ
れはPlayListの中でsub pathによって使用される。この
Clip Information fileのClipInfo()において定義され
るClip_stream_typeは、Clip AV streamを示していなけ
ればならない。
FIG. 40 is a diagram showing the syntax of SubPlayItem. To describe the syntax of the SubPlayItem shown in FIG. 40, the field of Clip_Information_file_name indicates the file name of the Clip Information file, which is used by the sub path in the PlayList. this
Clip_stream_type defined in ClipInfo () of the Clip Information file must indicate a Clip AV stream.

【0183】SubPath_typeの8ビットのフィールドは、
sub pathのタイプを示す。ここでは、図41に示すよう
に、'0x00'しか設定されておらず、他の値は、将来のた
めに確保されている。
The 8-bit field of SubPath_type is
Indicates the type of sub path. Here, as shown in FIG. 41, only '0x00' is set, and other values are reserved for the future.

【0184】sync_PlayItem_idの8ビットのフィールド
は、main pathの時間軸上でsub pathが再生開始する時
刻が含まれるPlayItemのPlayItem_idを示す。所定のPla
yItemに対応するPlayItem_idの値は、PlayList()におい
て定義される(図25参照)。
[0184] The 8-bit field of sync_PlayItem_id indicates the PlayItem_id of the PlayItem including the time at which the reproduction of the sub path starts on the time axis of the main path. Prescribed Pla
The value of PlayItem_id corresponding to yItem is defined in PlayList () (see FIG. 25).

【0185】sync_start_PTS_of_PlayItemの32ビット
のフィールドは、main pathの時間軸上でsub pathが再
生開始する時刻を示し、sync_PlayItem_idで参照される
PlayItem上のPTS(Presentaiotn Time Stamp)の上位32
ビットを示す。SubPath_IN_timeの32ビットフィール
ドは、Sub pathの再生開始時刻をストアする。SubPath_
IN_timeは、Sub Pathの中で最初のプレゼンテーション
ユニットに対応する33ビット長のPTSの上位32ビッ
トを示す。
[0185] The 32-bit field of sync_start_PTS_of_PlayItem indicates the time at which playback of the sub path starts on the time axis of the main path, and is referred to by sync_PlayItem_id.
Top 32 of PTS (Presentaiotn Time Stamp) on PlayItem
Indicates a bit. The 32-bit field of SubPath_IN_time stores the playback start time of the Sub path. SubPath_
IN_time indicates the upper 32 bits of a 33-bit PTS corresponding to the first presentation unit in the Sub Path.

【0186】SubPath_OUT_timeの32ビットフィールド
は、Sub pathの再生終了時刻をストアする。SubPath_OU
T_timeは、次式によって算出されるPresenation_end_TS
の値の上位32ビットを示す。 Presentation_end_TS = PTS_out + AU_duration ここで、PTS_outは、SubPathの最後のプレゼンテーショ
ンユニットに対応する33ビット長のPTSである。AU_dura
tionは、SubPathの最後のプレゼンテーションユニット
の90kHz単位の表示期間である。
[0186] The 32-bit field of SubPath_OUT_time stores the reproduction end time of the Sub path. SubPath_OU
T_time is Presentation_end_TS calculated by the following equation
Shows the upper 32 bits of the value of. Presentation_end_TS = PTS_out + AU_duration Here, PTS_out is a 33-bit long PTS corresponding to the last presentation unit of SubPath. AU_dura
Option is a display period of the last presentation unit of the SubPath in units of 90 kHz.

【0187】次に、図23に示したxxxxx.rplsとyyyyy.
vplsのシンタクス内のPlayListMark()について説明す
る。PlayListについてのマーク情報は、このPlayListMa
rkにストアされる。図42は、PlayListMarkのシンタク
スを示す図である。図42に示したPlayListMarkのシン
タクスについて説明するに、version_numberは、このPl
ayListMark()のバージョンナンバを示す4個のキャラク
ター文字である。version_numberは、ISO 646に従っ
て、"0045"と符号化されなければならない。
Next, xxxxx.rpls and yyyyy.
PlayListMark () in the syntax of vpls will be described. Mark information about the PlayList is
Stored in rk. FIG. 42 is a diagram illustrating the syntax of PlayListMark. To explain the syntax of PlayListMark shown in FIG. 42, version_number
Four character characters indicating the version number of ayListMark (). version_number must be encoded as "0045" according to ISO 646.

【0188】lengthは、このlengthフィールドの直後か
らPlayListMark()の最後までのPlayListMark()のバイト
数を示す32ビットの符号なし整数である。number_of_
PlayList_marksは、PlayListMarkの中にストアされてい
るマークの個数を示す16ビットの符号なし整数であ
る。number_of_PlayList_marks は、0であってもよ
い。mark_typeは、マークのタイプを示す8ビットのフ
ィールドであり、図43に示すテーブルに従って符号化
される。
[0188] length is a 32-bit unsigned integer indicating the number of bytes of PlayListMark () from immediately after this length field to the end of PlayListMark (). number_of_
PlayList_marks is a 16-bit unsigned integer indicating the number of marks stored in PlayListMark. number_of_PlayList_marks may be 0. mark_type is an 8-bit field indicating the type of mark, and is encoded according to the table shown in FIG.

【0189】mark_time_stampの32ビットフィールド
は、マークが指定されたポイントを示すタイムスタンプ
をストアする。mark_time_stampのセマンティクスは、
図44に示すように、PlayList()において定義されるCP
I_typeによって異なる。PlayItem_idは、マークが置か
れているところのPlayItemを指定する8ビットのフィー
ルドである。所定のPlayItemに対応するPlayItem_idの
値は、PlayList()において定義される(図25参照)。
[0189] The 32-bit field of mark_time_stamp stores a time stamp indicating the point at which the mark is specified. The semantics of mark_time_stamp are
As shown in FIG. 44, the CP defined in PlayList ()
Depends on I_type. PlayItem_id is an 8-bit field that specifies the PlayItem where the mark is placed. The value of PlayItem_id corresponding to a predetermined PlayItem is defined in PlayList () (see FIG. 25).

【0190】character_setの8ビットのフィールド
は、mark_nameフィールドに符号化されているキャラク
ター文字の符号化方法を示す。その符号化方法は、図1
9に示した値に対応する。name_lengthの8ビットフィ
ールドは、Mark_nameフィールドの中に示されるマーク
名のバイト長を示す。mark_nameのフィールドは、マー
クの名称を示す。このフィールドの中の左からname_len
gth数のバイト数が、有効なキャラクター文字であり、
それはマークの名称を示す。Mark_nameフィールドの中
で、それら有効なキャラクター文字の後の値は、どのよ
うな値が設定されても良い。
The 8-bit field of the character_set indicates the encoding method of the character character encoded in the mark_name field. The encoding method is shown in FIG.
9 corresponds to the value shown in FIG. The 8-bit field of name_length indicates the byte length of the mark name indicated in the Mark_name field. The mark_name field indicates the name of the mark. Name_len from left in this field
gth bytes are valid character characters,
It indicates the name of the mark. In the Mark_name field, any value may be set as the value after the valid character characters.

【0191】ref_thumbnail_indexのフィールドは、マ
ークに付加されるサムネイル画像の情報を示す。ref_th
umbnail_indexフィールドが、0xFFFFでない値の場合、
そのマークにはサムネイル画像が付加されており、その
サムネイル画像は、mark.thmbファイルの中にストアさ
れている。その画像は、mark.thmbファイルの中でref_t
humbnail_indexの値を用いて参照される(後述)。ref_
thumbnail_indexフィールドが、0xFFFF である場合、そ
のマークにはサムネイル画像が付加されていない事を示
す。
[0191] The ref_thumbnail_index field indicates the information of the thumbnail image added to the mark. ref_th
If the umbnail_index field is not 0xFFFF,
A thumbnail image is added to the mark, and the thumbnail image is stored in a mark.thmb file. The image is ref_t in the mark.thmb file
It is referenced using the value of humbnail_index (described later). ref_
When the thumbnail_index field is 0xFFFF, it indicates that no thumbnail image is added to the mark.

【0192】次に、Clip information fileについて説
明する。zzzzz.clpi(Clip information fileファイ
ル)は、図45に示すように6個のオブジェクトから構
成される。それらは、ClipInfo()、STC_Info()、Progra
mInfo()、CPI()、ClipMark()、およびMakersPrivateDat
a()である。AVストリーム(Clip AVストリームまたはBri
dge-Clip AV stream)とそれに対応するClip Informatio
nファイルは、同じ数字列の"zzzzz"が使用される。
Next, the Clip information file will be described. zzzzz.clpi (Clip information file file) is composed of six objects as shown in FIG. They are ClipInfo (), STC_Info (), Progra
mInfo (), CPI (), ClipMark (), and MakersPrivateDat
a (). AV stream (Clip AV stream or Bri
dge-Clip AV stream) and corresponding Clip Informatio
For the n files, "zzzzz" of the same numeric string is used.

【0193】図45に示したzzzzz.clpi(Clip informa
tion fileファイル)のシンタクスについて説明する
に、ClipInfo_Start_addressは、zzzzz.clpiファイルの
先頭のバイトからの相対バイト数を単位として、ClipIn
fo()の先頭アドレスを示す。相対バイト数はゼロからカ
ウントされる。
[0193] zzzzz.clpi (Clip informa) shown in FIG.
ClipInfo_Start_address is described in terms of the relative number of bytes from the first byte of the zzzzz.clpi file as ClipIn_Start_address.
Indicates the start address of fo (). Relative bytes are counted from zero.

【0194】STC_Info_Start_addressは、zzzzz.clpiフ
ァイルの先頭のバイトからの相対バイト数を単位とし
て、STC_Info()の先頭アドレスを示す。相対バイト数は
ゼロからカウントされる。ProgramInfo_Start_address
は、zzzzz.clpiファイルの先頭のバイトからの相対バイ
ト数を単位として、ProgramInfo()の先頭アドレスを示
す。相対バイト数はゼロからカウントされる。CPI_Star
t_addressは、zzzzz.clpiファイルの先頭のバイトから
の相対バイト数を単位として、CPI()の先頭アドレスを
示す。相対バイト数はゼロからカウントされる。
[0194] STC_Info_Start_address indicates the start address of STC_Info () in units of relative bytes from the first byte of the zzzzz.clpi file. Relative bytes are counted from zero. ProgramInfo_Start_address
Indicates the start address of ProgramInfo () in units of relative bytes from the start byte of the zzzzz.clpi file. Relative bytes are counted from zero. CPI_Star
t_address indicates the start address of CPI () in units of relative bytes from the start byte of the zzzzz.clpi file. Relative bytes are counted from zero.

【0195】ClipMark_Start_addressは、zzzzz.clpiフ
ァイルの先頭のバイトからの相対バイト数を単位とし
て、ClipMark()の先頭アドレスを示す。相対バイト数は
ゼロからカウントされる。MakersPrivateData_Start_ad
dressは、zzzzz.clpiファイルの先頭のバイトからの相
対バイト数を単位として、MakersPrivateData ()の先頭
アドレスを示す。相対バイト数はゼロからカウントされ
る。padding_word(パディングワード)は、zzzzz.clpi
ファイルのシンタクスにしたがって挿入される。N1,
N2,N3,N4、およびN5は、ゼロまたは任意の正
の整数でなければならない。それぞれのパディングワー
ドは、任意の値がとられるようにしても良い。
ClipMark_Start_address indicates the start address of ClipMark () in units of the relative number of bytes from the first byte of the zzzzz.clpi file. Relative bytes are counted from zero. MakersPrivateData_Start_ad
dress indicates the start address of MakersPrivateData () in units of relative bytes from the start byte of the zzzzz.clpi file. Relative bytes are counted from zero. padding_word (padding word) is zzzzz.clpi
Inserted according to file syntax. N1,
N2, N3, N4, and N5 must be zero or any positive integer. Each padding word may have an arbitrary value.

【0196】次に、ClipInfoについて説明する。図46
は、ClipInfoのシンタクスを示す図である。ClipInfo()
は、それに対応するAVストリームファイル(Clip AVス
トリームまたはBridge-Clip AVストリームファイル)の
属性情報をストアする。
Next, ClipInfo will be described. FIG.
Fig. 4 is a diagram illustrating the syntax of ClipInfo. ClipInfo ()
Stores attribute information of the corresponding AV stream file (Clip AV stream or Bridge-Clip AV stream file).

【0197】図46に示したClipInfoのシンタクスにつ
いて説明するに、version_numberは、このClipInfo()の
バージョンナンバーを示す4個のキャラクター文字であ
る。version_numberは、ISO 646に従って、"0045"と符
号化されなければならない。lengthは、このlengthフィ
ールドの直後からClipInfo()の最後までのClipInfo()の
バイト数を示す32ビットの符号なし整数である。Clip
_stream_typeの8ビットのフィールドは、図47に示す
ように、Clip Informationファイルに対応するAVストリ
ームのタイプを示す。それぞれのタイプのAVストリーム
のストリームタイプについては後述する。
The syntax of the ClipInfo shown in FIG. 46 will be described. Version_number is four character characters indicating the version number of this ClipInfo (). version_number must be encoded as "0045" according to ISO 646. length is a 32-bit unsigned integer indicating the number of bytes of ClipInfo () from immediately after the length field to the end of ClipInfo (). Clip
As shown in FIG. 47, the 8-bit field of _stream_type indicates the type of the AV stream corresponding to the Clip Information file. The stream type of each type of AV stream will be described later.

【0198】offset_SPNの32ビットのフィールドは、
AVストリーム(Clip AVストリームまたはBridge-Clip A
Vストリーム)ファイルの最初のソースパケットについ
てのソースパケット番号のオフセット値を与える。AVス
トリームファイルが最初にディスクに記録される時、こ
のoffset_SPNは0でなければならない。
The 32-bit field of offset_SPN is
AV stream (Clip AV stream or Bridge-Clip A
Vstream) Gives the source packet number offset value for the first source packet in the file. This offset_SPN must be 0 when the AV stream file is first recorded on the disc.

【0199】図48に示すように、AVストリームファイ
ルのはじめの部分が編集によって消去された時、offset
_SPNは、ゼロ以外の値をとっても良い。本実施の形態で
は、offset_SPNを参照する相対ソースパケット番号(相
対アドレス)が、しばしば、RSPN_xxx(xxxは変形す
る。例.RSPN_EP_start)の形式でシンタクスの中に記
述されている。相対ソースパケット番号は、ソースパケ
ット番号を単位とする大きさであり、AVストリームファ
イルの最初のソースパケットからoffset_SPNの値を初期
値としてカウントされる。
As shown in FIG. 48, when the first part of the AV stream file is deleted by editing, the offset
_SPN may take a value other than zero. In the present embodiment, a relative source packet number (relative address) referring to offset_SPN is often described in syntax in the form of RSPN_xxx (xxx is deformed, eg, RSPN_EP_start). The relative source packet number has a size in units of the source packet number, and is counted from the first source packet of the AV stream file using the value of offset_SPN as an initial value.

【0200】AVストリームファイルの最初のソースパケ
ットから相対ソースパケット番号で参照されるソースパ
ケットまでのソースパケットの数(SPN_xxx)は、次式
で算出される。 SPN_xxx = RSPN_xxx - offset_SPN 図48に、offset_SPN が、4である場合の例を示す。
The number of source packets (SPN_xxx) from the first source packet of the AV stream file to the source packet referenced by the relative source packet number is calculated by the following equation. SPN_xxx = RSPN_xxx-offset_SPN FIG. 48 shows an example in which offset_SPN is 4.

【0201】TS_recording_rateは、24ビットの符号
なし整数であり、この値は、DVRドライブ(書き込み部
22)へまたはDVRドライブ(読み出し部28)からのA
Vストリームの必要な入出力のビットレートを与える。r
ecord_time_and_dateは、Clipに対応するAVストリーム
が記録された時の日時をストアする56ビットのフィー
ルドであり、年/月/日/時/分/秒について、14個
の数字を4ビットのBinary Coded Decimal(BCD)で符号
化したものである。例えば、2001/12/23:01:02:03は、"
0x20011223010203"と符号化される。
[0201] TS_recording_rate is a 24-bit unsigned integer, and the value of A_A is transmitted from the DVR drive (write unit 22) or from the DVR drive (read unit 28).
Gives the required input / output bit rate of the V stream. r
ecord_time_and_date is a 56-bit field that stores the date and time when the AV stream corresponding to the Clip was recorded. For the year / month / day / hour / minute / second, 14 numbers are used as a 4-bit Binary Coded Decimal. (BCD). For example, 2001/12/23: 01: 02: 03 is "
0x20011223010203 ".

【0202】durationは、Clipの総再生時間をアライバ
ルタイムクロックに基づいた時間/分/秒の単位で示し
た24ビットのフィールドである。このフィールドは、
6個の数字を4ビットのBinary Coded Decimal(BCD)で
符号化したものである。例えば、01:45:30は、"0x01453
0"と符号化される。
The duration is a 24-bit field indicating the total playback time of the Clip in units of time / minute / second based on the arrival time clock. This field is
Six numbers are encoded by 4-bit Binary Coded Decimal (BCD). For example, 01:45:30 is "0x01453
Encoded as 0 ".

【0203】time_controlled_flagのフラグは、AVスト
リームファイルの記録モードを示す。このtime_control
led_flagが1である場合、記録モードは、記録してから
の時間経過に対してファイルサイズが比例するようにし
て記録されるモードであることを示し、次式に示す条件
を満たさなければならない。 TS_average_rate*192/188*(t - start_time)−α <= si
ze_clip(t) <= TS_average_rate*192/188*(t - start_time)+α ここで、TS_average_rateは、AVストリームファイルの
トランスポートストリームの平均ビットレートをbytes/
second の単位で表したものである。
[0203] The flag of time_controlled_flag indicates the recording mode of the AV stream file. This time_control
When led_flag is 1, it indicates that the recording mode is a mode in which the file size is recorded in such a manner that the file size is proportional to the elapsed time from the recording, and the condition shown in the following equation must be satisfied. TS_average_rate * 192/188 * (t-start_time) −α <= si
ze_clip (t) <= TS_average_rate * 192/188 * (t-start_time) + α where TS_average_rate is the average bit rate of the transport stream of the AV stream file in bytes /
It is expressed in the unit of second.

【0204】また、上式において、tは、秒単位で表さ
れる時間を示し、start_timeは、AVストリームファイル
の最初のソースパケットが記録された時の時刻であり、
秒単位で表される。size_clip(t)は、 時刻tにおけるA
Vストリームファイルのサイズをバイト単位で表したも
のであり、例えば、start_timeから時刻tまでに10個
のソースパケットが記録された場合、size_clip(t)は10
*192バイトである。αは、TS_average_rateに依存する
定数である。
[0204] In the above equation, t indicates a time expressed in seconds, start_time is the time when the first source packet of the AV stream file was recorded,
Expressed in seconds. size_clip (t) is A at time t
The size of the V stream file is expressed in bytes. For example, if 10 source packets are recorded from start_time to time t, size_clip (t) is 10
* 192 bytes. α is a constant that depends on TS_average_rate.

【0205】time_controlled_flagが0にセットされて
いる場合、記録モードは、記録の時間経過とAVストリー
ムのファイルサイズが比例するように制御していないこ
とを示す。例えば、これは入力トランスポートストリー
ムをトランスペアレント記録する場合である。
[0205] When time_controlled_flag is set to 0, it indicates that the recording mode is not controlled so that the elapsed time of recording and the file size of the AV stream are proportional. For example, this is the case when the input transport stream is recorded transparently.

【0206】TS_average_rateは、time_controlled_fla
gが1にセットされている場合、この24ビットのフィ
ールドは、上式で用いているTS_average_rateの値を示
す。time_controlled_flagが0にセットされている場
合、このフィールドは、何も意味を持たず、0にセット
されなければならない。例えば、可変ビットレートのト
ランスポートストリームは、次に示す手順により符号化
される。まずトランスポートレートをTS_recording_rat
eの値にセットする。次に、ビデオストリームを可変ビ
ットレートで符号化する。そして、ヌルパケットを使用
しない事によって、間欠的にトランスポートパケットを
符号化する。
TS_average_rate is time_controlled_fla
When g is set to 1, this 24-bit field indicates the value of TS_average_rate used in the above equation. If time_controlled_flag is set to 0, this field has no meaning and must be set to 0. For example, a transport stream with a variable bit rate is encoded by the following procedure. First, set the transport rate to TS_recording_rat
Set to the value of e. Next, the video stream is encoded at a variable bit rate. Then, the transport packet is intermittently encoded by not using the null packet.

【0207】RSPN_arrival_time_discontinuityの32
ビットフィールドは、Bridge-Clip AV streamファイル
上でアライバルタイムベースの不連続が発生する場所の
相対アドレスである。RSPN_arrival_time_discontinuit
yは、ソースパケット番号を単位とする大きさであり、B
ridge-Clip AV streamファイルの最初のソースパケット
からClipInfo() において定義されるoffset_SPNの値を
初期値としてカウントされる。そのBridge-Clip AV str
eamファイルの中での絶対アドレスは、上述した SPN_xxx = RSPN_xxx - offset_SPN に基づいて算出される。
[0207] RSPN_arrival_time_discontinuity of 32
The bit field is a relative address of a place where the arrival time base discontinuity occurs in the Bridge-Clip AV stream file. RSPN_arrival_time_discontinuit
y is a size in units of a source packet number, and B
The value of offset_SPN defined in ClipInfo () is counted from the first source packet of the ridge-Clip AV stream file as an initial value. That Bridge-Clip AV str
The absolute address in the eam file is calculated based on SPN_xxx = RSPN_xxx-offset_SPN described above.

【0208】reserved_for_system_useの144ビットのフ
ィールドは、システム用にリザーブされている。is_for
mat_identifier_validのフラグが1である時、format_i
dentifierのフィールドが有効であることを示す。is_or
iginal_network_ID_validのフラグが1である場合、ori
ginal_network_IDのフィールドが有効であることを示
す。is_transport_stream_ID_validのフラグが1である
場合、transport_stream_IDのフィールドが有効である
ことを示す。is_servece_ID_validのフラグが1である
場合、servece_IDのフィールドが有効であることを示
す。
[0208] A 144-bit field of reserved_for_system_use is reserved for the system. is_for
When the flag of mat_identifier_valid is 1, format_i
Indicates that the dentifier field is valid. is_or
If the flag of iginal_network_ID_valid is 1, ori
Indicates that the ginal_network_ID field is valid. When the flag of is_transport_stream_ID_valid is 1, it indicates that the field of transport_stream_ID is valid. When the flag of is_servece_ID_valid is 1, it indicates that the field of serve_ID is valid.

【0209】is_ country_code_validのフラグが1であ
る時、country_codeのフィールドが有効であることを示
す。format_identifierの32ビットフィールドは、トラ
ンスポートストリームの中でregistration deascriotor
(ISO/IEC13818-1で定義されている)が持つformat_ide
ntifierの値を示す。original_network_IDの16ビット
フィールドは、トランスポートストリームの中で定義さ
れているoriginal_network_IDの値を示す。transport_s
tream_IDの16ビットフィールドは、トランスポートス
トリームの中で定義されているtransport_stream_IDの
値を示す。
When the flag of is_country_code_valid is 1, it indicates that the field of country_code is valid. The format_identifier 32-bit field is used in the transport stream for registration deascriotor
Format_ide (defined in ISO / IEC13818-1)
Indicates the value of ntifier. The 16-bit field of original_network_ID indicates the value of original_network_ID defined in the transport stream. transport_s
The 16-bit field of stream_ID indicates the value of transport_stream_ID defined in the transport stream.

【0210】servece_IDの16ビットフィールドは、ト
ランスポートストリームの中で定義されているservece_
IDの値を示す。country_codeの24ビットのフィールド
は、ISO3166によって定義されるカントリーコードを示
す。それぞれのキャラクター文字は、ISO8859-1で符号
化される。例えば、日本は"JPN"と表され、"0x4A 0x500
x4E"と符号化される。stream_format_nameは、トランス
ポートストリームのストリーム定義をしているフォーマ
ット機関の名称を示すISO-646の16個のキャラクター
コードである。このフィールドの中の無効なバイトは、
値'0xFF'がセットされる。
[0210] The 16-bit field of the servece_ID is defined in the servece_ID defined in the transport stream.
Indicates the ID value. The 24-bit field of country_code indicates a country code defined by ISO3166. Each character character is encoded in ISO8859-1. For example, Japan is represented as "JPN" and "0x4A 0x500
x4E ". stream_format_name is a 16-character ISO-646 character code indicating the name of the format organization that defines the stream of the transport stream. The invalid bytes in this field are:
The value '0xFF' is set.

【0211】format_identifier、original_network_I
D、transport_stream_ID、 servece_ID,country_code
、およびstream_format_nameは、トランスポートスト
リームのサービスプロバイダを示すものであり、これに
より、オーディオやビデオストリームの符号化制限、SI
(サービスインフォメーション)の規格やオーディオビデ
オストリーム以外のプライベートデータストリームのス
トリーム定義を認識することができる。これらの情報
は、デコーダが、そのストリームをデコードできるか否
か、そしてデコードできる場合にデコード開始前にデコ
ーダシステムの初期設定を行うために用いることが可能
である。
Format_identifier, original_network_I
D, transport_stream_ID, servece_ID, country_code
, And stream_format_name indicate the service provider of the transport stream, and thereby, the audio and video stream encoding restrictions, SI
(Service Information) standards and stream definitions of private data streams other than audio / video streams can be recognized. This information can be used to determine whether the decoder can decode the stream and, if so, to initialize the decoder system before decoding starts.

【0212】次に、STC_Infoについて説明する。ここで
は、MPEG-2トランスポートストリームの中でSTCの不連
続点(システムタイムベースの不連続点)を含まない時
間区間をSTC_sequenceと称し、Clipの中で、STC_sequen
ceは、STC_sequence_idの値によって特定される。図5
0は、連続なSTC区間について説明する図である。同
じSTC_sequenceの中で同じSTCの値は、決して現れない
(ただし、後述するように、Clipの最大時間長は制限さ
れている)。従って、同じSTC_sequenceの中で同じPTS
の値もまた、決して現れない。AVストリームが、N(N>0)
個のSTC不連続点を含む場合、Clipのシステムタイムベ
ースは、(N+1)個のSTC_sequenceに分割される。
Next, STC_Info will be described. Here, a time section in the MPEG-2 transport stream that does not include STC discontinuities (system timebase discontinuities) is referred to as an STC_sequence, and a STC_sequen
ce is specified by the value of STC_sequence_id. FIG.
0 is a diagram illustrating a continuous STC section. The same STC value in the same STC_sequence never appears (however, the maximum time length of the Clip is limited as described later). Therefore, the same PTS in the same STC_sequence
Also never appears. AV stream is N (N> 0)
When the STC discontinuous points are included, the system time base of the Clip is divided into (N + 1) STC_sequences.

【0213】STC_Infoは、STCの不連続(システムタイ
ムベースの不連続)が発生する場所のアドレスをストア
する。図51を参照して説明するように、RSPN_STC_sta
rtが、そのアドレスを示し、最後のSTC_sequenceを除く
k番目(k>=0)のSTC_sequenceは、k番目のRSPN_STC_sta
rtで参照されるソースパケットが到着した時刻から始ま
り、(k+1)番目のRSPN_STC_startで参照されるソースパ
ケットが到着した時刻で終わる。最後のSTC_sequence
は、最後のRSPN_STC_startで参照されるソースパケット
が到着した時刻から始まり、最後のソースパケットが到
着した時刻で終了する。
STC_Info stores the address of the place where STC discontinuity (system time base discontinuity) occurs. As described with reference to FIG. 51, the RSPN_STC_sta
rt indicates the address, excluding the last STC_sequence
The kth (k> = 0) STC_sequence is the kth RSPN_STC_sta
It starts from the time at which the source packet referred to by rt arrives, and ends at the time at which the (k + 1) th source packet referred to by RSPN_STC_start arrives. Last STC_sequence
Starts at the time at which the last source packet referenced by RSPN_STC_start arrives and ends at the time at which the last source packet arrives.

【0214】図52は、STC_Infoのシンタクスを示す図
である。図52に示したSTC_Infoのシンタクスについて
説明するに、version_numberは、このSTC_Info()のバー
ジョンナンバーを示す4個のキャラクター文字である。
version_numberは、ISO 646に従って、"0045"と符号化
されなければならない。
FIG. 52 is a diagram showing the syntax of STC_Info. To describe the syntax of STC_Info shown in FIG. 52, version_number is four character characters indicating the version number of this STC_Info ().
version_number must be encoded as "0045" according to ISO 646.

【0215】lengthは、このlengthフィールドの直後か
らSTC_Info()の最後までのSTC_Info()のバイト数を示す
32ビットの符号なし整数である。CPI()のCPI_typeがT
U_map typeを示す場合、このlengthフィールドはゼロを
セットしても良い。CPI()のCPI_typeがEP_map typeを示
す場合、num_of_STC_sequencesは1以上の値でなければ
ならない。
[0215] length is a 32-bit unsigned integer indicating the number of bytes of STC_Info () from immediately after this length field to the end of STC_Info (). CPI_type of CPI () is T
When the U_map type is indicated, the length field may be set to zero. When CPI_type of CPI () indicates EP_map type, num_of_STC_sequences must be a value of 1 or more.

【0216】num_of_STC_sequencesの8ビットの符号な
し整数は、Clipの中でのSTC_sequenceの数を示す。この
値は、このフィールドに続くfor-loopのループ回数を示
す。所定のSTC_sequenceに対応するSTC_sequence_id
は、RSPN_STC_startを含むfor-loopの中で、そのSTC_se
quenceに対応するRSPN_STC_startの現れる順番により定
義されるものである。STC_sequence_idは、0から開始
される。
[0216] The 8-bit unsigned integer of num_of_STC_sequences indicates the number of STC_sequences in the Clip. This value indicates the number of for-loops following this field. STC_sequence_id corresponding to predetermined STC_sequence
Is the STC_se in the for-loop including RSPN_STC_start
It is defined by the order in which RSPN_STC_start corresponding to the queue appears. STC_sequence_id starts from 0.

【0217】RSPN_STC_startの32ビットフィールド
は、AVストリームファイル上でSTC_sequenceが開始する
アドレスを示す。RSPN_STC_startは、AVストリームファ
イルの中でシステムタイムベースの不連続点が発生する
アドレスを示す。RSPN_STC_startは、AVストリームの中
で新しいシステムタイムベースの最初のPCRを持つソー
スパケットの相対アドレスとしても良い。RSPN_STC_sta
rtは、ソースパケット番号を単位とする大きさであり、
AVストリームファイルの最初のソースパケットからClip
Info()において定義されるoffset_SPNの値を初期値とし
てカウントされる。そのAV streamファイルの中での絶
対アドレスは、既に上述した SPN_xxx = RSPN_xxx - offset_SPN により算出される。
[0217] The 32-bit field of RSPN_STC_start indicates the address at which STC_sequence starts on the AV stream file. RSPN_STC_start indicates an address at which a discontinuity point of the system time base occurs in the AV stream file. RSPN_STC_start may be the relative address of the source packet having the first PCR of the new system time base in the AV stream. RSPN_STC_sta
rt is a size in units of a source packet number,
Clip from the first source packet of the AV stream file
The offset_SPN value defined in Info () is counted as an initial value. The absolute address in the AV stream file is calculated by the above-mentioned SPN_xxx = RSPN_xxx-offset_SPN.

【0218】次に、図45に示したzzzzz.clipのシンタ
クス内のProgramInfoについて説明する。図53を参照
しながら説明するに、ここでは、Clipの中で次の特徴を
もつ時間区間をprogram_sequenceと呼ぶ。まず、PCR_PI
Dの値が変わらない。次に、ビデオエレメンタリースト
リームの数が変化しない。また、それぞれのビデオスト
リームについてのPIDの値とそのVideoCodingInfoによっ
て定義される符号化情報が変化しない。さらに、オーデ
ィオエレメンタリーストリームの数が変化しない。ま
た、それぞれのオーディオストリームについてのPIDの
値とそのAudioCodingInfoによって定義される符号化情
報が変化しない。
Next, ProgramInfo in the syntax of zzzzz.clip shown in FIG. 45 will be described. As described with reference to FIG. 53, a time section having the following characteristics in a Clip is referred to as a program_sequence. First, PCR_PI
The value of D does not change. Next, the number of video elementary streams does not change. Also, the value of the PID for each video stream and the coding information defined by the VideoCodingInfo do not change. Furthermore, the number of audio elementary streams does not change. Also, the PID value for each audio stream and the encoding information defined by its AudioCodingInfo do not change.

【0219】program_sequenceは、同一の時刻におい
て、ただ1つのシステムタイムベースを持つ。program_
sequenceは、同一の時刻において、ただ1つのPMTを持
つ。ProgramInfo()は、program_sequenceが開始する場
所のアドレスをストアする。RSPN_program_sequence_st
artが、そのアドレスを示す。
Program_sequence has only one system time base at the same time. program_
A sequence has only one PMT at the same time. ProgramInfo () stores the address of the place where program_sequence starts. RSPN_program_sequence_st
art indicates the address.

【0220】図54は、ProgramInfoのシンタクスを示
す図である。図54に示したProgramInfoのシンタクを
説明するに、version_numberは、このProgramInfo()の
バージョンナンバーを示す4個のキャラクター文字であ
る。version_numberは、ISO 646に従って、"0045"と符
号化されなければならない。
FIG. 54 is a diagram showing the syntax of ProgramInfo. In describing the syntax of ProgramInfo shown in FIG. 54, version_number is four character characters indicating the version number of ProgramInfo (). version_number must be encoded as "0045" according to ISO 646.

【0221】lengthは、このlengthフィールドの直後か
らProgramInfo()の最後までのProgramInfo()のバイト数
を示す32ビットの符号なし整数である。CPI()のCPI_t
ypeがTU_map typeを示す場合、このlengthフィールドは
ゼロにセットされても良い。CPI()のCPI_typeがEP_map
typeを示す場合、number_of_programsは1以上の値でな
ければならない。
Length is a 32-bit unsigned integer indicating the number of bytes of ProgramInfo () from immediately after the length field to the end of ProgramInfo (). CPI_t of CPI ()
If ype indicates TU_map type, this length field may be set to zero. CPI_type of CPI () is EP_map
When indicating type, number_of_programs must be a value of 1 or more.

【0222】number_of_program_sequencesの8ビット
の符号なし整数は、Clipの中でのprogram_sequenceの数
を示す。この値は、このフィールドに続くfor-loopのル
ープ回数を示す。Clipの中でprogram_sequenceが変化し
ない場合、number_of_program_sequencesは1をセット
されなければならない。RSPN_program_sequence_start
の32ビットフィールドは、AVストリームファイル上で
プログラムシーケンスが開始する場所の相対アドレスで
ある。
[0222] The 8-bit unsigned integer of number_of_program_sequences indicates the number of program_sequences in the Clip. This value indicates the number of for-loops following this field. If program_sequence does not change in the Clip, number_of_program_sequences must be set to 1. RSPN_program_sequence_start
Is a relative address of the place where the program sequence starts on the AV stream file.

【0223】RSPN_program_sequence_startは、ソース
パケット番号を単位とする大きさであり、AVストリーム
ファイルの最初のソースパケットからClipInfo()におい
て定義されるoffset_SPNの値を初期値としてカウントさ
れる。そのAVストリームファイルの中での絶対アドレス
は、 SPN_xxx = RSPN_xxx - offset_SPN により算出される。シンタクスのfor-loopの中でRSPN_p
rogram_sequence_start値は、昇順に現れなければなら
ない。
[0223] RSPN_program_sequence_start has a size in units of source packet numbers, and is counted from the first source packet of the AV stream file using the value of offset_SPN defined in ClipInfo () as an initial value. The absolute address in the AV stream file is calculated by SPN_xxx = RSPN_xxx-offset_SPN. RSPN_p in syntax for-loop
rogram_sequence_start values must appear in ascending order.

【0224】PCR_PIDの16ビットフィールドは、そのp
rogram_sequenceに有効なPCRフィールドを含むトランス
ポートパケットのPIDを示す。number_of_videosの8ビ
ットフィールドは、video_stream_PIDとVideoCodingInf
o()を含むfor-loopのループ回数を示す。number_of_aud
iosの8ビットフィールドは、audio_stream_PIDとAudio
CodingInfo()を含むfor-loopのループ回数を示す。vide
o_stream_PIDの16ビットフィールドは、そのprogram_
sequenceに有効なビデオストリームを含むトランスポー
トパケットのPIDを示す。このフィールドに続くVideoCo
dingInfo()は、そのvideo_stream_PIDで参照されるビデ
オストリームの内容を説明しなければならない。
The 16-bit field of the PCR_PID has its p
Indicates the PID of a transport packet including a valid PCR field in rogram_sequence. The 8-bit field of number_of_videos is video_stream_PID and VideoCodingInf
Indicates the number of for-loop loops including o (). number_of_aud
The 8-bit field of ios is audio_stream_PID and Audio
Indicates the number of times of for-loop including CodingInfo (). vide
The 16-bit field of o_stream_PID is
Indicates the PID of a transport packet containing a valid video stream in the sequence. VideoCo following this field
dingInfo () must describe the content of the video stream referenced by the video_stream_PID.

【0225】audio_stream_PIDの16ビットフィールド
は、そのprogram_sequenceに有効なオーディオストリー
ムを含むトランスポートパケットのPIDを示す。このフ
ィールドに続くAudioCodingInfo()は、そのaudio_strea
m_PIDで参照されるビデオストリームの内容を説明しな
ければならない。
[0225] The 16-bit field of audio_stream_PID indicates the PID of a transport packet including an audio stream valid for the program_sequence. AudioCodingInfo () following this field is the audio_strea
The content of the video stream referenced by m_PID must be explained.

【0226】なお、シンタクスのfor-loopの中でvideo_
stream_PIDの値の現れる順番は、そのprogram_sequence
に有効なPMTの中でビデオストリームのPIDが符号化され
ている順番に等しくなければならない。また、シンタク
スのfor-loopの中でaudio_stream_PIDの値の現れる順番
は、そのprogram_sequenceに有効なPMTの中でオーディ
オストリームのPIDが符号化されている順番に等しくな
ければならない。
[0226] In the for-loop of the syntax, video_
The order in which the stream_PID values appear is the program_sequence
Must be equal to the order in which the PIDs of the video streams are encoded in the valid PMT. Also, the order in which the value of audio_stream_PID appears in the syntax for-loop must be equal to the order in which the PID of the audio stream is encoded in the PMT valid for the program_sequence.

【0227】図55は、図54に示したPrograminfoの
シンタクス内のVideoCodingInfoのシンタクスを示す図
である。図55に示したVideoCodingInfoのシンタクス
を説明するに、video_formatの8ビットフィールドは、
図56に示すように、ProgramInfo()の中のvideo_strea
m_PIDに対応するビデオフォーマットを示す。
FIG. 55 is a diagram showing the syntax of VideoCodingInfo in the syntax of Programinfo shown in FIG. To explain the syntax of VideoCodingInfo shown in FIG. 55, the 8-bit field of video_format is
As shown in FIG. 56, video_strea in ProgramInfo ()
Indicates the video format corresponding to m_PID.

【0228】frame_rateの8ビットフィールドは、図5
7に示すように、ProgramInfo()の中のvideo_stream_PI
Dに対応するビデオのフレームレートを示す。display_a
spect_ratioの8ビットフィールドは、図58に示すよ
うに、ProgramInfo()の中のvideo_stream_PIDに対応す
るビデオの表示アスペクト比を示す。
The 8-bit field of frame_rate is shown in FIG.
As shown in FIG. 7, video_stream_PI in ProgramInfo ()
Indicates the frame rate of the video corresponding to D. display_a
As shown in FIG. 58, the 8-bit field of spect_ratio indicates the display aspect ratio of the video corresponding to video_stream_PID in ProgramInfo ().

【0229】図59は、図54に示したPrograminfoの
シンタクス内のAudioCodingInfoのシンタクスを示す図
である。図59に示したAudioCodingInfoのシンタクス
を説明するに、audio_codingの8ビットフィールドは、
図60に示すように、ProgramInfo()の中のaudio_strea
m_PIDに対応するオーディオの符号化方法を示す。
FIG. 59 is a diagram showing the syntax of AudioCodingInfo in the syntax of Programinfo shown in FIG. To describe the syntax of AudioCodingInfo shown in FIG. 59, the 8-bit field of audio_coding is
As shown in FIG. 60, audio_strea in ProgramInfo ()
This section shows the audio encoding method corresponding to m_PID.

【0230】audio_component_typeの8ビットフィール
ドは、図61に示すように、ProgramInfo()の中のaudio
_stream_PIDに対応するオーディオのコンポーネントタ
イプを示す。sampling_frequencyの8ビットフィールド
は、図62に示すように、ProgramInfo()の中のaudio_s
tream_PIDに対応するオーディオのサンプリング周波数
を示す。
As shown in FIG. 61, the 8-bit field of audio_component_type is audio in ProgramInfo ().
Indicates the audio component type corresponding to _stream_PID. As shown in FIG. 62, the 8-bit field of sampling_frequency is audio_s in ProgramInfo ().
Indicates the audio sampling frequency corresponding to tream_PID.

【0231】次に、図45に示したzzzzz.clipのシンタ
クス内のCPI (Characteristic Point Information)につ
いて説明する。CPIは、AVストリームの中の時間情報と
そのファイルの中のアドレスとを関連づけるためにあ
る。CPIには2つのタイプがあり、それらはEP_mapとTU_
mapである。図63に示すように、CPI()の中のCPI_type
がEP_map typeの場合、そのCPI()はEP_mapを含む。図6
4に示すように、CPI()の中のCPI_typeがTU_map typeの
場合、そのCPI()はTU_mapを含む。1つのAVストリーム
は、1つのEP_mapまたは一つのTU_mapを持つ。AVストリ
ームがSESFトランスポートストリームの場合、それに対
応するClipはEP_mapを持たなければならない。
Next, the CPI (Characteristic Point Information) in the syntax of zzzzz.clip shown in FIG. 45 will be described. The CPI is for associating time information in an AV stream with an address in the file. There are two types of CPI, EP_map and TU_
map. As shown in FIG. 63, CPI_type in CPI ()
Is EP_map type, the CPI () includes EP_map. FIG.
As shown in FIG. 4, when CPI_type in CPI () is TU_map type, CPI () includes TU_map. One AV stream has one EP_map or one TU_map. When the AV stream is a SESF transport stream, the corresponding Clip must have an EP_map.

【0232】図65は、CPIのシンタクスを示す図であ
る。図65に示したCPIのシンタクスを説明するに、ver
sion_numberは、このCPI()のバージョンナンバを示す4
個のキャラクター文字である。version_numberは、ISO
646に従って、"0045"と符号化されなければならない。l
engthは、このlengthフィールドの直後からCPI()の最後
までのCPI()のバイト数を示す32ビットの符号なし整
数である。CPI_typeは、図66に示すように、1ビット
のフラグであり、ClipのCPIのタイプを表す。
FIG. 65 is a diagram showing the syntax of CPI. To explain the syntax of the CPI shown in FIG.
sion_number is 4 indicating the version number of this CPI ()
Character characters. version_number is the ISO
It must be encoded as "0045" according to 646. l
“ength” is a 32-bit unsigned integer indicating the number of bytes of CPI () from immediately after the length field to the end of CPI (). CPI_type is a 1-bit flag, as shown in FIG. 66, and represents the CPI type of the Clip.

【0233】次に、図65に示したCPIのシンタクス内
のEP_mapについて説明する。EP_mapには、2つのタイプ
があり、それはビデオストリーム用のEP_mapとオーディ
オストリーム用のEP_mapである。EP_mapの中のEP_map_t
ypeが、EP_mapのタイプを区別する。Clipが1つ以上の
ビデオストリームを含む場合、ビデオストリーム用のEP
_mapが使用されなければならない。Clipがビデオストリ
ームを含まず、1つ以上のオーディオストリームを含む
場合、オーディオストリーム用のEP_mapが使用されなけ
ればならない。
Next, the EP_map in the syntax of the CPI shown in FIG. 65 will be described. There are two types of EP_maps, EP_map for video streams and EP_map for audio streams. EP_map_t in EP_map
ype distinguishes the type of EP_map. EP for video stream if Clip contains one or more video streams
_map must be used. If the Clip contains no video stream but one or more audio streams, an EP_map for the audio stream must be used.

【0234】ビデオストリーム用のEP_mapについて図6
7を参照して説明する。ビデオストリーム用のEP_map
は、stream_PID、PTS_EP_start、および、RSPN_EP_star
tというデータを持つ。stream_PIDは、ビデオストリー
ムを伝送するトランスポートパケットのPIDを示す。PTS
_EP_startは、ビデオストリームのシーケンスヘッダか
ら始まるアクセスユニットのPTSを示す。RSPN_EP_start
は、AVストリームの中でPTS_EP_startにより参照される
アクセスユニットの第1バイト目を含むソースパケット
のアドレスを示す。
About EP_map for Video Stream FIG. 6
This will be described with reference to FIG. EP_map for video stream
Is stream_PID, PTS_EP_start, and RSPN_EP_star
It has data called t. stream_PID indicates a PID of a transport packet transmitting a video stream. PTS
_EP_start indicates the PTS of the access unit starting from the sequence header of the video stream. RSPN_EP_start
Indicates the address of the source packet including the first byte of the access unit referenced by PTS_EP_start in the AV stream.

【0235】EP_map_for_one_stream_PID()と呼ばれる
サブテーブルは、同じPIDを持つトランスポートパケッ
トによって伝送されるビデオストリーム毎に作られる。
Clipの中に複数のビデオストリームが存在する場合、EP
_mapは複数のEP_map_for_one_stream_PID()を含んでも
良い。
[0235] A sub-table called EP_map_for_one_stream_PID () is created for each video stream transmitted by transport packets having the same PID.
If there are multiple video streams in the Clip, EP
_map may include a plurality of EP_map_for_one_stream_PID ().

【0236】オーディオストリーム用のEP_mapは、stre
am_PID、PTS_EP_start、およびRSPN_EP_startというデ
ータを持つ。stream_PIDは、オーディオストリームを伝
送するトランスポートパケットのPIDを示す。PTS_EP_st
artは、オーディオストリームのアクセスユニットのPTS
を示す。RSPN_EP_startは、AVストリームの中でPTS_EP_
startで参照されるアクセスユニットの第1バイト目を
含むソースパケットのアドレスを示す。
The EP_map for the audio stream is stre
It has data of am_PID, PTS_EP_start, and RSPN_EP_start. stream_PID indicates a PID of a transport packet transmitting an audio stream. PTS_EP_st
art is the PTS of the audio stream access unit
Is shown. RSPN_EP_start is the PTS_EP_
Indicates the address of the source packet including the first byte of the access unit referenced by start.

【0237】EP_map_for_one_stream_PID()と呼ばれる
サブテーブルは、同じPIDを持つトランスポートパケッ
トによって伝送されるオーディオストリーム毎に作られ
る。Clipの中に複数のオーディオストリームが存在する
場合、EP_mapは複数のEP_map_for_one_stream_PID()を
含んでも良い。
[0237] A sub-table called EP_map_for_one_stream_PID () is created for each audio stream transmitted by transport packets having the same PID. When a plurality of audio streams exist in a Clip, the EP_map may include a plurality of EP_map_for_one_stream_PID ().

【0238】EP_mapとSTC_Infoの関係を説明するに、1
つのEP_map_for_one_stream_PID()は、STCの不連続点に
関係なく1つのテーブルに作られる。RSPN_EP_startの
値とSTC_Info()において定義されるRSPN_STC_startの値
を比較する事により、それぞれのSTC_sequenceに属する
EP_mapのデータの境界が分かる(図68を参照)。・EP
_mapは、同じPIDで伝送される連続したストリームの範
囲に対して、1つのEP_map_for_one_stream_PIDを持た
ねばならない。図69に示したような場合、program#1
とprogram#3は、同じビデオPIDを持つが、データ範囲が
連続していないので、それぞれのプログラム毎にEP_map
_for_one_stream_PIDを持たねばならない。
To explain the relationship between EP_map and STC_Info, 1
One EP_map_for_one_stream_PID () is created in one table regardless of STC discontinuities. By comparing the value of RSPN_EP_start with the value of RSPN_STC_start defined in STC_Info (), it belongs to each STC_sequence
The boundaries of the EP_map data are known (see FIG. 68).・ EP
The _map must have one EP_map_for_one_stream_PID for a range of continuous streams transmitted with the same PID. In the case as shown in FIG. 69, program # 1
And program # 3 have the same video PID, but the data range is not continuous.
Must have _for_one_stream_PID.

【0239】図70は、EP_mapのシンタクスを示す図で
ある。図70に示したEP_mapのシンタクスを説明する
に、EP_typeは、4ビットのフィールドであり、図71
に示すように、EP_mapのエントリーポイントタイプを示
す。EP_typeは、このフィールドに続くデータフィール
ドのセマンティクスを示す。Clipが1つ以上のビデオス
トリームを含む場合、EP_typeは0('video')にセットさ
れなければならない。または、Clipがビデオストリーム
を含まず、1つ以上のオーディオストリームを含む場
合、EP_typeは1('audio')にセットされなければならな
い。
[0239] Fig. 70 is a diagram illustrating the syntax of the EP_map. To explain the syntax of the EP_map shown in FIG. 70, EP_type is a 4-bit field.
Indicates the entry point type of EP_map. EP_type indicates the semantics of the data field following this field. If the Clip contains one or more video streams, EP_type must be set to 0 ('video'). Alternatively, if the Clip does not include a video stream but includes one or more audio streams, the EP_type must be set to 1 ('audio').

【0240】number_of_stream_PIDsの16ビットのフ
ィールドは、EP_map()の中のnumber_of_stream_PIDsを
変数にもつfor-loopのループ回数を示す。stream_PID
(k)の16ビットのフィールドは、EP_map_for_one_stre
am_PID(num_EP_entries(k))によって参照されるk番目の
エレメンタリーストリーム(ビデオまたはオーディオス
トリーム)を伝送するトランスポートパケットのPIDを
示す。EP_typeが0 ('video')に等しい場合、そのエレメ
ンタリストリームはビデオストリームでなけれならな
い。また、EP_typeが1('audio')に等しい場合、そのエ
レメンタリストリームはオーディオストリームでなけれ
ばならない。
[0240] The 16-bit field of number_of_stream_PIDs indicates the number of times of a for-loop in which number_of_stream_PIDs in EP_map () is a variable. stream_PID
The 16-bit field of (k) is EP_map_for_one_stre
Indicates the PID of the transport packet transmitting the k-th elementary stream (video or audio stream) referenced by am_PID (num_EP_entries (k)). If EP_type is equal to 0 ('video'), the elementary stream must be a video stream. When EP_type is equal to 1 ('audio'), the elementary stream must be an audio stream.

【0241】num_EP_entries(k)の16ビットのフィー
ルドは、EP_map_for_one_stream_PID(num_EP_entries
(k))によって参照されるnum_EP_entries(k)を示す。EP_
map_for_one_stream_PID_Start_address(k): この32ビ
ットのフィールドは、EP_map()の中でEP_map_for_one_s
tream_PID(num_EP_entries(k))が始まる相対バイト位置
を示す。この値は、EP_map()の第1バイト目からの大き
さで示される。
The 16-bit field of num_EP_entries (k) is EP_map_for_one_stream_PID (num_EP_entries
(k)) indicates num_EP_entries (k). EP_
map_for_one_stream_PID_Start_address (k): This 32-bit field is used for EP_map_for_one_s in EP_map ().
Indicates the relative byte position where tream_PID (num_EP_entries (k)) starts. This value is indicated by the size from the first byte of EP_map ().

【0242】padding_wordは、EP_map()のシンタクスに
したがって挿入されなければならない。XとYは、ゼロま
たは任意の正の整数でなければならない。それぞれのパ
ディングワードは、任意の値を取っても良い。
Padding_word must be inserted according to the syntax of EP_map (). X and Y must be zero or any positive integer. Each padding word may take any value.

【0243】図72は、EP_map_for_one_stream_PIDの
シンタクスを示す図である。図72に示したEP_map_for
_one_stream_PIDのシンタクスを説明するに、PTS_EP_st
artの32ビットのフィールドのセマンティクスは、EP_
map()において定義されるEP_typeにより異なる。EP_typ
eが0 ('video')に等しい場合、このフィールドは、ビデ
オストリームのシーケンスヘッダで始まるアクセスユニ
ットの33ビット精度のPTSの上位32ビットを持つ。E
P_typeが1 ('audio')に等しい場合、このフィールド
は、オーディオストリームのアクセスユニットの33ビ
ット精度のPTSの上位32ビットを持つ。
FIG. 72 is a diagram showing the syntax of EP_map_for_one_stream_PID. EP_map_for shown in FIG. 72
To explain the syntax of _one_stream_PID, use PTS_EP_st
The semantics of the 32-bit field of art is EP_
Depends on EP_type defined in map (). EP_typ
If e is equal to 0 ('video'), this field has the upper 32 bits of the 33-bit precision PTS of the access unit beginning with the video stream sequence header. E
If P_type is equal to 1 ('audio'), this field has the upper 32 bits of the 33-bit PTS of the access unit of the audio stream.

【0244】RSPN_EP_startの32ビットのフィールド
のセマンティクスは、EP_map()において定義されるEP_t
ypeにより異なる。EP_typeが0 ('video')に等しい場
合、このフィールドは、AVストリームの中でPTS_EP_sta
rtにより参照されるアクセスユニットのシーケンスヘッ
ダの第1バイト目を含むソースパケットの相対アドレス
を示す。または、EP_typeが1 ('audio')に等しい場合、
このフィールドは、AVストリームの中でPTS_EP_startに
より参照されるアクセスユニットのオーディオフレーム
の第一バイト目を含むソースパケットの相対アドレスを
示す。
[0244] The semantics of the 32-bit field of RSPN_EP_start are the same as those of EP_t defined in EP_map ().
Depends on ype. If the EP_type is equal to 0 ('video'), this field shall be set to the PTS_EP_sta
Indicates the relative address of the source packet including the first byte of the sequence header of the access unit referenced by rt. Or, if EP_type is equal to 1 ('audio'),
This field indicates the relative address of the source packet including the first byte of the audio frame of the access unit referenced by PTS_EP_start in the AV stream.

【0245】RSPN_EP_startは、ソースパケット番号を
単位とする大きさであり、AVストリームファイルの最初
のソースパケットからClipInfo()において定義されるof
fset_SPNの値を初期値としてカウントされる。そのAVス
トリームファイルの中での絶対アドレスは、 SPN_xxx = RSPN_xxx - offset_SPN により算出される。シンタクスのfor-loopの中でRSPN_E
P_startの値は、昇順に現れなければならない。
[0245] RSPN_EP_start has a size in units of source packet numbers, and is defined in ClipInfo () from the first source packet of the AV stream file.
Counted using the value of fset_SPN as the initial value. The absolute address in the AV stream file is calculated by SPN_xxx = RSPN_xxx-offset_SPN. RSPN_E in syntax for-loop
The values of P_start must appear in ascending order.

【0246】次に、TU_mapについて、図73を参照して
説明する。TU_mapは、ソースパケットのアライバルタイ
ムクロック(到着時刻ベースの時計)に基づいて、1つ
の時間軸を作る。その時間軸は、TU_map_time_axisと呼
ばれる。TU_map_time_axisの原点は、TU_map()の中のof
fset_timeによって示される。TU_map_time_axisは、off
set_timeから一定の単位に分割される。その単位を、ti
me_unitと称する。
Next, the TU_map will be described with reference to FIG. TU_map creates one time axis based on the arrival time clock (arrival time based clock) of the source packet. The time axis is called TU_map_time_axis. The origin of TU_map_time_axis is of TU_map ()
Indicated by fset_time. TU_map_time_axis is off
It is divided into certain units from set_time. The unit is ti
Called me_unit.

【0247】AVストリームの中の各々のtime_unitの中
で、最初の完全な形のソースパケットのAVストリームフ
ァイル上のアドレスが、TU_mapにストアされる。これら
のアドレスを、RSPN_time_unit_startと称する。TU_map
_time_axis上において、k (k>=0)番目のtime_unitが始
まる時刻は、TU_start_time(k)と呼ばれる。この値は次
式に基づいて算出される。 TU_start_time(k) = offset_time + k*time_unit_size TU_start_time(k)は、45kHzの精度を持つ。
In each time_unit in the AV stream, the address of the first complete source packet on the AV stream file is stored in TU_map. These addresses are called RSPN_time_unit_start. TU_map
On the _time_axis, the time when the k-th (k> = 0) time_unit starts is called TU_start_time (k). This value is calculated based on the following equation. TU_start_time (k) = offset_time + k * time_unit_size TU_start_time (k) has an accuracy of 45 kHz.

【0248】図74は、TU_mapのシンタクスを示す図で
ある。図74に示したTU_mapのシンタクスを説明する
に、offset_timeの32bit長のフィールドは、TU_map_t
ime_axisに対するオフセットタイムを与える。この値
は、Clipの中の最初のtime_unitに対するオフセット時
刻を示す。offset_timeは、27MHz精度のアライバルタ
イムクロックから導き出される45kHzクロックを単位
とする大きさである。AVストリームが新しいClipとして
記録される場合、offset_timeはゼロにセットされなけ
ればならない。
FIG. 74 is a diagram showing the syntax of TU_map. To explain the syntax of TU_map shown in FIG. 74, the 32-bit field of offset_time is TU_map_t
Gives the offset time for ime_axis. This value indicates the offset time for the first time_unit in the Clip. The offset_time is a size in units of a 45 kHz clock derived from an arrival time clock with a precision of 27 MHz. If the AV stream is recorded as a new Clip, offset_time must be set to zero.

【0249】time_unit_sizeの32ビットフィールド
は、time_unitの大きさを与えるものであり、それは2
7MHz精度のアライバルタイムクロックから導き出され
る45kHzクロックを単位とする大きさである。time_unit
_sizeは、1秒以下(time_unit_size<=45000)にするこ
とが良い。number_of_time_unit_entriesの32ビット
フィールドは、TU_map()の中にストアされているtime_u
nitのエントリー数を示す。
[0249] The 32-bit field of time_unit_size gives the size of time_unit.
The size is in units of a 45 kHz clock derived from an arrival time clock with 7 MHz accuracy. time_unit
_size is preferably 1 second or less (time_unit_size <= 45000). The 32-bit field of number_of_time_unit_entries is the time_u stored in TU_map ().
Shows the number of nit entries.

【0250】RSPN_time_unit_startの32ビットフィー
ルドは、AVストリームの中でそれぞれのtime_unitが開
始する場所の相対アドレスを示す。RSPN_time_unit_sta
rtは、ソースパケット番号を単位とする大きさであり、
AV streamファイルの最初のソースパケットからClipInf
o()において定義されるoffset_SPNの値を初期値として
カウントされる。そのAV streamファイルの中での絶対
アドレスは、 SPN_xxx = RSPN_xxx - offset_SPN により算出される。シンタクスのfor-loopの中でRSPN_t
ime_unit_startの値は、昇順に現れなければならない。
(k+1)番目のtime_unitの中にソースパケットが何もない
場合、(k+1)番目のRSPN_time_unit_startは、k番目のRS
PN_time_unit_startと等しくなければならない。
[0250] The 32-bit field of RSPN_time_unit_start indicates the relative address of the place where each time_unit starts in the AV stream. RSPN_time_unit_sta
rt is a size in units of a source packet number,
ClipInf from the first source packet of the AV stream file
The value of offset_SPN defined in o () is counted as an initial value. The absolute address in the AV stream file is calculated by SPN_xxx = RSPN_xxx-offset_SPN. RSPN_t in the syntax for-loop
The values of ime_unit_start must appear in ascending order.
If there are no source packets in the (k + 1) th time_unit, the (k + 1) th RSPN_time_unit_start is the kth RS_time_unit_start.
Must be equal to PN_time_unit_start.

【0251】図45に示したzzzzz.clipのシンタクス内
のClipMarkについて説明する。ClipMarkは、クリップに
ついてのマーク情報であり、ClipMarkの中にストアされ
る。このマークは、記録器(記録再生装置1)によって
セットされるものであり、ユーザによってセットされる
ものではない。
[0251] The ClipMark in the syntax of zzzzz.clip shown in Fig. 45 will be described. ClipMark is mark information about a clip, and is stored in ClipMark. This mark is set by the recorder (recording / reproducing apparatus 1), and is not set by the user.

【0252】図75は、ClipMarkのシンタクスを示す図
である。図75に示したClipMarkのシンタクスを説明す
るに、version_numberは、このClipMark()のバージョン
ナンバーを示す4個のキャラクター文字である。versio
n_numberは、ISO 646に従って、"0045"と符号化されな
ければならない。
FIG. 75 is a diagram showing the syntax of ClipMark. To explain the syntax of the ClipMark shown in FIG. 75, version_number is four character characters indicating the version number of this ClipMark (). versio
n_number must be encoded as "0045" according to ISO 646.

【0253】lengthは、このlengthフィールドの直後か
らClipMark()の最後までのClipMark()のバイト数を示す
32ビットの符号なし整数である。number_of_Clip_mar
ksは、 ClipMarkの中にストアされているマークの個数
を示す16ビットの符号なし整数。number_of_Clip_mar
ks は、0であってもよい。mark_typeは、マークのタイ
プを示す8ビットのフィールドであり、図76に示すテ
ーブルに従って符号化される。
[0253] length is a 32-bit unsigned integer indicating the number of bytes of ClipMark () from immediately after this length field to the end of ClipMark (). number_of_Clip_mar
ks is a 16-bit unsigned integer indicating the number of marks stored in ClipMark. number_of_Clip_mar
ks may be 0. mark_type is an 8-bit field indicating the type of mark, and is encoded according to the table shown in FIG.

【0254】mark_time_stampは、32ビットフィール
ドであり、マークが指定されたポイントを示すタイムス
タンプをストアする。mark_time_stampのセマンティク
スは、図77に示すように、PlayList()の中のCPI_type
により異なる。
[0254] mark_time_stamp is a 32-bit field and stores a time stamp indicating the point at which the mark is specified. The semantics of mark_time_stamp is, as shown in FIG. 77, CPI_type in PlayList ().
Depends on

【0255】STC_sequence_idは、CPI()の中のCPI_type
がEP_map typeを示す場合、この8ビットのフィールド
は、mark_time_stampが置かれているところのSTC連続区
間のSTC_sequence_idを示す。CPI()の中のCPI_typeがTU
_map typeを示す場合、この8ビットのフィールドは何
も意味を持たず、ゼロにセットされる。character_set
の8ビットのフィールドは、mark_nameフィールドに符
号化されているキャラクター文字の符号化方法を示す。
その符号化方法は、図19に示される値に対応する。
STC_sequence_id is CPI_type in CPI ()
Indicates the EP_map type, this 8-bit field indicates the STC_sequence_id of the STC continuous section where the mark_time_stamp is located. CPI_type in CPI () is TU
When indicating _map type, this 8-bit field has no meaning and is set to zero. character_set
The 8-bit field indicates the encoding method of the character character encoded in the mark_name field.
The encoding method corresponds to the values shown in FIG.

【0256】name_lengthの8ビットフィールドは、Mar
k_nameフィールドの中に示されるマーク名のバイト長を
示す。mark_nameのフィールドは、マークの名称を示
す。このフィールドの中の左からname_length数のバイ
ト数が、有効なキャラクター文字であり、それはマーク
の名称を示す。mark_nameフィールドの中で、それら有
効なキャラクター文字の後の値は、どんな値が入ってい
ても良い。
An 8-bit field of name_length is Mar
Indicates the byte length of the mark name indicated in the k_name field. The mark_name field indicates the name of the mark. The number of name_length bytes from the left in this field is a valid character character, which indicates the name of the mark. The value after these valid character characters in the mark_name field may contain any value.

【0257】ref_thumbnail_indexのフィールドは、マ
ークに付加されるサムネイル画像の情報を示す。ref_th
umbnail_indexフィールドが、0xFFFFでない値の場合、
そのマークにはサムネイル画像が付加されており、その
サムネイル画像は、mark.thmbファイルの中にストアさ
れている。その画像は、mark.thmbファイルの中でref_t
humbnail_indexの値を用いて参照される。ref_thumbnai
l_indexフィールドが、0xFFFF である場合、そのマーク
にはサムネイル画像が付加されていない。
[0257] The field of ref_thumbnail_index indicates the information of the thumbnail image added to the mark. ref_th
If the umbnail_index field is not 0xFFFF,
A thumbnail image is added to the mark, and the thumbnail image is stored in a mark.thmb file. The image is ref_t in the mark.thmb file
It is referenced using the value of humbnail_index. ref_thumbnai
If the l_index field is 0xFFFF, no thumbnail image is added to the mark.

【0258】図78は、図75に代わるClipMarkの他の
シンタクスを示す図であり、図79は、その場合におけ
る、図76に代わるmark_typeのテーブルの例を示す。r
eserved_for_maker_IDは、mark_typeが、0xC0から0xFF
の値を示す時に、その mark_typeを定義しているメーカ
ーのメーカーIDを示す16ビットのフィールドである。
メーカーIDは、DVRフォーマットライセンサーが指
定する。mark_entry()は、マーク点に指定されたポイン
トを示す情報であり、そのシンタクスの詳細は後述す
る。representative_picture_entry()は、mark_entry()
によって示されるマークを代表する画像のポイントを示
す情報であり、そのシンタクスの詳細は後述する。
FIG. 78 is a diagram showing another syntax of ClipMark instead of FIG. 75, and FIG. 79 shows an example of a mark_type table instead of FIG. 76 in that case. r
eserved_for_maker_ID is mark_type from 0xC0 to 0xFF
Is a 16-bit field indicating the manufacturer ID of the manufacturer defining the mark_type.
The manufacturer ID is specified by the DVR format licensor. mark_entry () is information indicating a point designated as a mark point, and details of its syntax will be described later. representative_picture_entry () is mark_entry ()
Is information indicating a point of an image representing the mark indicated by the mark, and details of the syntax will be described later.

【0259】ClipMarkは、ユーザがAVストリームを再生
するときに、その内容を視覚的に検索できるようにする
ために用いられる。DVRプレーヤは、GUI(グラフィカル
ユーザインターフェース)を使用して、ClipMarkの情報
をユーザに提示する。ClipMarkの情報を視覚的に表示す
るためには、mark_entry()が示すピクチャよりもむしろ
representative_picture_entry()が示すピクチャを示し
たほうが良い。
[0259] ClipMark is used to enable the user to visually search the contents of an AV stream when reproducing the AV stream. The DVR player presents ClipMark information to the user using a GUI (graphical user interface). In order to visually display ClipMark information, rather than the picture indicated by mark_entry (),
It is better to show the picture indicated by representative_picture_entry ().

【0260】図80に、mark_entry()とrepresentative
_picture_entry()の例を示す。例えば、あるプログラム
が開始してから、しばらくした後(数秒後)、そのプロ
グラムの番組名(タイトル)が表示されるとする。Clip
Markを作るときは、mark_entry()は、そのプログラムの
開始ポイントに置き、representative_picture_entry()
は、そのプログラムの番組名(タイトル)が表示される
ポイントに置くようにしても良い。
In FIG. 80, mark_entry () and representative
Here is an example of _picture_entry (). For example, it is assumed that a program name (title) of a program is displayed a while (several seconds later) after a program starts. Clip
When creating a Mark, mark_entry () should be placed at the start of the program, and representative_picture_entry ()
May be placed at the point where the program name (title) of the program is displayed.

【0261】DVRプレーヤは、representative_picture_
entryの画像をGUIに表示し、ユーザがその画像を指定す
ると、DVRプレーヤは、mark_entryの置かれたポイント
から再生を開始する。
[0261] The DVR player uses the representative_picture_
When the image of the entry is displayed on the GUI and the user specifies the image, the DVR player starts reproduction from the point where the mark_entry is placed.

【0262】mark_entry() および representative_pic
ture_entry()のシンタクスを、図81に示す。
Mark_entry () and representative_pic
The syntax of ture_entry () is shown in FIG.

【0263】mark_time_stampは、32ビットフィール
ドであり、mark_entry()の場合はマークが指定されたポ
イントを示すタイムスタンプをストアし、またrepresen
tative_picture_entry()の場合、mark_entry()によって
示されるマークを代表する画像のポイントを示すタイム
スタンプをストアする。
[0263] mark_time_stamp is a 32-bit field. In the case of mark_entry (), a time stamp indicating the point at which the mark is specified is stored.
In the case of tative_picture_entry (), a time stamp indicating a point of an image representing a mark indicated by mark_entry () is stored.

【0264】次に、ClipMarkを指定するために、PTSに
よるタイムスタンプベースの情報を使用するのではな
く、アドレスベースの情報を使用する場合のmark_entry
() とrepresentative_picture_entry()のシンタクスの
例を図82に示す。
Next, in order to specify a ClipMark, instead of using time stamp-based information by PTS, mark_entry when address-based information is used.
FIG. 82 shows an example of syntax of () and representative_picture_entry ().

【0265】RSPN_ref_EP_startは、 mark_entry()の場
合、AVストリームの中でマーク点のピクチャをデコード
するためのストリームのエントリーポイントを示すソー
スパケットの相対アドレスを示す。また、representati
ve_picture_entry()の場合、mark_entry()によって示さ
れるマークを代表するピクチャをデコードするためのス
トリームのエントリーポイントを示すソースパケットの
相対アドレスを示す。RSPN_ref_EP_startの値は、EP_ma
pの中にRSPN_EP_startとしてストアされていなければな
らず、かつ、そのRSPN_EP_startに対応するPTS_EP_star
tの値は、EP_mapの中で、マーク点のピクチャのPTSより
過去で最も近い値でなければならない。
[0265] In the case of mark_entry (), RSPN_ref_EP_start indicates the relative address of the source packet indicating the entry point of the stream for decoding the picture at the mark point in the AV stream. Also, representati
In the case of ve_picture_entry (), it indicates the relative address of the source packet indicating the entry point of the stream for decoding the picture representing the mark indicated by mark_entry (). The value of RSPN_ref_EP_start is EP_ma
must be stored as RSPN_EP_start in p and the PTS_EP_star corresponding to that RSPN_EP_start
The value of t must be the closest past value in the EP_map to the PTS of the picture at the mark point.

【0266】offset_num_picturesは、32ビットのフィ
ールドであり、RSPN_ref_EP_startにより参照されるピ
クチャから表示順序でマーク点で示されるピクチャまで
のオフセットのピクチャ数を示す。この数は、ゼロから
カウントされる。図83の例の場合、offset_num_pictu
resは6となる。
[0266] offset_num_pictures is a 32-bit field and indicates the number of offset pictures from the picture referenced by RSPN_ref_EP_start to the picture indicated by the mark point in display order. This number is counted from zero. In the case of the example of FIG. 83, offset_num_pictu
res is 6.

【0267】次に、ClipMarkを指定するために、アドレ
スベースの情報を使用する場合のmark_entry() と repr
esentative_picture_entry()のシンタクスの別の例を図
84に示す。
Next, mark_entry () and repr when address-based information is used to specify a ClipMark
Another example of the syntax of esentative_picture_entry () is shown in FIG.

【0268】RSPN_mark_pointは、mark_entry()の場
合、AVストリームの中で、そのマークが参照するアクセ
スユニットの第1バイト目を含むソースパケットの相対
アドレスを示す。また、representative_picture_entry
()の場合、mark_entry()によって示されるマークを代表
する符号化ピクチャの第1バイト目を含むソースパケッ
トの相対アドレスを示す。
[0268] In the case of mark_entry (), RSPN_mark_point indicates the relative address of the source packet including the first byte of the access unit referenced by the mark in the AV stream. Also, representative_picture_entry
In the case of (), it indicates the relative address of the source packet including the first byte of the encoded picture representing the mark indicated by mark_entry ().

【0269】RSPN_mark_pointは、ソースパケット番号
を単位とする大きさであり、AVストリームファイルの最
初のソースパケットからClip Information fileにおい
て定義されるoffset_SPNの値を初期値としてカウントさ
れる。
[0269] RSPN_mark_point has a size in units of source packet numbers, and is counted from the first source packet of the AV stream file using the value of offset_SPN defined in the Clip Information file as an initial value.

【0270】図85を用いて、ClipMarkとEP_mapの関係
を説明する。この例の場合、EP_mapが、エントリーポイ
ントのアドレスとしてI0, I1, Inを指定しており、これ
らのアドレスからシーケンスヘッダに続くIピクチャが
開始しているとする。ClipMarkが、あるマークのアドレ
スとして、M1を指定している時、そのソースパケットか
ら開始しているピクチャをデコードできるためには、M1
のアドレスより前で最も近いエントリーポイントである
I1からデータを読み出し開始すれば良い。
The relationship between ClipMark and EP_map will be described with reference to FIG. In the case of this example, it is assumed that the EP_map specifies I0, I1, and In as the addresses of the entry points, and the I picture following the sequence header starts from these addresses. When ClipMark specifies M1 as the address of a certain mark, in order to be able to decode the picture starting from the source packet, M1
Is the closest entry point before the address
What is necessary is just to start reading data from I1.

【0271】MakersPrivateDataについては、図22を
参照して既に説明したので、その説明は省略する。
Since MakersPrivateData has already been described with reference to FIG. 22, its description will be omitted.

【0272】次に、サムネイルインフォメーション(Th
umbnail Information)について説明する。サムネイル
画像は、menu.thmbファイルまたはmark.thmbファイルに
ストアされる。これらのファイルは同じシンタクス構造
であり、ただ1つのThumbnail()を持つ。menu.thmbファ
イルは、メニューサムネイル画像,すなわちVolumeを代
表する画像、および、それぞれのPlayListを代表する画
像をストアする。すべてのメニューサムネイルは、ただ
1つのmenu.thmbファイルにストアされる。
Next, thumbnail information (Th
(umbnail Information) will be described. Thumbnail images are stored in menu.thmb or mark.thmb files. These files have the same syntax structure and have only one Thumbnail (). The menu.thmb file stores menu thumbnail images, that is, images representing Volume and images representing respective PlayLists. All menu thumbnails are stored in a single menu.thmb file.

【0273】mark.thmbファイルは、マークサムネイル
画像,すなわちマーク点を表すピクチャをストアする。
すべてのPlayListおよびClipに対するすべてのマークサ
ムネイルは、ただ1つのmark.thmbファイルにストアさ
れる。サムネイルは頻繁に追加、削除されるので、追加
操作と部分削除の操作は容易に高速に実行できなければ
ならない。この理由のため、Thumbnail()はブロック構
造を有する。画像のデータはいくつかの部分に分割さ
れ、各部分は一つのtn_blockに格納される。1つの画像
データはは連続したtn_blockに格納される。tn_blockの
列には、使用されていないtn_blockが存在してもよい。
1つのサムネイル画像のバイト長は可変である。
The mark.thmb file stores a mark thumbnail image, that is, a picture representing a mark point.
All mark thumbnails for all PlayLists and Clips are stored in only one mark.thmb file. Since thumbnails are frequently added and deleted, it is necessary to easily and quickly perform addition and partial deletion operations. For this reason, Thumbnail () has a block structure. The image data is divided into several parts, and each part is stored in one tn_block. One image data is stored in a continuous tn_block. An unused tn_block may exist in the column of tn_block.
The byte length of one thumbnail image is variable.

【0274】図86は、menu.thmbとmark.thmbのシンタ
クスを示す図であり、図87は、図86に示したmenu.t
hmbとmark.thmbのシンタクス内のThumbnailのシンタク
スを示す図である。図87に示したThumbnailのシンタ
クスについて説明するに、version_numberは、このThum
bnail()のバージョンナンバーを示す4個のキャラクタ
ー文字である。version_numberは、ISO 646に従って、"
0045"と符号化されなければならない。
FIG. 86 shows the syntax of menu.thmb and mark.thmb. FIG. 87 shows the syntax of menu.tmb shown in FIG.
It is a figure which shows the syntax of Thumbnail in the syntax of hmb and mark.thmb. To describe the syntax of Thumbnail shown in FIG. 87, version_number
Four character characters indicating the version number of bnail (). version_number is, according to ISO 646, "
0045 ".

【0275】lengthは、このlengthフィールドの直後か
らThumbnail()の最後までのMakersPrivateData()のバイ
ト数を示す32ビットの符号なし整数である。tn_block
s_start_addressは、Thumbnail()の先頭のバイトからの
相対バイト数を単位として、最初のtn_blockの先頭バイ
トアドレスを示す32ビットの符号なし整数である。相
対バイト数はゼロからカウントされる。number_of_thum
bnailsは、Thumbnail()の中に含まれているサムネイル
画像のエントリー数を与える16ビットの符号なし整数
である。
[0275] length is a 32-bit unsigned integer indicating the number of bytes of MakersPrivateData () from immediately after this length field to the end of Thumbnail (). tn_block
s_start_address is a 32-bit unsigned integer indicating the first byte address of the first tn_block in units of the relative number of bytes from the first byte of Thumbnail (). Relative bytes are counted from zero. number_of_thum
bnails is a 16-bit unsigned integer giving the number of entries of thumbnail images included in Thumbnail ().

【0276】tn_block_sizeは、1024バイトを単位とし
て、1つのtn_blockの大きさを与える16ビットの符号な
し整数である。例えば、tn_block_size=1ならば、そ
れは1つのtn_blockの大きさが1024バイトであることを
示す。number_of_tn_blocksは、このThumbnail()中のtn
_blockのエントリ数を表す116ビットの符号なし整数
である。thumbnail_indexは、このthumbnail_indexフィ
ールドから始まるforループ一回分のサムネイル情報で
表されるサムネイル画像のインデクス番号を表す16ビ
ットの符号なし整数である。thumbnail_index として、
0xFFFFという値を使用してはならない。thumbnail_inde
x はUIAppInfoVolume()、UIAppInfoPlayList()、 PlayL
istMark()、およびClipMark()の中のref_thumbnail_ind
exによって参照される。
[0276] tn_block_size is a 16-bit unsigned integer giving the size of one tn_block in units of 1024 bytes. For example, if tn_block_size = 1, it indicates that the size of one tn_block is 1024 bytes. number_of_tn_blocks is tn in this Thumbnail ()
This is a 116-bit unsigned integer representing the number of entries of _block. The thumbnail_index is a 16-bit unsigned integer representing the index number of the thumbnail image represented by the thumbnail information for one for loop starting from the thumbnail_index field. As thumbnail_index,
Do not use the value 0xFFFF. thumbnail_inde
x is UIAppInfoVolume (), UIAppInfoPlayList (), PlayL
ref_thumbnail_ind in istMark () and ClipMark ()
referenced by ex.

【0277】thumbnail_picture_formatは、サムネイル
画像のピクチャフォーマットを表す8ビットの符号なし
整数で、図88に示すような値をとる。表中のDCFとPNG
は"menu.thmb"内でのみ許される。マークサムネイル
は、値"0x00" (MPEG-2 Video I-picture)をとらなけれ
ばならない。
The thumbnail_picture_format is an 8-bit unsigned integer representing the picture format of a thumbnail image, and takes a value as shown in FIG. DCF and PNG in the table
Is only allowed in "menu.thmb". The mark thumbnail must take the value "0x00" (MPEG-2 Video I-picture).

【0278】picture_data_sizeは、サムネイル画像の
バイト長をバイト単位で示す32ビットの符号なし整数
である。start_tn_block_numberは、サムネイル画像の
データが始まるtn_blockのtn_block番号を表す16ビッ
トの符号なし整数である。サムネイル画像データの先頭
は、tb_blockの先頭と一致していなければならない。tn
_block番号は、0から始まり、tn_blockのfor-ループ中
の変数kの値に関係する。
[0278] picture_data_size is a 32-bit unsigned integer indicating the byte length of the thumbnail image in byte units. start_tn_block_number is a 16-bit unsigned integer representing the tn_block number of the tn_block at which the thumbnail image data starts. The head of the thumbnail image data must match the head of tb_block. tn
The _block number starts at 0 and relates to the value of the variable k in the for-loop of tn_block.

【0279】x_picture_lengthは、サムネイル画像のフ
レーム画枠の水平方向のピクセル数を表す16ビットの
符号なし整数である。y_picture_lengthは、サムネイル
画像のフレーム画枠の垂直方向のピクセル数を表す16
ビットの符号なし整数である。tn_blockは、 サムネイ
ル画像がストアされる領域である。Thumbnail()の中の
すべてのtn_blockは、同じサイズ(固定長)であり、そ
の大きさはtn_block_sizeによって定義される。
X_picture_length is a 16-bit unsigned integer representing the number of pixels in the horizontal direction of the frame picture frame of the thumbnail image. y_picture_length is 16 representing the number of pixels in the vertical direction of the frame picture frame of the thumbnail image.
An unsigned integer of bits. tn_block is an area where thumbnail images are stored. All tn_blocks in Thumbnail () have the same size (fixed length), and the size is defined by tn_block_size.

【0280】図89は、サムネイル画像データがどのよ
うにtn_blockに格納されるかを模式的に表した図であ
る。図89のように、各サムネイル画像データはtn_blo
ckの先頭から始まり、1 tn_blockを超える大きさの場合
は、連続する次のtn_blockを使用してストアされる。こ
のようにすることにより、可変長であるピクチャデータ
が、固定長のデータとして管理することが可能となり、
削除といった編集に対して簡便な処理により対応する事
ができるようになる。
FIG. 89 is a diagram schematically showing how thumbnail image data is stored in tn_block. As shown in FIG. 89, each thumbnail image data is tn_blo
Starting from the beginning of ck, if the size exceeds 1 tn_block, it is stored using the next successive tn_block. This makes it possible to manage variable-length picture data as fixed-length data,
Editing such as deletion can be handled by simple processing.

【0281】次に、AVストリームファイルについて説明
する。AVストリームファイルは、"M2TS"ディレクトリ
(図14)にストアされる。AVストリームファイルに
は、2つのタイプがあり、それらは、Clip AVストリー
ムとBridge-Clip AVストリームファイルである。両方の
AVストリーム共に、これ以降で定義されるDVR MPEG-2ト
ランスポートストリームファイルの構造でなければなら
ない。
Next, the AV stream file will be described. The AV stream file is stored in the “M2TS” directory (FIG. 14). There are two types of AV stream files, which are a Clip AV stream and a Bridge-Clip AV stream file. Both
Both AV streams must have the structure of a DVR MPEG-2 transport stream file defined hereafter.

【0282】まず、DVR MPEG-2 トランスポートストリ
ームについて説明する。DVR MPEG-2トランスポートスト
リームの構造は、図90に示すようになっている。AVス
トリームファイルは、DVR MPEG2トランスポートストリ
ームの構造を持つ。DVR MPEG2トランスポートストリー
ムは、整数個のAligned unitから構成される。Alignedu
nitの大きさは、6144 バイト (2048*3 バイト)である。
Aligned unitは、ソースパケットの第1バイト目から始
まる。ソースパケットは、192バイト長である。一つの
ソースパケットは、TP_extra_headerとトランスポート
パケットから成る。TP_extra_headerは、4バイト長で
あり、またトランスポートパケットは、188バイト長で
ある。
First, the DVR MPEG-2 transport stream will be described. The structure of the DVR MPEG-2 transport stream is as shown in FIG. An AV stream file has the structure of a DVR MPEG2 transport stream. The DVR MPEG2 transport stream is composed of an integer number of Aligned units. Alignedu
The size of the nit is 6144 bytes (2048 * 3 bytes).
The Aligned unit starts from the first byte of the source packet. The source packet is 192 bytes long. One source packet includes TP_extra_header and a transport packet. TP_extra_header is 4 bytes long, and the transport packet is 188 bytes long.

【0283】1つのAligned unitは、32個のソースパ
ケットから成る。DVR MPEG2トランスポートストリーム
の中の最後のAligned unitも、また32個のソースパケ
ットから成る。よって、DVR MPEG2トランスポートスト
リームは、Aligned unitの境界で終端する。ディスクに
記録される入力トランスポートストリームのトランスポ
ートパケットの数が32の倍数でない時、ヌルパケット
(PID=0x1FFFのトランスポートパケット)を持ったソー
スパケットを最後のAligned unitに使用しなければなら
ない。ファイルシステムは、DVR MPEG2トランスポート
ストリームに余分な情報を付加してはならない。
One Aligned unit consists of 32 source packets. The last Aligned unit in the DVR MPEG2 transport stream also consists of 32 source packets. Therefore, the DVR MPEG2 transport stream ends at the boundary of the Aligned unit. When the number of transport packets of the input transport stream recorded on the disc is not a multiple of 32, a source packet having a null packet (transport packet of PID = 0x1FFF) must be used for the last Aligned unit. The file system must not add extra information to the DVR MPEG2 transport stream.

【0284】図91に、DVR MPEG-2トランスポートスト
リームのレコーダモデルを示す。図91に示したレコー
ダは、レコーディングプロセスを規定するための概念上
のモデルである。DVR MPEG-2トランスポートストリーム
は、このモデルに従う。
FIG. 91 shows a recorder model of the DVR MPEG-2 transport stream. The recorder shown in FIG. 91 is a conceptual model for defining a recording process. The DVR MPEG-2 transport stream follows this model.

【0285】MPEG-2トランスポートストリームの入力タ
イミングについて説明する。入力MPEG2トランスポート
ストリームは、フルトランスポートストリームまたはパ
ーシャルトランスポートストリームである。入力される
MPEG2トランスポートストリームは、ISO/IEC13818-1ま
たはISO/IEC13818-9に従っていなければならない。MPEG
2トランスポートストリームのi番目のバイトは、T-STD
(ISO/IEC 13818-1で規定されるTransport stream syste
m target decoder)51とソースパケッタイザー(sourse
packetizer)54へ、時刻t(i)に同時に入力される。Rp
kは、トランスポートパケットの入力レートの瞬時的な
最大値である。
[0285] The input timing of the MPEG-2 transport stream will be described. The input MPEG2 transport stream is a full transport stream or a partial transport stream. Input
The MPEG2 transport stream must conform to ISO / IEC13818-1 or ISO / IEC13818-9. MPEG
2 The i-th byte of the transport stream is T-STD
(Transport stream system specified in ISO / IEC 13818-1
m target decoder) 51 and source packetizer (sourse
packetizer) 54 at the same time at time t (i). Rp
k is the instantaneous maximum value of the input rate of the transport packets.

【0286】27MHz PLL52は、27MHzクロックの周
波数を発生する。27MHzクロックの周波数は、MPEG-2
トランスポートストリームのPCR (Program Clock Refer
ence)の値にロックされる。アライバルタイムクロック
カウンタ(arrival time clock counter)53は、27
MHzの周波数のパルスをカウントするバイナリーカウン
ターである。Arrival_time_clock(i)は、時刻t(i)にお
けるarrival time clockcounter53のカウント値であ
る。
The 27 MHz PLL 52 generates a 27 MHz clock frequency. 27MHz clock frequency is MPEG-2
Transport Stream PCR (Program Clock Refer
ence). Arrival time clock counter 53 is 27
It is a binary counter that counts pulses with a frequency of MHz. Arrival_time_clock (i) is the count value of arrival time clock counter 53 at time t (i).

【0287】source packetizer54は、すべてのトラ
ンスポートパケットにTP_extra_headerを付加し、ソー
スパケットを作る。Arrival_time_stampは、トランスポ
ートパケットの第1バイト目がT-STD51とソースパケ
ッタイザー54の両方へ到着する時刻を表す。Arrival_
time_stamp(k)は、次式で示されるようにArrival_time_
clock(k)のサンプル値であり、ここで、kはトランスポ
ートパケットの第1バイト目を示す。 arrival_time_stamp(k) = arrival_time_clock(k)% 230
[0287] The source packetizer 54 adds TP_extra_header to all transport packets to create a source packet. Arrival_time_stamp represents the time when the first byte of the transport packet arrives at both the T-STD 51 and the source packetizer 54. Arrival_
time_stamp (k) is given by Arrival_time_
This is a sample value of clock (k), where k indicates the first byte of the transport packet. arrival_time_stamp (k) = arrival_time_clock (k)% 2 30

【0288】2つの連続して入力されるトランスポート
パケットの時間間隔が、230/27000000秒(約40秒)以上
になる場合、その2つのトランスポートパケットのarri
val_time_stampの差分は、230/27000000秒になるように
セットされるべきである。レコーダは、そのようになる
場合に備えてある。
[0288] two time intervals of the transport packet is successively inputted, 2 30/27000000 seconds may become (about 40 seconds) or more, Arri of the two transport packets
difference val_time_stamp should be set to be 2 30/27000000 seconds. The recorder is prepared for such a case.

【0289】スムージングバッファ(smoothing buffe
r)55は、入力トランスポートストリームのビットレ
ートをスムージングする。スムージングバッファ55
は、オーバーフローしてはならない。Rmaxは、スムージ
ングバッファ55が空でない時のスムージングバッファ
55からのソースパケットの出力ビットレートである。
スムージングバッファ55が空である時、スムージング
バッファ55からの出力ビットレートはゼロである。
[0289] Smoothing buffer
r) 55 smoothes the bit rate of the input transport stream. Smoothing buffer 55
Must not overflow. Rmax is an output bit rate of a source packet from the smoothing buffer 55 when the smoothing buffer 55 is not empty.
When the smoothing buffer 55 is empty, the output bit rate from the smoothing buffer 55 is zero.

【0290】次に、DVR MPEG-2トランスポートストリー
ムのレコーダモデルのパラメータについて説明する。Rm
axという値は、AVストリームファイルに対応するClipIn
fo()において定義されるTS_recording_rateによって与
えられる。この値は、次式により算出される。 Rmax = TS_recording_rate * 192/188 TS_recording_rateの値は、bytes/secondを単位とする
大きさである。
Next, the parameters of the recorder model of the DVR MPEG-2 transport stream will be described. Rm
The value of ax is the ClipIn corresponding to the AV stream file.
Given by TS_recording_rate defined in fo (). This value is calculated by the following equation. Rmax = TS_recording_rate * 192/188 The value of TS_recording_rate is a size in units of bytes / second.

【0291】入力トランスポートストリームがSESFトラ
ンスポートストリームの場合、Rpkは、AVストリームフ
ァイルに対応するClipInfo()において定義されるTS_rec
ording_rateに等しくなければならない。入力トランス
ポートストリームがSESFトランスポートストリームでな
い場合、この値はMPEG-2 transport streamのデスクリ
プター,例えばmaximum_bitrate_descriptorやpartial_
transport_stream_descriptorなど、において定義され
る値を参照しても良い。
When the input transport stream is a SESF transport stream, Rpk is TS_rec defined in ClipInfo () corresponding to the AV stream file.
Must be equal to ording_rate. If the input transport stream is not a SESF transport stream, this value is the descriptor of the MPEG-2 transport stream, such as maximum_bitrate_descriptor or partial_
A value defined in transport_stream_descriptor or the like may be referred to.

【0292】入力トランスポートストリームがSESFトラ
ンスポートストリームの場合、スムージングバッファ5
5の大きさ(smoothing buffer size)はゼロである。
入力トランスポートストリームがSESFトランスポートス
トリームでない場合、スムージングバッファ55の大き
さはMPEG-2 transport streamのデスクリプター、例え
ばsmoothing_buffer_descriptor、short_smoothing_buf
fer_descriptor、partial_transport_stream_descripto
rなどにおいて定義される値を参照しても良い。
If the input transport stream is a SESF transport stream, the smoothing buffer 5
The size (smoothing buffer size) of 5 is zero.
When the input transport stream is not the SESF transport stream, the size of the smoothing buffer 55 is a descriptor of the MPEG-2 transport stream, for example, smoothing_buffer_descriptor, short_smoothing_buf
fer_descriptor, partial_transport_stream_descripto
You may refer to the value defined in r or the like.

【0293】記録機(レコーダ)および再生機(プレー
ヤ)は、十分なサイズのバッファを用意しなければなら
ない。デフォールトのバッファサイズは、1536 bytes
である。
A recording apparatus (recorder) and a reproducing apparatus (player) must provide a buffer having a sufficient size. Default buffer size is 1536 bytes
It is.

【0294】次に、DVR MPEG-2トランスポートストリー
ムのプレーヤモデルについて説明する。図92は、DVR
MPEG-2トランスポートストリームのプレーヤモデルを示
す図である。これは、再生プロセスを規定するための概
念上のモデルである。DVR MPEG-2トランスポートストリ
ームは、このモデルに従う。
Next, a player model of the DVR MPEG-2 transport stream will be described. FIG. 92 shows a DVR
FIG. 3 is a diagram illustrating a player model of an MPEG-2 transport stream. This is a conceptual model for defining the regeneration process. The DVR MPEG-2 transport stream follows this model.

【0295】27MHz X-tal(クリスタル発振器)61
は、27MHzの周波数を発生する。27MHz周波数の誤差
範囲は、+/-30 ppm (27000000 +/- 810 Hz)でなければ
ならない。arrival time clock counter62は、27MH
zの周波数のパルスをカウントするバイナリーカウンタ
ーである。arrival_time_clock(i)は、時刻t(i)におけ
るarrival time clock counter62のカウント値であ
る。
27 MHz X-tal (crystal oscillator) 61
Generates a frequency of 27 MHz. The error range for the 27 MHz frequency must be +/- 30 ppm (27000000 +/- 810 Hz). arrival time clock counter 62 is 27MH
It is a binary counter that counts pulses of frequency z. arrival_time_clock (i) is the count value of the arrival time clock counter 62 at time t (i).

【0296】smoothing buffer64において、Rmaxは、
スムージングバッファ64がフルでない時のスムージン
グバッファ64へのソースパケットの入力ビットレート
である。スムージングバッファ64がフルである時、ス
ムージングバッファ64への入力ビットレートはゼロで
ある。
In the smoothing buffer 64, Rmax is
This is the input bit rate of the source packets to the smoothing buffer 64 when the smoothing buffer 64 is not full. When the smoothing buffer 64 is full, the input bit rate to the smoothing buffer 64 is zero.

【0297】MPEG-2トランスポートストリームの出力タ
イミングを説明するに、現在のソースパケットのarriva
l_time_stampがarrival_time_clock(i)のLSB 30ビッ
トの値と等しい時、そのソースパケットのトランスポー
トパケットは、スムージングバッファ64から引き抜か
れる。Rpkは、トランスポートパケットレートの瞬時的
な最大値である。スムージングバッファ64は、アンダ
ーフローしてはならない。
[0297] To explain the output timing of the MPEG-2 transport stream, the arriva of the current source packet will be described.
When l_time_stamp is equal to the LSB 30-bit value of arrival_time_clock (i), the transport packet of the source packet is extracted from the smoothing buffer 64. Rpk is the instantaneous maximum value of the transport packet rate. The smoothing buffer 64 must not underflow.

【0298】DVR MPEG-2トランスポートストリームのプ
レーヤモデルのパラメータについては、上述したDVR MP
EG-2トランスポートストリームのレコーダモデルのパラ
メータと同一である。
For the parameters of the player model of the DVR MPEG-2 transport stream,
It is the same as the parameter of the recorder model of the EG-2 transport stream.

【0299】図93は、Source packetのシンタクスを
示す図である。transport_packet()は、ISO/IEC 13818-
1で規定されるMPEG-2トランスポートパケットである。
図93に示したSource packetのシンタクス内のTP_Extr
a_headerのシンタクスを図94に示す。図94に示した
TP_Extra_headerのシンタクスについて説明するに、cop
y_permission_indicatorは、トランスポートパケットの
ペイロードのコピー制限を表す整数である。コピー制限
は、copy free、no more copy、copy once、またはcopy
prohibitedとすることができる。図95は、copy_perm
ission_indicatorの値と、それらによって指定されるモ
ードの関係を示す。
[0299] Fig. 93 is a diagram illustrating the syntax of the Source packet. transport_packet () supports ISO / IEC 13818-
This is an MPEG-2 transport packet specified by 1.
TP_Extr in the syntax of the source packet shown in FIG. 93
FIG. 94 shows the syntax of a_header. As shown in FIG.
To explain the syntax of TP_Extra_header, use cop
y_permission_indicator is an integer representing the copy restriction of the payload of the transport packet. Copy restrictions can be copy free, no more copy, copy once, or copy
can be prohibited. FIG. 95 shows copy_perm
Indicates the relationship between the value of ission_indicator and the mode specified by them.

【0300】copy_permission_indicatorは、すべての
トランスポートパケットに付加される。IEEE1394デジタ
ルインターフェースを使用して入力トランスポートスト
リームを記録する場合、copy_permission_indicatorの
値は、IEEE1394 isochronouspacket headerの中のEMI
(Encryption Mode Indicator)の値に関連付けても良
い。IEEE1394デジタルインターフェースを使用しないで
入力トランスポートストリームを記録する場合、copy_p
ermission_indicatorの値は、トランスポートパケット
の中に埋め込まれたCCIの値に関連付けても良い。アナ
ログ信号入力をセルフエンコードする場合、copy_permi
ssion_indicatorの値は、アナログ信号のCGMS-Aの値に
関連付けても良い。
[0300] copy_permission_indicator is added to all transport packets. When recording the input transport stream using the IEEE1394 digital interface, the value of copy_permission_indicator is set to the value of EMI in the IEEE1394 isochronous packet header.
(Encryption Mode Indicator). When recording the input transport stream without using the IEEE1394 digital interface, copy_p
The value of ermission_indicator may be associated with the value of CCI embedded in the transport packet. Copy_permi when self-encoding analog signal input
The value of ssion_indicator may be associated with the value of CGMS-A of the analog signal.

【0301】arrival_time_stampは、次式 arrival_time_stamp(k) = arrival_time_clock(k)% 230 において、arrival_time_stampによって指定される値を
持つ整数値である。
[0301] arrival_time_stamp, in the formula arrival_time_stamp (k) = arrival_time_clock (k )% 2 30, which is an integer having a value specified by arrival_time_stamp.

【0302】Clip AVストリームの定義をするに、Clip
AVストリームは、上述したような定義がされるDVR MPEG
-2トランスポートストリームの構造を持たねばならな
い。arrival_time_clock(i)は、Clip AVストリームの中
で連続して増加しなければならない。Clip AVストリー
ムの中にシステムタイムベース(STCベース)の不連続
点が存在したとしても、そのClip AVストリームのarriv
al_time_clock(i)は、連続して増加しなければならな
い。
To define a Clip AV stream, a Clip
The AV stream is a DVR MPEG defined as described above.
-2 Must have a transport stream structure. arrival_time_clock (i) must increase continuously in the Clip AV stream. Even if a discontinuity point of the system time base (STC base) exists in the Clip AV stream, the arriv of the Clip AV stream
al_time_clock (i) must increase continuously.

【0303】Clip AVストリームの中の開始と終了の間
のarrival_time_clock(i)の差分の最大値は、26時間
でなければならない。この制限は、MPEG2トランスポー
トストリームの中にシステムタイムベース(STCベー
ス)の不連続点が存在しない場合に、Clip AVストリー
ムの中で同じ値のPTS(Presentation Time Stamp)が決し
て現れないことを保証する。MPEG2システムズ規格は、P
TSのラップアラウンド周期を233/90000秒(約26.5時間).
と規定している。
[0303] The maximum value of the difference of arrival_time_clock (i) between the start and end of the Clip AV stream must be 26 hours. This restriction guarantees that the same PTS (Presentation Time Stamp) will not appear in the Clip AV stream if there is no discontinuity in the system time base (STC base) in the MPEG2 transport stream. I do. MPEG2 Systems Standard, P
The wraparound period of TS is 233/90000 seconds (about 26.5 hours).
It is prescribed.

【0304】Bridge-Clip AVストリームの定義をする
に、Bridge-Clip AVストリームは、上述したような定義
がされるDVR MPEG-2トランスポートストリームの構造を
持たねばならない。Bridge-Clip AVストリームは、1つ
のアライバルタイムベースの不連続点を含まなければな
らない。アライバルタイムベースの不連続点の前後のト
ランスポートストリームは、後述する符号化の制限に従
わなければならず、かつ後述するDVR-STDに従わなけれ
ばならない。
To define a Bridge-Clip AV stream, the Bridge-Clip AV stream must have the structure of a DVR MPEG-2 transport stream defined as described above. The Bridge-Clip AV stream must include one arrival time base discontinuity point. Transport streams before and after the discontinuity point of the arrival time base must comply with the encoding restrictions described later, and must conform to the DVR-STD described later.

【0305】本実施の形態においては、編集におけるPl
ayItem間のビデオとオーディオのシームレス接続をサポ
ートする。PlayItem間をシームレス接続にすることは、
プレーヤ/レコーダに"データの連続供給"と"シームレ
スな復号処理"を保証する。"データの連続供給"とは、
ファイルシステムが、デコーダにバッファのアンダーフ
ロウを起こさせる事のないように必要なビットレートで
データを供給する事を保証できることである。データの
リアルタイム性を保証して、データをディスクから読み
出すことができるように、データが十分な大きさの連続
したブロック単位でストアされるようにする。
In the present embodiment, Pl in editing
Support video and audio seamless connection between ayItems. To make a seamless connection between PlayItems,
Guarantees "continuous supply of data" and "seamless decoding processing" to the player / recorder. "Continuous supply of data"
It is possible to guarantee that the file system supplies data at a required bit rate so as not to cause the decoder to underflow the buffer. The data is stored in contiguous blocks of a sufficient size so that the data can be read from the disk while guaranteeing the real-time property of the data.

【0306】"シームレスな復号処理"とは、プレーヤ
が、デコーダの再生出力にポーズやギャップを起こさせ
る事なく、ディスクに記録されたオーディオビデオデー
タを表示できることである。
[0306] "Seamless decoding processing" means that a player can display audio / video data recorded on a disc without causing a pause or a gap in the reproduction output of the decoder.

【0307】シームレス接続されているPlayItemが参照
するAVストリームについて説明する。先行するPlayItem
と現在のPlayItemの接続が、シームレス表示できるよう
に保証されているかどうかは、現在のPlayItemにおいて
定義されているconnection_conditionフィールドから判
断することができる。PlayItem間のシームレス接続は、
Bridge-Clipを使用する方法と使用しない方法がある。
[0307] The AV stream referred to by the seamlessly connected PlayItems will be described. Preceding PlayItem
Whether or not the connection between the current PlayItem and the current PlayItem is guaranteed to be seamlessly displayed can be determined from the connection_condition field defined in the current PlayItem. Seamless connection between PlayItems
There are methods that use Bridge-Clip and methods that do not.

【0308】図96は、Bridge-Clipを使用する場合の
先行するPlayItemと現在のPlayItemの関係を示してい
る。図96においては、プレーヤが読み出すストリーム
データが、影をつけて示されている。図96に示したTS
1は、Clip1(Clip AVストリーム)の影を付けられたス
トリームデータとBridge-ClipのRSPN_arrival_time_dis
continuityより前の影を付けられたストリームデータか
ら成る。
[0308] Fig. 96 shows the relationship between the preceding PlayItem and the current PlayItem when Bridge-Clip is used. In FIG. 96, stream data read by the player is shown with a shadow. TS shown in FIG. 96
1 is the stream data with the shadow of Clip1 (Clip AV stream) and RSPN_arrival_time_dis of Bridge-Clip
Consists of shaded stream data before continuity.

【0309】TS1のClip1の影を付けられたストリームデ
ータは、先行するPlayItemのIN_time(図96においてI
N_time1で図示されている)に対応するプレゼンテーシ
ョンユニットを復号する為に必要なストリームのアドレ
スから、RSPN_exit_from_previous_Clipで参照されるソ
ースパケットまでのストリームデータである。TS1に含
まれるBridge-ClipのRSPN_arrival_time_discontinuity
より前の影を付けられたストリームデータは、Bridge-C
lipの最初のソースパケットから、RSPN_arrival_time_d
iscontinuityで参照されるソースパケットの直前のソー
スパケットまでのストリームデータである。
[0309] The stream data shaded by Clip1 of TS1 is the IN_time of the preceding PlayItem (I_time in FIG. 96).
This is stream data from the address of the stream necessary for decoding the presentation unit corresponding to N_time1) to the source packet referenced by RSPN_exit_from_previous_Clip. RSPN_arrival_time_discontinuity of Bridge-Clip included in TS1
The earlier shaded stream data is Bridge-C
From the first source packet of lip, RSPN_arrival_time_d
This is stream data up to the source packet immediately before the source packet referenced by iscontinuity.

【0310】また、図96におけるTS2は、Clip2(Clip
AVストリーム)の影を付けられたストリームデータとB
ridge-ClipのRSPN_arrival_time_discontinuity以後の
影を付けられたストリームデータから成る。TS2に含ま
れるBridge-ClipのRSPN_arrival_time_discontinuity以
後の影を付けられたストリームデータは、RSPN_arrival
_time_discontinuityで参照されるソースパケットか
ら、Bridge-Clipの最後のソースパケットまでのストリ
ームデータである。TS2のClip2の影を付けられたストリ
ームデータは、RSPN_enter_to_current_Clipで参照され
るソースパケットから、現在のPlayItemのOUT_time(図
96においてOUT_time2で図示されている)に対応する
プレゼンテーションユニットを復号する為に必要なスト
リームのアドレスまでのストリームデータである。
Also, TS2 in FIG. 96 is Clip2 (Clip
AV stream) and the shaded stream data and B
It is composed of stream data shaded after RSPN_arrival_time_discontinuity of the ridge-Clip. The shaded stream data after RSPN_arrival_time_discontinuity of Bridge-Clip included in TS2 is RSPN_arrival
This is stream data from the source packet referenced by _time_discontinuity to the last source packet of the Bridge-Clip. The shaded stream data of Clip2 of TS2 is necessary for decoding the presentation unit corresponding to OUT_time (shown as OUT_time2 in FIG. 96) of the current PlayItem from the source packet referenced by RSPN_enter_to_current_Clip. Stream data up to the stream address.

【0311】図97は、Bridge-Clipを使用しない場合
の先行するPlayItemと現在のPlayItemの関係を示してい
る。この場合、プレーヤが読み出すストリームデータ
は、影をつけて示されている。図97におけるTS1は、C
lip1 (Clip AVストリーム)の影を付けられたストリーム
データから成る。TS1のClip1の影を付けられたストリー
ムデータは、先行するPlayItemのIN_time(図97にお
いてIN_time1で図示されている)に対応するプレゼンテ
ーションユニットを復号する為に必要なストリームのア
ドレスから始まり、Clip1の最後のソースパケットまで
のデータである。また、図97におけるTS2は、Clip2
(Clip AVストリーム)の影を付けられたストリームデー
タから成る。
[0311] Fig. 97 shows the relationship between the preceding PlayItem and the current PlayItem when Bridge-Clip is not used. In this case, the stream data read by the player is shaded. TS1 in FIG. 97 is C
It is composed of stream data with a shadow of lip1 (Clip AV stream). The shaded stream data of Clip1 of TS1 starts from the address of the stream necessary to decode the presentation unit corresponding to IN_time (shown as IN_time1 in FIG. 97) of the preceding PlayItem, and ends at the end of Clip1. Up to the source packet. Also, TS2 in FIG. 97 is Clip2
(Clip AV stream).

【0312】TS2のClip2の影を付けられたストリームデ
ータは、Clip2の最初のソースパケットから始まり、現
在のPlayItemのOUT_time(図97においてOUT_time2で
図示されている)に対応するプレゼンテーションユニッ
トを復号する為に必要なストリームのアドレスまでのス
トリームデータである。
[0312] The shaded stream data of Clip2 of TS2 starts from the first source packet of Clip2, and is used to decode the presentation unit corresponding to OUT_time (shown as OUT_time2 in Fig. 97) of the current PlayItem. Is the stream data up to the stream address required.

【0313】図96と図97において、TS1とT2は、ソ
ースパケットの連続したストリームである。次に、TS1
とTS2のストリーム規定と、それらの間の接続条件につ
いて考える。まず、シームレス接続のための符号化制限
について考える。トランスポートストリームの符号化構
造の制限として、まず、TS1とTS2の中に含まれるプログ
ラムの数は、1でなければならない。TS1とTS2の中に含
まれるビデオストリームの数は、1でなければならな
い。TS1とTS2の中に含まれるオーディオストリームの数
は、2以下でなければならない。TS1とTS2の中に含まれ
るオーディオストリームの数は、等しくなければならな
い。TS1および/またはTS2の中に、上記以外のエレメン
タリーストリームまたはプライベートストリームが含ま
れていても良い。
In FIGS. 96 and 97, TS1 and T2 are continuous streams of source packets. Next, TS1
And TS2 stream specifications and connection conditions between them. First, consider the encoding restriction for seamless connection. As a limitation of the encoding structure of the transport stream, first, the number of programs included in TS1 and TS2 must be one. The number of video streams included in TS1 and TS2 must be one. The number of audio streams included in TS1 and TS2 must be 2 or less. The number of audio streams included in TS1 and TS2 must be equal. TS1 and / or TS2 may include an elementary stream or a private stream other than the above.

【0314】ビデオビットストリームの制限について説
明する。図98は、ピクチャの表示順序で示すシームレ
ス接続の例を示す図である。接続点においてビデオスト
リームをシームレスに表示できるためには、OUT_time1
(Clip1のOUT_time)の後とIN_time2(Clip2のIN_tim
e)の前に表示される不必要なピクチャは、接続点付近
のClipの部分的なストリームを再エンコードするプロセ
スにより、除去されなければならない。
[0314] The limitation of the video bit stream will be described. FIG. 98 is a diagram illustrating an example of seamless connection in the picture display order. To be able to seamlessly display the video stream at the connection point, use OUT_time1
After (OUT_time of Clip1) and IN_time2 (IN_tim of Clip2)
Unnecessary pictures displayed before e) must be removed by the process of re-encoding the partial stream of Clip near the connection point.

【0315】図98に示したような場合において、Brid
geSequenceを使用してシームレス接続を実現する例を、
図99に示す。RSPN_arrival_time_discontinuityより
前のBridge-Clipのビデオストリームは、図98のClip1
のOUT_time1に対応するピクチャまでの符号化ビデオス
トリームから成る。そして、そのビデオストリームは先
行するClip1のビデオストリームに接続され、1つの連
続でMPEG2規格に従ったエレメンタリーストリームとな
るように再エンコードされている。
In the case as shown in FIG.
An example of achieving a seamless connection using geSequence,
As shown in FIG. The video stream of Bridge-Clip before RSPN_arrival_time_discontinuity is Clip1 in FIG.
From the encoded video stream up to the picture corresponding to OUT_time1. Then, the video stream is connected to the video stream of the preceding Clip1, and is re-encoded so as to be one continuous elementary stream according to the MPEG2 standard.

【0316】同様にして、RSPN_arrival_time_disconti
nuity以後のBridge-Clipのビデオストリームは、図98
のClip2のIN_time2に対応するピクチャ以後の符号化ビ
デオストリームから成る。そして、そのビデオストリー
ムは、正しくデコード開始する事ができて、これに続く
Clip2のビデオストリームに接続され、1つの連続でMPE
G2規格に従ったエレメンタリーストリームとなるように
再エンコードされている。Bridge-Clipを作るために
は、一般に、数枚のピクチャは再エンコードしなければ
ならず、それ以外のピクチャはオリジナルのClipからコ
ピーすることができる。
Similarly, RSPN_arrival_time_disconti
The video stream of Bridge-Clip after nuity is shown in FIG.
Of the clip corresponding to IN_time2 of Clip2. Then, the video stream can start decoding correctly, and
Connected to Video stream of Clip2, MPE in one continuous
It has been re-encoded to be an elementary stream according to the G2 standard. In order to make a Bridge-Clip, generally, several pictures must be re-encoded, and other pictures can be copied from the original Clip.

【0317】図98に示した例の場合にBridgeSequence
を使用しないでシームレス接続を実現する例を図100
に示す。Clip1のビデオストリームは、図98のOUT_tim
e1に対応するピクチャまでの符号化ビデオストリームか
ら成り、それは、1つの連続でMPEG2規格に従ったエレ
メンタリーストリームとなるように再エンコードされて
いる。同様にして、Clip2のビデオストリームは、図9
8のClip2のIN_time2に対応するピクチャ以後の符号化
ビデオストリームから成り、それは、一つの連続でMPEG
2規格に従ったエレメンタリーストリームとなるように
再エンコードされている。
In the case of the example shown in FIG. 98, BridgeSequence
FIG. 100 shows an example in which seamless connection is realized without using
Shown in The video stream of Clip1 is OUT_tim in FIG.
It consists of an encoded video stream up to the picture corresponding to e1, which has been re-encoded into one continuous elementary stream according to the MPEG2 standard. Similarly, the video stream of Clip2 is shown in FIG.
8 consisting of an encoded video stream after the picture corresponding to IN_time2 of Clip2, which is MPEG
It has been re-encoded to be an elementary stream according to the two standards.

【0318】ビデオストリームの符号化制限について説
明するに、まず、TS1とTS2のビデオストリームのフレー
ムレートは、等しくなければならない。TS1のビデオス
トリームは、sequence_end_codeで終端しなければなら
ない。TS2のビデオストリームは、Sequence Header、GO
P Header、そしてI-ピクチャで開始しなければならな
い。TS2のビデオストリームは、クローズドGOPで開始し
なければならない。
[0318] To explain the encoding restriction of the video stream, first, the frame rates of the TS1 and TS2 video streams must be equal. The video stream of TS1 must end with sequence_end_code. The video stream of TS2 is Sequence Header, GO
Must start with P Header, and then I-picture. The TS2 video stream must start with a closed GOP.

【0319】ビットストリームの中で定義されるビデオ
プレゼンテーションユニット(フレームまたはフィール
ド)は、接続点を挟んで連続でなければならない。接続
点において、フレームまたはフィールドのギャップがあ
ってはならない。接続点において、トップ?ボトムのフ
ィールドシーケンスは連続でなければならない。3-2プ
ルダウンを使用するエンコードの場合は、"top_field_f
irst" および "repeat_first_field"フラグを書き換え
る必要があるかもしれない,またはフィールドギャップ
の発生を防ぐために局所的に再エンコードするようにし
ても良い。
A video presentation unit (frame or field) defined in a bit stream must be continuous across connection points. There must be no frame or field gaps at the connection points. At the junction, the top-bottom field sequence must be continuous. 3-2 For encoding using pull-down, "top_field_f
The irst "and" repeat_first_field "flags may need to be rewritten, or may be locally re-encoded to prevent field gaps.

【0320】オーディオビットストリームの符号化制限
について説明するに、TS1とTS2のオーディオのサンプリ
ング周波数は、同じでなければならない。TS1とTS2のオ
ーディオの符号化方法(例.MPEG1レイヤ2, AC-3, SESF
LPCM, AAC)は、同じでなければならない。
To explain the encoding restriction of the audio bit stream, the audio sampling frequencies of TS1 and TS2 must be the same. TS1 and TS2 audio encoding methods (eg MPEG1 Layer 2, AC-3, SESF
LPCM, AAC) must be the same.

【0321】次に、MPEG-2トランスポートストリームの
符号化制限について説明するに、TS1のオーディオスト
リームの最後のオーディオフレームは、TS1の最後の表
示ピクチャの表示終了時に等しい表示時刻を持つオーデ
ィオサンプルを含んでいなければならない。TS2のオー
ディオストリームの最初のオーディオフレームは、TS2
の最初の表示ピクチャの表示開始時に等しい表示時刻を
持つオーディオサンプルを含んでいなければならない。
Next, the encoding restriction of the MPEG-2 transport stream will be described. The last audio frame of the audio stream of TS1 is composed of audio samples having the same display time at the end of the display of the last display picture of TS1. Must include. The first audio frame of the TS2 audio stream is TS2
Must contain an audio sample with a display time equal to the start of the display of the first display picture of.

【0322】接続点において、オーディオプレゼンテー
ションユニットのシーケンスにギャップがあってはなら
ない。図101に示すように、2オーディオフレーム区
間未満のオーディオプレゼンテーションユニットの長さ
で定義されるオーバーラップがあっても良い。TS2のエ
レメンタリーストリームを伝送する最初のパケットは、
ビデオパケットでなければならない。接続点におけるト
ランスポートストリームは、後述するDVR-STDに従わな
くてはならない。
At the connection point, there must be no gap in the sequence of audio presentation units. As shown in FIG. 101, there may be an overlap defined by the length of an audio presentation unit less than two audio frame periods. The first packet transmitting the TS2 elementary stream is
Must be a video packet. The transport stream at the connection point must follow the DVR-STD described later.

【0323】ClipおよびBridge-Clipの制限について説
明するに、TS1とTS2は、それぞれの中にアライバルタイ
ムベースの不連続点を含んではならない。
To explain the limitations of Clip and Bridge-Clip, TS1 and TS2 must not include an arrival time base discontinuity in each.

【0324】以下の制限は、Bridge-Clipを使用する場
合にのみ適用される。TS1の最後のソースパケットとTS2
の最初のソースパケットの接続点においてのみ、Bridge
-ClipAVストリームは、ただ1つのアライバルタイムベ
ースの不連続点を持つ。ClipInfo()において定義される
RSPN_arrival_time_discontinuityが、その不連続点の
アドレスを示し、それはTS2の最初のソースパケットを
参照するアドレスを示さなければならない。
[0324] The following restrictions apply only when Bridge-Clip is used. TS1 last source packet and TS2
Only at the point of attachment of the first source packet of the Bridge
-A ClipAV stream has only one arrival time base discontinuity. Defined in ClipInfo ()
RSPN_arrival_time_discontinuity indicates the address of the discontinuity, which must indicate the address referring to the first source packet of TS2.

【0325】BridgeSequenceInfo()において定義される
RSPN_exit_from_previous_Clipによって参照されるソー
スパケットは、Clip1の中のどのソースパケットでも良
い。それは、Aligned unitの境界である必要はない。Br
idgeSequenceInfo()において定義されるRSPN_enter_to_
current_Clipによって参照されるソースパケットは、Cl
ip2の中のどのソースパケットでも良い。それは、Align
ed unitの境界である必要はない。
Defined in BridgeSequenceInfo ()
The source packet referenced by RSPN_exit_from_previous_Clip may be any source packet in Clip1. It need not be the boundary of an Aligned unit. Br
RSPN_enter_to_ defined in idgeSequenceInfo ()
The source packet referenced by current_Clip is Cl
Any source packet in ip2 can be used. It is Align
It does not need to be the boundary of an ed unit.

【0326】PlayItemの制限について説明するに、先行
するPlayItemのOUT_time(図96、図97において示さ
れるOUT_time1)は、TS1の最後のビデオプレゼンテーシ
ョンユニットの表示終了時刻を示さなければならない。
現在のPlayItemのIN_time(F図96、図97において示
されるIN_time2)は、TS2の最初のビデオプレゼンテー
ションユニットの表示開始時刻を示さなければならな
い。
[0326] To explain the limitation of PlayItem, OUT_time of the preceding PlayItem (OUT_time1 shown in Figs. 96 and 97) must indicate the display end time of the last video presentation unit of TS1.
The IN_time of the current PlayItem (IN_time2 shown in FIGS. 96 and 97) must indicate the display start time of the first video presentation unit of TS2.

【0327】Bridge-Clipを使用する場合のデータアロ
ケーションの制限について、図102を参照して説明す
るに、シームレス接続は、ファイルシステムによってデ
ータの連続供給が保証されるように作られなければなら
ない。これは、Clip1(ClipAVストリームファイル)とC
lip2(Clip AVストリームファイル)に接続されるBridg
e-Clip AVストリームを、データアロケーション規定を
満たすように配置することによって行われなければなら
ない。
With reference to FIG. 102, the limitation on data allocation when using a Bridge-Clip will be described. A seamless connection must be made so that continuous supply of data is guaranteed by the file system. This is Clip1 (ClipAV stream file) and C
Bridg connected to lip2 (Clip AV stream file)
It must be performed by arranging the e-Clip AV stream so as to satisfy the data allocation rules.

【0328】RSPN_exit_from_previous_Clip以前のClip
1(Clip AVストリームファイル)のストリーム部分が、
ハーフフラグメント以上の連続領域に配置されているよ
うに、RSPN_exit_from_previous_Clipが選択されなけれ
ばならない。Bridge-Clip AVストリームのデータ長は、
ハーフフラグメント以上の連続領域に配置されるよう
に、選択されなければならない。RSPN_enter_to_curren
t_Clip以後のClip2(Clip AVストリームファイル)のス
トリーム部分が、ハーフフラグメント以上の連続領域に
配置されているように、RSPN_enter_to_current_Clipが
選択されなければならない。
[0328] Clip before RSPN_exit_from_previous_Clip
The stream part of 1 (Clip AV stream file)
RSPN_exit_from_previous_Clip must be selected so that it is located in a continuous area equal to or greater than a half fragment. The data length of the Bridge-Clip AV stream is
It must be chosen so that it is located in a contiguous region of half a fragment or more. RSPN_enter_to_curren
RSPN_enter_to_current_Clip must be selected so that the stream portion of Clip2 (Clip AV stream file) after t_Clip is arranged in a continuous area of half fragment or more.

【0329】Bridge-Clipを使用しないでシームレス接
続する場合のデータアロケーションの制限について、図
103を参照して説明するに、シームレス接続は、ファ
イルシステムによってデータの連続供給が保証されるよ
うに作られなければならない。これは、Clip1(Clip AV
ストリームファイル)の最後の部分とClip2(Clip AVス
トリームファイル)の最初の部分を、データアロケーシ
ョン規定を満たすように配置することによって行われな
ければならない。
With reference to FIG. 103, a description will be given of the limitation of data allocation when seamless connection is performed without using Bridge-Clip. Seamless connection is made so that continuous supply of data is guaranteed by the file system. There must be. This is Clip1 (Clip AV
This has to be done by arranging the last part of the stream file) and the first part of Clip2 (Clip AV stream file) so as to satisfy the data allocation rules.

【0330】Clip1(Clip AVストリームファイル)の最
後のストリーム部分が、ハーフフラグメント以上の連続
領域に配置されていなければならない。Clip2(Clip AV
ストリームファイル)の最初のストリーム部分が、ハー
フフラグメント以上の連続領域に配置されていなければ
ならない。
[0330] The last stream part of Clip1 (Clip AV stream file) must be arranged in a continuous area of half fragment or more. Clip2 (Clip AV
The first stream portion of the stream file) must be arranged in a continuous area of half a fragment or more.

【0331】次に、DVR-STDについて説明する。DVR-STD
は、DVR MPEG2トランスポートストリームの生成および
検証の際におけるデコード処理をモデル化するための概
念モデルである。また、DVR-STDは、上述したシームレ
ス接続された2つのPlayItemによって参照されるAVスト
リームの生成および検証の際におけるデコード処理をモ
デル化するための概念モデルでもある。
Next, the DVR-STD will be described. DVR-STD
Is a conceptual model for modeling a decoding process when generating and verifying a DVR MPEG2 transport stream. The DVR-STD is also a conceptual model for modeling a decoding process at the time of generating and verifying an AV stream referred to by the two seamlessly connected PlayItems described above.

【0332】DVR-STDモデルを図104に示す。図10
4に示したモデルには、DVR MPEG-2トランスポートスト
リームプレーヤモデルが構成要素として含まれている。
n, TBn, MBn, EBn, TBsys, Bsys, Rxn, Rbxn, Rxsys, D
n, Dsys, OnおよびPn(k)の表記方法は、ISO/IEC13818-1
のT-STDに定義されているものと同じである。すなわ
ち、次の通りである。nは、エレメンタリーストリーム
のインデクス番号である。TBnは、エレメンタリースト
リームnのトランスポートバッファでる。
FIG. 104 shows the DVR-STD model. FIG.
The model shown in FIG. 4 includes a DVR MPEG-2 transport stream player model as a component.
n, TBn, MBn, EBn, TBsys, Bsys, Rxn, Rbxn, Rxsys, D
The notation of n, Dsys, On and Pn (k) is ISO / IEC13818-1
It is the same as that defined in T-STD. That is, it is as follows. n is the index number of the elementary stream. TBn is a transport buffer for the elementary stream n.

【0333】MBnは、エレメンタリーストリームnの多重
バッファである。ビデオストリームについてのみ存在す
る。EBnは、エレメンタリーストリームnのエレメンタリ
ーストリームバッファである。ビデオストリームについ
てのみ存在する。TBsysは、復号中のプログラムのシス
テム情報のための入力バッファである。Bsysは、復号中
のプログラムのシステム情報のためのシステムターゲッ
トデコーダ内のメインバッファである。Rxnは、データ
がTBnから取り除かれる伝送レートである。Rbxnは、PES
パケットペイロードがMBnから取り除かれる伝送レート
である。ビデオストリームについてのみ存在する。
MBn is a multiplex buffer for elementary stream n. Only present for video streams. EBn is an elementary stream buffer for the elementary stream n. Only present for video streams. TBsys is an input buffer for system information of the program being decrypted. Bsys is the main buffer in the system target decoder for the system information of the program being decoded. Rxn is the transmission rate at which data is removed from TBn. Rbxn, PES
The transmission rate at which the packet payload is removed from MBn. Only present for video streams.

【0334】Rxsysは、データがTBsysから取り除かれる
伝送レートである。Dnは、エレメンタリーストリームn
のデコーダである。Dsysは、復号中のプログラムのシス
テム情報に関するデコーダである。Onは、ビデオストリ
ームnのre-ordering bufferである。Pn(k)は、エレメン
タリーストリームnのk番目のプレゼンテーションユニッ
トである。
Rxsys is the transmission rate at which data is removed from TBsys. Dn is the elementary stream n
Decoder. Dsys is a decoder for the system information of the program being decoded. On is the re-ordering buffer of the video stream n. Pn (k) is the k-th presentation unit of the elementary stream n.

【0335】DVR-STDのデコーディングプロセスについ
て説明する。単一のDVR MPEG-2トランスポートストリー
ムを再生している間は、トランスポートパケットをTB1,
TBnまたはTBsysのバッファへ入力するタイミングは、
ソースパケットのarrival_time_stampにより決定され
る。TB1, MB1, EB1, TBn, Bn, TBsysおよびBsysのバッ
ファリング動作の規定は、ISO/IEC 13818-1に規定され
ているT-STDと同じである。復号動作と表示動作の規定
もまた、ISO/IEC 13818-1に規定されているT-STDと同じ
である。
[0335] The decoding process of DVR-STD will be described. While playing a single DVR MPEG-2 transport stream, transport packets are transferred to TB1,
The timing to input to the buffer of TBn or TBsys is
Determined by arrival_time_stamp of the source packet. The specification of buffering operation of TB1, MB1, EB1, TBn, Bn, TBsys and Bsys is the same as T-STD specified in ISO / IEC 13818-1. The definition of the decoding operation and the display operation is also the same as T-STD defined in ISO / IEC 13818-1.

【0336】シームレス接続されたPlayItemを再生して
いる間のデコーディングプロセスについて説明する。こ
こでは、シームレス接続されたPlayItemによって参照さ
れる2つのAVストリームの再生について説明をすること
にし、以後の説明では、上述した(例えば、図96に示
した)TS1とTS2の再生について説明する。TS1は、先行
するストリームであり、TS2は、現在のストリームであ
る。
[0336] The decoding process during playback of a seamlessly connected PlayItem will be described. Here, reproduction of two AV streams referred to by seamlessly connected PlayItems will be described. In the following description, reproduction of the above-described TS1 and TS2 (for example, shown in FIG. 96) will be described. TS1 is the preceding stream, and TS2 is the current stream.

【0337】図105は、あるAVストリーム(TS1)か
らそれにシームレスに接続された次のAVストリーム(TS
2)へと移る時のトランスポートパケットの入力,復
号,表示のタイミングチャートを示す。所定のAVストリ
ーム(TS1)からそれにシームレスに接続された次のAV
ストリーム(TS2)へと移る間には、TS2のアライバルタ
イムベースの時間軸(図105においてATC2で示され
る)は、TS1のアライバルタイムベースの時間軸(図1
05においてATC1で示される)と同じでない。
[0337] Fig. 105 shows a case where one AV stream (TS1) is seamlessly connected to the next AV stream (TS1).
A timing chart of input, decoding, and display of a transport packet when the process proceeds to 2) is shown. From a given AV stream (TS1) to the next AV seamlessly connected to it
During the transition to the stream (TS2), the time axis of the arrival time base of TS2 (denoted by ATC2 in FIG. 105) is changed to the time axis of the arrival time base of TS1 (FIG. 1).
05 as indicated by ATC1).

【0338】また、TS2のシステムタイムベースの時間
軸(図105においてSTC2で示される)は、TS1のシス
テムタイムベースの時間軸(図105においてSTC1で示
される)と同じでない。ビデオの表示は、シームレスに
連続していることが要求される。オーディオのプレゼン
テーションユニットの表示時間にはオーバーラップがあ
っても良い。
Also, the time axis of the system time base of TS2 (indicated by STC2 in FIG. 105) is not the same as the time axis of the system time base of TS1 (indicated by STC1 in FIG. 105). Video display is required to be seamlessly continuous. The display time of the audio presentation unit may overlap.

【0339】DVR-STD への入力タイミングについて説明
する。時刻T1までの時間、すなわち、TS1の最後のビデ
オパケットがDVR-STDのTB1に入力終了するまでは、DVR-
STDのTB1、TBn またはTBsysのバッファへの入力タイミ
ングは、TS1のソースパケットのarrival_time_stampに
よって決定される。
[0339] The input timing to the DVR-STD will be described. Time to time T 1, that is, until the last video packet of TS1 is input ends TB1 of DVR-STD is, DVR-
The input timing of the STD to the buffer of TB1, TBn or TBsys is determined by arrival_time_stamp of the source packet of TS1.

【0340】TS1の残りのパケットは、TS_recording_ra
te(TS1)のビットレートでDVR-STDのTBnまたはTBsysのバ
ッファへ入力されなければならない。ここで、TS_recor
ding_rate(TS1)は、Clip1に対応するClipInfo()におい
て定義されるTS_recording_rateの値である。TS1の最後
のバイトがバッファへ入力する時刻は、時刻T2であ
る。従って、時刻T1からT2までの区間では、ソースパ
ケットのarrival_time_stampは無視される。
The remaining packets of TS1 are TS_recording_ra
It must be input to the buffer of TBn or TBsys of DVR-STD at the bit rate of te (TS1). Where TS_recor
ding_rate (TS1) is a value of TS_recording_rate defined in ClipInfo () corresponding to Clip1. Time when the last byte is input to the buffer of the TS1 is the time T 2. Thus, in a section from time T 1 to T 2, arrival_time_stamp of the source packet is ignored.

【0341】N1をTS1の最後のビデオパケットに続くTS1
のトランスポートパケットのバイト数とすると、時刻T
1乃至T2までの時間DT1は、N1バイトがTS_recording_ra
te(TS1)のビットレートで入力終了するために必要な時
間であり、次式により算出される。 DT1=T2−T1=N1 / TS_recording_rate (TS1) 時刻T1乃至T2までの間は、RXnとRXsysの値は共に、TS
_recording_rate(TS1)の値に変化する。このルール以外
のバッファリング動作は、T-STDと同じである。
N1 is the TS1 following the last video packet of TS1.
Is the number of bytes of the transport packet at time T
1 to time DT1 of up to T 2 is, N1 byte is TS_recording_ra
This is the time required to complete input at the bit rate of te (TS1) and is calculated by the following equation. DT1 = T 2 -T 1 = N1 / TS_recording_rate (TS1) the time T 1 to until T 2 are the values of RXn and RXsys together, TS
Changes to the value of _recording_rate (TS1). The buffering operation other than this rule is the same as T-STD.

【0342】T2の時刻において、arrival time clock
counterは、TS2の最初のソースパケットのarrival_time
_stampの値にリセットされる。DVR-STDのTB1, TBn また
はTBsysのバッファへの入力タイミングは、TS2のソース
パケットのarrival_time_stampによって決定される。RX
nとRXsysは共に、T-STDにおいて定義されている値に変
化する。
At time T 2 , arrival time clock
counter is arrival_time of the first source packet of TS2
Reset to the value of _stamp. The input timing to the buffer of TB1, TBn or TBsys of DVR-STD is determined by arrival_time_stamp of the source packet of TS2. RX
Both n and RXsys change to the values defined in T-STD.

【0343】付加的なオーディオバッファリングおよび
システムデータバッファリングについて説明するに、オ
ーディオデコーダとシステムデコーダは、時刻T1から
T2までの区間の入力データを処理することができるよう
に、T-STDで定義されるバッファ量に加えて付加的なバ
ッファ量(約1秒分のデータ量)が必要である。
To explain the additional audio buffering and system data buffering, the audio decoder and system decoder
In order to be able to process input data in the section up to T2, an additional buffer amount (data amount of about 1 second) is required in addition to the buffer amount defined by T-STD.

【0344】ビデオのプレゼンテーションタイミングに
ついて説明するに、ビデオプレゼンテーションユニット
の表示は、接続点を通して、ギャップなしに連続でなけ
ればならない。ここで、STC1は、TS1のシステムタイム
ベースの時間軸(図105ではSTC1と図示されている)
とし、STC2は、TS2のシステムタイムベースの時間軸
(図97ではSTC2と図示されている。正確には、STC2
は、TS2の最初のPCRがT-STDに入力した時刻から開始す
る。)とする。
To illustrate the video presentation timing, the presentation of the video presentation unit must be continuous through the connection points without gaps. Here, STC1 is a time axis of the system time base of TS1 (shown as STC1 in FIG. 105).
STC2 is a time axis of the system time base of TS2 (illustrated as STC2 in FIG. 97. To be precise, STC2
Starts from the time when the first PCR of TS2 enters the T-STD. ).

【0345】STC1とSTC2の間のオフセットは、次のよう
に決定される。PTS1 endは、TS1の最後のビデオプレゼン
テーションユニットに対応するSTC1上のPTSであり、PTS
2 sta rtは、TS2の最初のビデオプレゼンテーションユニ
ットに対応するSTC2上のPTSであり、Tppは、TS1の最後
のビデオプレゼンテーションユニットの表示期間とする
と、2つのシステムタイムベースの間のオフセットSTC_
deltaは、次式により算出される。 STC_delta = PTS1 end + Tpp - PTS2 start
The offset between STC1 and STC2 is determined as follows. PTS 1 end is the PTS on STC1 corresponding to the last video presentation unit of TS1,
2 sta rt is the PTS on STC2 corresponding to the first video presentation unit of TS2, and T pp is the offset STC_ between the two system time bases, given the display period of the last video presentation unit of TS1.
delta is calculated by the following equation. STC_delta = PTS 1 end + T pp -PTS 2 start

【0346】オーディオのプレゼンテーションのタイミ
ングについて説明するに、接続点において、オーディオ
プレゼンテーションユニットの表示タイミングのオーバ
ーラップがあっても良く、それは0乃至2オーディオフ
レーム未満である(図105に図示されている"audio o
verlap"を参照)。どちらのオーディオサンプルを選択
するかということと、オーディオプレゼンテーションユ
ニットの表示を接続点の後の補正されたタイムベースに
再同期することは、プレーヤ側により設定されることで
ある。
To illustrate the timing of audio presentation, at the connection point, there may be an overlap in the presentation timing of the audio presentation units, which is less than 0 to 2 audio frames (shown in FIG. 105). audio o
verlap "). Which audio sample to select and resynchronizing the presentation of the audio presentation unit to the corrected time base after the splice point is set by the player. .

【0347】DVR-STDのシステムタイムクロックについ
て説明するに、時刻T5において、TS1の最後のオーディ
オプレゼンテーションユニットが表示される。システム
タイムクロックは、時刻T2からT5の間にオーバーラッ
プしていても良い。この区間では、DVR-STDは、システ
ムタイムクロックを古いタイムベースの値(STC1)と新
しいタイムベースの値(STC2)の間で切り替える。STC2
の値は、次式により算出される。 STC2=STC1−STC_delta
[0347] By way of explaining the system time clock of DVR-STD, at time T 5, the last audio presentation unit of TS1 is displayed. System time clock may be from time T 2 not overlap between T 5. In this section, the DVR-STD switches the system time clock between the old time base value (STC1) and the new time base value (STC2). STC2
Is calculated by the following equation. STC2 = STC1-STC_delta

【0348】バッファリングの連続性について説明す
る。STC11 video_endは、TS1の最後のビデオパケットの
最後のバイトがDVR-STDのTB1へ到着する時のシステムタ
イムベースSTC1上のSTCの値である。STC22 video_start
は、TS2の最初のビデオパケットの最初のバイトがDVR-S
TDのTB1へ到着する時のシステムタイムベースSTC2上のS
TCの値である。STC21 video_endは、STC11 video_end
値をシステムタイムベースSTC2上の値に換算した値であ
る。STC21 video_endは、次式により算出される。 STC21 video_end = STC11 video_end - STC_delta
The continuity of buffering will be described. STC1 1 video_end is the value of STC on the system time base STC1 when the last byte of the last video packet of TS1 arrives at TB1 of DVR-STD. STC2 2 video_start
Means that the first byte of the first video packet of TS2 is DVR-S
S on the system time base STC2 when arriving at TB1 of TD
This is the TC value. STC2 1 video_end is a value obtained by converting the value of STC1 1 video_end into a value on system time base STC2 . STC2 1 video_end is calculated by the following equation. STC2 1 video_end = STC1 1 video_end - STC_delta

【0349】DVR-STDに従うために、次の2つの条件を
満たす事が要求される。まず、TS2の最初のビデオパケ
ットのTB1への到着タイミングは、次に示す不等式を満
たさなければならない。そして、次に示す不等式を満た
さなければならない。 STC22 video_start > STC21 video_end + ΔT1 この不等式が満たされるように、Clip1および、また
は、Clip2の部分的なストリームを再エンコードおよ
び、または、再多重化する必要がある場合は、その必要
に応じて行われる。
In order to comply with DVR-STD, the following two conditions
It is required to satisfy. First, the first video packet of TS2
The arrival timing of the packet at TB1 satisfies the following inequality:
I have to do it. And satisfy the following inequality:
Have to do. STC2Two video_start > STC21 video_end + ΔT1  Clip1 and also so that this inequality is satisfied
Re-encodes a partial stream of Clip2 and
And if necessary to remultiplex
It is performed according to.

【0350】次に、STC1とSTC2を同じ時間軸上に換算し
たシステムタイムベースの時間軸上において、TS1から
のビデオパケットの入力とそれに続くTS2からのビデオ
パケットの入力は、ビデオバッファをオーバーフローお
よびアンダーフローさせてはならない。
Next, on the time axis of the system time base obtained by converting STC1 and STC2 on the same time axis, the input of a video packet from TS1 and the subsequent input of a video packet from TS2 overflow the video buffer and Do not underflow.

【0351】このようなシンタクス、データ構造、規則
に基づく事により、記録媒体に記録されているデータの
内容、再生情報などを適切に管理することができ、もっ
て、ユーザが再生時に適切に記録媒体に記録されている
データの内容を確認したり、所望のデータを簡便に再生
できるようにすることができる。
[0351] Based on such syntax, data structure, and rules, it is possible to appropriately manage the contents of data recorded on the recording medium, reproduction information, and the like. The user can confirm the contents of the data recorded in the file, and can easily reproduce the desired data.

【0352】なお、本実施の形態は、多重化ストリーム
としてMPEG2トランスポートストリームを例にして説明
しているが、これに限らず、MPEG2プログラムストリー
ムや米国のDirecTVサービス(商標)で使用されているD
SSトランスポートストリームについても適用することが
可能である。
In the present embodiment, an MPEG2 transport stream has been described as an example of a multiplexed stream. However, the present invention is not limited to this, and is used in an MPEG2 program stream or a DirecTV service (trademark) in the United States. D
It is also possible to apply to the SS transport stream.

【0353】次に、mark_entry()およびrepresentative
_picture_entry()のシンタクスが、図81に示される
ような構成である場合における、マーク点で示されるシ
ーンの頭出し再生を行う場合の処理について、図106
のフローチャートを参照して、説明する。
Next, mark_entry () and representative
FIG. 106 shows a process in which the beginning of the scene indicated by the mark point is reproduced when the syntax of _picture_entry () has a configuration as shown in FIG.
This will be described with reference to the flowchart of FIG.

【0354】最初にステップS1において、記録再生装
置1の制御部23は、記録媒体100から、DVRトラン
スポートストリームファイルのデータデースであるEP_M
ap(図70)、STC_Info(図52)、Program_Info(図
54)、およびClipMark(図78)を読み出す。
First, in step S 1, the control unit 23 of the recording / reproducing apparatus 1 reads the EP_M, which is the data database of the DVR transport stream file, from the recording medium 100.
ap (FIG. 70), STC_Info (FIG. 52), Program_Info (FIG. 54), and ClipMark (FIG. 78) are read.

【0355】ステップS2において、制御部23は、Cl
ipMark(図78)のrepresentative_picture_entry(図
81)、またはref_thumbnail_indexで参照されるピク
チャからサムネイルのリストを作成し、ユーザインター
フェース入出力としての端子24から出力し、GUIのメ
ニュー画面上に表示させる。この場合、ref_thumbnail_
indexが有効な値を持つ場合、representative_picture_
entryよりref_thumbnail_indexが優先される。
At step S2, the control unit 23
A list of thumbnails is created from the pictures referenced by the representative_picture_entry (FIG. 81) of ipMark (FIG. 81) or ref_thumbnail_index, output from the terminal 24 as a user interface input / output, and displayed on the GUI menu screen. In this case, ref_thumbnail_
If index has a valid value, representative_picture_
ref_thumbnail_index has priority over entry.

【0356】ステップS3において、ユーザが再生開始
点のマーク点を指定する。これは、例えば、GUIとして
表示されたメニュー画面上の中からユーザがサムネイル
画像を選択することで行われる。制御部23は、この選
択操作に対応して、指定されたサムネイルに対応づけら
れているマーク点を取得する。
[0356] In step S3, the user designates a mark point as a reproduction start point. This is performed, for example, when the user selects a thumbnail image from a menu screen displayed as a GUI. The control unit 23 acquires a mark point associated with the specified thumbnail in response to the selection operation.

【0357】ステップS4において、制御部23は、ス
テップS3で指定されたmark_entry(図81)のmark_t
ime_stampのPTSと、STC_sequence_idを取得する。
[0357] In step S4, the controller 23 sets the mark_t of the mark_entry (Fig. 81) specified in step S3.
Get PTS of ime_stamp and STC_sequence_id.

【0358】ステップS5において、制御部23は、ST
C_Info(図52)から、ステップS4で取得したSTC_se
quence_idに対応するSTC時間軸が開始するソースパケッ
ト番号を取得する。
At step S5, the control unit 23
The STC_se obtained in step S4 from C_Info (FIG. 52)
The source packet number at which the STC time axis corresponding to quence_id starts is obtained.

【0359】ステップS6において、制御部23は、ス
テップS5で取得したSTC時間軸が開始するパケット番
号と、ステップS4で取得したマーク点のPTSから、マ
ーク点のPTSより時間的に前で、かつ、最も近いエント
リーポイント(Iピクチャ)のあるソースパケット番号を
取得する。
In step S6, the control unit 23 sets the packet number at which the STC time axis obtained in step S5 starts and the PTS of the mark point obtained in step S4 in time before the PTS of the mark point, and , The source packet number having the nearest entry point (I picture) is obtained.

【0360】ステップS7において、制御部23は、ス
テップS6で取得したエントリーポイントのあるソース
パケット番号から、トランスポートストリームのデータ
を読み出し、AVデコーダ27に供給させる。
[0360] In step S7, the control unit 23 reads the transport stream data from the source packet number having the entry point acquired in step S6, and supplies the data to the AV decoder 27.

【0361】ステップS8において、制御部23は、AV
デコーダ27を制御し、ステップS4で取得したマーク
点のPTSのピクチャから表示を開始させる。
At step S8, the control unit 23
The decoder 27 is controlled to start displaying from the PTS picture of the mark point acquired in step S4.

【0362】以上の動作を、図107乃至109を参照
してさらに説明する。
The above operation will be further described with reference to FIGS.

【0363】いま、図107に示されているように、DV
Rトランスポートストリームファイルは、STC_sequence_
id=id0のSTC時間軸を有し、その時間軸が開始するソー
スパケット番号は、シーン開始点Aのソースパケット番
号より小さいものとする。そして、ソースパケット番号
BからCまでの間に、CM(コマーシャル)が挿入されて
いるものとする。
Now, as shown in FIG. 107, the DV
R transport stream file is STC_sequence_
It has an STC time axis of id = id0, and the source packet number at which the time axis starts is smaller than the source packet number of the scene start point A. It is assumed that a commercial (CM) is inserted between the source packet numbers B and C.

【0364】このとき、図70に示されるEP_Mapに対応
するEP_Mapには、図108に示されるように、RSPN_EP_
startで示されるA,B,Cに対応して、それぞれのPTS
が、PTS_EP_startとして、PTS(A),PTS(B),PTS(C)とし
て登録される。
At this time, in the EP_Map corresponding to the EP_Map shown in FIG. 70, as shown in FIG. 108, the RSPN_EP_
Each PTS corresponding to A, B, C indicated by start
Are registered as PTS_EP_start as PTS (A), PTS (B), and PTS (C).

【0365】また、図109に示されるように、図78
のClipMarkに対応するClipMarkには、図109に示され
るように、シーンスタート、CMスタート、およびCMエン
ドを表すマークタイプ(図79)0x92,0x94,0
x95の値に対応して、mark_entryとrepresentative_pi
cture_entryが記録される。
As shown in FIG. 109, FIG.
As shown in FIG. 109, mark types (FIG. 79) 0x92, 0x94, 0 representing a scene start, a CM start, and a CM end
mark_entry and representative_pi corresponding to the value of x95
cture_entry is recorded.

【0366】mark_entryのMark_Time_stampとしては、
シーンスタート、CMスタート、およびCMエンドに対応し
て、それぞれPTS(a1),PTS(b0),PTS(c0)が登録されてお
り、それぞれのSTC_sequence_idは、いずれもid0とさ
れている。
As Mark_Time_stamp of mark_entry,
PTS (a1), PTS (b0), and PTS (c0) are registered corresponding to the scene start, the CM start, and the CM end, respectively, and each of the STC_sequence_id is set to id0.

【0367】同様に、Representative_picture_entryの
Mark_Time_stampとして、シーンスタート、CMスター
ト、およびCMエンドに対応して、それぞれPTS(a2),PTS
(b0),PTS(c0)が登録されており、それらはいずれもSTC_
sequence_idが、id0とされている。
Similarly, the representation_picture_entry
Mark_Time_stamp is PTS (a2), PTS respectively corresponding to scene start, CM start, and CM end.
(b0) and PTS (c0) are registered, and they are all STC_
sequence_id is set to id0.

【0368】PTS(A)< PTS(a1)の場合、ステップS6に
おいて、パケット番号Aが取得され、ステップS7にお
いて、パケット番号Aから始まるトランスポートストリ
ームが、AVデコーダ27に供給され、ステップS8にお
いて、PTS(a1)のピクチャから表示が開始される。
If PTS (A) <PTS (a1), the packet number A is obtained in step S6, the transport stream starting from the packet number A is supplied to the AV decoder 27 in step S7, and in step S8 , PTS (a1) starts display.

【0369】次に、図110のフローチャートを参照し
て、mark_entryとrepresentative_picture_entryのシン
タクスが、図81に示されるような構成である場合にお
けるCMスキップ再生の処理について、図110のフロー
チャートを参照して説明する。
Next, with reference to the flowchart of FIG. 110, CM skip reproduction processing in the case where the syntax of mark_entry and representative_picture_entry has a configuration as shown in FIG. 81 will be described with reference to the flowchart of FIG. 110. I do.

【0370】ステップS21において、制御部23は、
EP_map(図70)、STC_Info(図52)、Program_Info
(図54)、およびClipMark(図78)を記録媒体10
0から読み出す。ステップS22において、ユーザは、
ユーザインタフェース入出力としての端子24からCMス
キップ再生を指定する。
In step S21, the control unit 23
EP_map (FIG. 70), STC_Info (FIG. 52), Program_Info
(FIG. 54) and ClipMark (FIG. 78) on the recording medium 10.
Read from 0. In step S22, the user
CM skip reproduction is designated from a terminal 24 as a user interface input / output.

【0371】ステップS23において、制御部23は、
マークタイプ(図79)がCM開始点(0x94)である
マーク情報のPTSと、CM終了点(0x95)であるマー
ク情報のPTS、並びに対応するSTC_sequence_idを取得す
る(図81)。
In step S23, the control unit 23
The PTS of the mark information whose mark type (FIG. 79) is the CM start point (0x94), the PTS of the mark information whose CM end point is (0x95), and the corresponding STC_sequence_id are acquired (FIG. 81).

【0372】ステップS24において、制御部23は、
STC_Info(図52)からCM開始点と終了点の、STC_sequ
ence_idに対応するSTC時間軸が開始するソースパケット
番号を取得する。
At step S24, the control unit 23
STC_sequ of CM start point and end point from STC_Info (FIG. 52)
Get the source packet number where the STC time axis corresponding to ence_id starts.

【0373】ステップS25において、制御部23は、
記録媒体100からトランスポートストリームを読み出
させ、それをAVデコーダ27に供給し、デコードを開始
させる。
In step S25, the control unit 23
The transport stream is read from the recording medium 100, supplied to the AV decoder 27, and decoding is started.

【0374】ステップS26において、制御部23は、
現在の表示画像がCM開始点のPTSの画像か否かを調べ
る。現在の表示画像がCM開始点のPTSの画像でない場合
には、ステップS27に進み、制御部23は、画像の表
示が継続される。その後、処理はステップS25に戻
り、それ以降の処理が繰り返し実行される。
At step S26, the control unit 23
It is checked whether the current display image is a PTS image at the CM start point. If the current display image is not the image of the PTS at the CM start point, the process proceeds to step S27, and the control unit 23 continues to display the image. Thereafter, the process returns to step S25, and the subsequent processes are repeatedly executed.

【0375】ステップS26において、現在の表示画像
がCM開始点のPTSの画像であると判定された場合、ステ
ップS28に進み、制御部23は、AVデコーダ27を制
御し、デコードおよび表示を停止させる。
If it is determined in step S26 that the current display image is the PTS image at the CM start point, the process proceeds to step S28, where the control unit 23 controls the AV decoder 27 to stop decoding and displaying. .

【0376】次に、ステップS29において、制御部2
3は、CM終了点のSTC_sequence_idに対応するSTC時間軸
が開始するパケット番号を取得し、そのパケット番号
と、ステップS23の処理で取得したCM終了点のPTSと
から、その点のPTSより時間的に前で、かつ、最も近い
エントリーポイントのあるソースパケット番号を取得す
る。
Next, in step S29, the control unit 2
3 obtains a packet number at which the STC time axis corresponding to the STC_sequence_id of the CM end point starts, and obtains a time difference from the PTS of that point based on the packet number and the PTS of the CM end point obtained in the process of step S23. And the source packet number with the closest entry point.

【0377】ステップS30において、制御部23は、
ステップS29の処理で取得したエントリーポイントの
あるソースパケット番号から、トランスポートストリー
ムのデータを読み出し、AVデコーダ27に供給させる。
At step S30, the control unit 23
The data of the transport stream is read from the source packet number having the entry point acquired in the process of step S29, and supplied to the AV decoder 27.

【0378】ステップS31において、制御部23は、
AVデコーダ27を制御し、CM終了点のPTSのピクチャか
ら表示を再開させる。
At step S31, the control unit 23
The AV decoder 27 is controlled to restart the display from the picture of the PTS at the CM end point.

【0379】図107乃至図109を参照して、以上の
動作をさらに説明すると、CM開始点とCM終了点は、この
例の場合、STC_sequence_id=id0という共通のSTC時間軸
上に存在し、そのSTC時間軸が開始するソースパケット
番号は、シーンの開始点のソースパケット番号Aより小
さいものとされている。
The above operation will be further described with reference to FIGS. 107 to 109. In this example, the CM start point and the CM end point exist on a common STC time axis of STC_sequence_id = id0. The source packet number at which the STC time axis starts is smaller than the source packet number A at the start point of the scene.

【0380】トランスポートストリームがデコードさ
れ、ステップS26で、表示時刻がPTS(b0)になったと
判定された場合(CM開始点であると判定された場合)、
AVデコーダ27により表示が停止される。そして、PTS
(C)<PTS(c0)の場合、ステップS30でパケット番号C
のデータから始まるストリームからデコードが再開さ
れ、ステップS31において、PTS(c0)のピクチャから
表示が再開される。
[0380] If the transport stream is decoded and it is determined in step S26 that the display time has reached PTS (b0) (if it has been determined that it is the CM start point),
The display is stopped by the AV decoder 27. And PTS
If (C) <PTS (c0), the packet number C
The decoding is restarted from the stream starting from the data of the above, and in step S31, the display is restarted from the picture of PTS (c0).

【0381】なお、この方法は、CMスキップ再生に限ら
ず、一般的にClipMarkで指定される2点間のシーンをス
キップして再生する場合にも、適用可能である。
Note that this method is applicable not only to CM skip reproduction but also to reproduction in which a scene between two points specified by ClipMark is generally skipped.

【0382】次に、mark_entryとrepresentative_pictu
re_entryが、図82に示すシンタクス構造である場合に
おける、マーク点で示されるCMの頭出し再生処理につい
て、図112のフローチャートを参照して説明する。
Next, mark_entry and representative_pictu
With reference to the flowchart in FIG. 112, a description will be given, with reference to the flowchart in FIG. 112, of the process of searching for a CM indicated by a mark point when re_entry has the syntax structure shown in FIG.

【0383】ステップS41において、制御部23は、
EP_map(図70)、STC_Info(図52)、Program_Info
(図54)、およびClipMark(図78)の情報を取得す
る。
In step S41, the control unit 23
EP_map (FIG. 70), STC_Info (FIG. 52), Program_Info
(FIG. 54) and ClipMark (FIG. 78) information.

【0384】次にステップS42において、制御部23
は、ステップS41で読み出したClipMark(図78)に
含まれるrepresentative_picture_entry(図82)また
はref_thumbnail_indexで参照されるピクチャからサム
ネイルのリストを生成し、GUIのメニュー画面上に表示
させる。ref_thumbnail_indexが有効な値を有する場
合、representative_picture_entryよりref_thumbnail_
indexが優先される。
Next, in step S42, the control unit 23
Generates a list of thumbnails from the pictures referenced by the representative_picture_entry (FIG. 82) or the ref_thumbnail_index included in the ClipMark (FIG. 78) read in step S41, and displays the thumbnail list on the menu screen of the GUI. If ref_thumbnail_index has a valid value, ref_thumbnail_
index takes precedence.

【0385】ステップS43において、ユーザは再生開
始点のマーク点を指定する。この指定は、例えば、ステ
ップS42の処理で表示されたメニュー画面上の中か
ら、ユーザがサムネイル画像を選択し、そのサムネイル
に対応づけられいるマーク点を指定することで行われ
る。
[0385] In step S43, the user specifies a mark point of a reproduction start point. This designation is performed, for example, by the user selecting a thumbnail image from the menu screen displayed in the process of step S42 and designating a mark point associated with the thumbnail.

【0386】ステップS44において、制御部23は、
ステップS43の処理で指定されたマーク点のRSPN_ref
_EP_startとoffset_num_pictures(図82)を取得す
る。
In step S44, the control unit 23
RSPN_ref of the mark point specified in the processing of step S43
_EP_start and offset_num_pictures (FIG. 82) are obtained.

【0387】ステップS45において、制御部23は、
ステップS44で取得したRSPN_ref_EP_startに対応す
るソースパケット番号からトランスポートストリームの
データを読み出し、AVデコーダ27に供給させる。
[0387] In step S45, the control unit 23
The data of the transport stream is read from the source packet number corresponding to RSPN_ref_EP_start obtained in step S44, and supplied to the AV decoder 27.

【0388】ステップS46において、制御部23は、
AVデコーダ27を制御し、RSPN_ref_EP_startで参照さ
れるピクチャから(表示はしないで)、表示すべきピク
チャをカウントアップしていき、カウント値がoffset_n
um_picturesになったとき、そのピクチャから表示を開
始させる。
At step S46, the control unit 23
The AV decoder 27 is controlled, and the picture to be displayed is counted up from the picture referenced by RSPN_ref_EP_start (not displayed), and the count value becomes offset_n
When it becomes um_pictures, display is started from that picture.

【0389】以上の処理を、図113乃至図115を参
照して、さらに説明する。この例においては、DVRトラ
ンスポートストリームファイルは、ソースパケット番号
Aからシーンが開始しており、ソースパケット番号Bか
らソースパケットCまでCMが挿入されている。このた
め、図114に示されるように、EP_mapには、RSPN_EP_
startとしてのA,B,Cに対応して、PTS_EP_startと
して、PTS(A),PTS(B),PTS(C)が登録されている。
The above processing will be further described with reference to FIGS. 113 to 115. In this example, the scene starts from the source packet number A in the DVR transport stream file, and CMs are inserted from the source packet number B to the source packet C. Therefore, as shown in FIG. 114, the EP_map includes the RSPN_EP_
PTS (A), PTS (B), and PTS (C) are registered as PTS_EP_start corresponding to A, B, and C as start.

【0390】また、図115に示されるように、シーン
スタート、CMスタート、およびCMエンドのマークタイプ
に対応して、mark_entryとrepresentative_picture_ent
ryが登録されている。mark_entryには、シーンスター
ト、CMスタート、およびCMエンドに対応して、RSPN_ref
_EP_startとして、それぞれA,B,Cが登録され、off
set_num_picturesとして、M1,N1,N2が登録され
ている。同様に、representative_picture_entryには、
RSPN_ref_EP_startとして、シーンスタート、CMスター
ト、およびCMエンドに対応して、それぞれA,B,Cが
登録され、offset_num_picturesとして、M2,N1,
N2がそれぞれ登録されている。
Also, as shown in FIG. 115, mark_entry and representative_picture_ent correspond to the mark types of scene start, CM start, and CM end.
ry is registered. mark_entry contains RSPN_ref corresponding to the scene start, CM start, and CM end.
A, B, and C are registered as _EP_start, and off
M1, N1, and N2 are registered as set_num_pictures. Similarly, representative_picture_entry contains
A, B, and C are registered as RSPN_ref_EP_start corresponding to a scene start, a CM start, and a CM end, respectively, and M2, N1, as offset_num_pictures.
N2 are registered.

【0391】シーンスタートに当たるピクチャから頭出
して再生が指令された場合、パケット番号Aのデータか
ら始まるストリームからデコードが開始され、PTS(A)の
ピクチャから(表示をしないで)表示すべきピクチャを
カウントアップをしていき、offset_num_picturesが、
M1の値になったとき、そのピクチャから表示が開始さ
れる。
When playback is instructed starting from the picture corresponding to the scene start, decoding is started from the stream starting from the data of packet number A, and the picture to be displayed (without display) is started from the picture of PTS (A). Count up, offset_num_pictures,
When the value of M1 is reached, display is started from the picture.

【0392】さらに、mark_entryとrepresentative_pic
ture_entryのシンタクスが、図82に示される構成であ
る場合におけるCMスキップ再生の処理について、図11
6のフローチャートを参照して説明する。
Further, mark_entry and representative_pic
FIG. 11 shows the CM skip reproduction process when the syntax of the “ture_entry” has the configuration shown in FIG.
This will be described with reference to the flowchart of FIG.

【0393】ステップS61において、制御部23は、
EP_map(図70)、STC_Info(図52)、Program_Info
(図54)、およびClipMark(図78)の情報を取得す
る。
In step S61, the control unit 23
EP_map (FIG. 70), STC_Info (FIG. 52), Program_Info
(FIG. 54) and ClipMark (FIG. 78) information.

【0394】ステップS62において、ユーザがCMスキ
ップ再生を指令すると、ステップS63において、制御
部23は、マークタイプ(図79)がCM開始点とCM終了
点である各点のマーク情報として、RSPN_ref_EP_START
とoffset_num_pictures(図82)を取得する。そし
て、CM開始点のデータは、RSPN_ref_EP_start(1),offse
t_num_pictures(1)とされ、CM終了点のデータは、RSPN_
ref_EP_start(2),offset_num_pictures(2)とされる。
[0394] In step S62, when the user instructs CM skip reproduction, in step S63, the control unit 23 sets RSPN_ref_EP_START as mark information of each point whose mark type (FIG. 79) is the CM start point and the CM end point.
And offset_num_pictures (FIG. 82). The data at the CM start point is RSPN_ref_EP_start (1), offse
t_num_pictures (1), and the data at the CM end point is RSPN_pictures.
ref_EP_start (2) and offset_num_pictures (2).

【0395】ステップS64において、制御部23は、
RSPN_ref_EP_start(1),RSPN_ref_EP_start(2)に対応す
るPTSをEP_map(図70)から取得する。
In step S64, the control unit 23
The PTS corresponding to RSPN_ref_EP_start (1) and RSPN_ref_EP_start (2) is acquired from EP_map (FIG. 70).

【0396】ステップS65において、制御部23は、
トランスポートストリームを記録媒体100から読み出
させ、AVデコーダ27に供給させる。
In step S65, the control unit 23
The transport stream is read from the recording medium 100 and supplied to the AV decoder 27.

【0397】ステップS66において、制御部23は、
現在の表示画像がRSPN_ref_EP_start(1)に対応するPTS
のピクチャであるか否かを判定し、現在の表示画像がRS
PN_ref_EP_start(1)に対応するPTSのピクチャでない場
合には、ステップS67に進み、ピクチャをそのまま継
続的に表示させる。その後、処理はステップS65に戻
り、それ以降の処理が繰り返し実行される。
At step S66, the control unit 23
PTS whose current display image corresponds to RSPN_ref_EP_start (1)
It is determined whether the current picture is RS
If the picture is not a PTS picture corresponding to PN_ref_EP_start (1), the process proceeds to step S67, and the picture is continuously displayed as it is. Thereafter, the process returns to step S65, and the subsequent processes are repeatedly executed.

【0398】ステップS66において、現在の表示画像
がRSPN_ref_EP_start(1)に対応するPTSのピクチャであ
ると判定された場合、ステップS68に進み、制御部2
3は、AVデコーダ27を制御し、RSPN_ref_EP_start(1)
に対応するPTSのピクチャから表示するピクチャをカウ
ントアップしていき、カウント値がoffset_num_picture
s(1)になったとき、表示を停止させる。
If it is determined in step S66 that the current display image is a PTS picture corresponding to RSPN_ref_EP_start (1), the flow advances to step S68 to execute control unit 2
3 controls the AV decoder 27, and RSPN_ref_EP_start (1)
The picture to be displayed is counted up from the picture of the PTS corresponding to, and the count value is offset_num_picture.
Stops the display when s (1) is reached.

【0399】ステップS69において、制御部23は、
RSPN_ref_EP_start(2)のソースパケット番号からトラン
スポートストリームのデータを読み出し、AVデコーダ2
7に供給させる。
At step S69, the control unit 23
The data of the transport stream is read from the source packet number of RSPN_ref_EP_start (2),
7 is supplied.

【0400】ステップS70において、制御部23は、
AVデコーダ27を制御し、RSPN_ref_EP_start(2)に対応
するPTSのピクチャから(表示をしないで)表示すべき
ピクチャをカウントアップしていき、カウント値がoffs
et_num_pictures(2)になったとき、そのピクチャから表
示を開始させる。
In step S70, the control unit 23
The AV decoder 27 is controlled to count up the picture to be displayed (without display) from the picture of the PTS corresponding to RSPN_ref_EP_start (2), and the count value becomes offs
When et_num_pictures (2) is reached, display starts from that picture.

【0401】以上の動作を、図113乃至図115を参
照してさらに説明すると、まず、EP_map(図114)を
もとに、パケット番号B,Cに対応する時刻PTS(B),PTS
(C)が得られる。そして、Clip AV streamがデコードさ
れていき、表示時刻がPTS(B)になったとき、PTS(B)のピ
クチャから表示ピクチャがカウントアップされ、その値
がN1(図115)になったとき、表示が停止される。
The above operation will be further described with reference to FIGS. 113 to 115. First, based on the EP_map (FIG. 114), the times PTS (B) and PTS corresponding to the packet numbers B and C are determined.
(C) is obtained. When the Clip AV stream is decoded and the display time reaches PTS (B), the display picture is counted up from the picture of PTS (B), and when the value becomes N1 (FIG. 115), The display is stopped.

【0402】さらに、パケット番号Cのデータから始ま
るストリームからデコードが再開され、PTS(C)のピクチ
ャから(表示をしないで)表示すべきピクチャをカウン
トアップしていき、その値がN2(図115)になった
とき、そのピクチャから表示が再開される。
[0402] Further, decoding is restarted from the stream starting from the data of the packet number C, and the pictures to be displayed are counted up (not displayed) from the picture of the PTS (C), and the value is set to N2 (Fig. 115). ), The display is restarted from the picture.

【0403】以上の処理は、CMスキップ再生に限らず、
ClipMarkで指定された2点間のシーンをスキップさせて
再生する場合にも、適用可能である。
The above processing is not limited to CM skip reproduction,
The present invention is also applicable to a case where a scene between two points designated by ClipMark is skipped and reproduced.

【0404】次に、mark_entryとrepresentative_pictu
re_entryのシンタクスが、図84に示すような構成であ
る場合における、マーク点で示されるシーンの頭出し再
生処理について、図118のフローチャートを参照して
説明する。
Next, mark_entry and representative_pictu
With reference to the flowchart of FIG. 118, a description will be given, with reference to the flowchart of FIG. 118, of the process of searching for the beginning of a scene indicated by a mark point when the syntax of re_entry has the configuration shown in FIG.

【0405】ステップS81において、EP_map(図7
0)、STC_Info(図52)、Program_Info(図54)、
並びにClipMark(図78)の情報が取得される。
In step S81, the EP_map (FIG. 7)
0), STC_Info (FIG. 52), Program_Info (FIG. 54),
In addition, information of ClipMark (FIG. 78) is obtained.

【0406】ステップS82において、制御部23は、
ClipMark(図78)のrepresentative_picture_entryま
たはref_thumbnail_indexで参照されるピクチャからサ
ムネイルのリストを生成し、GUIのメニュー画面として
表示させる。ref_thumbnail_indexが有効な値を有する
場合、representative_picture_entryよりref_thumbnai
l_indexが優先される。
[0406] In step S82, the control unit 23
A list of thumbnails is generated from the pictures referenced by the representative_picture_entry or ref_thumbnail_index of ClipMark (FIG. 78) and displayed as a GUI menu screen. If ref_thumbnail_index has a valid value, ref_thumbnai from representative_picture_entry
l_index has priority.

【0407】ステップS83において、ユーザは再生開
始点のマーク点を指定する。この指定は、例えば、メニ
ュー画面上の中からユーザがサムネイル画像を選択し、
そのサムネイルに対応づけられているマーク点を指定す
ることで行われる。
[0407] In step S83, the user specifies a mark point of the reproduction start point. For example, the user selects a thumbnail image from the menu screen,
This is performed by designating a mark point associated with the thumbnail.

【0408】ステップS84において、制御部23は、
ユーザから指定されたmark_entryのRSPN_mark_point
(図84)を取得する。
[0408] In step S84, the control unit 23
RSPN_mark_point of mark_entry specified by user
(FIG. 84).

【0409】ステップS85において、制御部23は、
マーク点のRSPN_mark_pointより前にあり、かつ、最も
近いエントリーポイントのソースパケット番号を、EP_m
ap(図70)から取得する。
[0409] In step S85, the control unit 23
The source packet number of the entry point that is before the RSPN_mark_point of the mark point and is the closest is EP_m
ap (FIG. 70).

【0410】ステップS86において、制御部23は、
ステップS85で取得したエントリーポイントに対応す
るソースパケット番号からトランスポートストリームの
データを読み出し、AVデコーダ27に供給させる。
[0410] In step S86, the control unit 23
The transport stream data is read from the source packet number corresponding to the entry point acquired in step S85, and supplied to the AV decoder 27.

【0411】ステップS87において、制御部23は、
AVデコーダ27を制御し、RSPN_mark_pointで参照され
るピクチャから表示を開始させる。
[0411] In step S87, the control unit 23
The AV decoder 27 is controlled to start displaying from the picture referenced by the RSPN_mark_point.

【0412】以上の処理を、図119乃至図121を参
照してさらに説明する。この例においては、DVRトラン
スポートストリームファイルが、ソースパケットAでシ
ーンスタートし、ソースパケット番号BからCまでCMが
挿入されている。このため、図120のEP_mapには、RS
PN_EP_startとしてのA,B,Cに対応して、PTS_EP_st
artがそれぞれPTS(A),PTS(B),PTS(C)として登録されて
いる。また、図121に示されるClipMarkに、シーンス
タート、CMスタート、およびCMエンドに対応して、mark
entryのRSPN_mark_pointとして、a1,b1,c1が、
また、representative_picture_entryのRSPN_mark_poin
tとして、a2,b1,c1が、それぞれ登録されてい
る。
[0412] The above processing will be further described with reference to Figs. In this example, the DVR transport stream file starts a scene with a source packet A, and CMs from source packet numbers B to C are inserted. For this reason, the EP_map in FIG.
PTS_EP_st corresponding to A, B, and C as PN_EP_start
art is registered as PTS (A), PTS (B), PTS (C), respectively. In addition, mark corresponding to the scene start, the CM start, and the CM end is added to the ClipMark shown in FIG.
As the RSPN_mark_point of the entry, a1, b1, c1 are:
Also, RSPN_mark_poin of representative_picture_entry
a2, b1, and c1 are registered as t.

【0413】シーンスタートにあたるピクチャから頭出
して再生する場合、パケット番号A<a1とすると、パ
ケット番号Aのデータから始まるストリームからデコー
ドが開始され、ソースパケット番号a1に対応するピク
チャから表示が開始される。
[0413] In the case of starting playback from the picture corresponding to the scene start, if packet number A <a1, decoding starts from the stream starting from the data of packet number A, and display starts from the picture corresponding to source packet number a1. You.

【0414】次に、mark_entryとrepresentative_pictu
re_entryのシンタクスが、図84に示されるような構成
である場合におけるCMスキップ再生の処理について、図
122と図123のフローチャートを参照して説明す
る。
Next, mark_entry and representative_pictu
With reference to the flowcharts of FIGS. 122 and 123, a description will be given of the CM skip reproduction process in the case where the syntax of re_entry has a configuration as shown in FIG.

【0415】ステップS101において、制御部23
は、EP_map(図70)、STC_Info(図52)、Program_
Info(図54)、並びにClipMark(図70)の情報を取
得する。
[0415] In step S101, the control unit 23
Are EP_map (FIG. 70), STC_Info (FIG. 52), Program_
Info (FIG. 54) and ClipMark (FIG. 70) information are acquired.

【0416】ステップS102において、ユーザは、CM
スキップ再生を指定する。
[0416] In step S102, the user sets the CM
Specify skip playback.

【0417】ステップS103において、制御部23
は、マークタイプ(図79)がCM開始点とCM終了点であ
る各点のマーク情報のRSPN_mark_point(図84)を取
得する。そして、制御部23は、CM開始点のデータをRS
PN_mark_point(1)とし、CM終了点のデータをRSPN_ma
rk_point(2)とする。
[0417] In step S103, the control unit 23
Acquires the RSPN_mark_point (FIG. 84) of the mark information of each mark whose mark type (FIG. 79) is the CM start point and the CM end point. Then, the control unit 23 sends the data of the CM start point to the RS
PN_mark_point (1) and CMPN end point data is RSPN_ma
Let it be rk_point (2).

【0418】ステップS104において、制御部23
は、記録媒体100からトランスポートストリームを読
み出させ、AVデコーダ27に出力し、デコードさせる。
[0418] In step S104, the control unit 23
Causes the transport stream to be read from the recording medium 100, output to the AV decoder 27, and decoded.

【0419】ステップS105において、制御部23
は、現在の表示画像がRSPN_mark_point(1)に対応す
るピクチャであるか否かを判定し、現在の表示画像がRS
PN_mark_point(1)に対応するピクチャでない場合に
は、ステップS106に進み、そのままピクチャを継続
的に表示させる。その後、処理はステップS104に戻
り、それ以降の処理が繰り返し実行される。
[0419] In step S105, the control unit 23
Determines whether the current display image is a picture corresponding to RSPN_mark_point (1) and determines whether the current display image is RSPN_mark_point (1).
If the picture does not correspond to PN_mark_point (1), the process proceeds to step S106, and the picture is continuously displayed as it is. Thereafter, the process returns to step S104, and the subsequent processes are repeatedly executed.

【0420】ステップS105において、現在の表示画
像がRSPN_mark_point(1)に対応するピクチャである
と判定された場合、ステップS107に進み、制御部2
3はAVデコーダ27を制御し、デコードおよび表示を停
止させる。
[0420] If it is determined in step S105 that the current display image is a picture corresponding to the RSPN_mark_point (1), the flow advances to step S107, and the control unit 2
3 controls the AV decoder 27 to stop decoding and display.

【0421】次に、ステップS108において、RSPN_m
ark_point(2)より前にあり、かつ、最も近いエント
リーポイントのあるソースパケット番号がEP_map(図7
0)から取得される。
Next, in step S108, RSPN_m
The source packet number before ark_point (2) and having the nearest entry point is EP_map (FIG. 7).
0).

【0422】ステップS109において、制御部23
は、ステップS108で取得したエントリーポイントに
対応するソースパケット番号からトランスポートストリ
ームのデータを読み出し、AVデコーダ27に供給させ
る。
At step S109, control unit 23
Reads the data of the transport stream from the source packet number corresponding to the entry point acquired in step S108, and supplies the data to the AV decoder 27.

【0423】ステップS110において、制御部23
は、AVデコーダ27を制御し、RSPN_mark_point(2)
で参照されるピクチャから表示を再開させる。
[0423] In step S110, the control unit 23
Controls the AV decoder 27 and RSPN_mark_point (2)
The display is restarted from the picture referenced by.

【0424】以上の処理を図119乃至図121の例で
さらに説明すると、Clip AV streamをデコードして行
き、ソースパケット番号b1(図121)に対応する表
示ピクチャになったとき、表示が停止される。そして、
ソースパケット番号C<ソースパケット番号c1とする
と、パケット番号Cのデータから始まるストリームから
デコードが再開され、ソースパケット番号c1に対応す
るピクチャになったとき、そのピクチャから表示が再開
される。
The above processing will be further described with reference to the examples of FIGS. 119 to 121. When the Clip AV stream is decoded and the display picture corresponding to the source packet number b1 (FIG. 121) is displayed, the display is stopped. You. And
If the source packet number C is smaller than the source packet number c1, the decoding is restarted from the stream starting from the data of the packet number C, and when the picture corresponding to the source packet number c1 is reached, the display is restarted from the picture.

【0425】以上のようにして、図124に示されるよ
うに、PlayList上で、タイムスタンプにより所定の位置
を指定し、このタイムスタンプを各ClipのClip Informa
tionにおいて、データアドレスに変換し、Clip AV stre
amの所定の位置にアクセスすることができる。
[0425] As described above, as shown in Fig. 124, a predetermined position is designated by the time stamp on the PlayList, and this time stamp is set to the Clip Informa of each Clip.
is converted to a data address in the Clip AV stre
am able to access a given location.

【0426】より具体的には、図125に示されるよう
に、PlayList上において、PlayListMarkとしてブックマ
ークやリジューム点を、ユーザが時間軸上のタイムスタ
ンプとして指定すると、そのPlayListは再生するとき、
そのPlayListが参照しているClipのClipMarkを使用し
て、Clip AV streamのシーン開始点やシーン終了点にア
クセスすることができる。
More specifically, as shown in FIG. 125, when a user designates a bookmark or a resume point as a PlayListMark on a PlayList as a time stamp on a time axis, the PlayList is reproduced at the time of reproduction.
Using the ClipMark of the Clip referenced by the PlayList, the scene start point and scene end point of the Clip AV stream can be accessed.

【0427】なお、ClipMarkのシンタクスは、図78の
例に替えて、図126に示すようにすることもできる。
Note that the syntax of ClipMark can be as shown in FIG. 126 instead of the example of FIG.

【0428】この例においては、RSPN_markが、図78
のreserved_for_MakerID, mark_entry()、およびrepr
esetative_picture_entry()に替えて挿入されてい
る。このRSPN_markの32ビットのフィールドは、AVス
トリームファイル上で、そのマークが参照するアクセス
ユニットの第1バイト目を含むソースパケットの相対ア
ドレスを示す。RSPN_markは、ソースパケット番号を単
位とする大きさであり、AVストリームファイルの最初の
ソースパケットからClip Information fileにおいて定
義され、offset_SPNの値を初期値としてカウントされ
る。
In this example, RSPN_mark is
Reserved_for_MakerID, mark_entry (), and repr
Inserted instead of esetative_picture_entry (). The 32-bit field of the RSPN_mark indicates the relative address of the source packet including the first byte of the access unit referred to by the mark on the AV stream file. The RSPN_mark has a size in units of source packet numbers, is defined in the Clip Information file from the first source packet of the AV stream file, and is counted using the value of offset_SPN as an initial value.

【0429】その他の構成は、図78における場合と同
様である。
The other structures are the same as those in FIG.

【0430】ClipMarkのシンタクスは、さらに図127
に示すように構成することもできる。この例において
は、図126におけるRSPN_markの代わりに、RSPN_ref_
EP_startとoffset_num_picturesが挿入されている。こ
れらは、図82に示した場合と同様のものである。
The syntax of ClipMark is further shown in FIG.
It can also be configured as shown in FIG. In this example, instead of RSPN_mark in FIG. 126, RSPN_ref_
EP_start and offset_num_pictures are inserted. These are the same as those shown in FIG.

【0431】次に、図128は、ClipInfo()のシンタク
スの別例を示す。
[0431] Fig. 128 shows another example of the syntax of ClipInfo ().

【0432】Clip_service_typeは、AVストリームファ
イルのタイプを示す。例えば、Clip_service_typeは、
ビデオレコーディングやオーディオレコーディングなど
のタイプを示す。また、例えば、Clip_service_type
は、ディジタルTV放送のプログラムが示すサービスタ
イプと同じ意味を持たせても良い。例えば、日本のディ
ジタルBS放送の場合、サービスタイプは、テレビサービ
ス,音声サービスおよびデータ放送サービスの3種類を
持つ。AVストリームが含むプログラムのサービスタイプ
を代表する値をClip_service_typeにセットする。
[0432] Clip_service_type indicates the type of the AV stream file. For example, Clip_service_type is
Indicates types such as video recording and audio recording. Also, for example, Clip_service_type
May have the same meaning as the service type indicated by the digital TV broadcast program. For example, in the case of Japanese digital BS broadcasting, there are three service types: a television service, a voice service, and a data broadcasting service. A value representing the service type of the program included in the AV stream is set in Clip_service_type.

【0433】transcode_mode_flagは、ディジタル放送
から受信されたMPEG2 トランスポートストリームの記
録方法を示すフラグである。このフラグが1にセットさ
れている場合、Clipに対応するAVストリームファイル中
の少なくとも1つのエレメンタリーストリームは再符号
化されて記録されたことを示す。このフラグが1にセッ
トされている場合、Clipに対応するAVストリームファイ
ル中のすべてのエレメンタリーストリームはディジタル
放送から受信されたままの内容で何も変更されないで記
録されたことを示す。
[0433] transcode_mode_flag is a flag indicating the recording method of the MPEG-2 transport stream received from the digital broadcast. When this flag is set to 1, it indicates that at least one elementary stream in the AV stream file corresponding to the Clip has been re-encoded and recorded. When this flag is set to 1, it indicates that all the elementary streams in the AV stream file corresponding to the Clip have been recorded without any change with the contents as received from the digital broadcast.

【0434】その他のシンタクスフィールドは、図46
で説明した同名のフィールドと同じ意味を持つ。
The other syntax fields are shown in FIG.
It has the same meaning as the field of the same name described in.

【0435】次に、図129を参照して、ProgramInf
o()の別例について説明する。
Next, referring to FIG.
Another example of o () will be described.

【0436】AVストリームファイルの中で本フォーマッ
トが規定するところのプログラム内容が一定であるソー
スパケット列を、program-sequenceと呼ぶ。
[0436] A source packet sequence in the AV stream file in which the program content defined by this format is constant is called a program-sequence.

【0437】AVストリームファイルの中で、新しいprog
ram-sequenceが開始するアドレスをProgramInfo()にス
トアする。このアドレスは、SPN_program_sequence_sta
rtにより示される。
[0437] In the AV stream file, the new prog
The address where the ram-sequence starts is stored in ProgramInfo (). This address is SPN_program_sequence_sta
Indicated by rt.

【0438】AVストリームファイルの中にある最後のpr
ogram-sequence以外のprogram-sequenceは、そのSPN_pr
ogram_sequence_startで指されるソースパケットから開
始し、その次のSPN_program_sequence_startで指される
ソースパケットの直前のソースパケットで終了する。最
後のprogram_sequenceは、そのSPN_program_sequence_s
tartで指されるソースパケットから開始し、AVストリー
ムファイルの最後のソースパケットで終了する。
[0438] The last pr in the AV stream file
For program-sequences other than ogram-sequence, the SPN_pr
It starts with the source packet pointed to by ogram_sequence_start and ends with the source packet immediately before the next source packet pointed to by SPN_program_sequence_start. The last program_sequence is its SPN_program_sequence_s
Start with the source packet pointed to by tart and end with the last source packet of the AV stream file.

【0439】program-sequenceは、STC-sequenceの境界
をまたいでも良い。
[0439] The program-sequence may cross the STC-sequence boundary.

【0440】lengthは、このlengthフィールドの直後の
バイトからProgramInfo()の最後のバイトまでのバイト
数を示す。
[0440] length indicates the number of bytes from the byte immediately after this length field to the last byte of ProgramInfo ().

【0441】num_of_program_sequencesは、AVストリー
ムファイルの中にあるprogram-sequenceの数を示す。
[0441] num_of_program_sequences indicates the number of program-sequences in the AV stream file.

【0442】SPN_program_sequence_startは、AVストリ
ームファイル上でprogram-sequenceが開始するアドレス
を示す。SPN_program_sequence_startは、ソースパケッ
ト番号を単位とする大きさであり、AVストリームファイ
ルの最初のソースパケットから、ゼロを初期値としてカ
ウントされる。
[0442] SPN_program_sequence_start indicates the address where program-sequence starts on the AV stream file. SPN_program_sequence_start has a size in units of source packet numbers, and is counted from the first source packet of the AV stream file with zero as an initial value.

【0443】ProgramInfo()の中でエントリーされるSPN
_program_sequence_startの値は、昇順に並んでいる。
[0443] SPN entered in ProgramInfo ()
The values of _program_sequence_start are arranged in ascending order.

【0444】SPN_program_sequence_startは、そのprog
ram_sequenceに対する最初のPMTを持つソースパケット
を指していることを前提とする。SPN_program_sequence
_startは、記録機(図1の記録再生装置1)がトランス
ポートストリーム中のPSI/SIを解析することによって作
られる。記録機がPSI/SIを解析し、その変化を検出する
までの遅延時間が必要なために、SPN_program_sequence
_startは、実際のPSI/SIの変化点から所定の時間以内に
あるソースパケットを指しても良い。
[0444] SPN_program_sequence_start is the prog
Assume that it points to the source packet with the first PMT for ram_sequence. SPN_program_sequence
_start is created by the recorder (recording / reproducing apparatus 1 in FIG. 1) analyzing PSI / SI in the transport stream. SPN_program_sequence is required because the recorder needs a delay time to analyze PSI / SI and detect the change.
_start may indicate a source packet within a predetermined time from the actual PSI / SI change point.

【0445】program_map_PIDは、そのprogram-sequenc
eに適用できるPMT(program map table)を持つトランス
ポートパケットのPIDの値である。
[0445] The program_map_PID is the program-sequenc
This is a PID value of a transport packet having a PMT (program map table) applicable to e.

【0446】num_of_streams_in_psは、そのprogram-se
quenceの中で定義されるエレメンタリーストリームの数
を示す。
[0446] num_of_streams_in_ps is the program-se
Indicates the number of elementary streams defined in the quence.

【0447】num_of_groupsは、そのprogram-sequence
の中で定義されるエレメンタリーストリームのグループ
の数を示す。num_of_groupsは、1以上の値である。
[0447] num_of_groups is the program-sequence
Indicates the number of elementary stream groups defined in the. num_of_groups is a value of 1 or more.

【0448】トランスポートストリームのPSI/SIがエレ
メンタリーストリームのグループ情報を持つ場合、num_
of_groupsは、1以上の値をとることを想定している。
それぞれのグループは、マルチ・ビュー・プログラム中の
1つのビューを構成する。
If the PSI / SI of the transport stream has the elementary stream group information,
of_groups is assumed to take one or more values.
Each group makes up one view in the multi-view program.

【0449】stream_PIDは、そのprogram-sequenceのpr
ogram_map_PIDが参照するところのPMTの中で定義されて
いるエレメンタリーストリームに対するPIDの値を示
す。
[0449] The stream_PID is the pr of the program-sequence.
Indicates the PID value for the elementary stream defined in the PMT referenced by ogram_map_PID.

【0450】StreamCodingInfo() は、上記stream_PID
で指されるエレメンタリーストリームの情報を示す。詳
細は後述する。
[0450] StreamCodingInfo () is the stream_PID
Indicates the information of the elementary stream indicated by. Details will be described later.

【0451】num_of_streams_in_groupは、エレメンタ
リーストリームのグループが持つエレメンタリーストリ
ームの数を示す。
[0451] num_of_streams_in_group indicates the number of elementary streams included in the elementary stream group.

【0452】stream_indexは、上記エレメンタリースト
リームのグループが持つエレメンタリーストリームに対
応するところの、シンタクス中のstream_indexのfor-lo
opで記述される順番で定義されるstream_indexの値を示
す。
[0452] The stream_index is the for-lo of the stream_index in the syntax corresponding to the elementary stream of the group of elementary streams.
Indicates the value of stream_index defined in the order described by op.

【0453】図30は、StreamCodingInfo()のシンタク
スを示す。
[0453] Fig. 30 shows the syntax of StreamCodingInfo ().

【0454】lengthは、このlengthフィールドの直後の
バイトからStreamCodingInfo()の最後のバイトまでのバ
イト数を示す。
[0454] length indicates the number of bytes from the byte immediately after this length field to the last byte of StreamCodingInfo ().

【0455】stream_coding_typeは、このStreamCoding
Info()に対応するstream_PIDで指されるエレメンタリー
ストリームの符号化タイプを示す。値の意味は、図13
1に示される。
[0455] The stream_coding_type is
Indicates the encoding type of the elementary stream indicated by stream_PID corresponding to Info (). The meaning of the values is shown in FIG.
1 is shown.

【0456】video_formatは、このStreamCodingInfo()
に対応するstream_PIDで指されるビデオストリームのビ
デオフォーマットを示す。
[0456] video_format is the StreamCodingInfo ()
Indicates the video format of the video stream pointed to by stream_PID corresponding to.

【0457】値の意味は、図56と同じである。The meaning of the value is the same as in FIG.

【0458】frame_rateは、このStreamCodingInfo()に
対応するstream_PIDで指されるビデオストリームのフレ
ームレートを示す。
[0458] frame_rate indicates the frame rate of the video stream specified by stream_PID corresponding to this StreamCodingInfo ().

【0459】値の意味は、図57と同じである。The meaning of the values is the same as in FIG.

【0460】display_aspect_ratioは、このStreamCodi
ngInfo()に対応するstream_PIDで指されるビデオストリ
ームのディスプレイ・アスペクト・レシオを示す。
[0460] The display_aspect_ratio is the StreamCodi
Indicates the display aspect ratio of the video stream pointed to by stream_PID corresponding to ngInfo ().

【0461】値の意味は、図58と同じである。The meaning of the values is the same as in FIG.

【0462】cc_flagは、このStreamCodingInfo()に対
応するstream_PIDで指されるビデオストリームの中でク
ローズド・キャプション(closed caption data)信号が符
号化されているか否かを示すフラグである。
[0462] The cc_flag is a flag indicating whether or not a closed caption data signal is encoded in the video stream pointed to by the stream_PID corresponding to the StreamCodingInfo ().

【0463】original_video_format_flagは、このStre
amCodingInfo()の中にoriginal_video_formatとorigina
l_display_aspect_ratioが存在するか否かを示すフラグ
である。
The original_video_format_flag is the Stre
original_video_format and originala in amCodingInfo ()
This flag indicates whether or not l_display_aspect_ratio exists.

【0464】original_video_formatは、このStreamCod
ingInfo()に対応するstream_PIDで指されるビデオスト
リームが符号化される前のオリジナルのビデオフォーマ
ットである。値の意味は、上記のvideo_format(図5
6)と同じである。
[0464] original_video_format is the StreamCod
This is the original video format before the video stream pointed to by stream_PID corresponding to ingInfo () is encoded. The meaning of the value is the above-mentioned video_format (Fig. 5
Same as 6).

【0465】original_display_aspect_ratioは、このS
treamCodingInfo()に対応するstream_PIDで指されるビ
デオストリームが符号化される前のオリジナルのディス
プレイ・アスペクト・レシオである。値の意味は、上記の
display_aspect_ratio(図58)と同じである。
[0465] original_display_aspect_ratio is
This is the original display aspect ratio before the video stream pointed to by stream_PID corresponding to streamCodingInfo () is encoded. The meaning of the value is
This is the same as display_aspect_ratio (FIG. 58).

【0466】ビデオストリームと共にマルチメディアデ
ータストリーム(BMLストリーム,字幕など)が多重化さ
れているトランスポートストリームをトランス・コーデ
ィングする場合において、ビデオストリームは再エンコ
ードされることによって、そのビデオフォーマットが変
化し(例えば、1080iから480iへ変化する)、一
方、マルチメディアデータストリームはオリジナルのス
トリームのままの内容を保つ場合を考える。この時、新
しいビデオストリームとマルチメディアデータストリー
ムの間に情報のミスマッチが生じる場合がある。例え
ば、マルチメディアデータストリームの表示に関するパ
ラメータは、オリジナルのビデオストリームのビデオフ
ォーマットを想定して決められているにもかかわらず、
ビデオストリームの再エンコードによって、そのビデオ
フォーマットが変化した場合である。このような場合、
original_video_formatとoriginal_display_aspect_rat
ioに、オリジナルのビデオストリームに関する情報を保
存する。再生機(図1の記録再生装置1)は、上記の新
しいビデオストリームとマルチメディアデータストリー
ムから次のようにして、表示画像をつくる。
When transcoding a transport stream in which a multimedia data stream (BML stream, subtitles, etc.) is multiplexed together with the video stream, the video stream changes its video format by being re-encoded. (For example, it changes from 1080i to 480i) On the other hand, consider a case where the multimedia data stream keeps the content of the original stream. At this time, information mismatch may occur between the new video stream and the multimedia data stream. For example, the parameters related to the display of a multimedia data stream are determined based on the video format of the original video stream.
This is the case where the video format changes due to the re-encoding of the video stream. In such a case,
original_video_format and original_display_aspect_rat
io stores information about the original video stream. The playback device (the recording / playback apparatus 1 in FIG. 1) creates a display image from the new video stream and the multimedia data stream as follows.

【0467】・ビデオストリームは、original_video_f
ormatとoriginal_display_aspect_ratioで示されるビデ
オフォーマットにアップ・サンプリングされる。・その
アップ・サンプリングされた画像とマルチメディアデー
タストリームが合成されて、正しい表示画像をつくる。
The video stream is original_video_f
Upsampled to the video format indicated by ormat and original_display_aspect_ratio. -The up-sampled image and the multimedia data stream are combined to create a correct display image.

【0468】audio_presentation_typeは、このStreamC
odingInfo()に対応するstream_PIDで指されるオーディ
オストリームのプレゼンテーション・タイプを示す。
[0468] The audio_presentation_type is the StreamC
Indicates the presentation type of the audio stream pointed to by stream_PID corresponding to odingInfo ().

【0469】値の意味は、図61のaudio_component_ty
peと同じである。
The meaning of the value is audio_component_ty in FIG.
Same as pe.

【0470】sampling_frequencyは、このStreamCoding
Info()に対応するstream_PIDで指されるオーディオスト
リームのサンプリング周波数を示す。
[0470] The sampling_frequency is the StreamCoding
Indicates the sampling frequency of the audio stream indicated by stream_PID corresponding to Info ().

【0471】値の意味は、図62と同じである。The meaning of the value is the same as in FIG.

【0472】次に、EP_mapの別例を示す。このEP_map
は、図70と図72で説明したPTS_EP_startとRSPN_EP_
startのデータをそのままEP_mapにストアするのではな
く、データ量の削減のために圧縮符号化して(図1の制
御部23が実行する)EP_mapにストアする。
Next, another example of the EP_map is shown. This EP_map
Are PTS_EP_start and RSPN_EP_ described in FIGS. 70 and 72.
Instead of storing the start data as it is in the EP_map, the data is compression-encoded to reduce the data amount (stored in the EP_map, which is executed by the control unit 23 in FIG. 1).

【0473】EP_mapは、少なくとも1つ以上のEP_map_f
or_one_stream_PID()と呼ばれるサブデーブルから成
る。サブデーブルEP_map_for_one_stream_PID()は、同
じPIDの値を持つトランスポートパケットによって伝送
される1つのエレメンタリーストリームに対して作られ
る。
[0473] EP_map includes at least one or more EP_map_f
It consists of a sub-table called or_one_stream_PID (). The sub-table EP_map_for_one_stream_PID () is created for one elementary stream transmitted by a transport packet having the same PID value.

【0474】EP_mapは、すべてのEP_map_for_one_strea
m_PID()のための次の情報を持つ。
[0474] The EP_map is all EP_map_for_one_strea
Contains the following information for m_PID ():

【0475】(1) stream_PID:そのEP_map_for_one_str
eam_PID()によって指されるエレメンタリーストリーム
を伝送するところのトランスポートパケットのPIDを特
定する。 (2) EP_stream_type:そのEP_map_for_one_stream_PI
D()のエントリーポイントのタイプを示す。 (3) EP_map_for_one_stream_PID()のエントリー。それ
ぞれのエントリーは次の情報を持つ: ・PTS_EP_start: エントリーポイントにおけるアクセス
ユニットのPTSの値を示す。 ・RSPN_EP_start: AVストリームの中で、そのエントリ
ーポイントのPTS_EP_startによって参照されるところの
アクセスユニットの開始するアドレスを示す。
(1) stream_PID: its EP_map_for_one_str
The PID of the transport packet that transmits the elementary stream indicated by eam_PID () is specified. (2) EP_stream_type: EP_map_for_one_stream_PI
Indicates the type of entry point for D (). (3) EP_map_for_one_stream_PID () entry. Each entry has the following information: PTS_EP_start: Indicates the value of the PTS of the access unit at the entry point. RSPN_EP_start: Indicates the start address of the access unit referenced by PTS_EP_start of the entry point in the AV stream.

【0476】EP_mapが1つ以上のエレメンタリーストリ
ームを指す場合、EP_mapは1つ以上のEP_map_for_one_s
tream_PID()サブテーブルを持っても良い。図67は、E
P_mapがClip中の3個のビデオストリームを指している
場合のEP_mapの例を示している。
[0476] If the EP_map points to one or more elementary streams, the EP_map must be one or more EP_map_for_one_s
It may have a tream_PID () subtable. FIG.
An example of the EP_map when the P_map points to three video streams in a Clip is shown.

【0477】1つのEP_map_for_one_stream_PID()は、S
TCの不連続点に関係なく1つのテーブルに作られる。
[0477] One EP_map_for_one_stream_PID () is
Created in one table regardless of TC discontinuities.

【0478】RSPN_EP_startの値とSTC_Info()において
定義されるRSPN_STC_startの値を比較する事により、EP
_mapの中にあるSTC_sequenceの境界が分かる(図68参
照)。
By comparing the value of RSPN_EP_start with the value of RSPN_STC_start defined in STC_Info (), EP
The boundary of the STC_sequence in the _map is known (see FIG. 68).

【0479】EP_mapは、同じPIDで伝送されるストリー
ムの連続した範囲に対して、1つのEP_map_for_one_str
eam_PIDを持つ。
[0479] EP_map is one EP_map_for_one_str for a continuous range of a stream transmitted by the same PID.
Has eam_PID.

【0480】図69の場合、program#1とprogram#3
は、同じビデオPIDを持つが、データ範囲が連続してい
ないので、それぞれのプログラム毎にEP_map_for_one_s
tream_PIDを持たねばならない。
In the case of FIG. 69, program # 1 and program # 3
Have the same video PID, but the data range is not continuous, so EP_map_for_one_s
Must have tream_PID.

【0481】EP_map_for_one_stream_PID()のテーブル
のデータサイズを削減し、かつデータサーチのパフォー
マンスを改善するために、EP_map_for_one_stream_PI
D()は2つのサブテーブル、すなわち、EP_coarseとEP_f
ineに分けられる(図132参照)。
[0481] In order to reduce the data size of the EP_map_for_one_stream_PID () table and improve the performance of data search, EP_map_for_one_stream_PI
D () has two sub-tables, EP_coarse and EP_f
ine (see FIG. 132).

【0482】EP_fineエントリーは、PTS_EP_start およ
び RSPN_EP_startのLSB(Least Significant Bit)側のビ
ット情報を持つ(図133と図134を参照)。EP_coa
rseエントリーは、PTS_EP_start および RSPN_EP_start
のMSB(Most Significant Bit)側のビット情報とそれに
対応するEP_fineのテーブル中のエントリー番号(同じP
TS_EP_startから取り出したLSB側のビットを持つEP_fin
eテーブルの中のエントリー)を持つ。
The EP_fine entry has bit information on the LSB (Least Significant Bit) side of PTS_EP_start and RSPN_EP_start (see FIGS. 133 and 134). EP_coa
rse entries are PTS_EP_start and RSPN_EP_start
MSB (Most Significant Bit) side bit information and the corresponding entry number in the EP_fine table (same P
EP_fin with LSB side bits extracted from TS_EP_start
e table entry).

【0483】EP_coarseサブテーブルの中のエントリー
数は、EP_fineサブテーブルのエントリー数に比べてか
なり小さい。次の場合に、EP_coarseのエントリーが作
られる: ・最初のPTS_EP_fineのエントリー ・PTS_EP_fineの値がラップ・アラウンドした後の最初の
PTS_EP_fineのエントリー ・RSPN_EP_fineの値がラップ・アラウンドした後の最初
のRSPN_EP_fineのエントリー(図135参照)。
[0483] The number of entries in the EP_coarse subtable is considerably smaller than the number of entries in the EP_fine subtable. An EP_coarse entry is created if: • the first PTS_EP_fine entry • the first PTS_EP_fine value after wrap-around
PTS_EP_fine entry-The first RSPN_EP_fine entry after the value of RSPN_EP_fine wraps around (see Fig. 135).

【0484】EP_mapを使用する場合のAVストリームへの
ランダムアクセスの例について説明する。
An example of random access to an AV stream when using the EP_map will be described.

【0485】あるPlayListのグローバルな時間軸上で3
0分後から、その再生を開始したいとする。 ・最初にPlayListの中のグローバルな時間軸上でで30
分後に対応するところ時刻を含むPlayItemのSTC-sequen
ce-idを調べる。 ・前記STC-sequenceのローカルな時間軸上で30分後に
対応するところのPTSの値を導く。 ・前記STC-sequenceのRSPN_STC_startをSTC_Infoから導
く。 ・EP_coarse サブテーブルの中で、RSPN_EP_coarseが前
記RSPN_STC_start以上であるところのエントリーから、
データサーチが開始される。EP_coarse サブテーブルの
中で、前記必要なPTSに最も近く、かつその値より時間
的に前の値を持つPTS_EP_coarseのエントリーを見つけ
る。 ・EP_fineサブテーブルの中で、前記見つけたPTS_EP_co
arseに対応するところのEP_fineのエントリー番号か
ら、データサーチが開始される。前記必要なPTSに最も
近く、かつその値より時間的に前の値を持つPTS_EP_fin
eを持つエントリーを見つける。 ・前記必要なPTSのアクセスユニットの読み出し開始の
ためのRSPN_EP_startは、前記見つけたPTS_EP_coarseに
対応するRSPN_EP_coarseのLSB 18ビットを前記見つけ
たPTS_EP_fineに対応するRSPN_EP_fineのビットで置き
かえることにより決定される。
[0485] 3 on the global time axis of a PlayList
Suppose that it is desired to start the reproduction from 0 minutes later. • First 30 on the global timeline in the PlayList
STC-sequen of PlayItem including time corresponding to minutes later
Check ce-id. Deriving the value of the PTS corresponding to 30 minutes later on the local time axis of the STC-sequence. Deriving RSPN_STC_start of the STC-sequence from STC_Info. In the EP_coarse sub-table, from the entry where RSPN_EP_coarse is greater than or equal to the RSPN_STC_start,
Data search is started. In the EP_coarse sub-table, find the entry of PTS_EP_coarse that is closest to the required PTS and has a value that is temporally earlier than that value. PTS_EP_co found in the EP_fine sub-table
Data search is started from the entry number of EP_fine corresponding to "arse". PTS_EP_fin closest to the required PTS and having a value earlier in time than that value
Find the entry with e. RSPN_EP_start for starting the reading of the necessary PTS access unit is determined by replacing the 18-bit LSB of the RSPN_EP_coarse corresponding to the found PTS_EP_coarse with the RSPN_EP_fine bit corresponding to the found PTS_EP_fine.

【0486】上記説明したEP_mapのシンタクスを図13
6に示す。
[0486] The syntax of the above-described EP_map is shown in FIG.
6 is shown.

【0487】number_of_stream_PID_entriesは、EP_map
の中でのEP_map_for_one_stream_PIDのエントリー数を
示す。
[0487] number_of_stream_PID_entries is an EP_map
Indicates the number of entries of EP_map_for_one_stream_PID in the.

【0488】stream_PID[k]は、EP_mapの中でk番目にエ
ントリーされるEP_map_for_one_stream_PIDによって参
照されるエレメンタリーストリームを伝送するところの
トランスポートパケットのPIDの値を示す。
[0488] stream_PID [k] indicates the PID value of a transport packet transmitting the elementary stream referred to by the k_th entry EP_map_for_one_stream_PID in the EP_map.

【0489】EP_stream_type[k] は、前記EP_map_for_o
ne_stream_PIDのによって参照されるエレメンタリース
トリームのタイプを示す。値の意味を図137の表に示
す。
[0489] EP_stream_type [k] is the EP_map_for_o
Indicates the type of elementary stream referenced by ne_stream_PID. The meaning of the values is shown in the table in FIG.

【0490】EP_stream_type[k]が0または1の場合、
そのエレメンタリーストリームはビデオストリームであ
る。Video type 1 と video type 2 の意味について
はEP_video_type(図139)の説明のところで後述す
る。
[0490] If EP_stream_type [k] is 0 or 1,
The elementary stream is a video stream. The meaning of Video type 1 and Video type 2 will be described later in the description of EP_video_type (FIG. 139).

【0491】EP_stream_type[k]が2の場合、そのエレ
メンタリーストリームはオーディオストリームである。
When EP_stream_type [k] is 2, the elementary stream is an audio stream.

【0492】num_EP_coarse_entries[k] は、前記EP_ma
p_for_one_stream_PIDの中にあるEP-coarseエントリー
の数を示す。
[0492] num_EP_coarse_entries [k] is the aforementioned EP_ma
Indicates the number of EP-coarse entries in p_for_one_stream_PID.

【0493】num_EP_fine_entries[k] は、前記EP_map_
for_one_stream_PIDの中にあるEP-fineエントリーの数
を示す。
[0493] num_EP_fine_entries [k] is the same as the EP_map_
Indicates the number of EP-fine entries in for_one_stream_PID.

【0494】EP_map_for_one_stream_PID_start_addres
s[k]は、EP_map()の中で前記EP_map_for_one_stream_PI
Dが始まる相対バイト位置を示す。この値は、EP_map()
の第1バイト目からのバイト数で示される。
[0494] EP_map_for_one_stream_PID_start_addres
s [k] is the EP_map_for_one_stream_PI in EP_map ().
Indicates the relative byte position where D begins. This value is the value of EP_map ()
Is indicated by the number of bytes from the first byte.

【0495】EP_map_for_one_stream_PIDのシンタクス
を図138に示す。これのセマンティクスを説明するた
めに、EP_map_for_one_stream_PIDにストアされるデー
タの元となるところのPTS_EP_start とRSPN_EP_startの
意味について説明する。
[0495] Fig. 138 shows the syntax of EP_map_for_one_stream_PID. To explain the semantics of this, the meaning of PTS_EP_start and RSPN_EP_start, which are the sources of data stored in EP_map_for_one_stream_PID, will be described.

【0496】PTS_EP_startとそれに関連付けられたRSPN
_EP_startは、AVストリーム上のエントリーポイントを
指す。そして、PTS_EP_fineとそれに関連付けられたPTS
_EP_coarseは、同一のPTS_EP_startから導かれる。ま
た、RSPN_EP_fineとそれに関連付けられたRSPN_EP_coar
seは同じRSPN_EP_startから導かれる。PTS_EP_start と
RSPN_EP_startは次のように定義される。
[0496] PTS_EP_start and its associated RSPN
_EP_start indicates an entry point on the AV stream. And PTS_EP_fine and the associated PTS
_EP_coarse is derived from the same PTS_EP_start. Also, RSPN_EP_fine and its associated RSPN_EP_coar
se is derived from the same RSPN_EP_start. PTS_EP_start and
RSPN_EP_start is defined as follows.

【0497】PTS_EP_startは、33-bit長の符号なし整
数である。PTS_EP_startの定義は、EP_map_for_one_str
eam_PIDに対するEP_stream_typeの値により異なる。
[0497] PTS_EP_start is a 33-bit unsigned integer. PTS_EP_start is defined as EP_map_for_one_str
It depends on the value of EP_stream_type for eam_PID.

【0498】EP_stream_typeがゼロであるとき('video
type1')、PTS_EP_startは、AVストリームの中でシー
ケンスヘッダから開始するビデオアクセスユニットの3
3ビット長のPTSを示す。
When EP_stream_type is zero ('video
type1 '), PTS_EP_start is 3 of the video access unit starting from the sequence header in the AV stream.
Indicates a 3-bit PTS.

【0499】EP_stream_typeが2であるとき('audi
o')、PTS_EP_startは、AVストリームの中でシーケンス
ヘッダから開始するビデオアクセスユニットの33ビッ
ト長のPTSを示す。
When EP_stream_type is 2 ('audi
o ′), PTS_EP_start indicates a 33-bit PTS of a video access unit starting from a sequence header in an AV stream.

【0500】EP_stream_typeが1であるとき('video t
ype2')、PTS_EP_startは、それに関連づけられたEP_v
ideo_typeの値に従って、図139に定義されるところ
のビデオアクセスユニットの33ビット長のPTSを示
す。
When EP_stream_type is 1 ('video t
ype2 '), PTS_EP_start is the EP_v associated with it
FIG. 139 shows a 33-bit PTS of a video access unit defined in FIG. 139 according to the value of ideo_type.

【0501】RSPN_EP_startは、32ビットの符号なし
整数である。RSPN_EP_startの定義はEP_map_for_one_st
ream_PIDに対するEP_stream_typeの値により異なる。
[0501] RSPN_EP_start is a 32-bit unsigned integer. RSPN_EP_start is defined as EP_map_for_one_st
It depends on the value of EP_stream_type for ream_PID.

【0502】EP_stream_typeがゼロであるとき('video
type1')、このフィールドはPTS_EP_start に関連付
けられたビデオアクセスユニットの第1バイト目を含む
ソースパケットのAVストリームの中でのアドレスを示
す。
When EP_stream_type is zero ('video
type1 '), this field indicates the address in the AV stream of the source packet including the first byte of the video access unit associated with PTS_EP_start.

【0503】EP_stream_typeが2であるとき('audi
o')、このフィールドはPTS_EP_start に関連付けられた
オーディオアクセスユニットの第1バイト目を含むソー
スパケットのAVストリームの中でのアドレスを示す。
When EP_stream_type is 2 ('audi
o '), this field indicates the address in the AV stream of the source packet including the first byte of the audio access unit associated with PTS_EP_start.

【0504】EP_stream_typeが1であるとき('video t
ype2')、RSPN_EP_startの意味は、それに関連づけら
れたEP_video_typeの値に従って、図139に定義され
るものである。
[0504] When EP_stream_type is 1 ('video t
ype2 ') and the meaning of RSPN_EP_start are defined in FIG. 139 according to the value of EP_video_type associated therewith.

【0505】RSPN_EP_startは、ソースパケット番号の
単位で表され、それはAVストリームファイルの中の最初
のソースパケットからゼロを初期値としてカウントされ
る。
[0505] RSPN_EP_start is expressed in units of a source packet number, and is counted starting from zero as an initial value from the first source packet in the AV stream file.

【0506】EP_map_for_one_stream_PIDのセマンティ
クスを説明する。
[0506] The semantics of EP_map_for_one_stream_PID will be described.

【0507】EP_fine_table_start_addressは、最初のE
P_video_type[EP_fine_id]の第1バイト目の開始アドレ
スを示し、それはEP_map_for_one_stream_PID()の第1
バイト目からの相対バイト数で表される。相対バイト数
はゼロから開始する。
[0507] EP_fine_table_start_address is the first E
Indicates the start address of the first byte of P_video_type [EP_fine_id], which is the first address of EP_map_for_one_stream_PID ().
It is represented by the relative number of bytes from the byte. The relative byte count starts from zero.

【0508】ref_to_EP_fine_idは、このフィールドに
続くPTS_EP_coarseに関連づけられるところのPTS_EP_fi
neを持つEP_fineエントリーの番号を示す。PTS_EP_fine
とそれに関連付けられるPTS_EP_coarseは、同じPTS_EP_
startから導かれる。
[0508] ref_to_EP_fine_id is PTS_EP_fi associated with PTS_EP_coarse following this field.
Indicates the number of the EP_fine entry with ne. PTS_EP_fine
And the associated PTS_EP_coarse are the same PTS_EP_
Derived from start.

【0509】ref_to_EP_fine_idは、EP_fine_idのfor-l
oopの中で記述される順番で定義されるところのEP_fine
_idの値により与えられる。
[0509] ref_to_EP_fine_id is the for-l of EP_fine_id.
EP_fine, defined in the order described in the oop
It is given by the value of _id.

【0510】PTS_EP_coarseとPTS_EP_fine、そしてRSPN
_EP_coarseとRSPN_EP_fineは、次のように導かれる。
[0510] PTS_EP_coarse, PTS_EP_fine, and RSPN
_EP_coarse and RSPN_EP_fine are derived as follows.

【0511】EP_fineサブテーブルに、Nf個のエントリ
ーがあり、これらのエントリーはそれらに関連するRSPN
_EP_startの値の昇順に並んでいるとする。
There are Nf entries in the EP_fine sub-table, and these entries are associated with their associated RSPN
Assume that the values of _EP_start are arranged in ascending order.

【0512】それぞれのPTS_EP_fineエントリーは、そ
のPTS_EP_startから次のように導かれる。
[0512] Each PTS_EP_fine entry is derived from its PTS_EP_start as follows.

【0513】PTS_EP_fine[EP_fine_id] = (PTS_EP_star
t[EP_fine_id] >> 9) % 212
[0513] PTS_EP_fine [EP_fine_id] = (PTS_EP_star
t [EP_fine_id] >> 9)% 2 12

【0514】PTS_EP_coarse とそのPTS_EP_fineの関係
は次のとおりである。
[0514] The relationship between PTS_EP_coarse and its PTS_EP_fine is as follows.

【0515】PTS_EP_coarse[i] = (PTS_EP_start[ref_t
o_EP_fine_id[i]] >> 19) % 21 4 TS_EP_fine[ref_to_EP_fine_id[i]] = (PTS_EP_start[r
ef_to_EP_fine_id[i]]>> 9) % 212
[0515] PTS_EP_coarse [i] = (PTS_EP_start [ref_t
o_EP_fine_id [i]] >> 19)% 2 1 4 TS_EP_fine [ref_to_EP_fine_id [i]] = (PTS_EP_start [r
ef_to_EP_fine_id [i]] >> 9)% 2 12

【0516】それぞれのRSPN_EP_fineエントリーは、そ
のRSPN_EP_startから次のように導かれる。
[0516] Each RSPN_EP_fine entry is derived from its RSPN_EP_start as follows.

【0517】RSPN_EP_fine[EP_fine_id] = RSPN_EP_sta
rt[EP_fine_id] % 218
[0517] RSPN_EP_fine [EP_fine_id] = RSPN_EP_sta
rt [EP_fine_id]% 2 18

【0518】RSPN_EP_coarse とその RSPN_EP_fineの関
係は次のとおりである。
[0518] The relationship between RSPN_EP_coarse and its RSPN_EP_fine is as follows.

【0519】RSPN_EP_coarse[i] = RSPN_EP_start[ref_
to_EP_fine_id[i]] RSPN_EP_fine[ref_to_EP_fine_id[i]] = RSPN_EP_start[ref_to_EP_fine_id[i]] % 218
[0519] RSPN_EP_coarse [i] = RSPN_EP_start [ref_
to_EP_fine_id [i]] RSPN_EP_fine [ref_to_EP_fine_id [i]] = RSPN_EP_start [ref_to_EP_fine_id [i]]% 2 18

【0520】EP_video_type[EP_fine_id]は、EP_stream
_typeが1('video type2')である場合、PTS_EP_fine
[EP_fine_id]およびRSPN_EP_fine[EP_fine_id]が指すと
ころのビデオアクセスユニットのタイプを示す。値の意
味は、図139に示すとおりである。
[0520] EP_video_type [EP_fine_id] is EP_stream
If _type is 1 ('video type 2'), PTS_EP_fine
Indicates the type of the video access unit indicated by [EP_fine_id] and RSPN_EP_fine [EP_fine_id]. The meaning of the value is as shown in FIG.

【0521】EP_map_for_one_stream_PID()は次の制限
を満たす。
[0521] EP_map_for_one_stream_PID () satisfies the following restrictions.

【0522】・EP_map_for_one_stream_PID()の中でRSP
N_EP_coarseのエントリーは、RSPN_EP_coarseの値の昇
順で並んでいなければならない。 ・EP_map_for_one_stream_PID()の中でRSPN_EP_fineの
エントリーは、それに関連するRSPN_EP_startの値の昇
順で並んでいなければならない。 ・次の場合に、PTS_EP_coarseとRSPN_EP_coarseのエン
トリーが作られる: ・・最初のPTS_EP_fineのエントリー ・・PTS_EP_fineの値がラップ・アラウンドした後の最初
のPTS_EP_fineのエントリー ・・RSPN_EP_fineの値がラップ・アラウンドした後の最
初のRSPN_EP_fineのエントリー。
[0522] RSP in EP_map_for_one_stream_PID ()
N_EP_coarse entries must be arranged in ascending order of RSPN_EP_coarse value. -The entries of RSPN_EP_fine in EP_map_for_one_stream_PID () must be arranged in ascending order of the value of RSPN_EP_start related to them. • Entries for PTS_EP_coarse and RSPN_EP_coarse are created when: • The first PTS_EP_fine entry First RSPN_EP_fine entry for.

【0523】次に、図140はClip AVストリームファ
イルとそれに関連するClip Informationファイルの記録
動作のフローチャートを示す。図1の記録再生装置を参
照して説明する。
Next, FIG. 140 shows a flowchart of the recording operation of the Clip AV stream file and the Clip Information file related thereto. This will be described with reference to the recording / reproducing apparatus of FIG.

【0524】ステップS201で、制御部23は、端子
11および12から入力されるAV入力をエンコードして
得たトランスポートストリーム、または端子13のディ
ジタルインタフェースから入力されるトランスポートス
トリームをファイル化して、Clip AVストリームファイ
ルを作成して記録する。
[0524] In step S201, the control unit 23 converts the transport stream obtained by encoding the AV input input from the terminals 11 and 12 or the transport stream input from the digital interface of the terminal 13 into a file, Create and record a Clip AV stream file.

【0525】ステップS202で、制御部23は上記AV
ストリームファイルについてのClipInfoを作成する。
[0525] In step S202, the control unit 23 sets the AV
Create ClipInfo for stream file.

【0526】ステップS203で、制御部23は上記AV
ストリームファイルについてのSTC_Infoを作成する。
[0526] In step S203, the control unit 23 sets the AV
Create STC_Info for stream file.

【0527】ステップS204で、制御部23は上記AV
ストリームファイルについてのProgram_Infoを作成す
る。
[0527] In step S204, the control unit 23 sets the AV
Create Program_Info for the stream file.

【0528】ステップS205で、制御部23は上記AV
ストリームファイルについてのCPI(EP-mapまたはTU-ma
p)を作成する。
At step S205, the control unit 23
CPI (EP-map or TU-ma
Create p).

【0529】ステップS206で、制御部23は上記AV
ストリームファイルについてのClipMarkを作成する。
[0529] In step S206, the control unit 23 sets the AV
Create a ClipMark for a stream file.

【0530】ステップS207で、制御部23は上記Cl
ipInfo, STC_Info, ProgramInfo, CPI, およびClipMark
がストアされたClip Informationファイルを記録する。
In step S207, the control unit 23 sets the Cl
ipInfo, STC_Info, ProgramInfo, CPI, and ClipMark
Records the stored Clip Information file.

【0531】なお、ここでは各処理を時系列に説明した
が、ステップS201からステップS206は実際には
同時に動作するものである。
[0531] Although each process has been described in chronological order, steps S201 to S206 actually operate simultaneously.

【0532】次に、STC_Infoの作成の動作例を図14の
フローチャートを用いて説明する。この処理は図1の多
重化ストリーム解析部18で行われる。
[0532] Next, an example of the operation of creating STC_Info will be described using the flowchart of FIG. This process is performed by the multiplexed stream analyzer 18 in FIG.

【0533】ステップS221において、ストリーム解
析部18はPCRパケット受信されたかどうかを調べる。
ステップS221において、Noの場合はステップS22
1へ戻り、Yesの場合はステップS222へ進む。
[0533] In step S221, the stream analyzer 18 checks whether a PCR packet has been received.
In step S221, if No, step S22
Returning to step 1, if YES, proceed to step S222.

【0534】ステップS222において、STCの不連続
が検出されたかを調べる。NOの場合は、ステップS22
1へ戻る。YESの場合は、ステップS223へ進む。な
お、記録開始後、最初に受信されたPCRパケットの場合
は、必ずステップS223へ進む。
At step S222, it is checked whether or not STC discontinuity has been detected. If NO, step S22
Return to 1. If YES, the process proceeds to step S223. In the case of the PCR packet received first after the start of recording, the process always proceeds to step S223.

【0535】ステップS223において、新しいSTCの
最初のPCRを伝送するトランスポートパケットの番号(ア
ドレス)を取得する。
[0535] In step S223, the number (address) of the transport packet transmitting the first PCR of the new STC is obtained.

【0536】ステップS224において、STC_Infoを作
成する。
[0536] In step S224, STC_Info is created.

【0537】ステップS225において、最後のトラン
スポートパケットが入力終了したかどうかを調べる。No
の場合は、ステップS221へ戻り、Yesの場合は処理
を終了する。
[0537] In step S225, it is checked whether the input of the last transport packet has been completed. No
In the case of, the process returns to step S221, and in the case of Yes, the process ends.

【0538】Program_Infoの作成の動作例を図142の
フローチャートを用いて説明する。この処理は図1の多
重化ストリーム解析部18で行われる。
An example of the operation for creating Program_Info will be described with reference to the flowchart in FIG. This process is performed by the multiplexed stream analyzer 18 in FIG.

【0539】ステップS241において、ストリーム解
析部18はPSI/SIを含むトランスポートパケットが受信
されたかどうかを調べる。ここで、PSI/SIのトランスポ
ートパケットは、具体的には、PAT, PMT, SITのパケッ
トである。SITは、DVB規格で規定されているパーシャル
トランスポートストリームのサービス情報が記述されて
いるトランスポートパケットである。ステップ241に
おいて、Noの場合はステップS241へ戻り、Yesの場
合はステップS242へ進む。
[0539] In step S241, the stream analysis unit 18 checks whether a transport packet including PSI / SI has been received. Here, the PSI / SI transport packet is, specifically, a PAT, PMT, SIT packet. The SIT is a transport packet in which service information of a partial transport stream defined by the DVB standard is described. In step 241, if No, the process returns to step S241; if Yes, the process proceeds to step S242.

【0540】ステップS242において、PSI/SIの内容
が変わったかを調べる。すなわち、PAT,PMT,SITのそれ
ぞれの内容が、以前に受信したそれぞれの内容と比べて
変化したかどうかを調べる。内容が変化していない場合
は、ステップS241へ戻る。内容が変化した場合は、
ステップS243へ進む。なお、記録開始後、最初に受
信されたPSI/SIの場合は、必ずステップS243へ進
む。
In step S242, it is checked whether the contents of PSI / SI have changed. That is, it is checked whether or not each of the contents of PAT, PMT, and SIT has changed as compared with the previously received contents. If the content has not changed, the process returns to step S241. If the content changes,
Proceed to step S243. In the case of PSI / SI received first after the start of recording, the process always proceeds to step S243.

【0541】ステップS243において、新しいPSI/SI
を伝送するトランスポートパケットの番号(アドレス)と
その内容を取得する。
[0541] In step S243, the new PSI / SI
Get the number (address) of the transport packet transmitting the packet and its contents.

【0542】ステップS244において、Program-sequ
enceの情報を作成する。
[0542] In step S244, the Program-sequential
Create ence information.

【0543】ステップS245において、最後のトラン
スポートパケットが入力終了したかどうかを調べる。No
の場合は、ステップS241へ戻り、Yesの場合は処理
を終了する。
In step S245, it is checked whether the input of the last transport packet has been completed. No
In the case of, the process returns to step S241, and in the case of Yes, the process ends.

【0544】次にEP_mapの作成の動作例を図143のフ
ローチャートを用いて説明する。この処理は図1の多重
化ストリーム解析部18で行われる。
Next, an example of the operation of creating an EP_map will be described with reference to the flowchart in FIG. This process is performed by the multiplexed stream analyzer 18 in FIG.

【0545】ステップS261でストリーム解析部18
は、記録するAVプログラムのビデオのPIDをセットす
る。トランスポートストリームの中に複数のビデオが含
まれている場合は、それぞれのビデオPIDをセットす
る。
[0545] In step S261, the stream analyzing unit 18
Sets the PID of the video of the AV program to be recorded. If a plurality of videos are included in the transport stream, each video PID is set.

【0546】ステップS262でストリーム解析部18
は、ビデオのトランスポートパケットを受信する。
[0546] In step S262, the stream analysis unit 18
Receives a video transport packet.

【0547】ステップS263でストリーム解析部は、
トランスポートパケットのペイロード(パケットヘッダ
ーに続くデータ部)がPESパケットの第1バイト目から
開始しているかを調べる(PESパケットは、MPEG2で規
定されているパケットであり、エレメンタリーストリー
ムをパケット化するものである)。これは、トランスポ
ートパケットヘッダにある"payload_unit_start_indica
tor"の値を調べることによりわかり、この値が1である
場合、トランスポートパケットのペイロードがPESパケ
ットの第1バイト目から開始する。ステップS263で
Noの場合は、ステップ262へ戻り、Yesの場合は、ス
テップS264へ進む。
[0547] In step S263, the stream analysis unit
It checks whether the payload of the transport packet (the data part following the packet header) starts from the first byte of the PES packet (the PES packet is a packet specified by MPEG2 and packetizes an elementary stream). Things). This is "payload_unit_start_indica" in the transport packet header.
The value of tor "can be determined by examining the value. If this value is 1, the payload of the transport packet starts from the first byte of the PES packet. In step S263,
If No, the process returns to Step 262; if Yes, the process proceeds to Step S264.

【0548】ステップS264でストリーム解析部は、
PESパケットのペイロードが、MPEGビデオのsequence_he
ader_code(32ビット長で"0x000001B3"の符
号)の第1バイト目から開始しているかを調べる。ステ
ップS264でNoの場合は、ステップS262へ戻り、
Yesの場合は、ステップS265へ進む。
[0548] In step S264, the stream analysis unit
PES packet payload is MPEG video sequence_he
It is checked whether ader_code (code of “0x000001B3” having a 32-bit length) starts from the first byte. If No in step S264, the process returns to step S262,
In the case of Yes, the process proceeds to step S265.

【0549】ステップS265へ進んだ場合、現在のト
ランスポートパケットをエントリーポイントとする。
When the flow advances to step S265, the current transport packet is set as an entry point.

【0550】ステップS266でストリーム解析部は、
上記パケットのパケット番号と上記sequence_header_co
de から開始するIピクチャのPTSとそのエントリーポイ
ントが属するビデオのPIDを取得し、制御部23へ入力
する。制御部23はEP_mapを作成する。
[0550] In step S266, the stream analysis unit
The packet number of the above packet and the above sequence_header_co
The PTS of the I picture starting from de and the PID of the video to which the entry point belongs are acquired and input to the control unit 23. The control unit 23 creates an EP_map.

【0551】ステップS267で、現在のパケットが最
後に入力されるトランスポートパケットであるかどうか
を判定する。最後のパケットでない場合、ステップS2
62へ戻る。最後のパケットである場合、処理を終了す
る。
In step S267, it is determined whether the current packet is the last input transport packet. If it is not the last packet, step S2
Return to 62. If it is the last packet, the process ends.

【0552】図144は、アナログAV信号をエンコード
して記録する場合、図81に示すシンタクスのClipMark
の作成方法を説明するフローチャートを示す。
FIG. 144 shows a case where the analog AV signal is encoded and recorded, and the syntax shown in FIG.
2 is a flowchart illustrating a method for creating the.

【0553】ステップS281で、解析部14は端子1
1,12からの入力AV信号を解析して特徴点を検出す
る。特徴点はAVストリームの内容に起因する特徴的なシ
ーンを指定する、例えば番組の頭だし点やシーンチェン
ジ点などである。
In step S281, the analyzing unit 14 sets the terminal 1
A feature point is detected by analyzing the input AV signals from 1, 12. The feature point specifies a characteristic scene caused by the content of the AV stream, for example, a starting point of a program or a scene change point.

【0554】ステップS282で、制御部23は特徴点
の画像のPTSを取得する。
[0554] In step S282, the control unit 23 acquires the PTS of the image of the feature point.

【0555】ステップS283で、制御部23は特徴点
の情報をClipMarkにストアする。具体的には、本実施例
のClipMarkのシンタクスとセマンティクスで説明した情
報をストアする。
[0555] In step S283, the control unit 23 stores the information of the feature point in the ClipMark. Specifically, the information described in the syntax and semantics of ClipMark of the present embodiment is stored.

【0556】図145は、ディジタルインタフェースか
ら入力されたトランスポートストリームを記録する場
合、図81に示すシンタクスのClipMarkの作成方法を説
明するフローチャートを示す。
[0556] Fig. 145 shows a flowchart for explaining a method of creating the ClipMark of the syntax shown in Fig. 81 when recording a transport stream input from the digital interface.

【0557】ステップS301で、デマルチプレクサ2
6および制御部23は記録するプログラムのエレメンタ
リストリームPIDの取得する。解析対象のエレメンタリ
ストリームが複数ある場合は、すべてのエレメンタリス
トリームPIDを取得する。
In step S301, the demultiplexer 2
6 and the control unit 23 acquire the elementary stream PID of the program to be recorded. When there are a plurality of elementary streams to be analyzed, all the elementary streams PID are acquired.

【0558】ステップS302で、デマルチプレクサ2
6は、端子13から入力されるトランスポートストリー
ムのプログラムからエレメンタリストリームを分離し、
それをAVデコーダ27へ入力する。AVデコーダ27は、
入力ストリームをデコードしてAV信号を出力する。
In step S302, the demultiplexer 2
6 separates an elementary stream from a transport stream program input from the terminal 13,
It is input to the AV decoder 27. The AV decoder 27
It decodes the input stream and outputs an AV signal.

【0559】ステップS303で、解析部14は上記AV
信号を解析して特徴点を検出する。
In step S303, the analysis unit 14 sets the AV
The signal is analyzed to detect feature points.

【0560】ステップS304で、制御部23は特徴点
の画像のPTSとそれが属するSTCのSTC-sequence-idを取
得する。
[0560] In step S304, the control unit 23 acquires the PTS of the image of the feature point and the STC-sequence-id of the STC to which the PTS belongs.

【0561】ステップS305で、制御部23は特徴点
の情報をClipMarkにストアする。具体的には、本実施例
のClipMarkのシンタクスとセマンティクスで説明した情
報をストアする。
[0561] In step S305, the control unit 23 stores the information of the feature point in the ClipMark. Specifically, the information described in the syntax and semantics of ClipMark of the present embodiment is stored.

【0562】次に、EP_mapを使用して特殊再生を行う方
法を説明する。EP_mapはランダムアクセス再生をするた
めに役立つ。
Next, a method of performing special reproduction using the EP_map will be described. EP_map is useful for random access playback.

【0563】ディジタル放送のトランスポートストリー
ムの中では、ビデオPIDが変化する場合があるので、デ
コーダは記録されているトランスポートストリームの中
のPIDマッピングを知る必要がある。そのために、EP_ma
pはEP_map_for_one_stream_PID()と呼ばれるサブテーブ
ル毎にそれが参照するビデオPIDの値を持ち、また、Pro
gramInfoはPIDマッピングについての情報を持つ。
[0563] In a digital broadcast transport stream, the video PID may change, so the decoder needs to know the PID mapping in the recorded transport stream. For that, EP_ma
p has the value of the video PID to which it refers for each sub-table called EP_map_for_one_stream_PID (), and
gramInfo has information about PID mapping.

【0564】図146は、トランスポートストリームの
中でビデオPIDの値が変化するDVR MPEG2 TSの例を示
す。この場合、EP_mapはビデオPID毎にサブテーブルを
持つ。
FIG. 146 shows an example of a DVR MPEG2 TS in which the value of a video PID changes in a transport stream. In this case, the EP_map has a sub-table for each video PID.

【0565】図147は、Iピクチャサーチ(トリック
プレイ、チャプターサーチなど)をする場合のプレーヤ
モデルを示す。Iピクチャサーチは次のステップで行
う。
FIG. 147 shows a player model for performing an I picture search (trick play, chapter search, etc.). The I picture search is performed in the following steps.

【0566】1)最初に、ファイルシステム112はデ
ィスク111(図1の記録媒体100に対応する)から
Clip Information file(EP_map, STC_Info, ProgramInf
o)のデータを読む、そのデータはホストコントローラ1
15へ送られる。 2)ユーザインタフェースは、再生するプログラム番号
およびサーチ開始時間のPTSをセットする。そしてその
値はホストコントローラ115へ送られる。 3)ホストコントローラ115は、サーチ開始時間に対
応するところのRSPN_EP_startが指すソースパケットの
ビデオPIDをデマルチプレクサ113にセットする。 4)ホストコントローラ115は、前記RSPN_EP_start
のソースパケット番号に対応するデータアドレスをファ
イルシステム112にセットする。 5)ファイルシステム112は、指定されたデータアド
レスからDVR MPEG2トランスポートストリームを読み出
す。 6)ユーザが次のサーチ時間をセットする場合は、上記
ステップ2)へ戻る。
[0566] 1) First, the file system 112 is loaded from the disk 111 (corresponding to the recording medium 100 in FIG. 1).
Clip Information file (EP_map, STC_Info, ProgramInf
Read the data of o), the data is the host controller 1
It is sent to 15. 2) The user interface sets the program number to be reproduced and the PTS of the search start time. Then, the value is sent to the host controller 115. 3) The host controller 115 sets the video PID of the source packet indicated by RSPN_EP_start corresponding to the search start time in the demultiplexer 113. 4) The host controller 115 communicates with the RSPN_EP_start
Is set in the file system 112. 5) The file system 112 reads the DVR MPEG2 transport stream from the specified data address. 6) When the user sets the next search time, the process returns to step 2).

【0567】次に、図148は、オリジナルのAVストリ
ームファイルと、そのストリームの部分的な再生範囲の
ストリームを消去する編集を行った後のAVストリームフ
ァイルの例を示す。
Next, FIG. 148 shows an example of an original AV stream file and an AV stream file after editing for deleting a stream in a partial reproduction range of the original stream.

【0568】編集前に、Virtual PlayListは、オリジナ
ルAVストリーム上のIN_timeとOUT_timeを指していると
する。この時、Virtual PlayListが使用していないスト
リーム部分を消去する編集(ミニマイズ編集)をした場
合、それはオリジナルAVストリームを図148に示す編
集後のストリームへ変える。オリジナルAVストリームの
先頭からX点までのデータと、Y点から最後までのデー
タが消去される。以下の説明では、このX点とY点を決
める方法の例を説明する。
[0568] Before editing, it is assumed that the Virtual PlayList points to IN_time and OUT_time on the original AV stream. At this time, if an edit (minimize edit) is performed to delete the stream part not used by the Virtual PlayList, it changes the original AV stream to the edited stream shown in FIG. Data from the head of the original AV stream to the point X and data from the point Y to the end are deleted. In the following description, an example of a method for determining the X point and the Y point will be described.

【0569】図149は、AVストリームの内容を解析す
ることをしないで、IN点の前の不要なデータを消去する
方法を説明する図である。PlayListはオリジナルAVスト
リーム上のIN点を指す。また、そのAVストリームのEP_m
apを図示する。IN点が指すピクチャをデコードするため
には、アドレスISA2から開始するIピクチャが必要で
ある。
FIG. 149 is a view for explaining a method of deleting unnecessary data before the IN point without analyzing the contents of the AV stream. PlayList points to the IN point on the original AV stream. Also, EP_m of the AV stream
ap is illustrated. In order to decode the picture indicated by the IN point, an I picture starting from the address ISA2 is required.

【0570】また、X点の後で、PAT,PMTおよびPCRパケ
ットが必要である。RSPN_EP_start=ISA1のPTSはpts1
であり、RSPN_EP_start=ISA2のPTSはpts2である。pts
1とpts2のシステムタイムベースの時間差が100 ms
ec以上ならば、アドレスISA1とISA2の間にはPAT, PMT
およびPCRパケットが存在する(少なくとも、SESF, DV
B, ATSC, ISDBの場合はそうである)。
Also, after the point X, PAT, PMT and PCR packets are required. RSPN_EP_start = ISA1 PTS is pts1
And the PTS of RSPN_EP_start = ISA2 is pts2. pts
The time difference between the system time base of 1 and pts2 is 100 ms
If ec or more, PAT, PMT between addresses ISA1 and ISA2
And PCR packets are present (at least SESF, DV
B, ATSC, ISDB).

【0571】したがって、X点はアドレスISA1の前に
決められる。そして、X点はアラインドユニットの境界
でなければならない。
Therefore, the point X is determined before the address ISA1. And point X must be the boundary of an aligned unit.

【0572】記録装置(図1の記録再生装置1)は、AV
ストリームの内容を解析することをしないで、X点をEP_
mapを使用して次のステップで決めることができる。
The recording device (recording / reproducing device 1 in FIG. 1)
Without analyzing the contents of the stream, set the X point to EP_
The next step can be determined using the map.

【0573】1)システムタイムベース上でIN timeのP
TSに最も近く、かつそれよりも過去の表示時刻のPTSの
値を持つRSPN_EP_startを見つける。 2)ステップ1)で見つけたRSPN_EP_startのPTSの値よ
りも少なくとも100msec過去の表示時刻のPTSの値を
持つRSPN_EP_startを見つける。 3)X点は、ステップ2)で見つけたRSPN_EP_startよ
りも前に決められる。そして、X点はアラインドユニッ
トの境界でなければならない。
1) P of IN time on the system time base
Find the RSPN_EP_start that is closest to the TS and has a PTS value at a display time earlier than that. 2) Find RSPN_EP_start having a PTS value at a display time at least 100 msec earlier than the PTS value of RSPN_EP_start found in step 1). 3) The X point is determined before RSPN_EP_start found in step 2). And point X must be the boundary of the aligned unit.

【0574】この方法は、X点を決めるためにAVストリ
ームのデータを読み出し、その内容を解析することを必
要としないので、簡単である。しかし、編集後のAVスト
リームは、そのPlayListの再生には不要なデータを残し
てしまう場合がある。もし、X点を決めるためにAVスト
リームのデータを読み出し、その内容を解析するなら
ば、そのPlayListの再生には不要なデータをより効率良
く消去できる。
This method is simple because it is not necessary to read out the data of the AV stream to determine the X point and analyze its contents. However, the edited AV stream may leave unnecessary data for playback of the PlayList. If the data of the AV stream is read to determine the X point and its contents are analyzed, data unnecessary for reproducing the PlayList can be more efficiently deleted.

【0575】図150は、AVストリームの内容を解析す
ることをしないで、OUT点の後ろの不要なデータを消去
する方法を説明する図である。PlayListはオリジナルAV
ストリーム上のOUT点を指す。また、そのAVストリーム
のEP_mapを図示する。
FIG. 150 is a view for explaining a method of deleting unnecessary data after the OUT point without analyzing the contents of the AV stream. PlayList is original AV
Points to the OUT point on the stream. Also, an EP_map of the AV stream is illustrated.

【0576】RSPN_EP_start=ISA4から開始するビデオ
シーケンスは次に示すものであることを前提とする。 I2 B0 B1 P5 ・・・ ここで、I,P,BはそれぞれIピクチャ,PピクチャそしてB
ピクチャを表す。数字は表示順序を表す。この処理にお
いて、記録装置がAVストリームの内容を解析しない場
合、記録装置はOUT_timeのPTSが参照するところのピク
チャの情報(ピクチャコーディングタイプ,テンポラル
・レファレンスなど)がわからない。OUT_timeのPTSはピ
クチャB0またはB1を参照しているかもしれない(記録
装置がAVストリームの内容を解析しない場合、このこと
はわからない)、この場合、ピクチャB0,B1をデコー
ドするためにはI2が必要である。I2のPTSはOUT time
のPTSよりも大きい(OUT_time < pts4, ここでpts4は
I2のPTSである)。I2のPTSはOUT_timeのPTSよりも大
きいが、B0, B1のためにI2が必要である。
[0576] It is assumed that the video sequence starting from RSPN_EP_start = ISA4 is as follows. I2 B0 B1 P5 ... where I, P, and B are I picture, P picture, and B, respectively.
Represents a picture. The numbers represent the display order. In this process, if the recording device does not analyze the contents of the AV stream, the recording device does not know the picture information (picture coding type, temporal reference, etc.) referenced by the OUT_time PTS. The PTS of OUT_time may refer to picture B0 or B1 (this is not known if the recording device does not analyze the contents of the AV stream). In this case, in order to decode pictures B0 and B1, I2 is necessary. I2 PTS is OUT time
(OUT_time <pts4, where pts4 is
I2 PTS). Although the PTS of I2 is larger than the PTS of OUT_time, I2 is necessary for B0 and B1.

【0577】したがって、Y点は図に示すアドレスISA5
の後ろに決められる。ISA5は、EP_mapの中でISA4の直
後にあるRSPN_EP_startの値である。Y点はまたアライン
ドユニットの境界でなければならない。
Therefore, the point Y corresponds to the address ISA5 shown in the figure.
Is decided behind. ISA5 is the value of RSPN_EP_start immediately after ISA4 in the EP_map. Point Y must also be the boundary of an aligned unit.

【0578】記録装置は、AVストリームの内容を解析す
ることをしないで、Y点をEP_mapを使用して次のステッ
プで決めることができる。
[0578] The recording apparatus can determine the Y point in the next step using the EP_map without analyzing the contents of the AV stream.

【0579】1)システムタイムベース上でOUT timeの
PTSに最も近く、かつそれよりも未来の表示時刻のPTSの
値を持つRSPN_EP_startを見つける。 2)ステップ1)で見つけたRSPN_EP_startの直後にあ
るRSPN_EP_start を見つける。 3)Y点は、ステップ2)で見つけたRSPN_EP_startより
も後ろに決められる。そして、Y点はアラインドユニッ
トの境界でなければならない。
[0578] 1) OUT time on the system time base
Find the RSPN_EP_start that is closest to the PTS and has the value of the PTS at a display time later than that. 2) Find RSPN_EP_start immediately after RSPN_EP_start found in step 1). 3) The Y point is determined after RSPN_EP_start found in step 2). And point Y must be the boundary of the aligned unit.

【0580】この方法は、Y点を決めるためにAVストリ
ームのデータを読み出し、その内容を解析することを必
要としないので、簡単である。しかし、編集後のAVスト
リームは、そのPlayListの再生には不要なデータを残し
てしまう場合がある。もし、Y点を決めるためにAVスト
リームのデータを読み出し、その内容を解析するなら
ば、そのPlayListの再生には不要なデータをより効率良
く消去できる。
This method is simple because it is not necessary to read the data of the AV stream to determine the Y point and analyze the contents. However, the edited AV stream may leave unnecessary data for playback of the PlayList. If the data of the AV stream is read to determine the Y point and its contents are analyzed, data unnecessary for reproducing the PlayList can be deleted more efficiently.

【0581】このようなシンタクス、データ構造、規則
に基づく事により、記録媒体に記録されているデータの
内容、再生情報などを適切に管理することができ、もっ
て、ユーザが再生時に適切に記録媒体に記録されている
データの内容を確認したり、所望のデータを簡便に再生
できるようにすることができる。
[0581] Based on such syntax, data structure, and rules, it is possible to appropriately manage the contents of data recorded on the recording medium, reproduction information, and the like. The user can confirm the contents of the data recorded in the file, and can easily reproduce the desired data.

【0582】本発明のデータベース構成によれば、Play
ListファイルやClip Informationファイルを別々に分離
して記録するので、編集などによって、あるPlayListや
Clipの内容を変更したとき、そのファイルに関係のない
他のファイルを変更する必要がない。したがって、ファ
イルの内容の変更が容易に行え、またその変更および記
録にかかる時間を小さくできる。
According to the database structure of the present invention, Play
Since the List file and Clip Information file are separately recorded separately, a certain PlayList or
When you change the contents of a Clip, you do not need to change other files that are not related to that file. Therefore, the contents of the file can be easily changed, and the time required for the change and recording can be reduced.

【0583】また、最初にInfo.dvrだけを読み出して、
ディスクの記録内容をユーザインタフェースへ提示し、
ユーザが再生指示したPlayListファイルとそれに関連す
るClip Informationファイルだけをディスクから読み出
すようにすれば、ユーザの待ち時間を小さくすることが
できる。
[0593] First, only Info.dvr is read out,
Present the recorded contents of the disc to the user interface,
If only the PlayList file instructed by the user and the related Clip Information file are read from the disc, the waiting time of the user can be reduced.

【0584】もし、すべてのPlayListファイルやClip I
nformationファイルを1つのファイルにまとめて記録す
ると、そのファイルサイズは非常に大きくなる。そのた
めに、そのファイルの内容を変更して、それを記録する
ためにかかる時間は、個々のファイルを別々に分離して
記録する場合に比べて、非常に大きくなる。本発明は、
この問題を解決する。
[0584] If all PlayList files and Clip I
When the nformation file is collectively recorded in one file, the file size becomes very large. Therefore, the time required to change the contents of the file and record it is much greater than in the case where individual files are separately recorded. The present invention
Solve this problem.

【0585】以上のように、AVストリームの付属情報と
して、前記AVストリームのClipInfoと、前記AVストリー
ムのSTCの不連続点情報をストアするSTCInfoと、前記AV
ストリームのプログラム内容の不連続点情報をストアす
るProgramInfoと、前記AVストリーム上の時間情報とア
ドレス情報を関連づける情報をストアするためのCPI
と、前記AVストリーム上の特徴的な画像のピクチャのタ
イプ(例えば番組の頭出し点)とそのピクチャのAVスト
リームの中のアドレスをストアするためのClipMarkを、
Clip Information Fileとしてファイル化して記録媒体
100に記録することにより、AVストリームの再生に必
要なストリームの再生に必要なストリームの符号化情報
を適切に管理することが可能である。
As described above, ClipInfo of the AV stream, STCInfo for storing STC discontinuity point information of the AV stream, and
ProgramInfo for storing discontinuity information of the program content of the stream, and CPI for storing information for associating time information and address information on the AV stream
And a ClipMark for storing the type of picture of the characteristic image on the AV stream (for example, the starting point of the program) and the address of the picture in the AV stream,
By forming a file as a Clip Information File and recording it on the recording medium 100, it is possible to appropriately manage the encoding information of the stream necessary for reproducing the stream necessary for reproducing the AV stream.

【0586】このClip Information file情報により、
ユーザが、記録媒体100に記録されているAVストリー
ムの中から興味のあるシーン、例えば番組の頭出し点な
ど、をサーチすることができ、ユーザのランダムアクセ
スや特殊再生の指示に対して、記録媒体100からのAV
ストリームの読み出し位置の決定が容易になり、またス
トリームの復号開始を速やかに行うことができる。
[0586] With this Clip Information file information,
The user can search an AV stream recorded on the recording medium 100 for a scene of interest, for example, a cue point of a program, etc., and can record in response to the user's random access or special reproduction instruction. AV from medium 100
It is easy to determine the stream reading position, and it is possible to quickly start decoding the stream.

【0587】上述した一連の処理は、ハードウエアによ
り実行させることもできるが、ソフトウエアにより実行
させることもできる。この場合、例えば、記録再生装置
1は、図151に示されるようなパーソナルコンピュー
タにより構成される。
The above-described series of processing can be executed by hardware, but can also be executed by software. In this case, for example, the recording / reproducing apparatus 1 is configured by a personal computer as shown in FIG.

【0588】図151において、CPU(Central Process
ing Unit)201は、ROM(ReadOnly Memory)202に
記憶されているプログラム、または記憶部208からRA
M(Random Access Memory)203にロードされたプロ
グラムに従って各種の処理を実行する。RAM203には
また、CPU201が各種の処理を実行する上において必
要なデータなども適宜記憶される。
In FIG. 151, the CPU (Central Process
ing Unit) 201 is a program stored in a ROM (Read Only Memory) 202 or an RA from a storage unit 208.
Various processes are executed in accordance with a program loaded in an M (Random Access Memory) 203. The RAM 203 also appropriately stores data necessary for the CPU 201 to execute various processes.

【0589】CPU201、ROM202、およびRAM203
は、バス204を介して相互に接続されている。このバ
ス204にはまた、入出力インタフェース205も接続
されている。
[0589] CPU 201, ROM 202, and RAM 203
Are connected to each other via a bus 204. The bus 204 is also connected to an input / output interface 205.

【0590】入出力インタフェース205には、キーボ
ード、マウスなどよりなる入力部206、CRT、LCDなど
よりなるディスプレイ、並びにスピーカなどよりなる出
力部207、ハードディスクなどより構成される記憶部
208、モデム、ターミナルアダプタなどより構成され
る通信部209が接続されている。通信部209は、ネ
ットワークを介しての通信処理を行う。
The input / output interface 205 includes an input unit 206 including a keyboard and a mouse, a display including a CRT and an LCD, an output unit 207 including a speaker, a storage unit 208 including a hard disk, a modem, and a terminal. A communication unit 209 including an adapter and the like is connected. The communication unit 209 performs communication processing via a network.

【0591】入出力インタフェース205にはまた、必
要に応じてドライブ210が接続され、磁気ディスク2
21、光ディスク222、光磁気ディスク223、或い
は半導体メモリ224などが適宜装着され、それらから
読み出されたコンピュータプログラムが、必要に応じて
記憶部208にインストールされる。
[0591] The drive 210 is connected to the input / output interface 205 as necessary.
21, an optical disk 222, a magneto-optical disk 223, a semiconductor memory 224, and the like are appropriately mounted, and a computer program read therefrom is installed in the storage unit 208 as necessary.

【0592】上述した一連の処理は、ハードウェアによ
り実行させることもできるが、ソフトウェアにより実行
させることもできる。一連の処理をソフトウェアにより
実行させる場合には、そのソフトウェアを構成するプロ
グラムが専用のハードウェアに組み込まれているコンピ
ュータ、または、各種のプログラムをインストールする
ことで、各種の機能を実行することが可能な、例えば汎
用のパーソナルコンピュータなどに、記録媒体からイン
ストールされる。
[0593] The above-described series of processing can be executed by hardware, but can also be executed by software. When a series of processing is executed by software, it is possible to execute various functions by installing a computer in which the programs constituting the software are embedded in dedicated hardware, or by installing various programs For example, it is installed from a recording medium to a general-purpose personal computer or the like.

【0593】この記録媒体は、図151に示すように、
コンピュータとは別に、ユーザにプログラムを提供する
ために配布される、プログラムが記録されている磁気デ
ィスク221(フロッピディスクを含む)、光ディスク
222(CD-ROM(Compact Disk-Read Only Memory),D
VD(Digital Versatile Disk)を含む)、光磁気ディス
ク223(MD(Mini-Disk)を含む)、若しくは半導体
メモリ224などよりなるパッケージメディアにより構
成されるだけでなく、コンピュータに予め組み込まれた
状態でユーザに提供される、プログラムが記憶されてい
るROM202や記憶部208が含まれるハードディスク
などで構成される。
[0593] As shown in FIG.
Apart from the computer, a magnetic disk 221 (including a floppy disk) storing the program, an optical disk 222 (CD-ROM (Compact Disk-Read Only Memory),
In addition to being constituted by package media including a VD (Digital Versatile Disk), a magneto-optical disk 223 (including an MD (Mini-Disk)), or a semiconductor memory 224, it is installed in a computer in advance. It is provided with a hard disk including a ROM 202 storing a program and a storage unit 208 provided to a user.

【0594】なお、本明細書において、媒体により提供
されるプログラムを記述するステップは、記載された順
序に従って、時系列的に行われる処理は勿論、必ずしも
時系列的に処理されなくとも、並列的あるいは個別に実
行される処理をも含むものである。
In this specification, steps for describing a program provided by a medium are not limited to time-series processing, but may be performed in parallel according to the described order. Alternatively, it also includes individually executed processing.

【0595】また、本明細書において、システムとは、
複数の装置により構成される装置全体を表すものであ
る。
[0595] In this specification, the system is
It represents the entire device composed of a plurality of devices.

【0596】[0596]

【発明の効果】以上の如く、本発明の第1の情報処理装
置および方法、記録媒体、並びにプログラムによれば、
Clip情報として、AVストリーム中の符号化情報が連続な
区間の開始アドレス情報、AVストリーム中の時刻情報と
アドレス情報を関連づける情報、およびAVストリーム中
の特徴的な画像の時刻情報が記録される。
As described above, according to the first information processing apparatus and method, recording medium, and program of the present invention,
As Clip information, start address information of a section in which encoded information in the AV stream is continuous, information relating the time information in the AV stream to the address information, and time information of a characteristic image in the AV stream are recorded.

【0597】本発明の第2の情報処理装置および方法、
記録媒体、並びにプログラムによれば、Clip情報とし
て、AVストリーム中の符号化情報が連続な区間の開始ア
ドレス情報、AVストリーム中の時刻情報とアドレス情報
を関連づける情報、およびAVストリーム中の特徴的な画
像の時刻情報が再生される。
The second information processing apparatus and method of the present invention,
According to the recording medium and the program, as Clip information, start address information of a section where encoded information in the AV stream is continuous, information that associates time information and address information in the AV stream, and characteristic information in the AV stream. The time information of the image is reproduced.

【0598】従って、いずれの場合においても、AVスト
リームの読み出し位置の決定や復号処理を速やかに行う
ことができ、特に、所定のマークを迅速に検索すること
ができる。
Therefore, in any case, the reading position of the AV stream can be determined and the decoding process can be quickly performed, and in particular, a predetermined mark can be quickly searched.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明を適用した記録再生装置の一実施の形態
の構成を示す図である。
FIG. 1 is a diagram showing a configuration of an embodiment of a recording / reproducing apparatus to which the present invention is applied.

【図2】記録再生装置1により記録媒体に記録されるデ
ータのフォーマットについて説明する図である。
FIG. 2 is a diagram illustrating a format of data recorded on a recording medium by the recording / reproducing apparatus 1.

【図3】Real PlayListとVirtual PlayListについて説
明する図である。
FIG. 3 is a diagram illustrating a Real PlayList and a Virtual PlayList.

【図4】Real PlayListの作成について説明する図であ
る。
FIG. 4 is a diagram illustrating creation of a Real PlayList.

【図5】Real PlayListの削除について説明する図であ
る。
FIG. 5 is a diagram illustrating deletion of a Real PlayList.

【図6】アセンブル編集について説明する図である。FIG. 6 is a diagram illustrating assemble editing.

【図7】Virtual PlayListにサブパスを設ける場合につ
いて説明する図である。
FIG. 7 is a diagram illustrating a case where a sub path is provided in a Virtual PlayList.

【図8】PlayListの再生順序の変更について説明する図
である。
FIG. 8 is a diagram illustrating a change in the playback order of a PlayList.

【図9】PlayList上のマークとClip上のマークについて
説明する図である。
FIG. 9 is a diagram illustrating marks on a PlayList and marks on a Clip.

【図10】メニューサムネイルについて説明する図であ
る。
FIG. 10 is a diagram illustrating menu thumbnails.

【図11】PlayListに付加されるマークについて説明す
る図である。
FIG. 11 is a diagram illustrating marks added to a PlayList.

【図12】クリップに付加されるマークについて説明す
る図である。
FIG. 12 is a diagram illustrating a mark added to a clip.

【図13】PlayList、Clip、サムネイルファイルの関係
について説明する図である。
FIG. 13 is a diagram illustrating a relationship between a PlayList, a Clip, and a thumbnail file.

【図14】ディレクトリ構造について説明する図であ
る。
FIG. 14 is a diagram illustrating a directory structure.

【図15】info.dvrのシンタクスを示す図である。FIG. 15 is a diagram illustrating the syntax of info.dvr.

【図16】DVR volumeのシンタクスを示す図である。FIG. 16 is a diagram illustrating the syntax of a DVR volume.

【図17】Resumevolumeのシンタクスを示す図である。FIG. 17 is a diagram illustrating the syntax of Resumevolume.

【図18】UIAppInfovolumeのシンタクスを示す図であ
る。
FIG. 18 is a diagram illustrating the syntax of UIAppInfovolume.

【図19】Character set valueのテーブルを示す図で
ある。
FIG. 19 is a diagram showing a table of Character set value.

【図20】TableOfPlayListのシンタクスを示す図であ
る。
FIG. 20 is a diagram illustrating the syntax of TableOfPlayList.

【図21】TableOfPlayListの他のシンタクスを示す図
である。
FIG. 21 is a diagram illustrating another syntax of the TableOfPlayList.

【図22】MakersPrivateDataのシンタクスを示す図で
ある。
FIG. 22 is a diagram illustrating the syntax of MakersPrivateData.

【図23】xxxxx.rplsとyyyyy.vplsのシンタクスを示す
図である。
FIG. 23 is a diagram illustrating the syntax of xxxxx.rpls and yyyyy.vpls.

【図24】PlayListについて説明する図である。FIG. 24 is a diagram illustrating a PlayList.

【図25】PlayListのシンタクスを示す図である。FIG. 25 is a diagram illustrating the syntax of a PlayList.

【図26】PlayList_typeのテーブルを示す図である。FIG. 26 is a diagram showing a table of PlayList_type.

【図27】UIAppinfoPlayListのシンタクスを示す図で
ある。
FIG. 27 is a diagram illustrating the syntax of UIAppinfoPlayList.

【図28】図27に示したUIAppinfoPlayListのシンタ
クス内のフラグについて説明する図である。
28 is a diagram illustrating a flag in the syntax of UIAppinfoPlayList shown in FIG. 27.

【図29】PlayItemについて説明する図である。FIG. 29 is a diagram illustrating PlayItem.

【図30】PlayItemについて説明する図である。FIG. 30 is a diagram illustrating PlayItem.

【図31】PlayItemについて説明する図である。FIG. 31 is a diagram illustrating PlayItem.

【図32】PlayItemのシンタクスを示す図である。FIG. 32 is a diagram illustrating the syntax of PlayItem.

【図33】IN_timeについて説明する図である。FIG. 33 is a diagram illustrating IN_time.

【図34】OUT_timeについて説明する図である。FIG. 34 is a diagram illustrating OUT_time.

【図35】Connection_Conditionのテーブルを示す図で
ある。
FIG. 35 is a diagram showing a Connection_Condition table.

【図36】Connection_Conditionについて説明する図で
ある。
FIG. 36 is a diagram for describing Connection_Condition.

【図37】BridgeSequenceInfoを説明する図である。FIG. 37 is a diagram for describing BridgeSequenceInfo.

【図38】BridgeSequenceInfoのシンタクスを示す図で
ある。
FIG. 38 is a diagram illustrating the syntax of BridgeSequenceInfo.

【図39】SubPlayItemについて説明する図である。FIG. 39 is a diagram for describing SubPlayItem.

【図40】SubPlayItemのシンタクスを示す図である。[Fig. 40] Fig. 40 is a diagram illustrating the syntax of SubPlayItem.

【図41】SubPath_typeのテーブルを示す図である。FIG. 41 is a diagram illustrating a table of SubPath_type.

【図42】PlayListMarkのシンタクスを示す図である。Fig. 42 is a diagram illustrating the syntax of PlayListMark.

【図43】Mark_typeのテーブルを示す図である。Fig. 43 is a diagram illustrating a table of Mark_type.

【図44】Mark_time_stampを説明する図である。FIG. 44 is a view for explaining Mark_time_stamp.

【図45】zzzzz.clipのシンタクスを示す図である。FIG. 45 is a diagram illustrating the syntax of zzzzz.clip.

【図46】ClipInfoのシンタクスを示す図である。Fig. 46 is a diagram illustrating the syntax of ClipInfo.

【図47】Clip_stream_typeのテーブルを示す図であ
る。
[Fig. 47] Fig. 47 is a diagram illustrating a Clip_stream_type table.

【図48】offset_SPNについて説明する図である。[Fig. 48] Fig. 48 is a diagram for describing offset_SPN.

【図49】offset_SPNについて説明する図である。Fig. 49 is a diagram for describing offset_SPN.

【図50】STC区間について説明する図である。FIG. 50 is a diagram illustrating an STC section.

【図51】STC_Infoについて説明する図である。FIG. 51 is a diagram for describing STC_Info.

【図52】STC_Infoのシンタクスを示す図である。Fig. 52 is a diagram illustrating the syntax of STC_Info.

【図53】ProgramInfoを説明する図である。FIG. 53 is a view for explaining ProgramInfo.

【図54】ProgramInfoのシンタクスを示す図である。Fig. 54 is a diagram illustrating the syntax of ProgramInfo.

【図55】VideoCondingInfoのシンタクスを示す図であ
る。
Fig. 55 is a diagram illustrating the syntax of VideoCondingInfo.

【図56】Video_formatのテーブルを示す図である。Fig. 56 is a diagram illustrating a Video_format table.

【図57】frame_rateのテーブルを示す図である。Fig. 57 is a diagram illustrating a table of frame_rate.

【図58】display_aspect_ratioのテーブルを示す図で
ある。
Fig. 58 is a diagram illustrating a table of display_aspect_ratio.

【図59】AudioCondingInfoのシンタクスを示す図であ
る。
Fig. 59 is a diagram illustrating the syntax of AudioCondingInfo.

【図60】audio_codingのテーブルを示す図である。Fig. 60 is a diagram illustrating a table of audio_coding.

【図61】audio_component_typeのテーブルを示す図で
ある。
Fig. 61 is a diagram illustrating a table of audio_component_type.

【図62】sampling_frequencyのテーブルを示す図であ
る。
FIG. 62 is a diagram illustrating a table of sampling_frequency.

【図63】CPIについて説明する図である。FIG. 63 is a diagram illustrating CPI.

【図64】CPIについて説明する図である。FIG. 64 is a diagram illustrating CPI.

【図65】CPIのシンタクスを示す図である。Fig. 65 is a diagram illustrating the syntax of CPI.

【図66】CPI_typeのテーブルを示す図である。Fig. 66 is a diagram illustrating a table of CPI_type.

【図67】ビデオEP_mapについて説明する図である。Fig. 67 is a diagram for describing a video EP_map.

【図68】EP_mapについて説明する図である。Fig. 68 is a diagram for describing EP_map.

【図69】EP_mapについて説明する図である。Fig. 69 is a diagram for describing EP_map.

【図70】EP_mapのシンタクスを示す図である。Fig. 70 is a diagram illustrating the syntax of EP_map.

【図71】EP_type valuesのテーブルを示す図である。Fig. 71 is a diagram illustrating a table of EP_type values.

【図72】EP_map_for_one_stream_PIDのシンタクスを
示す図である。
Fig. 72 is a diagram illustrating the syntax of EP_map_for_one_stream_PID.

【図73】TU_mapについて説明する図である。Fig. 73 is a diagram for describing TU_map.

【図74】TU_mapのシンタクスを示す図である。Fig. 74 is a diagram illustrating the syntax of TU_map.

【図75】ClipMarkのシンタクスを示す図である。Fig. 75 is a diagram illustrating the syntax of ClipMark.

【図76】mark_typeのテーブルを示す図である。Fig. 76 is a diagram illustrating a table of mark_type.

【図77】mark_type_stampのテーブルを示す図であ
る。
Fig. 77 is a diagram illustrating a table of mark_type_stamp.

【図78】ClipMarkのシンタクスの他の例を示す図であ
る。
Fig. 78 is a diagram illustrating another example of the syntax of ClipMark.

【図79】Mark_typeのテーブルの他の例を示す図であ
る。
[Fig. 79] Fig. 79 is a diagram illustrating another example of the Mark_type table.

【図80】mark_entry()とrepresentative_picture_ent
ry()の例を示す図である。
[Fig. 80] mark_entry () and representative_picture_ent
It is a figure showing an example of ry ().

【図81】mark_entry()とrepresentative_picture_ent
ry()のシンタクスを示す図である。
[Fig. 81] mark_entry () and representative_picture_ent
It is a figure showing the syntax of ry ().

【図82】mark_entry()とrepresentative_picture_ent
ry()のシンタクスの他の例を示す図である。
[Fig. 82] mark_entry () and representative_picture_ent
FIG. 35 is a diagram illustrating another example of the syntax of ry ().

【図83】RSPN_ref_EP_startとoffset_num_picturesの
関係を説明する図である。
[Fig. 83] Fig. 83 is a diagram for describing a relationship between RSPN_ref_EP_start and offset_num_pictures.

【図84】mark_entry()とrepresentative_picture_ent
ry()のシンタクスの他の例を示す図である。
[Fig. 84] mark_entry () and representative_picture_ent
FIG. 35 is a diagram illustrating another example of the syntax of ry ().

【図85】ClipMarkとEP_mapの関係を説明する図であ
る。
[Fig. 85] Fig. 85 is a diagram illustrating the relationship between ClipMark and EP_map.

【図86】menu.thmbとmark.thmbのシンタクスを示す図
である。
Fig. 86 is a diagram illustrating the syntax of menu.thmb and mark.thmb.

【図87】Thumbnailのシンタクスを示す図である。Fig. 87 is a diagram illustrating the syntax of Thumbnail.

【図88】thumbnail_picture_formatのテーブルを示す
図である。
Fig. 88 is a diagram illustrating a table of thumbnail_picture_format.

【図89】tn_blockについて説明する図である。FIG. 89 is a view for explaining tn_block.

【図90】DVR MPEG2のトランスポートストリームの構
造について説明する図である。
[Fig. 90] Fig. 90 is a diagram illustrating the structure of a transport stream of DVR MPEG2.

【図91】DVR MPEG2のトランスポートストリームのレ
コーダモデルを示す図である。
Fig. 91 is a diagram illustrating a recorder model of a transport stream of DVR MPEG2.

【図92】DVR MPEG2のトランスポートストリームのプ
レーヤモデルを示す図である。
Fig. 92 is a diagram illustrating a player model of a transport stream of DVR MPEG2.

【図93】source packetのシンタクスを示す図であ
る。
Fig. 93 is a diagram illustrating the syntax of a source packet.

【図94】TP_extra_headerのシンタクスを示す図であ
る。
Fig. 94 is a diagram illustrating the syntax of TP_extra_header.

【図95】copy permission indicatorのテーブルを示
す図である。
FIG. 95 is a diagram illustrating a table of a copy permission indicator.

【図96】シームレス接続について説明する図である。FIG. 96 is a diagram illustrating seamless connection.

【図97】シームレス接続について説明する図である。FIG. 97 is a diagram illustrating seamless connection.

【図98】シームレス接続について説明する図であるFIG. 98 is a diagram illustrating seamless connection;

【図99】シームレス接続について説明する図である。FIG. 99 is a diagram illustrating seamless connection.

【図100】シームレス接続について説明する図であるFIG. 100 is a diagram illustrating seamless connection;

【図101】オーディオのオーバーラップについて説明
する図である。
FIG. 101 is a diagram illustrating audio overlap;

【図102】BridgeSequenceを用いたシームレス接続に
ついて説明する図である。
Fig. 102 is a diagram for describing seamless connection using BridgeSequence.

【図103】BridgeSequenceを用いないシームレス接続
について説明する図である。
Fig. 103 is a diagram for describing seamless connection without using BridgeSequence.

【図104】DVR STDモデルを示す図である。FIG. 104 is a diagram illustrating a DVR STD model.

【図105】復号、表示のタイミングチャートを示す図
である。
FIG. 105 is a diagram showing a timing chart of decoding and display.

【図106】図81のシンタクスの場合におけるマーク
点で示されるシーンの頭出し再生を説明するフローチャ
ートである。
FIG. 106 is a flowchart for describing cueing reproduction of a scene indicated by a mark point in the case of the syntax in FIG. 81.

【図107】図75または図78のClipMarkのmark_ent
ry()/representative_picture_entry()が図81のシン
タクスの場合における再生の動作を説明する図である。
FIG. 107: mark_ent of ClipMark in FIG. 75 or FIG. 78
FIG. 82 is a diagram for describing a reproduction operation in a case where ry () / representative_picture_entry () has the syntax in FIG. 81.

【図108】EP_mapの例を示す図である。Fig. 108 is a diagram illustrating an example of an EP_map.

【図109】ClipMarkの例を示す図である。Fig. 109 is a diagram illustrating an example of a ClipMark.

【図110】図75または図78のClipMarkのmark_ent
ry()/representative_picture_entry()が図81のシン
タクスの場合におけるCMスキップ再生処理を説明するフ
ローチャートである。
[FIG. 110] mark_ent of ClipMark in FIG. 75 or FIG. 78
FIG. 83 is a flowchart for describing CM skip playback processing when ry () / representative_picture_entry () has the syntax in FIG. 81.

【図111】図75または図78のClipMarkのmark_ent
ry()/representative_picture_entry()が図81のシン
タクスの場合におけるCMスキップ再生処理を説明するフ
ローチャートである。
FIG. 111 mark_ent of ClipMark in FIG. 75 or FIG. 78
FIG. 83 is a flowchart for describing CM skip playback processing when ry () / representative_picture_entry () has the syntax in FIG. 81.

【図112】図75または図78のClipMarkのmark_ent
ry()/representative_picture_entry()が図82のシン
タクスの場合におけるマーク点で示されるシーンの頭出
し再生を説明するフローチャートである。
Fig. 112 mark_ent of ClipMark in Fig. 75 or Fig. 78
FIG. 83 is a flowchart for describing cueing reproduction of a scene indicated by a mark point when ry () / representative_picture_entry () has the syntax in FIG.

【図113】図75または図78のClipMarkのmark_ent
ry()/representative_picture_entry()が図82のシン
タクスの場合における再生を説明する図である。
FIG. 113: mark_ent of ClipMark in FIG. 75 or FIG. 78
Fig. 83 is a diagram for describing reproduction in a case where ry () / representative_picture_entry () has the syntax of Fig. 82.

【図114】EP_mapの例を示す図である。Fig. 114 is a diagram illustrating an example of an EP_map.

【図115】ClipMarkの例を示す図である。Fig. 115 is a diagram illustrating an example of a ClipMark.

【図116】図75または図78のClipMarkのmark_ent
ry()/representative_picture_entry()が図82のシン
タクスの場合におけるCMスキップ再生を説明するフロー
チャートである。
[FIG. 116] mark_ent of ClipMark in FIG. 75 or FIG. 78
FIG. 83 is a flowchart illustrating CM skip playback in the case where ry () / representative_picture_entry () has the syntax of FIG. 82.

【図117】図75または図78のClipMarkのmark_ent
ry()/representative_picture_entry()が図82のシン
タクスの場合におけるCMスキップ再生を説明するフロー
チャートである。
FIG. 117: mark_ent of ClipMark in FIG. 75 or FIG. 78
FIG. 83 is a flowchart illustrating CM skip playback in the case where ry () / representative_picture_entry () has the syntax of FIG. 82.

【図118】図75または図78のClipMarkのmark_ent
ry()/representative_picture_entry()が図84のシン
タクスの場合におけるマーク点で示されるシーンの頭出
し再生を説明するフローチャートである。
FIG. 118: mark_ent of ClipMark in FIG. 75 or FIG. 78
FIG. 85 is a flowchart for describing cueing reproduction of a scene indicated by a mark point when ry () / representative_picture_entry () has the syntax of FIG.

【図119】図75または図78のClipMarkのmark_ent
ry()/representative_picture_entry()が図84のシン
タクスの場合における再生を説明する図である。
Fig. 119 is mark_ent of ClipMark in Fig. 75 or Fig. 78.
FIG. 85 is a diagram for describing reproduction when ry () / representative_picture_entry () has the syntax of FIG. 84.

【図120】EP_mapの例を示す図である。Fig. 120 is a diagram illustrating an example of an EP_map.

【図121】ClipMarkの例を示す図である。FIG. 121 is a diagram illustrating an example of a ClipMark.

【図122】図75または図78のClipMarkのmark_ent
ry()/representative_picture_entry()が図84のシン
タクスの場合におけるCMスキップ再生を説明するフロー
チャートである。
FIG. 122: mark_ent of ClipMark of FIG. 75 or FIG. 78
FIG. 85 is a flowchart illustrating CM skip playback in the case where ry () / representative_picture_entry () has the syntax of FIG. 84.

【図123】図75または図78のClipMarkのmark_ent
ry()/representative_picture_entry()が図84のシン
タクスの場合におけるCMスキップ再生を説明するフロー
チャートである。
[FIG. 123] mark_ent of ClipMark in FIG. 75 or FIG. 78
FIG. 85 is a flowchart illustrating CM skip playback in the case where ry () / representative_picture_entry () has the syntax of FIG. 84.

【図124】アプリケーションフォーマットを示す図で
ある。
FIG. 124 is a diagram showing an application format.

【図125】PlayList上のマークとClip上のマークを説
明する図である。
Fig. 125 is a diagram for describing marks on a PlayList and marks on a Clip.

【図126】ClipMarkのシンタクスの他の例を示す図で
ある。
Fig. 126 is a diagram illustrating another example of the syntax of ClipMark.

【図127】ClipMarkのシンタクスのさらに他の例を示
す図である。
Fig. 127 is a diagram illustrating another example of the syntax of ClipMark.

【図128】ClipInfo()のシンタクスの別の例を示す図
である。
Fig. 128 is a diagram illustrating another example of the syntax of ClipInfo ().

【図129】ProgramInfo()のシンタクスの別の例を示
す図である。
Fig. 129 is a diagram illustrating another example of the syntax of ProgramInfo ().

【図130】StreamCodingInfo()のシンタクスを示す図
である。
Fig. 130 is a diagram illustrating the syntax of StreamCodingInfo ().

【図131】stream_coding_typeを説明する図である。Fig. 131 is a diagram for describing stream_coding_type.

【図132】EP-fineとEP-coarseの関係を説明する図で
ある。
Fig. 132 is a diagram for describing the relationship between EP-fine and EP-coarse.

【図133】PTS_EP_fineとPTS_EP_coarseのフォーマッ
トを説明する図である。
Fig. 133 is a diagram for describing the format of PTS_EP_fine and PTS_EP_coarse.

【図134】RSPN_EP_fineとRSPN_EP_coarseのフォーマ
ットを説明する図である。
[Fig. 134] Fig. 134 is a diagram illustrating the format of RSPN_EP_fine and RSPN_EP_coarse.

【図135】EP-coarseのエントリーとEP-fineのエント
リーを説明する図である。
Fig. 135 is a diagram for describing an EP-coarse entry and an EP-fine entry.

【図136】EP_mapのシンタクスの別の例を示す図であ
る。
Fig. 136 is a diagram illustrating another example of the syntax of the EP_map.

【図137】EP_stream_type valuesを説明する図であ
る。
Fig. 137 is a diagram for describing EP_stream_type values.

【図138】図136のEP_mapのEP_map_for_one_strea
m_PIDのシンタクスを示す図である。
FIG. 138. EP_map_for_one_strea of the EP_map in FIG. 136
It is a figure showing the syntax of m_PID.

【図139】EP_video_typeの値の意味を説明する図で
ある。
Fig. 139 is a diagram for describing the meaning of the value of EP_video_type.

【図140】Clip AVストリームファイルおよびClip In
formationファイルの作成処理を説明するフローチャー
トである。
FIG. 140: Clip AV stream file and Clip In
It is a flowchart explaining the creation processing of a formation file.

【図141】STC_Infoの作成の動作例を説明するフロー
チャートである。
FIG. 141 is a flowchart for describing an operation example of creating STC_Info.

【図142】ProgramInfoの作成の動作例を説明するフ
ローチャートである。
FIG. 142 is a flowchart for describing an operation example of creating ProgramInfo.

【図143】EP_mapの作成の動作例を説明するフローチ
ャートである。
Fig. 143 is a flowchart for describing an operation example of creating an EP_map.

【図144】アナログAV信号をエンコードして記録する
場合における、図75または図78のClipMarkのmark_e
ntry()/representative_picture_entry()が図81に示
すシンタクスであるときのClipMarkの作成方法を説明す
るフローチャートである。
144 shows mark_e of ClipMark in FIG. 75 or 78 when encoding and recording an analog AV signal.
FIG. 83 is a flowchart illustrating a method for creating a ClipMark when ntry () / representative_picture_entry () has the syntax illustrated in FIG. 81.

【図145】ディジタルインタフェースから入力された
トランスポートストリームを記録する場合における、図
75または図78のClipMarkのmark_entry()/represent
ative_picture_entry()が図81に示すシンタクスであ
るときのClipMarkの作成方法を説明するフローチャート
である。
Fig. 145 shows mark_entry () / represent of ClipMark in Fig. 75 or Fig. 78 when recording a transport stream input from the digital interface.
FIG. 83 is a flowchart illustrating a method for creating a ClipMark when ative_picture_entry () has the syntax illustrated in FIG. 81.

【図146】EP_mapを使う特殊再生を説明する図であ
る。
Fig. 146 is a diagram for describing special reproduction using an EP_map.

【図147】EP_mapを使用したIピクチャサーチのため
のプレーヤモデルを説明する図である。
Fig. 147 is a diagram for describing a player model for I picture search using EP_map.

【図148】ミニマイズのオペレーションの例を示す図
である。
Fig. 148 is a diagram illustrating an example of a minimize operation.

【図149】ミニマイズのときにIN_timeの前の不要な
ストリームデータを消去する例を示す図である。
Fig. 149 is a diagram illustrating an example of deleting unnecessary stream data before IN_time at the time of minimization.

【図150】ミニマイズのときにOUT_timeの後ろの不要
なストリームデータを消去する例を説明する図である。
[Fig. 150] Fig. 150 is a diagram illustrating an example of deleting unnecessary stream data after OUT_time at the time of minimization.

【図151】媒体を説明する図である。FIG. 151 is a diagram illustrating a medium.

【符号の説明】[Explanation of symbols]

1 記録再生装置, 11乃至13 端子, 14 解
析部, 15 AVエンコーダ, 16 マルチプレク
サ, 17 スイッチ, 18 多重化ストリーム解析
部, 19 ソースパケッタイザ, 20 ECC符号化
部, 21 変調部, 22 書き込み部, 23 制
御部, 24 ユーザインタフェース,26 デマルチ
プレクサ, 27 AVデコーダ, 28 読み出し部,
29復調部, 30 ECC復号部, 31 ソースパ
ケッタイザ, 32,33 端子
1 recording / reproducing device, 11 to 13 terminals, 14 analyzing unit, 15 AV encoder, 16 multiplexer, 17 switch, 18 multiplexed stream analyzing unit, 19 source packetizer, 20 ECC encoding unit, 21 modulation unit, 22 writing unit, 23 control unit, 24 user interface, 26 demultiplexer, 27 AV decoder, 28 reading unit,
29 demodulation unit, 30 ECC decoding unit, 31 source packetizer, 32, 33 terminals

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5C053 FA14 FA23 GB06 GB08 GB15 GB38 HA21 HA24 JA21 JA24 KA26 LA01 LA11 5D044 AB05 AB07 BC04 CC06 DE12 DE38 DE39 DE49 DE53 EF05 FG18 GK08 5D110 AA17 AA19 AA26 AA28 DA02 DA11 DA15 DA17 DA19 DB03 DB09 DC05 DC16  ──────────────────────────────────────────────────続 き Continued on the front page F-term (reference) DB09 DC05 DC16

Claims (19)

【特許請求の範囲】[Claims] 【請求項1】 AVストリーム、前記AVストリームの実体
を管理するClip情報、および前記AVストリームの再生を
管理するPlayList情報が記録される記録媒体に対して前
記AVストリームを記録する情報処理装置において、 前記AVストリーム中の符号化情報が連続な区間の開始ア
ドレス情報、 前記AVストリーム中の時刻情報とアドレス情報を関連づ
ける情報、および前記AVストリーム中の特徴的な画像の
時刻情報を生成する生成手段と、 前記生成手段により生成された情報を前記Clip情報とし
て前記記録媒体に記録する記録手段とを備えることを特
徴とする情報処理装置。
1. An information processing apparatus for recording an AV stream on a recording medium on which an AV stream, Clip information for managing an entity of the AV stream, and PlayList information for managing reproduction of the AV stream are recorded. Generating means for generating start address information of a section in which encoded information in the AV stream is continuous, information for associating time information and address information in the AV stream, and time information of a characteristic image in the AV stream; An information processing apparatus, comprising: a recording unit that records information generated by the generation unit as the Clip information on the recording medium.
【請求項2】 前記符号化情報が連続な区間の開始アド
レス情報は、STCシーケンスまたはプログラムシーケン
スの開始アドレスであり、 前記時刻情報とアドレス情報を関連づける情報は、EP_m
apまたはTU_mapであり、 前記特徴的な画像の時刻情報は、ClipMarkであることを
特徴とする請求項1に記載の情報処理装置。
2. The start address information of a section in which the encoded information is continuous is a start address of an STC sequence or a program sequence, and the information that associates the time information with the address information is EP_m.
The information processing apparatus according to claim 1, wherein the time information of the characteristic image is ClipMark, which is ap or TU_map.
【請求項3】 前記記録手段は、前記AVストリームの記
録レートの平均値に関する情報を前記記録媒体にさらに
記録することを特徴とする請求項1に記載の情報処理装
置。
3. The information processing apparatus according to claim 1, wherein the recording unit further records information on an average value of a recording rate of the AV stream on the recording medium.
【請求項4】 前記平均値に関する情報は、TS_average
_rate であることを特徴とする請求項3に記載の情報処
理装置。
4. The information on the average value is TS_average
4. The information processing apparatus according to claim 3, wherein _rate.
【請求項5】 前記AVストリームはトランスポートスト
リームであることを特徴とする請求項1に記載の情報処
理装置。
5. The information processing apparatus according to claim 1, wherein the AV stream is a transport stream.
【請求項6】 前記AVストリーム中の符号化情報が連続
な区間の開始アドレス情報は、前記トランスポートスト
リームのシステムタイムクロックが連続な区間であるST
Cシーケンスの開始アドレスを含むことを特徴とする請
求項1に記載の情報処理装置。
6. The start address information of a section where the coded information in the AV stream is continuous is ST ST where the system time clock of the transport stream is a continuous section.
The information processing apparatus according to claim 1, further comprising a start address of the C sequence.
【請求項7】 前記AVストリーム中の符号化情報が連続
な区間の開始アドレス情報は、前記トランスポートスト
リームのプログラム内容が一定な区間であるプログラム
シーケンスの開始アドレスを含むことを特徴とする請求
項1に記載の情報処理装置。
7. The program according to claim 1, wherein the start address information of the section where the coding information in the AV stream is continuous includes a start address of a program sequence in which the program content of the transport stream is a constant section. 2. The information processing device according to 1.
【請求項8】 前記AVストリーム中の符号化情報が連続
な区間の開始アドレス情報は、前記トランスポートスト
リームのトランスポートパケットの到着時間に基づくア
ライバルタイムが連続な区間の開始アドレスを含むこと
を特徴とする請求項1に記載の情報処理装置。
8. The start address information of a section in which encoded information in the AV stream is continuous includes a start address of a section in which an arrival time is continuous based on the arrival time of a transport packet of the transport stream. The information processing apparatus according to claim 1.
【請求項9】 前記AVストリーム中の時刻情報とアドレ
ス情報を関連づける情報は、前記トランスポートストリ
ームのIピクチャのアドレスとそのプレゼンテーション
タイムスタンプを含むことを特徴とする請求項1に記載
の情報処理装置。
9. The information processing apparatus according to claim 1, wherein the information associating the time information and the address information in the AV stream includes an I picture address of the transport stream and a presentation time stamp thereof. .
【請求項10】 前記AVストリーム中の時刻情報とアド
レス情報を関連づける情報の少なくとも一部を圧縮する
圧縮手段をさらに備え、 前記記録手段は、前記圧縮手段により圧縮された前記情
報を記録することを特徴とする請求項9に記載の情報処
理装置。
10. A compression unit for compressing at least a part of information that associates time information and address information in the AV stream, wherein the recording unit records the information compressed by the compression unit. The information processing apparatus according to claim 9, wherein:
【請求項11】 前記AVストリーム中の時刻情報とアド
レス情報を関連づける情報は、トランスポートパケット
の到着時刻に基づいたアライバルタイムと、それに対応
するトランスポートパケットの前記AVストリームデータ
中のアドレスを含むことを特徴とする請求項1に記載の
情報処理装置。
11. The information associating time information and address information in the AV stream includes an arrival time based on the arrival time of a transport packet and an address of the corresponding transport packet in the AV stream data. The information processing apparatus according to claim 1, wherein:
【請求項12】 AVストリーム、前記AVストリームの実
体を管理するClip情報、および前記AVストリームの再生
を管理するPlayList情報が記録される記録媒体に対して
前記AVストリームを記録する情報処理装置の情報処理記
方法において、 前記AVストリーム中の符号化情報が連続な区間の開始ア
ドレス情報、 前記AVストリーム中の時刻情報とアドレス情報を関連づ
ける情報、および前記AVストリーム中の特徴的な画像の
時刻情報を生成する生成ステップと、 前記生成ステップにより生成された情報を前記Clip情報
として前記記録媒体に記録する記録ステップとを含むこ
とを特徴とする情報処理方法。
12. Information of an information processing apparatus that records the AV stream on a recording medium on which an AV stream, Clip information for managing the entity of the AV stream, and PlayList information for managing reproduction of the AV stream are recorded. In the processing notation method, the start address information of a section in which the encoded information in the AV stream is continuous, the information that associates the time information in the AV stream with the address information, and the time information of a characteristic image in the AV stream are An information processing method, comprising: a generating step of generating; and a recording step of recording the information generated by the generating step as the Clip information on the recording medium.
【請求項13】 AVストリーム、前記AVストリームの実
体を管理するClip情報、および前記AVストリームの再生
を管理するPlayList情報が記録される記録媒体に対して
前記AVストリームを記録する情報処理装置のプログラム
において、 前記AVストリーム中の符号化情報が連続な区間の開始ア
ドレス情報、 前記AVストリーム中の時刻情報とアドレス情報を関連づ
ける情報、および前記AVストリーム中の特徴的な画像の
時刻情報を生成する生成ステップと、前記生成ステップ
により生成された情報を前記Clip情報として前記記録媒
体に記録する記録ステップとを含むことを特徴とするコ
ンピュータが読み取り可能なプログラムが記録されてい
る記録媒体。
13. A program for an information processing apparatus for recording an AV stream on a recording medium on which an AV stream, Clip information for managing the substance of the AV stream, and PlayList information for managing the reproduction of the AV stream are recorded. In the above, generation of generating start address information of a section in which encoded information in the AV stream is continuous, information for associating time information in the AV stream with address information, and time information of a characteristic image in the AV stream And a recording step of recording the information generated by the generation step as the Clip information on the recording medium.
【請求項14】 AVストリーム、前記AVストリームの実
体を管理するClip情報、および前記AVストリームの再生
を管理するPlayList情報が記録される記録媒体に対して
前記AVストリームを記録する情報処理装置を制御するコ
ンピュータに、 前記AVストリーム中の符号化情報が連続な区間の開始ア
ドレス情報、 前記AVストリーム中の時刻情報とアドレス情報を関連づ
ける情報、および前記AVストリーム中の特徴的な画像の
時刻情報を生成する生成ステップと、 前記生成ステップにより生成された情報を前記Clip情報
として前記記録媒体に記録する記録ステップとを実行さ
せるプログラム。
14. An information processing apparatus that records an AV stream on a recording medium on which an AV stream, Clip information for managing the entity of the AV stream, and PlayList information for managing reproduction of the AV stream are recorded. Generating start address information of a section where the encoded information in the AV stream is continuous, information relating the time information in the AV stream to the address information, and time information of a characteristic image in the AV stream. And a recording step of recording the information generated by the generating step as the Clip information on the recording medium.
【請求項15】 AVストリーム、前記AVストリームの実
体を管理するClip情報、および前記AVストリームの再生
を管理するPlayList情報が記録されている記録媒体から
前記AVストリームを再生する情報処理装置において、 前記Clip情報として、 前記AVストリーム中の符号化情報が連続な区間の開始ア
ドレス情報、 前記AVストリーム中の時刻情報とアドレス情報を関連づ
ける情報、および前記AVストリーム中の特徴的な画像の
時刻情報を再生する再生手段と、 前記再生手段により再生された前記Clip情報に基づい
て、前記AVストリームの出力を制御する制御手段とを備
えることを特徴とする情報処理装置。
15. An information processing apparatus for playing back the AV stream from a recording medium on which an AV stream, Clip information for managing the entity of the AV stream, and PlayList information for managing the playback of the AV stream are recorded. As Clip information, reproduction of start address information of a section in which the coded information in the AV stream is continuous, information relating the time information in the AV stream to address information, and time information of a characteristic image in the AV stream An information processing apparatus, comprising: a playback unit that performs output; and a control unit that controls output of the AV stream based on the Clip information played back by the playback unit.
【請求項16】 AVストリーム、前記AVストリームの実
体を管理するClip情報、および前記AVストリームの再生
を管理するPlayList情報が記録されている記録媒体から
前記AVストリームを再生する情報処理装置の情報処理方
法において、前記Clip情報として、 前記AVストリーム中の符号化情報が連続な区間の開始ア
ドレス情報、 前記AVストリーム中の時刻情報とアドレス情報を関連づ
ける情報、および前記AVストリーム中の特徴的な画像の
時刻情報を再生する再生ステップと、 前記再生ステップの処理により再生された前記Clip情報
に基づいて、前記AVストリームの出力を制御する制御ス
テップとを含むことを特徴とする情報処理方法。
16. An information processing apparatus for playing back the AV stream from a recording medium on which an AV stream, Clip information for managing the entity of the AV stream, and PlayList information for managing the playback of the AV stream are recorded. In the method, as the Clip information, start address information of a section in which encoded information in the AV stream is continuous, information relating time information and address information in the AV stream, and information of a characteristic image in the AV stream. An information processing method, comprising: a reproduction step of reproducing time information; and a control step of controlling output of the AV stream based on the Clip information reproduced by the processing of the reproduction step.
【請求項17】 AVストリーム、前記AVストリームの実
体を管理するClip情報、および前記AVストリームの再生
を管理するPlayList情報が記録されている記録媒体から
前記AVストリームを再生する情報処理装置のプログラム
において、 前記Clip情報として、 前記AVストリーム中の符号化情報が連続な区間の開始ア
ドレス情報、 前記AVストリーム中の時刻情報とアドレス情報を関連づ
ける情報、および前記AVストリーム中の特徴的な画像の
時刻情報を再生する再生ステップと、 前記再生ステップの処理により再生された前記Clip情報
に基づいて、前記AVストリームの出力を制御する制御ス
テップとを含むことを特徴とするコンピュータが読み取
り可能なプログラムが記録されている記録媒体。
17. A program for an information processing apparatus for reproducing an AV stream from a recording medium in which an AV stream, Clip information for managing the substance of the AV stream, and PlayList information for managing the reproduction of the AV stream are recorded. As the Clip information, start address information of a section in which encoded information in the AV stream is continuous, information relating the time information in the AV stream to address information, and time information of a characteristic image in the AV stream. And a control step of controlling the output of the AV stream based on the Clip information reproduced by the processing of the reproduction step. Recording media.
【請求項18】 AVストリーム、前記AVストリームの実
体を管理するClip情報、および前記AVストリームの再生
を管理するPlayList情報が記録されている記録媒体から
前記AVストリームを再生する情報処理装置を制御するコ
ンピュータに、 前記Clip情報として、 前記AVストリーム中の符号化情報が連続な区間の開始ア
ドレス情報、前記AVストリーム中の時刻情報とアドレス
情報を関連づける情報、および前記AVストリーム中の特
徴的な画像の時刻情報を再生する再生ステップと、 前記再生ステップの処理により再生された前記Clip情報
に基づいて、前記AVストリームの出力を制御する制御ス
テップとを実行させるプログラム。
18. An information processing apparatus for playing back the AV stream from a recording medium on which an AV stream, Clip information for managing the entity of the AV stream, and PlayList information for managing the playback of the AV stream are recorded. The computer may include, as the Clip information, start address information of a section in which the encoded information in the AV stream is continuous, information relating the time information and the address information in the AV stream, and a characteristic image of the AV stream. A program for executing a reproduction step of reproducing time information, and a control step of controlling the output of the AV stream based on the Clip information reproduced by the processing of the reproduction step.
【請求項19】 AVストリーム、前記AVストリームの実
体を管理するClip情報、および前記AVストリームの再生
を管理するPlayList情報が記録されている記録媒体にお
いて、 前記Clip情報として、 前記AVストリーム中の符号化情報が連続な区間の開始ア
ドレス情報、 前記AVストリーム中の時刻情報とアドレス情報を関連づ
ける情報、および前記AVストリーム中の特徴的な画像の
時刻情報が記録されていることを特徴とする記録媒体。
19. A recording medium on which an AV stream, Clip information for managing the entity of the AV stream, and PlayList information for managing reproduction of the AV stream are recorded, wherein the Clip information includes a code in the AV stream. Recording information for recording start address information of a section in which coded information is continuous, information for associating address information with time information in the AV stream, and time information of a characteristic image in the AV stream. .
JP2001089959A 2000-04-21 2001-03-27 Information processing apparatus and method, recording medium, and program Expired - Lifetime JP4682434B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001089959A JP4682434B2 (en) 2000-04-21 2001-03-27 Information processing apparatus and method, recording medium, and program

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2000183770 2000-04-21
JP2000-183770 2000-04-21
JP2000-268042 2000-09-05
JP2000268042 2000-09-05
JP2001089959A JP4682434B2 (en) 2000-04-21 2001-03-27 Information processing apparatus and method, recording medium, and program

Related Child Applications (2)

Application Number Title Priority Date Filing Date
JP2010230895A Division JP5008161B2 (en) 2000-04-21 2010-10-13 Information processing apparatus and method, recording medium, and program
JP2010230894A Division JP5008160B2 (en) 2000-04-21 2010-10-13 Information processing apparatus and method, recording medium, and program

Publications (2)

Publication Number Publication Date
JP2002158971A true JP2002158971A (en) 2002-05-31
JP4682434B2 JP4682434B2 (en) 2011-05-11

Family

ID=27343767

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001089959A Expired - Lifetime JP4682434B2 (en) 2000-04-21 2001-03-27 Information processing apparatus and method, recording medium, and program

Country Status (1)

Country Link
JP (1) JP4682434B2 (en)

Cited By (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003001801A1 (en) * 2001-06-22 2003-01-03 Sony Corporation Data transmitting device and method
WO2004045206A1 (en) * 2002-11-11 2004-05-27 Sony Corporation Information processing device and method, program storage medium, recording medium, and program
JP2004336488A (en) * 2003-05-08 2004-11-25 Sony Corp Apparatus and method for information processing program, and recording medium
JP2005117659A (en) * 2003-10-04 2005-04-28 Samsung Electronics Co Ltd Storage medium to record search information, and its reproduction apparatus and method
WO2005101828A1 (en) * 2004-04-16 2005-10-27 Matsushita Electric Industrial Co., Ltd. Recording medium, reproduction device, program
WO2005101827A1 (en) * 2004-04-16 2005-10-27 Matsushita Electric Industrial Co., Ltd. Recording medium, reproduction device, program
JP2006507620A (en) * 2002-11-22 2006-03-02 エルジー エレクトロニクス インコーポレーテッド Recording medium having data structure for managing reproduction of recorded multiple reproduction path video data, and recording and reproduction method and apparatus therefor
WO2006075457A1 (en) * 2005-01-11 2006-07-20 Matsushita Electric Industrial Co., Ltd. Recording apparatus
JP2006520989A (en) * 2003-03-07 2006-09-14 サムスン エレクトロニクス カンパニー リミテッド Information recording medium on which multipass data is recorded, information recording apparatus and reproducing apparatus
WO2006109718A1 (en) * 2005-04-07 2006-10-19 Matsushita Electric Industrial Co., Ltd. Recording medium, reproducing device, recording method, and reproducing method
WO2006115060A1 (en) * 2005-04-22 2006-11-02 Sony Corporation Recording device, recording method, reproducing device, reproducing method, program, and recording medium
JP2007511858A (en) * 2003-10-31 2007-05-10 サムスン エレクトロニクス カンパニー リミテッド Recording medium on which meta information and subtitle information for providing an extended search function are recorded, and a reproducing apparatus thereof
JP2007128641A (en) * 2006-12-04 2007-05-24 Sony Corp Information processing device, information processing method and program, recording medium, and data structure
JP2007515735A (en) * 2003-10-30 2007-06-14 サムスン エレクトロニクス カンパニー リミテッド Recording medium including meta information for search, reproducing apparatus, and reproducing method thereof
JP2008527835A (en) * 2005-01-07 2008-07-24 サムスン エレクトロニクス カンパニー リミテッド Method and apparatus for reproducing a recording medium in which metadata for providing an extended search function is recorded
JP2008527834A (en) * 2005-01-07 2008-07-24 サムスン エレクトロニクス カンパニー リミテッド Metadata recording medium for providing an extended search function, reproducing method and apparatus thereof
JP2008306752A (en) * 2008-07-25 2008-12-18 Hitachi Ltd Recording medium, and playback method
US7483622B2 (en) 2003-06-13 2009-01-27 Hitachi, Ltd. Recording medium and method for reproducing information therefrom
JP2009289401A (en) * 2003-10-10 2009-12-10 Sharp Corp Reproducing apparatus, method for reproducing video data, control program and content recording medium
US7720356B2 (en) 2002-11-12 2010-05-18 Lg Electronics Inc Recording medium having data structure for managing reproduction of multiple reproduction path video data recorded thereon and recording and reproducing methods and apparatuses
US7729594B2 (en) 2004-03-18 2010-06-01 Lg Electronics, Inc. Recording medium and method and apparatus for reproducing text subtitle stream including presentation segments encapsulated into PES packet
US7729595B2 (en) 2003-07-25 2010-06-01 Lg Electronics Inc. Recording medium having a data structure for managing reproduction of text subtitle data recorded thereon and recording and reproducing methods and apparatuses
US7769277B2 (en) 2003-07-24 2010-08-03 Lg Electronics Inc. Recording medium having a data structure for managing reproduction of text subtitle data recorded thereon and recording and reproducing methods and apparatuses
US7783160B2 (en) 2002-11-20 2010-08-24 Lg Electronics Inc. Recording medium having data structure for managing reproduction of interleaved multiple reproduction path video data recorded thereon and recording and reproducing methods and apparatuses
US7826720B2 (en) 2002-06-28 2010-11-02 Lg Electronics, Inc. Recording medium having data structure for managing recording and reproduction of multiple path data recorded thereon and recording and reproducing methods and apparatus
JP2011030235A (en) * 2010-08-25 2011-02-10 Hitachi Ltd Recording medium and reproducing method
US7889968B2 (en) 2002-06-24 2011-02-15 Lg Electronics Inc. Recording medium having data structure for managing reproduction of multiple reproduction path video data for at least a segment of a title recorded thereon and recording and reproducing methods and apparatuses
JP2011175729A (en) * 2011-04-08 2011-09-08 Hitachi Ltd Recording medium and reproduction method
US8027563B2 (en) 2005-08-10 2011-09-27 Mitsubishi Electric Corporation Recording medium, reproducing apparatus, and reproducing method
US8032013B2 (en) 2003-10-14 2011-10-04 Lg Electronics Inc. Recording medium having data structure for managing reproduction of text subtitle and recording and reproducing methods and apparatuses
US8041193B2 (en) 2003-10-15 2011-10-18 Lg Electronics Inc. Recording medium having data structure for managing reproduction of auxiliary presentation data and recording and reproducing methods and apparatuses
US8055684B2 (en) 2006-11-24 2011-11-08 Victor Company Of Japan, Ltd. Contents-data editing apparatus, method of updating playlist of contents data, and recording medium
US8160422B2 (en) 2004-12-02 2012-04-17 Sony Corporation Data recording device, data recording method, data processing device, data processing method, program, program recording medium, data recording medium, and data structure
US8233770B2 (en) 2003-10-10 2012-07-31 Sharp Kabushiki Kaisha Content reproducing apparatus, recording medium, content recording medium, and method for controlling content reproducing apparatus
US8260110B2 (en) 2002-06-28 2012-09-04 Lg Electronics Inc. Recording medium having data structure for managing reproduction of multiple playback path video data recorded thereon and recording and reproducing methods and apparatuses
CN101156209B (en) * 2005-04-07 2012-11-14 松下电器产业株式会社 Recording medium, reproducing device, recording method, and reproducing method
US9036984B2 (en) 2003-03-07 2015-05-19 Samsung Electronics Co., Ltd. Information storage medium containing multi-path data, and storage apparatus and player thereof

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09233374A (en) * 1996-02-20 1997-09-05 Sony Tektronix Corp Video recording and reproducing system for broadcast
JPH11103441A (en) * 1997-09-26 1999-04-13 Matsushita Electric Ind Co Ltd Method for displaying clip and its device
JP2000059326A (en) * 1998-08-11 2000-02-25 Sony Corp Transmission log file preparing method and data transmission equipment
JP2001285780A (en) * 2000-03-28 2001-10-12 Pioneer Electronic Corp Image editing method and device and storage medium therefor
JP2001283566A (en) * 2000-03-31 2001-10-12 Matsushita Electric Ind Co Ltd Video editing device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09233374A (en) * 1996-02-20 1997-09-05 Sony Tektronix Corp Video recording and reproducing system for broadcast
JPH11103441A (en) * 1997-09-26 1999-04-13 Matsushita Electric Ind Co Ltd Method for displaying clip and its device
JP2000059326A (en) * 1998-08-11 2000-02-25 Sony Corp Transmission log file preparing method and data transmission equipment
JP2001285780A (en) * 2000-03-28 2001-10-12 Pioneer Electronic Corp Image editing method and device and storage medium therefor
JP2001283566A (en) * 2000-03-31 2001-10-12 Matsushita Electric Ind Co Ltd Video editing device

Cited By (105)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003001801A1 (en) * 2001-06-22 2003-01-03 Sony Corporation Data transmitting device and method
KR100892012B1 (en) * 2001-06-22 2009-04-07 소니 가부시끼 가이샤 Data transmitting device and method
AU2002311318B2 (en) * 2001-06-22 2007-03-22 Sony Corporation Data transmitting device and method
US7889968B2 (en) 2002-06-24 2011-02-15 Lg Electronics Inc. Recording medium having data structure for managing reproduction of multiple reproduction path video data for at least a segment of a title recorded thereon and recording and reproducing methods and apparatuses
US7826720B2 (en) 2002-06-28 2010-11-02 Lg Electronics, Inc. Recording medium having data structure for managing recording and reproduction of multiple path data recorded thereon and recording and reproducing methods and apparatus
US8260110B2 (en) 2002-06-28 2012-09-04 Lg Electronics Inc. Recording medium having data structure for managing reproduction of multiple playback path video data recorded thereon and recording and reproducing methods and apparatuses
US8554060B2 (en) 2002-06-28 2013-10-08 Lg Electronics Inc. Recording medium having data structure for managing recording and reproduction of multiple path data recorded thereon and recording and reproducing methods and apparatus
US7869690B2 (en) 2002-11-11 2011-01-11 Sony Corporation Apparatus and method for recording AV streams onto a recording medium with reproduction path change point features
US8849092B2 (en) 2002-11-11 2014-09-30 Sony Corporation Information processing apparatus and method, program storing medium, recording medium, and program for managing reproduction of a data stream
KR100997700B1 (en) 2002-11-11 2010-12-02 소니 주식회사 Information processing device and method, program storage medium, recording medium, and program
CN100414989C (en) * 2002-11-11 2008-08-27 索尼株式会社 Information processing device and method, program storage medium, recording medium, and program
US8861928B2 (en) 2002-11-11 2014-10-14 Sony Corporation Apparatus and method for recording AV streams onto a recording medium with reproduction path change point features
US8548307B2 (en) 2002-11-11 2013-10-01 Sony Corporation Apparatus and method for recording AV streams onto a recording medium
WO2004045206A1 (en) * 2002-11-11 2004-05-27 Sony Corporation Information processing device and method, program storage medium, recording medium, and program
US7720356B2 (en) 2002-11-12 2010-05-18 Lg Electronics Inc Recording medium having data structure for managing reproduction of multiple reproduction path video data recorded thereon and recording and reproducing methods and apparatuses
US7783160B2 (en) 2002-11-20 2010-08-24 Lg Electronics Inc. Recording medium having data structure for managing reproduction of interleaved multiple reproduction path video data recorded thereon and recording and reproducing methods and apparatuses
JP4766876B2 (en) * 2002-11-20 2011-09-07 エルジー エレクトロニクス インコーポレイティド RECORDING MEDIUM HAVING DATA STRUCTURE FOR MANAGING PLAYBACK OF MULTIPLAYBACK PASS VIDEO DATA RECORDED WITH INTERLEAVE AND RECORDING AND REPRODUCING METHOD AND APPARATUS THEREFOR
JP2006507620A (en) * 2002-11-22 2006-03-02 エルジー エレクトロニクス インコーポレーテッド Recording medium having data structure for managing reproduction of recorded multiple reproduction path video data, and recording and reproduction method and apparatus therefor
JP2006520989A (en) * 2003-03-07 2006-09-14 サムスン エレクトロニクス カンパニー リミテッド Information recording medium on which multipass data is recorded, information recording apparatus and reproducing apparatus
US9036984B2 (en) 2003-03-07 2015-05-19 Samsung Electronics Co., Ltd. Information storage medium containing multi-path data, and storage apparatus and player thereof
JP2004336488A (en) * 2003-05-08 2004-11-25 Sony Corp Apparatus and method for information processing program, and recording medium
US8086087B2 (en) 2003-05-08 2011-12-27 Sony Corporation Information processing device and method, program, and recording medium
US7599606B2 (en) 2003-06-13 2009-10-06 Hitachi, Ltd. Recording medium and method for reproducing information therefrom
US7657158B2 (en) 2003-06-13 2010-02-02 Hitachi, Ltd. Recording medium and method for reproducing information therefrom
US7483622B2 (en) 2003-06-13 2009-01-27 Hitachi, Ltd. Recording medium and method for reproducing information therefrom
US7496280B2 (en) 2003-06-13 2009-02-24 Hitachi, Ltd. Still picture information recording medium and method and apparatus for reproducing still picture information therefrom
US7643729B2 (en) 2003-06-13 2010-01-05 Hitachi, Ltd. Recording medium and method for reproducing information therefrom
US7769277B2 (en) 2003-07-24 2010-08-03 Lg Electronics Inc. Recording medium having a data structure for managing reproduction of text subtitle data recorded thereon and recording and reproducing methods and apparatuses
US8447172B2 (en) 2003-07-24 2013-05-21 Lg Electronics Inc. Recording medium having a data structure for managing reproduction of text subtitle data recorded thereon and recording and reproducing methods and apparatuses
US7729595B2 (en) 2003-07-25 2010-06-01 Lg Electronics Inc. Recording medium having a data structure for managing reproduction of text subtitle data recorded thereon and recording and reproducing methods and apparatuses
US8515248B2 (en) 2003-07-25 2013-08-20 Lg Electronics Inc. Recording medium having a data structure for managing reproduction of text subtitle data recorded thereon and recording and reproducing methods and apparatuses
JP2005117659A (en) * 2003-10-04 2005-04-28 Samsung Electronics Co Ltd Storage medium to record search information, and its reproduction apparatus and method
US8792026B2 (en) 2003-10-10 2014-07-29 Sharp Kabushiki Kaisha Video data reproducing apparatus and method utilizing acquired data structure including video data and related reproduction information, and non-transitory recording medium storing control program for causing computer to operate as reproducing apparatus
JP2009289401A (en) * 2003-10-10 2009-12-10 Sharp Corp Reproducing apparatus, method for reproducing video data, control program and content recording medium
US8233770B2 (en) 2003-10-10 2012-07-31 Sharp Kabushiki Kaisha Content reproducing apparatus, recording medium, content recording medium, and method for controlling content reproducing apparatus
US8565575B2 (en) 2003-10-10 2013-10-22 Sharp Kabushiki Kaisha Reproducing apparatus, method for controlling reproducing apparatus, content recording medium, and non-transitory recording medium storing control program
US8625966B2 (en) 2003-10-10 2014-01-07 Sharp Kabushiki Kaisha Reproducing apparatus, method for operating reproducing apparatus and non-transitory computer-readable recording medium storing control program
US8625962B2 (en) 2003-10-10 2014-01-07 Sharp Kabushiki Kaisha Method and apparatus for reproducing content data, non-transitory computer-readable medium for causing the apparatus to carry out the method, and non-transitory content recording medium for causing the apparatus to carry out the method
US8798440B2 (en) 2003-10-10 2014-08-05 Sharp Kabushiki Kaisha Video data reproducing apparatus and method utilizing acquired data structure including video data and related reproduction information, non-transitory recording medium containing the data structure and non-transitory recording medium storing control program for causing computer to operate as reproducing apparatus
US8032013B2 (en) 2003-10-14 2011-10-04 Lg Electronics Inc. Recording medium having data structure for managing reproduction of text subtitle and recording and reproducing methods and apparatuses
US8041193B2 (en) 2003-10-15 2011-10-18 Lg Electronics Inc. Recording medium having data structure for managing reproduction of auxiliary presentation data and recording and reproducing methods and apparatuses
KR101111516B1 (en) 2003-10-15 2012-02-24 엘지전자 주식회사 Recording medium having data structure for managing reproduction of auxiliary presentation data and recording and reproducing methods and apparatuses
JP2007515735A (en) * 2003-10-30 2007-06-14 サムスン エレクトロニクス カンパニー リミテッド Recording medium including meta information for search, reproducing apparatus, and reproducing method thereof
JP2007511858A (en) * 2003-10-31 2007-05-10 サムスン エレクトロニクス カンパニー リミテッド Recording medium on which meta information and subtitle information for providing an extended search function are recorded, and a reproducing apparatus thereof
US7729594B2 (en) 2004-03-18 2010-06-01 Lg Electronics, Inc. Recording medium and method and apparatus for reproducing text subtitle stream including presentation segments encapsulated into PES packet
US8538240B2 (en) 2004-03-18 2013-09-17 Lg Electronics, Inc. Recording medium and method and apparatus for reproducing text subtitle stream recorded on the recording medium
JP4750824B2 (en) * 2004-04-16 2011-08-17 パナソニック株式会社 Recording medium, playback device, program
WO2005101827A1 (en) * 2004-04-16 2005-10-27 Matsushita Electric Industrial Co., Ltd. Recording medium, reproduction device, program
JP4750823B2 (en) * 2004-04-16 2011-08-17 パナソニック株式会社 Recording medium, playback device, program
US7720355B2 (en) 2004-04-16 2010-05-18 Panasonic Corporation Recording medium, reproduction device, program
JP2008295048A (en) * 2004-04-16 2008-12-04 Panasonic Corp Recording medium, reproducer, and program
JP2008295049A (en) * 2004-04-16 2008-12-04 Panasonic Corp Recording medium, reproducer, and program
WO2005101828A1 (en) * 2004-04-16 2005-10-27 Matsushita Electric Industrial Co., Ltd. Recording medium, reproduction device, program
US7778521B2 (en) 2004-04-16 2010-08-17 Panasonic Corporation Recording medium, reproduction device, program
US8160422B2 (en) 2004-12-02 2012-04-17 Sony Corporation Data recording device, data recording method, data processing device, data processing method, program, program recording medium, data recording medium, and data structure
US8625960B2 (en) 2005-01-07 2014-01-07 Samsung Electronics Co., Ltd. Apparatus and method for reproducing storage medium that stores metadata for providing enhanced search function
JP4842971B2 (en) * 2005-01-07 2011-12-21 サムスン エレクトロニクス カンパニー リミテッド REPRODUCTION DEVICE, REPRODUCTION METHOD, AND INFORMATION RECORDING MEDIUM
US8842977B2 (en) 2005-01-07 2014-09-23 Samsung Electronics Co., Ltd. Storage medium storing metadata for providing enhanced search function
JP2009136002A (en) * 2005-01-07 2009-06-18 Samsung Electronics Co Ltd Record medium recorded with metadata for providing extended search function, and method and apparatus for reproducing data on the record medium
JP2010003405A (en) * 2005-01-07 2010-01-07 Samsung Electronics Co Ltd Reproducing apparatus and method for reproducing av data stored in storage medium, and storage medium for managing data structure of stored av data
US8437606B2 (en) 2005-01-07 2013-05-07 Samsung Electronics Co., Ltd. Storage medium storing metadata for providing enhanced search function
US8630531B2 (en) 2005-01-07 2014-01-14 Samsung Electronics Co., Ltd. Apparatus and method for reproducing storage medium that stores metadata for providing enhanced search function
JP2008527835A (en) * 2005-01-07 2008-07-24 サムスン エレクトロニクス カンパニー リミテッド Method and apparatus for reproducing a recording medium in which metadata for providing an extended search function is recorded
JP2008527834A (en) * 2005-01-07 2008-07-24 サムスン エレクトロニクス カンパニー リミテッド Metadata recording medium for providing an extended search function, reproducing method and apparatus thereof
WO2006075457A1 (en) * 2005-01-11 2006-07-20 Matsushita Electric Industrial Co., Ltd. Recording apparatus
US8116613B2 (en) 2005-04-07 2012-02-14 Panasonic Corporation Recording medium, reproducing device, recording method and reproducing method
WO2006109717A1 (en) * 2005-04-07 2006-10-19 Matsushita Electric Industrial Co., Ltd. Recording medium, reproducing device, recording method and reproducing method
CN101156209B (en) * 2005-04-07 2012-11-14 松下电器产业株式会社 Recording medium, reproducing device, recording method, and reproducing method
US8059942B2 (en) 2005-04-07 2011-11-15 Panasonic Corporation Recording medium, reproducing device, recording method, and reproducing method
US8548298B2 (en) 2005-04-07 2013-10-01 Panasonic Corporation Recording medium, reproducing device, recording method and reproducing method
US7991270B2 (en) 2005-04-07 2011-08-02 Panasonic Corporation Recording medium, reproducing device, recording method, and reproducing method
WO2006109718A1 (en) * 2005-04-07 2006-10-19 Matsushita Electric Industrial Co., Ltd. Recording medium, reproducing device, recording method, and reproducing method
WO2006109716A1 (en) * 2005-04-07 2006-10-19 Matsushita Electric Industrial Co., Ltd. Recording medium, reproducing device, recording method, and reproducing method
US7978955B2 (en) 2005-04-22 2011-07-12 Sony Corporation Recording device, recording method, reproducing device, reproducing method, program, and recording medium
WO2006115060A1 (en) * 2005-04-22 2006-11-02 Sony Corporation Recording device, recording method, reproducing device, reproducing method, program, and recording medium
US8989558B2 (en) 2005-08-10 2015-03-24 Mitsubishi Electric Corporation Recording medium, reproducing apparatus, and reproducing method
US8995819B2 (en) 2005-08-10 2015-03-31 Mitsubishi Electric Corporation Recording medium, reproducing apparatus, and reproducing method
US8639090B2 (en) 2005-08-10 2014-01-28 Mitsubishi Electric Corporation Recording medium, reproducing apparatus, and reproducing method
US8027563B2 (en) 2005-08-10 2011-09-27 Mitsubishi Electric Corporation Recording medium, reproducing apparatus, and reproducing method
US8798447B2 (en) 2005-08-10 2014-08-05 Mitsubishi Electric Corporation Recording medium, reproducing apparatus, and reproducing method
EP3094084A1 (en) 2005-08-10 2016-11-16 Mitsubishi Electric Corporation Recording medium, reproducing apparatus, and reproducing method
EP2765574A2 (en) 2005-08-10 2014-08-13 Mitsubishi Electric Corporation Recording medium with a multiplexed stream of intra coded pictures and an entry point table
US9368159B2 (en) 2005-08-10 2016-06-14 Mitsubishi Electric Corporation Recording medium, reproducing apparatus, and reproducing method
US10529382B2 (en) 2005-08-10 2020-01-07 Mitsubishi Electric Corporation Recording medium, reproducing apparatus, and reproducing method
US10269391B2 (en) 2005-08-10 2019-04-23 Mitsubishi Electric Corporation Recording medium, reproducing apparatus, and reproducing method
US8983265B2 (en) 2005-08-10 2015-03-17 Mitsubishi Electric Corporation Recording medium, reproducing apparatus, and reproducing method
US8983268B2 (en) 2005-08-10 2015-03-17 Mitsubishi Electric Corporation Recording medium, reproducing apparatus, and reproducing method
US8983267B2 (en) 2005-08-10 2015-03-17 Mitsubishi Electric Corporation Recording medium, reproducing apparatus, and reproducing method
US8983269B2 (en) 2005-08-10 2015-03-17 Mitsubishi Electric Corporation Recording medium, reproducing apparatus, and reproducing method
US8983266B2 (en) 2005-08-10 2015-03-17 Mitsubishi Electric Corporation Recording medium, reproducing apparatus, and reproducing method
US8983270B2 (en) 2005-08-10 2015-03-17 Mitsubishi Electric Corporation Recording medium, reproducing apparatus, and reproducing method
US8989563B2 (en) 2005-08-10 2015-03-24 Mitsubishi Electric Corporation Recording medium, reproducing apparatus, and reproducing method
US8989557B2 (en) 2005-08-10 2015-03-24 Mitsubishi Electric Corporation Recording medium, reproducing apparatus, and reproducing method
EP2574049A2 (en) 2005-08-10 2013-03-27 Mitsubishi Electric Corporation Recording medium, reproducing apparatus, and reproducing method
US9627008B2 (en) 2005-08-10 2017-04-18 Mitsubishi Electric Corporation Recording medium, reproducing apparatus, and reproducing method
US9002176B2 (en) 2005-08-10 2015-04-07 Mitsubishi Electric Corporation Recording medium, reproducing apparatus, and reproducing method
US9025932B2 (en) 2005-08-10 2015-05-05 Mitsubishi Electric Corporation Recording medium, reproducing apparatus, and reproducing method
US9899060B2 (en) 2005-08-10 2018-02-20 Mitsubishi Electric Corporation Recording medium, reproducing apparatus, and reproducing method
US9111581B2 (en) 2005-08-10 2015-08-18 Mitsubishi Electric Corporation Recording medium, reproducing apparatus, and reproducing method
US8055684B2 (en) 2006-11-24 2011-11-08 Victor Company Of Japan, Ltd. Contents-data editing apparatus, method of updating playlist of contents data, and recording medium
JP2007128641A (en) * 2006-12-04 2007-05-24 Sony Corp Information processing device, information processing method and program, recording medium, and data structure
JP2008306752A (en) * 2008-07-25 2008-12-18 Hitachi Ltd Recording medium, and playback method
JP4706730B2 (en) * 2008-07-25 2011-06-22 株式会社日立製作所 Recording medium and reproducing method
JP2011030235A (en) * 2010-08-25 2011-02-10 Hitachi Ltd Recording medium and reproducing method
JP2011175729A (en) * 2011-04-08 2011-09-08 Hitachi Ltd Recording medium and reproduction method

Also Published As

Publication number Publication date
JP4682434B2 (en) 2011-05-11

Similar Documents

Publication Publication Date Title
JP5008161B2 (en) Information processing apparatus and method, recording medium, and program
JP4682434B2 (en) Information processing apparatus and method, recording medium, and program
JP4893841B2 (en) recoding media
JP4517267B2 (en) Recording apparatus and method, reproducing apparatus and method, program, and recording medium
JP5063808B2 (en) recoding media
KR100746821B1 (en) Information Processing Apparatus and Method, and Recorded Medium
JP4517266B2 (en) Information processing apparatus and method, recording medium, and program
JP4355988B2 (en) Information processing apparatus, information processing method, program recording medium, program, and information recording medium
JP2002159004A (en) Device and method for encoding, recording medium, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080306

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091215

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100215

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100713

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101013

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20101027

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110111

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110124

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140218

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4682434

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140218

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term