WO2004090728A1 - Program, method thereof, and device thereof - Google Patents

Program, method thereof, and device thereof Download PDF

Info

Publication number
WO2004090728A1
WO2004090728A1 PCT/JP2004/004844 JP2004004844W WO2004090728A1 WO 2004090728 A1 WO2004090728 A1 WO 2004090728A1 JP 2004004844 W JP2004004844 W JP 2004004844W WO 2004090728 A1 WO2004090728 A1 WO 2004090728A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
attribute
file
image
content
Prior art date
Application number
PCT/JP2004/004844
Other languages
French (fr)
Japanese (ja)
Inventor
Ryusuke Nishida
Kazuhisa Tsuchiya
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Publication of WO2004090728A1 publication Critical patent/WO2004090728A1/en

Links

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/032Electronic editing of digitised analogue information signals, e.g. audio or video signals on tapes
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/30Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording
    • G11B27/3027Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording used signal is digitally coded
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 

Definitions

  • the present invention relates to a program, a method, and a device for enabling display of attribute data included in finale data. Fine
  • MXF Serial eXchange Format
  • UM ID data indicating the attribute of the content data (material data), not shown in the above-mentioned file management data, and VZA indicating the channel (system) of the above-mentioned content data are included.
  • the content data includes EM (Essence Mark) data associated with the image data of the image specified as a good scene when the user records (generates) the content.
  • the conventional editing device described above acquires information only from the file management data when displaying the list view screen. Therefore, the UM ID data, VZA-C data, and EM data included in the file data described above. There is a problem that attribute data such as cannot be displayed.
  • the present invention has been made in view of such circumstances, and has as its object to provide a program, a method, and a device for enabling display of attribute data included in file data.
  • a program according to a first aspect of the present invention is a program for parsing file data including content data and attribute data indicating a genus'
  • a program of the present invention is executed by a computer, and causes the computer to execute a first procedure of parsing file data including the content data and attribute data indicating an attribute of the content data and extracting the attribute data.
  • the program causes the computer to execute a second procedure for generating image data for displaying the attribute data extracted in the first procedure.
  • a data processing method is a data processing method executed by a computer, wherein the attribute data is extracted by parsing file data including content data and attribute data indicating an attribute of the content data. Step 1;
  • -A data processing device is a data processing device comprising: a first means for parsing file data including content data and attribute data indicating an attribute of the content data to extract the attribute data; Second means for generating image data for displaying the extracted attribute data.
  • the operation of the data processing device of the third invention is as follows.
  • a first means extracts the attribute data by parsing finale data including content data and attribute data indicating an attribute of the content data.
  • second means generates image data for displaying the attribute data extracted by the first means.
  • FIG. 1 is a configuration diagram of an editing system according to an embodiment of the present invention.
  • FIG. 2 is a hardware configuration diagram of the editing apparatus shown in FIG.
  • FIG. 3 is a diagram for explaining the format of the final data of the MXF shown in FIG.
  • FIG. 4 is a diagram for explaining KLV data.
  • FIG. 5 is a diagram for explaining a GUI screen displayed on the display 16 shown in FIG.
  • FIG. 6 is a diagram for explaining the file attribute display column shown in FIG.
  • FIG. 7 is a diagram for explaining a preview column and a preview progress display column shown in FIG.
  • FIG. 8 is a flowchart for explaining an operation example of the editing apparatus shown in FIG.
  • FIG. 1 is a configuration diagram of an editing system 1 according to an embodiment of the present invention.
  • the editing system 1 includes, for example, external devices 3-1 to 3-N and an editing device 4.
  • the editing device 4 corresponds to the data processing device of the third invention.
  • the external devices 3-1 to 3-N are, for example, a VTR (Video Tape Recorder), an optical disk drive, an FTP (File Transfer Protocol) server or a local drive.
  • VTR Video Tape Recorder
  • FTP File Transfer Protocol
  • External devices 3-1 to 3-N store predetermined data and are connected to editing device 4. Then, the data is converted to the final data FI LE-1 to FI LE-N of the MX F and transferred (output) to the editing device 4.
  • the data transfer between the external device 3-1 to 3-N and the editing device 4 is performed by FTP (File
  • FIG. 2 is a hardware configuration diagram of the editing device 4 shown in FIG.
  • the editing device 4 has, for example, an interface 11, an interface 12, an interface 13, an operation unit 14, a speaker 15, a display 16, a memory 17, and a CPU (Central Processing Unit) 18. And these are the buses
  • the CPU 18 corresponds to the computer of the present invention.
  • the memory 17 stores a program PRG corresponding to the program of the present invention.
  • the interface 11 receives all or a part of the final data FILE-1 to FILE-N from the external devices 3-1 to 3-N shown in FIG.
  • the interface 12 outputs to the display 16 an image of a GUI (Graphical User Interface) screen generated in response to the execution of the program PRG by the CPU 18.
  • GUI Graphic User Interface
  • the interface 12 outputs an audio signal of an audio corresponding to the GUI screen generated by the CPU 18 to the speaker 15.
  • the speaker 15 outputs a sound corresponding to the sound signal input from the CPU 18 via the interface 12.
  • the display 16 displays a screen corresponding to an image signal input from the CPU 18 via the interface 12.
  • the interface 13 outputs an operation signal corresponding to a user operation input via the operation unit 14 to the CPU 18.
  • the operation unit 14 is an operation means such as a mouse / keyboard.
  • the memory 17 stores a program PRG, data used for executing the program PRG, and the like.
  • the CPU 18 executes the program PRG stored in the memory 17 and parses the file data FI LE-1 to FL IE-N input from the external device 3-1 to 3-N specified as the connection destination. , Attribute data.
  • the CPU 18 parses the file data FI LE-1 to FLIE-N using KLV data described later with reference to FIG. 3, detects the key (K) of the KLV data, and replaces the key (K) with the key. Based on this, predetermined attribute data is extracted.
  • the CPU 18 generates image data of the GUI screen for displaying the extracted attribute data, and outputs the image data to the display 16 via the interface 1.2.
  • Fig. 3 is a diagram for explaining the format of MXF file data F ILE-1 to FLIE-N.
  • the file data F ILE-1 to FLIE-N are composed of header data, body data and footer data, each of which is defined as module data called a partition PA'T.
  • Each partition is composed of module data called multiple PACKs. It has metadata MET A 1.
  • the metadata META1 includes UMID (Unique Material IdenUfier) data and V / A-C data.
  • the UMID data is data indicating the attributes of content data (material data) such as video data VIDEO and audio data AUDIO 1 to 8 in the pod data.
  • the UMI D data indicates, for example, the format, generation method, generation time, creator, and generation country name of the content data.
  • the V-A-C data indicates, for example, the channel (system) of the content data included in the body data.
  • the body data contains 9 channels of VZA-C data, video data VIDEO and 8 channels of audio data AUD I ⁇ 1 to AUD IO 8. It is shown that.
  • the body data includes video data VIDEO, which is a PACK, and audio data AUDIO1 to AUDIO8 for eight channels.
  • video data VID EO contains image data of multiple images (frames) and image data of an image specified as a dat scene (Good Sene) when the user recorded (generated) the image.
  • the associated EM (Essence Mark) data and are included.
  • the footer data includes a knock PACK, a pot ampule POSA, and metadata META2.
  • pack PAC and pack PACK are all KLV data (module data of the present invention).
  • pack data constituting the header data, body data and footer data, and that each data in the pack data is KLV data composed of a key (K), a data length (L) and a data (V).
  • File structure file data FI LE__1 to FL IE-N have.
  • the data structure is specified, for example, by the MXF.
  • the key (K) corresponds to the identification data of the present invention
  • the data (V) corresponds to the predetermined data of the present invention.
  • KLV data is allowed to have KLV data as data (V).
  • the CPU 18 parses the file data FI LE_1 to FLIE —N having the above-described data structure, detects the key (K) of the KLV data in the final data, and, based on the key (K), detects the UMID data, VZA — Extract attribute data such as C data and EM data.
  • FIG. 5 is a diagram for explaining the GUI screen 30.
  • the GUI screen 30 includes, for example, a connection destination specification field 41, a fine note attribute display field 42, a preview field 43, a preview progress display field 44, a previewing channel display field 45, a preview operation button group 46, It has a clip name input field 47 and an import instruction button 48.
  • connection destination specification column 41 is used by a user to specify a connection destination of the editing device 4 in response to an operation of the operation unit 14 shown in FIG. 2 by a user.
  • any one of the external devices 3_1 to 3—N can be designated as the connection destination.
  • the file attribute display field 42 is a UMI D data extracted by the CPU 18 parsed from the file data input from the connection destination designated by the connection destination specification field 41. , VZA — Display C and EM data.
  • the file attribute display field 42 displays the file name (NAME), size (SI ZE) of the above file data, and when updating (T IM Display information such as E). These pieces of information may be extracted from the file data of the CPU 18 or may be obtained from predetermined data different from the finale data.
  • the file attribute display column 42 includes, for example, the name “a.mxf” of the file data stored in the external device 3-1, the size “13, 235M By te”, and the EM. Presence / absence and number of marks “Yes, 5”, presence / absence of UM ID data “Yes”, and channels indicated by VZ A—C data “V, Al, A2, A7J” 03/03 "in association with each other.
  • the preview column 43 displays, for example, a preview image of the file data specified by the user using the operation unit 14 on the file attribute display column 42.
  • the preview field 43 displays the time code 51 of the image being previewed.
  • a sound corresponding to the preview image is output from the speaker 15.
  • the preview progress display column 44 includes a time axis 60, a mark EM_M indicating the position of the EM data in the file data specified on the file attribute display column 42, and a time of the image being previewed. It has a mark CP-M indicating the position on the axis 60, a column 61 for specifying the time code of the IN point, and a column 62 for specifying the time code of the OUT point.
  • the IN point and the OUT point are used by a user to specify a range of content data to be taken into the editing device 4 as clip data.
  • the clip data is content data that is a unit used for editing.
  • a mark 65 indicating that the EM data is attached is displayed at a timing when the image of the video data to which the EM data is attached is displayed.
  • the preview operation button group 46 has a plurality of operation button images for inputting an instruction of a preview operation (play, stop, etc.).
  • the clip name input field 47 includes, for example, image data being previewed in the preview field 43 and clip data obtained by clipping audio data corresponding to the image data being previewed. Used to enter the name (clip name) to be assigned to.
  • the import instruction button 48 is used to display the video data and audio data specified by the IN point and the OUT point among the file data FILE-1 to FLIE-N being previewed in the preview column 43 in the preview progress display column 44. It is used to input an instruction to import clip data and generate clip data.
  • an operation example of the editing device 4 will be described in relation to an operation example of the CPU 18.
  • FIG. 8 is a flowchart for explaining the operation example.
  • step ST2 corresponds to the first procedure and the first step of the first and second inventions
  • step ST3 corresponds to the second procedure and the second step of the first and second inventions
  • steps ST1 and ST2 correspond to the third procedure and the third step of the first and second inventions
  • step ST3 corresponds to the fourth procedure of the first invention
  • ST7 corresponds to the fifth procedure of the first invention.
  • Step ST2 implements the first means of the third invention
  • step ST3 implements the second means of the third invention.
  • the CPU 18 determines whether or not the user has specified any of the external devices 3-1 to 3-N as the connection destination based on the connection destination specification field 41 shown in FIG. 5, and determines that the user has specified the power. And step ST2, otherwise repeat the process.
  • the CPU 18 connects to the external device 3_1 to 3_N designated as the connection destination in step ST1, parses the file data FILE-1 to FLIE-N input from the external device, and Attribute data such as UM'ID data, V / A_C data and EM data stored as KLV data (V) are extracted based on the KLV data key (K).
  • Attribute data such as UM'ID data, V / A_C data and EM data stored as KLV data (V) are extracted based on the KLV data key (K).
  • the CPU 18 displays the attribute data extracted in step ST2 as shown in FIG.
  • the image data to be displayed in the aisle attribute display field 42 is generated, and the image data is output to the display 16 via the interface 12.
  • Step ST4 the attribute data display field 42 of the GUI screen 30 shown in FIG. It is displayed with the data at the time of generation.
  • the CPU 18 Based on the EM data extracted in step ST2, the CPU 18 converts the EM data in the final data FI LE-1 to FL IE-N input from the external devices 3-1 to 3-N connected in step ST2. An image signal of the attached image is generated and output to the display 16 via the interface 12.
  • the CPU 18 displays the preview of the file data specified by the user.
  • the CPU 18 determines whether or not the import instruction button 48 shown in FIG. 5 has been designated by the user's operation of the operation unit 14. If it is determined that the import instruction button 48 has been designated, the process proceeds to step ST8. Return to the processing of.
  • the CPU 18 connects the portion (range) defined by the IN point and the OUT point specified in the columns 61 and 62 in the file data FI LE_1 to FL IE_N to the preview column 43 shown in FIG. Input (import) from external device 3-1 to 3-N.
  • the CPU 18 receives the data input from the external devices 31 to 3N in step ST6. Is converted to the native format for non-linear editing (Non Linear Edition) to generate clip data.
  • the clip data is given the name entered in the clip name input field 47 shown in FIG.
  • the CPU 18 stores the clip data in an editing memory (not shown). Thereafter, the CPU 18 reads and uses the clip data in the editing processing.
  • the CPU 18 determines whether or not the force satisfies the predetermined end condition. If it is determined that the force is satisfied, the process ends. If not, the process returns to step ST4.
  • the file name (NAME), size (SIZE), and update time (TI ME) of the file data input from the external device 3-1 to 3-N specified as the connection destination are set.
  • the user can easily grasp the progress of the image being previewed in the preview column 43 based on the preview progress display column 44.
  • the mark EM_M is displayed on the time axis 60 in the preview progress display field 44, and the mark 65 is displayed on the preview screen of the image to which the data is added, so that the EM data is added.
  • the image can be easily specified by the user.
  • a preview of the file data displayed in the file attribute display column 42 can be displayed in the preview column 43 by a simple operation, and the user can display the columns 61, 62 shown in FIG. Specify the IN point and OUT point with, and then specify the import instruction buttons 48. Clip data can be automatically generated.
  • the present invention is not limited to the embodiments described above.
  • the MXF file data FILE-1 to FLIE-N described with reference to FIG. 3 and the like are exemplified.
  • attribute data indicating the attribute of the content data.
  • the GUI screen 30 shown in FIG. 5 has been exemplified.
  • the file attribute display field 42 may be displayed on the screen.
  • the attribute data of the present invention is not particularly limited as long as it is included in the finale data and indicates the attribute of the content data included in the finale data.
  • the attribute data may be the name of the photographer who shot the photo if the content data is a photo, or the name of the director of the movie if the content data is related to the content of the movie. Is also good.
  • the present invention is applicable to a system for displaying attribute data included in file data.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

A CPU (18) executes a program (PRG) stored in a memory (17), parses file data FILE_1 to FILE_N input from an external device specified as a connection destination, and extracts attribute data. Furthermore, the CPU (18) generates image data of GUI screen for displaying the attribute data extracted and outputs the image data via an interface (12) to a display (16).

Description

プログラム、 その方法およびその装置  Program, its method and its device
技術分野 Technical field
本発明は、 フアイノレデータ内に含まれる属性データを表示することを可能にす るプログラム、 その方法およびそ明の装置に関する。 細  The present invention relates to a program, a method, and a device for enabling display of attribute data included in finale data. Fine
背景技術  Background art
MX F (Material eXchange Format)と呼ばれる、 接続された機器間でデータフ ォーマツト変換を可能にするためのデータ変換フォーマツトが提案されている。 例えば、 編集装置は、 外部装置に記憶されているファイルデータのリストを表 示する場合に、 例えば、 所定のファイル管理データから取得したファイル名、 フ アイルのサイズ、 並びに更新時を示すリストビュー画面を表示する。  A data conversion format called MXF (Material eXchange Format) has been proposed to enable data format conversion between connected devices. For example, when the editing device displays a list of file data stored in the external device, for example, a list view screen showing a file name obtained from predetermined file management data, a file size, and update time Is displayed.
ところで、 MX Fのファイルデータ内には、 上記フアイノレ管理データには示さ れていない、 コンテンツデータ (素材データ) の属性を示す UM I Dデータ、 並 びに上記コンテンッデータのチヤンネル (系統) を示す V Z A— Cデータなどの 属性データが含まれている。 また、 コンテンツデータ内には、 ユーザがコンテン ッの記録 (生成) 時にグットシーンとして指定した画像の画像データに対応付け られた EM (Essence Mark)データが含まれている。  By the way, in the MXF file data, UM ID data indicating the attribute of the content data (material data), not shown in the above-mentioned file management data, and VZA indicating the channel (system) of the above-mentioned content data are included. — Contains attribute data such as C data. Also, the content data includes EM (Essence Mark) data associated with the image data of the image specified as a good scene when the user records (generates) the content.
しかしながら、 上述した従来の編集装置は、 上記リストビュー画面を表示する 場合に、 上記ファイル管理データのみから情報を取得するため、 上述したフアイ ルデータに含まれる UM I Dデータ、 VZA— Cデータおよび EMデータなどの 属性データを表示できないという問題がある。  However, the conventional editing device described above acquires information only from the file management data when displaying the list view screen. Therefore, the UM ID data, VZA-C data, and EM data included in the file data described above. There is a problem that attribute data such as cannot be displayed.
発明の開示 本発明はかかる事情に鑑みてなされたものであり、 その目的は、 ファイルデー タ内に含まれる属性データを表示することを可能にするプログラム、 その方法お よびその装置を樹共することを目的とする。 Disclosure of the invention The present invention has been made in view of such circumstances, and has as its object to provide a program, a method, and a device for enabling display of attribute data included in file data. And
上記の目的を達成するため、 第 1の発明のプログラムは、 コンテンツデータと 前記コンテンッデ一タの属'|~生を示す属性データとを含むフアイルデータをパース して前記属性データを抽出する第 1の手順と、 前記第 1の手順で抽出した前記属 性データを表示する画像データを生成する第 2の手順とをコンピュータに実行さ せる。  In order to achieve the above object, a program according to a first aspect of the present invention is a program for parsing file data including content data and attribute data indicating a genus' | ~ of a content, and extracting the attribute data. And causing the computer to execute a second procedure of generating image data for displaying the attribute data extracted in the first procedure.
第 1の発明のプログラムの作用は以下のようになる。 .  The operation of the program of the first invention is as follows. .
本発明のプログラムがコンピュータで実行され、 当該コンテンツデータと前記 コンテンッデータの属性を示す属性データとを含むファイルデータをパースして 前記属性データを抽出する第 1の手順を当該コンピュータに実行させる。  A program of the present invention is executed by a computer, and causes the computer to execute a first procedure of parsing file data including the content data and attribute data indicating an attribute of the content data and extracting the attribute data.
次に、 当該プログラムが、 前記第 1の手順で抽出した前記属性データを表示す る画像データを生成する第 2の手順を前記コンピュータに実行させる。  Next, the program causes the computer to execute a second procedure for generating image data for displaying the attribute data extracted in the first procedure.
第 2の発明のデータ処理方法は、 コンピュータが実行するデータ処理方法であ つて、 コンテンツデータと前記コンテンツデータの属性を示す属性データとを含 むフアイルデータをパースして前記属性データを抽出する第 1の工程と、 前記第 A data processing method according to a second aspect of the present invention is a data processing method executed by a computer, wherein the attribute data is extracted by parsing file data including content data and attribute data indicating an attribute of the content data. Step 1;
1の工程で抽出した前記属个生データを表示する画像データを生成する第 2の工程 とを有する。 - 第 3の発明のデータ処理装置は、 コンテンツデータと前記コンテンツデータの 属性を示す属性データとを含むファイルデータ パースして前記属性データを抽 出する第 1の手段と、 前記第 1の手段で抽出した前記属性データを表示する画像 データを生成する第 2の手段とを有する。 A second step of generating image data for displaying the genus individual data extracted in the first step. -A data processing device according to a third aspect of the present invention is a data processing device comprising: a first means for parsing file data including content data and attribute data indicating an attribute of the content data to extract the attribute data; Second means for generating image data for displaying the extracted attribute data.
第 3の発明のデータ処理装置の作用は以下のようになる。  The operation of the data processing device of the third invention is as follows.
第 1の手段が、 コンテンツデータと前記コンテンツデータの属性を示す属性デ 一タとを含むフアイノレデータをパースして前記属性データを抽出する。 次に、 第 2の手段が、 前記第 1の手段で抽出した前記属性データを表示する画 像データを生成する。 図面の簡単な説明 A first means extracts the attribute data by parsing finale data including content data and attribute data indicating an attribute of the content data. Next, second means generates image data for displaying the attribute data extracted by the first means. BRIEF DESCRIPTION OF THE FIGURES
図 1は、 本発明の実施形態に係わる編集システムの構成図である。  FIG. 1 is a configuration diagram of an editing system according to an embodiment of the present invention.
図 2は、 図 1に示す編集装置のハードウエア構成図である。  FIG. 2 is a hardware configuration diagram of the editing apparatus shown in FIG.
図 3は、 図 1に示す MX Fのフアイノレデ^"タのフォーマツトを説明するための 図である。  FIG. 3 is a diagram for explaining the format of the final data of the MXF shown in FIG.
図 4は、 K L Vデータを説明するための図である。  FIG. 4 is a diagram for explaining KLV data.
図 5は、 図 2に示すディスプレイ 1 6に表示される G U I画面を説明するため の図である。  FIG. 5 is a diagram for explaining a GUI screen displayed on the display 16 shown in FIG.
図 6は、 図 5に示すファイル属性表示欄を説明ための図である。  FIG. 6 is a diagram for explaining the file attribute display column shown in FIG.
図 7は、 図 5に示すプレビュー欄およびプレビュー進行表示欄を説明するため の図である。  FIG. 7 is a diagram for explaining a preview column and a preview progress display column shown in FIG.
図 8は、 図 1に示す編集装置の動作例を説明するためのフローチャートである 発明を実施するための最良の形態  FIG. 8 is a flowchart for explaining an operation example of the editing apparatus shown in FIG.
これより図面を参照して本発明の好適実施例について説明していく。  Preferred embodiments of the present invention will now be described with reference to the drawings.
図 1は、 本発明の実施形態に係わる編集システム 1の構成図である。  FIG. 1 is a configuration diagram of an editing system 1 according to an embodiment of the present invention.
図 1に示すように、 編集システム 1は、 例えば、 外部装置 3— 1〜 3— Nおよ び編集装置 4を有する。  As shown in FIG. 1, the editing system 1 includes, for example, external devices 3-1 to 3-N and an editing device 4.
ここで、 編集装置 4が第 3の発明のデータ処理装置に対応している。  Here, the editing device 4 corresponds to the data processing device of the third invention.
外部装置 3—1〜 3— Nは、 例えば、 V T R (Video Tape Recorder) 、 光ディ スクドライブ、 F T P (File Transfer Protocol)サーバあるいはローカルドライ プなどである。  The external devices 3-1 to 3-N are, for example, a VTR (Video Tape Recorder), an optical disk drive, an FTP (File Transfer Protocol) server or a local drive.
外部装置 3— 1〜 3— Nは、 所定のデータを記憶し、 編集装置 4と接続される と、 当該データを MX Fのフアイノレデータ F I LE— 1〜F I LE— Nに変換し て編集装置 4に転送 (出力) する。 External devices 3-1 to 3-N store predetermined data and are connected to editing device 4. Then, the data is converted to the final data FI LE-1 to FI LE-N of the MX F and transferred (output) to the editing device 4.
外部装置 3— 1〜3—Nと編集装置 4との間のデータ転送は、 FTP (File The data transfer between the external device 3-1 to 3-N and the editing device 4 is performed by FTP (File
Transfer Protocol)、 P C (Personal Computer)不ットワーク、 USB (Universal Serial Bus)、 I EEE (Institute Electrical and Electronics Engineers) 13Transfer Protocol), PC (Personal Computer) network, USB (Universal Serial Bus), IEEE (Institute Electrical and Electronics Engineers) 13
94などのプロトコルで行われる。 It is performed with a protocol such as 94.
以下、 図 1に示す編集装置 4について説明する。  Hereinafter, the editing device 4 shown in FIG. 1 will be described.
図 2は、 図 1に示す編集装置 4のハードウェア構成図である。  FIG. 2 is a hardware configuration diagram of the editing device 4 shown in FIG.
図 2に示すように、 編集装置 4は、 例えば、 インタフェース 1 1、 インタフエ ース 12、インタフェース 13、操作部 14、スピーカ 1 5、ディスプレイ 16、 メモリ 17および C PU (Central Processing Unit) 18を有し、 これらがバス As shown in FIG. 2, the editing device 4 has, for example, an interface 11, an interface 12, an interface 13, an operation unit 14, a speaker 15, a display 16, a memory 17, and a CPU (Central Processing Unit) 18. And these are the buses
10を介して接続されている。 Connected through 10.
ここで、 CPU18が本発明のコンピュータに対応している。  Here, the CPU 18 corresponds to the computer of the present invention.
また、 メモリ 17力 本宪明のプログラムに対応するプログラム PRGを記憶 している。  Also, the memory 17 stores a program PRG corresponding to the program of the present invention.
インタフェース 1 1は、 図 1に示す外部装置 3—1〜 3— Nからフアイノレデー タ F I LE— 1〜F I LE—Nの全部または一部を入力する。  The interface 11 receives all or a part of the final data FILE-1 to FILE-N from the external devices 3-1 to 3-N shown in FIG.
インタフェース 12は、 CPU 18によるプログラム PRGの実行に応じて生 成された GU I (Graphical User Interface)画面の画像ィ言号をディスプレイ 16 に出力する。  The interface 12 outputs to the display 16 an image of a GUI (Graphical User Interface) screen generated in response to the execution of the program PRG by the CPU 18.
また、 インタフェース 12は、 CPU 18が生成した上記 GU I画面に対応し た音声の音声信号をスピーカ 15に出力する。  Further, the interface 12 outputs an audio signal of an audio corresponding to the GUI screen generated by the CPU 18 to the speaker 15.
スピーカ 15は、 インタフェース 12を介して CPU 18から入力した音声信 号に応じた音声を出力する。  The speaker 15 outputs a sound corresponding to the sound signal input from the CPU 18 via the interface 12.
ディスプレイ 16は、 インタフェース 12を介して CPU18から入力した画 像信号に応じた画面を表示する。 ィンタフェース 13は、 操作部 14を介して入力されたユーザの操作の応じた 操作信号を C P U 18に出力する。 The display 16 displays a screen corresponding to an image signal input from the CPU 18 via the interface 12. The interface 13 outputs an operation signal corresponding to a user operation input via the operation unit 14 to the CPU 18.
操作部 14は、 マウスゃキーボードなどの操作手段である。  The operation unit 14 is an operation means such as a mouse / keyboard.
メモリ 17は、 プログラム PR G、 並びにプログラム PRGの実行に用いられ るデータなどを記憶する。  The memory 17 stores a program PRG, data used for executing the program PRG, and the like.
CPU18は、 メモリ 17に記憶されたプログラム P R Gを実行し、 接続先と して指定された外部装置 3—1〜 3— Nから入力したファイルデータ F I LE— 1~FL I E— Nをパースして、 属性データ.を抽出する。  The CPU 18 executes the program PRG stored in the memory 17 and parses the file data FI LE-1 to FL IE-N input from the external device 3-1 to 3-N specified as the connection destination. , Attribute data.
具体的には、 CPU18は、 図 3を用いて後述する KLVデータによって構成 ファイルデータ F I LE— 1〜F L I E— Nをパースし、 KLVデータのキー (K) を検出し、 当該キー (K) を基に所定の属性データを抽出する。  Specifically, the CPU 18 parses the file data FI LE-1 to FLIE-N using KLV data described later with reference to FIG. 3, detects the key (K) of the KLV data, and replaces the key (K) with the key. Based on this, predetermined attribute data is extracted.
そして、 C P U 18は、 上記抽出した属性データを表示するための GU I画面 の画像データを生成し、 当該画像データをインタフェース 1.2を介してディスプ レイ 16に出力する。  Then, the CPU 18 generates image data of the GUI screen for displaying the extracted attribute data, and outputs the image data to the display 16 via the interface 1.2.
CPU18の動作例は、 後述する編集装置 4の動作例と関連付けて詳細に説明 する。  An operation example of the CPU 18 will be described in detail in association with an operation example of the editing device 4 described later.
先ず、 MX Fのファイルデータ F I LE_1 ~F L I E— Nのフォーマツトを 説明する。  First, the format of the MX F file data FILE_1 to FLIE-N will be described.
図 3は, MXFのファイルデータ F I LE— 1〜FL I E— Nのフォーマツト を説明するための図である。  Fig. 3 is a diagram for explaining the format of MXF file data F ILE-1 to FLIE-N.
図 3に示すように、 ファイルデータ F I LE— 1〜F L I E— Nは、 ヘッダデ ータ、 ボディデータおよびフッタデータで構成され、 各々がパーティション PA ' Tと呼ばれるモジュールデータとして規定されている。  As shown in FIG. 3, the file data F ILE-1 to FLIE-N are composed of header data, body data and footer data, each of which is defined as module data called a partition PA'T.
各パーティションは、 複数のパック PACKと呼ばれるモジュールデータで構 成される。 メタデータ MET A 1を有する。 Each partition is composed of module data called multiple PACKs. It has metadata MET A 1.
メタデータ META1は、 図 3に示すように、 UM I D (Unique Material IdenUfier)データと、 V/A— Cデータとを含んでいる。  As shown in FIG. 3, the metadata META1 includes UMID (Unique Material IdenUfier) data and V / A-C data.
UM I Dデータは、 ポディデータ内のビデオデータ V I D E Oやオーディォデ ータ AUD I O 1〜8などのコンテンッデータ (素材データ) の属性を示すデー タである。  The UMID data is data indicating the attributes of content data (material data) such as video data VIDEO and audio data AUDIO 1 to 8 in the pod data.
UMI Dデータは、例えば、上記コンテンツデータの形式、生成方法、生成時、 生成者、 生成国名などを示している。  The UMI D data indicates, for example, the format, generation method, generation time, creator, and generation country name of the content data.
Vノ A— Cデータは、 例えば、 ボディデータに含まれる上記コンテンツデータ のチャンネル (系統) を示している。  The V-A-C data indicates, for example, the channel (system) of the content data included in the body data.
図 3に示す例では、 VZA— Cデータは、 ビデオデータ V IDEOと、 8チヤ ンネル分のオーディオデータ AUD I〇1〜AUD I O 8との 9チャンネルのコ ンテンッデータがボディデータ内に含まれていることを示している。  In the example shown in Fig. 3, the body data contains 9 channels of VZA-C data, video data VIDEO and 8 channels of audio data AUD I〇1 to AUD IO 8. It is shown that.
ボディデータは、 パック PACKであるビデオデータ V I DEO、 8チャンネ ル分のオーディオデータ AUD I O 1〜AUD I O 8を有する。  The body data includes video data VIDEO, which is a PACK, and audio data AUDIO1 to AUDIO8 for eight channels.
ビデオデータ V I D EO内には、 図 3に示すように、 複数の画像 (フレーム) の画像データと、 ユーザが当該画像の記録 (生成) 時にダットシーン (Good Sene) として指定した画像の画像データに対応付けられた EM (Essence Mark)データと が含まれている。  As shown in Fig. 3, video data VID EO contains image data of multiple images (frames) and image data of an image specified as a dat scene (Good Sene) when the user recorded (generated) the image. The associated EM (Essence Mark) data and are included.
フッタデータは、 ノ ック PACKであるポ トアンプル POSAおよびメタデ ータ ME TA 2を有する。  The footer data includes a knock PACK, a pot ampule POSA, and metadata META2.
上述したパック PAC :、 並びにパック PACK内のデータは全て KLVデー タ (本発明のモジュールデータ) である。  The data in the above-mentioned pack PAC: and pack PACK are all KLV data (module data of the present invention).
ヘッダデータ、 ボディデータおよびフッタデータを構成するパックデータ、 並 ぴに当該パックデータ内の各データが、 キー (K)、 データ長 (L) およびデータ (V) で構成される KLVデータであるというデータ構造をファイルデータ F I LE__1〜FL I E—Nは有している。 当該データ構造は、 例えば、 MXFによ り規定されている。 It is said that the pack data constituting the header data, body data and footer data, and that each data in the pack data is KLV data composed of a key (K), a data length (L) and a data (V). File structure file data FI LE__1 to FL IE-N have. The data structure is specified, for example, by the MXF.
ここで、 キー (K) が本発明の識別データに対応し、 データ (V) が本究明の 所定のデータに対応している。  Here, the key (K) corresponds to the identification data of the present invention, and the data (V) corresponds to the predetermined data of the present invention.
KLVデータは、 例えば、 図 4に示すように、 データ (V) として KLVデー タを持つことが許されてレ、る。  For example, as shown in FIG. 4, KLV data is allowed to have KLV data as data (V).
CPU18は、 上述したデータ構造のファイルデータ F I LE_1~F L I E —Nをパースして、当該フィァノレデータ内の KLVデータのキー(K)を検出し、 当該キー (K) を基に、 UMIDデータ、 VZA—Cデータおよび EMデータな どの属性データを抽出する。  The CPU 18 parses the file data FI LE_1 to FLIE —N having the above-described data structure, detects the key (K) of the KLV data in the final data, and, based on the key (K), detects the UMID data, VZA — Extract attribute data such as C data and EM data.
.以下、 上述したように、 CPU 18が生成した画像データを基にディスプレイ 16に表示される GU I画面について説明する。  Hereinafter, the GUI screen displayed on the display 16 based on the image data generated by the CPU 18 as described above will be described.
図 5は、 当該 GU I画面 30を説明するための図である。  FIG. 5 is a diagram for explaining the GUI screen 30.
図 5に示すように、 GU I画面 30は、 例えば、 接続先指定欄 41、 フアイノレ 属性表示欄 42、 プレビュー欄 43、 プレビュー進行表示欄 44、 プレビュー中 チャンネル表示欄 45、 プレビュー操作ボタン群 46、 クリップ名入力欄 47お よびインポート指示ボタン 48を有する。  As shown in FIG. 5, the GUI screen 30 includes, for example, a connection destination specification field 41, a fine note attribute display field 42, a preview field 43, a preview progress display field 44, a previewing channel display field 45, a preview operation button group 46, It has a clip name input field 47 and an import instruction button 48.
接続先指定欄 41は、 ユーザによる図 2に示す操作部 14の操作に応じて、 ュ 一ザが編集装置 4の接続先を指定するために用いられる。  The connection destination specification column 41 is used by a user to specify a connection destination of the editing device 4 in response to an operation of the operation unit 14 shown in FIG. 2 by a user.
図 1に示す例では、 外部装置 3_1〜 3— Nのいずれかが接続先として指定さ える。  In the example shown in FIG. 1, any one of the external devices 3_1 to 3—N can be designated as the connection destination.
フアイノレ属性表示欄 42は、 図 5および図 6に示すように、 接続先指定欄 41 によつて指定された接繞先から入力した上記ファィルデータを C P U 18がパー スして抽出した UMI Dデータ、 VZA— Cデータおよび EMデータを表示する。 また、 ファイル属性表示欄 42は、 図 5および図 6に示すように、 上記フアイ ルデータのフアイノレ名 (NAME), サイズ (S I ZE)、 並びに更新時 (T IM E) などの情報を表示する。 これらの情報は、 CPU 18力 上記ファイルデー タから抽出してもよいし、 当該フアイノレデータとは別の所定のデータから取得し てもよい。 As shown in FIGS. 5 and 6, the file attribute display field 42 is a UMI D data extracted by the CPU 18 parsed from the file data input from the connection destination designated by the connection destination specification field 41. , VZA — Display C and EM data. In addition, as shown in FIGS. 5 and 6, the file attribute display field 42 displays the file name (NAME), size (SI ZE) of the above file data, and when updating (T IM Display information such as E). These pieces of information may be extracted from the file data of the CPU 18 or may be obtained from predetermined data different from the finale data.
図 6に示す例では、 ファイル属性表示欄 42は、 例えば、 外部装置 3—1に記 憶されたファイルデータの名前 「a. mx f」 と、 そのサイズ 「13, 235M By t e」 と、 EMマークの有無および個数 「Y e s, 5」 と、 UM I Dデータ の有無 「Ye s」 と、 VZ A— Cデータが示すチャンネル 「V, Al, A 2, A 7 J と、 生成時 「2003/03/03」 とを対応付けて表示している。  In the example shown in FIG. 6, the file attribute display column 42 includes, for example, the name “a.mxf” of the file data stored in the external device 3-1, the size “13, 235M By te”, and the EM. Presence / absence and number of marks “Yes, 5”, presence / absence of UM ID data “Yes”, and channels indicated by VZ A—C data “V, Al, A2, A7J” 03/03 "in association with each other.
プレビュー欄 43は、 例えば、 ファイル属性表示欄 42上でユーザが操作部 1 4を用いて指定したファイルデータのプレビュー画像を表示する。  The preview column 43 displays, for example, a preview image of the file data specified by the user using the operation unit 14 on the file attribute display column 42.
プレビュー欄 43には、プレビュー中の画像のタイムコード 51が表示される。 また、 上記プレビュー画像に対応した音声がスピーカ 15から出力される。 プレビュー進行表示欄 44は、 図 7に示すように、 時間軸 60と、 フアイル属 性表示欄 42上で指定されたフアイルデータ内の E Mデータの位置を示すマーク EM_Mと、 プレビュー中の画像の時間軸 60上での位置を示すマーク CP— M と、 I N点のタイムコードを指定する欄 61と、 OUT点のタイムコードを指定 する欄 62とを有する。 I N点と OUT点は、 ユーザがクリップデータとして編 集装置 4に取り込むコンテンツデータの範囲を指定するために用いられる。  The preview field 43 displays the time code 51 of the image being previewed. A sound corresponding to the preview image is output from the speaker 15. As shown in FIG. 7, the preview progress display column 44 includes a time axis 60, a mark EM_M indicating the position of the EM data in the file data specified on the file attribute display column 42, and a time of the image being previewed. It has a mark CP-M indicating the position on the axis 60, a column 61 for specifying the time code of the IN point, and a column 62 for specifying the time code of the OUT point. The IN point and the OUT point are used by a user to specify a range of content data to be taken into the editing device 4 as clip data.
クリップデータは、 編集に用いる単位となるコンテッデータをいう。  The clip data is content data that is a unit used for editing.
また、 プレビュー進行表示欄 44には、 EMデータが付されたビデオデータの 画像を表示しているタイミングで、 EMデータが付されていることを示すマーク 65が表示される。  In the preview progress display column 44, a mark 65 indicating that the EM data is attached is displayed at a timing when the image of the video data to which the EM data is attached is displayed.
プレビュー操作ポタン群 46は、 :記プレビューの動作 (再生、 停止等) を指 示を入力する複数の操作ボタン画像を有する。  The preview operation button group 46 has a plurality of operation button images for inputting an instruction of a preview operation (play, stop, etc.).
クリツプ名入力欄 47は、 例えば、 プレビュー欄 43にプレビュー中の画像デ ータ、 並びにそれに対応する音声データをクリップして得られるクリップデータ に付ける名前 (クリップ名) を入力するために用いられる。 The clip name input field 47 includes, for example, image data being previewed in the preview field 43 and clip data obtained by clipping audio data corresponding to the image data being previewed. Used to enter the name (clip name) to be assigned to.
ィンポート指示ボタン 4 8は、 プレビュー進行表示欄 4 4において、 プレビュ 一欄 4 3にプレビュー中のファイルデータ F I L E— 1〜F L I E— Nのうち、 I N点および O U T点とで指定されたビデオデータおよびオーディォデータをィ ンポートしてクリップデータを生成するための指示を入力するために用いられる。 以下、 編集装置 4の動作例を、 C P U 1 8の動作例と関連付けて説明する。 図 8は、 当該動作例を説明するためのフローチャートである。  The import instruction button 48 is used to display the video data and audio data specified by the IN point and the OUT point among the file data FILE-1 to FLIE-N being previewed in the preview column 43 in the preview progress display column 44. It is used to input an instruction to import clip data and generate clip data. Hereinafter, an operation example of the editing device 4 will be described in relation to an operation example of the CPU 18. FIG. 8 is a flowchart for explaining the operation example.
図 8において、 ステップ S T 2が第 1および第 2の発明の第 1の手順および第 1の工程に対応し、 ステップ S T 3が第 1および第 2の発明の第 2の手順および 第 2の工程に対応し、 ステップ S T 1および S T 2が第 1および第 2の発明の第 3の手順および第 3の工程に対応し、 ステップ S T 3が第 1の発明の第 4の手順 に対応し、 ステップ S T 7が第 1の発明の第 5の手順に対応している。  In FIG. 8, step ST2 corresponds to the first procedure and the first step of the first and second inventions, and step ST3 corresponds to the second procedure and the second step of the first and second inventions. Steps ST1 and ST2 correspond to the third procedure and the third step of the first and second inventions, and step ST3 corresponds to the fourth procedure of the first invention, and ST7 corresponds to the fifth procedure of the first invention.
また、 ステップ S T 2によって第 3の発明の第 1の手段が実現され、 ステップ S T 3によって第 3の発明の第 2の手段が実現される。  Step ST2 implements the first means of the third invention, and step ST3 implements the second means of the third invention.
ステップ S T 1 :  Step S T 1:
C P U 1 8は、 ユーザが図 5に示す接続先指定欄 4 1を基に外部装置 3— 1〜 3— Nのいずれかを接続先として指定した力否かを判断し、 指定したと判断する とステップ S T 2の進み、 そうでない場合には処理を繰り返す。  The CPU 18 determines whether or not the user has specified any of the external devices 3-1 to 3-N as the connection destination based on the connection destination specification field 41 shown in FIG. 5, and determines that the user has specified the power. And step ST2, otherwise repeat the process.
ステップ S T 2 :  Step S T 2:
C P U 1 8は、 ステップ S T 1で接続先として指定された外部装置 3_ 1〜 3 _Nに接続し、 当該外部装置から入力したファイルデータ F I L E— 1〜F L I E— Nをパースして、 前述したように、 K L Vデータのキー (K) を基に、 K L Vデータのデータ (V) として格納された UM'I Dデータ、 V/A_Cデータお よび EMデータなどの属性データを抽出する。  The CPU 18 connects to the external device 3_1 to 3_N designated as the connection destination in step ST1, parses the file data FILE-1 to FLIE-N input from the external device, and Attribute data such as UM'ID data, V / A_C data and EM data stored as KLV data (V) are extracted based on the KLV data key (K).
ステップ S T 3 :  Step S T 3:
C P U 1 8は、 ステップ S T 2で抽出した属性データを表示する図 5に示すフ アイル属性表示欄 42に表示する画像データを生成し、 当該画像データをィンタ フェース 12を介してディスプレイ 16に出力する。 The CPU 18 displays the attribute data extracted in step ST2 as shown in FIG. The image data to be displayed in the aisle attribute display field 42 is generated, and the image data is output to the display 16 via the interface 12.
これにより、 図 5に示す GU I画面 30のフアイノレ属性表示欄 42に、 ステツ プ ST 2で抽出された UM I Dデータ、 VZA— Cデータおよび EMデータなど の属性データカ S、フアイメノレ名、サイズぉよび生成時のデータと共に表示される。 ステップ ST4 :  As a result, the attribute data display field 42 of the GUI screen 30 shown in FIG. It is displayed with the data at the time of generation. Step ST4:
CPU 18は、 ステップ ST 2で抽出した EMデータを基に、 ステップ ST2 で接続した外部装置 3—1〜 3— Nから入力したフアイノレデータ F I LE— 1〜 FL I E—N内の EMデータが付された画像の画像信号を生成し、 これをインタ フェース 12を介してディスプレイ 16に出力する。  Based on the EM data extracted in step ST2, the CPU 18 converts the EM data in the final data FI LE-1 to FL IE-N input from the external devices 3-1 to 3-N connected in step ST2. An image signal of the attached image is generated and output to the display 16 via the interface 12.
これにより、 図 5にプレビュー欄 43に、 EMデータで指定された画像のプレ ビューが表示される。 '  As a result, a preview of the image specified by the EM data is displayed in the preview column 43 in FIG. '
なお、 ステップ S T 2で接続した外部装置 3— 1〜 3— Nに複数のフアイルデ ータが記憶されている場合には、 CPU18は、 ユーザによって指定されたファ ィルデータについて上記プレビューの表示を行う。  If a plurality of file data are stored in the external devices 3-1 to 3-N connected in step ST2, the CPU 18 displays the preview of the file data specified by the user.
ステップ ST 5 :  Step ST 5:
CPU18は、 ユーザによる操作部 14の操作によって図 5に示すインポート 指示ボタン 48が指定されたか否かを判断し、 指定されたと判断すると、 ステツ プ S T 8に進み、 そうでない場合にはステップ S T 6の処理に戻る。  The CPU 18 determines whether or not the import instruction button 48 shown in FIG. 5 has been designated by the user's operation of the operation unit 14. If it is determined that the import instruction button 48 has been designated, the process proceeds to step ST8. Return to the processing of.
ステップ ST6 :  Step ST6:
CPU18は、 図 5に示すプレビュー欄 43にプレビュー中のファイルデータ F I LE_1〜FL I E_N内の欄 61, 62で指定された I N点と OUT点と で規定される部分 (範囲) を接続中の外部装置 3— 1〜3— Nから入力 (インポ ート) する。  The CPU 18 connects the portion (range) defined by the IN point and the OUT point specified in the columns 61 and 62 in the file data FI LE_1 to FL IE_N to the preview column 43 shown in FIG. Input (import) from external device 3-1 to 3-N.
ステップ ST 7 :  Step ST 7:
CPU18は、 ステップ ST6で外部装置 3 1〜3 Nから入力したデータ をノンリニア編集 (Non Linear Edition)用のネイティブフォーマツトに変換して クリップデータを生成する。 当該クリップデータには、 図 5に示すクリップ名入 力欄 4 7に入力された名前が付けられる。 The CPU 18 receives the data input from the external devices 31 to 3N in step ST6. Is converted to the native format for non-linear editing (Non Linear Edition) to generate clip data. The clip data is given the name entered in the clip name input field 47 shown in FIG.
C P U 1 8は、 上記クリップデータを編集用メモリ (図示せず) に記憶する。 その後、 C P U 1 8は、 編集処理において、 上記クリップデータを読み出して 使用する。  The CPU 18 stores the clip data in an editing memory (not shown). Thereafter, the CPU 18 reads and uses the clip data in the editing processing.
ステップ S T 8 :  Step S T 8:
C P U 1 8は、 所定の終了条件を満たした力否かを判断し、 満たしたと判断す ると処理を終了し、 そうでない場合にはステップ S T 4の処理に戻る。  The CPU 18 determines whether or not the force satisfies the predetermined end condition. If it is determined that the force is satisfied, the process ends. If not, the process returns to step ST4.
以上説明したように、 編集装置 4では、 接続先として指定された外部装置 3— 1〜 3— Nから入力したファイルデータのフアイノレ名 (NAME) ,サイズ(S I Z E)、並びに更新時 (T I ME) の他に、 当該フアイノレデータをパースして得ら れる UM I Dデータの有無、 VZA— Cデータおよび EMデータの有無および個 数を示す図 5に示すフアイノレ属性表示欄 4 2を自動的に表示する。  As described above, in the editing device 4, the file name (NAME), size (SIZE), and update time (TI ME) of the file data input from the external device 3-1 to 3-N specified as the connection destination are set. In addition, automatically displays the file attribute display field 42 shown in Fig. 5 showing the presence / absence of UM ID data, the presence / absence of VZA-C data and EM data obtained by parsing the relevant file data, and the number of pieces. I do.
そのため、 ファイル属性表示欄 4 2を見るだけで、 そのファイルデータ内にィ ンポートしようとするコンテンツが含まれている力否かを容易に判断できる。 また、 編集装置 4によれば、 プレビュー欄 4 3でプレビュー中の画像の進行状 況をプレビュー進行表示欄 4 4を基にユーザが容易に把握できる。  Therefore, just by looking at the file attribute display field 42, it is possible to easily determine whether the file data contains the content to be imported or not. Further, according to the editing device 4, the user can easily grasp the progress of the image being previewed in the preview column 43 based on the preview progress display column 44.
また、 プレビュー進行表示欄 4 4内の時間軸 6 0にはマーク EM_Mが表示さ れ、 また、 データが付された画像のプレビュー画面にマーク 6 5が表示され るため、 EMデータが付された画像をユーザは容易に特定できる。  Also, the mark EM_M is displayed on the time axis 60 in the preview progress display field 44, and the mark 65 is displayed on the preview screen of the image to which the data is added, so that the EM data is added. The image can be easily specified by the user.
また、 編集装置 4によれば、 フアイル属性表示欄 4 2に表示されるフアイルデ ータについてのプレビューを簡単な操作でプレビュー欄 4 3に表示でき、 ユーザ が図 7に示す欄 6 1 , 6 2で I N点および OU T点を指定し、 続いてィンポート 指示ボタン 4 8を指定するだけど、 クリップデータを自動的を自動的に生成でき る。 本発明は上述した実施形態には限定されない。 Also, according to the editing device 4, a preview of the file data displayed in the file attribute display column 42 can be displayed in the preview column 43 by a simple operation, and the user can display the columns 61, 62 shown in FIG. Specify the IN point and OUT point with, and then specify the import instruction buttons 48. Clip data can be automatically generated. The present invention is not limited to the embodiments described above.
例えば、 上述した実施形態では、 本発明のフアイルデータとして、 図 3などを 用いて説明した MX Fのファイルデータ F I L E— 1〜F L I E— Nを例示した 1 本発明のフアイルデータは、 コンテンッデータと前記コンテンッデータの属 性を示す属性データとを含むものであれば特に限定されない。  For example, in the above-described embodiment, as the file data of the present invention, the MXF file data FILE-1 to FLIE-N described with reference to FIG. 3 and the like are exemplified. There is no particular limitation as long as it includes attribute data indicating the attribute of the content data.
また、 上述した実施形態では、 図 5に示す GU I画面 3 0を例示したが、 当該 画面に例えばファィル属性表示欄 4 2のみを表示してもよレ、。  In the above-described embodiment, the GUI screen 30 shown in FIG. 5 has been exemplified. However, for example, only the file attribute display field 42 may be displayed on the screen.
また、 本発明の属性データは、 フアイノレデータに含まれ、 当該フアイノレデータ に含まれるコンテンツデータの属性を示すものであれば特に限定されない。 例え ば、 属性データは、 当該コンテンツデータが写真である場合にその写真を写した カメラマンの名前、 あるいは、 当該コンテンツデータが映画のコンテッに関する ものである場合に当該映画の監督の名前などであってもよい。  The attribute data of the present invention is not particularly limited as long as it is included in the finale data and indicates the attribute of the content data included in the finale data. For example, the attribute data may be the name of the photographer who shot the photo if the content data is a photo, or the name of the director of the movie if the content data is related to the content of the movie. Is also good.
以上説明したように、 本発明によれば、 ファイルデータ内に含まれる属性デー タを表示することを可能にするプログラム、 その方法およびその装置を提供する ことができる。 産業上の利用可能性  As described above, according to the present invention, it is possible to provide a program capable of displaying attribute data included in file data, a method thereof, and a device thereof. Industrial applicability
本発明は、 フアイルデータ内に含まれる属性データを表示するシステムに適用 可能である。  The present invention is applicable to a system for displaying attribute data included in file data.

Claims

請 求 の 範 囲 The scope of the claims
1 . コンテンッデータと前記コンテンツデータの属性を示す属性データとを 含むファイルデータをパースして前記属性データを抽出する第 1の手順と、 前記第 1の手順で抽出した前記属性データを表示する画像データを生成する第 2の手順と 1. A first step of parsing file data including content data and attribute data indicating an attribute of the content data to extract the attribute data, and displaying the attribute data extracted in the first step The second step of generating image data and
をコンピュータに実行させるプログラム。  A program that causes a computer to execute.
2 . 前記ファイルデータを保持する保持元に接続する第 3の手順  2. The third procedure to connect to the source that holds the file data
を前記コンピュータにさらに実行させ、  Further causing the computer to execute,
前記第 1の手順は、 前記第 3の手順で接続した前記保持元から入力した前記フ 了ィルデータをパースする  The first procedure parses the file data input from the holding source connected in the third procedure
請求項 1に記載のプログラム。  The program according to claim 1.
3 . 前記第 2の手順は、 前記第 3の手順で接続した前記保持元から入力した 前記ファィルデータの一覧と共に前記属性データを表示する前記画像データを生 成する  3. The second procedure generates the image data for displaying the attribute data together with a list of the file data input from the holding source connected in the third procedure.
請求項 2に記載のプログラム。  The program according to claim 2.
4. 前記ファィノレデータの全体あるいは一部を指定するための画像の画像デ 一タを生成する第 4の手順と、  4. a fourth step of generating image data of an image for designating all or a part of the finale data;
前記第 4の手順で生成された前記画像データによる前記画像を基に指定された 前記フアイノレデータの一部を基にクリップデータを生成する第 5の手順と を前記コンピュータにさらに実行させる  And a fifth step of generating clip data based on a part of the finale data designated based on the image based on the image data generated in the fourth step.
請求項 1に記載のプログラム。  The program according to claim 1.
5 . 前記ファイルデータは、 所定のデータと当該所定のデータを識別する識 別データとをそれぞれ含む複数のモジュールデータで構成され、  5. The file data is constituted by a plurality of module data each including predetermined data and identification data for identifying the predetermined data,
前記第 1の手順は、 前記フ了ィルデータをパースして前記モジュールデータの 前記識別データを検出し、 当該検出した前記識別データを基に、 前記属性データ を抽出する In the first step, the identification data of the module data is detected by parsing the file data, and the attribute data is detected based on the detected identification data. Extract
請求項 1に記載のプログラム。  The program according to claim 1.
6 . 前記第 1の手順は、 前記コンテンツデータの形式、 生成方法、 生成時、 生成者、 生成国名、 前記コンテンッデータがビデオデータである場合の記録時に 指定された画像の特定、 並びに複数の系統のコンテンツデータが前記ファイルデ ータに格納されている場合に前記系統のうち少なくとも一つを示す前記属性デー タを抽出する  6. The first procedure is to specify the format of the content data, the generation method, the generation time, the creator, the country of generation, the identification of the image specified at the time of recording when the content data is video data, and the When content data of a system is stored in the file data, the attribute data indicating at least one of the systems is extracted.
請求項 1に記載のプログラム。  The program according to claim 1.
7 . コンピュータが実行するデータ処理方法であって、  7. A data processing method executed by a computer,
コンテンツデータと前記コンテンツデータの属性を示す属性データとを含むフ アイルデータをパースして前記属性データを抽出する第 1の工程と、  A first step of parsing file data including content data and attribute data indicating an attribute of the content data to extract the attribute data;
前記第 1の工程で抽出した前記属性データを表示する画像データを生成する第 2の工程と  A second step of generating image data for displaying the attribute data extracted in the first step;
を有するデータ処理方法。  A data processing method comprising:
8 · 前記ファイルデータを保持する保持元に接続する第 3の工程  8 · Third step of connecting to the holding source that holds the file data
をさらに有し、  Further having
前記第 1の工程は、 前記第 3の工程で接続した前記保持元から入力した前記フ ァィルデータをパースする  In the first step, the file data input from the holding source connected in the third step is parsed.
請求項 7に記載のデータ処理方法。  The data processing method according to claim 7.
9 . ' コンテンツデータと前記コンテンツデータの属性を示す属性データとを 含むフアイノレデータをパースして前記属性データを抽出する第 1の手段と、 前記第 1の手段で抽出した前記属性データを表示する画像データを生成する第 2の手段と  9. First means for extracting the attribute data by parsing file data including content data and attribute data indicating the attribute of the content data, and displaying the attribute data extracted by the first means A second means for generating image data
を有するデータ処理装置。 .  A data processing device having: .
PCT/JP2004/004844 2003-04-04 2004-04-02 Program, method thereof, and device thereof WO2004090728A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003-101415 2003-04-04
JP2003101415A JP2004310331A (en) 2003-04-04 2003-04-04 Program, method therefor, and device therefor

Publications (1)

Publication Number Publication Date
WO2004090728A1 true WO2004090728A1 (en) 2004-10-21

Family

ID=33156759

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2004/004844 WO2004090728A1 (en) 2003-04-04 2004-04-02 Program, method thereof, and device thereof

Country Status (2)

Country Link
JP (1) JP2004310331A (en)
WO (1) WO2004090728A1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002025232A (en) * 2000-06-30 2002-01-25 Sony Corp Device and method for recording information and device, method and system for processing information
JP2002318803A (en) * 2000-12-07 2002-10-31 Sony United Kingdom Ltd Video information retrieval

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002025232A (en) * 2000-06-30 2002-01-25 Sony Corp Device and method for recording information and device, method and system for processing information
JP2002318803A (en) * 2000-12-07 2002-10-31 Sony United Kingdom Ltd Video information retrieval

Also Published As

Publication number Publication date
JP2004310331A (en) 2004-11-04

Similar Documents

Publication Publication Date Title
JP2002351878A (en) Digital contents reproduction device, data acquisition system, digital contents reproduction method, metadata management method, electronic watermark embedding method, program, and recording medium
US20050223037A1 (en) File management method and apparatus for controlling assets in multimedia appliances and information recording medium therefor
KR100704631B1 (en) Apparatus and method for creating audio annotation
US20050223039A1 (en) Method and apparatus for playing multimedia play list and storage medium therefor
US20030018609A1 (en) Editing time-based media with enhanced content
US20050027740A1 (en) Content information management apparatus and content information management method
US8229941B2 (en) Information processing apparatus, information processing method, and program therefor
WO2004051999A1 (en) Video signal processor, video signal recorder, video signal reproducer, video signal processor processing method, video signal recorder processing method, video signal reproducer processing method, recording medium
EP1583005A2 (en) File management and apparatus for controlling digital contents in multimedia appliances and information recording medium therefor
US20090327857A1 (en) System and method for providing metadata
JP2002374497A (en) Method, system, and program for digital stream contents generation, recording medium where the same program is recorded, and digital contents distributing method
JP2008118468A (en) Content presenting server and content presenting program
WO2006130227A2 (en) Operating system shell management of video files
WO2006064677A1 (en) Reproduction device, reproduction method, recording device, recording medium, program storage medium, and program
US20050078940A1 (en) Information editing device, information editing method, and computer product
WO2004090728A1 (en) Program, method thereof, and device thereof
JP5060636B1 (en) Electronic device, image processing method and program
TW201417571A (en) Scene summary collecting and playing system and method and recording medium thereof
JP4165543B2 (en) Video data recording apparatus, video data reproducing apparatus, processing method for video data recording apparatus, processing method for video data reproducing apparatus, program, and recording medium
EP2119070A2 (en) Templates and style sheets for audio broadcasts
JP4250662B2 (en) Digital data editing device
JP4330905B2 (en) Information editing apparatus, information editing method, and information editing program
JP5550688B2 (en) Electronic device, content transmission method and program
EP1357482A1 (en) Method and device for linking multimedia objects
JP2004289197A (en) Information edit apparatus, information edit method, and information edit program

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
122 Ep: pct application non-entry in european phase