WO1998012702A1 - Systeme et procede d'edition, et dispositif et procede de gestion de sequences video - Google Patents

Systeme et procede d'edition, et dispositif et procede de gestion de sequences video Download PDF

Info

Publication number
WO1998012702A1
WO1998012702A1 PCT/JP1997/003343 JP9703343W WO9812702A1 WO 1998012702 A1 WO1998012702 A1 WO 1998012702A1 JP 9703343 W JP9703343 W JP 9703343W WO 9812702 A1 WO9812702 A1 WO 9812702A1
Authority
WO
WIPO (PCT)
Prior art keywords
editing
clip
processing
edit
result
Prior art date
Application number
PCT/JP1997/003343
Other languages
English (en)
French (fr)
Inventor
Katsuakira Moriwake
Hidehiro Hirase
Nariyasu Hamahata
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to US09/068,866 priority Critical patent/US7055100B2/en
Priority to EP97940437A priority patent/EP0863510A4/en
Priority to KR1019980703762A priority patent/KR100551459B1/ko
Publication of WO1998012702A1 publication Critical patent/WO1998012702A1/ja
Priority to US09/849,832 priority patent/US7207007B2/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2508Magnetic discs
    • G11B2220/2512Floppy disks
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/90Tape-like record carriers

Definitions

  • Editing system editing method, clip management device and clip management method
  • the present invention relates to an editing system, and more particularly to an editing system that performs editing processing using a plurality of materials.
  • the conventional editing system does not have a device for managing such a large number of materials and a device for storing the editing history, and as a result, the editing operation is complicated. More specifically, an editing operator (hereinafter simply referred to as an operator) stores information such as what kind of material the editing result video data was generated and what kind of editing processing was performed. In the conventional editing system, every time an editing operation is performed, the operator writes such information on a paper and manages it.
  • the final edited video data The information indicating the editing history, which indicates whether or not the material was created from the material, was a huge amount of data, and it was impossible for the operating system to even manage it by writing it on paper.
  • the present invention has been invented to solve such problems, and simplifies and speeds up editing work by managing a plurality of materials in a unique hierarchical structure.
  • the purpose is to provide an editing system. Further, the present invention is intended to simplify and speed up the editing work by controlling a plurality of materials to be optimal for the editing work based on the management information. Is the purpose.
  • the present invention also provides an editing system having a GUI that is optimal for managing a plurality of materials in a hierarchical structure and generating high-speed and complicated editing result data, and the GUI simplifies editing work. The purpose is to improve the use of editing operations.
  • the present invention provides an editing system for creating an editing result clip from a plurality of editing target clips, the editing system comprising a plurality of processing modules for editing the editing target clip, and the plurality of processing modules.
  • the management means grasps the relationship between the edit result clip and the clip to be edited. For this reason, if an editing result clip is generated based on the information indicating the relationship between these clips held by the management means, a complicated editing operation can be easily performed. Further, according to the present invention, in an editing system for editing a plurality of editing target clips, the editing system comprises a plurality of processing modules for editing the editing target clip, and a processing module selected from the plurality of processing modules.
  • Editing means for generating an editing result clip by performing editing processing corresponding to a plurality of editing target clips on a plurality of editing target clips; display means for displaying a graphical user interface corresponding to a plurality of processing modules on a display; Video of target clip Storage means for storing image processing data indicating the contents of image processing performed by the editing processing performed on the editing data by the editing means in association with the editing result clip, and the editing result clip is selected.
  • control means for controlling the display means so that the image processing data stored in the storage means in association with the selected edit result clip is displayed on the display as a part of the graphical user interface.
  • the image processing data indicating the image processing content is displayed on the display as part of the graphical user interface, so that the editing operator can see the display.
  • the specified image processing contents can be easily grasped.
  • FIG. 1 is a block diagram showing the configuration of the editing system according to the present invention.
  • FIG. 2 is a block diagram showing the internal configuration of a workstation, which is the main configuration of the editing system.
  • FIG. 3 is a schematic diagram showing modules and a clip database provided in the editing system according to the present invention.
  • FIG. 4 is a schematic diagram for explaining hierarchical management of clips.
  • FIG. 5 is a schematic diagram used to explain an image of the combining process.
  • FIG. 6 is a screen image diagram for explaining a video image generated by the synthesizing process.
  • FIG. 7 is a schematic diagram used for explaining the concept of the combining process.
  • FIG. 8 is a schematic diagram used to explain the concept of the special effect processing.
  • FIG. 9 is a schematic diagram used to explain the concept of the editing process.
  • FIG. 10 is a screen image diagram showing a GUI screen displayed when the synthesis module is started.
  • Figure 11 shows the GUI screen that appears when you launch the special effects module It is a screen image figure.
  • FIG. 12 is a screen image diagram showing a GUI screen displayed when the editing module is activated.
  • FIG. 13 is a chart showing a database for clip management data registered in the clip database.
  • FIG. 14 is a chart for explaining a case where already registered clip management data is modified.
  • FIG. 15 is a chart showing edit point data during the combining process.
  • Figure 16 is a chart showing edit point data during special effect processing.
  • FIG. 17 is a chart showing editing point data at the time of editing processing.
  • FIG. 18 is a chart showing the synthesized data at the time of the synthesis processing.
  • Figure 19 is a chart showing special effect data during special effect processing.
  • FIG. 20 is a chart showing editing data at the time of editing processing.
  • FIG. 21 is a flowchart for explaining the operation when the control module is started.
  • FIG. 22 is a flowchart for explaining the operation when the editing module is started.
  • FIG. 23 is a flowchart for explaining the operation when the synthesis module is started.
  • FIG. 24 is a flowchart for explaining the operation when the special effect module is activated.
  • FIG. 25 is a flowchart for explaining the operation in the editing process.
  • FIG. 26 is a schematic diagram provided for explanation when editing contents of an arbitrary result clip are modified.
  • FIG. 27 is a flowchart for explaining the operation when another module is activated while a predetermined module is activated.
  • FIG. 28 is a flowchart for explaining the operation in the re-execution processing.
  • FIG. 29 is a schematic diagram schematically showing the re-execution processing.
  • reference numeral 1 denotes an editing system according to the present invention as a whole, and includes a workstation 2 for controlling the entire system.
  • the workstation 2 includes a main unit 2A including a CPU (central processing unit) and various processing circuits, a floppy disk drive and a hard disk drive, and a display 2B, a keyboard 2C, and a mouse connected to the main unit 2A. 2D and a pen tablet 2E.
  • a workstation 2 an editing software for editing is installed in a hard disk drive in advance, and the editing software is operated by operating the application software under an operating system. It has been made to start as.
  • a graphic display for a GUI is displayed on the display 2B, and the pen tablet described above is displayed.
  • a desired editing command can be input to the workstation 2.
  • Various numerical data related to editing can also be input to the workstation 2 via the keyboard 2C.
  • the workstation 2 When an editing command or various numerical data is input by one operation, the workstation 2 outputs control data corresponding to the editing command or various numerical data to a device controller 3 described later. As a result, each device constituting the editing system 1 is transmitted via the device controller 3. Is controlled. However, the video disk recorder 5 can directly control some functions without using the device controller 3.
  • Video data is input to the workstation 2 via the device controller 3 so that an image of an edited material, an edited image, and the like can be displayed on the display 2B. .
  • the device controller 3 is a control device that receives control data from the workstation 2 and actually controls each device.
  • the device controller 3 is connected to a dedicated controller 4 having a dial operator / slide operator, etc., so that the editing system 1 has a keyboard 2 C and a mouse of the workstation 2. Control data that changes gradually that cannot be input with 2D or pen tablet 1E can also be input.
  • the device controller 3 receives control data from the workstation 2 and the dedicated controller 4, and controls devices corresponding to the control data. For example, for the video disk recorder 5, the device controller 3 instructs playback of the material and recording of the material after editing. Video disc recorder 5 receiving this instruction
  • the video data and audio data of the desired material recorded on the internal disk-shaped recording medium are reproduced and output, or the edited video data and audio data are recorded on the disk-shaped recording medium. Record.
  • the device controller 3 instructs the video tape recorder (VTR) 6 to reproduce the material.
  • VTR video tape recorder
  • the video tape recorder 6 reproduces and outputs video and audio data of the desired material recorded on the internal video tape in accordance with the instruction.
  • the video data recorded on the video tape recorder 6 is temporarily downloaded to the video disc recorder 5, and then treated as video data of the material.
  • the device controller 3 controls the video data output from the video disk recorder 5, video tape recorder 6, or video camera 8. —Instruct your choice of evening.
  • the switcher 7 selects the video data of the desired material to be input and outputs the video data to the digital MULTIFECTER 9 or outputs it to the workstation 2 via the device controller 3.
  • input video data of desired material is sequentially selected and connected, edited video data is output to the monitor 10 for display, and the edited video data is returned to the video disk recorder 5 for recording.
  • VTR video tape recorder
  • the device controller 3 instructs the digital Marchefecta 9 to perform various effect processes.
  • the digital multi-function ekter 9 applies special effect processing such as mosaic processing and three-dimensional image conversion processing to the input video data of the desired material, and translation.
  • effect processing such as effect processing or image synthesizing processing is performed, the resulting video data is returned to the switcher 7 again and output to the workstation 2, the monitor 10 or the video disk recorder 5. ing.
  • the device controller 3 instructs the audio mixer 11 to edit audio data output from the video disk recorder 5 or the video tape recorder 6.
  • the audio mixer 11 synthesizes (mixes) the desired audio material in accordance with the instruction, and returns the synthesized audio data to the video disk recorder 5 for recording.
  • the workstation 2 has a system bus 20 for transmitting command data and video data, a CPU 21 for controlling the entire workstation 2, and video data supplied from the device controller 3.
  • Video processor 22 that performs image processing etc. on S1
  • display controller 23 that manages video data displayed on display 2B and graphic display for GUI
  • local HDD local hard disk drive
  • FDD floppy disk drive
  • keyboard 2 C mouse 2 D
  • pen tablet 2 E etc.
  • Pointing device interface that generates control commands based on commands from the pointing device
  • an external interface 27 provided with a software driver for transmitting the control data S2 to the device controller 3.
  • the system bus 20 is a bus for transmitting video data, command data, address data, and the like inside the workstation 2, and includes an image data bus 2OA for transmitting video data and command data. And a command data bus 20B for transmitting address data.
  • the image data bus 2 OA is connected to the CPU 2, the video processor 22, the display controller 23, the HDD interface 24, and the FDD interface 25, respectively.
  • the processor 22, the display controller 23, the HDD interface 24, and the FDD interface 25 perform transmission of video data via the image data bus 20A.
  • the command data bus 20B has a CPU 2, a video processor 22, a display controller 23, an HDD interface 24, an FDD interface 25, a pointing device interface 26, and an external interface. 2 7 are connected to each other (that is, all The lock is connected), and the command data address data is transmitted via the command data bus 20B.
  • the CPU 21 is a block that controls the entire workstation 2, and stores the ROM 21A storing the operating system of the workstation 2 and the uploaded application software and database. R AM2 1B.
  • the CPU 21 is started by operating based on the operating system stored in the ROM 21A.
  • the application software is started under this operating system, the CPU 21 first reads the application software recorded on the hard disk of the hard disk drive 24 A and reads the application software from the RAM 2. 1B, and then execute and start the application software.
  • the application software is divided into modules for each function and modularized.As will be described later, the software is divided into two main sections: an editing module for connecting materials, etc., and synthesis processing such as overlapping of materials.
  • Module for performing special effects processing such as a three-dimensional image conversion of materials and special effects processing, and management of activation of these modules and transfer of data between modules Control module.
  • the control module starts first, and when an editing instruction is input from the operator, the corresponding module (editing module) is managed under the control of the control module.
  • the synthesis module or the special effects module as appropriate, and perform the editing specified by the operator.
  • the video processor 22 receives the video data S 1 of the SDI (Serial Digital Interface) standard input to the workstation 2, performs data conversion on the video data S 1, and converts the converted video data. -Temporarily This is a block for buffering. Specifically, the video processor 22 extracts a composite video signal from a payload controller of the received video data S 1, and a processor controller 22 A for controlling the whole of the video processor 22. A data converter 22B for converting the composite video signal into digital component video data—evening, and a frame memory 22C for temporarily storing several frames of video data transmitted from the data converter 22B. Composed of
  • the processor controller 22A controls the data conversion operation of the data conversion unit 22B by sending a control signal to the data conversion unit 22B, and also sends the video data to the data conversion unit 22B.
  • the time code is extracted from S1.
  • the processor controller 22A controls the read Z write timing and the read / write address of the frame memory 22C by transmitting a control signal to the frame memory 22C.
  • the processor controller 22A controls the read timing of the frame memory 22 so that the time code transmitted to the display controller 23 and the video data (frame data) correspond. I do.
  • the data converter 22B converts the composite video signal into digital component video data based on a control signal from the processor controller 22A. Incidentally, the time code is extracted in this conversion process. The video data obtained by this conversion is sent to the frame memory 22C as described above, and the extracted time code is sent to the processor controller 22A.
  • the frame memory 22C temporarily stores the video data supplied from the data converter 22B. The read / write timing of the frame memory 22C is controlled by the processor controller 22A as described above.
  • the frame memory 22C is composed of at least two frame memories, and can store at least two frames of video data.
  • the video data stored in the frame memory 22C is stored in the processor controller.
  • Readout is performed based on the readout control of 22A.
  • the image size is made smaller than the original image by thinning out and reading out the video data stored in the frame memory 22C at predetermined intervals instead of reading out all the pixels.
  • the video data whose image size has been converted in this manner is displayed in a predetermined display area of the display 2B for checking the material or the editing result. Therefore, the display controller 23 via the image data bus 20A is displayed. Sent to
  • the display controller 23 is a control block for controlling data displayed on the display 2B.
  • the display controller 23 has a memory controller 23 A and a VRAM (video random 'access' memory) 23 B.
  • Memory controller 23 A controls the read / write timing of VRAM 23 B according to the internal synchronization of workstation 2.
  • the VRAM 23 B has video data sent from the frame memory 22 C of the video processor 22 and image data generated by the CPU 21 ⁇ timing control from the memory controller 23 A. Stored based on the signal.
  • the video data and image data stored in the VRAM 23B are read out based on the evening control signal from the memory controller 23A based on the internal synchronization of the workstation 2, and displayed on the display 2B. You.
  • the graphic display using the image data is the graphic display for the GUI.
  • the image data transmitted from the CPU 21 to the VRAM 23 B is, for example, image data such as a window, a cursor, a scroll bar, or an icon indicating a device.
  • the GUI 2 for the operator operation, the material, or the image of the edited result is displayed on the display 2B. It has been made.
  • the HDD interface 24 is an interface block for communicating with the oral hard disk drive 24 A provided inside the workstation 2. It is.
  • the HDD interface 24 and the hard disk drive 24 A communicate with each other based on a transmission format of SCS I (Small Computer System Interface).
  • the hard disk drive 24A has application software running on the workstation 2 installed. When the application software is executed, the hard disk drive 24A is read from the hard disk drive 24A. Is uploaded to RAM2] B of CPU21. When the application software is terminated, various information (for example, database information related to editing material) generated by the editing operation stored in the RAM 21B is stored in the hard disk drive 24A. Downloaded to the hard disk via.
  • the FDD interface 25 is an interface block for communicating with a floppy disk drive 25 A provided inside the workstation 2.
  • the FDD interface 25 and the floppy disk drive 25A communicate with each other based on the SCSI transmission format.
  • the pointing device interface 26 is an interface block that receives information from the keyboard 2C, the mouse 2D, and the pen tablet 2E connected to the workstation 2.
  • the pointing device interface 26 receives input information from a button provided on the keyboard 2C, decodes the received input information, and sends it to the CPU 21.
  • the pointing device interface 26 includes two-dimensional rotary encoder detection information provided in the mouse 2D and click information of left and right buttons provided in the mouse 2D (that is, selection designation information by pressing a button).
  • the pointing device interface 26 receives two-dimensional position data from the pen's tablet 2E, decodes the received position data, and sends it to the CPU 21. Information from such pointing device interface 26 The CPU 21 can recognize which command button of the GUI displayed on the display 2B is instructed, and can recognize various data input from the keyboard 2C based on the Control can be performed.
  • the external interface 27 is a block for communicating with the device controller 3 connected outside the workstation 2.
  • the external interface 27 has a driver for converting various control commands such as a reproduction command and a recording command generated by the CPU 21 into data of a predetermined communication protocol, and the control command data is transmitted via the driver. Sends S2 to device controller 3.
  • a workstation 2 is provided with editing application software which is modularized for each function.
  • This modularized application software can be roughly divided into an editing module EM that performs editing processing such as material joining processing, a synthesis module CM that performs composition processing such as material superposition processing, and special effects on the material. It consists of a special effect module SM that performs processing, and an edit module EM that is modularized for each of these functions, a synthesis module CM, and a control module CN TM that manages the activation of the special effect module SM.
  • the control module CNTM When the application software having such a configuration is uploaded from the hard disk drive 24A to the RAM 21B, the control module CNTM is first activated, and under the control of the control module CNTM, Each module EM, CM, and SM are activated as needed according to the instruction from the operating room.
  • the clip database CD B is composed of a video disk recorder 5 and RAM 21 B, and stores video data of materials and various data relating to editing.
  • Each module EM, CM, and SM reads the material specified by the operator from the clip database CD B, and uses the hardware such as the switcher 7 and the digital multi-ech ecta 9 described above to send the material to the operator. Perform editing in accordance with the instructions, and register the resulting edited material in the ClipDesk Base CDB.
  • each module EM, CM and SM also registers in the clip database CD B data on editing such as various parameters used for editing.
  • the clip database CDB mainly stores video data of the material in the video disk recorder 5, and stores various data related to editing in the RAM 21B.
  • each material is handled in units called clips. This section defines this clip.
  • one sequence of video moving image data is defined as clip video data
  • data for managing how the clip video data is generated is defined as clip management data.
  • Data consisting of clip video data and clip management data is defined as a clip.
  • a material generated by simply cutting out the source video data is referred to as a material clip (MC)
  • a material generated by editing the material clip is referred to as a result clip (FC). Call.
  • a plurality of clips including a material clip and a result clip are managed in a hierarchical structure based on a relationship between the clips. This is described below with reference to the example shown in FIG.
  • the result clip FC-008 is a material clip MC-001, a material clip MC-002, and a material clip MC-003.
  • This is a clip generated by combining the clips. That is, the relationship between the resulting clip FC-0 08, the material clip MC-0 0 0 K material clip MC-0 0 2, and the material clip MC-0 03 is an up-down relationship. In such an upper / lower relationship, the material clip MC-001, the material clip MC-002, and the material clip MC-003 are under the result clip FC-08, and thus each of the lower clips. Conversely, the resulting clip FC-0 08 is called the upper clip because it is generated by integrating these lower clips.
  • the resulting clip FC-09 is a clip generated by applying a special effect to the material clip MC-004. Therefore, the material clip MC-004 is a lower clip of the result clip FC-09, and conversely, the result clip FC-09 is a higher clip of the material clip MC-004.
  • the result clip FC-010 is a result clip generated by editing the result clip FC-0 08 and the result clip FC-009 (in this case, connecting them by, for example, a wipe). Therefore, the result clip FC-0 08 and the result clip FC-009 are the lower clips of the result clip FC-0 10 respectively, and the result clip FC-0 10 is the result clip FC-0 08 and the result clip. This is the upper clip of clip FC-009.
  • each clip has a hierarchical relationship
  • the clips are managed in a hierarchical structure in the clip database CDB based on the hierarchical relationship between the clips.
  • material clips that are not used for any editing processing are not related to other clips, but such material clips are managed as having no link destination.
  • the example shown here is merely an example, and other combinations may naturally exist as the vertical relationship between clips.
  • the video image of the resulting clip FC-0 08 shown in Figure 4 is a material clip MC-0000 K
  • Material clip MC-002 and material clip MC-003 are generated by performing composite processing (that is, composite processing) on the video images.
  • the concept of this synthesis processing is shown in FIGS. Fig. 5 shows how the video images of three material clips ⁇ C-001, MC-002 and MC-003 are combined.
  • Fig. 6 shows the resulting clips generated by the combining process.
  • FC-08 represents a video image.
  • each clip when synthesizing a plurality of clips, each clip is regarded as one layer (that is, layer), and the synthesizing process is performed by overlapping the layers. .
  • the material clip MC-003 is designated as the first layer L1
  • the material clip MC-002 is designated as the second layer L2
  • the third layer L3 is designated. Is specified as material clip MC-001.
  • the layer L1 is set as the lowermost layer and the layers L2 and L3 are successively superimposed thereon. .
  • the material clip MC-002 designated as the second layer L2 is placed on the material clip MC-003 designated as the first layer L1 (for example, an image representing the background).
  • Video image for example, an image representing a person
  • a video image of a material clip MC—011 for example, a character
  • the third layer L3 is superimposed on the synthesized video image.
  • FIG. 5 shows an example in which the material clips MC-003, MC-002, and MC-001 assigned to the three layers L1 to L3 are combined.
  • a maximum of 10 layers can be secured, and 1 layer assigned to each of the first layer L1 to the 10th layer L10 is assigned. It is designed so that 0 material clips can be combined.
  • the first layer L1 becomes the lowest layer.
  • the 10th layer L10 having the largest layer number is the uppermost layer.
  • the editing start point hereinafter, referred to as an in point
  • the editing end point hereinafter, referred to as an art point
  • the first edit point EP1 to the eighth edit point EP8 are set as change points of each parameter such as), composition, or image conversion.
  • the first edit point EP 1 indicates the in-point IN 3 of the material clip MC-003
  • the second edit point EP 2 indicates the in-point IN 2 of the material clip MC-002
  • the fourth edit The point EP 4 indicates the IN point IN 1 of the material clip MC—001.
  • the sixth editing point EP6 indicates the end point OUT2 of the material clip MC-002
  • the seventh editing point EP7 indicates the fault point OUT1 of the material clip MC-001.
  • the eighth editing point EP8 indicates the element point OUT3 of the material clip MC-003.
  • the third edit point EP3 and the fifth edit point EP5 are edit points set to change the synthesis parameters of each layer. Details of these edit points EP 3 and EP 5 will be described later.
  • each clip has its own internal time code starting from the head position of the video data of each clip.
  • the material clip MC-003 designated as the first layer L1 has an internal timeline t3 starting from the head position S3 of the video data, and designated as the second layer L2.
  • the source clip MC-002 has an internal timeline t2 starting from the start position S2 of the video data
  • the source clip MC-001 specified as the third layer L3 has It has an internal timeline t1 starting from the head position S1 of the video data.
  • the resulting clip FC-0 08 has an internal timeline t 8 starting from the head position S 8 of the video data, and has the first edit point EP 1 to the eighth edit point described above.
  • Each time code of EP 8 is defined by a time code on the time line t 8 of the result clip FC-08.
  • the in-point IN 3 and the art point OUT 3 of the material clip MC-003 are respectively defined by the timeline t3 of the material clip MC-003, and these time codes are respectively set to "00". : 00:31:02 "and” 00: 05: 18: 02 ". Therefore, the time code of this IN point IN 3 corresponds to the time code “00: 00: 00: 00” of the first editing point EP 1 in the result clip FC-0 08, and the time code of the OUT point OUT 3 becomes Corresponds to the time code "00: 04: 47: 00" of the eighth editing point EP8 in the result clip FC-008.
  • the in-point IN 2 and the art point OUT 2 of the material clip MC-002 are respectively defined by the time line t2 of the material clip MC-002, and these time codes are respectively set to “00: 00:51:00 ”and“ 00: 03: 04: 20 ”. Therefore, the time code of this IN point IN 2 corresponds to the time code “00: 00: 42: 20” of the second editing point EP 2 in the resulting clip FC-0 08, and the time code of the OUT point OUT 2 The time code corresponds to the time code "00: 02: 59: 20" of the sixth edit point EP 6 in the result clip FC-0 08.
  • the in-point IN1 and the out-point OUT1 of the material clip MC-001 are respectively defined by the timeline t1 of the material clip MC-001, and these time codes are respectively set to "00". : 01:40:03 "and” 00: 02: 45: 48 ". Therefore, the time code of this in-point IN 1 corresponds to the time code “00: 01: 56: 00” of the fourth editing point EP 4 in the result clip FC-0 08, and the time code of the out-point OUT 1 The time code corresponds to the time code "00: 03: 19: 45" of the seventh editing point EP7 in the result clip FC-0 08.
  • the video image of the material clip MC-003 is generated in the period from the first editing point EP1 to the second editing point EP2.
  • a video image in which the material clip MC-002 is synthesized on the material clip MC-003 is output.
  • the material clip MC-002 and the material clip MC-001 are combined on the material clip MC-003.
  • the result clip F C-09 shown in FIG. 4 is a clip generated by performing a special effect process on the material clip M C-004.
  • the special effect processing is performed on the material clip MC-004 by applying four special effect processings of mosaic effect, cupping effect, 3D image conversion, and trail effect. The concept of will be described with reference to FIG.
  • the mosaic effect is specified as the first special effect E1
  • the crop effect is specified as the second special effect E2.
  • 3D image conversion is specified as the third special effect E3
  • the trail effect is specified as the fourth special effect E4.
  • the mosaic effect is an effect in which a video image is divided into tile-like pieces to make it look like a mosaic image.
  • the parameter relating to the mosaic effect can be set to an arbitrary value, whereby the size of the tile-shaped piece and the aspect ratio can be set to an arbitrary value. You Can be used.
  • the crop effect is the effect of cutting out a part of the video image by reducing the picture frame, and is also called the clipping effect because it cuts out a part of the video image.
  • the parameter relating to the crop effect can be set to an arbitrary value.
  • the condition can be set arbitrarily.
  • 3-Dimensional image transformation is the effect of transforming an image in a three-dimensional space.
  • the horizontal direction of the image is defined as the X axis
  • the vertical direction is defined as the Y axis
  • the depth direction is defined as the Z axis
  • the image can be rotated around the X axis, Y axis or Z axis, or the X axis, Image conversion that moves an image in the Y-axis or Z-axis direction.
  • the parameter relating to the three-dimensional image conversion can be set to an arbitrary value, whereby an arbitrary image conversion can be performed.
  • the trail effect is an effect that, when moving an image spatially, it freezes the image as a still image at a predetermined interval and leaves the frozen image as an afterimage, and is generally called a recursive effect. ing.
  • the parameter relating to the trail effect can be set to an arbitrary value, so that the interval for freezing the image and the period for leaving the image as an afterimage can be arbitrarily set. I can do it.
  • the first edit point EP1 to the seventh edit point EP7 are set as the parameter change points of the image conversion.
  • the first edit point EP 1 indicates the in-point IN 4 of the material clip MC-004, the start point of the mosaic effect and the start point of the cup effect
  • the second edit point EP 2 is the three-dimensional image.
  • the fourth editing point EP 4 indicates the starting point of the trail effect
  • the edit point EP 7 shows the material clip MC-004, the art point OUT 4, the end point of the mosaic effect, the end point of the crop effect, the end point of the 3D image conversion, and the end point of the trail effect.
  • the third edit point EP3, the fifth edit point EP5, and the sixth edit point EP6 are edit points set to change the conversion parameters of the three-dimensional image conversion. Details of these editing points EP 3, EP 5 and EP 6 will be described later.
  • the material clip MC-004 and the resulting clip FC-099 are each processed by a unique internal time code that starts from the start position of the video data of each clip, as in the case of the synthesis processing. It has internal timelines t4 and t9 to be represented, and the above-described time code of the first edit point EP1 to the seventh edit point EP7 is the time of the result clip FC-009. Defined by the time code on line t9.
  • the in-point IN 4 and the out-point OUT 4 of the material clip MC-004 are respectively defined by the timeline t4 of the material clip MC-004, and these time codes are respectively set to “00:10 : 12:00 "and” 00: 12: 18: 00 ". Therefore, the time code at the IN point IN 4 corresponds to the time code “00: 00: 00: 00: 00” of the first editing point EP 1 in the result clip FC-009, and the time at the output point OUT 4 The code corresponds to the 7th edit point EP 7 in the result clip FC-009, EP 7: 00: 02: 06: 00.
  • the start point of the mosaic effect designated as the first special effect E 1 is the first point at which the time code in the result clip FC-009 is “00: 00: 00: 00J”.
  • the end point of the mozaic effect is the edit point EP1, and the seventh edit point EP7 is “00: 02: 06: 00” in the time code of the resulting clip FC-009. It has become.
  • the start point of the crop effect designated as the second special effect E2 is, as shown in FIG. 8, when the time code in the result clip FC-09 is "00: 00: 00: 00: 00". Is the first edit point EP 1 and the end of the crop effect The time code in the result clip FC-009 is $ 00: 02: 06.
  • the start point of the three-dimensional image conversion designated as the third special effect E3 is the third point where the time code of the result clip F C-09 becomes “00: 00: 00: 12: 03”.
  • the 2nd edit point EP 2 is set, and the end point of the 3D image conversion is the 7th edit point EP where the time code in the result clip FC-09 is “00: 02: 06: 00”. It has become 7.
  • the start point of the trail effect designated as the fourth special effect E4 is the fourth edit point EP whose time code in the resulting clip FC-009 is “00: 01: 02: 50”. It is 4, and the end point of the trail effect is the seventh edit point EP7 where the time code of the result clip FC-09 is "00: 02: 06: 00".
  • the mosaic effect and the crop effect are added to the video image of the material clip MC-004.
  • the edited video image is output, and during the period from the second editing point EP2 to the fourth editing point EP4, the mosaicing effect, cropping effect, and three-dimensional image conversion are performed on the video image of the material clip MC-004.
  • the mosaic effect, crop effect, A video image to which the three-dimensional image conversion and the trail effect have been applied is output.
  • the result clip FC-0 10 shown in FIG. 4 is a clip generated by editing the result clip FC-0 08 and the result clip FC-0 09.
  • edit processing is performed using the wipe effect
  • the concept of the editing process will be described with reference to FIG.
  • the result clip FC-0.09 is specified as the first layer L1, and the result clip FC-0.09 is specified as the second layer L.
  • the wipe effect is specified as a switching process when switching to the result clip FC—09 specified as the second layer L 2.
  • the video data is connected instead of overlapping the video data as in the compositing process, so that the first in time is specified as the first layer L1, and The later one is designated as the second layer.
  • the wipe effect specified as the switching process is a transition effect that switches the image displayed on the screen by renewing the old image currently displayed and wiping or erasing the image.
  • the wipe effect specified in the example shown in Fig. 9 indicates that when the image of the result clip FC-008 is switched to the image of the result clip FC-099, the image is cut from the left side to the right side of the screen.
  • An alternative type of wipe effect is a transition effect that switches the image displayed on the screen by renewing the old image currently displayed and wiping or erasing the image.
  • the first edit point EP 1 indicates the in-point IN 8 of the result clip FC-008, and the second edit point EP 2 indicates the start point of the wipe effect and the in-point IN 9 of the result clip FC-09.
  • the fourth edit point EP4 indicates the end point of the wipe effect and the result point FC8 of the resulting clip FC-0 08
  • the fifth edit point EP5 indicates the end point of the resulting clip FC-009.
  • Point OUT 9 is shown.
  • the third edit point EP 3 is an edit point set to change the effect parameter of the wipe effect. Details of this editing point EP3 will be described later.
  • these result clips FC- 08, FC-09, and FC-010 are internal timelines t8, t9, and t1 that are represented by unique internal timecodes that start from the beginning of the video data of each clip.
  • the first edit point EP1 to the fifth edit point EP5 described above are defined by the time code on the timeline t10 of the result clip FC-O10. .
  • the in-point IN 8 and the out-point OUT 8 of the result clip FC-08 are respectively defined by the timeline t8 of the result clip FC-08, and these time codes are respectively “00:01”. : 01:20 "and” 00: 04: 43: 00 ". Therefore, the time code of the IN point IN 8 corresponds to the time code “00: 00: 00: 00” of the first editing point EP 1 in the clip FC—010, and the time code of the event point OUT 8 Corresponds to the 4th edit point EP 4 in the result clip FC—0 10 EP 4 “00: 03: 42: 00”.
  • the IN point IN 9 and the ART point OUT 9 of the result clip FC-009 are respectively defined by the timeline t9 of the result clip FC-009, and these time codes are respectively “ 00: 00: 00: 50 J and “00: 02: 06:00”. Therefore, the time code of this IN point IN 9 corresponds to the time code “00: 03: 39: 00” of the second editing point EP 2 in the result clip FC—O 10, and the time code of the out point OUT 9 Corresponds to the time code "00: 05: 44: 10" of the fifth edit point EP5 in the result clip FC-0110.
  • the start point of the wipe effect set to switch the images of the result clip FC-0 08 and the result clip FC-0 09 is set to the second editing point EP 2 of the result clip FC-0 10.
  • the time code is set to “00: 03: 39: 00”.
  • the end point of the wipe effect is set to the fourth editing point EP4 in the result clip FC-0 10 and the time code is set to "00: 03: 42: 00".
  • the video image of the result clip FC-0 08 is obtained during the period from the first edit point EP1 to the second edit point EP2.
  • the wipe effect is applied to change the result clip FC-008 video image to the result clip FC-009 video image from the left to the right side of the screen.
  • An image is output in such a way as to switch in order, and during the period from the fourth editing point EP4 to the fifth editing point EP5, the image of the resulting clip FC-009 is output.
  • this section describes the GUI screen displayed on the display 2B of the workstation 2 when each module is started.
  • this section describes the GUI when the synthesis module CM is started.
  • the editing system 1 when the synthesizing module CM is activated, a graphic display as shown in FIG. 10 is displayed on the display 2B of the work station 2 as the GUI of the synthesizing module CM.
  • the GUI of the synthesis module CM can be roughly divided into a menu window 30, a clip tree window 31, a key window 32, a library window 33, and a timeline window. 34, a parameter setting window 35, a preview screen display window 36, a device control window 37, an edit content display window 38, and a control command window 39.
  • the menu window 30 is an area for displaying a top menu prepared in the editing system 1.
  • the menu window 30 is displayed from the time when the control module CNTM starts up.
  • a file reading menu, an initial setting menu, a module activation menu, and the like are prepared as top menu items.
  • the file read menu is specified by pressing the mouse 2D button (hereinafter referred to as a click operation using this mouse 2D)
  • the file is already registered.
  • a list of selected result clips is displayed, and when a desired result clip is selected from the list by a click operation, the edited contents of the selected result clip are read out to a timeline window 34 described later. Therefore, when modifying a result clip that has already been registered, the result clip can be modified by reading the result clip using this file read menu.
  • the module start menu When the module start menu is selected by clicking, a command for starting the synthesis module CM, special effect module SM, or editing module EM is displayed.
  • a desired command is selected from the menu, the selected module is displayed.
  • the tool is started and the GUI corresponding to the module is displayed on the screen.
  • the GUI of the composite module CM shown in FIG. 10 is also a screen obtained by starting the composite module CM with this module start menu.
  • the clip tree window 31 is an area in which a graphic display is displayed so that the hierarchical relationship of each clip registered in the clip database can be visually recognized.
  • the upper / lower relation of each clip is as shown in FIG. 4, a clip tree as shown in FIG. 10 is displayed according to the upper / lower relation.
  • the highest-order clip is the result clip FC—0 10 and the clip name “FC—0 1 0” of the result clip FC—0 10 is displayed in the clip library window 3 1 Displayed at the top of.
  • the lower clips that link below the result clip FC-010 there are a result clip FC-008 and a result clip FC-09.
  • the clip names “FC-008” and “FC-09” of these lower clips are the upper clips, respectively. As a result, they are arranged below the clip FC-01 0 and shifted to the right by one step. Is displayed.
  • a line connecting the FC- 0 1 0 and the result clips FC-0 08 and FC-09 is displayed, whereby the result clips FC-0 10, FC-0 08 and FC 1-0 are displayed. It is shown that 0 0 9 is in a vertical relationship.
  • the lower clips linked below the result clip FC-0 08 include a material clip MC-001, a material clip MC-002, and a material clip MC-003.
  • the clip names of these lower clips "MC-001", “MC-002” and “MC-003" are the upper clips, respectively, and are located below the result clip FC-08 and one step to the right. In this case, a line connecting the result clip FC-08 and the material clips MC-001, MC-002, and MC-003 is displayed.
  • the clip names of each clip are displayed in a straight line, so that the relationship between the clips registered in the clip database can be visually recognized at a glance. It is made to understand.
  • the clip whose frame surrounding the clip name is displayed as a bold line is the clip currently displayed in the timeline window 34 and being edited.
  • a scroll button 31A in the left / right direction is displayed at the lower side of the clip tree window 31.
  • the scroll button 31A is operated using the mouse 2D, the clip clip displayed is displayed.
  • One can be scrolled left and right.
  • an up / down scroll button 3 1B is displayed at the right side of the clip tree window 31. By operating the scroll button 3 1B, the displayed clip tree is scrolled up / down. It is made to be able to do.
  • the key window 32 is an area where a key selection button for designating key processing for the clip to be edited is displayed. By clicking a desired button in the key selection button, the clip to be edited is clicked. A desired key processing can be specified for.
  • the key selection buttons as shown in FIG. 10, a no-remaining key button, a linear key button, a clean key button, a pattern key button, an external key button, and the like are prepared.
  • Luminance key is a key processing that performs cutout processing based on the luminance signal included in the key signal.
  • Linear key is a kind of luminance key, and the variable range of gain is narrower than luminance key.
  • a clean key is a processing in which an image to be inserted in the key processing is inserted without being cut out by a key signal.
  • the pattern key is a key process for performing a cutout process based on a wipe pattern
  • the external key is a process for performing a key process based on a key signal supplied from the outside.
  • a scroll button 32A in the left-right direction is displayed at the lower side position of the key window 32, and by operating the scroll button 32A, a key selection button to be displayed is displayed. Can be scrolled left and right. Similarly, an up / down scroll button 3 2B is displayed at the right side of the key window 32. By operating the scroll button 3 2B, the displayed key selection button is scrolled up and down. It is made to be able to do.
  • the library one window 33 is an area for displaying a list of material clips or result clips registered in the clip database. This library If a desired clip is selected from the clips displayed in the library window 33, the selected clip can be designated as an object to be edited. The details of the library window 33 will be described later.
  • the timeline window 34 is an area for arranging clips to be edited on the time axis and specifying editing contents.
  • the timeline window 34 displayed by the synthesis module CM naturally displays the one related to the synthesis processing.
  • the timeline window 34 is roughly divided into a time code display area (Time Code), an edit point display area (Edit Point), a preview area display area (Prev iew), and a clip designation in order from the top. It is divided into areas (L1 to L10).
  • the time code display area is the area where the time code at the edit point is displayed. This time code is a time code on a time line of a result clip generated based on the editing content specified in the time line window 34.
  • the edit point display area is an area in which a point set as an edit point is indicated by a triangle mark. For example, when the composition processing as shown in FIGS. 4 and 7 is designated, the edit points EP to EP 8 are indicated using triangle marks.
  • the preview range display area is an area indicating the range of video data displayed in the preview screen display window 36 when a preview button (described later) is operated.
  • a preview button (described later) is operated.
  • the range from the edit point E P1 to the edit point E P8 that is, the entire result clip FC-08
  • a bar indicating the section is displayed.
  • the clip designation area is an area for designating, for each layer, a clip to be edited to be subjected to the composition processing.
  • this editing system 1 10 layers from layer L1 to layer L10 are prepared, and a clip serving as a material for the composition processing can be designated for each of the layers.
  • the display range of this clip designation area is limited (about five layers as shown in the figure). LI0 cannot be displayed on all layers.
  • the scroll button 3A displayed on the right side of the clip designation area the clip designation area can be scrolled up and down, so that a desired layer can be displayed. You can do it.
  • layer L 1 is a layer for designating a clip that is a base (lowest layer) image at the time of synthesis processing, and layers L 2 to L 10 are the same.
  • This is a layer for specifying a clip to be superimposed on a base image. The larger the layer number is, the higher the layer is, and here, the layer L10 is the uppermost layer.
  • Each of the layers L1 to L10 has a video area (Video) for specifying a clip to be combined and a key area (Key) for specifying key processing to be performed on the specified clip.
  • Video video area
  • Key key area
  • the clip is set for the layer by placing a rectangular graphic image (hereinafter called a cell) indicating the clip in the video area. Similarly, by placing a cell that indicates key processing in the key area, the key processing for the clip specified for that layer is set.
  • the force of clicking the material clip MC-003 in the clip tree window 31 is set.
  • the force of clicking the material clip MC-003 in the clip tree window 31 is set.
  • a cell of the material clip MC-003 is displayed. If the cell is moved to the video area of the layer L1 and placed at a desired position, the material clip MC for the layer L1 is displayed. — 0 0 3 is set.
  • the external key is selected by first clicking the external key button in the key window 32. When such a process is performed, a cell indicating the external key is displayed. If this is placed in the key area of the layer L1, the ray is displayed. External key is set for key L1.
  • the operation for setting the clipping key processing for the layers L2 to L10 is the same as the operation for the layer L1 described above.
  • the length of the cell indicating the clip is the length corresponding to the duration of the clip (the time from the start to the end of the clip).
  • the cell indicating key processing is the same length as the clip placed in the video area because it is a pair with the clip placed in the video area.
  • a character indicating a clip name or a key processing name is displayed so that which clip or key processing is set can be recognized by eyes.
  • the module that created the result clip (that is, the synthesis module CM, special effects module SM, or editing module EM) is started.
  • the edited content applied to the clip is displayed in the timeline window on the GUI of the corresponding module.
  • the parameter setting window 35 is an area for setting various parameters relating to editing.
  • the parameter settings displayed when the synthesis module CM is started. ⁇ Windows 35 naturally display those related to synthesis processing. As shown in Fig. 10, graphics for setting the gain during synthesis processing are displayed. The display is displayed. In this case, the gain in the synthesizing process is a synthesizing ratio when the video data is superimposed. In other words, if the gain is 100%, the upper layer video data is superimposed so that the lower layer video data is not completely visible. For example, if the gain is 50%, the lower layer video data can be seen through almost half. The video data in the upper layer is superimposed so that it can be seen, and if the gain is 0%, the video data in the lower layer is completely seen through and the video data in the upper layer is superimposed so as not to be seen.
  • the horizontal axis (that is, the time axis) of the parameter setting window 35 and the above-described timeline window 34 coincide with each other. Can decide It has been made possible.
  • the graphic image in the parameter setting window 35 is shifted in the horizontal direction. Can be scrolled to.
  • the horizontal axis corresponds to the timeline window 34 and the parameter setting window 35, the graphic image in the timeline window 34 and the graphic image in the parameter setting window 35 are linked. And scrolls to the left and right at the same time.
  • the graphic image in the parameter setting window 35 can be scrolled in the vertical direction.
  • step 5 click the position corresponding to the determined point and value.
  • the gain value and gain change point corresponding to the clicked position are automatically registered in the clip database.
  • the in-point and the art point of the material clip MC-003 are set. If you click the position where the gain is 100% at the position, the gain is set to 100% from the in point to the art point of the material clip MC-003.
  • interpolation processing is performed so that the set values become continuous, and the interpolated values are automatically set. Same in If you set the same value, all the values in between will be set to that value.
  • the gain is set to 59% at the in-point (edit point EP2), and the material clip of layer L3 is set.
  • MC Set the gain to 100 percent at the point slightly before the point where the 03 overlaps (edit point EP 3), and set the gain to 0 percent at the out point (edit point EP 6).
  • To set to just click the corresponding point in the parameter setting window 35. In this way, each set gain value is automatically registered in the clip database. Note that between the edit points EP2 and EP3, and between the edit points EP3 and EP6, the gain values are linearly continuous based on the values set at each edit point. The interpolation process is performed, and the interpolated value is automatically set.
  • the gain is set to 100% at the in point (edit point EP4), and the center position of the material (edit point EP5) is set.
  • the gain value is linear based on the value set at each edit point between edit point EP 4 and edit point EP 5, and between edit point EP 5 and edit point EP 7. Interpolation processing is performed so that it is continuous, and its value is set automatically.
  • the gain value changes sequentially at each timing, so that the material clip MC-0 03 on the base material clip MC-3
  • the video data of the material clip MC-001 is further seen on the video data, and then the material clips MC-002 and MC-001 are displayed.
  • An image is obtained in which the video data gradually fades.
  • the values of the parameters are displayed in a graph with the horizontal axis representing time and the vertical axis representing gain values in correspondence with the edit points, so that the operator can see the display and select which layer The user can visually understand at a glance what parameters have been set and at what timing.
  • the preview screen display window 36 is an area in which video data of a material clip or a result clip is displayed when a preview button, a view button, an all-blew button, or an all-view button described later is operated. By providing such a display error, a video image of a material clip or a grip generated as a result of editing can be confirmed while editing.
  • the device control window 37 is an area where command buttons for controlling the operation of the video disc recorder 5 in which video data of clips is stored are displayed. As shown in FIG. 10, as the command buttons, a playback button 37A, a stop button 37B, and six skip buttons 37C to 37H are provided.
  • the play button 37 A is a command button for sending a play command to the video disc recorder 5.
  • the stop button 37 B is a command button for sending a playback stop command to the video disc recorder 5.
  • the skip buttons 37 C and 37 D are command buttons for sending to the video disc recorder 5 a skip command for skipping the playback position one frame before or one frame after, respectively.
  • the skip buttons 37 E and 37 F are command buttons for sending a skip command to the video disc recorder 5 to skip the playback position to the immediately preceding edit point or the immediately subsequent edit point, respectively.
  • the skip buttons 37 G and 37 H are command buttons for sending a skip command to the video disc recorder 5 to skip the playback position at the beginning or end of the video recording, respectively.
  • the edit contents display window 38 is also called the timeline. This is an area for displaying the edited content specified by window 34. In this case, in the timeline window 34, all edits cannot be displayed all at once due to screen restrictions. Therefore, a graphic image of the edits reduced in this edit display window is displayed. This makes it easy to grasp what kind of editing content is specified as a whole. For example, if the editing content that combines the three material clips MC-003, MC-002, and MC-001 as described above in the timeline window 34 is specified, the editing is performed. According to the content, a graphic image in which three-layered bar-shaped graphic images indicating clips specified for each layer are superimposed is displayed in the editing content display window 38. Thus, the operator can see the display to know the entire picture of the specified editing content and easily understand that the content is a combination processing of three clips.
  • the control command window 39 is an area in which a list of control commands used in the editing system 1 is displayed.
  • the displayed control command buttons include, for example, an editor button (Edor), a composite button (Compose), a special effect button (S-EHect), a preview button (Preview), and the like.
  • the displayed control command buttons include, for example, an editor button (Edor), a composite button (Compose), a special effect button (S-EHect), a preview button (Preview), and the like.
  • the editor button, composite button, and special effects button This is a button for activating the module. That is, the editor button is a button for starting the editing module EM. By clicking this editor button, for example, the editing module EM can be started even while the synthesis module CM is running.
  • the composite button is a button for starting the synthesis module CM. By clicking this composite button, the synthesis module CM can be started even if the special effect module SM is running, for example.
  • the special effect button is a button for starting the special effect module SM. By clicking this special effect button, for example, the special effect module SM can be started even while the editing module EM is running.
  • the preview button, the view button, the all preview button, and the all view button are buttons for confirming the content of the material clip or the result clip. That is, the preview button is a button used to display the video data of the selected clip in the preview screen display window 36. Note that when this preview button is operated, the specified editing content is not executed, so the displayed video data may differ from the final result. (The editing content has already been executed and the video data that matches the editing content may be displayed.) If one is generated, the final video data is displayed). However, when the preview button is operated, the display is started immediately, so that it is used for checking the length of a clip in the editing process.
  • the view button is a button used to display the video data of the selected clip in the preview screen display window 36.
  • This view button unlike the pre-view button, executes the specified editing content, so when you operate this view button, it takes time to be displayed, but you can check the edited video data overnight .
  • the all preview button is used to display video data from the first clip to be edited to the last clip to be edited in the preview screen display window 36 without selecting a clip.
  • this all pre 4 The Edit button is also specified in the same way as the Preview button, and the edit contents are not executed.
  • the Edit button executes the edit contents specified for all clips to be edited, and the video data is displayed on the Preview screen. This button is used to display on the display window 36.
  • the specified editing content is executed and the final result video data can be confirmed.
  • the generated clip video data is automatically stored in the video disc recorder 5 and registered in the clip database CDB.
  • this section describes the GUI when the special effect module SM is activated.
  • a graphic display as shown in FIG. 11 is displayed on the display B of the workstation 2 as the GUI of the special effect module SM.
  • the GUI of the special effect module SM can be roughly divided into a menu window 30, a clip window 31, an effect selection window 40, and a library window 33.
  • Timeline window ⁇ 41 parameter setting window 42
  • preview screen display window 36 preview screen display window 36
  • device control window 37 editing content display window 38
  • control command window 39 control command window 39
  • the effect selection window 40 is an area for selecting a special effect to be applied to video data of a clip, and displays command buttons for various special effects.
  • the command buttons to be displayed are a 3D button for specifying 3D image conversion, a tray button for specifying trail processing to add an afterimage, and a video image attached to a cube surface.
  • a prick button to specify a prick process that rotates a shadow button to specify a shadow process that adds shadow to video data
  • a mix button to specify a mix process to mix video data
  • a crop button for designating a crop process for cutting out a predetermined range of video data, and the like are provided.
  • a horizontal scroll button 40A is displayed at the lower side of the area, and by operating the scroll button 40A, the displayed command button is moved in the horizontal direction. It is made to be able to scroll to.
  • an up / down scroll button 40B is displayed at the right side of the effect selection window 40, and by operating the scroll button 40B, the displayed command button is scrolled up / down. It has been made to be able to do.
  • the timeline window 41 is an area for arranging cribs to be edited on the time axis and designating the contents of editing. As the timeline window 41 displayed in the special effect module SM, the one related to the special effect processing is naturally displayed.
  • the timeline window 41 is roughly divided into a time code display area (Time Code), an edit point display area (Ed it Point), a preview area display area (Prev iew), Clip and special effect designation area (L1 ⁇ L10 ).
  • the time code display area is an area in which the time code at the edit point is displayed.
  • This time code is a time code on a time line of a result clip generated based on the editing content specified in the time line window 41.
  • the edit point display area is an area in which a point set as an edit point is indicated by a triangle mark. For example, when the special effect processing as shown in FIGS. 4 and 8 is specified, the edit points EP 1 to EP 7 are indicated using triangle marks.
  • the preview range display area is an area indicating the range of video data displayed on the preview screen display window 36 when the above-described preview button / view button is operated.
  • the edit point E P1 to the edit point E P7 that is, the entirety of the result clip FC-09
  • a bar indicating the section is displayed.
  • the clip and special effect designation area is an area for designating a special effect to be applied to a clip for each layer.
  • 10 layers from layer L1 to layer L10 are prepared, and a clip to be subjected to the special effect processing can be designated for each of the layers.
  • Special effect processing can be specified for each clip. Note that the display range of this clip and special effect designation area is limited (approximately two layers as shown in the figure), and all layers L1 to L10 cannot be displayed at once. . However, by operating the scroll button 41 A displayed on the right side of the clip and special effect designation area, the clip and special effect designation area can be scrolled up and down. Can be displayed.
  • Each layer L 1 to L 10 has four special effect specification areas (E 1 to E 4), a video area (Video) for specifying clips to apply special effects, and It is divided into a key area (Key) for specifying key processing for the clip.
  • the special effect designation area is an area for specifying the special effects to be applied to the clips registered in the video area. Since there are four special effects in one layer, Four special effects can be specified at the same time. For example, as shown in Fig. 11, mosaic processing is specified as special effect E1, crop processing is specified as special effect E2, 3D image conversion is specified as special effect E3, and special effect E3 is specified. If trail processing is specified as E4, the four special effect processing can be performed on the clip MC-004 specified in the video area.
  • a clip in the video area To set a clip in the video area, first click the clip displayed in the library window 33 or click the clip displayed in the clip window 31 to edit it. Select the clip. When such processing is performed, a cell indicating the selected clip is displayed. If this cell is placed at a desired position in the video area, a clip can be set for the video area.
  • the parameter setting window 42 is an area for setting parameters in special effect processing designated by the operator.
  • a parameter setting screen relating to the clicked special effect is displayed. For example, if the user clicks the 3D button in the effect selection window 40 and specifies 3D image conversion, the parameter & constant window 42 displays the parameters related to 3D image conversion as shown in Fig. 11. The setting screen is displayed.
  • the parameters in the 3D image conversion are the position (X, Y, ⁇ ) in the 3D space and the rotation direction (X, ⁇ , ⁇ ) in the 3D space.
  • the values of these parameters can be set to any value between the maximum setting range M AX and the minimum setting range M IN based on the default value (two “0”).
  • the horizontal axis (that is, the time axis) of the parameter setting window 42 and the above-mentioned timeline window 41 coincide with each other, and the point of parameter change while viewing the contents of the special effect processing specified in the timeline window 41 Can be decided.
  • the graphic image in the parameter setting window 42 can be shifted in the left and right direction by operating the scroll button 42A at the lower side of the parameter setting window 42.
  • the graphic image and the parameter setting window 4 The graphic images in 2 are scrolled simultaneously in the left and right directions in conjunction.
  • the graphic image in the parameter setting window 42 can be scrolled in the vertical direction by operating the scroll button 42B on the right side of the parameter setting window 42.
  • the value of the parameter is registered in the clip database CDB, and the editing target is edited based on the registered parameter value.
  • a special effect is applied to the video data of the clip.
  • the set parameter values are made to correspond to the edit points, and the horizontal axis represents time and the vertical axis represents parameter values. The display is made so that the operator can visually recognize at a glance what value was set for which parameter for which parameter by looking at the display.
  • this section describes GUI when the editing module EM is started.
  • the editing system 1 when the editing module EM is activated, a graphic display as shown in FIG. 12 is displayed on the display 2B of the workstation 2 as the GUI of the editing module EM.
  • the GUI of the editing module EM can be roughly divided into a menu window 30, a clip window 31, an effect selection window 50, and a library window 33. It comprises a timeline window 51, a parameter setting window 52, a preview screen display window 36, a device control window 37, an edit content display window 38, and a control command window 39.
  • the menu window 30, clip tree window 31, and preview screen display are the same as those in the case of the above-described synthesis module CM, and thus description thereof is omitted here.
  • the effect selection window 50 is an area for selecting a transition effect used when switching video data of a clip specified as an editing target.
  • Command buttons for various transition effects are displayed. It is.
  • the displayed command button is to specify the wipe effect that switches the image by wiping the currently displayed image with the new image.
  • a squeeze button to specify the squeeze process to switch the image to expand the image, an old i, a page turn button to specify the page turn process to switch the image to turn the image over the page, etc. are provided. Have been.
  • a horizontal scroll button 50A is displayed at the lower side of the area, and by operating the scroll button 50A, the displayed command button is moved in the horizontal direction. It is made to be able to scroll to.
  • a vertical scroll button 50B is displayed, and by operating the scroll button 50B, the displayed command button is scrolled vertically. It has been made to be able to do.
  • the library window 33 is an area for displaying a list of material clips or result clips registered in the clip database CDB. In the library window 33, as shown in FIGS. 10 and 11, only the title bar is normally displayed, but the window area can be expanded by clicking on the title bar. Thus, the entire library window 33 is displayed as shown in FIG.
  • each clip is displayed by a card-like graphic display 33A.
  • the card-shaped graphic display 33A is composed of a still image display section 33B, an attribute display section 33C, and a clip name display section 33D.
  • the still image display section 33B is configured to display a still image at the in point or the art point of the clip, whereby the operator displays the screen displayed on the still image display section 33B. You can easily see what kind of video data the clip is made from.
  • the attribute display section 33C characters “FC” or “MC” indicating the attribute of the clip are displayed.
  • “FC” indicates that the clip is a result clip generated as a result of the editing process
  • “MC” indicates that the clip is simply a material clip extracted from the source video data.
  • a scroll button 3 3E is displayed on the right side of the library window 3 3.
  • the library window 3 3 can be scrolled up and down. All the clips registered in the library window 3 can be displayed. This allows you to select a clip that is not currently visible.
  • the timeline window 51 is an area for arranging clips to be edited on the time axis and designating the editing contents.
  • the timeline window 51 displayed by the editing module EM naturally displays the editing process.
  • This evening line window 51 is roughly divided into a time code display area (Time Code), an edit point display area (Ed Point), a preview area display area (Prev iew), video and It is divided into an effect designation area (V) and an audio designation area (A).
  • the time code display area is the area where the time code at the edit point is displayed. This time code is a time code on the time line of the result clip generated based on the editing content specified in the time line window 51.
  • the edit point display area is an area in which a point set as an edit point is indicated by a triangle mark.
  • the editing points EP1 to EP5 are indicated using triangle marks.
  • FIG. 12 only the editing points? 2 to? 4 are displayed because only the vicinity of performing the transition effect is displayed in the timeline window 51.
  • the graphic image in the timeline window 51 can be displayed. Can be scrolled left and right to display edit point EP1 and edit point EP5.
  • the preview range display area is an area indicating the range of video data displayed on the preview screen display window 36 when the above-described preview button / view button is operated.
  • the display range is set between the edit points EP1 and EP2 and the edit point EP4 and the edit point EP5, a bar indicating that section is displayed.
  • the video and effect designation areas are the first and second video areas (Vi deo-Ll, Vi deo-L2) for designating the clip to be edited, and the transition effect applied to the clip to be edited. And an effect area (Effeet) for specifying the first and second video areas (Vi deo-Ll, Vi deo-L2) for designating the clip to be edited, and the transition effect applied to the clip to be edited. And an effect area (Effeet) for specifying the first and second video areas (Vi deo-Ll, Vi deo-L2) for designating the clip to be edited, and the transition effect applied to the clip to be edited. And an effect area (Effeet) for specifying the first and second video areas (Vi deo-Ll, Vi deo-L2) for designating the clip to be edited, and the transition effect applied to the clip to be edited. And an effect area (Effeet) for specifying the first and second video areas (Vi deo-Ll, Vi deo-L2) for designating the clip to
  • the clip is set in the first or second video area and registered as a clip to be edited. For example, if you click on the result clip FC-08 and place the cell in the first video area and click on the result clip FC-09 and place the cell in the second video area, As shown in FIG. 12, the result clips FC108 and FC-099 are set in the first and second video errors, respectively. Note that the video data of the clip set in the first video area becomes old video data, and the video data of the clip set in the second video area becomes video data to be newly switched.
  • a transition effect when a transition effect is specified in the effect area, when a desired effect button is clicked in the effect selection window 50, a cell indicating the effect is displayed. If placed in the area, the effect will be set as the effect to be applied to the clip to be edited. For example, when the wipe button is clicked in the effect selection window 50, a cell indicating the wipe is displayed. If the cell is placed in the effect area, the result clip FC-08 is displayed as shown in FIG. Result chestnut Wipe processing is set as the switching processing of FC-09.
  • the audio designation area is an area for designating audio data to be transmitted together with the video data.
  • the audio designation area is divided into a first and a second audio area (Audi o-lch, Audio-2ch).
  • the setting method is the same as that in the video area. Click the desired clip to set the cell in the first or second area. If placed in the disc area, the audio data of the clip is set as the audio data to be transmitted. Incidentally, the audio data set in the first audio area is sent to the first channel of the stereo broadcast, and the audio data set in the second audio area is sent to the second channel of the stereo broadcast.
  • the module that created the result clip (that is, the synthesis module CM, special effect module SM, or editing module) EM) is started, and the edits made to the clip are displayed in the timeline window on the GUI of the corresponding module.
  • the parameter setting window 52 is an area for setting the parameters of the transition effect specified by the operator.
  • a parameter setting screen relating to the clicked effect is displayed.
  • a wipe button is clicked in the effect selection window 50 to specify a wipe process
  • a parameter setting screen relating to the wipe process as shown in FIG. 12 is displayed in the parameter setting window 52.
  • the parameters in the wipe process include an aspect ratio (A spect) indicating the aspect ratio of the wipe pattern, an angle (Angle) defining the angle of the wipe pattern, and a screen.
  • the speed (S peed) that specifies the speed of the wipe pattern at the time of switching
  • the horizontal modulation (HM od) that specifies the horizontal fluctuation of the wipe pattern edge
  • the wipe pattern edge There is a vertical modulation (HM od) that regulates the fluctuation given to the vertical direction of the signal.
  • the horizontal axis (that is, the time axis) of the parameter setting window 52 and the above-mentioned timeline window 51 coincide with each other, and the change point of the parameter can be changed while watching the editing processing contents specified in the timeline window 51. Can be determined.
  • the graphic image in the parameter setting window 52 can be shifted in the left and right direction by operating the scroll button 52A at the lower side of the parameter setting window 52. Can be scrolled to.
  • the horizontal axis corresponds to the timeline window 51 and the parameter setting window 52, the graphic image in the timeline window 51 and the graphic image in the parameter setting window 52 are simultaneously linked. Scroll left and right.
  • the scroll button 52B on the right side of the parameter setting window 52 in the vertical direction the graphic image in the parameter setting window 52 can be scrolled in the vertical direction.
  • the value of the parameter is registered in the clip database CDB, and based on the value of the registered parameter.
  • a transition effect is applied to the video data of the clip to be edited.
  • the set parameter value is made to correspond to the edit point, and the horizontal axis represents time, and the vertical axis represents parameter.
  • the values are displayed in the form of a graph, allowing the operator to visually grasp at a glance what values have been set for what parameters and at what timing by looking at the display. Can be.
  • the edit content display window 38 is an area for displaying the edit content specified by the timeline window 51 as a graphic image as described above.
  • the graphic image showing the wipe process is displayed for each.
  • a graphic image that appears to be sandwiched between steps is displayed in a bar graphic image that indicates a clip. This allows the operator to easily see what kind of editing content has been instructed as a whole by looking at this display.
  • Fig. 12 when only a part of the range is displayed in the timeline window 51, it is difficult to understand the entire processing content. The processing contents can be easily grasped.
  • all material clips and result clips generated by editing the material clips are registered in the clip database CDB.
  • the clips registered in the clip database CDB are roughly divided into clip video data of material clips or result clips and clip management data for managing the clip video data. The management method will be described.
  • Fig. 13 is a database for clip management data formed in the clip database CDB (mainly RAM 21B) when the editing process shown in Figs. 7, 8 and 9 is instructed, for example.
  • the data base for managing the clip management data is roughly divided into a clip ID code, a clip name, an attribute, a pointer to image data, a duration, and a parent link destination as shown in FIG. 13.
  • ID It consists of a code, a child link destination ID code, a valid / invalid flag, and work data.
  • the clip ID code is an identification number of a serial number automatically assigned to a clip in the order in which the clip is registered. Therefore, registered clips can be identified based on the clip ID code.
  • the attribute of the clip is data for identifying whether the clip is a mere material clip or a result clip generated by editing the material clip.
  • a code "M” is registered in the attribute of this clip, and in the case of a result clip, a code "F" is registered.
  • the clip name is a clip identification name given to the clip.
  • the clip ID code is "01" and the attribute of the clip is "M”
  • the name "MC-001" is automatically assigned to the clip name.
  • An example is shown. Any name can be assigned to the clip name according to the user's preference.
  • the clip name displayed in the clip name display section 33D of the library window 33 is this clip name.
  • the pointer to the image data consists of 8 bytes of data, and is a pointer indicating the head address of the clip video data recorded on the video disk recorder 5.
  • the pointer to the image data indicates the logical address of the hard disk array.
  • the duration is a time code indicating the playback period of the clip video data of the clip. That is, it is a time code representing the time from the beginning to the end of the clip video data.
  • the parent link destination ID code is the clip ID code of the clip that is linked as a higher-order clip to the clip. For example, if the clip ID code is ⁇ 0 Since the material clip MC-001, which is "0 1", is linked to the clip FC-008 of the clip ID code "0 08", the resulting clip FC- ⁇ 08 Clip ID code "08 j is registered as parent link destination ID code o
  • the child link destination ID code is the clip ID code of the clip that is linked as a lower clip to the clip.
  • material clips MC—001, MC—002, and MC—003 are included as lower clips, respectively.
  • Link At that time, the material clip MC-001 is designated as the third layer L3, the material clip MC-002 is designated as the second layer L2, and the material clip MC-003 is designated as the second layer L2. Designated as the first layer L1.
  • “0 0 3” is registered as the clip ID code of the clip that is a lower clip of the result clip FC—08 and is specified in the first layer L1
  • the result clip FC—08 “0 0 2” is registered as the clip ID code of the lower clip and the clip specified in the second layer L2, and is the lower clip of the result clip FC—08.
  • “0 0 1” is registered as the clip ID code of the clip specified in the third layer L3.
  • the material clip MC—0 0 1 is just a material Since it is a clip, it does not have a lower clip. Therefore, the child link destination ID code is blank.
  • the valid / invalid flag is a flag indicating whether the clip is a valid (Enable) clip or whether the clip is a invalid (Disable) clip. In this case, if the clip is valid, the code "E" is registered, and if the clip is invalid, the code "D" is registered. By the way, when the specified editing content is executed and the clip video data as the editing result is generated, the valid flag is registered, and no clip video data is generated because the editing content is not executed. And
  • the invalid flag was set. be registered.
  • clip management data By having such a valid / invalid flag as clip management data, it is possible to easily determine whether the clip is valid or invalid by referring to the clip management data database. it can.
  • the work data is data indicating the editing content specified for the clip. Therefore, some work data is registered for the result clips FC-0.08, FC-0.09, and FC-0.10 generated by editing, but material clips MC that have not been generated by editing. — No work data is registered from 0 0 1 to material clip MC 0 0 7.
  • the work data is roughly divided into module ID code, edit point data, and image processing data as shown in Fig. 13.
  • the module ID code is an identification number indicating the module used in the editing work that creates the resulting clip.
  • the synthesis module CM was used, the message "CJ code was registered, and if the special effects module SM was used, the message" Sj code was registered and the editing module EM was used. In this case, the code “E” is registered.
  • the edit point data includes all edit points specified for the resulting clip, This is data consisting of a time code corresponding to the edit point.
  • the image processing data is composed of composite (composite) data, special effect (special effect) data, and edit (edit) data.
  • the combined data is data consisting of the parameter values specified in the combining process
  • the special effect data is data consisting of the parameter values designated in the special effect process
  • the edited data is the data designated in the editing process. This is the data consisting of the parameter values that have been set.
  • the edited edit point data and the corrected special effect data are modified based on the content of the new special effect process. Are generated, and these are registered as working data at the location of the clip before modification (that is, at the location of “09” at the clip ID data).
  • the edit point data before correction and the special effect data before correction that were registered as work data before the new special effect processing was instructed are newly added to the clip ID code “0 9 BK 1” and the clip After the name "FC-009BK1" is assigned, it is registered in another area in the database as clip management data for backup based on the identification information.
  • the valid Z invalid flag is modified to a code of “D” indicating invalid.
  • edit point data as shown in FIG. 15 is registered.
  • the edit point data is data for specifying which part of the clip data of the lower clip is to be used for the clip video data of the upper clip, and the start point of the lower clip is used. It consists of the time code of the in point indicating the position and the time code of the art point indicating the end position.
  • the time code of the in-point of the material clip MC-003 designated as the first layer L1 is “00: 00: 00: 31: 02” on the timeline t3.
  • the position of the in point corresponds to the time code “00: 00: 00: 00: 00” on the timeline t8 of the result clip FC-008. Therefore, in the edit point data, as shown in FIG. 15, the time code “00: 00: 00: 00: 00” of the result clip FC—08 and the in-point of the material clip MC——003 are obtained.
  • the time code “00: 00: 31: 02” is registered in association with the edit point EP1. Also, as shown in FIG.
  • the time code of the out point of the material clip MC—003 designated as the first layer L1 is “00: 05: 18: 02J” on the timeline t3.
  • the position of the out point corresponds to the time code “00: 04: 47: 00” on the timeline t8 of the result clip FC-008. Therefore, in the editing point data, as shown in Fig. 15, the time code “00: 04: 47: 00: 00” of the result clip FC-08 and the time code of the material clip MC-003 are shown.
  • "00: 05: 18: 02" is registered in association with the edit point EP8.
  • the edit point of the material clip MC-003 specified as the first layer L1 is determined by the time code of the in point and the art point.
  • the timecodes of “00: 00: 00: 51: 00” and “00: 03: 04: 20” for the in-point and the art-point are also the time codes of the result clip FC-08, respectively. Is registered in association with.
  • the time code "00: 01: 40: 03" and "00: 02: 45: 48" of the in-point and the art point of the material clip MC-001 designated as the third layer L3. are also registered in association with the time code of the result clip FC-0 08, respectively, as shown in FIG.
  • edit point data as shown in FIG. 16 is registered.
  • the time code of the lower clip and the time code of the upper clip are registered in the editing point data in association with each other. That is, the time code “00: 10: 12: 00” and “00: 12: 18: 00” of the in-point and the art-point of the material clip MC-004 designated as the first layer L1 are applied.
  • the result clip FC-009 is registered in association with the time code.
  • the editing point data as shown in FIG. 17 is registered.
  • the time code of the lower clip and the time code of the upper clip are registered in association with each other.
  • the timecode of the in and out points of the result clip FC—08 designated as the first layer L1 “00: 01: 01: 20” and “00: 04: 43: 00” Force ⁇
  • the result clip FC-009 is registered in association with the time code of the result clip FC-010, and is designated as the second layer L2.
  • the timecodes “00: 00: 00: 50” and “00: 02: 06: 00” of the point and the art point correspond to the time code of the result clip FC-0110 as shown in FIG. 17 also. It is registered with it.
  • the composite data indicates the composite ratio (gain) when the video data of the clip specified for each layer is composited. It is data to represent and can take values from “0" to "100". If the value of the combined data is “0”, it means that the combined video data is combined at a rate of 0%. In this case, the lower layer video data is completely visible. Means. If the value of the composite data is "50”, it means that the video data to be composited is composited at a rate of 50%. In this case, the video data of the lower layer is transparent at a rate of about half. It means being visible. Further, if the value of the composite data is “100”, it means that the video data to be composited is composited at a rate of 100%. In this case, the lower layer video data is completely hidden and cannot be seen. Means.
  • FIG. 18 a specific example of the synthesized data is shown in FIG. This Fig. 18 was generated when the synthesis processing as shown in Fig. 7 was specified and the synthesis data (gain) was specified using the parameter setting window 35 shown in Fig. 10. Database of synthetic data.
  • the gain “100” is specified at the position of the edit point EP 1 and the position of the edit point EP 8 for the material clip MC—03 specified for the first layer L 1, this figure 18 As shown in the table, a gain “100” is registered in a column corresponding to the edit points EP1 and EP8. In addition, between the editing points EP1 and EP8, since the editing points EP1 and EP8 are used as a key point and linear interpolation based on the values is performed, the gain “100” is automatically registered ( In the figure, “11” indicates that the interpolation value has been registered.)
  • a gain of "59” is specified at the position of the edit point EP2, and a gain of "100” at the position of the edit point EP3.
  • Is specified and the gain “0” is specified at the position of the edit point EP 6, as shown in FIG. 18, the gains “59” are sequentially entered in the columns corresponding to the edit points EP 2, EP 3 and EP 6, respectively. , “100” and “0” are registered. Also in this case, between edit point EP 2 and edit point EP 3 and between edit point EP 3 and edit point EP 6, the edit points EP 2, EP 3, and EP 6 are used as key points based on the values. Linear interpolation is done A gain value that is linearly continuous is automatically registered.
  • a gain of "100” is specified at the position of the edit point EP4, and a gain of "67” at the position of the edit point EP5.
  • a gain of “51” is specified at the position of the edit point EP7, and as shown in FIG. 18, gains “100” are sequentially entered in the columns corresponding to the edit points EP4, EP5, and EP7, respectively. , “67” and “51” are registered.
  • the values of the edit points EP4, EP5 and EP7 are used as key points. A straight line is obtained based on, and a gain value that is linearly continuous is automatically registered.
  • the value of the composite data is sequentially switched at the timing of each edit point, and is sequentially switched to the interpolated value between each edit point.
  • the source clip MC—02 specified on layer L 1 the video image of the source clip MC—02 specified on layer L 2 gradually appears on the video image of edit point EP 2 from the point of EP 2 and is edited.
  • the material clip MC—after the point EP 3 is a video image in which the video image of 02 gradually fades, and the material clip MC—designated as the layer L 3 at the editing point EP 4 A video image of 01 appears, and then a video image of the material clip MC—01 1 can be obtained such that the video image gradually fades.
  • the special effect data basically includes effect ID data indicating the type of special effect processing to be performed on the clip to be edited, each parameter value of the specified special effect processing, and a period for performing the special effect processing. Be composed.
  • FIG. Fig. 19 relates to the three-dimensional image conversion shown in Fig. 8 and the special effect data generated when parameters are set using the parameter setting window 42 shown in Fig. 11. Database.
  • “1025” registered as the effect ID data is the effect identification number assigned to the three-dimensional image conversion, and the effect identification number “1025” is used as the special effect processing for the three-dimensional image processing. You can see that image conversion is specified.
  • “L 0 c X”, “Lo c Y”, and “Lo c Z” indicate positions ( ⁇ , ⁇ , Z) that are parameters of the three-dimensional image conversion
  • “Lot X”, “Ro t Y” and “Ro t Z” indicate the rotation direction (X, ⁇ , Z), which is a parameter of 3D image conversion
  • “A sp” is a parameter of 3D image conversion.
  • the aspect ratio is shown, "Skew” indicates a skew which is a parameter of the three-dimensional image conversion, and "Pers” indicates a perspective value which is a parameter of the three-dimensional image conversion.
  • edit point EP2 is the starting point for the period in which 3D image conversion is specified. It is easy to see that edit point EP 7 is the end point.
  • the specific values of the start point and end point of the three-dimensional image conversion, that is, the time code, can be easily grasped by referring to the edit point data of FIG. 16 described above.
  • the coordinate values "0” are respectively set in the columns corresponding to the edit points EP2, EP4, EP6 and EP7. , "0", "-1.6” and "-1.6” are registered.
  • edit point EP2 and edit point EP4 and edit point EP6 edit point EP6 and edit point EP7
  • edit points EP2, EP4, £ 6 and £ 7 Using 7 as a key point, linear interpolation is performed based on that value, and coordinate values that are linearly continuous are automatically registered.
  • parameter values are sequentially switched at the timing of each editing point, and interpolation is performed between each editing point.
  • the values are sequentially switched to the set values, and as a result, it is possible to obtain a video image that moves in a three-dimensional space while rotating about the X axis.
  • the edit data basically includes effect ID data indicating the type of transition effect to be applied to the clip to be edited, parameter values relating to the specified transition effect, and the transition effect. And the period during which Here, a specific example of the edit data is shown in FIG. FIG. 20 shows the case where the wipe process shown in FIG. 9 is specified as the transition effect, and the parameters are set using the parameter setting window 52 shown in FIG. 12. This is a database of generated edit data.
  • effect identification number “1300” when switching from the image of the first video data to the image of the second video data, the effect is displayed from both ends of the screen. This means that the type of live processing that switches to the center is specified, and if the effect identification number “2123” is registered as the effect ID data, the first video data Image power ⁇ It means that the page turn processing that switches just like turning the page is specified.
  • a spect is a parameter indicating the aspect ratio of the wipe effect of the transition effect
  • Angle is a parameter indicating the angle of the wipe pattern
  • S speed is a parameter indicating the switching speed.
  • H-Mod and V-Mod are parameters indicating the fluctuation of the wipe pattern, respectively. These parameters are specified from edit point EP2 to edit point EP4, as shown in FIG. 20, so that edit point EP2 is the starting point for the period in which the wipe process is specified. It is easy to see that edit point EP 4 is the end point. The specific values of the start point and end point of the wipe processing, that is, the time code, can be easily grasped by referring to the edit point data in FIG. 17 described above.
  • the parameter values are sequentially switched at the timing of each editing point, and sequentially switched to the interpolated values between the editing points.
  • step SP1 shown in FIG. 21 the control module CNTM is started, and in the following step SP2, the top menu is not displayed on the display 2B of the workstation 2.
  • the CPU 21 determines whether or not any menu item has been selected in the top menu. As a result, if any menu item has been selected, the CPU 21 proceeds from the following step SP4 to the step SP4. At 7, the selected menu item is determined.
  • step SP 4 If the result of the determination in step SP 4 is that the start command for the editing module EM has been selected, the CPU 21 proceeds to step SP 8 to perform the processing for starting the editing module EM, and as a result of the determination in step SP 5, If the start command of the synthesis module CM is selected, the process proceeds to step SP9 to start the synthesis module CM, and if the start command of the special effect module SM is selected as a result of the determination in step SP6. In step SP10, the special effect module SM is started.
  • step SP7 if the command to open the file of the already registered result clip is selected, the CPU 21 determines the result selected in the next step SP11. Recognize the module used in the clip and activate the module recognized in the next step SP12 (ie, edit module EM, composite module CM or special effect module SM). In step SP 11, the CPU 21 performs module recognition of the selected result clip by referring to the work data registered in the clip database CDB.
  • step SP8 the startup processing of the editing module EM in step SP8 is specifically shown in FIG.
  • the CPU 21 first displays the GUI of the editing module EM on the display B of the workstation 2 in step SP21 entered from step SP20.
  • the CPU 21 sends the editing module through the previous step SP12. It is determined whether or not the start of EM has been instructed. If the start of the edit module EM has been instructed via step SP12, the process proceeds to step SP23, where the content of the editing process of the specified result clip is determined. It is read out based on the clip management data registered in the clip database CD B, and the contents of the editing process are displayed in the timeline window 51 of the GUI for the editing module described above.
  • step SP22 if the startup is not a startup via step SP12 but a new startup, the CPU 21 proceeds to step SP24 and prepares for a new editing process to be performed. Prepare to register clip management data. More specifically, an area for registering the clip management data is secured on the clip database CDB in preparation for the newly specified editing process.
  • step SP23 or step SP24 the CPU 21 proceeds to the next step SP25 and shifts to the actual editing processing.
  • FIG. 23 specifically shows the process of starting the synthesis module CM in step SP9.
  • the CPU 21 first displays the GUI of the synthesis module CM on the display 2B of the workstation 2 in step SP31 entered from step SP30.
  • the CPU 21 determines whether or not the start of the synthesis module CM has been instructed through the previous step SP12, and starts the synthesis module CM through the step SP12. If the instruction is issued, the process proceeds to step SP33, in which the contents of the specified result clip composition processing are read out based on the clip management data registered in the clip database CDB, and the GU for the composition module described above is read out.
  • the timeline of I ⁇ Window 34 displays the details of the synthesis process.
  • step SP32 determines whether the startup is not a startup via step SP12 but a new startup. If the result of determination in step SP32 is that the startup is not a startup via step SP12 but a new startup, the CPU 21 proceeds to step SP34 and prepares for a new synthesis process to be performed. To prepare for registration of clip management data. Specifically, an area for registering the clip management data is secured on the clip database CDB in preparation for the newly instructed compositing process.
  • FIG. 24 specifically shows the activation processing of the special effect module SM in step SP10.
  • the CPU 21 first displays the GUI of the special effect module SM on the display 2 B of the workstation 2 in step SP 41 entered from step SP 40.
  • the CPU 21 determines whether or not the activation of the special effect module SM has been instructed through the previous step SP12, and through the step SP12, the special effect module SM is determined. If the start of the SM is instructed, the process proceeds to step SP43, where the special effect contents of the specified result clip are read out based on the clip management data registered in the clip database CDB, and the special The special effect is displayed in the timeline window 41 of the GUI for the effect module.
  • step SP 4 2 determines whether the boot is not a boot via step SP 12 but a new boot. If the result of determination in step SP 4 2 is that the boot is not a boot via step SP 12 but a new boot, the CPU 21 proceeds to step SP 44 and a special effect to be newly performed from now on Prepare to register clip management data in preparation for processing. Specifically, an area for registering the clip management data is secured on the clip data base CDB in preparation for the newly instructed special effect processing.
  • step SP 43 or step SP 44 is performed, the CPU 21 proceeds to the next step SP 45 and shifts to the actual special effect processing.
  • step SP25 of FIG. 22 the details of the editing process shown in step SP25 of FIG. 22 are shown in FIG. Here, the illustration is omitted here.
  • the synthesis processing shown in step SP35 in FIG. 23 and the special effect processing shown in step SP45 in FIG. 24 also include the editing processing shown in FIG. It is almost the same as that described above, except that the processing content replaces the compositing processing or special effect processing.
  • the CPU 21 first determines whether or not the human power to instruct the editing process has been obtained in step SP51 entered from step SP50 (for example, using the timeline window 51). Operation or parameter setting window 5 2 It is determined whether or not the used operation has been performed.) As a result, if such an input has been made, the process proceeds to step SP52, where edit data corresponding to the input is created, and the edited data is used as clip management data. Write to the clip database CDB as appropriate, and set the valid / invalid flag of the resulting clip to invalid. If the input is to read the already registered result clip and correct its contents, the CPU 21 does not simply overwrite the result clip, but another A clip ID code is assigned and stored in another area. This allows the clip management data before correction to be read later.
  • step SP53 the CPU 21 refers to the parent link ID code of the clip management data to determine whether or not there is a higher-order clip for the result clip created in step SP52. . As a result, if there is no higher-order clip, the process returns to step SP51. If there is a higher-order clip, the process proceeds to step SP54, and the valid / invalid flag of the clip management data for managing the higher-order clip. Are all disabled, and then return to step SP51. It should be noted that, in most cases, when the process proceeds to step SP54, the already registered result clip is corrected.
  • the upper clips include not only the upper clips whose lower clips are the result clips created in step SP52, but also the resulting clips whose lower clips are further lower clips, and use at least the resulting clips as the material. All of the resulting clips (hereinafter also referred to as related clips).
  • each registered material clip and the result clip has the relationship shown in Fig. 26. That is, the material clip MC—G1 and MC—G2 generate the result clip FC—G.
  • the result clip FC—E is the result clip FC—G and the material clip MC—E1 and MC—E2. Is generated as a material.
  • the resulting clip FC-C is generated using the resulting clip FC-E and the material clip MC-C1 as the material.
  • the result clip FC-F is generated using the material clips MC-F1, MC-F2 and MC-F3 as the material
  • the result clip FC-D is the result clip FC-F and the material clip MC-D1.
  • MC-D2 and the resulting clip FC-E as materials.
  • the result clip FC-B is generated using the result clips FC-D and FC-C and the material clip MC-B1 as the material
  • the result clip FC-A is generated using the result clip FC-B as the material. Have been.
  • the valid / invalid flag of the clip management data for managing these clips unless the video data of the resultant clip is generated and then the video clip data is not particularly modified. Is enabled. However, for example, if the editing process of the result clip FC-E is modified, the valid / invalid flag of the result clip FC-E is naturally changed to invalid. Result clips FC—C and FC—D with clip FC—E as the lower clip, and result clips FC—B with the corresponding result clips FC—C and FC—D as the lower clips, and the corresponding result clip FC—B All of the result clips FC-A as lower-order clips are also enabled / disabled.
  • step SP51 determines whether or not the result clip displayed in the video area of the timeline window 51 has been selected, and determines whether or not the displayed result clip has been selected. Activates the module that created the resulting clip in step SP56 (that is, the synthesis module CM or the special effects module SM), and if the displayed result clip is not selected, the step SP5 Proceed to 8. The details of step SP56 will be described later.
  • step SP58 the CPU 21 determines whether or not a re-execution command has been input. If a re-execution command has been input, the CPU 21 proceeds to step SP59 and executes the re-execution processing. If the re-execution command is not input, the flow returns to the original flowchart via step SP26.
  • the re-execution command mentioned here means that the view button or all-view button displayed on the GUI screen was clicked with the mouse 2D, and the instruction of view or all-view was input. I have. In the case of a view or an album view, the specified editing processing is actually executed, and as a result, video clip data of the clip is generated.
  • FIG. 27 shows the specific processing of step SP56 described above (ie, the module startup processing).
  • the CPU 21 executes the clip management of the selected result clip in step SP61 entered from step SP60. Read the data.
  • step SP62 the CPU 21 refers to the module ID code registered in the clip management data, and in the next step SP63, the module corresponding to the module ID code (that is, the composite Activate module CM or special effect module SM) and display the result of editing the clip in the timeline window on the GUI.
  • the module ID code that is, the composite Activate module CM or special effect module SM
  • FIG. 28 shows a specific process (that is, a re-execution process) of step SP59 described above.
  • a re-execution process of step SP59 described above.
  • FC—E, FC—D, FC—C, FC — B and FC—A are all invalidated.
  • the CPU 21 when the re-execution command is instructed, the CPU 21 first forms a stack memory on the RAM 21 B in step SP71 entered from step SP70, and the stack 21 Pushes the clip management data of the result clip at the top of the clip library to the memory. For example, in the example shown in FIG. 26, since the result clip FC-A is at the top, the clip management data of the result clip FC-A is pushed to the stack memory.
  • the CPU 2i determines whether or not the contents of the stack memory are empty. In this case, in step SP71, since the clip management data has been pushed to the stack memory, the data exists, and a negative result is obtained. Therefore, the CPU 21 proceeds to the next step SP74.
  • step SP74 the CPU 21 pops one clip of the clip management data from the stack memory and determines whether or not the clip is valid based on the valid / invalid flag of the clip management data.
  • the result clip FC-A is invalid, a negative result is obtained, and the process proceeds to step SP75.
  • “pop” refers to reading data that is stacked on the stack memory space from the top one.
  • step SP75 the CPU 21 determines based on the clip management data read in the previous step SP74, whether or not all lower clips of the resulting clips are valid.
  • the CPU 21 refers to the child link destination ID code registered in the clip management data of the clip as a result, determines the lower clip based on the clip ID code registered there, By referring to the valid / invalid flag of the lower clip from the clip database, it is determined whether or not all lower clips are valid.
  • the result clip FC-B which is a lower clip of the result clip FC-A, is invalid, a negative result is obtained, and the process proceeds to the next step SP77.
  • step SP77 the CPU 21 pushes the clip management data of the clip as a result of the popping to the stack memory again, and proceeds to the next step SP78.
  • the clip management data of the result clip FC-A is pushed again to the stack memory.
  • step SP78 the CPU 21 stacks one piece of clip management data of the invalidated clip among the lower clips of the clip re-pushed in step SP77. To push.
  • the clip management data of the result clip FC-B is pushed to the stack memory.
  • step SP74 the CPU 21 pops one clip of the clip management data from the stack memory, and determines whether or not the clip is valid based on the valid z invalid flag in the clip management data. to decide.
  • the clip management data of the result clip FC-B is powerfully read, and as a result, the clip FC-B is invalidated, a negative result is obtained, and the next step SP 75 Proceed to.
  • step SP75 the CPU 21 determines whether or not all lower clips of the resulting clip are valid based on the clip management data read in the previous step SP74.
  • the result clips FC-C and FC-D which are lower clips of the result clip FC-B, are invalidated, a negative result is obtained, and the process proceeds to the next step SP77.
  • step SP77 the CPU 21 pushes the clip management data of the clip as a result of the popping to the stack memory again, and proceeds to the next step SP78.
  • the clip management data of the result clip FCB is re-pushed.
  • the CPU 21 pushes, to the stack memory, one piece of clip management data of the invalidated clip among the lower clips of the clip re-pushed in step SP77. I do.
  • the clip management data of the result clip FC-C is pushed.
  • step SP74 the CPU 21 pops clip management data for one clip from the stack memory, and It is determined whether or not the clip is valid based on the result.
  • the clip management data of the result clip FC-C is powerfully read, and as a result the clip FC-C is invalid, a negative result is obtained, and the process proceeds to the next step SP75.
  • step SP75 the CPU 2i determines, based on the clip management data read in the previous step SP74, whether or not all the lower clips of the clips are valid as a result.
  • the result clip FC-E which is the lower clip of the result clip FC-C, is invalidated, a negative result is obtained, and the process proceeds to the next step SP77.
  • step SP77 the CPU 21 pushes the clip management data of the clip as a result of the popping to the stack memory again, and proceeds to the next step SP78.
  • the clip management data of the result clip F C—C is re-pushed.
  • the CPU 21 pushes one piece of clip management data of the invalidated clip among the lower clips of the clips re-pushed in step SP77 to the stack memory. .
  • the clip management data of the result clip F C-E is pushed.
  • step SP74 the CPU 21 pops one clip of the clip management data from the stack memory, and judges whether or not the clip is valid based on the clip management data.
  • the result clip FC—E is read, but as a result, the clip FC—E is invalid, so a negative result is obtained, and the process proceeds to the next step SP75.
  • step SP75 the CPU 21 determines, based on the clip management data read in the previous step SP74, whether or not all lower clips of the resulting clip are valid.
  • the CPU 21 performs an editing process using the clip video data of the clip specified as the material based on the work data registered in the clip management data, thereby obtaining the resulting clip. Create clip video data and change the valid Z invalid flag of the clip management data to valid.
  • clip video data of the resulting clip FC-E is created by performing editing processing using the clips FC-G, MC-E1, and MC-E2 specified as the material. Change the valid / invalid flag of the result clip FC-E to valid.
  • step SP74 the CPU 21 pops one clip of the clip management data from the stack memory, and determines whether or not the clip is valid based on the clip management data.
  • the force at which the clip management data of the result clip FC-C is read out ⁇ As a result, the clip FC-C is invalid, so a negative result is obtained, and the flow proceeds to the next step SP75.
  • step SP75 the CPU 21 determines based on the clip management data read in the previous step SP74, whether or not all lower clips of the resulting clip are valid. In the example of FIG. 26, since the clips FC — E and MC — C1, which are lower clips of the result clip FC—C, are each valid, a positive result is obtained, and the process proceeds to step SP76.
  • step SP76 the CPU 21 performs an editing process using the clip video data of the clip specified as the material based on the work data registered in the clip management data, thereby obtaining the resulting clip.
  • the editing process using the clips FC-E and MC-C1 is performed, the clip video data of the resultant clip FC-C is created, and the valid / invalid flag of the resulting clip FC-C is created. Changes to valid Will be updated.
  • step SP74 the CPU 21 pops the clip management data by one clip from the stack memory, and determines whether or not the clip is valid as a result based on the clip management data.
  • the clip management data of the result clip FC-B is read out. As a result, since the clip FC-B is invalid, a negative result is obtained, and the process proceeds to the next step SP75.
  • step SP75 the CPU 21 determines based on the clip management data read in the previous step SP74, whether or not all lower clips of the resulting clip are valid. In the example of FIG. 26, since the result clips FC-D, which are lower clips, are invalidated, a negative result is obtained, and the process proceeds to step SP77. Similarly, in step SP77, the CPU 21 pushes the clip management data of the clip again to the stack memory as a result, and the clip management data of the lower clip which was invalid in the next step SP78. To the stack memory.
  • step SP74 the CPU 21 pops one clip of the clip management data from the stack memory, and determines whether or not the resulting clip is valid based on the clip management data.
  • the force at which the result clip F C-D is read out ⁇ As a result, the clip F C-D is invalid, so a negative result is obtained, and the flow proceeds to the next step SP75.
  • step SP75 the CPU 21 determines based on the clip management data read in the previous step SP74, as a result, whether or not all lower clips of the clip are valid.
  • clips FC—E, FC—F, MC—D1, and MC—D2 which are lower clips of the result clip FC—D, are all valid. Therefore, a positive result is obtained, and the process proceeds to Step SP76.
  • step SP76 the CPU 21 performs an editing process using the clip video data of the clip specified as the material based on the work data registered in the clip management data, thereby obtaining the resulting clip.
  • the clip video data is created, and as a result, the valid / invalid flag of the clip management data for the clip is changed to valid.
  • the editing process using the clips FC-E, FC-F, MC-D1, and MC-D2 is performed, and the clip video data of the resultant clip FC-D is created, and the result is obtained.
  • Clip FC—D valid Z Invalid flag is changed to valid.
  • step SP74 the CPU 21 drops the clip management data by one clip from the stack memory, and determines whether or not the clip is valid based on the clip management data.
  • the clip management data of the result clip FC-B is powerfully read, and as a result, the clip FC-B is invalid, so a negative result is obtained, and the process proceeds to the next step SP75. .
  • step SP75 the CPU 21 determines, based on the clip management data read in the previous step SP74, whether or not all lower clips of the resulting clip are valid. In the example of FIG. 26, since the result clips FC-C and FCD-D, which are lower clips, are valid, a positive result is obtained, and the process proceeds to the next step SP76.
  • step SP76 the CPU 21 performs an editing process using the clip video data of the clip specified as the material based on the work data registered in the clip management data, thereby obtaining the resulting clip. Create clip video data and, as a result, change the valid / invalid flag of clip management data for the clip to valid.
  • editing processing using clips FC-C and FC-D is performed, and the clip video data of the resulting clip FC-B is As a result, the valid / invalid flag of the clip FC-B is changed to valid.
  • step SP74 the CPU 21 pops up one clip of the clip management data from the stack memory card and determines whether or not the resulting clip is valid based on the clip management data.
  • the force at which the clip management data of the result clip FC-A is read ⁇ As a result, since the clip FC-A is invalid, a negative result is obtained, and the process proceeds to the next step SP75. .
  • step SP75 the CPU 21 determines based on the clip management data read in the previous step SP7, whether or not all lower clips of the resulting clip are valid. In the example of FIG. 26, since the result clip FC-B, which is the lower clip, is valid, a positive result is obtained, and the flow proceeds to the next step SP76.
  • step SP76 the CPU 21 performs an editing process using the clip video data of the clip specified as the material based on the work data registered in the clip management data, and as a result, Create the clip video data of the clip, and change the valid / invalid flag of the clip management data for the clip to valid.
  • the editing process using the result clip FC-B is performed, the clip video data of the result clip FC-A is created, and the valid / invalid flag of the result clip FC-A is changed to valid. Is done.
  • the CPU 21 returns to step SP72 again, and determines whether or not the stack memory is sufficiently empty. In this case, since all the data up to the highest result clip has been read out by the previous pop processing, the stack memory is empty and a positive result is obtained. Accordingly, the CPU 21 proceeds to step SP73 and ends the re-execution processing.
  • step SP74 the clip read from the stack memory If it is determined that the management data clip is valid, the process returns to step SP72. For example, if the highest-order result clip is valid in the clip library, the clip management data is pushed to the stack memory by the processing of step SP71, and the judgment is positive in the subsequent step SP74. Since the result is obtained, the process returns to step SP72, where a positive result is obtained, and the re-execution processing ends immediately. As described above, when the highest-order result clip is valid, the re-execution processing is not substantially executed.
  • FIG. 29 schematically shows the contents of the flowchart of the re-execution processing described above.
  • the highest-order result clip FC-A when the highest-order result clip FC-A is invalid, it is checked whether or not the result clip FC-B, which is the lower-order clip, is valid. Then, it is checked whether or not the lower clip FC-C of the clip FC-B is valid. As a result, if the result clip FC-C is invalid, it is further checked whether the lower clip FC-E of the result clip FC-C is valid, and as a result, the clip FC-E is invalid. If there is, it is further checked whether or not the lower clip FC-G of the clip FC-E is valid.
  • the clip video data of the result clip is transferred, and the editing process based on the clip video data is re-executed.
  • Create clip video data for E When the clip video data of the result clip FC-E is created, the editing process based on the clip video data is re-executed to create the clip video data of the result clip FC-C corresponding to the upper clip. I do.
  • the clip video data of the result clip FC-C is created, the force to re-execute the editing process based on the clip video data ⁇ , and the other result clip FC-D, which is a lower clip, is still invalid.
  • the editing process based on the clip video data is re-executed to create the clip video data of the result clip FC-B corresponding to the upper clip.
  • the editing process based on the clip video data is re-executed to thereby obtain the clip video data of the result clip FC-A corresponding to the upper clip.
  • the identification flag of the result clip FC-E is changed to invalid, and the result clip FC-E is changed.
  • the identification flags of the clips FC—C, FC—D, FC—B, and FC—A that are linked higher than E are also invalidated. If the re-execution processing is specified by selecting the view or all-view command, it is checked whether the clip is valid from the highest result clip FC-A toward the lower clip, and the lower clip is checked.
  • a top menu is displayed on the display 2B of the workstation 2.
  • the operator selects a desired module activation command in the top menu and activates a module suitable for an editing operation to be performed.
  • the GUI 2 for editing is displayed on the display 2 B of the workstation 2.
  • a GUI as shown in FIG. 10 is displayed on the display 2B.
  • a dedicated timeline window 34 for the compositing process is displayed.
  • a clip tree that shows the relationship between the clips registered in the clip database CDB is displayed. It can be easily grasped whether or not it has been generated.
  • a GUI as shown in FIG. 11 is displayed on the display 2B.
  • a special timeline window 41 for special effects is displayed, and by performing operations according to the screen of this timeline window 41, it is easy to specify a clip as a material. Or specify the desired special effect processing.
  • the GUI for special effects processing also has a clip window 31 and a library window 33, which allow you to easily select a desired clip registered in the clip-day evening CDB as a material. can do.
  • a GUI as shown in FIG. 12 is displayed on the display 2B.
  • a timeline window 51 dedicated to the editing process is displayed, and by performing operations according to the screen of the timeline window 51, it is possible to easily specify a clip as a material, A desired editing process can be designated.
  • a desired editing operation can be easily performed by designating desired materials and editing contents while viewing the GUI displayed on the display 2B of the workstation 2.
  • all instructions related to the editing work can be input via the peak station 2, and the editing work can be easily performed without the operator having to operate each device as in the conventional case. It can be carried out.
  • editing can be performed easily and at high speed as compared with the conventional one.
  • complex and sophisticated video data can be obtained using a wide variety of materials registered in the clip database CDB.
  • each clip as a material is managed in a hierarchical structure based on the relationship between the clips.
  • the related clips can be automatically changed by managing the hierarchical structure. Therefore, the editing work can be easily changed without the operator having to memorize the relationship between the clips, as in the related art, and the editing work can be performed efficiently.
  • the relationship between clips is managed in a hierarchical structure. Therefore, if the editing work is performed sequentially based on the relationship between clips managed in the hierarchical structure, complicated editing work can be easily performed.
  • the workstation 2 for displaying the GUI for each function is provided, and various editing instructions can be input according to the screen of the GUI. Without doing so, desired editing work can be performed, and an editing system with improved use and operability can be realized.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)
  • Studio Circuits (AREA)

Description

編集システム、 編集方法、 クリップ管理装置及びクリップ管理方 法
技術分野
本発明は編集システムに関し、 特に複数の素材を使用して編集処理を行う編集 明
システムに適用して好適なものである。
背景技術
近年、 ビデオカメラから得られたビデオデータを編集するボストプロダクショ ンの分野においては、 素材のデータを記録する記録媒体としてディスクを使用し たノンリニア編集システムが提案されている。 このノンリニア編集システムにお いて行われる編集処理としては、 さまざまな種類の編集処理が存在している。 例 えば、 複数の素材をつなぎ合わせて所望のビデオプログラムを作成するためのビ デォ編集処理や、 キー信号によって複数の素材を合成するための合成処理や、 素 材に対して特殊効果処理を施す特殊効果処理等が存在する。 一般的に、 このビデ ォ編集処理は編集装置で行われ、 合成処理はビデオスィッチャで行われ、 特殊効 果処理は特殊効果装置において行われている。
近年のディスク状記録媒体のランダムアクセス性の向上によって、 複数チャン ネルに対して同時にアクセスが可能になり、 その結果、 複数チャンネルのビデオ データをリアルタイムで処理する編集処理が要望されるようになってきた。 例え ば、 テレビコマ一シャル作成用の編集業界や映画プログラム作成用の編集業界等 では、 数十から数百の素材を使用して編集処理を行うと共に、 異なる種類の編集 処理を組合わせて使用することが要望されている。 さらに、 これらの複数種類の 編集処理を何度も繰返し行うことによって高度で且つ複雑な編集結果デ一タを生 成することが要求されるようになってきた。 このような高度で複雑な編集結果データを作成するためには、 数十から数百の 素材を管理すると共に、 編集処理の履歴を記憶しておかなければいけない。
しかし、 従来の編集システムは、 このような多数の素材を管理するための装置 及び編集履歴を記憶するための装置が無く、 その結果、 編集操作が煩雑なものと なっていた。 具体的には、 編集結果ビデオデータがどのような素材を使用してど のような編集処理を行うことによって生成されたかといった情報を、 編集オペレ 一夕 (以下、 単にオペレータと呼ぶ) が記憶しておく ことは不可能であるので、 従来の編集システムでは、 編集作業を行う毎にオペレータがそのような情報を紙 に書き込んで管理していた。 また複数の編集結果ビデオデータからさらに新しい 編集結果ビデオデー夕を生成するような編集処理を何度も繰り返すような複雑な 編集処理を行った場合には、 最終結果としての編集結果ビデオデータがどの素材 から作成されたかを示す編集履歴を示す情報が膨大なデ一タ量になり、 ォペレ一 夕が紙に書き込んで管理することさえも不可能であった。
また従来の編集システムでは、 複数の編集処理毎にその編集処理に対応した装 置をオペレータが制御する必要があり、 このため編集作業が非常に煩雑になると いった問題があった。 例えば 2つのビデオデータを合成する場合にはスィッチャ 装置に接続されたコントロールパネルを操作する必要があるし、 ビデオデータに 対して特殊効果処理を施す場合には特殊効果装置のキーボードを制御する必要が あり、 その都度操作対象が変わってしまい、 編集作業に時間がかかってしまうと いう問題があった。 発明の開示
本発明はこのような問題点を解決するために発明されたものであって、 複数の 素材を独自の階層構造によって管理することによって、 編集作業の簡略化及び高 速化を実現することができる編集システムを提供することが目的である。 さらに 本発明は、 これらの管理情報に基づいて、 複数の素材を編集作業に最適になるよ うに制御することによって、 編集作業の簡略化及び高速化を実現しょうとするこ とが目的である。
またオペレータが各装置をそれぞれ操作すること無く、 1台のコンピュータを 扱うことによって上述した編集処理、 合成処理及び特殊効果処理等の全ての編集 処理を行うことができる編集システムを提供することが目的である。 また本発明 は、 従来の編集システムでは実現できな 、高度で複雑な編集結果デ一タを生成す るための編集システムの提供を目的とするものである。 また本発明は、 複数の素 材を階層構造で管理するため及び高速で複雑な編集結果データを生成するために 最適な G U Iを有した編集システムを提供し、 その G U Iによって編集作業の簡 略化及び編集操作の使 、勝手を向上させるということが目的である。
かかる課題を解決するため本発明においては、 複数の編集対象クリップから編 集結果クリップを作成する編集システムにおいて、 編集対象クリ ップを編集する ための複数の処理モジュールから構成され、 該複数の処理モジュールのうちから 選択された処理モジュールに対応した編集処理を複数の編集対象クリップに対し て施すことによって編集結果クリップを生成する編集手段と、 編集結果クリップ がどの編集対象クリ ップから生成されたクリ ップであるかを表わすために、 編集 結果クリップと複数の編集対象クリップとを階層構造によって管理する管理手段 と、 管理手段によって管理されている情報に基づいて、 編集手段を制御する制御 手段とを設けるようにする。
管理手段によって編集結果クリ ップと編集対象クリップの関係が把握される。 このため管理手段が持つこれらクリップ間の関係を示す情報に基づいて、 編集結 果クリップを生成して行けば、 容易に複雑な編集作業を行うことができる。 また本発明においては、 複数の編集対象クリップを編集するための編集システ ムにおいて、 編集対象クリップを編集するための複数の処理モジュールから構成 され、 該複数の処理モジュールのうちから選択された処理モジユールに対応した 編集処理を複数の編集対象クリップに対して施すことによって編集結果クリップ を生成する編集手段と、 複数の処理モジュールに対応したグラフィカルユーザィ ンターフェ一スをディスプレイに表示する表示手段と、 編集対象クリップのビデ ォデータに対して編集手段によつて行われる編集処理によつて施される画像処理 内容を示す画像処理データを編集結果クリップと対応付けて記憶するための記憶 手段と、 編集結果クリップが選択された時には、 選択された編集結果クリップと 対応付けられて記憶手段に記憶されている画像処理データを、 グラフィカルュ一 ザインターフヱ一スの一部としてディスプレイ上に表示するように表示手段を制 御する制御手段とを設けるようにする。
編集結果クリップが選択された時、 画像処理内容を示す画像処理データを、 グ ラフィカルユーザィンタ一フヱースの一部としてディスプレイ上に表示するよう にしたことにより、 編集オペレータはその表示を見て、 指定されている画像処理 内容を容易に把握することができる。 図面の簡単な説明
図 1は、 本発明による編集システムの構成を示すブロック図である。
図 2は、 編集システムの主要構成であるワークステーションの内部構成を示す ブロック図である。
図 3は、 本発明による編集システムにおいて備えている各モジュール及びクリ ップデータベースを示す略線図である。
図 4は、 クリップの階層的管理の説明に供する略線図である。
図 5は、 合成処理のイメージ説明に供する略線図である。
図 6は、 合成処理によって生成されるビデオィメ一ジの説明に供する画面ィメ ージ図である。
図 7は、 合成処理の概念説明に供する略線図である。
図 8は、 特殊効果処理の概念説明に供する略線図である。
図 9は、 編集処理の概念説明に供する略線図である。
図 1 0は、 合成モジュールを起動したときに表示される G U I画面を示す画面 イメージ図である。
図 1 1は、 特殊効果モジュールを起動したときに表示される G U I画面を示す 画面イメージ図である。
図 1 2は、 編集モジュールを起動したときに表示される G U I画面を示す画面 イメージ図である。
図 1 3は、 クリップデータベースに登録されるクリッブ管理データ用のデータ ベースを示す図表である。
図 1 4は、 既に登録されているクリップ管理データを修正したときの説明に供 する図表である。
図 1 5は、 合成処理時の編集点データを示す図表である。
図 1 6は、 特殊効果処理時の編集点データを示す図表である。
図 1 7は、 編集処理時の編集点データを示す図表である。
図 1 8は、 合成処理時の合成データを示す図表である。
図 1 9は、 特殊効果処理時の特殊効果データを示す図表である。
図 2 0は、 編集処理時の編集データを示す図表である。
図 2 1は、 制御モジュールを起動したときの動作説明に供するフローチャート である。
図 2 2は、 編集モジュールを起動したときの動作説明に供するフローチャート である。
図 2 3は、 合成モジュールを起動したときの動作説明に供するフローチャート である。
図 2 4は、 特殊効果モジュールを起動したときの動作説明に供するフローチヤ ―卜である。
図 2 5は、 編集処理時の動作説明に供するフローチャートである。
図 2 6は、 任意の結果クリップに対する編集内容を修正したときの説明に供す る略線図である。
図 2 7は、 所定のモジュールを起動中に他のモジュールを起動するときの動作 説明に供するフローチヤ一トである。
図 2 8は、 再実行処理時の動作説明に供するフローチャートである。 図 2 9は、 再実行処理を模式的に示した略線図である。 発明を実施するための最良の形態
( 1 ) 編集システムの全体構成
まず始めに図 1を用いて、 本発明による編集システムの全体構成を説明する。 図 1において、 1は全体として本発明による編集システムを示し、 当該システム 全体をコントロールするワークステーション 2を備えている。 このワークステ一 シヨン 2は C P U (中央処理ユニット) や各種処理回路、 或いはフロッピーディ スク ドライブやハードディスク ドライブ等を備える本体 2 Aと、 当該本体 2 Aに 接続されるディスプレイ 2 B、 キーボード 2 C、 マウス 2 D及びペン . タブレツ ト 2 Eとを有している。 このようなワークステーション 2は、 編集のためのアブ リケ一シヨン ' ソフ トウエアがハードディスク ドライブに予めィンストールされ ており、 オペレーティングシステムの基で当該アプリケーシヨン · ソフ 卜ウェア を動作させることにより編集用のコンピュータとして起動するようになされてい 。
因みに、 このアプリケーション ·ソフ トウェアを動作させたときには、 デイス プレイ 2 B上に G U I (グラフィカル ·ユーザ ·ィンターフェイス) のためのグ ラフィック表示が表示されるようになされており、 上述したペン · タブレツト 2 Eやマウス 2 Dを使用して、 当該ディスプレイ 2 Bに表示される所望のグラフィ ック表示を選択すれば、 所望の編集コマンドをこのワークステーション 2に対し て入力し得るようになされている。 また編集に係わる各種数値データ等も、 キー ボード 2 Cを介してこのワークステーション 2に対して入力し得るようになされ ている。
なお、 このワークステーション 2は、 編集コマンドや各種数値データがォペレ 一夕の操作により入力されると、 その編集コマンドや各種数値データに応じた制 御データを後述するデバイスコン卜ローラ 3に出力するようになされており、 こ れによりデバイスコン卜ローラ 3を介してこの編集システム 1を構成する各機器 を制御し得るようになされている。 但し、 ビデオディスクレコーダ 5に関しては 、 デバイスコントローラ 3を介さずとも、 一部の機能を直接制御することができ るようになされている。
またこのワークステーション 2には、 そのデバイスコントローラ 3を介してビ デォデータが入力されるようになされており、 編集素材の画像や編集後の画像等 をディスプレイ 2 Bに表示し得るようになされている。
デバイスコントローラ 3は、 ワークステーション 2からの制御データを受けて 、 実際に各機器を制御する制御装置である。 このデバイスコントローラ 3に対し ては、 ダイアル操作子ゃスライ ド操作子等を有した専用コントローラ 4が接続さ れており、 これによりこの編集システム 1ではワークステーション 2のキ一ボー ド 2 Cやマウス 2 D或いはペン · タブレツト 1 Eでは入力し得ないような漸次変 化する制御データも入力し得るようになされている。
このデバイスコントローラ 3は、 ワークステーション 2や専用コントロ一ラ 4 からの制御データを受け、 その制御データに対応する機器を制御する。 例えばビ デォディスクレコーダ 5に対しては、 デバイスコントローラ 3は、 素材の再生や 編集後の素材の記録を指示する。 この指示を受けたビデオディスクレコーダ 5は
、 その指示に応じて、 内部のディスク状記録媒体に記録されている所望素材のビ デォデータやオーディオデータを再生して出力したり、 或いは編集されたビデオ データやオーディオデータを当該ディスク状記録媒体に記録する。
同様に、 ビデオテープレコーダ (V T R ) 6に対しても、 デバイスコント口一 ラ 3は、 素材の再生を指示する。 この指示を受けたビデオテープレコーダ 6は、 その指示に応じて、 内部のビデオテープに記録されている所望素材のビデオデー 夕やオーディオデータを再生して出力する。 なお、 この編集システム 1の場合に は、 ビデオテープレコーダ 6に記録されているビデオデータは一旦ビデオデイス クレコーダ 5にダウンロードされてから素材のビデオデータとして扱われる。 またスィッチャ 7に対しては、 デバイスコントローラ 3は、 ビデオディスクレ コーダ 5、 ビデオテープレコーダ 6又はビデオカメラ 8から出力されるビデオデ —夕の選択を指示する。 この指示を受けたスィッチャ 7は、 その指示に応じて、 入力される所望素材のビデオデータを選択してディジタルマルチェフエクタ 9に 出力したり、 デバイスコントローラ 3を介してワークステーション 2に出力した り、 或いは入力される所望素材のビデオデータを順次選択してつなぎ合わせたり 、 編集したビデオデータをモニタ 1 0に出力して表示させたり、 その編集したビ デォデータをビデオディスクレコーダ 5に戻して記録させたりする。
またディジタルマルチェフエクタ 9に対しては、 デバイスコン卜ローラ 3は、 各種エフェク ト処理を指示する。 この指示を受けたディジタルマルチェフエクタ 9は、 その指示に応じて、 入力される所望素材のビデオデータに対して、 モザィ ク処理や 3次元的な画像変換処理等の特殊効果処理や卜ランジシヨンエフェク ト 等のエフェク 卜処理、 或いは画像合成処理等を施し、 その結果得られるビデオデ —タを再びスィッチャ 7に戻してワークステーション 2やモニタ 1 0或いはビデ ォディスクレコーダ 5等に出力するようになされている。
またオーディオミキサ 1 1に対しては、 デバイスコントローラ 3は、 ビデオデ イスクレコーダ 5やビデオテープレコーダ 6から出力されるオーディオデータの 編集を指示する。 この指示を受けたオーディオミキサ 1 1は、 その指示に応じて 、 所望のオーディオ素材を合成処理 (ミキシング) し、 その合成処理されたォ一 ディォデータを再びビデオディスクレコーダ 5に戻して記録させる。
かく してこのような構成を有する編集システム 1では、 ワークステーション 2 を介して所望の編集コマンドを入力することにより、 ビデオディスクレコーダ 5 やビデオテープレコーダ 6に記録されている多種多様な複数の素材のビデオデー タを使用して、 高度でかつ複雑な所望のビデオデータを容易に作成することがで きるようになされている。 これにより従来のようにオペレータが編集システムを 構成する各機器を直接操作しなくても、 ワークステーション 2を操作するだけで 各種編集を行うことができ、 従来に比して編集に係わる操作を低減し得ると共に 、 編集システムの使い勝手を向上することができる。 (2) ワークステーションの構成
この項では、 編集システム 1の中心的存在であるワークステーション 2の構成 について説明する。 図 2に示すように、 ワークステーション 2は、 コマンドデー タゃビデオデータを伝送するためのシステムバス 2 0、 ワークステーション 2の 全体を制御する CPU 2 1、 デバイスコントローラ 3より供給されるビデオデー タ S 1に対して画像処理等を行うビデオプロセッサ 2 2、 ディスプレイ 2 Bに表 示されるビデオデータや GU Iのためのグラフィック表示を管理する表示コント ローラ 2 3、 ローカルハー ドディスク ドライブ (ローカル HDD) 2 4 Aを制御 するための HDDインターフェイス 2 4、 フロッピ一ディスク ドライブ (FDD ) 2 5 Aを制御するための FDDインターフェイス 2 5、 キーボード 2 C, マウ ス 2 D及びペン · タブレツト 2 E等のボインティングデバイスからのコマンドに 基づいて制御コマンドを生成するボインティングデバイスィンターフェィス 2 6 、 デバイスコントローラ 3に対して制御データ S 2を送出するためのソフトウェ ァドライバを備えた外部インターフェイス 2 7を有している。
システムバス 2 0は、 ワークステーション 2内部でビデオデータゃコマンドデ 一夕、 或いはアドレスデータ等の伝送を行うためのバスであり、 ビデオデ一夕を 伝送するための画像データバス 2 OAと、 コマンドデータやアドレスデータを伝 送するためのコマンドデータバス 20 Bとからなる。
画像データバス 2 O Aには CPU 2 し ビデオプロセッサ 2 2、 表示コントロ ーラ 2 3、 HDDインタ一フェイス 2 4及び FDDィンタ一フェイス 2 5がそれ ぞれ接続されており、 当該 CPU 2 1、 ビデオプロセッサ 2 2、 表示コントロー ラ 2 3、 HDDインターフェイス 24及び FDDインターフェイス 2 5はこの画 像データバス 2 0 Aを介してビデオデータの伝送を行うようになされている。 一方、 コマンドデータバス 2 0 Bには、 C PU 2 し ビデオプロセッサ 2 2、 表示コントローラ 2 3、 HDDインターフェイス 2 4、 FDDインタ一フェイス 2 5、 ボインティングデバイスィンターフェイス 2 6及び外部ィンタ一フェイス 2 7がそれぞれ接続されており (すなわちワークステーション 2内部の全てのブ ロックが接铳されている) 、 当該コマン ドデータバス 2 0 Bを介してコマンドデ 一タゃァドレスデータの伝送を行うようになされている。
C P U 2 1は、 ワークステーション 2全体の制御を行うブロックであり、 ヮー クステーション 2のォペレ一ティングシステムが格納されている R OM 2 1 Aと 、 アップロードされたアプリケーション · ソフトウエアやデータベース等が格納 される R AM 2 1 Bとを有している。 ワークステーション 2を起動する場合には 、 C P U 2 1は R O M 2 1 Aに記憶されているオペレーティングシステムに基づ いて動作することにより起動するようになされている。 またアプリケーション · ソフトウエアをこの起動中のオペレーティングシステムの下で起動する場合には 、 C P U 2 1はまずハードディスク ドライブ 2 4 Aのハ一ドディスクに記録され ているアプリケーション · ソフトウエアを読み出して R A M 2 1 Bにアップ口一 ドし、 その後、 当該アプリケーション ' ソフ トウェアを実行して起動するように なされている。
なお、 アプリケーション ' ソフトウエアは機能毎に分割されてモジュール化さ れており、 後述するように大きく分けて、 素材のつなぎ合わせ等を行うための編 集モジュールと、 素材の重ね合わせ等といった合成処理を行うための合成モジュ ールと、 素材の 3次元的な画像変換等と L、つた特殊効果処理を行うための特殊効 果モジュールと、 これらモジュールの起動やモジュール間のデータの受渡し等を 管理する制御モジュールとによって構成されている。 すなわちこのシステムの場 合には、 アプリケーション ' ソフトウェアを起動したときには、 まず制御モジュ ールが起動し、 オペレータより編集指示が入力されると、 その制御モジュールの 管理の下で対応するモジュール (編集モジュール、 合成モジュール又は特殊効果 モジュール) を適宜起動して、 オペレータより指示された編集を行うようになさ れている。
ビデオプロセッサ 2 2は、 ワークステーション 2に入力される S D I (Serial Digi tal Interface) 規格のビデオデータ S 1を受け取り、 当該ビデオデータ S 1に対してデータ変換を施すと共に、 その変換されたビデオデータを-一時的にバ ッファリングするためのブロックである。 具体的には、 ビデオプロセッサ 2 2は 、 当該ビデオプロセッサ 2 2の全体を制御するプロセッサコン卜ローラ 2 2 Aと 、 受け取ったビデオデータ S 1のペイロード部からコンポジッ卜ビデオ信号を抽 出し、 かつ当該コンポジットビデオ信号をディジタルのコンポーネン卜ビデオデ —夕に変換するデータ変換部 2 2 Bと、 データ変換部 2 2 Bから送出される数フ レーム分のビデオデータを一時的に記憶するフレームメモリ 2 2 Cとによって構 成さる
プロセッサコントローラ 2 2 Aは、 データ変換部 2 2 Bに対して制御信号を送 出することにより当該データ変換部 2 2 Bのデータ変換動作を制御すると共に、 当該データ変換部 2 2 Bにビデオデータ S 1からタイムコ一ドを抽出させる。 ま たプロセッサコントローラ 2 2 Aは、 フレームメモリ 2 2 Cに対して制御信号を 送出することにより当該フレームメモリ 2 2 Cのリード Zライ トタイミング及び リード/ライ トァドレスを制御する。 因みに、 リードタイミングに関しては、 プ 口セッサコントローラ 2 2 Aは、 表示コントローラ 2 3に送出するタイムコ一ド とビデオデ一夕 (フレームデータ) とが対応するようにフレームメモリ 2 2じの リードタイミングを制御する。
データ変換部 2 2 Bは、 プロセッサコントロ一ラ 2 2 Aからの制御信号に基づ いてコンポジットビデオ信号をディジタルのコンポ一ネントビデオデータに変換 する。 因みに、 タイムコードはこの変換過程において抽出される。 この変換によ り得られたビデオデ一夕は上述したようにフレームメモリ 2 2 Cに送出され、 ま た抽出されたタイムコ一ドはプロセッサコントローラ 2 2 Aに送出される。 フレームメモリ 2 2 Cは、 データ変換部 2 2 Bから供給されるビデオデータを 一時的に記憶する。 このフレームメモリ 2 2 Cのリードノライ トタイミングは、 上述したようにプロセッサコントロ一ラ 2 2 Aによって制御される。 このフレー ムメモリ 2 2 Cは少なくとも 2個のフレームメモリから構成され、 少なくとも 2 フレーム分のビデオデー夕を記憶し得るようになされている。
このフレームメモリ 2 2 Cに記憶されたビデオデータは、 プロセッサコントロ —ラ 2 2 Aの読み出し制御に基づいて読み出される。 その際、 フレームメモリ 2 2 Cに記憶されたビデオデータを全画素読み出すのではなく、 所定の間隔で間引 いて読み出すことにより画像サイズを原画像よりも小さくする。 このようにして 画像サイズが小さく変換されたビデオデータは、 素材又は編集結果の確認用とし てディスプレイ 2 Bの所定表示エリアに表示されるため、 画像データバス 2 0 A を介して表示コントローラ 2 3に送出される。
表示コントローラ 23は、 ディスプレイ 2 Bに表示されるデータを制御するた めの制御ブロックである。 表示コン卜ローラ 2 3はメモリコントロ一ラ 2 3 Aと VRAM (ビデオ ·ランダム 'アクセス 'メモリ) 2 3 Bとを有している。 メモ リコン トローラ 2 3 Aはワークステーション 2の内部同期に従って VRAM 2 3 Bのリード ライ トタイミングを制御する。 この VRAM 2 3 Bには、 ビデオプ 口セッサ 2 2のフレームメモリ 2 2 Cから送出されたビデオデータ及び C PU 2 1によって生成されるイメージデータ力 \ メモリコン卜ローラ 2 3 Aからのタイ ミング制御信号に基づいて記憶される。 この VRAM 2 3 Bに記憶されたビデオ データやイメージデータは、 ワークステーション 2の内部同期に基づいたメモリ コントローラ 2 3 Aからの夕イミング制御信号に基づいて読み出され、 ディスプ レイ 2 Bに表示される。
この場合、 イメージデータによるグラフィック表示が GU Iのためのグラフィ ック表示となる。 因みに、 CPU 2 1から VRAM2 3 Bに送出さるイメージデ ータは、 例えばウィンドウやカーソル、 或いはスクロールバーやデバイスを示す アイコン等のイメージデータである。
かく してこのワークステーション 2においては、 これらのイメージデータゃビ デォデータをディスプレイ 2 Bに表示することにより、 当該ディスプレイ 2 Bに オペレータ操作のための GU Iや素材又は編集結果の画像を表示するようになさ れている。
HDDインターフェイス 2 4は、 ワークステーション 2内部に設けられた口一 カルハ一ドディスク ドライブ 2 4 Aと通信するためのィンターフェイスブロック である。 この HDDインタ一フェイス 2 4とハ一ドディスク ドライブ 2 4 Aとは SCS I (Small Computer System Interface ) の伝送フォーマツ卜に基づいて 通信が行われるようになされている。
ハードディスク ドライブ 2 4 Aには、 このワークステーション 2で起動するァ プリケ一シヨン · ソフトウエアがィンストールされており、 当該アプリケーショ ン ' ソフトウェアを実行する場合には、 このハードディスク ドライブ 2 4 Aから 読み出されて CPU2 1の RAM2 】 Bにアップロードされる。 またこのアプリ ケーシヨン · ソフ トウエアを終了する際には、 RAM2 1 Bに記憶されている編 集オペレーションによって生成された各種情報 (例えば編集素材に関するデータ ベースの情報等) は、 このハードディスク ドライブ 2 4 Aを介してハードデイス クにダウンロードされる。
FDDインターフェイス 2 5は、 ワークステーション 2内部に設けられたフロ ッピーディスク ドライブ 2 5 Aと通信するためのィンターフェイスブロックであ る。 この FDDインターフェイス 2 5とフロッピーディスク ドライブ 2 5 Aとは SC S Iの伝送フォーマツ卜に基づいて通信が行われるようになされている。 ポインティングデバイスインタ一フェイス 2 6は、 ワークステーション 2に接 続されたキーボード 2 C, マウス 2 D及びペン · タブレツト 2 Eからの情報を受 信するインターフェイスブロックである。 ボインティングデバイスインターフエ イス 2 6はキーボード 2 Cに設けられたボタンからの入力情報を受け取り、 受け 取った入力情報をデコードして CPU 2 1に送出する。 同様に、 ポインティング デバイスィンターフェイス 26は、 マウス 2 Dに設けられた 2次元ロータリーェ ンコーダの検出情報と、 マウス 2 Dに設けられた左右のボタンのクリック情報 ( すなわちボタン押下による選択指定情報) とを当該マウス 2 Dから受け取り、 受 け取ったそれらの情報をデコードして C PU 2 1に送出する。 同様に、 ポインテ ィングデバイスィンターフェイス 2 6は、 ペン 'タブレット 2 Eからの 2次元の 位置データを受け取り、 受け取ったその位置データをデコードして CPU 2 1に 送出する。 このようなポインティングデバイスインターフェイス 2 6からの情報 に基づいて、 C P U 2 1は、 ディスプレイ 2 Bに表示される G U Iのうちいずれ のコマンドボタンが指示されたか認識し得ると共に、 キーボード 2 Cより入力さ れた各種データを認識し得、 それらに対応する制御を行うことができる。
外部インターフェイス 2 7は、 ワークステーション 2の外部に接続されたデバ イスコントローラ 3と通信するためのブロックである。 外部ィンターフェイス 2 7は C P U 2 1で生成された再生コマンドゃ記録コマンド等の各種制御コマンド を所定の通信プロトコルのデータに変換するドライバを有しており、 当該ドライ バを介して制御コマンドデータ S 2をデバイスコントローラ 3に送出する。
( 3 ) 編集システムにおける編集の原理
この項では、 編集システム 1における編集の原理について以下に順を追って説 明する。
( 3 - 1 ) 編集用のアプリケーシヨン · ソフトウエアの基本構成
まず始めにこの項では、 ワークステーション 2において用意されている編集用 のアプリケーシヨン · ソフ トウエアの基本構成について説明する。 図 3に示すよ うに、 この編集システム 1においては、 機能毎にモジュール化された編集用のァ プリケーシヨン ' ソフトウエアがワークステーション 2に用意されている。 この モジュール化されたアプリケーション · ソフトウェアは、 大きく分けて、 素材の つなぎ合わせ処理等の編集処理を行う編集モジュール E Mと、 素材の重ね合わせ 処理等の合成処理を行う合成モジュール C Mと、 素材に対する特殊効果処理を行 う特殊効果モジュール S Mと、 これら機能毎にモジュール化された編集モジユー ル E M、 合成モジュール C M及び特殊効果モジュール S Mの起動等を管理する制 御モジュール C N TMとによって構成される。 このような構成を有するアプリケ —シヨン · ソフトウェアは、 ハードディスク ドライブ 2 4 Aから R AM 2 1 Bに アップロードされると、 まず制御モジュール C N T Mが起動し、 その制御モジュ ール C N T Mの管理の下で、 各モジュール E M、 C M及び S Mがそれぞれオペレ —夕からの指示に応じて適宜起動するようになされている。 クリップデータベース CD Bは、 ビデオディスクレコーダ 5及び RAM 2 1 B によって構成され、 素材のビデオデータや編集に関する各種データを記憶してい る。 各モジュール EM、 CM及び SMは、 オペレータより指定された素材をクリ ップデータベース CD Bから読み出し、 上述したスィッチャ 7やディジタルマル チェフエクタ 9等のハードウエアを使用しながら、 その素材に対してオペレータ の指示に応じた編集を行い、 その結果得られる編集された後の素材をクリップデ 一夕ベース CDBに登録する。 また各モジュール EM、 CM及び SMは、 編集に 使用した各種パラメータ等、 編集に関するデータもクリップデータベース CD B に登録する。 なお、 クリップデータベース CDBとしては、 主に素材のビデオデ 一夕をビデオディスクレコーダ 5に記憶し、 編集に関する各種データを RAM 2 1 Bに記憶するようになされている。
(3 - 2) クリップの定義
本発明による編集システム 1では、 各素材はクリップと呼ばれる単位で扱われ る。 この項では、 このクリップについて定義する。 本発明による編集システム 1 では、 ビデオ動画データの 1 シーケンスをクリップビデオデータと定義し、 その クリップビデオデータがどのようにして生成されたものであるか管理するデータ をクリップ管理データと定義し、 さらにこれらのクリップビデオデータとクリツ プ管理データからなるデータをクリップと定義する。 また本発明による編集シス テム 1では、 ソースビデオデータから単に切り出すことにより生成された素材を 素材クリップ (MC) と呼び、 その素材クリップを編集することにより生成され た素材を結果クリップ (F C) と呼ぶ。
本発明による編集システム 1では、 素材クリップや結果クリップからなる複数 のクリップを、 クリップ間の関係に基づいた階層構造によって管理するようにな されている。 この様子を図 4に示す例を参照しながら、 以下に説明する。
図 4に示す例では、 結果クリップ FC— 0 0 8は、 素材クリップ MC— 0 0 1 、 素材クリップ MC— 0 0 2及び素材クリップ MC— 0 0 3の 3つの素材クリッ プを合成することによって生成されたクリップである。 すなわち結果クリップ F C— 0 0 8と、 素材クリップ MC— 0 0 K 素材クリップ MC— 0 0 2及び素材 クリップ MC— 0 0 3との関係は、 上下関係になっている。 このような上下関係 にある場合、 素材クリップ MC— 0 0 1、 素材クリップ MC— 0 0 2及び素材ク リップ MC— 0 0 3は結果クリップ FC— 0 0 8の配下にあることからそれぞれ 下位クリップと呼ばれ、 逆に結果クリップ FC— 0 0 8はこれら下位クリップを 統括して生成されたものであることから上位クリップと呼ばれる。
同様に、 結果クリップ FC— 0 0 9は、 素材クリップ MC— 0 0 4に対して特 殊効果を施すことによって生成されたクリップである。 このため素材クリップ M C- 0 0 4は結果クリップ FC— 0 0 9の下位クリップとなり、 逆に結果クリッ プ FC— 0 0 9は素材クリップ MC— 0 04の上位クリップとなる。
また結果クリップ FC— 0 1 0は、 結果クリップ F C— 0 0 8と結果クリップ FC— 0 0 9とを編集する (この場合、 例えばワイプ等によってつなぎ合わせる ) ことによって生成された結果クリップである。 このため結果クリップ F C— 0 0 8及び結果クリップ F C- 0 0 9はそれぞれ結果クリップ F C— 0 1 0の下位 クリップとなり、 結果クリッブ F C— 0 1 0は結果クリップ F C— 0 0 8及び結 果クリップ FC— 0 09の上位クリップとなる。
このように各クリップ間には上下関係があり、 この編集システム 1では、 クリ ップデータベース CD Bにおいてこのクリップ間の上下関係を基に当該クリップ を階層構造で管理するようになされている。 なお、 何ら編集処理に使用されない 素材クリップは他のクリップと関係し合っていないが、 そのような素材クリップ はリンク先がないものとして管理される。 またここで示した例は、 あくまで一例 であってクリップ間の上下関係としてはその他の組合せも当然存在する。
(3 - 3) 合成処理の概念
続いてこの項では、 合成モジュール C Mで行う合成処理の概念について説明す る。 図 4に示した結果クリップ FC— 0 0 8のビデオイメージは、 素材クリップ MC- 0 0 K 素材クリップ MC— 0 0 2及び素材クリップ MC— 0 0 3のビデ ォイメージを合成処理 (すなわちコンポジット処理) することによって生成され る。 この合成処理の概念を図 5及び図 6に示す。 図 5は、 3つの素材クリップ Μ C- 0 0 1、 MC- 0 0 2及び MC— 0 0 3のビデオイメージを合成する様子を 示しており、 図 6は、 合成処理によって生成される結果クリップ FC— 0 0 8の ビデオイメージを表している。
本発明による編集システム iにお 、ては、 複数のクリップの合成を行う場合、 各クリップを 1つのレイヤ (すなわち層) とみなし、 そのレイヤを重ねることに より合成処理を行うようになされている。 図 5に示す例では、 第 1のレイヤ L 1 として素材クリップ MC— 0 0 3を指定し、 第 2のレイヤ L 2として素材クリッ プ MC— 0 0 2を指定し、 第 3のレイヤ L 3として素材クリップ MC— 0 0 1を 指定している。 各レイヤ L l、 L 2及び L 3に割り当てられた素材クリップを合 成する場合には、 レイヤ L 1を最下層としてその上に順次各レイヤ L 2、 L 3を 重ねて行くことにより行われる。 すなわち第 1のレイヤ L 1として指定された素 材クリップ MC— 0 0 3のビデオイメージ (例えば背景を表すイメージ) の上に 、 第 2のレイヤ L 2として指定された素材クリップ MC— 0 0 2のビデオィメ一 ジ (例えば人物を表すイメージ) を重ね合わせて合成し、 さらにその合成したビ デォイメージの上に第 3のレイヤ L 3として指定された素材クリップ MC— 0 0 1のビデオイメージ (例えばキャラクタを表すイメージ) を重ね合わせて合成す る。 このような合成処理により、 図 6に示すような 3つの素材が重なり合つたよ うなビデオイメージの結果クリップ FC— 0 0 8を生成することができる。 なお、 この図 5に示す例では、 3つのレイヤ L 1〜L 3にそれぞれ割り当てら れた素材クリップ MC— 0 0 3、 MC- 0 0 2及び MC— 0 0 1を合成する例を 示したが、 本発明による編集システム 1では、 最大で 1 0個のレイヤを確保する ことができるようになつており、 第 1のレイヤ L 1から第 1 0のレイヤ L 1 0に それぞれ割り当てられた 1 0個の素材クリップを合成することができるようにな されている。 因みに、 この場合には、 第 1のレイヤ L 1が最下層のレイヤとなり 、 最もレイヤ番号が大きい第 1 0のレイヤ L 1 0が最上層のレイヤとなる。 次に図 7を参照して、 この合成処理についてさらに詳しく説明する。 図 7は、 横軸方向を時間として、 第 1のレイヤ L 1として指定された素材クリップ MC— 0 0 3と、 第 2のレイヤ L 2として指定された素材クリップ MC— 0 0 2と、 第 3のレイヤ L 3として指定された素材クリップ MC— 0 0 1 との合成処理により 結果クリップ FC— 0 0 8が生成される様子を示している。 この図 7に示すよう に、 結果クリップ FC— 0 0 8においては、 各素材クリップの編集開始点 (以下 、 これをイン点と呼ぶ) 及び編集終了点 (以下、 これをァゥ ト点と呼ぶ) や合成 又は画像変換等の各パラメータの変更ボイントとして、 第 1の編集点 E P 1から 第 8の編集点 EP 8が設定されている。
第 1の編集点 E P 1は素材クリップ MC— 0 0 3のイン点 I N 3を示し、 第 2 の編集点 E P 2は素材クリップ MC— 0 0 2のイン点 I N 2を示し、 第 4の編集 点 E P 4は素材クリップ MC— 0 0 1のイン点 I N 1を示している。 また第 6の 編集点 EP 6は素材クリップ MC— 00 2の了ゥ卜点 OUT 2を示し、 第 7の編 集点 E P 7は素材クリップ MC— 0 0 1のァゥ 卜点 OUT 1を示し、 第 8の編集 点 E P 8は素材クリップ MC— 0 03のァゥ 卜点 OUT 3を示している。 なお、 第 3の編集点 EP 3及び第 5の編集点 E P 5は、 各レイヤの合成パラメータを変 更するために設定された編集点である。 これらの編集点 E P 3及び E P 5につい ては、 詳細は後述する。
各クリップは、 図 7に示すように、 各クリップのビデオデータの先頭位置から 始まる独自の内部タイムコ一ドを有している。 例えば第 1のレイヤ L 1として指 定された素材クリップ MC— 0 0 3はそのビデオデータの先頭位置 S 3からスタ 一卜する内部タイムライン t 3を有し、 第 2のレイヤ L 2として指定された素材 クリップ MC— 0 0 2はそのビデオデータの先頭位置 S 2からスター卜する内部 タイムライン t 2を有し、 第 3のレイヤ L 3として指定された素材クリップ MC - 0 0 1はそのビデオデータの先頭位置 S 1からスタートする内部タイムライン t 1を有している。 同じように、 結果クリップ FC— 0 0 8は、 そのビデオデータの先頭位置 S 8 からスタートする内部タイムライン t 8を有しており、 上述した第 1の編集点 E P 1から第 8の編集点 EP 8のタイムコ一ドはそれぞれ結果クリップ FC— 0 0 8のタイムライン t 8上のタイムコードによって定義付けされている。
素材クリップ MC— 0 0 3のィン点 I N 3及びァゥ ト点 OUT 3は、 それぞれ 素材クリップ MC— 0 0 3のタイムライン t 3によって定義され、 これらのタイ 厶コ一ドはそれぞれ 「00: 00: 31: 02」 及び 「00: 05: 18: 02」 となっている。 従ってこのイン点 I N 3のタイムコードが結果クリップ FC— 0 0 8における第 1の編集点 E P 1のタイムコード 「00: 00: 00: 00」 に対応し、 アウ ト点 OUT 3のタイムコードが結果クリップ FC— 0 0 8における第 8の編集点 EP 8のタ ィムコード 「00: 04: 47: 00」 に対応している。
同じように、 素材クリップ MC— 0 0 2のィン点 I N 2及びァゥト点 OUT 2 は、 それぞれ素材クリップ MC— 0 0 2のタイムライン t 2によって定義され、 これらのタイムコードはそれぞれ 「00: 00: 51: 00」 及び 「00: 03: 04: 20」 と なっている。 従ってこのィン点 I N 2のタイムコ一ドが結果クリップ F C— 0 0 8における第 2の編集点 EP 2のタイムコード 「00 : 00 : 42 : 20」 に対応し、 Ύ ゥト点 OUT 2のタイムコードが結果クリップ FC— 0 0 8における第 6の編集 点 EP 6のタイムコード 「00 : 02 : 59 : 20」 に対応している。
同じように、 素材クリップ MC— 0 0 1のイン点 I N 1及びァゥ卜点 OUT 1 は、 それぞれ素材クリップ MC— 0 0 1のタイムライン t 1によって定義され、 これらのタイムコードはそれぞれ 「00: 01: 40: 03」 及び 「00: 02: 45: 48」 と なっている。 従ってこのィン点 I N 1のタイムコードが結果クリップ F C— 0 0 8における第 4の編集点 E P 4のタイムコ一ド 「00: 01: 56: 00」 に対応し、 ァ ゥト点 OUT 1のタイムコ一ドが結果クリップ FC— 0 0 8における第 7の編集 点 EP 7のタイムコード 「00 : 03 : 19 : 45」 に対応している。
依って結果クリッブ FC— 0 0 8を再生すると、 第 1の編集点 E P 1から第 2 の編集点 EP 2までの期間では、 素材クリップ MC— 0 0 3のビデオイメージが 出力され、 第 2の編集点 E P 2から第 4の編集点 E P 4までの期間では、 素材ク リップ M C— 0 0 3の上に素材クリップ M C— 0 0 2が合成されたビデオィメ一 ジが出力され、 第 4の編集点 E P 4から第 6の編集点 E P 6までの期間では、 素 材クリップ M C— 0 0 3の上に素材クリップ M C— 0 0 2及び素材クリップ M C - 0 0 1が合成されたビデオイメージが出力され、 第 6の編集点 E P 6から第 7 の編集点 E P 7までの期間では、 素材クリップ M C— 0 0 3の上に素材クリップ M C - 0 0 1が合成されたビデオイメージが出力され、 第 7の編集点 E P 7から 第 8の編集点 E P 8までの期間では、 素材クリップ M C— 0 0 3のビデオィメー ジが出力されることになる。
なお、 ここで説明した合成処理はあくまで一例であり、 合成処理されるクリツ プの組合せとしては当然その他の組合せも存在する。
( 3 - 4 ) 特殊効果処理の概念
続いてこの項では、 特殊効果モジュール S Mで行う特殊効果処理の概念につい て説明する。 図 4に示した結果クリップ F C— 0 0 9は素材クリップ M C— 0 0 4に特殊効果処理を施すことにより生成されたクリップである。 ここでは説明を 分かりやすくするため、 素材クリップ M C— 0 0 4に対して、 モザイク効果、 ク 口ップ効果、 3次元画像変換及びトレイル効果の 4つの特殊効果処理を施すもの として、 特殊効果処理の概念を図 8を用いて説明する。
図 8に示すように、 この例では、 素材クリップ M C— 0 0 4に対しては、 第 1 の特殊効果 E 1としてモザイク効果が指定され、 第 2の特殊効果 E 2としてクロ ップ効果が指定され、 第 3の特殊効果 E 3として 3次元画像変換が指定され、 第 4の特殊効果 E 4としてトレイル効果が指定されている。
この場合、 モザイク効果とは、 ビデオイメージをタイル状の小片に分けてモザ イク画のように見せる効果のことである。 本発明による編集システム〗では、 こ のモザイク効果に関するパラメータを任意の値に設定できるようになされており 、 これによりこのタイル状の小片の大きさ及びァスぺク ト比を任意の値に設定す ることができるようになつている。
クロップ効果とは、 画枠を小さくすることによってビデオイメージの一部を切 り出す効果のことであり、 ビデオイメ一ジの一部を切り出すことから切り出し効 果とも呼ばれている。 本発明による編集システム 1では、 このクロップ効果に関 するパラメータを任意の値に設定できるようになつており、 これにより画枠の右 辺及び左辺位置、 並びに上辺及び下辺位置、 さらにはエッジのぼかし具合を任意 に設定することができるようになつている。
3次元画像変換 (3- Dimens i onal Transform ) とは、 3次元空間上で画像を仮 想的に変換する効果のことである。 例えば画像の水平方向を X軸、 垂直方向を Y 軸、 奥行き方向を Z軸として定義したとすれば、 当該 X軸、 Y軸又は Z軸を回転 軸として画像を回転させたり、 或いは X軸、 Y軸又は Z軸方向に画像を移動させ たりする画像変換のことである。 本発明による編集システム 1では、 この 3次元 画像変換に関するパラメータを任意の値に設定できるようになつており、 これに より任意の画像変換を行うことができるようになつている。
トレイル効果とは、 画像を空間的に移動させる際に、 所定間隔で画像を静止画 としてフリ一ズし、 そのフリーズした画像を残像イメージとして残す効果のこと であり、 一般にはリカーシブ効果とも呼ばれている。 本発明による編集システム 1では、 このトレイル効果に関するパラメータを任意の値に設定することができ るようになっており、 これにより画像をフリーズする間隔及び残像として残す期 間を任意に設定することができるようになっている。
またこの特殊効果処理の場合にも、 この図 8に示すように、 結果クリップ F C - 0 0 9においては、 素材クリップの編集開始点 (ィン点) 及び編集終了点 (ァ ゥト点) や、 画像変換のパラメータ変更ポイントとして、 第 1の編集点 E P 1か ら第 7の編集点 E P 7が設定されている。
第 1の編集点 E P 1は素材クリップ M C— 0 0 4のイン点 I N 4、 モザイク効 果の開始点及びク口ップ効果の開始点を示し、 第 2の編集点 E P 2は 3次元画像 変換の開始点を示し、 第 4の編集点 E P 4はトレイル効果の開始点を示し、 第 7 の編集点 E P 7は素材クリップ MC— 0 0 4のァゥ ト点 OUT 4、 モザィク効果 の終了点、 クロップ効果の終了点、 3次元画像変換の終了点及び卜レイル効果の 終了点を示している。 なお、 第 3の編集点 E P 3、 第 5の編集点 EP 5及び第 6 の編集点 EP 6は、 3次元画像変換の変換パラメータを変更するために設定され た編集点である。 これらの編集点 EP 3、 E P 5及び E P 6については、 詳細は 後述する。
特殊効果の場合も合成処理の場合と同様に、 素材クリップ MC— 0 0 4及び結 果クリップ FC— 0 0 9は、 それぞれ各クリップのビデオデータの先頭位置から スター卜する独自の内部タイムコードによって表現される内部タイムライン t 4 、 t 9を有しており、 上述した第 1の編集点 E P 1から第 7の編集点 E P 7のタ ィムコ一ドは、 結果クリップ FC— 0 0 9のタイムライン t 9上のタイムコード によつて定義付けされている。
素材クリップ MC— 0 0 4のイン点 I N 4及びァゥ 卜点 OUT 4は、 それぞれ 素材クリップ MC— 0 0 4のタイムライン t 4によって定義され、 これらのタイ ムコ一ドはそれぞれ 「00: 10: 12: 00」 及び 「00: 12: 18: 00」 となっている。 従ってこのィン点 I N 4のタイムコードが結果クリップ FC— 0 0 9における第 1の編集点 E P 1のタイムコード 「00: 00: 00: 00」 に対応し、 ァゥ卜点 OUT 4のタイムコードが結果クリップ FC— 0 0 9における第 7の編集点 EP 7の夕 ィ厶コード 「00 : 02 : 06 : 00」 に対応している。
また第 1の特殊効果 E 1 として指定されたモザイク効果の開始ポイントは、 図 8に示すように、 結果クリップ F C— 0 0 9におけるタイムコードが 「00: 00: 00: 00 J となる第 1の編集点 E P 1になっており、 モザィク効果の終了ボイン卜 は、 結果クリップ FC— 0 0 9におけるタイムコ一ド力く 「00: 02: 06: 00」 とな る第 7の編集点 E P 7になっている。
同じように、 第 2の特殊効果 E 2として指定されたクロップ効果の開始ボイン トは、 図 8に示すように、 結果クリップ FC— 0 0 9におけるタイムコードが 「 「00: 00: 00: 00」 となる第 1の編集点 E P 1になっており、 クロップ効果の終 了ボイントは、 結果クリップ F C— 0 0 9におけるタイムコ一ドが Γ00: 02: 06
: 00」 となる第 7の編集点 E P 7になっている。
また第 3の特殊効果 E 3として指定された 3次元画像変換の開始ボイン卜は、 結果クリップ F C— 0 0 9におけるタイムコ一ドが 「00: 00: 12: 03」 となる第
2の編集点 E P 2になっており、 3次元画像変換の終了ポイントは、 結果クリツ プ F C— 0 0 9におけるタイムコ一ドが 「00: 02: 06: 00」 となる第 7の編集点 E P 7になっている。
また第 4の特殊効果 E 4として指定された卜レイル効果の開始ボイントは、 結 果クリップ F C— 0 0 9におけるタイムコ一ドが 「00: 01 : 02: 50」 となる第 4 の編集点 E P 4になっており、 トレイル効果の終了ポイントは、 結果クリップ F C - 0 0 9におけるタイムコードが 「00: 02: 06: 00」 となる第 7の編集点 E P 7になっている。
依って結果クリップ F C— 0 0 9を再生すると、 第 1の編集点 E P 1から第 2 の編集点 E P 2までの期間では、 素材クリップ M C— 0 0 4のビデオイメージに モザイク効果とクロップ効果が施されたビデオイメージが出力され、 第 2の編集 点 E P 2から第 4の編集点 E P 4までの期間では、 素材クリップ M C - 0 0 4の ビデオイメージにモザィク効果、 クロップ効果及び 3次元画像変換が施されたビ デォイメージが出力され、 第 4の編集点 E P 4力、ら第 7の編集点 E P 7までの期 間では、 素材クリップ M C— 0 0 4のビデオイメージにモザイク効果、 クロップ 効果、 3次元画像変換及びトレイル効果が施されたビデオイメージが出力される ことになる。
( 3 - 5 ) 編集処理の概念
続いてこの項では、 編集モジュール E Mで行う編集処理の概念について説明す る。 図 4に示した結果クリップ F C— 0 1 0は、 結果クリップ F C— 0 0 8及び 結果クリッブ F C— 0 0 9を編集処理することによって生成されたクリップであ る。 ここでは説明を分かりやすくするため、 ワイプ効果によって編集処理を行う ものとして、 編集処理の概念を図 9を用いて説明する。
図 9に示すように、 この例では、 第 1のレイヤ L 1 として結果クリップ F C— 0 0 8が指定されていると共に、 第 2のレイヤ L として結果クリップ F C— 0 0 9が指定されている。 また第 1のレイヤ L 1 として指定された結果クリップ F C - 0 0 8力、ら、 第 2のレイヤ L 2として指定された結果クリップ F C— 0 0 9 に切り換える際の切換処理としてワイプ効果が指定されている。 なお、 この編集 処理においては、 合成処理のようにビデオデータを重ね合わせるのではなく、 ビ デォデータをつなぎ合わせるので、 時間的に先になる方が第 1のレイヤ L 1とし て指定され、 時間的に後になる方が第 2のレイヤとして指定される。
また切換処理として指定されているワイプ効果とは、 現在表示されている古い 画像を新し 、画像でぬぐ 、消すようにして、 画面に表示される画像を切り換える トランジシヨンエフェク 卜のことである。 因みに、 この図 9に示す例で指定され ているワイプ効果は、 結果クリップ F C— 0 0 8のイメージから結果クリップ F C - 0 0 9のイメージに切り換わる際、 画面の左側から右側に向かって切り換わ る種類のワイプ効果である。
またこの編集処理の場合にも、 この図 9に示すように、 結果クリップ F C— 0 1 0においては、 各クリップの編集開始点 (イン点) 及び編集終了点 (ァゥ卜点 ) や、 編集処理のパラメ一夕変更ポイントとして、 第 1の編集点 E P 1から第 5 の編集点 E P 5が設定されている。
第 Iの編集点 E P 1は結果クリップ F C— 0 0 8のイン点 I N 8を示し、 第 2 の編集点 E P 2はワイプ効果の開始点及び結果クリップ F C— 0 0 9のイン点 I N 9を示し、 第 4の編集点 E P 4はワイプ効果の終了点及び結果クリップ F C— 0 0 8のァゥト点 O U T 8を示し、 第 5の編集点 E P 5は結果クリップ F C— 0 0 9のァゥ ト点 O U T 9を示している。 なお、 第 3の編集点 E P 3は、 ワイプ効 果のエフェク トバラメータを変更するために設定された編集点である。 この編集 点 E P 3については、 詳細は後述する。
先に説明した合成処理や特殊効果処理と同様に、 これらの結果クリップ F C - 0 0 8、 FC- 0 0 9及び FC— 0 1 0は、 各クリップのビデオデータの先頭位 置からスター卜する独自の内部タイムコードによって表現される内部タイムライ ン t 8、 t 9及び t 1 0を有しており、 上述した第 1の編集点 EP 1から第 5の 編集点 EP 5は、 結果クリップ FC— O 1 0のタイムライン t 1 0上のタイムコ 一ドによって定義付けされている。
結果クリップ FC— 0 0 8のイン点 I N 8及びァゥ卜点 OUT 8は、 それぞれ 結果クリップ FC— 0 0 8のタイムライン t 8によって定義され、 これらのタイ ムコ一ドはそれぞれ 「00: 01: 01: 20」 及び 「00: 04: 43: 00」 となっている。 従ってこのイン点 I N 8のタイムコード力く結果クリップ F C— 0 1 0における第 1の編集点 E P 1のタイムコ一ド 「00: 00: 00: 00」 に対応し、 ァゥト点 OUT 8のタイムコ一ドが結果クリップ F C— 0 1 0における第 4の編集点 E P 4の夕 ィムコード 「00 : 03 : 42 : 00」 に対応している。
同じように、 結果クリップ F C— 00 9のィン点 I N 9及びァゥ卜点 OUT 9 は、 それぞれ結果クリップ FC— 0 0 9のタイムライン t 9によって定義され、 これらのタイムコ一ドはそれぞれ 「00: 00: 00: 50J 及び 「00: 02: 06: 00」 と なっている。 従ってこのイン点 I N 9のタイムコードが結果クリップ FC— O 1 0における第 2の編集点 E P 2のタイムコード 「00 : 03 : 39 : 00」 に対応し、 ァ ゥト点 OUT 9のタイムコードが結果クリップ FC— 0 1 0における第 5の編集 点 E P 5のタイムコード 「00: 05: 44: 10」 に対応している。
また結果クリップ FC— 0 0 8と結果クリップ F C— 0 0 9の画像を切り換え るために設定されたワイプ効果の開始点は、 結果クリップ FC— 0 1 0における 第 2の編集点 EP 2に設定され、 タイムコードとして 「00 : 03 : 39 : 00」 に設定 されている。 またワイプ効果の終了点は、 結果クリップ FC— 0 1 0における第 4の編集点 EP 4に設定され、 タイムコードとしては 「00 : 03 : 42 : 00」 に設定 されている。
依って結果クリッブ FC— 0 1 0を再生すると、 第 1の編集点 E P 1から第 2 の編集点 EP 2までの期間では、 結果クリッブ FC— 0 0 8のビデオイメージが 出力され、 第 2の編集点 EP 2から第 4の編集点 EP 4までの期間では、 ワイプ 効果によって結果クリップ FC— 008のビデオイメージから結果クリップ F C —009のビデオイメージに画面の左側から右側に向かって順に切り換わるよう なイメージが出力され、 第 4の編集点 EP 4から第 5の編集点 E P 5までの期間 では、 結果クリップ FC— 009のイメージが出力されることになる。
(4) GU Iとして表示されるグラフィック表示
続いてこの項では、 各モジュールを起動したときにワークステーション 2のデ イスプレイ 2 Bに表示される GU Iの画面について説明する。
(4 - 1) 合成モジュールを起動したときの GU I
まず始めにこの項では、 合成モジュール CMを起動したときの GU Iについて 説明する。 この編集システム 1では、 合成モジュール CMが起動されると、 ヮー クステーション 2のディスプレイ 2 Bには、 合成モジュール CMの GU Iとして 図 1 0に示すようなグラフィック表示が表示される。
この図 1 0に示すように、 合成モジュール CMの GU Iとしては、 大きく分け てメニューウィンドウ 30と、 クリップツリーウィンドウ 3 1と、 キ一ウィンド ゥ 32と、 ライブラリーウィンドウ 3 3と、 タイムラインウィンドウ 34と、 パ ラメータ設定ウインドウ 3 5と、 プレビユウ画面表示ウインドウ 3 6と、 デバイ スコントールウインドウ 3 7と、 編集内容表示ウイン ドウ 38と、 制御コマンド ウインドウ 39とによって構成されている。
メニューウィンドウ 30は、 この編集システム 1において用意されているトツ プメニューを表示するためのエリアである。 なお、 このメニューウィンドウ 3 0 は、 制御モジュール CNTMが立ち上がった時点から表示されるものである。 本発明による編集システム 1においては、 トップメニュー項目として、 例えば ファイル読出メニューや初期設定メニュー、 或いはモジュール起動メニュー等が 用意されている。 ファイル読出メニューをマウス 2 Dのボタンを押して指定する と (以下、 このマウス 2 Dを使用した指定動作をクリックと呼ぶ) 、 既に登録さ れている結果クリップのリス卜が表示され、 その中から所望の結果クリップをク リック操作によって選択すると、 その選択された結果クリップの編集内容が後述 するタイムラインウィンドウ 3 4に読み出される。 従って既に登録されている結 果クリップを修正する場合には、 このファイル読出メニューを使用してその結果 クリップを読み出せば、 その結果クリップを修正することができる。
また初期設定メニューをクリック操作によつて選択すると、 各種設定項目が読 み出され、 その中から所望の項目を選択すると、 その選択された項目に対する設 定画面が表示される。 従って所望の項目に対して初期設定する場合には、 初期設 定メニューによってその項目の設定画面を読み出せば、 その項目について所望の 値を設定することができる。
またモジュール起動メニューをクリック操作によって選択すると、 合成モジュ ール C M、 特殊効果モジュール S M又は編集モジュール E Mを起動するためのコ マンドが表示され、 その中から所望のコマンドを選択すると、 選択されたモジュ —ルが起動され、 そのモジュールに対応する G U Iが画面上に表示される。 実際 上、 この図 1 0に示す合成モジュール C Mの G U I も、 このモジュール起動メニ ユーによって合成モジュール C Mを起動することにより得られた画面である。 クリップツリーウィンドウ 3 1には、 クリップデータベースに登録されている 各クリップの上下関係が視覚的に分かるようなグラフィック表示が表示されるェ リァである。 各クリップの上下関係が図 4に示したような関係にある場合には、 その上下関係に応じて、 図 1 0に示すようなクリップツリーが表示される。 すな わちこの場合には、 最上位のクリップは結果クリップ F C— 0 1 0であるので、 結果クリップ F C— 0 1 0のクリップ名 「F C— 0 1 0」 がクリップッリーウイ ンドウ 3 1の一番上に表示される。 この結果クリップ F C— 0 1 0の下位にリン クする下位クリップとしては、 結果クリップ F C— 0 0 8と結果クリップ F C— 0 0 9がある。 これら下位クリップのクリップ名 「F C— 0 0 8」 及び 「F C— 0 0 9」 はそれぞれ上位クリップである結果クリップ F C— 0 1 0よりも下方で あってかつ一段右側にシフ 卜した位置に並列的に表示される。 このとき結果クリ ップ F C— 0 1 0と結果クリップ F C— 0 0 8及び F C— 0 0 9を結ぶ線が表示 され、 これによつてこれらの結果クリップ F C— 0 1 0、 F C— 0 0 8及び F C 一 0 0 9が上下関係にあることが示される。
また結果クリップ FC— 0 0 8の下位にリンクする下位クリップとしては、 素 材クリップ MC— 0 0 1と素材クリップ MC— 0 0 2 と素材クリップ MC— 0 0 3とがある。 これら下位クリップのクリップ名 「MC— 0 0 1」 、 「MC— 0 0 2」 及び 「MC— 0 0 3 j はそれぞれ上位クリップである結果クリップ F C— 0 0 8の下方であって一段右側にシフトした位置に並列的に表示される。 このとき も結果クリップ F C— 0 0 8と素材クリップ MC— 0 0 1、 MC- 0 0 2及び M C- 0 0 3とを結ぶ線が表示され、 これによつてこれらのクリップ FC— 0 0 8 、 MC— 0 0 1、 MC— 0 0 2及び MC— 0 0 3が上下関係にあることが示され 同様に、 結果クリップ FC— 0 0 9の下位にリンクする下位クリップとしては 素材クリップ MC— 0 0 4がある。 この下位クリップのクリップ名 「MC— 0 0 4」 は上位クリップである結果クリップ FC— 0 0 9の下方であってかつ一段右 側にシフトした位置に表示される。 このときも結果クリップ F C— 0 0 9 と素材 クリップ MC— 0 0 4を結ぶ線が表示され、 これによつてこれらのクリップ F C 一 0 0 9及び MC— 0 0 4が上下関係にあることが示される。
このようにしてクリップツリーウィンドウ 3 1においては、 各クリップのクリ ップ名をッリ一状に表示するようにしたことにより、 クリップデータベースに登 録されているクリップ間の関係が視覚的に一目で分かるようになされている。 なお、 クリップ名を囲む枠が太線で表示されているクリップは、 現在、 タイム ラインウインドウ 3 4において表示され、 編集対象となっているクリップである 。 またこのクリップツリーウィンドウ 3 1の下辺位置には左右方向のスクロール ボタン 3 1 Aが表示されており、 このスクロールボタン 3 1 Aをマウス 2 Dを使 用して操作することにより、 表示されるクリップッリ一を左右方向にスクロール し得るようになされている。 同様に、 クリップツリーウィンドウ 3 1の右辺位置には上下方向のスクロール ボタン 3 1 Bが表示されており、 このスクロールボタン 3 1 Bを操作することに より、 表示されるクリップツリーを上下方向にスクロールし得るようになされて いる。
キーウィンドウ 3 2は、 編集対象のクリップに対してキー処理を指定するため のキー選択ボタンが表示されるエリアであり、 このキー選択ボタンの中の所望ボ タンをクリックすることにより編集対象のクリップに対して所望のキー処理を指 定することができる。 この場合、 キ一選択ボタンとしては、 図 1 0に示すように 、 ノレミナンスキーボタン、 リニアキーボタン、 クリーンキーボタン、 パターンキ 一ボタン、 エクスターナルキーボタン等が用意されている。
因みに、 キ一処理とは、 ビデオイメージからキー信号に基づくエリアをくり抜 き、 そこに別の画像をはめ込む処理のことである。 またルミナンスキーとは、 キ —信号に含まれる輝度信号に基づいてくり抜き処理を行うキー処理であり、 リニ アキ一とは、 ルミナンスキーの一種で、 ルミナンスキーに比してゲインの可変幅 が狭くなつたキー処理であり、 クリーンキーとは、 キー処理においてはめ込む画 像をキー信号でくり抜かずにはめ込む処理である。 またパターンキーとは、 ワイ プパターンに基づいて切り抜き処理を行うキー処理であり、 エクスターナルキ一 とは、 外部より供給されるキー信号に基づいてキ一処理を行うことである。 このキーウィンドウ 3 2においても、 当該キーウィンドウ 3 2の下辺位置には 左右方向のスクロールボタン 3 2 Aが表示されており、 このスクロールボタン 3 2 Aを操作することにより、 表示されるキー選択ボタンを左右方向にスクロール し得るようになされている。 同様に、 キーウィンドウ 3 2の右辺位置には上下方 向のスクロールボタン 3 2 Bが表示されており、 このスクロールボタン 3 2 Bを 操作することにより、 表示されるキー選択ボタンを上下方向にスクロールし得る ようになされている。
ライブラリ一ウインドウ 3 3は、 クリップデータベースに登録されている素材 クリップ又は結果クリップをリスト表示するためのエリアである。 このライブラ リーウィンドウ 3 3に表示されるクリップの中から所望のクリップを選択すれば 、 その選択されたクリップを編集対象として指定することができる。 なお、 この ライブラリ一ウィンドウ 3 3の詳細については、 後述する。
タイムラインウィンドウ 3 4は編集対象のクリップを時間軸上に並べて編集内 容を指定するためのエリアである。 合成モジュール C Mで表示されるタイムライ ンウィンドウ 3 4としては、 当然合成処理に関するものが表示される。 このタイ ムラインウィンドウ 3 4は、 大きく分けて上から順にタイムコード表示エリァ ( Time Code ) と、 編集点表示エリア (Ed i t Poi nt) と、 プレビユウ範囲表示エリ ァ (Prev i ew ) と、 クリップ指定エリア (L 1〜L 1 0 ) とに分かれている。 タイムコード表示エリアは、 編集点におけるタイムコードが表示されるエリア である。 なお、 このタイムコードは、 このタイムラインウィンドウ 3 4において 指定された編集内容に基づいて生成される結果クリップのタイムライン上におけ るタイムコ一ドである。
編集点表示エリアは、 編集点として設定されているボイントを三角マークによ つて指し示すエリアである。 例えば図 4及び図 7に示したような合成処理が指定 されている場合には、 その編集点 E P 〜 E P 8が三角マークを使用して指し示 される。
プレビユウ範囲表示エリアには、 後述するプレビユウボタンゃビユウボタンを 操作したときにプレビユウ画面表示ウィンドウ 3 6に表示されるビデオデータの 範囲を示すエリアである。 この例の場合、 編集点 E P 1から編集点 E P 8まで ( すなわち結果クリップ F C— 0 0 8全体) が表示範囲として設定されているので 、 その区間を示すバーが表示される。
クリップ指定ェリァは、 合成処理を行う編集対象のクリップを各レイヤに対し て指定するためのエリアである。 この編集システム 1においては、 レイヤ L 1か らレイヤ L 1 0までの 1 0個のレイヤが用意されており、 その 1つ 1つに合成処 理の素材となるクリップを指定することができる。 なお、 このクリップ指定エリ ァとしては表示範囲が限られており (図に示すようにレイヤ 5つ分程度) 、 一度 に全てのレイヤ L I〜; L I 0を表示することができない。 しかしながらこのクリ ップ指定エリアの右辺に表示されているスクロールボタン 3 Aを操作すること により、 クリップ指定エリアを上下方向にスクロールさせることができるので、 これによつて所望のレイヤを表示させることができるようになつている。
1 0個あるレイヤ L 1〜L 1 0のうちレイヤ L 1は合成処理時にベース (最下 層) 画像となるクリップを指定するためのレイヤであり、 レイヤ L 2からレイヤ L 1 0まではそのべ一ス画像に対して重ねて行くクリップを指定するためのレイ ャである。 なお、 レイヤ番号が大きいものほど上層のレイヤとなり、 ここではレ ィャ L 1 0が最上層のレイヤとなる。
各レイヤ L 1〜L 1 0はそれぞれ合成処理対象のクリップを指定するためのビ デォエリア (Video ) と、 その指定されたクリップに対して施すキ一処理を指定 するためのキーエリア (Key ) に分かれている。 この場合、 ビデオエリアにおい てクリップを示す長方形状のグラフィックイメージ (以下、 これをセルと呼ぶ) を置くことにより、 そのレイヤに対してそのクリップが設定される。 同様に、 キ 一エリアにキー処理を示すセルを置くことにより、 そのレイヤに指定されたクリ ップに対するキー処理が設定される。
ここでこの図 1 0に示すように、 レイヤ L 1に対して素材クリップ M C— 0 0 3を設定する場合には、 まずクリップツリーウィンドウ 3 1において素材クリツ プ M C— 0 0 3をクリックする力、、 もしくはライブラリーウィンドウ 3 3におい て素材クリップ M C— 0 0 3をクリックすることにより、 素材クリップ M C— 0 0 3を選択する。 このような処理を行うと、 素材クリップ M C— 0 0 3のセルが 表示されるので、 これをレイヤ L 1のビデオエリアに移動して所望位置に置けば 、 レイヤ L 1に対して素材クリップ M C— 0 0 3が設定される。
同様に、 レイヤ L 1に対してエクスターナルキーを設定する場合には、 まずキ 一ウィンドウ 3 2においてエクスターナルキーボタンをクリックすることにより 、 エクスターナルキーを選択する。 このような処理を行うと、 エクスターナルキ 一を示すセルが表示されるので、 これをレイヤ L 1のキーエリアにおけば、 レイ ャ L 1に対してエクスターナルキーが設定される。 因みに、 レイヤ L 2〜L 1 0 に対してクリップゃキ一処理を設定するときの操作も上述したレイヤ L 1のとき の操作と同じである。
なお、 クリップを示すセルの長さは、 そのクリップのデュレーシヨン (クリツ プの始まりから終わりまでの時間) に対応した長さになっている。 またキ一処理 を示すセルは、 ビデオエリァに置かれたクリップと対になるものなので、 ビデオ エリアに置かれたクリップと同じ長さになる。 また各セルの中には、 クリップ名 又はキー処理名を示す文字が表示されるようになされており、 これによりどのク リップ又はキー処理が設定されたー目で分かるようになっている。
3
2
また既にクリップ指定エリアに置かれて表示されている結果クリップをダブル クリックして選択すると、 その結果クリップを作成したモジュール (すなわち合 成モジュール C M、 特殊効果モジュール S M又は編集モジュール E M) が起動さ れ、 その結果クリップに対して施されている編集内容が対応するモジュールの G U I上のタイムラインウィンドウに表示される。
パラメータ設定ウィンドウ 3 5は、 編集に係わる各種パラメ一夕を設定するェ リァである。 合成モジュール C Mを起動したときに表示されるパラメ一タ設定ゥ インドウ 3 5としては、 当然合成処理に関するものが表示され、 図 1 0に示すよ うに、 合成処理時のゲインを設定するためのグラフィック表示が表示される。 この場合、 合成処理時のゲインとは、 ビデオデータを重ね合わせるときの合成 比率である。 すなわちゲインが 100パーセントであれば下層のビデオデータが完 全に見えないように上層のビデオデータを重ね、 例えばゲインが 50パ一セントで あれば下層のビデオデータがほぼ半分位の割合で透けて見えるように上層のビデ ォデータを重ね、 ゲインが 0パーセン卜であれば下層のビデオデータが完全に透 けて見え、 上層のビデオデータが見えないように重ね合わせることである。
なお、 このパラメータ設定ウィンドウ 3 5と上述したタイムラインウインドウ 3 4とは、 横軸 (すなわち時間軸) がー致しており、 タイムラインウィンドウ 3 4で指定した合成処理内容を見ながらパラメータの変更ボイントを決めることが できるようになされている。 因みに、 この横軸方向、 すなわち左右方向に関して は、 パラメータ設定ウインドウ 3 5の下辺位置にあるスクロールボタン 3 5 Aを 操作することにより、 このパラメータ設定ウインドウ 3 5内のグラフィックィメ —ジを左右方向にスクロールさせることができる。 このときタイムラインウィン ドウ 3 4とパラメ一タ設定ウインドウ 3 5は横軸が対応していることから、 当該 タイムラインウィンドウ 3 4内のグラフィックイメージとパラメータ設定ウイン ドウ 3 5内のグラフィックイメージは連動して同時に左右方向にスクロールされ る。 なお、 上下方向に関しては、 パラメータ設定ウィンドウ 3 5の右辺位置にあ るスクロールボタン 3 5 Bを操作することにより、 当該パラメータ設定ウィンド ゥ 3 5内のグラフィックイメージを上下方向にスクロールさせることができる。 ここで各レイヤに指定されたクリップのゲインを設定する場合には、 まずパラ メータ設定ウィンドウ 3 5の左隅に表示されるレイヤ番号の中から所望のレイヤ 番号をクリックしてこれからパラメータ設定するレイヤを指定する。 続いてタイ ムラインウィンドウ 3 4で指定した合成処理内容を見ながらパラメータを変更す るポイントを決めると共に、 設定するゲイン値を決め、 縦軸がゲイン値で横軸が 時間軸からなるパラメータ設定ウィンドウ 3 5においてその決めたボイン卜及び 値に対応する位置をクリックする。 これによりそのクリックした位置に対応する ゲイン値及びゲイン変更ボイントがクリップデータベースに自動的に登録される o
例えばこの図 1 0に示すように、 レイヤ L 1に指定された素材クリップ M C— 0 0 3のゲインを 100パーセントに設定する場合には、 素材クリップ M C— 0 0 3のィン点及びァゥト点の位置でゲインが 100パ一セン卜の位置をクリックすれ ば、 素材クリップ M C— 0 0 3のイン点からァゥト点までが全てゲインが 100パ —セントに設定される。 なお、 この編集システム 1においては、 パラメータ設定 ポイント間は、 設定値が連続的になるように補間処理され、 その補間された値が 自動的に設定されるので、 このように 2つのパラメータ設定ボイン卜において同 じ値を設定すれば、 その間が全てその値に設定される。
またレイヤ L 2に設定された素材クリップ M C— 0 0 2に対して、 ィン点 (編 集点 E P 2 ) のところでゲインを 59パ一セン卜に設定し、 レイヤ L 3の素材クリ ップ M C— 0 0 3が重ねられるボイントのすこし前の位置 (編集点 E P 3 ) でゲ ィンを 100 パーセン卜に設定し、 アウ ト点 (編集点 E P 6 ) のところでゲインを 0パ一セン卜に設定する場合には、 パラメータ設定ウィンドウ 3 5において対応 するポイントをそれぞれクリックすれば良い。 このようにすれば、 設定されたゲ イン値がそれぞれ自動的にクリップデータベースに登録される。 なお、 編集点 E P 2から編集点 E P 3までの間、 及び編集点 E P 3から編集点 E P 6までの間は 、 各編集点で設定された値に基づいてゲイン値が直線的に連続するように補間処 理され、 その補間された値が自動的に設定される。
同様に、 レイヤ L 3に設定された素材クリップ M C— 0 0 3に対して、 イン点 (編集点 E P 4 ) のところでゲインを 100 パーセントに設定し、 素材のほぼ中心 位置 (編集点 E P 5 ) でゲインを 67パーセントに設定し、 アウト点 (編集点 E P 7 ) のところでゲインを 51パーセントに設定する場合には、 パラメ一夕設定ウイ ンドウ 3 5において対応するポイントをそれぞれクリックすれば良い。 このよう にすれば、 設定されたゲイン値がそれぞれ自動的にクリップデータベースに登録 される。 なお、 この場合も、 編集点 E P 4から編集点 E P 5までの間、 及び編集 点 E P 5から編集点 E P 7までの間は、 各編集点で設定された値に基づいてゲイ ン値が直線的に連続するように補間処理され、 その値が自動的に設定される。 かく してこのようにゲイン値を設定すると、 各タイミングで当該ゲイン値が順 次変化して行くことにより、 ベースとなる素材クリップ M C— 0 0 3のビデオデ 一夕の上に素材クリップ M C— 0 0 2のビデオデータが徐々に見えはじめた後、 さらにそれらのビデオデータの上に素材クリップ M C— 0 0 1のビデオデータが 見え、 その後、 素材クリップ M C— 0 0 2及び M C— 0 0 1のビデオデータが徐 々に薄らいで行くようなイメージの画像が得られる。
なお、 パラメータ設定ウィンドウ 3 5においては、 図 1 0に示すように、 設定 したパラメ一夕の値を編集点と対応させて、 横軸を時間、 縦軸をゲイン値とした グラフ状に表示するようになされており、 これによりオペレータはその表示を見 て、 どのレイヤに対してどのようなパラメータをどのタイミングで設定したかを 視覚的に一目で把握することができる。
プレビユウ画面表示ウィンドウ 3 6は、 後述するプレビユウボタン、 ビユウボ タン、 オールブレビユウボタン又はォ一ルビユウボタンを操作したときに、 素材 クリップ又は結果クリップのビデオデータが表示されるエリアである。 このよう な表示ェリァを設けたことにより、 編集作業をしながら素材クリップ又は編集の 結果生成された結果グリップのビデオイメージを確認することができる。
デバイスコントールウィンドウ 3 7は、 クリップのビデオデータが保存されて いるビデオディスクレコーダ 5の動作を制御するためのコマンドボタンが表示さ れるエリアである。 この図 1 0に示すように、 コマンドボタンとしては、 再生ボ タン 3 7 Aとストップボタン 3 7 B及び 6つのスキップボタン 3 7 C〜3 7 Hが 設けられている。 この場合、 再生ボタン 3 7 Aは、 ビデオディスクレコーダ 5に 対して再生コマンドを送出するためのコマンドボタンである。 またストップボタ ン 3 7 Bはビデオディスクレコーダ 5に対して再生停止コマンドを送出するため のコマンドボタンである。 またスキップボタン 3 7 C、 3 7 Dはそれぞれ再生位 置を 1フレーム前又は 1フレーム後ろにスキップさせるスキップコマンドをビデ ォディスクレコーダ 5に送出するためのコマンドボ夕ンである。 またスキップボ タン 3 7 E、 3 7 Fはそれぞれ 1つ前の編集点又は 1つ後の編集点に再生位置を スキップさせるスキップコマンドをビデオディスクレコーダ 5に送出するための コマンドボタンである。 またスキップボタン 3 7 G、 3 7 Hはそれぞれビデオデ 一夕の先頭又は最後に再生位置をスキップさせるスキップコマンドをビデオディ スクレコーダ 5に送出するためのコマンドボタンである。 このようなコマンドボ 夕ンを設けることにより、 編集作業をしながら容易にビデオディスクレコーダ 5 の動作をコントロールすることができる。
編集内容表示ウインドウ 3 8はコ ' タイムラインとも呼ばれ、 タイムラインゥ インドウ 3 4によって指定した編集内容を表示するためのエリアである。 この場 合、 タイムラインウィンドウ 3 4においては、 画面の制約上、 全ての編集内容を —度に全部表示することができないので、 この編集内容表示ウインドウにおいて その編集内容を縮小したグラフィックイメージを表示することにより、 全体とし てどのような編集内容を指定しているのかを容易に把握し得るようになされてい る。 例えばタイムラインウィンドウ 3 4において上述したような 3つの素材クリ ップ M C— 0 0 3、 M C - 0 0 2及び M C— 0 0 1を合成するような編集内容を 指定した場合には、 その編集内容に合わせて、 各レイヤに指定されたクリップを 示す棒状グラフィックイメージが 3段重なったようなグラフィックィメージが編 集内容表示ウィンドウ 3 8に表示される。 これによりオペレータはこの表示を見 て、 指定されている編集内容の全貌を把握し得ると共に、 その内容が 3つのクリ ップの合成処理であることを容易に把握し得る。
なお、 この編集内容表示ウィンドウ 3 8においては、 ライブラリ一ウィンドウ 3 3ゃクリップッリーウィンドウ 3 1に表示されている既にクリップデータべ一 スに登録されている結果クリップを選択した場合にも、 その結果クリップの編集 内容を示すグラフィックイメージが表示される。 これによりタイムラインウィン ドウ 3 4において編集作業中にライブラリ一ウィンドウ 3 3ゃクリップッリ一ゥ インドウ 3 1に表示されている結果クリップを選択した場合にも、 その選択した 結果クリップに対して指定されている編集内容を容易に把握することがてきる。 最後に制御コマンドウインドウ 3 9は、 この編集システム 1において使用され る制御コマンドの一覧が表示されるエリアである。 この図 1 0に示すように、 表 示される制御コマンドボタンとしては、 例えばエディタボタン (Ed or) 、 コン ポジッ トボタン (Compos e ) 、 特殊効果ボタン (S- EHect) 、 プレビユウボタ ン (Previ ew ) 、 ビユウボタン (V i ew) 、 オールプレビユウボタン (Al l Prev i e w ) 及びオールビユウボタン (Al l Vi ew) 等がある。
エディタボタン、 コンポジットボタン及び特殊効果ボタンはそれぞれ編集のた めのモジユールを起動するためのボタンである。 すなわちエディタボタンは編集 モジュール E Mを起動するためのボタンであり、 このエディタボタンをクリック すると、 例えば合成モジュール C Mを起動中であっても編集モジュール E Mを起 動することができる。 またコンポジッ卜ボタンは合成モジュール C Mを起動する ためのボタンであり、 このコンポジットボタンをクリックすると、 例えば特殊効 果モジュール S Mを起動中であっても合成モジュール C Mを起動することができ る。 また特殊効果ボタンは特殊効果モジュール S Mを起動するためのボタンであ り、 この特殊効果ボタンをクリックすると、 例えば編集モジュール E Mを起動中 であっても特殊効果モジュール S Mを起動することができる。
一方、 プレビユウボタン、 ビユウボタン、 オールプレビユウボタン及びオール ビユウボタンは、 素材クリップ又は結果クリップの内容確認用のボタンである。 すなわちプレビユウボタンは、 選択したクリップのビデオデータをプレビユウ画 面表示ウィンドウ 3 6に表示させるときに使用するボタンである。 なお、 このプ レビユウボタンを操作したときには、 指定された編集内容が実行されないため、 表示されるビデオデ一タは最終結果と異なることがある (編集内容が既に実行さ れてその編集内容に合ったビデオデ一タが生成されている場合には、 最終結果の ビデオデータが表示される) 。 しかしながらこのプレビユウボタンを操作すると 、 すぐに表示が開始されるため、 編集過程においてクリップの長さをチェックし たいとき等に使用される。
ビユウボタンは、 選択したクリップのビデオデータをプレビユウ画面表示ウイ ンドウ 3 6に表示させるときに使用するボタンである。 このビユウボタンは、 プ レビユウボタンと異なり、 指定された編集内容が実行されるので、 このビユウボ タンを操作したときには、 表示されるまでに時間がかかるが、 編集後のビデオデ 一夕を確認することができる。
オールプレビユウボタンはクリップを選択せずとも、 編集対象の最初のクリッ プから編集対象の最後のクリップまでのビデオデータをプレビユウ画面表示ウイ ンドウ 3 6に表示させるときに使用するボタンである。 なお、 このオールプレビ 4 ユウボタンもプレビユウボタンと同様に指定されて L、る編集内容が実行されない オールビユウボタンは編集対象の全てのクリップに対して指定されている編集 内容を実行して、 そのビデオデータをプレビユウ画面表示ウィンドウ 3 6に表示 させるときに使用するボタンである。 このオールビユウボタンを操作することに より、 指定した編集内容が実行され、 最終結果のビデオデータを確認することが できる。 なお、 編集内容が実行されたときには、 生成されたクリップビデオデー タは自動的にビデオディスクレコーダ 5に記憶され、 クリップデータベース C D Bに登録される。
( 4 - 2 ) 特殊効果モジュールを起動したときの G U I
続いてこの項では、 特殊効果モジュール S Mを起動したときの G U Iについて 説明する。 この編集システム 1では、 特殊効果モジュール S Mが起動されると、 ワークステーション 2のディスプレイ Bには、 特殊効果モジュール S Mの G U Iとして図 1 1に示すようなグラフィック表示が表示される。
この図 1 1に示すように、 特殊効果モジュール S Mの G U Iとしては、 大き分 けてメニューウインドウ 3 0と、 クリップッリーウィンドウ 3 1と、 エフェク ト 選択ウィンドウ 4 0と、 ライブラリ一ウィンドウ 3 3と、 タイムラインウィンド ゥ 4 1 と、 パラメータ設定ウィンドウ 4 2と、 プレビユウ画面表示ウインドウ 3 6と、 デバイスコントールウィンドウ 3 7と、 編集内容表示ウィンドウ 3 8と、 制御コマンドウインドウ 3 9とによって構成されている。
なお、 この特殊効果モジュール S Mの G U Iにおいて表示されるウィンドウの うち、 メニューウィンドウ 3 0、 クリップッリ一ウインドウ 3 1、 ライブラリ一 ウィンドウ 3 3、 プレビユウ画面表示ウィンドウ 3 6、 デバイスコントールウイ ンドウ 3 7、 編集内容表示ウインドウ 3 8及び制御コマンドウインドウ 3 9は、 上述した合成モジュール C Mの場合と同じであるので、 ここでは説明を省略する まずエフェク ト選択ウィンドウ 4 0は、 クリップのビデオデータに対して施す 特殊効果を選択するためのエリアであり、 各種特殊効果のコマンドボタンが表示 される。 この場合、 表示されるコマンドボタンとしては、 3次元画像変換を指定 するための 3 Dボタン、 残像を付加する卜レイル処理を指定するためのトレイノレ ボタン、 立方体の面にビデオイメージを張り付けてそれを回転させて行くような プリック処理を指定するためのプリックボタン、 ビデオデータに影を付加するシ ャドウ処理を指定するためのシャドウボタン、 ビデオデータを混合するミックス 処理を指定するためのミックスボタン、 一方向からライ 卜を浴びせて物体に影を 付加するライ ト処理を指定するためのライ トボタン、 ビデオデータの所定範囲を 切り出すクロップ処理を指定するためのクロップボタン等が用意されている。 このエフェク ト選択ウィンドウ 4 0においては、 エリアの下辺位置に左右方向 のスクロールボタン 4 0 Aが表示されており、 このスクロールボタン 4 0 Aを操 作することにより、 表示されるコマンドボタンを左右方向にスクロールし得るよ うになされている。 同様に、 エフェク ト選択ウィンドウ 4 0の右辺位置には上下 方向のスクロールボタン 4 0 Bが表示されており、 このスクロールボタン 4 0 B を操作することにより、 表示されるコマンドボタンを上下方向にスクロールし得 るようになされている。
このようなエフェク ト選択ウィンドウ 4 0において、 所望の特殊効果を選択す る場合には、 タイムラインウィンドウ 4 1において特殊効果を施す編集点を指定 した上で、 所望する特殊効果に対応したコマンドボタンをクリックすれば、 その 特殊効果が自動的に指定されるようになっている。
タイムラインウィンドウ 4 1は、 編集対象のクリッブを時間軸上に並べて編集 内容を指定するためのエリアである。 特殊効果モジュール S Mで表示されるタイ ムラインウィンドウ 4 1としては、 当然特殊効果処理に関するものが表示される 。 このタイムラインウィンドウ 4 1は、 大きく分けて上から順にタイムコード表 示エリア (Time Code ) と、 編集点表示エリア (Ed i t Po i nt) と、 プレビユウ範 囲表示エリア (Prev i ew ) と、 クリップ及び特殊効果指定エリア (L 1〜L 1 0 ) とに分かれている。
タイムコ一ド表示エリァは、 編集点におけるタイムコードが表示されるエリァ である。 なお、 このタイムコードは、 このタイムラインウィンドウ 4 1において 指定された編集内容に基づいて生成される結果クリップのタイムライン上におけ るタイムコードである。
編集点表示エリアは、 編集点として設定されているボイン卜を三角マークによ つて指し示すェリァである。 例えば図 4及び図 8に示したような特殊効果処理が 指定されている場合には、 その編集点 E P 1〜 E P 7が三角マークを使用して指 し示される。
プレビユウ範囲表示エリァには、 上述したプレビユウボタンゃビユウボタンを 操作したときにプレビユウ画面表示ウィンドウ 3 6に表示されるビデオデータの 範囲を示すエリアである。 この例の場合、 編集点 E P 1から編集点 E P 7まで ( すなわち結果クリップ F C— 0 0 9全体) が表示範囲として設定されているので 、 その区間を示すバーが表示される。
クリップ及び特殊効果指定エリァは、 レイヤ毎にクリップに対して施す特殊効 果を指定するためのエリアである。 この編集システム 1においては、 レイヤ L 1 からレイヤ L 1 0までの 1 0個のレイヤが用意されており、 その 1つ 1つに特殊 効果処理の対象となるクリップを指定することができると共に、 そのクリップに 対してそれぞれ特殊効果処理を指定することができるようになっている。 なお、 このクリップ及び特殊効果指定ェリアとしては表示範囲が限られており (図に示 すようにレイヤほぼ 2つ分程度) 、 一度に全てのレイヤ L 1〜L 1 0を表示する ことができない。 しかしながらこのクリップ及び特殊効果指定ェリアの右辺に表 示されているスクロールボタン 4 1 Aを操作することにより、 クリップ及び特殊 効果指定ェリァを上下方向にスクロールさせることができので、 これによつて所 望のレイヤを表示させることができるようになつている。
各レイヤ L 1 ~ L 1 0は、 それぞれ 4つの特殊効果指定エリア (E 1〜E 4 ) と、 特殊効果を施すクリップを指定するためのビデオエリア (Vi deo ) と、 その クリップに対するキ一処理を指定するためのキーエリア (Key ) とに分かれてい る。 特殊効果指定エリアは、 ビデオエリアに登録されたクリップに対して施す特 殊効果を指定するためのェリァであり、 これが 1つのレイヤにおいて 4つ設けら れていることから、 1つのクリップに対して 4つの特殊効果を同時に指定し得る ようになされている。 例えばこの図 1 1に示すように、 特殊効果 E 1としてモザ イク処理を指定し、 特殊効果 E 2としてクロップ処理を指定し、 特殊効果 E 3と して 3次元画像変換を指定し、 特殊効果 E 4としてトレイル処理を指定すると、 ビデオエリアで指定されたクリップ M C— 0 0 4に対してその 4つの特殊効果処 理を施すことができる。
特殊効果指定エリアにおいて、 特殊効果を設定する場合には、 予め編集点を指 定することによって特殊効果を施す範囲を指定した上で、 エフェク 卜選択ウィン ドウ 4 0内の所望のコマンドボタンをクリックすれば、 その選択された特殊効果 を示すセルが表示されるので、 そのセルを特殊効果指定エリァにおけばその特殊 効果が自動的に設定される。
ビデオエリアにおいてクリップを設定する場合には、 まずライブラリーウィン ドウ 3 3に表示されるクリップをクリックする力、、 もしくはクリップッリーウイ ンドウ 3 1に表示されるクリッブをクリックすることにより、 編集対象のクリッ プを選択する。 このような処理を行うと、 その選択したクリップを示すセルが表 示されるので、 これをビデオエリアの所望位置に置けば、 ビデオエリアに対して クリップを設定することができる。
またキーエリアにおいてキー処理を設定する場合には、 まずキーエリアの 「Ke y 」 の部分をクリックすると、 エフェク ト選択ウインドウ 4 0が先に説明したキ —ウィンドウ 3 2に切り換わるので、 その中から所望のキ一ボタンをクリックし てキー処理を選択する。 このような処理を行うと、 その選択したキー処理を示す セルが表示されるので、 そのセルをキーエリアに置けば、 そのキー処理が自動的 に設定される。
なお、 既にビデオエリアに置かれて表示されている結果クリップをダブルクリ ックして選択すると、 その結果クリップを作成したモジュール (すなわち合成モ ジュール C M、 特殊効果モジュール S M又は編集モジュール E M) が起動され、 その結果クリップに対して施されている編集内容が対応するモジュールの G U I 上のタイムラインウィンドウに表示される。
パラメータ設定ウィンドウ 4 2は、 オペレータが指定した特殊効果処理におけ るパラメータを設定するエリアである。 このパラメ一夕設定ウィンドウ 4 2にお いては、 エフェク 卜選択ウインドウ 4 0のコマンドボ夕ンをクリックすると、 そ のクリックされた特殊効果に関するパラメータ設定画面が表示される。 例えばェ フエク ト選択ウインドウ 4 0において 3 Dボタンをクリックして、 3次元画像変 換を指定すると、 このパラメ一タ&定ウィンドウ 4 2には図 1 1に示すような 3 次元画像変換に関するパラメータ設定画面が表示される。
3次元画像変換におけるパラメ一タとしては、 図 1 1に示すように、 3次元空 間上における位置 (X, Y, Ζ ) と、 3次元空間上における回転方向 (X, Υ, Ζ ) と、 画像の縦横比を示すアスペク ト比 (A s ρ ) と、 歪みのパラメータであ るスキュー (S k e w) と、 遠近値を表すパースペクティブ値 (P e r s ) とが ある。 これらのパラメータの値はデフォルト値 (二 「0」 ) を基準にした最大設 定範囲 M A Xから最小設定範囲 M I Nの間で任意の値に設定し得るようになされ ている。
パラメータ設定ウィンドウ 4 2と上述したタイムラインウィンドウ 4 1とは、 横軸 (すなわち時間軸) がー致しており、 タイムラインウィンドウ 4 1で指定し た特殊効果処理の内容を見ながらパラメータの変更ポイントを決めることができ るようになっている。 因みに、 この横軸方向、 すなわち左右方向に関しては、 パ ラメータ設定ウインドウ 4 2の下辺位置にあるスクロールボタン 4 2 Aを操作す ることにより、 このパラメータ設定ウインドウ 4 2内のグラフィックイメージを 左右方向にスクロールさせることができる。 このときタイムラインウィンドウ 4 1とパラメータ設定ウィンドウ 4 2は横軸が対応していることから、 当該タイム ラインウインドウ 4 1内のグラフィックイメージとパラメータ設定ウインドウ 4 2内のグラフィックイメージは連動して同時に左右方向にスクロールされる。 な お、 上下方向に関しては、 パラメータ設定ウィンドウ 4 2の右辺位置にあるスク ロールボタン 4 2 Bを操作することにより、 当該パラメータ設定ウィンドウ 4 2 内のグラフィックイメージを上下方向にスクロールさせることができる。
ここで実際に 3次元画像変換のパラメータを設定する場合には、 まずパラメ一 タ設定ウィンドウ 4 2の左隅に表示されるパラメータ項目の中から所望の項目を クリックしてこれからパラメータ設定する項目を指定する。 続いてタイムライン ウィンドウ 4 1で指定した内容を見ながらパラメータを変更するボイン卜を決め ると共に、 設定値を決め、 縦軸がパラメータ値で横軸が時間軸からなるパラメ一 夕設定ウィンドウ 4 2においてその決めたボイン卜及び設定値に対応する位置を クリックする。 これによりそのクリックした位置に対応するパラメータ値及びパ ラメータ変更ボイントがクリップデータベース C D Bに自動的に登録される。 例えば図 1 1に示すように、 X軸方向の位置を編集点 E P 4から徐々にマイナ ス方向に移動するのであれば、 希望する値のところを順にクリックして行けば、 その値が自動的に登録される。 同様に Y軸方向の位置を編集点 E P 6から徐々に プラス方向に移動するのであれば、 希望する値のところを順にクリックして行け ば、 その値が自動的に登録される。 同様に Z軸方向の位置を編集点 E P 2から徐 々にプラス方向に移動するのであれば、 希望する値のところを順にクリックして 行けば、 その値が自動的に登録される。 なお、 オペレータが指定したポイントと ポイントとの間は、 補間処理により、 ビデオイメージが連続的に移動するような 値が自動的に設定される。
また編集点 E P 2から編集点 E P 5までの範囲において X軸を中心としてマイ ナス方向にビデオィメ一ジを徐々に回転させ、 編集点 E P 5以降に再び逆方向に 徐々に回転させるような回転処理を行うのであれば、 編集点 E P 5及び E P 7に おいて所望の値のところをクリックすれば、 その値が自動的に登録される。 なお 、 この場合にも、 オペレータが指定したポイントとポイントとの間は、 補間処理 により、 ビデオイメージが連続的に回転するような値が自動的に設定される。 因 みに、 直線的に補間するか、 スプラインカーブで捕間するかは、 設定により任意 に決めることができる。 この例では、 回転処理についてはスプラインカーブで補 間するように設定されているので、 オペレータが指定したボイント間はスプライ ンカーブに沿った値に設定される。
かく してこのパラメータ設定ウィンドウ 4 2において、 特殊効果のパラメータ に対して所望の値を設定すると、 そのパラメータの値がクリップデータベース C D Bに登録され、 その登録されたパラメータの値に基づいて編集対象のクリップ のビデオデータに対して特殊効果が施される。 なお、 このパラメ一夕設定ウィン ドウ 4 2においては、 図 1 1に示すように、 設定したパラメータの値を編集点と 対応させて、 横軸を時間、 縦軸をパラメータ値としたグラフ状に表示するように なされており、 これによりオペレータはその表示を見て、 どのパラメータに対し てどのような値をどのタイミングで設定したかを視覚的に一目で把握することが できる。
( 4 - 3 ) 編集モジュールを起動したときの G U I
続いてこの項では、 編集モジュール E Mを起動したときの G U Iについて説明 する。 この編集システム 1では、 編集モジュール E Mが起動されると、 ワークス テ一シヨン 2のディスプレイ 2 Bには、 編集モジュール E Mの G U I として図 1 2に示すようなグラフィック表示が表示される。
この図 1 2に示すように、 編集モジュール E Mの G U Iとしては、 大きく分け てメニューウィンドウ 3 0と、 クリップッリーウィンドウ 3 1と、 エフェク ト選 択ウィンドウ 5 0と、 ライブラリーウィンドウ 3 3と、 タイムラインウィンドウ 5 1と、 パラメータ設定ウィンドウ 5 2と、 プレビユウ画面表示ウィンドウ 3 6 と、 デバイスコントールウィンドウ 3 7と、 編集内容表示ウィンドウ 3 8と、 制 御コマンドウィンドウ 3 9とによって構成されている。
なお、 この編集モジュール E Mの G U Iにおいて表示されるエリアのうち、 メ ニューウィンドウ 3 0、 クリップツリーウィンドウ 3 1、 プレビユウ画面表示ゥ インドウ 3 6、 デバイスコントールウィンドウ 3 7及び制御コマンドウインドウ 3 9は、 上述した合成モジュール C Mの場合と同じであるので、 ここでは説明を 省略する。
まずエフェク ト選択ウィンドウ 5 0は、 編集対象として指定されたクリップの ビデオデータを切り換えるときに使用する卜ランジシヨンエフェク トを選択する ためのエリァであり、 各種トランジシヨンエフェク 卜のコマンドボタンが表示さ れる。 この場合、 表示されるコマンドボタンとしては、 現在表示されている画像 を新しい画像でぬぐい消すようにして画像を切り換えるワイプ効果を指定するヮ イブボタン、 紙芝居のように古い画像をスライ ドさせることによって新しい画像 を切り換えるスライ ド効果を指定するスライ ドボタン、 古い画像を分割してその 分割された画像をスライ ドさせることによって新しい画像に切り換えるスプリッ ト効果を指定するためのスプリットボタン、 古い画像の上に新しい画像を広げる ようにして画像を切り換えるスクイズ処理を指定するためのスクイズボタン、 古 i、画像をべ一ジをめくるようにして画像を切り換えるページターン処理を指定す るためのページターンボタン等が用意されている。
このエフェク 卜選択ウインドウ 5 0においては、 エリァの下辺位置に左右方向 のスクロールボタン 5 0 Aが表示されており、 このスクロールボタン 5 0 Aを操 作することにより、 表示されるコマンドボタンを左右方向にスクロールし得るよ うになされている。 同様に、 エフェク ト選択ウィンドウ 5 0の右辺位置には上下 方向のスクロールボタン 5 0 Bが表示されており、 このスクロールボタン 5 0 B を操作することにより、 表示されるコマンドボタンを上下方向にスクロールし得 るようになされている。
このようなエフェク 卜選択ウインドウ 5 0において、 所望のトランジシヨンェ フエク トを選択する場合には、 タイムラインウィンドウ 5 1においてトラジショ ンエフェク 卜を施す編集点を指定した上で、 所望する卜ランジシヨンエフェク ト に対応したコマンドボタンをクリックすれば、 そのトランジシヨンエフェク 卜が 自動的に指定されるようになっている。 ライブラリ一ウィンドウ 3 3は、 クリップデータベース C D Bに登録されてい る素材クリップ又は結果クリップをリスト表示するためのエリアである。 このラ ィブラリーウィンドウ 3 3は、 図 1 0や図 1 1に示すように、 通常はタイ トルバ 一のみが表示されているが、 そのタイ 卜ルバ一のところをクリックしてウインド ゥエリアを広げることにより、 この図 1 2に示すようにライブラリーウィンドウ 3 3の全体が表示されるようになされている。
ライブラリーウィンドウ 3 3においては、 この図 1 2に示すように、 各クリツ プがカード状グラフィック表示 3 3 Aによって表示される。 この場合、 カード状 グラフィック表示 3 3 Aは静止画表示部 3 3 Bと属性表示部 3 3 Cとクリップ名 表示部 3 3 Dとによって構成される。 静止画表示部 3 3 Bには、 そのクリップの イン点又はァゥト点の静止画が表示されるようになされており、 これによりオペ レータはその静止画表示部 3 3 Bに表示される画面を見てクリップがどのような ビデオデータで形成されているものか容易に把握することができる。
属性表示部 3 3 Cには、 そのクリップの属性を示す 「F C」 又は 「M C」 なる 文字が表示される。 この場合、 「F C」 はそのクリップが編集処理の結果生成さ れた結果クリップであることを示し、 「M C」 はそのクリップが単にソースビデ ォデータから取り出した素材クリップであることを示している。 このようにして 属性を示す情報を表示するようにしたことにより、 オペレータはその表示を見て そのクリップが結果クリップであるか素材クリップであるかを容易に把握するこ とができる。 クリップ名表示部 3 3 Dには、 そのクリップを生成したときにオペ レー夕が付加したクリップ名称が表示される。 なお、 このクリップ名称は、 後述 するようにクリップ管理データとしてクリップデ一夕ベース C D Bに登録されて いるものである。
かく してこのようにライブラリ一ウインドウ 3 3において、 既にクリップデ一 夕ベース C D Bに登録されているクリップをリスト表示するようにしたことによ り、 既に登録されているクリップの中から編集対象のクリップを容易に選択する ことができる。 なお、 このライブラリ一ウインドウ 3 3の右辺位置にはスクロールボタン 3 3 Eが表示されており、 このスクロールボタン 3 3 Eを操作すれば、 このライブラ リ一ウィンドウ 3 3を上下方向にスクロールさせることができ、 当該ライブラリ 一ウィンドウ 3 3に登録されている全てのクリップを表示させることができる。 これにより現状見えていないクリップであっても、 そのクリップを選択すること かできる。
タイムラインウィンドウ 5 1は、 編集対象のクリップを時間軸上に並べて編集 内容を指定するためのエリアである。 編集モジュール E Mで表示されるタイムラ インウィンドウ 5 1としては、 当然編集処理に関するものが表示される。 この夕 ィムラインウィンドウ 5 1は、 大きく分けて上から順にタイムコード表示エリァ (Time Code ) と、 編集点表示エリア (Ed Po int) と、 プレビユウ範囲表示ェ リア (Prev i ew ) と、 ビデオ及びエフェクト指定エリア (V ) と、 オーディオ指 定エリア (A ) とに分かれている。
タイムコ一ド表示エリアは、 編集点におけるタイムコードが表示されるエリア である。 なお、 このタイムコードは、 このタイムラインウィンドウ 5 1 において 指定された編集内容に基づいて生成される結果クリップのタイムライン上におけ るタイムコードである。
編集点表示エリァは、 編集点として設定されているボイン卜を三角マークによ つて指し示すェリアである。 例えば図 4及び図 9に示すような編集処理が指定さ れている場合には、 その編集点 E P 1〜E P 5が三角マークを使用して指し示さ れる。 但し、 図 1 2においては、 タイムラインウィンドウ 5 1においてトランジ シヨンエフェク トを施す付近のみを表示している関係上、 編集点£ ? 2〜£ ? 4 のみが表示されている。 なお、 編集点 E P 1や編集点 E P 5を表示させる場合に は、 後述するように、 パラメータ設定ウィンドウ 5 2において左右方向のスクロ ールボタンを操作すれば、 タイムラインウィンドウ 5 1内のグラフィックィメー ジを左右方向にスクロールして、 編集点 E P 1や編集点 E P 5を表示させること ができる。 プレビユウ範囲表示エリァには、 上述したプレビユウボタンゃビユウボタンを 操作したときにプレビユウ画面表示ウインドウ 3 6に表示されるビデオデータの 範囲を示すエリアである。 この例の場合、 編集点 E P 1 と編集点 E P 2の間から 編集点 E P 4と編集点 E P 5の間までが表示範囲として設定されているので、 そ の区間を示すバーが表示される。
ビデオ及びエフェク ト指定エリアは、 編集対象のクリップを指定するための第 1及び第 2のビデオエリア (Vi deo- Ll、 Vi deo- L2) と、 その編集対象のクリップ に対して施すトランジシヨンエフェク トを指定するためのエフェク トエリア (Ef f eet) とに分かれている。
第 1又は第 2のビデオェリァにおいて編集対象のクリップを指定する場合には 、 ライブラリーウィンドウ 3 3又はクリップッリ一ウィンドウ 3 1において所望 のクリップをクリックすると、 そのクリップを示すセルが表示されるので、 その セルを第 1又は第 2のビデオェリァに置けば、 そのクリップが第 1又は第 2のビ デォエリアに設定され、 編集対象のクリップとして登録される。 例えば結果クリ ップ F C— 0 0 8をクリックしてそのセルを第 1のビデオエリアに置き、 結果ク リップ F C— 0 0 9をクリックしてそのセルを第 2のビデオエリァに置けば、 こ の図 1 2に示すように、 第 1及び第 2のビデオェリァにそれぞれ結果クリップ F C一 0 0 8、 F C - 0 0 9が設定される。 なお、 第 1のビデオエリアに設定され たクリップのビデオデータが古いビデオデータとなり、 第 2のビデオエリアに設 定されたクリップのビデオデー夕が新しく切り換わるビデオデータになる。
同様に、 エフェク トエリアにおいてトランジシヨンエフェク トを指定する場合 には、 エフェク ト選択ウインドウ 5 0において所望のエフェク トボタンをクリッ クすると、 そのエフェク 卜を示すセルが表示されるので、 そのセルをエフェク 卜 エリアに置けば、 そのエフェク 卜が編集対象のクリップに対して施すエフェク 卜 として設定される。 例えばエフェク 卜選択ウィンドウ 5 0においてワイプボタン をクリックすると、 ワイプを示すセルが表示されるので、 そのセルをエフェク ト エリアにおけば、 この図 1 2に示すように結果クリップ F C— 0 0 8と結果クリ ップ F C— 0 0 9の切り換え処理としてワイプ処理が設定される。
オーディオ指定エリアは、 ビデオデータと共に送出するオーディオデータを指 定するためのエリアであり、 この場合には、 第 1及び第 2のオーディオエリア ( Audi o-lch 、 Audio-2ch ) に分かれている。 なお、 第 1及び第 2のオーディオェ リアにおいて、 オーディオデータを設定する場合には、 ビデオエリアにおける設 定方法と同じで、 所望のクリップをクリックしてそのセルを第 1又は第 2のォー ディォエリァに置けば、 そのクリップのオーディオデータが送出するオーディオ データとして設定される。 因みに、 第 1のオーディオエリアに設定されたオーデ ィォデータがステレオ放送の第 1チャネルに送出され、 第 2のオーディオエリア に設定されたオーディオデータがステレオ放送の第 2チャネルに送出される。 なお、 第 1又は第 2のビデオエリアに既に置かれて表示されている結果クリッ プをダブルクリックして選択すると、 その結果クリップを作成したモジュール ( すなわち合成モジュール C M、 特殊効果モジュール S M又は編集モジュール E M ) が起動され、 その結果クリップに対して施されている編集内容が対応するモジ ユールの G U I上のタイムラインウィンドウに表示される。
パラメータ設定ウィンドウ 5 2は、 オペレータが指定した卜ランジシヨンエフ ェク 卜のパラメータを設定するエリアである。 このパラメ一タ設定ウインドウ 5 2においては、 エフェク ト選択ウィンドウ 5 0のエフェク トボタンをクリックす ると、 そのクリックされたエフェク卜に関するパラメータ設定画面が表示される 。 例えばエフェク ト選択ウィンドウ 5 0においてワイプボタンをクリックして、 ワイプ処理を指定すると、 このパラメータ設定ウィンドウ 5 2には図 1 2に示す ようなワイプ処理に関するパラメータ設定画面が表示される。
ワイプ処理におけるパラメータとしては、 この図 1 2に示すように、 ワイプパ ターンの縦横比を示すァスぺク 卜比 (A s p e c t ) と、 ワイプパターンの角度 を規定するアングル (A n g l e ) と、 画面切換時のワイプパターンの速度を規 定するスピード (S p e e d ) と、 ワイプパターンエッジの水平方向に与えるゆ らぎを規定する水平モジュレーション (H M o d ) と、 ワイプパターンエッジ の垂直方向に与えるゆらぎを規定する垂直モジュレーション (H M o d ) とが ある。 これらのパラメ一夕の値はデフォルト値 (= 「0」 ) を基準にした最大設 定範囲 MA Xから最小設定範囲 M I Nの間で任意の値に設定し得るようになされ ている。 但し、 スピードのパラメ一夕に関しては、 デフォルト値が最小設定範囲 M I Nに設定されており、 可変範囲としてはデフオル卜値から最大設定値 MA X までとなつている。
パラメータ設定ウィンドウ 5 2と上述したタイムラインウィンドウ 5 1とは、 横軸 (すなわち時間軸) がー致しており、 タイムラインウィンドウ 5 1で指定し た編集処理内容を見ながらパラメ一夕の変更ボイントを決めることができるよう になっている。 因みに、 この横軸方向、 すなわち左右方向に関しては、 パラメ一 タ設定ウィンドウ 5 2の下辺位置にあるスクロールボタン 5 2 Aを操作すること により、 このパラメータ設定ウインドウ 5 2内のグラフィックイメージを左右方 向にスクロールさせることができる。 このときタイムラインウィンドウ 5 1とパ ラメータ設定ウィンドウ 5 2は横軸が対応していることから、 当該タイムライン ウィンドウ 5 1内のグラフィックイメージとパラメータ設定ウインドウ 5 2内の グラフィックイメージは連動して同時に左右方向にスクロールされる。 なお、 上 下方向に関しては、 パラメータ設定ウインドウ 5 2の右辺位置にあるスクロール ボタン 5 2 Bを操作することにより、 当該パラメータ設定ウィンドウ 5 2内のグ ラフィックィメージを上下方向にスクロールさせることができる。
ここで実際にヮィプ処理のノ、'ラメータを設定する場合には、 まずパラメータ設 定ウインドウ 5 2の左隅に表示されるパラメータ項目の中から所望の項目をクリ ックしてこれからパラメータ設定する項目を指定する。 続いてタイムラインウイ ンドウ 5 1で指定した内容を見ながらパラメータを変更するボイン卜を決めると 共に、 設定値を決め、 縦軸がパラメータ値で横軸が時間軸からなるパラメータ設 定ウィンドウ 5 2においてその決めたボイント及び設定値に対応する位置をクリ ックする。 これによりそのクリックした位置に対応するパラメータ値及びパラメ 一夕変更ボイン卜がクリップデータベース C D Bに自動的に登録される。 例えば図 1 2に示すように、 ワイプパターンのアスペク ト比を編集点 E P 2か ら編集点 E P 4にかけて徐々に大きく したいのであれば、 希望する値のところを 順にクリックして行けば、 その値が自動的に登録される。 なお、 オペレータが指 定したポイントとポイントとの間は、 補間処理により、 ワイプパターンのァスぺ ク ト比が連続的に変化するような値が自動的に登録される。
同様に、 ワイプパターンのアングルを編集点 E P 2から編集点 E P 3にかけて 徐々に大きく し、 また編集点 E P 3から編集点 E P 4にかけてはワイプパターン を逆方向に徐々に傾けて行くようにしたいのであれば、 希望する値のところを順 にクリックして行けば、 その値が自動的に登録される。 なお、 この場合にも、 ォ ペレ一夕が指定したポイントとポイントとの間は、 補間処理により、 ワイプバタ ーンが連続的に変化するような値が自動的に登録される。 因みに、 直線的に補間 する力、、 スプラインカーブで補間するかは、 設定により任意に決めることができ る。 この例では、 アングルに関してはスプラインカーブで補間するように設定さ れているので、 オペレータが指定したボイント間はスプラインカーブに沿った値 に設定される。
またワイプパターンのスピードを編集点 E P 2から編集点 E P 3までは一定に し、 編集点 E P 3から編集点 E P 4にかけては徐々にスピードを上げていきたい のであれば、 希望する値のところを順にクリックして行ければ、 その値が自動的 に登録される。 なお、 この場合にも、 ォペレ一夕が指定したポイントとポイント との間は、 捕間処理により、 ワイプパターンのスピードが連続的に変化するよう な値が自動的に登録される。
かく してこのパラメータ設定ウィンドウ 5 2において、 トランジシヨンエフェ ク トのパラメータに対して所望の値を設定すると、 そのパラメータの値がクリッ プデータベース C D Bに登録され、 その登録されたパラメータの値に基づいて編 集対象のクリップのビデオデータに対してトランジシヨンエフェク 卜が施される 。 なお、 このパラメータ設定ウィンドウ 5 2においては、 図 1 2に示すように、 設定したパラメータの値を編集点と対応させて、 横軸を時間、 縦軸をパラメータ 値としたグラフ状に表示するようになされており、 これによりオペレータはその 表示を見て、 どのパラメータに対してどのような値をどのタイミングで設定した 力、を視覚的に一目で把握することができる。
編集内容表示ウィンドウ 3 8は、 上述したようにタイムラインウィンドウ 5 1 によって指定した編集内容を、 グラフィックイメージによって表示するためのェ リアである。 タイムラインウィンドウ 5 1において上述したように 2つのクリッ プ F C— 0 0 8、 F C - 0 0 9をワイプ処理によって切り換えるような編集処理 を指定した場合には、 ワイプ処理を示すグラフィックイメージをそれぞれのクリ ップを示す棒状グラフイツクィメージで段違いに挟んだようなグラフイツクイメ —ジが表示される。 これによりオペレータは、 この表示を見て、 全体としてどの 様な編集内容を指示したかを容易に把握することができる。 特にこの図 1 2に示 すように、 タイムラインウィンドウ 5 1において一部の範囲のみ表示したときに は、 全体の処理内容が分かりずらいが、 この編集内容表示ウィンドウ 3 8を見れ ば全体の処理内容を容易に把握することができる。
( 5 ) クリップデータベースにおけるクリップ管理データの管理方法
本発明による編集システム 1においては、 素材クリップやその素材クリップに 編集を行うことによって生成された結果クリップを全てクリップデータベース C D Bに登録するようになされいる。 クリップデータベース C D Bに登録されるデ 一夕としては、 大きく分けて素材クリップ又は結果クリップのクリップビデオデ 一夕と、 そのクリップビデオデータを管理するためのクリップ管理データがある この項では、 このクリップ管理データの管理方法について説明する。
図 1 3は、 例えば図 7、 図 8及び図 9に示した編集処理が指示されたとき、 ク リップデータベース C D B (主に R A M 2 1 B ) において形成されたクリップ管 理データ用のデータベースである。 このクリップ管理データを管理するためのデ 一夕ベースは、 この図 1 3に示すように、 大きく分けてクリップ I Dコード、 ク リップ名称、 属性、 画像データへのポインタ、 デュレ一シヨン、 親リンク先 I D コード、 子リンク先 I Dコード、 有効ノ無効フラグ及び作業データによって構成 される。
クリップ I Dコードは、 クリップとして登録された順に当該クリップに対して 自動的に付与されたシリアルナンバーの識別番号である。 従ってこのクリップ I Dコ一ドを基に、 登録されているクリップを識別することができる。
クリップの属性は、 そのクリップが単なる素材クリップであるのか、 或いは素 材クリップを編集することにより生成された結果クリッブであるのかを識別する ためのデータである。 素材クリップの場合には、 このクリップの属性のところに 「M」 というコードが登録され、 結果クリップの場合には、 「F」 というコード が登録される。
クリップ名称は、 そのクリップに対して付与されたクリップ識別用の名称であ る。 この例では、 クリップ I Dコ一ドが 「0 0 1」 であって、 クリップの属性が 「M」 である場合には、 そのクリップ名称として 「M C— 0 0 1」 という名前を 自動的に付与した例を示している。 なお、 このクリップ名称は、 ユーザの趣向に 合わせて任意の名前を付与することもできる。 因みに、 ライブラリ一ウィンドウ 3 3のクリップ名表示部 3 3 Dに表示されるクリップ名は、 このクリップ名称で あ 。
画像データへのポインタは 8バイ 卜のデータからなり、 ビデオディスクレコ一 ダ 5に記録されたクリップビデオデータの先頭ァドレスを示すボインタである。 この編集システム 1においては、 クリップビデオデータは複数のハードディスク を有するビデオディスクレコーダ 5に記憶されているので、 この画像データへの ボインタは、 そのハードディスクアレイの論理ァドレスを指している。
デュレーシヨンは、 そのクリップのクリップビデオデータの再生期間を表すタ ィムコ一ドである。 すなわちそのクリップビデオデータの始まりから終わりまで の時間を表すタイムコードである。
親リンク先 I Dコードは、 そのクリップに対して上位クリップとしてリンクし ているクリップのクリップ I Dコードである。 例えばクリップ I Dコードが Γ 0 0 1」 である素材クリップ M C— 0 0 1は、 クリップ I Dコ一ド力く 「 0 0 8」 の 結果クリップ F C— 0 0 8にリンクしているので、 この結果クリップ F C—◦ 0 8のクリップ I Dコード 「 0 0 8 j が親リンク先 I Dコ一ドとして登録されてい る o
なお、 最上位のクリップになっているため上位クリップを持たないクリップの 場合には、 親リンク先 I Dコ一ドとして 「 0 0 0」 が登録される。 例えば結果ク リップ F C— 0 1 0は上位クリップを持っておらず、 このため親リンク先 I Dコ —ドとして 「 0 0 0」 が登録されている。 これにより親リンク先 I Dコ一ドが Γ 0 0 0」 であれば、 最上位のクリップであることを容易に把握することができる o
子リンク先 I Dコードは、 そのクリップに対して下位クリップとしてリンクし ているクリッブのクリップ I Dコードである。 例えばクリップ I Dコ一ドが 「 0 0 8」 である結果クリップ F C— 0 0 8には、 下位クリップとして、 それぞれ素 材クリップ M C— 0 0 1、 M C - 0 0 2及び M C— 0 0 3力くリンクしている。 そ の際、 素材クリップ M C— 0 0 1は第 3のレイヤ L 3として指定され、 素材クリ ップ M C— 0 0 2は第 2のレイヤ L 2として指定され、 素材クリップ M C— 0 0 3は第 1のレイヤ L 1として指定されている。 従って結果クリップ F C— 0 0 8 の下位クリップであって、 かつ第 1のレイヤ L 1に指定されているクリップのク リップ I Dコードとして 「 0 0 3」 が登録され、 結果クリップ F C— 0 0 8の下 位クリップであって、 かつ第 2のレイヤ L 2に指定されているクリップのクリッ ブ I Dコードとして 「0 0 2」 が登録され、 結果クリップ F C— 0 0 8の下位ク リップであって、 かつ第 3のレイヤ L 3に指定されているクリップのクリップ I Dコードとして 「0 0 1」 が登録されている。 なお、 このように下位にリンクし ている下位クリップをレイヤに対応付けて管理したことにより、 どの下位クリツ プがどのレイヤに指定されているかを容易に把握することができる。
なお、 下位クリップを持たないクリップの場合には、 子リンク先 I Dコードと して何のデータも登録されない。 例えば素材クリップ M C— 0 0 1は単なる素材 クリップであるので下位クリップを持っておらず、 このため子リンク先 I Dコ一 ドとしては空欄になっている。
有効/無効フラグは、 そのクリップが有効 (Enable) なクリップである力、、 無 効 (Di sabl e ) なクリップであるかを表すフラグである。 この場合、 クリップが 有効であれば 「E」 のコードが登録され、 クリップが無効であれば 「D」 のコ一 ドが登録される。 因みに、 指定されている編集内容が実行され、 編集結果として のクリップビデオデータが生成されている場合に、 有効のフラグが登録され、 編 集内容が実行されていないためクリップビデオデータが生成されていないときや
、 一旦編集内容を実行してクリップビデオデータを生成したが、 その後に編集内 容ゃ素材とするクリップを変更したために実際の編集内容とクリップビデオデ一 夕が一致していないときに、 無効のフラグが登録される。 なお、 このような有効 ノ無効フラグをクリップ管理データとして持つことにより、 このクリップ管理デ —夕用のデータベースを参照すれば、 クリップが有効であるか無効であるかを容 易に把握することができる。
作業データは、 そのクリップに対して指定されている編集内容を示すデータで ある。 従って編集によって生成された結果クリップ F C— 0 0 8、 F C - 0 0 9 及び F C— 0 1 0に対しては何らかの作業データが登録されているが、 編集によ つて生成されていない素材クリップ M C— 0 0 1から素材クリップ M C— 0 0 7 に対しては作業データとしては何も登録されていない。
作業データは、 この図 1 3に示すように、 大きく分けてモジュール I Dコード と、 編集点データと、 画像処理データとに分けられる。 このうちモジュール I D コ一ドは、 その結果クリップを作成する編集作業において使用したモジュールを 示す識別番号である。 この場合、 合成モジュール C Mが使用されたのであれば 「 C J のコードが登録され、 特殊効果モジュール S Mが使用されたのであれば 「S j のコードが登録され、 編集モジュール E Mが使用されたのであれば 「E」 のコ 一ドが登録される。
また編集点データは、 その結果クリップに対して指定された全ての編集点と、 その編集点に対応するタイムコードからなるデータである。
また画像処理データは、 合成 (コンポジット) データと、 特殊効果 (スぺシャ ルエフェク ト) データと、 編集 (エディツト) データとから構成される。 このう ち合成データは合成処理において指定されたパラメ一夕値からなるデータであり 、 特殊効果データは特殊効果処理において指定されたパラメータ値からなるデー タであり、 編集データは編集処理において指定されたパラメータ値からなるデー 夕である。
なお、 編集処理内容が修正された場合には、 これらのクリップ管理データの内 容は、 その新たな編集内容に基づいて随時書き換えられる。 但し、 過去のクリツ プ管理データは消去されず、 別のクリップ I Dコード及びクリップ名称が付加さ れてバックアップ用として保持される。 例えば結果クリップ F C— 0 0 9に対す る特殊効果処理の内容が修正された場合には、 図 1 4に示すように、 修正前のク リップ管理データがバックアップとして保持される。
すなわち結果クリップ F C— 0 0 9に対して新たな特殊効果処理が指示された 場合には、 その新たな特殊効果処理の内容に基づいて、 修正後の編集点データ及 び修正後の特殊効果データが生成され、 これがそれぞれ修正前のクリップのとこ ろ (すなわちクリップ I Dデータ力く 「 0 0 9」 のところ) に作業データとして登 録される。 一方、 新たな特殊効果処理が指示される前に作業データとして登録さ れていた修正前の編集点データ及び修正前の特殊効果データは、 新たにクリップ I Dコード 「0 0 9 B K 1」 及びクリップ名称 「 F C— 0 0 9 B K 1」 が割り当 てられた上で、 それらの識別情報を基に、 バックアップ用のクリップ管理データ としてデータベース内の別の領域に登録される。 但し、 バックアップとして登録 されたクリップ管理データにおいては、 有効 Z無効フラグが無効を示す 「D」 の コードに修正される。
このようにして修正前のクリップ管理データをバックアップとして残しておく ことにより、 修正後の結果クリップ F C— 0 0 9が気に入らない場合でも、 バッ クアップとして残してある修正前のクリップ管理データに基づいて修正前の結果 クリップ F C— 0 0 9 B K 1に容易に戻ることができる。
ここで上述した作業データとして登録される編集点データ、 合成データ、 特殊 効果データ及び編集データについて以下に具体例を上げて説明する。 まず図 1 5 〜図 1 7を用いて編集点データについて説明する。
結果クリップ F C— 0 0 8に対して、 図 7に示すような合成処理が指示された 場合には、 図 1 5に示すような編集点データが登録される。 この図 1 5に示すよ うに、 編集点データは、 下位クリップのクリップデータのうちどの部分を上位ク リップのクリップビデオデータに使用するかを指定するためのデータであって、 その下位クリップのスター卜位置を示すィン点のタイムコードと、 そのェンド位 置を示すァゥト点のタイムコ一ドとからなっている。
図 7に示したように、 第 1のレイヤ L 1として指定された素材クリップ M C— 0 0 3のィン点のタイムコードは、 タイムライン t 3上において 「00: 00: 31 : 02」 になっており、 そのイン点の位置は結果クリップ F C— 0 0 8のタイムライ ン t 8上においてタイムコード 「00: 00: 00: 00」 に対応している。 従って編集 点データにおいては、 図 1 5に示すように、 結果クリップ F C— 0 0 8のタイム コ一ド 「00: 00: 00: 00」 と、 素材クリップ M C— - 0 0 3のィン点のタイムコー ド 「00: 00: 31: 02」 とが編集点 E P 1のところに対応付けて登録される。 また 図 7に示したように、 第 1のレイヤ L 1として指定された素材クリップ M C— 0 0 3のアウト点のタイムコードは、 タイムライン t 3上において 「00: 05: 18: 02 J になっており、 そのアウト点の位置は結果クリップ F C— 0 0 8のタイムラ ィン t 8上においてタイムコード 「00: 04: 47: 00」 に対応している。 従って編 集点データにおいては、 図 1 5に示すように、 結果クリップ F C— 0 0 8のタイ ムコード 「00: 04: 47: 00」 と、 素材クリップ M C— 0 0 3のァゥト点のタイム コード 「00 : 05 : 18 : 02」 とが編集点 E P 8のところに対応付けて登録される。 このィン点とァゥ ト点のタイムコードによって、 第 1のレイヤ L 1として指定さ れた素材クリップ M C— 0 0 3の編集点が決まることになる。
同じように、 第 2のレイヤ L 2として指定された素材クリップ M C— 0 0 2の ィン点及びァゥト点のタイムコ一ド 「00: 00: 51: 00」 及び 「00: 03: 04: 20」 も、 図 1 5に示すように、 それぞれ結果クリップ F C— 0 0 8のタイムコードと 対応付けて登録される。 同様に、 第 3のレイヤ L 3として指定された素材クリツ プ M C— 0 0 1のィン点及びァゥト点のタイムコ一ド 「00: 01: 40: 03」 及び 「 00 : 02 : 45 : 48」 も、 図 1 5に示すように、 それぞれ結果クリップ F C— 0 0 8 のタイムコードと対応付けて登録される。
また結果クリップ F C— 0 0 9に対して、 図 8に示すような特殊効果処理が指 示された場合には、 図 1 6に示すような編集点データが登録される。 この図 1 6 に示すように、 特殊効果処理の場合であっても、 編集点データにおいては、 下位 クリップのタイムコードと上位クリップのタイムコ一ドとが対応付けて登録され る。 すなわち第 1のレイヤ L 1として指定されている素材クリップ M C— 0 0 4 のィン点及びァゥト点のタイムコード 「00: 10: 12: 00」 及び 「00: 12: 18: 00 J 力く、 図 1 6に示すように、 結果クリップ F C— 0 0 9のタイムコードと対応付 けて登録される。
また結果クリップ F C— 0 1 0に対して、 図 9に示すような編集処理が指示さ れた場合には、 図 1 7に示すような編集点データが登録される。 この図 I 7に示 すように、 編集処理の場合であっても、 編集点データにおいては、 下位クリップ のタイムコ一ドと上位クリップのタイムコ一ドとが対応付けて登録される。 すな わち第 1のレイヤ L 1として指定されている結果クリップ F C— 0 0 8のィン点 及びァゥト点のタイムコード 「00: 01: 01: 20」 及び 「00: 04: 43: 00」 力 \ 図 1 7に示すように結果クリップ F C— 0 1 0のタイムコードと対応付けて登録さ れると共に、 第 2のレイヤ L 2として指定されている結果クリップ F C— 0 0 9 のィン点及びァゥト点のタイムコ一ド 「00: 00: 00: 50」 及び 「00: 02: 06: 00 」 が、 同じく図 1 7に示すように結果クリップ F C— 0 1 0のタイムコードと対 応付けて登録される。
铳いて図 1 8を用いて、 合成データについて説明する。 合成データは、 各レイ ャに指定されたクリップのビデオデータを合成するときの合成比率 (ゲイン) を 表すデータであり、 値としては 「0」 ~ 「100 」 までの値を取り得るようになさ れている。 なお、 合成データの値が 「0」 であれば、 合成するビデオデータを 0 パーセントの割合で合成することを意味しており、 この場合には、 下層のビデオ データが完全に透けて見えることを意味している。 また合成データの値が 「5 0 」 であれば、 合成するビデオデータを 50パーセントの割合で合成することを意味 しており、 この場合には、 半分位の割合で下層のビデオデータが透けて見えるこ とを意味している。 さらに合成データの値が 「100 」 であれば、 合成するビデオ データを 100 パーセントの割合で合成することを意味しており、 この場合には、 下層のビデオデータが完全に隠れて見えないことを意味している。
ここで合成データの具体例を図 1 8に示す。 この図 1 8は、 図 7に示したよう な合成処理を指定した上で、 図 1 0に示したパラメータ設定ウィンドウ 3 5を使 用して合成データ (ゲイン) を指定したときに生成された合成データのデータべ —ス 'める。
第 1のレイヤ L 1に対して指定された素材クリップ M C— 0 0 3に対して、 編 集点 E P 1の位置及び編集点 E P 8の位置でゲイン 「100 」 を指定すると、 この 図 1 8に示すように、 編集点 E P 1及び編集点 E P 8に対応する欄にゲイン 「10 0 」 が登録される。 また編集点 E P 1から編集点 E P 8の間は、 当該編集点 E P 1及び E P 8をキーボイン卜としてその値に基づいた直線補間がなされるので、 自動的にゲイン 「100 」 が登録される (図中、 「一一」 は補間値が登録されてい ることを示す) 。
また第 2のレイヤ L 2に対して指定された素材クリップ M C— 0 0 2に対して 、 編集点 E P 2の位置でゲイン 「59」 を指定し、 編集点 E P 3の位置でゲイン 「 100 」 を指定し、 編集点 E P 6の位置でゲイン 「0」 を指定すると、 この図 1 8 に示すように、 編集点 E P 2、 E P 3及び E P 6に対応する欄にそれぞれ順にゲ イン 「59」 、 「100 」 及び 「0」 が登録される。 この場合も、 編集点 E P 2から 編集点 E P 3の間、 及び編集点 E P 3から編集点 E P 6の間は、 当該編集点 E P 2、 E P 3及び E P 6をキーポイントとしてその値に基づいた直線補間がなされ 、 直線的に連続するようなゲイン値が自動的に登録される。
また第 3のレイヤ L 3に対して指定された素材クリップ M C— 0 0 1に対して 、 編集点 E P 4の位置でゲイン 「100 」 を指定し、 編集点 E P 5の位置でゲイン 「67」 を指定し、 編集点 E P 7の位置でゲイン 「51」 を指定すると、 この図 1 8 に示すように、 編集点 E P 4、 E P 5及び E P 7に対応する欄にそれぞれ順にゲ イン 「100 」 、 「67」 及び 「51」 が登録される。 この場合も、 同様に、 編集点 E ? 4から編集点£ ? 5、 及び編集点 E P 5から編集点 E P 7の間は、 当該編集点 E P 4、 E P 5及び E P 7をキーポイントとしてその値に基づいた直線捕間がな され、 直線的に連続するようなゲイン値が自動的に登録される。
かくしてこのような合成データを登録して編集作業を実行すると、 各編集点の タイミングで合成データの値が順次切り換えられると共に、 各編集点間において は補間された値に順次切り換えられ、 その結果、 レイヤ L 1に指定された素材ク リップ M C— 0 0 3のビデオイメージ上に編集点 E P 2の時点からレイヤ L 2に 指定された素材クリップ M C— 0 0 2のビデオイメージが徐々に現れ、 編集点 E P 3以降にその素材クリップ M C— 0 0 2のビデオイメージが徐々に薄らいで行 くようなビデオイメージであって、 かつ編集点 E P 4の時点でレイヤ L 3に指定 された素材クリップ M C— 0 0 1のビデオイメージが現れ、 その後その素材クリ ップ M C— 0 0 1のビデオイメージが徐々に薄らいで行くようなビデオイメージ を得ることができる。
続いて図 1 9を用いて、 特殊効果データについて説明する。 特殊効果データは 、 基本的に編集対象のクリップに対して施す特殊効果処理の種類を表すエフェク ト I Dデータと、 その指定した特殊効果処理の各パラメータ値と、 その特殊効果 処理を施す期間とによって構成される。
ここで特殊効果データの具体例を図 1 9に示す。 この図 1 9は、 図 8に示した 3次元画像変換に関するものであって、 かつ図 1 1に示したパラメータ設定ウイ ンドウ 4 2を使用してパラメータ設定されたときに生成された特殊効果データの データベースである。 この図 1 9において、 エフェク ト I Dデータとして登録されている 「1025」 は 、 3次元画像変換に割り当てられたエフェク ト識別番号であり、 このエフェク ト 識別番号 「1025」 によって特殊効果処理として 3次元画像変換が指定されている ことが分かる。 また 「L 0 c X」 、 「Lo c Y」 及び 「Lo c Z」 は 3次 元画像変換のパラメ一夕である位置 (Χ, Υ, Z) を示しており、 「Ro t X 」 、 「Ro t Y」 及び 「Ro t Z」 は 3次元画像変換のパラメ一夕である回 転方向 (X, Υ, Z) を示しており、 「A s p」 は 3次元画像変換のパラメータ であるアスペク ト比を示しており、 「S k ew」 は 3次元画像変換のパラメータ であるスキューを示しており、 「P e r s」 は 3次元画像変換のパラメータであ るパースペクティブ値を示している。 これらのパラメータは、 図 1 9に示すよう に、 編集点 EP 2から編集点 EP 7にかけて指定されており、 これにより 3次元 画像変換が指定されている期間としては、 編集点 EP 2が開始点となっており、 編集点 EP 7が終了点になっていることが容易に分かる。 なお、 3次元画像変換 の開始点及び終了点の具体的な値、 すなわちタイムコードは、 先に説明した図 1 6の編集点データを参照すれば容易に把握できる。
ここで図 1 1に示したパラメータ設定ウィンドウ 4 2において、 パラメータ 「 L 0 c X j に対して編集点 EP 2、 E P 4、 E P 6及び E P 7のところでそれ ぞれ座標値 「0」 、 「0」 、 「—1.6 」 及び 「一 1.6 」 を指定すると、 この図 1 9に示すように、 編集点 EP 2、 EP 4, E P 6及び E P 7に対応する欄にそれ ぞれ座標値 「0」 、 「0」 、 「― 1.6 」 及び 「― 1.6 」 が登録される。 この場合 、 編集点 EP 2から編集点 EP 4、 編集点 EP 4から編集点 EP 6、 編集点 EP 6から編集点 EP 7の間は、 当該編集点 EP 2、 EP 4、 £? 6及び£ ? 7をキ —ボイン卜としてその値に基づいた直線補間がなされ、 直線的に連続するような 座標値が自動的に登録される。
同様に、 パラメータ 「Lo c Y」 に対して編集点 EP 2、 £ 6及び£? 7 のところでそれぞれ座標値 「0」 、 「0」 及び 「+ 2」 を指定すると、 編集点 E P 2、 EP 6及び E P 7に対応する欄に対応する座標値が登録され、 パラメータ 「L o c Z」 に対して編集点 EP 2、 E P 6及び E P 7のところでそれぞれ座 標値 「0」 、 「 + 2.2 」 及び 「 + 2.2 」 を指定すると、 編集点 E P 2、 E P 6及 び E P 7の欄に対応する座標値が登録される。
またパラメ一タ 「Ro t X」 に対して編集点 EP 2、 £ 5及び£ ? 7のと ころでそれぞれ回転角 「0」 、 「― 180 」 及び 「― 102 」 を指定すると、 編集点 EP 2、 EP 5及び EP 7に対応する攔に対応する回転角が登録される。 なお、 この場合には、 スプラインカーブによる捕間が設定されているので、 編集点 E P 2から編集点 EP 5、 及び編集点 EP 5から編集点 EP 7の間は、 それぞれスプ ラインカーブに沿って連続する値が自動的に登録される。 なお、 特に指定のなか つたパラメ一タ 「尺0 1 YJ 、 「Ro t Z」 、 「A s p」 、 「S k ew」 及 び 「P e r s」 については、 デフオルト値として 「0」 力く自動的に登録される。 力、く してこのような 3次元画像変換に関するパラメ一タを登録して編集作業を 実行すると、 各編集点のタイミングでパラメータの値が順次切り換えられると共 に、 各編集点間においては補間された値に順次切り換えられ、 その結果、 X軸を 中心にして回転しながら 3次元空間上を移動して行くようなビデオイメ一ジを得 ることができる。
続いて図 2 0を用いて、 編集データについて説明する。 編集データは、 基本的 に編集対象のクリップに対して施すトランジシヨンエフェク 卜の種類を表すエフ ェク ト I Dデータと、 その指定したトランジシヨンエフェク 卜に関するパラメ一 夕値と、 そのトランジシヨンエフェク トを施す期間とによって構成される。 ここで編集データの具体例を図 2 0に示す。 この図 2 0は、 トランジシヨンェ フエク トとして図 9に示したようなワイプ処理を指定し、 かつ図 1 2に示したパ ラメ一タ設定ウインドウ 5 2を使用してパラメータ設定されたときに生成された 編集データのデータベースである。
この図 2 0において、 エフェク ト I Dデータとして登録されている 「0001」 は 、 第 1のビデオデータのイメージから第 2のビデオデータのイメージに切り換わ るときに画面の左側から右側に向かって切り換わるようなワイプ処理に対して割 り当てられたエフェク ト識別番号であり、 このエフェク ト識別番号 「0001」 によ つてトランジシヨンエフェク トとしてこの種のワイプ処理が指定されていること を意味している。
なお、 エフェク ト I Dデータとしてエフェク ト識別番号 「1300」 が登録されて いる場合には、 第 1のビデオデータのィメージから第 2のビデオデータのィメ一 ジに切り換わるときに画面の両端から中央に向かって切り換わるような種類のヮ イブ処理が指定されていることを意味し、 エフェク ト I Dデータとしてエフェク ト識別番号 「2123」 が登録されている場合には、 第 1のビデオデータのイメージ 力《丁度べ一ジをめくるような感じで切り換わるページターン処理が指定されてい ることを意味している。
また 「A s p e c t」 はトランジシヨンエフェク 卜のワイプパターンの縦横比 を示すパラメータであり、 「A n g l e」 はワイプパターンの角度を示すパラメ —タであり、 「S p e e d」 は切換速度を示すパラメ一タであり、 「H— M o d 」 及び 「V—M o d」 はそれぞれワイプパターンのゆらぎを示すパラメータであ る。 これらのパラメータは、 図 2 0に示すように、 編集点 E P 2から編集点 E P 4にかけて指定されており、 これによりワイプ処理が指定されている期間として は、 編集点 E P 2が開始点となっており、 編集点 E P 4が終了点になっているこ とが容易に分かる。 なお、 ワイプ処理の開始点及び終了点の具体的な値、 すなわ ちタイムコードは、 先に説明した図 1 7の編集点データを参照すれば容易に把握 できる。
ここで図 1 2に示したパラメータ設定ウィンドウ 5 2において、 パラメータ Γ A s p e c t」 に対して編集点 E P 2及び E P 4のところでそれぞれ値 「0」 及 び 「 + 25」 を指定すると、 この図 2 0に示すように、 編集点 E P 2及び E P 4に 対応する攔にそれぞれ対応する値が登録される。 この場合、 編集点 E P 2から編 集点 E P 4の間は、 当該編集点 E P 2及び E P 4をキーボイン卜としてその値に 基づいた直線補間がなされ、 直線的に連続するような値が自動的に登録される。 またパラメータ 「S p e e d」 に対して編集点 EP 2、 £? 3及び£ 4のと ころでそれぞれ値 「20」 、 「20」 及び 「100 」 を指定すると、 この図 2 0に示す ように、 編集点 EP 2、 E P 3及び E P 4に対応する攔にそれぞれ対応する値が 登録される。 この場合も、 同様に、 編集点 E P 2から編集点 EP 3、 及び編集点 E P 3から編集点 E P 4の間は、 当該編集点 E P 2、 E P 3及び E P 4をキーポ イン卜としてその値に基づいた直線補間がなされ、 直線的に連続するような値が 自動的に登録される。
一方、 パラメータ 「An g 1 e」 に対して編集点 E P 2、 5? 3及び£ 4の ところでそれぞれ値 「0」 、 「 +180 」 及び 「― 180 」 を指定すると、 この図 2 0に示すように、 編集点 EP 2、 EP 3及び EP 4に対応する欄にそれぞれ対応 する値が登録される。 この場合には、 スプラインカーブによる補間が設定されて いるので、 編集点 EP 2から編集点 EP 3、 及び編集点 E P 3から編集点 E P 4 の間は、 それぞれスプラインカーブに沿って連続する値が自動的に登録される。 なお、 特に指定のなかったパラメータ 「H Mo d」 及び 「V Mo d」 につい ては、 デフォルト値として 「0」 カ洎動的に登録される。
かく してこのようなワイプ処理に関するパラメータを登録して編集作業を実行 すると、 各編集点のタイミングでパラメータの値が順次切り換えられると共に、 各編集点間においては補間された値に順次切り換えられ、 その結果、 ワイプパ夕 一ンの形状及び角度並びに切換速度が順次変化して行くようなトランジシヨンェ フエク トのビデオイメージを得ることがてきる。
(6) 編集システムにおける各種処理手順
続いてこの項では、 この編集システム 1における各処理の動作手順について、 フローチャートを用いて説明する。 なお、 以降説明する動作手順の内容は、 全て アプリケーションプログラムに基づいた CPU 2 1の動作によって行われる。 まずこの編集システム 1において所定の立ち上げ処理を行うと、 CPU 2 1は 、 図 2 1に示すステップ S P 1において制御モジュール CNTMを起動し、 続く ステップ S P 2においてワークステーション 2のディスプレイ 2 B上にトップメ ニュ一 表不す 。
次のステップ S P 3においては、 CPU 2 1は、 トップメニューにおいて何ら かのメニュー項目が選択されたか否か判断し、 その結果、 何らかのメニュー項目 が選択された場合には、 続くステップ S P 4からステップ S P 7においてその選 択されたメニュー項目を判断する。
ステップ S P 4における判断の結果、 編集モジュール EMの起動コマンドが選 択された場合には、 CPU2 1は、 ステップ S P 8に進んで編集モジュール EM の起動処理を行い、 ステップ S P 5における判断の結果、 合成モジュール CMの 起動コマンドが選択された場合には、 ステップ S P 9に進んで合成モジュール C Mの起動処理を行い、 ステップ S P 6における判断の結果、 特殊効果モジュール SMの起動コマンド力く選択された場合には、 ステップ SP 1 0に進んで特殊効果 モジュール S Mの起動処理を行う。
一方、 ステップ SP 7の判断の結果、 既に登録されている結果クリップのファ ィルをオープンするコマンドが選択された場合には、 CPU 2 1は、 次のステツ プ S P 1 1において選択された結果クリップで使用されているモジュールを認識 し、 次のステップ SP 1 2において認識したモジュール (すなわち編集モジュ一 ル EM、 合成モジュール CM又は特殊効果モジュール SM) を起動する。 なお、 ステップ S P 1 1においては、 CPU 2 1は、 クリップデータベース CDBに登 録されている作業データを参照することにより、 その選択された結果クリップの モジュール認識を行う。
ここでステップ S P 8における編集モジュール EMの起動処理を、 図 22に具 体的に示す。 編集モジュール EMの起動が指示されると、 CPU 2 1は、 ステツ プ S P 20から入ったステップ S P 2 1において、 ワークステーション 2のディ スプレイ Bにまず編集モジュール EMの GU Iを表示する。 次のステップ S P 22においては、 CPU 2 1は、 先のステップ SP 1 2を介して編集モジュール EMの起動が指示されたか否か判断し、 ステップ S P 1 2を介して編集モジユー ル EMの起動が指示された場合には、 ステップ SP 2 3に進み、 指定された結果 クリップの編集処理内容をクリップデータベース CD Bに登録されているクリッ ブ管理データを基に読出し、 上述した編集モジュール用の GU Iのタイムライン ウィンドウ 5 1にその編集処理内容を表示する。
一方、 ステップ S P 22における判断の結果、 ステップ S P 1 2を介した起動 ではなく、 新規の起動であれば、 CPU 2 1は、 ステップ S P 24に進み、 これ から新たに行われる編集処理に備えてクリップ管理データの登録準備を行う。 具 体的には、 これから新たに指示される編集処理内容に備えて、 クリッブ管理デー タを登録するエリァをクリップデータベース CD B上に確保する。 これらのステ ッブ S P 23又はステップ S P 24の処理が行われると、 C PU 2 1は、 次のス テツプ S P 2 5に進み、 実際の編集処理に移行する。
またステップ S P 9における合成モジュール CMの起動処理を、 図 23に具体 的に示す。 合成モジュール CMの起動が指示されると、 CPU 2 1は、 ステップ S P 30から入ったステップ S P 3 1において、 ワークステーション 2のデイス プレイ 2 Bにまず合成モジュール CMの GU Iを表示する。 次のステップ S P 3 2においては、 C PU 2 1は、 先のステップ S P 1 2を介して合成モジュール C Mの起動が指示されたか否か判断し、 ステップ SP 1 2を介して合成モジュール CMの起動が指示された場合には、 ステップ S P 3 3に進み、 指定された結果ク リップの合成処理内容をクリップデータベース CD Bに登録されているクリップ 管理データを基に読出し、 上述した合成モジュール用の GU Iのタイムラインゥ インドウ 34にその合成処理内容を表示する。
—方、 ステップ S P 32における判断の結果、 ステップ SP 1 2を介した起動 ではなく、 新規の起動であれば、 CPU 2 1は、 ステップ S P 34に進み、 これ から新たに行われる合成処理に備えてクリップ管理データの登録準備を行う。 具 体的には、 これから新たに指示される合成処理内容に備えて、 クリップ管理デ一 夕を登録するエリアをクリップデータベース CD B上に確保する。 これらのステ ップ S P 3 3又はステップ S P 3 4の処理が行われると、 C PU 2 1は、 次のス テツブ S P 3 5に進み、 実際の合成処理に移行する。
またステップ S P 1 0における特殊効果モジュール SMの起動処理を、 図 2 4 に具体的に示す。 特殊効果モジュール SMの起動が指示されると、 CPU 2 1は 、 ステップ S P 4 0から入ったステップ S P 4 1において、 ワークステーション 2のディスプレイ 2 Bにまず特殊効果モジュール SMの GU Iを表示する。 次の ステップ S P 4 2においては、 CPU 2 1は、 先のステップ S P 1 2を介して特 殊効果モジュール SMの起動が指示されたか否か判断し、 ステップ S P 1 2を介 して特殊効果モジュール SMの起動が指示された場合には、 ステップ S P 4 3に 進み、 指定された結果クリップの特殊効果内容をクリップデータべ一ス C D Bに 登録されているクリップ管理データを基に読出し、 上述した特殊効果モジュール 用の GU Iのタイムラインウィンドウ 4 1にその特殊効果内容を表示する。
—方、 ステップ SP 4 2における判断の結果、 ステップ S P 1 2を介した起動 ではなく、 新規の起動であれば、 CPU 2 1は、 ステップ S P 4 4に進み、 これ から新たに行われる特殊効果処理に備えてクリップ管理データの登録準備を行う 。 具体的には、 これから新たに指示される特殊効果処理に備えて、 クリップ管理 データを登録するエリアをクリップデ一夕ベース CD B上に確保する。 これらの ステップ S P 4 3又はステップ S P 4 4の処理が行われると、 C PU 2 1は、 次 のステップ SP 4 5に進み、 実際の特殊効果処理に移行する。
ここで図 2 2のステップ SP 2 5に示した編集処理の詳細を、 図 2 5に示す。 なお、 ここでは図示は省略するカ^ 図 2 3のステップ SP 3 5に示した合成処理 、 及び図 2 4のステップ S P 4 5に示した特殊効果処理も、 この図 2 5に示す編 集処理とほぼ同じであり、 その違いはその処理内容が合成処理又は特殊効果処理 に代わるだけである。
図 2 5に示すように、 CPU 2 1は、 まずステップ S P 5 0から入ったステツ プ S P 5 1において編集処理を指示する人力があつたか否か判断し (例えばタイ ムラインウィンドウ 5 1を使用した操作或いはパラメータ設定ウィンドウ 5 2を 使用した操作等があつたか否か判断する) 、 その結果、 そのような入力があった 場合には、 ステップ S P 5 2に進み、 入力に対応する編集データを作成し、 それ をクリップ管理データとしてクリップデータベース C D Bに適宜書込み、 その結 果クリップの有効/無効フラグを無効に設定する。 なお、 既に登録されている結 果クリップを読出してその内容を修正するための入力であった場合には、 C P U 2 1は単に上書きするのではなく、 修正前のクリップ管理データに対して別のク リップ I Dコードを割り当て、 別の領域に保持するようになっている。 これによ り修正前のクリップ管理データを後で読み出すこともできる。
このステップ S P 5 2の処理か'終わると、 C P U 2 1は、 次のステップ S P 5 3に進む。 ステップ S P 5 3においては、 C P U 2 1は、 クリップ管理データの 親リンク先 I Dコ一ドを参照することにより、 ステップ S P 5 2で作成した結果 クリップに対する上位のクリップが存在するか否か判断する。 その結果、 上位の クリップが無い場合にはステップ S P 5 1に戻り、 上位のクリップが存在する場 合には、 ステップ S P 5 4に進み、 その上位のクリップを管理するクリップ管理 データの有効 無効フラグを全て無効に設定し、 その後、 ステップ S P 5 1に戻 る。 なお、 ステップ S P 5 4に進む場合は、 殆どの場合、 既に登録されている結 果クリップを修正した場合である。 また上位のクリップというのは、 ステップ S P 5 2で作成した結果クリップを下位クリップとする上位クリップのみならず、 その上位クリップをさらに下位クリップとする結果クリップも含み、 少なくとも その結果クリップを素材として使用している結果クリップ全てである (以降、 こ れを関連するクリップとも呼ぶ) 。
例えば既に登録されている各素材クリップ及び結果クリップの関係が図 2 6に 示すような関係にあつたとする。 すなわち素材クリップ M C— G 1及び M C— G 2によって結果クリップ F C— Gが生成されており、 結果クリップ F C— Eは、 その結果クリップ F C— Gと素材クリップ M C— E 1及び M C— E 2とを素材と して生成されている。 また結果クリップ F C— Cは、 その結果クリップ F C— E と素材クリッブ M C— C 1とを素材として生成されている。 また結果クリップ FC— Fは素材クリップ MC— F 1、 MC— F 2及び MC— F 3を素材として生成されており、 結果クリップ FC— Dはその結果クリップ F C— Fと素材クリップ MC— D 1及び MC— D 2と結果クリップ FC— Eとを素 材として生成されている。 また結果クリップ F C— Bは結果クリップ F C— D及 び FC— Cと素材クリップ MC— B 1とを素材として生成されており、 結果クリ ップ FC— Aは結果クリップ FC— Bを素材として生成されている。
このようなクリップ間の関係があるとき、 一旦、 それぞれ結果クリップのクリ ップビデオデータを生成した後に特に修正を加えない限りにおいては、 通常、 こ れらのクリップを管理するクリップ管理データの有効/無効フラグは有効に設定 されている。 しかしながら例えば結果クリップ FC— Eの編集処理内容に修正を 加えた場合には、 結果クリップ F C一 Eの有効ノ無効フラグは当然無効に変更さ れるが、 結果クリップ FC— Eのみならず、 当該結果クリップ F C— Eを下位ク リップとする結果クリップ FC— C及び FC— D、 さらに当該結果クリップ FC — C及び FC— Dを下位クリップとする結果クリップ FC— B、 さらに当該結果 クリップ F C— Bを下位クリップとする結果クリップ FC— Aも全て有効/無効 フラグ力く無効に変更される。
再び図 2 5に示したフローチヤ一卜の説明に戻る。 ステップ S P 5 1における 判断の結果、 特に編集処理の入力がなされなかった場合には、 続くステップ S P 5 5に進む。 ステップ S P 55においては、 C PU 2 1は、 タイムラインウィン ドウ 5 1のビデオエリアに表示されている結果クリップが選択されたか否力、判断 し、 表示されている結果クリップが選択された場合には、 ステップ S P 5 6にお いてその結果クリップを作成したモジュール (すなわち合成モジュール CM又は 特殊効果モジュール SM) を起動し、 表示されている結果クリッブが選択されな かった場合には、 ステップ SP 5 8に進む。 なお、 ステップ S P 5 6の詳細は、 後述する。
ステップ S P 5 8においては、 C PU 2 1は、 再実行指令が入力されたか否か 判断し、 再実行指令が入力された場合には、 ステップ SP 5 9に進んで再実行処 理を行い、 再実行指令が入力されなかった場合には、 ステップ SP 26を介して 元のフローチャートに戻る。 なお、 ここで言う再実行指令とは、 GU I画面に表 示されているビユウボタン又はオールビユウボタンがマウス 2 Dによってクリッ クされ、 ビユウ又はォ一ルビユウの指示が入力されたことを意味している。 ビュ ゥ又はォ一ルビユウのときには、 指定されている編集処理内容が実際に実行され 、 その結果クリップのビデオクリップデータが生成されるのでこのような名前が 付けられている。
ここで先に説明したステップ S P 56の具体的な処理 (すなわちモジュールの 起動処理) を、 図 27に示す。 この図 27に示すように、 表示されている結果ク リップが選択された場合には、 CPU2 1は、 ステップ S P 60から入ったステ ップ S P 6 1において、 その選択された結果クリップのクリップ管理データを読 み出す。 次にステップ SP 62において、 CPU 2 1は、 そのクリップ管理デー 夕内に登録されているモジュール I Dコードを参照し、 次のステップ SP 63に おいて、 そのモジュール I Dコードに対応するモジュール (すなわち合成モジュ ール CM又は特殊効果モジュール SM) を起動して、 GU I上のタイムラインゥ ィンドウにその結果クリップの編集処理内容を表示する。
続いて先に説明したステップ S P 59の具体的な処理 (すなわち再実行処理) を、 図 28に示す。 但し、 この図 28においては、 図 26に示すようなクリップ 間の関係があるものとし、 かつ先に説明したステップ S P 54の処理によって結 果クリップ FC— E、 FC— D、 FC— C、 F C— B及び F C— Aが全て無効と されているものとする。
この図 28に示すように、 再実行指令が指示された場合には、 CPU 2 1は、 ステップ S P 70から入ったステップ S P 7 1において、 まず RAM2 1 B上に スタックメモリを形成し、 そのスタックメモリにクリップッリ一上において最上 位にある結果クリップのクリップ管理データをプッシュする。 例えば図 26に示 す例では、 結果クリップ FC— Aが最上位になっているので、 この結果クリップ FC— Aのクリップ管理データをスタックメモリにプッシュする。 なお、 ここで 言うプッシュとは、 スタックメモリ空間においてデータを上積みすることを言う 次のステップ S P 7 2においては、 C PU 2 iは、 そのスタックメモリの中身 が空であるか否か判断する。 いまの場合、 ステップ S P 7 1において、 スタック メモリにクリップ管理データをプッシュしたのでデータが存在しており、 否定結 果が得られる。 このため CPU 2 1は次のステップ S P 7 4に進む。
ステップ S P 7 4においては、 CPU 2 1は、 スタックメモリからクリップ管 理データを 1クリップ分ポップし、 そのクリップ管理データの有効/無効フラグ を基にそのクリップが有効であるか否か判断する。 図 2 6に示した例では、 結果 クリップ FC— Aは無効とされているので、 否定結果が得られ、 ステップ S P 7 5に進む。 なお、 ここで言うポップとは、 スタックメモリ空間において上積みさ れているデータを一番上のものから読み出すことを言う。
ステップ SP 7 5においては、 CPU 2 1は、 先のステップ S P 7 4で読出し たクリップ管理データに基づいて、 その結果クリップの下位クリップが全て有効 であるか否か判断する。 この場合、 CPU2 1は、 その結果クリップのクリップ 管理データに登録されている子リンク先 I Dコ一ドを参照し、 そこに登録されて いるクリップ I Dコ一ドを基に下位クリップを判断し、 その下位クリップの有効 /無効フラグをクリップデータベースから参照することにより、 下位クリップ力く 全て有効であるか否かを判断する。 図 2 6に示した例では、 結果クリップ FC— Aの下位クリップである結果クリップ FC— Bは無効となっているので、 否定結 果が得られ、 次のステップ S P 7 7に進む。
ステップ S P 7 7においては、 CPU 2 1は、 先程ポップした結果クリップの クリップ管理データを再びスタックメモリにプッシュし、 次のステップ S P 7 8 に進む。 図 2 6に示した例では、 結果クリップ FC— Aのクリップ管理データを 再びスタックメモリにプッシュすることになる。 ステップ S P 7 8においては、 CPU 2 1は、 ステップ S P 7 7で再プッシュした結果クリップの下位クリッブ のうち、 無効とされているクリップのクリップ管理データを 1つスタックメモリ にプッシュする。 図 2 6に示した例では、 結果クリップ F C— Aの下位クリップ F C— Bは無効とされているので、 この結果クリップ F C— Bのクリップ管理デ —夕がスタツクメモリにプッシュされる。
次に C P U 2 1は、 再びステップ S P 7 2に戻り、 ここでスタックメモリ内が 空であるか否か判断する。 いまの場合、 スタックメモリ内にはクリップ管理デー 夕が存在するので、 否定結果が得られ、 次のステップ S P 7 4に進む。 ステップ S P 7 4では、 C P U 2 1は、 スタックメモリからクリップ管理データを 1 クリ ップ分ポップし、 そのクリップ管理データ内の有効 z無効フラグを基にその結果 クリップが有効であるか否かを判断する。 図 2 6に示した例では、 結果クリップ F C— Bのクリップ管理データが読み出される力く、 その結果クリップ F C— Bは 無効とされているので、 否定結果が得られ、 次のステップ S P 7 5に進む。
ステップ S P 7 5においては、 C P U 2 1は、 先のステップ S P 7 4で読出し たクリップ管理データに基づいて、 その結果クリップの下位クリップが全て有効 であるか否か判断する。 図 2 6の例では、 結果クリップ F C— Bの下位クリップ である結果クリップ F C— C及び F C— Dは無効とされているので、 否定結果が 得られ、 次のステップ S P 7 7に進む。
ステップ S P 7 7においては、 C P U 2 1は、 先程ポップした結果クリップの クリップ管理データを再びスタックメモリにプッシュし、 次のステップ S P 7 8 に進む。 図 2 6の例では、 結果クリップ F C— Bのクリップ管理データが再プッ シュされる。 次のステップ S P 7 8においては、 C P U 2 1は、 ステップ S P 7 7で再プッシュした結果クリップの下位クリップのうち、 無効とされているクり ップのクリップ管理データを 1つスタックメモリにプッシュする。 図 2 6の例で は、 結果クリップ F C— Cのクリップ管理データがプッシュされる。
次に C P U 2 1は、 再びステップ S P 7 2に戻り、 ここでスタックメモリ内力く 空であるか否か判断する。 いまの場合、 空でないので否定結果が得られ、 次のス テツプ S P 7 4に進む。 ステップ S P 7 4においては、 C P U 2 1はスタックメ モリからクリップ管理データを 1 クリップ分ポップし、 そのクリップ管理データ を基にその結果クリップが有効であるか否か判断する。 図 2 6の例では、 結果ク リップ F C— Cのクリップ管理データが読み出される力く、 その結果クリップ F C 一 Cは無効であるので、 否定結果が得られ、 次のステップ S P 7 5に進む。 ステップ S P 7 5においては、 C P U 2 iは、 先のステップ S P 7 4で読出し たクリップ管理データに基づいて、 その結果クリップの下位クリップが全て有効 であるか否か判断する。 図 2 6の例では、 結果クリップ F C— Cの下位クリップ である結果クリップ F C— Eが無効とされているので、 否定結果が得られ、 次の ステップ S P 7 7に進む。
ステップ S P 7 7においては、 C P U 2 1は、 先程ポップした結果クリップの クリップ管理データを再びスタックメモリにプッシュし、 次のステップ S P 7 8 に進む。 図 2 6の例では、 結果クリップ F C— Cのクリップ管理データが再プッ シュされる。 次のステップ S P 7 8においては、 C P U 2 1は、 ステップ S P 7 7で再プッシュした結果クリップの下位クリップのうち、 無効とされているクリ ップのクリップ管理データを 1つスタックメモリにプッシュする。 図 2 6の例で は、 結果クリップ F C— Eのクリップ管理データがプッシュされる。
次に C P U 2 1は、 再びステップ S P 7 2に戻り、 ここでスタックメモリ内が 空であるか否か判断する。 いまの場合、 空でないので否定結果が得られ、 次のス テツプ S P 7 4に進む。 ステップ S P 7 4においては、 C P U 2 1はスタックメ モリからクリップ管理データを 1 クリップ分ポップし、 そのクリップ管理データ を基にその結果クリップが有効であるか否か判断する。 図 2 6の例では、 結果ク リップ F C— Eが読み出されるが、 その結果クリップ F C— Eは無効であるので 、 否定結果が得られ、 次のステップ S P 7 5に進む。
ステップ S P 7 5においては、 C P U 2 1は、 先のステップ S P 7 4で読出し たクリップ管理データに基づいて、 その結果クリップの下位クリップが全て有効 であるか否か判断する。 図 2 6の例では、 結果クリップ F C— Eの下位クリップ であるクリップ M C— E 1、 M C— E 2及び F C— Gは全て有効であるので、 肯 定結果が得られ、 ステップ S P 7 6に進む。 ステップ S P 7 6においては、 CPU 2 1は、 クリップ管理データに登録され ている作業データを基に、 素材として指定されているクリップのクリップビデオ データを用いて編集処理を行うことにより、 その結果クリップのクリップビデオ データを作成すると共に、 その結果クリップに対するクリップ管理データの有効 Z無効フラグを有効に変更する。 図 2 6の例では、 素材として指定されているク リップ FC— G、 MC-E 1及び MC— E 2を用いて編集処理を行うことにより 結果クリッブ FC— Eのクリップビデオデータを作成すると共に、 結果クリップ F C一 Eの有効ノ無効フラグを有効に変更する。
次に CPU 2 1は、 再びステップ S P 7 2に戻り、 ここでスタックメモリ内が 空であるか否か判断する。 いまの場合、 空でないので否定結果が得られ、 次のス テツプ S P 7 4に進む。 ステップ S P 7 4においては、 C PU 2 1はスタックメ モリからクリップ管理データを 1クリップ分ポップし、 そのクリップ管理データ を基にその結果クリップが有効であるか否か判断する。 図 2 6の例では、 結果ク リップ FC— Cのクリップ管理データが読み出される力 \ その結果クリップ F C —Cは無効であるので、 否定結果が得られ、 次のステップ S P 7 5に進む。 ステップ S P 7 5においては、 C PU 2 1は、 先のステップ S P 7 4で読出し たクリップ管理データに基づいて、 その結果クリップの下位クリップが全て有効 であるか否か判断する。 図 2 6の例では、 結果クリップ FC— Cの下位クリップ であるクリップ F C— E及び MC— C 1はそれぞれ有効とされているので、 肯定 結果が得られ、 ステップ S P 7 6に進む。
ステップ S P 7 6においては、 CPU 2 1は、 クリップ管理データに登録され ている作業データを基に、 素材として指定されているクリップのクリップビデオ データを用いて編集処理を行うことにより、 その結果クリップのクリップビデオ データを作成すると共に、 その結果クリップに対するクリップ管理データの有効 /無効フラグを有効に変更する。 図 2 6の例では、 クリップ FC— E及び MC— C 1を用いた編集処理が行われ、 結果クリップ FC— Cのクリップビデオデータ が作成されると共に、 その結果クリップ F C— Cの有効/無効フラグが有効に変 更される。
次に CPU 2 1は、 再びステップ S P 7 2に戻り、 ここでスタックメモリ内が 空であるか否か判断する。 いまの場合、 空でないので否定結果得られ、 次のステ ップ S P 7 4に進む。 ステップ S P 7 4においては、 C PU 2 1はスタックメモ リからクリップ管理デ一タを 1 クリツプ分ポップし、 そのクリツプ管理デ一タを 基にその結果クリップが有効であるか否か判断する。 図 2 6の例では、 結果クリ ップ FC— Bのクリップ管理データが読み出されるが、 その結果クリップ F C— Bは無効であるので、 否定結果が得られ、 次のステップ S P 7 5に進む。
ステップ S P 7 5においては、 C PU 2 1は、 先のステップ S P 7 4で読出し たクリップ管理データに基づいて、 その結果クリップの下位クリップが全て有効 であるか否か判断する。 図 2 6の例では、 下位クリップである結果クリップ FC 一 Dが無効とされているので、 否定結果が得られ、 ステップ S P 7 7に進む。 ステップ S P 7 7においては、 同様に、 CPU 2 1は、 その結果クリップのク リップ管理データを再びスタックメモリにプッシュし、 次のステップ S P 7 8に おいて無効であった下位クリップのクリップ管理データをスタックメモリにプッ シュする。
次に CPU2 1は、 再びステップ S P 7 2に戻り、 ここでスタックメモリ内が 空であるか否か判断する。 いまの場合、 空でないので否定結果が得られ、 次のス テツプ S P 7 4に進む。 ステップ S P 7 4においては、 C PU 2 1はスタックメ モリかららクリップ管理データを 1クリップ分ポップし、 そのクリップ管理デー タを基にその結果クリップが有効であるか否か判断する。 図 2 6の例では、 結果 クリップ F C— Dが読み出される力 \ その結果クリップ F C— Dは無効であるの で、 否定結果が得られ、 次のステップ S P 7 5に進む。
ステップ S P 7 5においては、 C PU 2 1は、 先のステップ S P 7 4で読出し たクリップ管理データに基づいて、 その結果クリップの下位クリップが全て有効 であるか否か判断する。 図 2 6の例では、 結果クリップ FC— Dの下位クリップ であるクリップ FC— E、 FC— F、 MC— D 1及び MC— D 2は全て有効であ るので、 肯定結果が得られ、 ステップ S P 7 6に進む。
ステップ S P 7 6においては、 CPU 2 1は、 クリップ管理データに登録され ている作業データを基に、 素材として指定されているクリップのクリップビデオ データを用いて編集処理を行うことにより、 その結果クリップのクリップビデオ デ一タを作成すると共に、 その結果クリップに対するクリツプ管理データの有効 ノ無効フラグを有効に変更する。 図 2 6の例では、 クリップ FC— E、 FC— F 、 MC— D 1及び MC— D 2を用いた編集処理が行われ、 結果クリップ FC— D のクリップビデオデータが作成されると共に、 その結果クリップ FC— Dの有効 Z無効フラグが有効に変更される。
次に C PU 2 1は、 再びステップ S P 7 2に戻り、 ここでスタックメモリ内が 空であるか否か判断する。 いまの場合、 空でないので否定結果得られ、 次のステ ップ S P 7 4に進む。 ステップ S P 7 4においては、 CPU 2 1はスタックメモ リからクリップ管理データを 1 クリップ分ボップし、 そのクリップ管理データを 基にその結果クリップが有効であるか否か判断する。 図 2 6の例では、 結果クリ ップ F C— Bのクリップ管理データが読み出される力く、 その結果クリップ FC— Bは無効であるので、 否定結果が得られ、 次のステップ S P 7 5に進む。
ステップ S P 7 5においては、 CPU 2 1は、 先のステップ S P 7 4で読出し たクリップ管理データに基づいて、 その結果クリップの下位クリップが全て有効 であるか否か判断する。 図 26の例では、 下位クリップである結果クリップ FC — C及び F C— Dは有効であるので、 肯定結果が得られ、 次のステップ S P 7 6 に進む'。
ステップ S P 7 6においては、 CPU 2 1は、 クリップ管理データに登録され ている作業データを基に、 素材として指定されているクリップのクリップビデオ データを用いて編集処理を行うことにより、 その結果クリップのクリップビデオ データを作成すると共に、 その結果クリップに対するクリップ管理データの有効 /無効フラグを有効に変更する。 図 2 6の例では、 クリップ FC— C及び FC— Dを用いた編集処理が行われ、 結果クリップ F C— Bのクリップビデオデータが 作成されると共に、 その結果クリップ F C— Bの有効 無効フラグが有効に変更 される。
次に CPU 2 1は、 再びステップ S P 7 2に戻り、 ここでスタックメモリ内が 空であるか否か判断する。 いまの場合、 空でないので否定結果得られ、 次のステ ッブ S P 7 4に進む。 ステップ S P 7 4においては、 C PU 2 1はスタックメモ リカ、らクリップ管理データを 1 クリップ分ポップし、 そのクリップ管理データを 基にその結果クリップが有効であるか否か判断する。 図 2 6の例では、 結果クリ ップ FC— Aのクリップ管理データが読み出される力 <、 その結果クリップ FC— Aは無効であるので、 否定結果が得られ、 次のステップ S P 7 5に進む。
ステップ S P 7 5においては、 C PU 2 1は、 先のステップ S P 7 で読出し たクリップ管理データに基づいて、 その結果クリップの下位クリップが全て有効 であるか否か判断する。 図 2 6の例では、 下位クリップである結果クリップ FC 一 Bは有効であるので、 肯定結果が得られ、 次のステップ S P 7 6に進む。
ステップ S P 7 6においては、 CPU 2 1は、 クリップ管理データに登録され ている作業データを基に、 素材として指定されているクリップのクリップビデオ デ一タを用いて編集処理を行うことにより、 その結果クリップのクリップビデオ データを作成すると共に、 その結果クリップに対するクリップ管理データの有効 ノ無効フラグを有効に変更する。 図 2 6の例では、 結果クリップ FC— Bを用い た編集処理が行われ、 結果クリップ FC— Aのクリップビデオデータが作成され ると共に、 その結果クリップ FC— Aの有効ノ無効フラグが有効に変更される。 次に CPU 2 1は、 再びステップ S P 7 2に戻り、 ここでスタックメモリ内力く 空である否か判断する。 いまの場合、 先程のポップ処理により最上位の結果クリ ップまで全て読み出されているので、 スタックメモリ内は空になっており、 肯定 結果が得られる。 従って CPU 2 1はステップ S P 7 3に進んで、 再実行処理を 終える。
なお、 ステップ S P 7 4において、 スタックメモリから読み出されたクリップ 管理データのクリップが有効であると判断された場合には、 ステップ S P 7 2に 戻る。 例えばクリップッリ一において最上位の結果クリップが有効であった場合 には、 ステップ S P 7 1の処理によりスタツクメモリにクリップ管理デ一夕がプ ッシュされる力く、 その後のステップ S P 7 4の判断により肯定結果が得られるの で、 ステップ S P 7 2に戻り、 ここで肯定結果が得られることから直ぐさま再実 行処理が終了する。 このように、 最上位の結果クリップが有効である場合には、 再実行処理は実質的に実行されないことになる。
ここで以上説明した再実行処理のフローチヤ一卜の内容を、 模式的に示したも のを図 2 9に示す。 本発明による編集システム 1においては、 最上位の結果クリ ップ F C— Aが無効であったとき、 その下位クリップである結果クリップ F C— Bが有効であるか否か調べ、 無効であった場合には、 さらにその結果クリップ F C一 Bの下位クリップ F C— Cが有効であるか否か調べる。 その結果、 結果クリ ップ F C— Cが無効であった場合には、 さらにその結果クリップ F C— Cの下位 クリップ F C— Eが有効であるか否か調べ、 その結果クリップ F C— Eが無効で あった場合には、 さらにその結果クリップ F C— Eの下位クリップ F C— Gが有 効であるか否か調べる。
その結果、 結果クリップ F C— Gが有効であれば、 その結果クリップのクリッ プビデオデータを転送し、 そのクリップビデオデータを基にした編集処理を再実 行することにより上位クリップに相当する結果クリップ F C— Eのクリップビデ ォデータを作成する。 結果クリップ F C— Eのクリップビデオデータが作成され ると、 次にそのクリップビデオデータを基にした編集処理を再実行することによ り上位クリップに相当する結果クリップ F C— Cのクリップビデオデ一タを作成 する。 結果クリップ F C— Cのクリップビデオデータが作成されると、 次にその クリップビデオデータを基にした編集処理を再実行しょうとする力 <、 下位クリッ プである他方の結果クリップ F C— Dが未だ無効であるため、 その結果クリップ F C— Dの下位クリップである結果クリップ F C— Eが有効であるか否か調べる 結果クリップ F C— Eが有効である場合には、 その結果クリップ F C— Eのク リップビデオデータを転送する。 また結果クリップ F C— Dの下位クリップであ る他方の結果クリップ F C— Fが有効であるか否か調べ、 有効であれば、 その結 果クリップ F C— Fのクリップビデオデータも転送する。 下位クリップ F C— E 及び F C— Fからのクリップビデオデータが転送されると、 それらのクリップビ デォデータを基にした編集処理を再実行することにより上位クリップに相当する 結果クリップ F C—Dのクリップビデオデータを作成する。 次に結果クリップ F C— Dのクリップビデオデータが作成されると、 そのクリップビデオデータを基 にした編集処理を再実行することにより上位クリップに相当する結果クリップ F C一 Bのクリップビデオデータを作成する。 次に結果クリップ F C— Bのクリッ プビデオデータが作成されると、 そのクリップビデオデ一タを基にした編集処理 を再実行することにより上位クリップに相当する結果クリップ F C— Aのクリツ プビデオデータを作成する。
このようにして本発明による編集システム 1においては、 例えば結果クリップ F C - Eの編集処理内容が修正された場合、 その結果クリップ F C— Eの識別用 フラグを無効に変更すると共に、 その結果クリップ F C— Eよりも上位にリンク している結果クリップ F C— C、 F C— D、 F C— B及び F C— Aの識別用フラ グも全て無効に変更して行く。 そしてビユウ又はオールビユウのコマンド選択に よって再実行処理が指定された場合には、 最上位の結果クリップ F C— Aから下 位のクリップに向かってクリップが有効であるか否か調べて行き、 下位にリンク しているクリップが全て有効であるクリップに達したら、 そのクリップの編集処 理を再実行してそのクリップを有効なクリップに変更すると共に、 そのク リップ よりも上位にリンクしているクリップの編集処理を順に再実行して行くことによ り上位にリンクしている全てのクリップを有効なクリップに変更する。 力、く して 本発明による編集システム 1においては、 このような処理を行うことにより、 従 来のようにオペレータがクリップ間の関係を覚えていなくとも、 一旦作成した編 集結果を容易に修正することができる。 ( 7 ) 編集システムの動作及び効果
以上の構成において、 この編集システム 1を立ち上げると、 ワークステ一ショ ン 2のディスプレイ 2 B上にはトップメニューが表示される。 オペレータは、 こ のトップメニュー内の所望のモジュール起動のコマンドを選択し、 これから行う 編集作業に合ったモジュールを起動する。 モジュールが起動すると、 ワークステ —シヨン 2のディスプレイ 2 B上には、 編集のための G U Iが表示される。 例えば合成モジュール C Mを起動したときには、 図 1 0に示すような G U Iが ディスプレイ 2 Bに表示される。 この合成処理用の G U Iにおいては、 合成処理 専用のタイムラインウインドウ 3 4が表示され、 このタイムラインウィンドウ 3 4の画面に応じた操作をして行けば、 容易に素材となるクリップを指定したり、 所望の合成処理を指定したりすることができる。 その際、 この G U Iにおいては 、 クリップデータベース C D Bとして登録されているクリップがクリップッリ一 ウインドウ 3 1やライブラリーウィンドウ 3 3に表示されるので、 その中の所望 のクリップを素材として選択し、 これをタイムラインウィンドウ 3 4内のビデオ ェリアに置けば、 容易に合成処理する素材を指定することができる。
またタイムラインウィンドウ 3 4で指定した合成処理のパラメータを設定する 場合には、 同じ G U I上に表示されるパラメータ設定ウィンドウ 3 5を使用して 画面を見ながらパラメータを設定して行けば、 所望の合成パラメータを設定する ことができる。
またクリップッリーウィンドウ 3 1においては、 クリップデータベース C D B に登録されている各クリップの関係が分かるようなクリップツリーが表示される ので、 このクリップツリーを見れば、 各クリップがどのようなクリップを素材と して生成されているのかを容易に把握することができる。
同様に、 特殊効果モジュール S Mを起動したときには、 図 1 1に示すような G U Iがディスプレイ 2 Bに表示される。 この特殊効果処理の G U Iにおいても、 特殊効果専用のタイムラインウィンドウ 4 1が表示され、 このタイムラインウイ ンドウ 4 1の画面に応じた操作をして行けば、 容易に素材となるクリップを指定 したり、 所望の特殊効果処理を指定したりすることができる。 またこの特殊効果 処理の G U Iにおいても、 クリップッリーウィンドウ 3 1やライブラリーウイン ドウ 3 3が設けられており、 これによりクリツプデー夕べ一ス C D Bに登録され ている所望のクリップを容易に素材として選択することができる。
同様に、 編集モジュール E Mを起動したときには、 図 1 2に示すような G U I がディスプレイ 2 Bに表示される。 この編集処理の G U Iにおいても、 編集処理 専用のタイムラインウィンドウ 5 1が表示され、 このタイムラインウィンドウ 5 1の画面に応じた操作をして行けば、 容易に素材となるクリップを指定したり、 所望の編集処理を指定したりすることができる。
このようにしてこの編集システム 1では、 ワークステーション 2のディスプレ ィ 2 Bに表示される G U Iを見ながら所望の素材や編集内容を指定して行けば、 所望の編集作業を容易に行うことができる。 またこの編集システム 1では、 ヮー クステーション 2を介して編集作業に係わる一切の指示を入力することができ、 従来のように各機器をォペレ一タがわざわざ操作しなくても容易に編集作業を行 うことができる。
かく してこの編集システム 1では、 従来に比して簡易にかつ高速に編集作業を 行うことができる。 またクリップデータベース C D Bに登録されている多種多様 な素材を使用して、 複雑かつ高度なビデオデー夕を得ることもできる。
一方、 この編集システム 1では、 素材としての各クリップをクリップ間の関係 を基に階層構造で管理している。 すなわちどのクリップがどのクリップにリンク しているのかを把握している。 このため一旦、 編集作業を行った後に、 その編集 内容を変更した場合にも、 その階層構造の管理によって関連するクリップも自動 的に変更することができる。 従って従来のように、 オペレータがわざわざそのク リップ間の関係を記憶しておかなくても、 容易に編集作業の変更を行うことがで き、 効率的に編集作業を行うことができる。 また編集内容を変更した場合でも、 編集に係わる元の作業データを残しているので、 編集内容変更後にも、 元の状態 に容易に戻すことができる。 さらに各クリップ間の関係を階層構造で管理してい ることから、 その階層構造で管理されるクリップ間の関係に基づいて順次編集作 業を行えば、 複雑な編集作業も容易に行うことができる。
以上の構成によれば、 各機能毎の G U Iを表示するワークステーション 2を設 け、 その G U Iの画面に応じて各種編集指示を入力し得るようにしたことにより 、 従来のように各機器を操作しなくても、 所望の編集作業を行うことができ、 一 段と使 、勝手が向上した編集システムを実現することができる。
また素材としての各クリップをクリップ間の関係に基づいて階層構造で管理す るようにしたことにより、 複雑な編集作業を容易に行うことができると共に、 編 集作業の変更を容易に行うことができ、 複雑な編集作業を簡易にかつ高速に行う ことができる編集システムを実現することができる。 産業上の利用可能性
放送局等において、 複数の素材を使用した複雑な編集作業を行うときに利用で きる。

Claims

請 求 の 範 囲
1 . 複数の編集対象クリップから編集結果クリップを作成する編集システムにお いて、
編集対象クリップを編集するための複数の処理モジュールから構成され、 該複 数の処理モジユールのうちから選択された処理モジュールに対応した編集処理を 上記複数の編集対象クリップに対して施すことによって編集結果クリップを生成 する編集手段と、
上記編集結果クリップがどの編集対象クリップから生成されたクリップである かを表わすために、 上記編集結果クリップと上記複数の編集対象クリップとを階 層構造によって管理する管理手段と、
上記管理手段によって管理されている情報に基づいて、 上記編集手段を制御す る制御手段と
を備えたたことを特徴とする編集システム。
2 . 上記管理手段は、
上記複数のクリップに関する情報を各クリップ毎に登録するためのクリップデ 一夕ベースを有していることを特徴とする請求の範囲第 1項に記載の編集システ ム。
3 . 上記クリップデータベースは、
上記階層構造によって管理されたクリップのリンク状態を示すリンク情報を含 んでいることを特徴とする請求の範囲第 2項に記載の編集システム。
4 . 上記各クリップに対して登録される上記リンク情報は、
上記クリップの下位にリンクする下位クリップを示す下位リンク先情報と、 上 記クリップの上位にリンクする上位クリップを示す上位リンク先情報とから構成 されることを特徴とする請求の範囲第 3項に記載の編集システム。
5 . 上記管理手段は、
上記編集対象クリップを、 上記編集結果クリ ップに対応する処理モジュールに おいて指定されたレイヤと対応付けて上記編集結果クリップの下位クリップとし て上記クリップデータベースに登録することを特徴とする請求の範囲第 4項に記 載の編集システム。
6 . 上記複数の編集対象クリップは、 第 1の編集対象クリップと第 2の編集対象 クリップとを含み、
上記管理手段は、 上記編集結果クリップを生成する際に選択された処理モジュ ールにおける第 1のレイヤとして上記第 1の編集対象クリップが指定され、 第 2 のレイヤとして上記第 2の編集対象クリップが指定された場合には、 上記第 1の 編集対象クリップを上記編集結果クリップの第 1番目にリンクする下位クリ ップ として上記クリップデータベースに登録し、 上記第 2の編集対象クリップを上記 編集結果クリップの第 2番目にリンクする下位クリップとして上記データベース に登録することを特徴とする請求の範囲第 4項に記載の編集システム。
7 . 上記複数の処理モジュールは、
上記編集対象クリップを編集するための編集モジュールと、 上記編集対象クリ ップを合成処理するための合成モジュールと、 上記編集対象クリップに対して特 殊効果処理を施す特殊効果モジュールとを有していることを特徴とする請求の範 囲第 2項に記載の編集システム。
8 . 上記編集モジュール、 上記合成モジュール及び上記特殊効果モジュールに夫 々対応した画像処理を上記編集対象クリップのビデオデータに施すための画像処 理手段をさらに有することを特徵とする請求の範囲第 7項に記載の編集システム
9 . 上記編集モジュール、 上記合成モジュール及び上記特殊効果モジュールに夫 々対応したグラフィカルユーザィンタ一フヱースをディスプレイに表示するため の表示手段をさらに有することを特徴とする請求の範囲第 8項に記載の編集シス テム。
1 0 . 上記クリップデータベースは、
上記編集結果クリップが上記複数の処理モジュールのうちどのモジュールによ つて生成されたかを示すモジュール識別情報を有していることを特徴とする請求 の範囲第 8項に記載の編集システム。
1 1 . 上記制御手段は、
上記クリップデータベースに登録された情報に基づいて、 上記編集手段及び上 記画像処理手段を制御することを特徴とする請求の範囲第 1 0項に記載の編集シ ステム。
1 2 . 上記制御手段は、
編集オペレータによって指定された編集結果クリップの上記モジュール識別情 報に基づいて、 上記編集手段を制御することを特徴とする請求の範囲第 1 0項に 記載の編集システム。
1 3 . 上記制御手段は、
上記クリップデータベースに記憶された上記モジュール識別情報に基づいて、 編集オペレータによって指定された編集結果クリップに対応する処理モジュール を起動するように上記編集手段を制御することを特徴とする請求の範囲第 1 0項 に記載の編集システム。
1 4 . 上記クリップデ一夕べ一スは、
上記編集結果クリップを作成する際に指定された複数の編集点を示す編集点デ 一夕と、 上記編集結果クリップを生成するために上記編集対象クリ ップのビデオ データに対して施された画像処理を示す画像処理デ一夕とを有していることを特 徴とする請求の範囲第 1 0項に記載の編集システム。
1 5 . 上記制御手段は、
上記クリップデータベースに登録された上記編集点データに基づいて、 上記画 像処理手段の画像処理タイミングを制御し、 上記クリップデータベースに登録さ れた上記画像処理データに基づいて、 上記画像処理手段の画像処理オペレーショ ンを制御することを特徵とする請求の範囲第 1 4項に記載の編集システム。 1 6 . 上記編集点データは、
上記編集対象クリップの編集開始点及び編集終了点を表わすデータであって、 上記編集結果クリップのビデオデータに対して施される上記画像処理データの変 化点を表わすデ一夕であることを特徴とする請求の範囲第 1 4項に記載の編集シ ステム。
1 7 . 上記編集点データは、
上記編集結果クリップにおけるタイムコ一ド及び上記編集対象クリップにおけ るタイムコードによって表わされることを特徴とする請求の範囲第〗 6項に記載 の編集システム。
1 8 . 上記編集対象クリップにおける編集点を示すタイムコードは、
上記編集結果クリップにおいて指定された編集点を示すタイムコードと関連付 けられて上記クリップデータベースに記憶されることを特徵とする請求の範囲第 1 7項に記載の編集システム。
1 9 . 上記編集結果クリップ及び上記編集対象クリップは、 各クリップのスター 卜点から始まる独自のタイムコ一ドを夫々有し、
上記管理手段は、 上記編集対象クリップの編集開始点において、 上記編集結果 クリップにおけるタイムコ一ドと上記編集対象クリップにおけるタイムコードと を関連付けて上記編集点データとして上記クリップデータベースに登録し、 上記 編集対象クリップの編集終了点において、 上記編集結果クリップにおけるタイム コードと上記編集対象クリップにおけるタイムコードとを関連付けて上記編集点 データとして上記クリップデータベースに登録することを特徵とする請求の範囲 第 1 6項に記載の編集システム。
2 0 . 上記画像処理データは、
上記編集モジュールによって指定された編集処理に対応する画像処理内容を示 すための編集処理データと、 上記合成モジユールによつて指定された合成処理に 対応する画像処理内容を示すための合成処理データと、 上記特殊効果モジュール によって指定された特殊効果に対応する画像処理内容を示すための特殊効果処理 データとから構成されることを特徴とする請求の範囲第 1 4項に記載の編集シス テム。
2 1 . 上記編集データは、
上記編集モジュールによつて設定された編集処理の種類を表わす編集処理識別 データと、 この編集処理に対応する複数の編集処理パラメータとから構成される ことを特徵とする請求の範囲第 2 0項に記載の編集システム。
2 2 . 上記編集処理パラメータは、
上記編集結果クリップにおいて指定された上記編集点と対応付けられて上記ク リップデータベースに登録されることを特徴とする請求の範囲第 2 1項に記載の 編集システム。
2 3 . 上記制御手段は、
上記編集対象クリップのビデオデータに対して、 上記編集点に応じたタイミン グで上記編集点に対応付けられた上記編集処理パラメ一夕に応じた画像処理を行 うように上記画像処理手段を制御することを特徴とする請求の範囲第 2 2項に記 載の編集システム。
2 4 . 上記編集結果クリップに対して指定された編集点は、 第 1の編集点と第 2 の編集点とを含み、
上記編集処理パラメータは、 上記第 1の編集点に対応するタイミングに設定さ れた第 1の編集処理パラメータと上記第 2の編集点に対応するタイミングに設定 された第 2の編集処理パラメータとを含み、
上記制御手段は、 上記第 1の編集点のタイミングでは上記編集対象クリ ップの ビデオデータに対して上記第 1の編集パラメータに応じた画像処理を行うように 上記画像処理手段を制御すると共に、 上記第 2の編集点のタイミングでは上記編 集対象クリッブのビデオデータに対して上記第 2の編集パラメータに応じた画像 処理を行うように上記画像処理手段を制御することを特徵とする請求の範囲第 2 2項に記載の編集システム。
2 5 . 上記制御手段は、
上記第 1の編集点から上記第 2の編集点の期間は、 上記編集対象クリ ップのビ デォデータに対して上記第 1の編集パラメータと上記第 2の編集パラメータとの 間で捕間した捕間パラメータに応じた画像処理を行うように上記画像処理手段を 制御することを特徴とする請求の範囲第 2 4項に記載の編集システム。
2 6 . 上記制御手段は、
上記編集対象クリップの編集区間を示すセルと、 上記編集対象クリップに対し て指定された上記特編集処理パラメータの変化とを時間軸方向に対応付けで表示 する表示手段をさらに有したことを特徴とする請求の範囲第 2 1項に記載の編集 システム。
2 7 . 上記合成処理データは、
上記合成モジュールによって設定された合成処理に対応する複数の合成処理パ ラメータから構成されることを特徵とする請求の範囲第 2 0項に記載の編集シス テム。
2 8 . 上記複数の合成処理パラメータは、
上記編集結果クリップにおいて指定された上記編集点と対応付けられて上記ク リップデータベースに登録されることを特徴とする請求の範囲第 2 7項に記載の 編集システム。
2 9 . 上記制御手段は、
上記編集対象クリップのビデオデータに対して、 上記編集点に応じたタイミン グで上記編集点に対応付けられた上記合成処理パラメータに応じた画像処理を行 うように上記画像処理手段を制御することを特徴とする請求の範囲第 2 8項に記 載の編集システム。
3 0 . 上記編集結果クリップに対して指定された編集点は、 第 1の編集点と第 2 の編集点とを含み、
上記合成処理パラメータは、 上記第 1の編集点に対応するタイミングに設定さ れた第 1の合成処理パラメータと上記第 2の編集点に対応するタイミ ングに設定 された第 2の合成処理パラメ一夕とを含み、
上記制御手段は、 上記第 1の編集点のタイミングでは上記編集対象クリップの ビデオデータに対して上記第 1の合成処理ノ、'ラメ一夕に応じた画像処理を行うよ うに上記画像処理手段を制御すると共に、 上記第 2の編集点のタイミングでは上 記編集対象クリップのビデオデータに対して上記第 2の合成処理パラメータに応 じた画像処理を行うように上記画像処理手段を制御することを特徴とする請求の 範囲第 2 8項に記載の編集システム。
3 1 . 上記制御手段は、
上記第 1の編集点から上記第 2の編集点の期間は、 上記第 1の合成処理パラメ —夕と上記第 2の合成処理パラメータとに基づいて複数の捕間パラメータを生成 し、 この複数の補間 、°ラメータに応じた画像処理を行うように上記画像処理手段 を制御することを特徴とする請求の範囲第 3 0項に記載の編集システム。
3 2 . 上記制御手段は、
上記編集対象クリップの編集区間を示すセルと、 上記編集対象クリップに対し て指定された上記合成効果処理 、"ラメータの変化とを時間軸方向に対応付けで表 示する表示手段をさらに有したことを特徴とする請求の範囲第 3 1項に記載の編 集システム。
3 3 . 上記特殊効果データは、
上記特殊効果モジュールによって設定された特殊効果処理の種類を表わす特殊 効果識別データと、 上記特殊効果処理に対応する複数の特殊効果パラメータとか ら構成されることを特徴とする請求の範囲第 2 0項に記載の編集システム。 3 4 . 上記複数の特殊効果処理パラメータは、
上記編集結果クリップにおいて指定された上記複数の編集点と対応付けられて 上記クリッブデータベースに登録されることを特徴とする請求の範囲第 3 3項に 記載の編集システム。
3 5 . 上記制御手段は、
上記編集対象クリップのビデオデータに対して、 上記編集点に応じたタイミン グで上記編集点に対応付けられた上記特殊効果パラメータに応じた画像処理を行 うように上記画像処理手段を制御することを特徴とする請求の範囲第 3 4項に記 載の編集システム。
3 6 . 上記編集結果クリップに対して指定された編集点は、 第 1の編集点と第 2 の編集点とを含み、
上記特殊効果処理パラメータは、 上記第 1の編集点に対応するタイミ ングに設 定された第 1の特殊効果処理パラメータと上記第 2の編集点に対応するタイミン グに設定された第 2の特殊効果処理パラメータとを含み、
上記制御手段は、 上記第 1の編集点のタイミングでは上記編集対象クリップの ビデオデータに対して上記第 1の特殊効果処理 、'ラメ一夕に応じた画像処理を行 うように上記画像処理手段を制御すると共に、 上記第 2の編集点のタイミ ングで は上記編集対象クリップのビデオデータに対して上記第 2の特殊効果処理パラメ 一タに応じた画像処理を行うように上記画像処理手段を制御することを特徴とす る請求の範囲第 3 4項に記載の編集システム。
3 7 . 上記制御手段は、
上記第 1の編集点から上記第 2の編集点の期間は、 上記第 1の特殊効果処理パ ラメ一夕と上記第 2の特殊効果処理パラメータとに基づいて複数の補間パラメ一 タを生成し、 この複数の補間パラメータに応じた画像処理を行うように上記画像 処理手段を制御することを特徵とする請求の範囲第 3 6項に記載の編集システム
3 8 . 上記制御手段は、
上記編集対象クリップの編集区間を示すセルと、 上記編集対象クリップに対し て指定された上記特殊効果処理パラメータの変化とを時間軸方向に対応付けで表 示する表示手段をさらに有したことを特徴とする請求の範囲第 3 7項に記載の編 集システム。
3 9 . 上記制御手段は、
上記クリップデータベースに登録されている上記編集結果クリップが修正され た場合には、 上記修正された編集結果クリップの上位にリンクする全てのクリッ プを無効にすることを特徴とする請求の範囲第 1 4項に記載の編集システム。
4 0 . 上記制御手段は、 上記編集結果クリップに対して修正処理が行われた場合には、 上記修正処理前 の編集結果クリップに代わって新たな編集結果クリ ップを生成すると共に、 上記 修正処理前の編集結果クリップの上位にリンクする全てのクリップを無効にする ことを特徴とする請求の範囲第 1 4項に記載の編集システム。
4 1 . 上記データベースは、
上記各クリップが有効であるのか無効であるのかを示す識別フラグを有してい ることを特徴とする請求の範囲第 4 0項に記載の編集システム。
4 2 . 上記管理手段は、
上記新たな編集結果クリップを、 上記修正処理前の編集結果クリップを示すク リップ識別コード又はクリップ名称で上記クリップデ一夕ベースに登録し、 上記修正処理前の編集結果クリップを、 上記修正処理前の編集結果クリップを 示すクリップ識別コ一ド又はクリップ名称とは異なるクリップ識別コード又はク リップ名称で上記クリップデータベースに登録することを特徴とする請求の範囲 第 4 0項に記載の編集システム。
4 3 . 上記制御手段は、
上記編集結果クリップに対して修正処理が行われた場合には、 上記修正処理前 の編集結果クリップに代わって新たな編集結果クリ ップを生成すると共に、 上記 クリップデータベースの上記リンク情報に基づいて、 上記修正処理前の編集結果 クリップの上位にリンクする全てのクリップを検索し、 その検索されたクリップ を無効にすることを特徴とする請求の範囲第 1 4項に記載の編集システム。 4 4 . 上記管理手段は、
上記新たな編集結果クリップに関する情報を、 上記修正処理前の編集結果クリ ップを示すクリップ識別コ一ド又はクリップ名称で上記クリップデータベースに 登録し、
上記修正処理前の編集結果クリップに関する情報を、 上記修正処理前の編集結 果クリップを示すクリップ識別コード又はクリップ名称とは異なるクリップ識別 コ一ド又はクリップ名称で上記クリップデータベースに登録することを特徴とす る請求の範囲第 4 3項に記載の編集システム。
4 5 . 上記クリップデータベースは、
上記各クリップが有効であるのか無効であるのかを示す識別フラグを有してい ることを特徴とする請求の範囲第 4 4項に記載の編集システム。
4 6 . 上記制御手段は、
上記修正処理によって無効にされた編集結果クリップを有効にするための再実 行処理を行う再実行手段を有していることを特徴とする請求の範囲第 4 5項に記 載の編集システム。
4 7 . 上記再実行手段は、
上記クリップデータベースの上記リンク情報と上記識別フラグを参照すること によって、 上記無効とされた編集結果クリップの中から上記再実行処理の対象と なる編集結果クリップを検索する検索工程と、
上記検索工程によって検索された編集結果クリップの下位にリンクしている全 ての下位クリップのビデオデータから、 上記検索された編集結果クリップに対応 する新たなビデオデータを生成する生成工程とを有していることを特徴とする請 求の範囲第 4 6項に記載の編集システム。
4 8 . 上記再実行手段は、
上記生成工程において、 上記新たに生成されたビデオデータと上記クリップデ 一夕ベースに登録されている上記検索された編集結果クリップに関する上記リン ク情報、 上記編集点データ及び上記画像処理データとから、 上記検索された無効 の編集結果クリップに代わる新たな編集結果クリップを生成することを特徵とす る請求の範囲第 4 7項に記載の編集システム。
4 9 . 上記管理手段は、
上記新たに生成された編集結果クリップを、 上記検索された無効の編集結果ク リップを示すクリップ識別コード又はクリップ名称で上記クリップデータべ一ス に登録し、
上記検索された無効の編集結果クリップを、 上記検索された編集結果クリ ップ を示すクリップ識別コード又はクリップ名称とは異なるクリ ップ識別コード又は クリップ名称で上記クリップデータベースに登録することを特徵とする請求の範 囲第 4 8項に記載の編集システム。
5 0 . 上記再実行手段は、
上記管理手段によって階層構造で管理される全てのクリップが有効になるまで 、 上記検索工程及び上記生成工程を繰り返すことを特徴とする請求の範囲第 4 7 項に記載の編集システム。
5 1 . 上記再実行手段は、
上記検索工程において、 上記無効とされた編集結果クリップの中で、 全て有効 の下位クリップを有している編集結果クリップであって、 上記階層構造で管理さ れるクリップの中で最も下位の編集結果クリップを上記再実行処理の対象とする ことを特徴とする請求の範囲第 4 7項に記載の編集システム。
5 2 . 上記再実行手段は、
上記生成工程において、 上記検索された無効の編集結果クリップに対応する編 集点デ一タ及び画像処理データに基づいて上記画像処理装置を制御することによ つて、 上記新たなビデオデータを生成することを特徴とする請求の範囲第 4 7項 に記載の編集システム。
5 3 . 複数の編集対象クリップを編集するための編集システムにおいて、 編集対象クリップを編集するための複数の処理モジュールから構成され、 該複 数の処理モジュールのうちから選択された処理モジュールに対応した編集処理を 複数の編集対象クリップに対して施すことによって編集結果クリップを生成する B " ^段と、
上記編集結果クリップが上記複数の処理モジュールのうちどの処理モジュール を使用して生成されたかを示すモジュール識別情報を記憶するための記憶手段と 上記編集結果クリップが選択された時には、 上記記憶手段に記憶された上記モ ジュール識別データに基づいて、 上記編集結果クリッブに対応する処理モジユー ルを起動する制御手段と
を備えたたことを特徴とする編集システム。
5 4 . 上記記憶手段は、
上記モジュール識別情報を各編集結果クリップ毎に登録するためのクリップデ —タベースを備えて L、ることを特徴とする請求の範囲第 5 3項に記載の編集シス テ厶
5 5 . 上記クリップデータベースは、
上記編集結果クリップと上記複数の編集対象クリップとを階層構造によって管 理するために、 上記階層構造における各クリップのリンク状態を示すリンク情報 を含んでいることを特徴とする請求の範囲第 5 4項に記載の編集システム。 5 6 . 上記複数の処理モジュールは、
少なくとも、 上記複数の編集対象クリップを編集するための編集モジュールと 、 上記複数の編集対象クリップを合成処理するための合成モジュールと、 上記編 集対象クリップに対して特殊効果処理を施す特殊効果モジュールとを有している ことを特徴とする請求の範囲第 5 5項に記載の編集システム。
5 7 . 上記編集モジュールに対応した編集処理用グラフィカルュ一ザイン夕一フ エースと、 上記合成モジュールに対応した合成処理用グラフィカルュ一ザイン夕 —フヱ一スと、 上記特殊効果モジュ一ルに対応した特殊効果処理用グラフィカル ユーザインターフヱースとから構成されるユーザィンターフヱース手段と、 上記編集処理用グラフィカルユーザインタ一フヱ一ス、 上記合成処理用グラフ ィカルユーザィンタ一フヱ一ス及び上記特殊効果処理用グラフィカルユーザィン 夕一フェースをディスプレイ上に表示するための表示手段とをさらに備え、 上記制御手段は、
上記クリップデータデースに登録されたモジュール識別情報に基づいて、 上記 選択された編集結果クリップに対応する処理モジュールを認識し、
上記認識された処理モジユールに対応する処理モジユールを起動すると同時に 、 上記認識された処理モジユールに対応する処理モジユールに対応したグラフィ カルユーザインターフヱースを表示するように上記表示手段を制御することを特 徴とする請求の範囲第 5 6項に記載の編集システム。
5 8 . 上記クリップデータベースは、 上記編集結果クリップを作成する際に指定 された複数の編集点を示す編集点データと、 上記編集結果クリップを生成するた めに上記編集対象クリップのビデオデータに対して施された画像処理内容を示す 画像処理データとを有していることを特徴とする請求の範囲第 5 7項に記載の編 集システム。
5 9 . 上記制御手段は、
上記クリップデータベースに登録された上記編集点データに基づいて、 上記画 像処理手段の画像処理タイミングを制御し、 上記クリップデータベースに登録さ れた上記画像処理データに基づいて、 上記画像処理手段の画像処理オペレーショ ンを制御することを特徴とする請求の範囲第 5 8項に記載の編集システム。
6 0 . 上記編集点データは、
上記編集対象クリップの編集開始点及び編集終了点を表わすデータであって、 上記編集結果クリップのビデオデータに対して施される上記画像処理データの変 化点を表わすデータであることを特徴とする請求の範囲第 5 8項に記載の編集シ ス 7 "ム。
6 1 . 上記画像処理データは、
上記編集モジュールによって指定された編集処理に対応する画像処理内容を示 すための編集処理データと、 上記合成モジュ一ルによつて指定された合成処理に 対応する画像処理内容を示すための合成処理データと、 上記特殊効果モジュール によって指定された特殊効果に対応する画像処理内容を示すための特殊効果処理 データとから構成されることを特徴とする請求の範囲第 5 8項に記載の編集シス テム。
6 2 . 上記編集データは、
上記編集モジュールによって設定された編集処理の種類を表わす編集処理識別 データと、 この編集処理に対応する複数の編集処理ノ、'ラメータとから構成される ことを特徴とする請求の範囲第 6 1項に記載の編集システム。
6 3 . 上記編集処理パラメータは、
上記編集結果クリップにおいて指定された上記編集点と対応付けられて上記ク リップデータベースに登録されることを特徴とする請求の範囲第 6 2項に記載の 編集システム。
6 4 . 上記制御手段は、
上記編集対象クリップのビデオデータに対して、 上記編集点に応じたタイミン グで上記編集点に対応付けられた上記編集処理パラメータに応じた画像処理を行 うように上記画像処理手段を制御することを特徴とする請求の範囲第 6 3項に記 載の編集システム。
6 5 . 上記編集結果クリップに対して指定された編集点は、 第 1の編集点と第 2 の編集点とを含み、
上記編集処理パラメータは、 上記第 1の編集点に対応するタイミングに設定さ れた第 1の編集処理パラメータと上記第 2の編集点に対応するタイミングに設定 された第 2の編集処理パラメータとを含み、
上記制御手段は、 上記第 1の編集点のタイミングでは上記編集対象クリップの ビデオデータに対して上記第 1の編集パラメータに応じた画像処理を行うように 上記画像処理手段を制御すると共に、 上記第 2の編集点のタイミングでは上記編 集対象クリップのビデオデータに対して上記第 2の編集ノ、'ラメ一夕に応じた画像 処理を行うように上記画像処理手段を制御することを特徴とする請求の範囲第 6
3項に記載の編集システム。
6 6 . 上記制御手段は、
上記第 1の編集点から上記第 2の編集点の期間は、 上記編集対象クリップのビ デォデータに対して上記第 1の編集パラメータと上記第 2の編集パラメータとの 間で捕間した補間パラメータに応じた画像処理を行うように上記画像処理手段を 制御することを特徴とする請求の範囲第 6 5項に記載の編集システム。
6 7 . 上記制御手段は、 上記編集対象クリップの編集区間を示すセルと、 上記編 集対象クリップに対して指定された上記特編集処理パラメータの変化とを時間軸 方向に対応付けで上記デイスプレイに表示するように表示手段を制御することを 特徴とする請求の範囲第 6 2項に記載の編集システム。
6 8 . 上記制御手段は、
上記クリップデータベースに登録された情報に基づいて、 上記選択された編集 結果クリップに対して設定された上記複数の編集処理パラメータが上記編集処理 用グラフィカルユーザインターフヱースの一部として上記ディスプレイに表示さ れるように上記表示手段を制御することを特徴とする請求の範囲第 6 2項に記載 の編集システム。
6 9 . 上記制御手段は、
上記選択された編集結果クリップの上記編集点データ及び上記画像処理データ に基づいて、 上記複数の編集処理パラメータの時間軸方向における変化が視覚的 にわかるように、 上記編集パラメータを上記各編集点と対応させて表示するよう に上記表示手段を制御することを特徴とする請求の範囲第 6 8項に記載の編集シ ステム。
7 0 . 第 1の編集結果クリップを生成するための第 1の処理モジュール起動中に おいて、 上記第 1の編集結果クリップの下位クリップとしてリンクしている第 2 の編集結果クリップが選択された時には、
上記制御手段は、
上記クリップデータベースの上記第 2の編集結果クリップに関する情報として登 録された上記リンク情報、 上記モジュール識別情報、 上記編集点データ及び上記 画像処理データを参照し、
上記モジュール識別コードに基づいて、 上記第 2の編集結果クリップに対応す る第 2の処理モジユールを起動し、
上記リンク情報、 上記編集点データ及び画像処理データに基づいて、 上記第 2 の編集結果クリップの下位にリンクしているクリップの編集区間を表わすセルを 上記編集点データの編集点と関連付けて上記デイスプレイに表示すると共に、 上 記第 2の処理モジュールに対応した上記画像処理データの各処理パラメータを、 上記編集点データの編集点と関連付けて表示するように上記表示手段を制御する ことを特徴とする請求の範囲第 6 2項に記載の編集システム。
7 1 . 複数の編集対象クリップを編集するための編集システムにおいて、 上記編集対象クリップを編集するための複数の処理モジュールから構成され、 該複数の処理モジユールのうちから選択された処理モジユールに対応した編集処 理を複数の編集対象クリップに対して施すことによって編集結果クリップを生成 する編集手段と、
上記複数の処理モジュールに対応したグラフィカルユーザインターフ X—スを ディスプレイに表示する表示手段と、
上記編集対象クリップのビデオデータに対して上記編集手段によって行われる 編集処理によって施される画像処理内容を示す画像処理データを上記編集結果ク リップと対応付けて記憶するための記憶手段と、
上記編集結果クリップが選択された時には、 上記選択された編集結果クリップ と対応付けられて上記記憶手段に記憶されている上記画像処理データを、 上記グ ラフィカルユーザィンタ一フヱースの一部としてディスプレイ上に表示するよう に上記表示手段を制御する制御手段と
を備えたことを特徴とする編集システム。
7 2 . 上記記憶手段は、
上記画像処理データを各編集結果クリップ毎に登録するためのクリップデ一夕 ベースを備えていることを特徴とする請求の範囲第 7 1項に記載の編集システム o
7 3 . 上記複数の処理モジュールは、
少なくとも、 上記複数の編集対象クリップを編集するための編集モジュールと 、 上記複数の編集対象クリップを合成処理するための合成モ.ジュールと、 上記編 集対象クリ ップに対して特殊効果処理を施す特殊効果モジュールとを有している ことを特徴とする請求の範囲第 7 2項に記載の編集システム。
7 4 . 上記編集モジュール、 上記合成モジュール及び上記特殊効果モジュールに 夫々対応した画像処理を上記編集対象クリップのビデオデータに施すための画像 処理手段をさらに有することを特徴とする請求の範囲第 7 3項に記載の編集シス テム。
7 5 . 上記クリップデータベースは、 上記編集結果クリップが上記複数の処理モ ジュールのうちどのモジユールによつて生成されたかを示すモジユール識別情報 を有していることを特徴とする請求の範囲第 7 4項に記載の編集システム。 7 6 . 上記グラフィカルユーザインタ一フェースは、
上記編集モジュールに対応した編集処理用グラフィカルユーザィンタ一フヱー スと、 上記合成モジュールに対応した合成処理用グラフィカルユーザィンターフ ヱースと、 上記特殊効果モジユールの対応した特殊効果処理用グラフィカルユー ザィンタ一フェースとから構成され、
上記制御手段は、
上記クリップデ一タデ一スに登録されたモジュール識別情報に基づいて、 上記 選択された編集結果クリップに対応する処理モジュールを認識し、
上記認識された処理モジュールに対応する処理モジュールを起動すると同時に 、 上記認識された処理モジュールに対応する処理モジュールに対応したグラフィ カルユーザインタ一フニースを表示するように上記表示手段を制御することを特 徴とする請求の範囲第 7 5項に記載の編集システム。
7 7 . 上記クリップデータベースは、
上記編集結果クリップを作成する際に指定された複数の編集点を示す編集点デ 一夕と、 上記編集結果クリップを生成するために上記編集対象クリップのビデオ デ一タに対して施された画像処理内容を示す画像処理デー夕とを有していること を特徵とする請求の範囲第 7 6項に記載の編集システム。
7 8 . 上記制御手段は、
上記クリップデータベースに登録された上記編集点データに基づいて、 上記画 像処理手段の画像処理タイミングを制御し、 上記クリップデータベースに登録さ れた上記画像処理データに基づいて、 上記画像処理手段の画像処理オペレーショ ンを制御することを特徵とする請求の範囲第 7 7項に記載の編集システム。
7 9 . 上記編集点データは、
上記編集対象クリップの編集開始点及び編集終了点を表わすデータである又は 、 上記編集結果クリップのビデオデータに対して施される上記画像処理データの 変化点を表わすデータであることを特徴とする請求の範囲第 7 7項に記載の編集 システム。
8 0 . 上記画像処理データは、
上記編集モジュールによって指定された編集処理に対応する画像処理内容を示 すための編集処理データと、 上記合成モジユールによつて指定された合成処理に 対応する画像処理内容を示すための合成処理データと、 上記特殊効果モジュール によって指定された特殊効果に対応する画像処理内容を示すための特殊効果処理 データとから構成されることを特徴とする請求の範囲第 7 7項に記載の編集シス テム。
8 1 . 上記編集データは、
上記編集モジユールによつて設定された編集処理の種類を表わす編集処理識別 データと、 この編集処理に対応する複数の編集処理パラメータとから構成される ことを特徴とする請求の範囲第 8 0項に記載の編集システム。
8 2 . 上記編集処理パラメ一夕は、
上記編集結果クリ ップにおいて指定された上記編集点と対応付けられて上記ク リップデ一タベースに登録されることを特徴とする請求の範囲第 8 1項に記載の 編集システム。
8 3 . 上記制御手段は、
上記編集対象クリップのビデオデータに対して、 上記編集点に応じたタイミン グで上記編集点に対応付けられた上記編集処理パラメータに応じた画像処理を行 うように上記画像処理手段を制御することを特徴とする請求の範囲第 8 2項に記 截の編集システム。
8 4 . 上記編集結果クリッブに対して指定された編集点は、 第 1の編集点と第 2 の編集点とを含み、
上記編集処理パラメータは、 上記第 1の編集点に対応するタイミングに設定さ れた第 1の編集処理パラメータと上記第 2の編集点に対応するタイミングに設定 された第 2の編集処理パラメータとを含み、
上記制御手段は、 上記第 1の編集点のタイミングでは上記編集対象クリップの ビデオデ一夕に対して上記第 1の編集パラメ一夕に応じた画像処理を行うように 上記画像処理手段を制御すると共に、 上記第 2の編集点のタイミングでは上記編 集対象クリップのビデオデ一タに対して上記第 2の編集 、'ラメ一夕に応じた画像 処理を行うように上記画像処理手段を制御することを特徴とする請求の範囲第 8 2項に記載の編集システム。
8 5 . 上記制御手段は、
上記第 1の編集点から上記第 2の編集点の期間は、 上記編集対象クリップのビ デォデータに対して上記第 1の編集 、。ラメ一夕と上記第 2の編集 ラメータとの 間で補間した補間パラメ一夕に応じた画像処理を行うように上記画像処理手段を 制御することを特徴とする請求の範囲第 8 4項に記載の編集システム。
8 6 . 上記制御手段は、
上記編集対象クリップの編集区間を示すセルと、 上記編集対象クリップに対し て指定された上記特編集処理 、"ラメ一夕の変化とを時間軸方向に対応付けで上記 ディスプレイに表示するように表示手段を制御することを特徴とする請求の範囲 第 8 1項に記載の編集システム。
8 7 . 上記制御手段は、
上記クリップデータベースに登録された情報に基づいて、 上記選択された編集 結果クリップに対して設定された上記複数の編集処理パラメータが上記編集処理 用グラフィカルユーザィンターフェースの一部として上記ディスプレイに表示さ れるように上記表示手段を制御することを特徴とする請求の範囲第 8 1項に記載 の編集システム。
8 8 . 上記制御手段は、
上記選択された編集結果クリップの上記編集点データ及び上記画像処理データ に基づいて、 上記複数の編集処理パラメータの時間軸方向における変化が視覚的 にわかるように、 上記編集パラメータを上記各編集点と対応させて表示するよう に上記表示手段を制御することを特徴とする請求の範囲第 8 7項に記載の編集シ ス 7"ム
8 9 . 複数の編集対象クリップを編集するための編集システムにおいて、 編集対象クリップを編集するための複数の処理モジュールから構成され、 該複 数の処理モジユールのうちから選択された処理モジユールに対応した編集処理を 上記編集対象クリップに対して施すことによって編集結果クリップを生成する編 集手段と、
上記編集結果クリップがどの編集対象クリップから生成されたクリップである かを表わすために、 上記編集結果クリップと上記複数の編集対象クリップとを階 層構造によつて管理する管理手段と、
上記管理手段によって上記階層構造となるように管理されている複数のクリッ プのリンク状態を示すためのツリーウインドウと、 上記編集対象クリップの編集 区間を時間軸上において示すためのタイムラインウインドウとを含んだグラフィ カルユーザィンターフヱースをディスプレイに表示するための表示制御手段とを 備えたことを特徴とする編集システム。
9 0 . 複数の編集対象クリップを編集するための編集システムにおいて、 上記編集対象クリップに対して編集処理を施すことによって編集結果クリップ を生成する編集モジュールと、 上記編集対象クリップに対して合成処理を施すこ とによって編集結果クリップを生成する合成モジュールと、 上記編集対象クリッ プに対して特殊効果処理を施すことによって編集結果クリップを生成する特殊効 果モジュールとから構成される編集手段と、
上記編集モジュールに対応した編集処理用グラフィカルユーザィンタ一フヱ一 スと、 上記合成モジュールに対応した合成処理用グラフィカルユーザィンタ一フ エースと、 上記特殊効果モジユールに対応した特殊効果処理用グラフィカルュ一 ザィンタ一フェースとから構成されるユーザィンターフェース手段と、
上記編集モジュールによつて編集処理を行う場合には、 上記編集処理用グラフ ィカルユーザィンターフェースをディスプレイに表示し、 上記合成モジュールに よつて編集処理を行う場合には、 上記編集処理用グラフィカルユーザインターフ ヱ一スをディスプレイに表示し、 上記編集モジュールによって編集処理を行う場 合には、 上記編集処理用グラフィカルユーザィンターフ —スをディスプレイに 表示する表示制御手段とを備えたことを特徴とする編集システム。
9 1 . 編集対象クリップを編集するための編集システムにおいて、
編集オペレータによって指定された編集処理を上記編集対象クリップに対して 施すことによって編集結果クリップを生成する編集手段と、
上記編集手段の上記編集処理によって使用されたクリップ及び上記編集処理に よって生成されたクリップを階層構造によって管理する管理手段と、
上記管理手段によつて管理されている情報に基づいて、 上記編集手段を制御す る制御手段と
を備えたたことを特徵とする編集システム。
9 2 . 供給されたクリップを編集して編集結果クリ ップを生成するための編集シ ステムにおいて、
編集処理対象となる編集対象クリップに対して編集オペレータによって指定さ れた編集処理を施すことにより編集結果クリップを生成する編集手段と、 上記編集対象クリップを上記編集結果クリップの下位クリップとしてリンクさ せる又は上記編集結果クリップを上記編集対象クリップの上位クリップとしてリ ンクさせることによって各クリップを階層構造によって管理する管理手段と、 上記管理手段によって管理されている情報に基づいて、 上記編集手段を制御す る制御手段と
を備えたたことを特徴とする編集システム。
9 3 . 供給されたクリップを編集するための編集システムにおいて、 供給されたクリップに対して編集処理を施すための編集手段と、
上記編集処理における編集処理の対象となったクリ ップを下位クリップとし、 上記編集処理における編集処理によって生成されたクリップを上位クリップとし て互いを上下関係でリンクさせることによって、 上記編集手段よつて使用された 及び生成された全てのクリップを上下関係からなる階層構造で管理する管理手段 と、
上記管理手段によつて管理されて 、る情報に基づし、て、 上記編集手段を制御す る制御手段と
を備えたたことを特徴とする編集システム。
9 4 . 複数の編集対象クリップから編集結果クリップを作成する編集方法におい て、
編集対象クリップを編集するための複数の処理モジュールのうちから選択され た処理モジュールに対応した編集処理を上記複数の編集対象クリップに対して施 すことによって編集結果クリップを生成し、
上記編集結果クリップがどの編集対象クリップから生成されたクリップである かを表わすために、 上記編集結果クリップと上記複数の編集対象クリップとを階 層構造によって管理することを特徴とする編集方法。
9 5 . 上記複数のクリップに関する情報を各クリ ップ毎に登録したクリップデ一 夕ベースによつて上記複数のクリップを管理していることを特徴とする請求の範 囲第 9 4項に記載の編集方法。
9 6 . 上記クリップデータベースのリンク情報によって上記複数のクリ ップによ る階層構造が管理されることを特徴とする請求の範囲第 9 5項に記載の編集方法
9 7 . 上記複数の処理モジュ一ルは、
上記編集対象クリップを編集するための編集モジュールと、 上記編集対象クリ ップを合成処理するための合成モジュールと、 上記編集対象クリップに対して特 殊効果処理を施す特殊効果モジュールとを有していることを特徴とする請求の範 囲第 9 5項に記載の編集方法。
9 8 . 上記クリップデータベースに登録された情報に基づいて、 上記編集モジュ —ル、 上記合成モジユール及び上記特殊効果モジユールに夫々対応した画像処理 を上記編集対象クリップのビデオデータに施すことを特徴とする請求の範囲第 9 7項に記載の編集方法。
9 9 . 上記クリップデータベースに登録された情報に基づいて、 上記編集モジュ —ル、 上記合成モジュール及び上記特殊効果モジュールに対応したグラフィカル ユーザィンターフヱ一スを夫々ディスプレイに表示することを特徵とする請求の 範囲第 9 8項に記載の編集方法。
1 0 0 . 上記クリップデータベースは、
上記編集結果クリップが上記複数の処理モジュールのうちどのモジュールによ つて生成されたかを示すモジュ一ル識別情報を有していることを特徴とする請求 の範囲第 9 8項に記載の編集方法。
1 0 1 . 上記制御手段は、
上記クリッブデータベースに記憶された上記モジュール識別情報に基づいて、 編集オペレータによって指定された編集結果クリップに対応する処理モジュール を起動することを特徴とする請求の範囲第 1 0 0項に記載の編集方法。
1 0 2 . 上記クリップデータベースは、
上記編集結果クリップを作成する際に指定された複数の編集点を示す編集点デ 一夕と、 上記編集結果クリップを生成するために上記編集対象クリップのビデオ データに対して施された画像処理を示す画像処理デー夕とを有していることを特 徴とする請求の範囲第 1 0 0項に記載の編集方法。
1 0 3 . 上記クリッブデータベースに登録された上記編集点データに基づいて、 上記編集対象クリップに施される画像処理タイミングを制御すると共に、 上記ク リップデータベースに登録された上記画像処理データに基づいて、 上記編集対象 クリップに施される画像処理オペレーションを制御することを特徴とする請求の 範囲第 1 0 2項に記載の編集方法。
1 0 4 . 上記編集点データは、
上記編集対象クリップの編集開始点及び編集終了点を表わすデータであって、 上記編集結果クリップのビデオデータに対して施される上記画像処理データの変 化点を表わすデータであることを特徴とする請求の範囲第 1 0 2項に記載の編集 方法。
1 0 5 . 上記画像処理データは、
上記編集モジユールによって指定された編集処理に対応する画像処理内容を示 すための編集処理データと、 上記合成モジュールによって指定された合成処理に 対応する画像処理内容を示すための合成処理デ一タと、 上記特殊効果モジュール によって指定された特殊効果に対応する画像処理内容を示すための特殊効果処理 データとから構成されることを特徴とする請求の範囲第 1 0 2項に記載の編集方 法。
1 0 6 . 上記編集処理データは、
上記編集モジュールによつて設定された編集処理の種類を表わす編集処理識別 データと、 この編集処理に対応する複数の編集処理ノ、'ラメ一夕とから構成される ことを特徴とする請求の範囲第 1 0 5項に記載の編集方法。
1 0 7 . 上記編集処理パラメ一夕は、
上記編集結果クリップにおいて指定された上記編集点と対応付けられて上記ク リップデータベースに登録されることを特徴とする請求の範囲第 1 0 6項に記載 の編集方法。
1 0 8 . 上記制御手段は、
上記編集対象クリップのビデオデータに対して、 上記編集点に応じたタイミン グで上記編集点に対応付けられた上記編集処理パラメータに応じた画像処理を行 うことを特徴とする請求の範囲第 1 0 7項に記載の編集方法。
1 0 9 . 上記編集結果クリップに対して指定された編集点は、 第 1の編集点と第 2の編集点とを含み、
上記編集処理パラメータは、 上記第 1の編集点に対応するタイミングに設定さ れた第 1の編集処理パラメータと上記第 2の編集点に対応するタイミングに設定 された第 2の編集処理パラメ一夕とを含み、
上記第 1の編集点のタイミングでは上記編集対象クリップのビデオデータに対 して上記第 1の編集パラメータに応じた画像処理を行うように上記画像処理手段 を制御すると共に、 上記第 2の編集点のタイミングでは上記編集対象クリップの ビデオデ一タに対して上記第 2の編集 'ラメータに応じた画像処理を行うことを 特徵とする請求の範囲第 1 0 7項に記載の編集方法。
1 1 0 . 上記第 1の編集点から上記第 2の編集点の期間は、 上記編集対象クリッ プのビデオデータに対して上記第 1の編集 'ラメ一夕と上記第 2の編集 、"ラメ一 夕との間で捕間した補間パラメータに応じた画像処理を行うことを特徴とする請 求の範囲第 1 0 9項に記載の編集方法。
1 1 1 . 上記編集対象クリップの編集区間を示すセルと、 上記編集対象クリップ に対して指定された上記特編集処理パラメータの変化とを時間軸方向に対応付け で表示することを特徴とする請求の範囲第 1 0 6項に記載の編集方法。
1 1 2 . 編集オペレータによる上記編集結果クリップの修正処理の指示に応答し て、 上記修正処理前の編集結果クリップに代わって新たな編集結果クリップを生 成すると共に、 上記クリップデータベースの上記リンク情報に基づいて、 上記修 正処理前の編集結果クリップの上位にリンクする全てのクリップを検索し、 その 検索されたクリップを無効にすることを特徴とする請求の範囲第 1 0 2項に記載 の編集方法。
1 1 3 . 上記新たな編集結果クリップに関する情報を、 上記修正処理前の編集結 果クリップを示すクリッブ識別コード又はクリップ名称で上記クリップデータべ —スに登録し、
上記修正処理前の編集結果クリップに関する情報を、 上記修正処理前の編集結 果クリップを示すクリップ識別コード又はクリップ名称とは異なるクリップ識別 コード又はクリップ名称で上記クリップデータベースに登録することを特徴とす る請求の範囲第 1 1 2項に記載の編集方法。
1 1 4 . 上記データベースは、
上記各クリッブが有効であるのか無効であるのかを示す識別フラグを有してい ることを特徴とする請求の範囲第 1 1 3項に記載の編集方法。
1 1 5 . 編集オペレータの指示に応答して、 上記修正処理によって無効にされた 編集結果クリップを有効にするための再実行処理を行うことを特徴とする請求の 範囲第 1 1 4項に記載の編集方法。
1 1 6 . 上記再実行処理は、
上記クリップデータベースの上記リンク情報と上記識別フラグを参照すること によって、 上記無効とされた編集結果クリップの中から上記再実行処理の対象と なる編集結果クリップを検索する検索工程と、
上記検索工程によって検索された編集結果クリップの下位にリンクしている全 ての下位クリップのビデオデータから、 上記検索された編集結果クリップに対応 する新たなビデオデータを生成する生成工程とを含んでいることを特徴とする請 求の範囲第 1 1 5項に記載の編集方法。
1 1 7 . 上記生成工程において、 上記新たに生成されたビデオデータと上記クリ ップデータベースに登されている上記検索された編集結果クリップに関する上記 リンク情報、 上記編集点データ及び上記画像処理データとから、 上記検索された 無効の編集結果クリップに代わる新たな編集結果クリ ップを生成することを特徴 とする請求の範囲第 1 1 6項に記載の編集方法。
1 1 8 . 上記新たに生成された編集結果クリップを、 上記検索された無効の編集 結果クリップを示すクリップ識別コード又はクリップ名称で上記クリップデータ ベースに登録し、
上記検索された無効の編集結果クリップを、 上記検索された編集結果クリップ を示すクリップ識別コード又はクリップ名称とは異なるクリップ識別コ一ド又は クリップ名称で上記クリップデータベースに登録することを特徴とする請求の範 囲第 1 1 7項に記載の編集方法。
1 1 9 . 上記再実行処理は、 上記階層構造で管理される全てのクリップが有効になるまで、 上記検索工程及 び上記生成工程を繰り返すことを特徴とする請求の範囲第 1 1 6項に記載の編集 方法。
1 2 0 . 上記検索工程は、
上記無効とされた編集結果クリップの中で、 全て有効の下位クリップを有して いる編集結果クリップであって、 上記階層構造で管理されるクリップの中で最も 下位の編集結果クリップを上記再実行処理の対象とするような検索を行うことを 特徵とする請求の範囲第 1 1 6項に記載の編集方法。
1 2 1 . 上記生成工程は、 上記検索された無効の編集結果クリップに対応する上 記編集点データ及び上記画像処理デ一タに基づいて上記下位にリンク編集対象ク リップのビデオデータに対して画像処理を行うことによって、 上記新たなビデオ データを生成することを特徴とする請求の範囲第 1 1 6項に記載の編集方法。 1 2 2 . 複数の編集対象クリップを編集するための編集方法において、
編集対象クリップを編集するための複数の処理モジュールのうちから選択され た処理モジュールに対応した編集処理を上記複数の編集対象クリップに対して施 すことによって編集結果クリップを生成し、
上記編集結果クリップが上記複数の処理モジュールのうちどの処理モジユール を使用して生成されたかを示すモジュール識別情報を記憶し、
上記編集結果クリップが選択された時には、 上記記憶された上記モジュール識 別データに基づいて、 上記編集結果クリップに対応する処理モジュールを起動す ることを特徵とする編集方法。
1 2 3 . 上記複数のクリップに関する情報を各クリップ毎に登録したクリップデ 一夕ベースによつて上記モジュ一ル識別情報が記憶されることを特徴とする請求 の範囲第 1 2 2項に記載の編集方法。
1 2 4 . 上記クリップデータベースは、
上記編集結果クリップと上記複数の編集対象クリップとを階層構造によって管 理するために、 上記階層構造における各クリップのリンク状態を示すリンク情報 を含んでいることを特徴とする請求の範囲第 1 2 3項に記載の編集方法。
1 2 5 . 上記複数の処理モジュールは、
上記複数の編集対象クリップを編集するための編集モジュールと、 上記複数の 編集対象クリップを合成処理するための合成モジュールと、 上記編集対象クリッ プに対して特殊効果処理を施す特殊効果モジュールとを有していることを特徴と する請求の範囲第 1 2 4項に記載の編集方法。
1 2 6 . 上記クリッブデ一タデ一スに登録されたモジュール識別情報に基づいて 、 上記選択された編集結果クリップに対応する処理モジュールを認識し、 上記認識された処理モジュ一ルに対応する処理モジユールを起動すると同時に 、 上記認識された処理モジユールに対応する処理モジユールに対応したグラフィ カルユーザインタ一フヱースを表示することを特徴とする請求の範囲第 1 2 5項 に記載の編集方法。
1 2 7 . 複数の編集対象クリップを編集するための編集方法において、
編集対象クリップを編集するための処理モジュールに対応したグラフィカルュ —ザィンタ一フェースをディスプレイに表示し、
上記処理モジュールに対応した編集処理を上記複数の編集対象クリップに対し て施すことによって編集結果クリップを生成し、
上記編集対象クリップのビデオデータに対して上記編集手段によって行われる 編集処理によつて施される画像処理内容を示す画像処理デ一タを上記編集結果ク リップと対応付けて記憶し、
上記編集結果クリップが選択された時には、 上記選択された編集結果クリップ と対応付けられて上記記憶手段に記憶されている上記画像処理データを、 上記グ ラフィカルユーザィンタ一フヱ一スの一部としてディスプレイ上に表示すること を特徴とする編集方法。
1 2 8 . 上記複数のクリップに関する情報を各クリップ毎に登録したクリップデ —夕ベースによつて上記画像処理デ一タが記憶されることを特徴とする請求の範 囲第 1 2 7項に記載の編集方法。
1 2 9 . 上記複数の処理モジュールは、
少なくとも、 上記複数の編集対象クリッブを編集するための編集モジュールと 、 上記複数の編集対象クリップを合成処理するための合成モジュールと、 上記編 集対象クリップに対して特殊効果処理を施す特殊効果モジュールとを有している ことを特徴とする請求の範囲第 1 2 8項に記載の編集方法。
1 3 0 . 上記クリップデータベースに登録した上記画像処理データに基づいて、 上記編集モジュール、 上記合成モジユール及び上記特殊効果モジュールに夫々対 応した画像処理を上記編集対象クリップのビデオデータに施すことを特徴とする 請求の範囲第 1 2 9項に記載の編集方法。
1 3 1 . 上記クリップデータベースは、
上記編集結果クリップが上記複数の処理モジュールのうちどのモジュールによ つて生成されたかを示すモジュール識別情報を有していることを特徴とする請求 の範囲第 1 3 0項に記載の編集方法。
1 3 2 . 上記グラフィカルユーザインターフヱ一スは、
上記編集モジュールに対応した編集処理用グラフィカルユーザィンターフェ一 スと、 上記合成モジュールに対応した合成処理用グラフィカルユーザィンターフ ヱ一スと、 上記特殊効果モジユールの対応した特殊効果処理用グラフィカルユー ザィンターフヱースとから構成され、
上記クリ ップデータデースに登録されたモジュール識別情報に基づいて、 上記 選択された編集結果クリップに対応する処理モジュールを認識し、 上記認識され た処理モジュールに対応する処理モジュールを起動すると同時に、 上記認識され た処理モジユールに対応する処理モジュールに対応したグラフィカルュ一ザイン ターフェースを表示することを特徴とする請求の範囲第 1 3 1項に記載の編集方
1 3 3 . 編集対象クリップを編集するための編集方法において、
編集オペレータによって指定された編集処理を上記編集対象クリップに対して 施すことによって編集結果クリップを生成し、 上記編集手段の上記編集処理によって使用されたクリップ及び上記編集処理に よって生成されたクリップを階層構造によって管理するための情報を登録し、 上記登録された情報に基づ 、て、 上記編集手段を制御することを特徴とする編 集方法。
1 3 4 . 供給されたクリップを編集して編集結果クリップを生成するための編集 方法において、
編集処理対象となる編集対象クリップに対して編集オペレータによって指定さ れた編集処理を施すことによって編集結果クリップを生成し、
上記編集対象クリップを上記編集結果クリ ップの下位クリップとしてリンクさ せる又は上記編集結果クリップを上記編集対象クリップの上位クリップとしてリ ンクさせることによって各クリップを階層構造によって管理することを特徴とす る編 ^ノ 5"fi。
1 3 5 . 供給されたクリップを編集するための編集方法において、
供給されたクリップに対して編集処理を施し、
上記編集処理の対象となったクリップを下位クリップとし、 上記編集処理によ つて生成されたクリップを上位クリップとして互いを上下関係でリンクさせるこ とによって、 上記編集処理によって使用された及び生成された全てのクリップを 上下関係からなる階層構造で管理することを特徴とする編集方法。
1 3 6 . 供給されたクリップを編集する編集装置のためのクリップ管理装置にお いて、
供給されたクリップに対して編集処理を施すための編集手段と、
上記編集処理における編集処理の対象となったクリ ップを下位クリップとし、 上 記編集処理における編集処理によって生成されたクリップを上位クリップとする ことによって互いをリンクさせることによって、 上記編集処理の対象となったク リップ及び上記編集処理によって生成されたクリップを階層構造で管理する管理 手段と、
を備えたたことを特徴とするクリップ管理装置。
1 3 7 . 供給されたクリップを編集する編集装置のためのクリップ管理方法にお いて、
編集処理対象となる編集対象クリップに対して編集オペレータによって指定さ れた第 1の編集処理を施すことにより第 1の編集結果クリップを生成し、 上記編集対象クリップを上記編集結果クリップの下位クリップとしてリ ンクさ せる又は上記編集結果クリップを上記編集対象クリップの上位クリップとしてリ ンクさせることによって上記編集対象クリップ及び上記第 1の編集結果クリップ を階層構造によって管理し、
上記第 1の編集結果クリップに対して編集オペレータによって指定された第 2 の編集処理を施すことによって第 2の編集結果クリップを生成し、
上記第 1の編集結果クリップを上記第 2の編集結果クリップの下位クリップと してリンクさせる又は上記第 2の編集結果クリップを上記第 1の編集結果クリッ プの上位クリップとしてリンクさせることによって上記編集対象クリップ、 上記 第 1の編集結果クリッブ及び上記第 2の編集結果クリップを階層構造によって管 理するクリップ管理方法。
1 3 8 . 編集対象となるクリップを編集するための編集システムにおいて、 編集オペレータによって指定された編集処理を編集対象クリップに対して施す ことにより編集結果クリップを生成する編集手段と、
上記編集結果クリップと上記編集対象クリップとを上下関係となるようにリ ン クさせることにより全てのクリップを階層構造によって管理する管理手段と、 上記編集結果クリップの内容が修正された場合には、 上記管理手段によって管 理されている情報に基づいて、 上記修正された編集結果クリップの上位にリンク する全てのクリッブを無効にするように上記管理手段を制御する制御手段と を備えたことを特徴とする編集システム。
1 3 9 . 編集対象となるクリップを編集するための編集方法において、
編集オペレータによって指定された編集処理を編集対象クリップに対して施す ことにより編集結果クリップを生成し、 上記編集結果クリッブ及び上記編集対象クリップが互いに上下関係となるよう に、 上記編集結果クリップと上記編集対象クリップとをリンクさせることによつ て全てのクリップを階層構造によって管理し、
上記編集結果クリップの内容が修正された場合には、 上記修正された編集結果 クリッブの上位にリンクする全てのクリップを無効にすることを特徴とする編集 方法。
1 4 0 . 編集対象となるクリップを編集するための編集装置に適用されるクリッ プ管理方法において、
編集オペレータによって指定された編集処理を編集対象クリップに対して施す ことによって編集結果クリップを生成し、
上記編集結果クリップ及び上記編集対象クリップが互いに上下関係となるよう に、 上記編集結果クリップと上記編集対象クリップとをリンクさせることによつ て全てのクリップを階層構造によって管理し、
上記編集結果クリップの内容が修正された場合には、 上記修正された編集結果 クリップの上位にリンクする全てのクリップを無効にすることを特徴とするクリ ップ管理方法。
1 4 1 . 編集対象となるクリップを編集するための編集システムにおいて、 編集オペレータによって指定された編集処理を上記編集対象クリップに対して 施すことによって編集結果クリップを生成する編集手段と、
上記編集結果クリップ及び上記編集対象クリップが互いに上下関係となるよう に、 上記編集結果クリップと上記編集対象クリ ップとをリンクさせることによつ て全てのクリップを階層構造によって管理するための管理手段と、
上記編集結果クリップの内容が修正された場合には、 上記管理手段によって管 理されている上記階層構造に関する情報に基づいて、 上記修正された編集結果ク リップ及び上記修正された編集結果クリップの上位にリンクする全ての編集結果 クリップを新たに生成するように上記編集手段を制御する制御手段と
を備えたことを特徴とする編集システム。
1 4 2 . 編集対象となるクリップを編集するための編集方法において、 編集オペレータによって指定された編集処理を上記編集対象クリップに対して 施すことによって編集結果クリップを生成し、
上記編集結果クリッブ及び上記編集対象クリップが互いに上下関係となるよう に、 上記編集結果クリップと上記編集対象クリップとをリンクさせることによつ て全てのクリップを階層構造によって管理し、
上記編集結果クリップの内容が修正された場合には、 上記修正された編集結果 クリップ及び上記修正された編集結果クリップの上位にリンクする全ての編集結 果クリップを新たに生成することを特徵とする編集方法。
PCT/JP1997/003343 1996-09-20 1997-09-19 Systeme et procede d'edition, et dispositif et procede de gestion de sequences video WO1998012702A1 (fr)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US09/068,866 US7055100B2 (en) 1996-09-20 1997-09-19 Editing system, editing method, clip management apparatus, and clip management method
EP97940437A EP0863510A4 (en) 1996-09-20 1997-09-19 EDITING SYSTEM AND METHOD AND VIDEO CUTTING DEVICE AND METHOD
KR1019980703762A KR100551459B1 (ko) 1996-09-20 1997-09-19 편집시스템,편집방법,클립관리장치,및클립관리방법
US09/849,832 US7207007B2 (en) 1996-09-20 2001-05-04 Editing system, editing method, clip management device, and clip management method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP8/249381 1996-09-20
JP24938196 1996-09-20

Related Child Applications (4)

Application Number Title Priority Date Filing Date
US09068866 A-371-Of-International 1997-09-19
US09/068,866 A-371-Of-International US7055100B2 (en) 1996-09-20 1997-09-19 Editing system, editing method, clip management apparatus, and clip management method
US09/849,832 Division US7207007B2 (en) 1996-09-20 2001-05-04 Editing system, editing method, clip management device, and clip management method
US09/849,653 Division US20030117431A1 (en) 1996-09-20 2001-05-04 Editing system, editing method, clip management device, and clip management method

Publications (1)

Publication Number Publication Date
WO1998012702A1 true WO1998012702A1 (fr) 1998-03-26

Family

ID=17192173

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP1997/003343 WO1998012702A1 (fr) 1996-09-20 1997-09-19 Systeme et procede d'edition, et dispositif et procede de gestion de sequences video

Country Status (4)

Country Link
US (3) US7055100B2 (ja)
EP (1) EP0863510A4 (ja)
KR (1) KR100551459B1 (ja)
WO (1) WO1998012702A1 (ja)

Families Citing this family (129)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2323734B (en) 1997-03-27 2001-04-11 Quantel Ltd A video processing system
JP3276596B2 (ja) * 1997-11-04 2002-04-22 松下電器産業株式会社 動画像編集装置
US6380950B1 (en) * 1998-01-20 2002-04-30 Globalstreams, Inc. Low bandwidth television
JP4103192B2 (ja) * 1998-09-17 2008-06-18 ソニー株式会社 編集システム及び編集方法
US6748421B1 (en) * 1998-12-23 2004-06-08 Canon Kabushiki Kaisha Method and system for conveying video messages
JP2001143447A (ja) * 1999-11-16 2001-05-25 Sony Corp データ編集装置および方法、並びにデータ記録再生装置
US7269785B1 (en) * 1999-12-30 2007-09-11 Genesis Microchip Inc. Digital manipulation of video in digital video player
US7085995B2 (en) * 2000-01-26 2006-08-01 Sony Corporation Information processing apparatus and processing method and program storage medium
CN100508560C (zh) * 2000-01-26 2009-07-01 索尼公司 信息处理设备和处理方法
JP2001291374A (ja) 2000-04-07 2001-10-19 Sony Corp データ記録再生装置及び方法
WO2001084375A1 (en) * 2000-04-28 2001-11-08 D4 Media, Inc. Goal seeking engine and method for generating custom media presentations
JP4671011B2 (ja) * 2000-08-30 2011-04-13 ソニー株式会社 効果付加装置、効果付加方法、効果付加プログラム及び効果付加プログラム格納媒体
US6920181B1 (en) * 2000-09-19 2005-07-19 Todd Porter Method for synchronizing audio and video streams
US6898799B1 (en) * 2000-10-23 2005-05-24 Clearplay, Inc. Multimedia content navigation and playback
US6889383B1 (en) 2000-10-23 2005-05-03 Clearplay, Inc. Delivery of navigation data for playback of audio and video content
US7975021B2 (en) * 2000-10-23 2011-07-05 Clearplay, Inc. Method and user interface for downloading audio and video content filters to a media player
US20020106191A1 (en) * 2001-01-05 2002-08-08 Vm Labs, Inc. Systems and methods for creating a video montage from titles on a digital video disk
US7356250B2 (en) * 2001-01-05 2008-04-08 Genesis Microchip Inc. Systems and methods for creating a single video frame with one or more interest points
GB2374719A (en) * 2001-04-20 2002-10-23 Discreet Logic Inc Image data processing apparatus with two timelines
JP2003037806A (ja) 2001-07-23 2003-02-07 Sony Corp ノンリニア編集方法、ノンリニア編集装置、プログラム及びそのプログラムを格納した記録媒体
JP3601710B2 (ja) * 2001-10-12 2004-12-15 ソニー株式会社 編集装置、再生装置および記憶媒体
US6928613B1 (en) * 2001-11-30 2005-08-09 Victor Company Of Japan Organization, selection, and application of video effects according to zones
JP4061458B2 (ja) * 2001-12-05 2008-03-19 ソニー株式会社 ビデオデータ検索方法およびビデオデータ検索システムおよびビデオデータ編集方法およびビデオデータ編集システム
KR100492446B1 (ko) * 2002-07-08 2005-07-01 (주)화인에스아이 지능형 pvr 시스템 및 그 운영방법
US7103718B2 (en) * 2002-09-03 2006-09-05 Hewlett-Packard Development Company, L.P. Non-volatile memory module for use in a computer system
JP4066162B2 (ja) * 2002-09-27 2008-03-26 富士フイルム株式会社 画像編集装置、画像編集プログラム並びに画像編集方法
US7319764B1 (en) * 2003-01-06 2008-01-15 Apple Inc. Method and apparatus for controlling volume
US7882258B1 (en) * 2003-02-05 2011-02-01 Silver Screen Tele-Reality, Inc. System, method, and computer readable medium for creating a video clip
KR100526177B1 (ko) * 2003-02-18 2005-11-03 삼성전자주식회사 홈미디어센터의 미디어 콘텐츠 파일 관리 시스템 및 방법
US7610553B1 (en) * 2003-04-05 2009-10-27 Apple Inc. Method and apparatus for reducing data events that represent a user's interaction with a control interface
JP4110528B2 (ja) * 2003-06-13 2008-07-02 ソニー株式会社 編集装置及び編集方法
JP4464079B2 (ja) * 2003-06-24 2010-05-19 キヤノン株式会社 再生装置
US7725828B1 (en) * 2003-10-15 2010-05-25 Apple Inc. Application of speed effects to a video presentation
US7598956B2 (en) * 2004-04-15 2009-10-06 Microsoft Corporation Blended object attribute keyframing model
JP4659388B2 (ja) * 2004-05-13 2011-03-30 キヤノン株式会社 画像処理装置
US20060013557A1 (en) * 2004-07-01 2006-01-19 Thomas Poslinski Suppression of trick modes in commercial playback
US20060013555A1 (en) * 2004-07-01 2006-01-19 Thomas Poslinski Commercial progress bar
US20060013554A1 (en) * 2004-07-01 2006-01-19 Thomas Poslinski Commercial storage and retrieval
US20060013556A1 (en) * 2004-07-01 2006-01-19 Thomas Poslinski Commercial information and guide
US7375768B2 (en) * 2004-08-24 2008-05-20 Magix Ag System and method for automatic creation of device specific high definition material
US8468454B2 (en) * 2004-08-26 2013-06-18 Sony Corporation Method and system for displaying portions of recorded media content instances
JP4565505B2 (ja) * 2004-09-30 2010-10-20 株式会社リコー 印刷制御装置、印刷制御方法、プログラム及び記録媒体
JP4200960B2 (ja) * 2004-10-01 2008-12-24 ソニー株式会社 編集装置及び編集方法並びにプログラム
US8117282B2 (en) 2004-10-20 2012-02-14 Clearplay, Inc. Media player configured to receive playback filters from alternative storage mediums
JP4151640B2 (ja) * 2004-10-22 2008-09-17 ソニー株式会社 画像表示方法、画像表示プログラムおよび編集装置
FR2880462A1 (fr) * 2005-01-06 2006-07-07 Thomson Licensing Sa Procede de reproduction de documents comprenant des sequences alterees et, dispositif de reproduction associe
US7511767B2 (en) * 2005-03-29 2009-03-31 Snell & Wilcox Limited Video storage device, and method of controlling a video storage device and video mixer
US7434155B2 (en) * 2005-04-04 2008-10-07 Leitch Technology, Inc. Icon bar display for video editing system
US10692536B1 (en) 2005-04-16 2020-06-23 Apple Inc. Generation and use of multiclips in video editing
EP1904933A4 (en) 2005-04-18 2009-12-09 Clearplay Inc DEVICE, SYSTEM AND METHOD FOR ASSOCIATING ONE OR MORE FILTER FILES WITH A PARTICULAR MULTIMEDIA PRESENTATION
US7809802B2 (en) * 2005-04-20 2010-10-05 Videoegg, Inc. Browser based video editing
US7885979B2 (en) * 2005-05-31 2011-02-08 Sorenson Media, Inc. Method, graphical interface and computer-readable medium for forming a batch job
US7975219B2 (en) * 2005-05-31 2011-07-05 Sorenson Media, Inc. Method, graphical interface and computer-readable medium for reformatting data
US8296649B2 (en) * 2005-05-31 2012-10-23 Sorenson Media, Inc. Method, graphical interface and computer-readable medium for generating a preview of a reformatted preview segment
US8295682B1 (en) * 2005-07-13 2012-10-23 Apple Inc. Selecting previously-selected segments of a signal
US20070035665A1 (en) * 2005-08-12 2007-02-15 Broadcom Corporation Method and system for communicating lighting effects with additional layering in a video stream
US20070124766A1 (en) * 2005-11-30 2007-05-31 Broadcom Corporation Video synthesizer
US20070157105A1 (en) * 2006-01-04 2007-07-05 Stephen Owens Network user database for a sidebar
WO2007099481A1 (en) * 2006-03-03 2007-09-07 Koninklijke Philips Electronics N.V. Recording broadcast digital content in a privacy preserving way
US7823056B1 (en) 2006-03-15 2010-10-26 Adobe Systems Incorporated Multiple-camera video recording
US8020097B2 (en) * 2006-03-21 2011-09-13 Microsoft Corporation Recorder user interface
US7827491B2 (en) * 2006-05-12 2010-11-02 Tran Bao Q Systems and methods for video editing
US20070296734A1 (en) * 2006-06-26 2007-12-27 Frank Edughom Ekpar Method and apparatus for creating and managing high impact special effects
US7925978B1 (en) * 2006-07-20 2011-04-12 Adobe Systems Incorporated Capturing frames from an external source
US7623755B2 (en) 2006-08-17 2009-11-24 Adobe Systems Incorporated Techniques for positioning audio and video clips
US7999810B1 (en) * 2006-08-30 2011-08-16 Boice Gina L System and method for animated computer visualization of historic events
US20080065695A1 (en) * 2006-09-11 2008-03-13 Pivi Unlimited Llc System and method for nondeterministic media playback selected from a plurality of distributed media libraries
US8954851B2 (en) * 2006-09-15 2015-02-10 Microsoft Corporation Adding video effects for video enabled applications
JP4341662B2 (ja) * 2006-10-06 2009-10-07 ソニー株式会社 映像合成装置
US20080172704A1 (en) * 2007-01-16 2008-07-17 Montazemi Peyman T Interactive audiovisual editing system
US20080193100A1 (en) * 2007-02-12 2008-08-14 Geoffrey King Baum Methods and apparatus for processing edits to online video
US20080201369A1 (en) * 2007-02-16 2008-08-21 At&T Knowledge Ventures, Lp System and method of modifying media content
US10269388B2 (en) * 2007-08-21 2019-04-23 Adobe Inc. Clip-specific asset configuration
JP2009077105A (ja) * 2007-09-20 2009-04-09 Sony Corp 編集装置および編集方法、プログラム、並びに記録媒体
US20140033025A1 (en) * 2007-12-06 2014-01-30 Adobe Systems Incorporated Displaying a text-based description of digital content in a sub-frame
CA2730725C (en) * 2008-07-16 2017-09-05 Gvbb Holdings S.A.R.L. Multi-preview capability for video production device
US20100061709A1 (en) * 2008-09-05 2010-03-11 Davender Agnihotri Ad Menu for skipped advertisements
US20100146375A1 (en) * 2008-12-05 2010-06-10 Darius Katz Method for producing sound or video streams, and apparatus configured therefor
US8639086B2 (en) 2009-01-06 2014-01-28 Adobe Systems Incorporated Rendering of video based on overlaying of bitmapped images
US8555169B2 (en) 2009-04-30 2013-10-08 Apple Inc. Media clip auditioning used to evaluate uncommitted media content
US8522144B2 (en) * 2009-04-30 2013-08-27 Apple Inc. Media editing application with candidate clip management
US9564173B2 (en) 2009-04-30 2017-02-07 Apple Inc. Media editing application for auditioning different types of media clips
US8566721B2 (en) * 2009-04-30 2013-10-22 Apple Inc. Editing key-indexed graphs in media editing applications
US8881013B2 (en) * 2009-04-30 2014-11-04 Apple Inc. Tool for tracking versions of media sections in a composite presentation
US9032299B2 (en) * 2009-04-30 2015-05-12 Apple Inc. Tool for grouping media clips for a media editing application
US8549404B2 (en) 2009-04-30 2013-10-01 Apple Inc. Auditioning tools for a media editing application
US8359537B2 (en) * 2009-04-30 2013-01-22 Apple Inc. Tool for navigating a composite presentation
US8543921B2 (en) * 2009-04-30 2013-09-24 Apple Inc. Editing key-indexed geometries in media editing applications
US8418082B2 (en) * 2009-05-01 2013-04-09 Apple Inc. Cross-track edit indicators and edit selections
US8701007B2 (en) * 2009-04-30 2014-04-15 Apple Inc. Edit visualizer for modifying and evaluating uncommitted media content
US8631326B2 (en) * 2009-04-30 2014-01-14 Apple Inc. Segmented timeline for a media-editing application
US8627207B2 (en) * 2009-05-01 2014-01-07 Apple Inc. Presenting an editing tool in a composite display area
JP2011081457A (ja) * 2009-10-02 2011-04-21 Sony Corp 情報処理装置および方法
JP2011223097A (ja) * 2010-04-05 2011-11-04 Sony Corp 画像処理装置、画像処理方法及び画像処理プログラム
US8631047B2 (en) 2010-06-15 2014-01-14 Apple Inc. Editing 3D video
US8875025B2 (en) 2010-07-15 2014-10-28 Apple Inc. Media-editing application with media clips grouping capabilities
US8910046B2 (en) 2010-07-15 2014-12-09 Apple Inc. Media-editing application with anchored timeline
US8819557B2 (en) 2010-07-15 2014-08-26 Apple Inc. Media-editing application with a free-form space for organizing or compositing media clips
US8744239B2 (en) 2010-08-06 2014-06-03 Apple Inc. Teleprompter tool for voice-over tool
US8555170B2 (en) 2010-08-10 2013-10-08 Apple Inc. Tool for presenting and editing a storyboard representation of a composite presentation
US20120198319A1 (en) 2011-01-28 2012-08-02 Giovanni Agnoli Media-Editing Application with Video Segmentation and Caching Capabilities
US8886015B2 (en) 2011-01-28 2014-11-11 Apple Inc. Efficient media import
JP6037443B2 (ja) 2011-02-10 2016-12-07 日本電気株式会社 映像間対応関係表示システム及び映像間対応関係表示方法
US9997196B2 (en) 2011-02-16 2018-06-12 Apple Inc. Retiming media presentations
US11747972B2 (en) 2011-02-16 2023-09-05 Apple Inc. Media-editing application with novel editing tools
US9412414B2 (en) 2011-02-16 2016-08-09 Apple Inc. Spatial conform operation for a media-editing application
US8839110B2 (en) 2011-02-16 2014-09-16 Apple Inc. Rate conform operation for a media-editing application
US8966367B2 (en) 2011-02-16 2015-02-24 Apple Inc. Anchor override for a media-editing application with an anchored timeline
US8744249B2 (en) 2011-06-17 2014-06-03 Apple Inc. Picture selection for video skimming
JP2013009218A (ja) * 2011-06-27 2013-01-10 Sony Corp 編集装置及び方法、並びにプログラム
EP2584450A3 (en) * 2011-10-18 2014-05-21 BlackBerry Limited Method of modifying rendered attributes of list elements in a user interface
US9792955B2 (en) 2011-11-14 2017-10-17 Apple Inc. Automatic generation of multi-camera media clips
US9578256B1 (en) * 2012-02-29 2017-02-21 Google Inc. Temporary intermediate video clips for video editing
USD727342S1 (en) 2012-06-05 2015-04-21 P&W Solutions Co., Ltd. Display screen with graphical user interface
JPWO2013187034A1 (ja) * 2012-06-14 2016-02-04 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America コンテンツ管理装置およびコンテンツ管理方法
US20140089804A1 (en) * 2012-09-24 2014-03-27 Burkiberk Ltd. Interactive creation of a movie
US9570108B2 (en) * 2012-11-02 2017-02-14 Apple Inc. Mapping pixels to underlying assets in computer graphics
US9014544B2 (en) 2012-12-19 2015-04-21 Apple Inc. User interface for retiming in a media authoring tool
WO2015042901A1 (en) * 2013-09-29 2015-04-02 Microsoft Technology Licensing, Llc Media presentation effects
USD741368S1 (en) * 2013-10-17 2015-10-20 Microsoft Corporation Display screen with transitional graphical user interface
USD820288S1 (en) * 2013-12-13 2018-06-12 Kbc Advanced Technologies Plc Display screen with graphical user interface
USD744540S1 (en) * 2014-03-14 2015-12-01 Dacadoo Ag Display panel with computer icon
US9813479B2 (en) * 2014-06-05 2017-11-07 Apple Inc. Browser with video display history
USD777775S1 (en) * 2014-12-23 2017-01-31 Nikon Corporation Display screen with a graphical user interface
US10622021B2 (en) * 2016-02-19 2020-04-14 Avcr Bilgi Teknolojileri A.S Method and system for video editing
USD941328S1 (en) * 2019-12-30 2022-01-18 Fresenius Medical Care Holdings, Inc. Display screen with graphical user interface
US11596723B2 (en) 2019-12-30 2023-03-07 Fresenius Medical Care Holdings, Inc. Intradialytic monitoring of blood volume change
US11955144B2 (en) * 2020-12-29 2024-04-09 Snap Inc. Video creation and editing and associated user interface
US11551397B1 (en) * 2021-05-27 2023-01-10 Gopro, Inc. Media animation selection using a graph

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0530464A (ja) * 1991-07-19 1993-02-05 Toshiba Corp 動画像管理装置
JPH05174545A (ja) * 1991-12-24 1993-07-13 Matsushita Electric Ind Co Ltd 編集データの管理方法
JPH05290473A (ja) * 1992-04-11 1993-11-05 Sony Corp 素材送出装置

Family Cites Families (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US530464A (en) * 1894-12-04 Robert b
US5218672A (en) * 1990-01-19 1993-06-08 Sony Corporation Of America Offline editing system with user interface for controlling edit list generation
US5237648A (en) * 1990-06-08 1993-08-17 Apple Computer, Inc. Apparatus and method for editing a video recording by selecting and displaying video clips
US5148154A (en) * 1990-12-04 1992-09-15 Sony Corporation Of America Multi-dimensional user interface
US5261820A (en) * 1990-12-21 1993-11-16 Dynamix, Inc. Computer simulation playback method and simulation
US5191645A (en) * 1991-02-28 1993-03-02 Sony Corporation Of America Digital signal processing system employing icon displays
US5649171A (en) * 1991-04-12 1997-07-15 Accom, Inc. On-line video editing system
DE69222102T2 (de) * 1991-08-02 1998-03-26 Grass Valley Group Bedienerschnittstelle für Videoschnittsystem zur Anzeige und interaktive Steuerung von Videomaterial
US5174545A (en) * 1991-09-26 1992-12-29 Pratt & Whitney Canada, Inc. Contamination resistant bleed valve
WO1993008664A1 (en) * 1991-10-21 1993-04-29 Accom, Inc. On-line video editing system
US5355450A (en) * 1992-04-10 1994-10-11 Avid Technology, Inc. Media composer with adjustable source material compression
JP3699132B2 (ja) 1992-01-29 2005-09-28 三菱電機株式会社 高能率符号化装置
US5442744A (en) * 1992-04-03 1995-08-15 Sun Microsystems, Inc. Methods and apparatus for displaying and editing multimedia information
JP3067801B2 (ja) * 1992-04-10 2000-07-24 アヴィッド・テクノロジー・インコーポレーテッド ビデオ情報のデジタル記憶及び表示を提供するデジタル・オーディオ・ワークステーション
JPH0778804B2 (ja) * 1992-05-28 1995-08-23 日本アイ・ビー・エム株式会社 シーン情報入力システムおよび方法
US5682326A (en) * 1992-08-03 1997-10-28 Radius Inc. Desktop digital video processing system
US5404316A (en) * 1992-08-03 1995-04-04 Spectra Group Ltd., Inc. Desktop digital video processing system
JPH06176081A (ja) * 1992-12-02 1994-06-24 Hitachi Ltd 階層構造ブラウジング方法およびその装置
US5290473A (en) * 1993-03-15 1994-03-01 Alliedsignal Inc. Azeotrope-like compositons of 1,1,1,3,3,5,5,5-octafluoropentane, C1-C5 alkanol and optionally nitromethane
US5339393A (en) * 1993-04-15 1994-08-16 Sony Electronics, Inc. Graphical user interface for displaying available source material for editing
US5544318A (en) * 1993-04-16 1996-08-06 Accom, Inc., Asynchronous media server request processing system for servicing reprioritizing request from a client determines whether or not to delay executing said reprioritizing request
US6195497B1 (en) * 1993-10-25 2001-02-27 Hitachi, Ltd. Associated image retrieving apparatus and method
US5487141A (en) * 1994-01-21 1996-01-23 Borland International, Inc. Development system with methods for visual inheritance and improved object reusability
JP3320197B2 (ja) * 1994-05-09 2002-09-03 キヤノン株式会社 画像編集装置及びその方法
US5530501A (en) * 1994-06-29 1996-06-25 Eastman Kodak Company Photographic camera with data recording on film
US5835683A (en) * 1995-01-12 1998-11-10 International Business Machines Corporation System and method for authoring an expert system
JP3837746B2 (ja) * 1995-04-08 2006-10-25 ソニー株式会社 編集システム
US5737552A (en) * 1995-07-28 1998-04-07 Starwave Corporation Machine, method and medium for linear programming with interactive conversational interface
JPH0993487A (ja) * 1995-09-21 1997-04-04 Roland Corp ビデオ編集装置
JP3454396B2 (ja) * 1995-10-11 2003-10-06 株式会社日立製作所 動画像の変化点検出制御方法とそれに基づく再生停止制御方法およびそれらを用いた動画像の編集システム
US6014137A (en) * 1996-02-27 2000-01-11 Multimedia Adventures Electronic kiosk authoring system
GB2312139B (en) * 1996-04-12 2000-09-20 Sony Uk Ltd Editing of recorded material
US5956453A (en) * 1996-04-12 1999-09-21 Hitachi Denshi Kabushiki Kaisha Method of editing moving image and apparatus of editing the same
JP3377677B2 (ja) * 1996-05-30 2003-02-17 日本電信電話株式会社 映像編集装置
US5781188A (en) * 1996-06-27 1998-07-14 Softimage Indicating activeness of clips and applying effects to clips and tracks in a timeline of a multimedia work
US6628303B1 (en) * 1996-07-29 2003-09-30 Avid Technology, Inc. Graphical user interface for a motion video planning and editing system for a computer
US6820093B2 (en) * 1996-07-30 2004-11-16 Hyperphrase Technologies, Llc Method for verifying record code prior to an action based on the code
US5969716A (en) * 1996-08-06 1999-10-19 Interval Research Corporation Time-based media processing system
FR2753868A1 (fr) * 1996-09-25 1998-03-27 Technical Maintenance Corp Procede de selection d'un enregistrement sur un systeme numerique de reproduction audiovisuel et systeme pour mise en oeuvre du procede
US6400886B1 (en) * 1996-11-15 2002-06-04 Futuretel, Inc. Method and apparatus for stitching edited video segments
CA2202106C (en) * 1997-04-08 2002-09-17 Mgi Software Corp. A non-timeline, non-linear digital multimedia composition method and system
JP3409834B2 (ja) * 1997-07-10 2003-05-26 ソニー株式会社 画像処理装置および画像処理方法、並びに記録媒体
JPH11289512A (ja) * 1998-04-03 1999-10-19 Sony Corp 編集リスト作成装置
US6407761B1 (en) * 1999-05-10 2002-06-18 Sap Aktiengesellschaft System and method for the visual customization of business object interfaces

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0530464A (ja) * 1991-07-19 1993-02-05 Toshiba Corp 動画像管理装置
JPH05174545A (ja) * 1991-12-24 1993-07-13 Matsushita Electric Ind Co Ltd 編集データの管理方法
JPH05290473A (ja) * 1992-04-11 1993-11-05 Sony Corp 素材送出装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP0863510A4 *

Also Published As

Publication number Publication date
KR19990071490A (ko) 1999-09-27
US7055100B2 (en) 2006-05-30
US20010020953A1 (en) 2001-09-13
KR100551459B1 (ko) 2006-11-30
EP0863510A1 (en) 1998-09-09
US20030117431A1 (en) 2003-06-26
US7207007B2 (en) 2007-04-17
EP0863510A4 (en) 2002-05-29
US20020154156A1 (en) 2002-10-24

Similar Documents

Publication Publication Date Title
WO1998012702A1 (fr) Systeme et procede d&#39;edition, et dispositif et procede de gestion de sequences video
JP4117616B2 (ja) 編集システム、その制御方法及び編集装置
JP4103192B2 (ja) 編集システム及び編集方法
JP4168334B2 (ja) 編集装置及び編集方法
JP4022839B2 (ja) 編集システム及び編集方法
JP3775611B2 (ja) 編集システム
JPH1198412A (ja) 編集システム及び表示装置並びにコンピユータ装置
JPH1196734A (ja) 編集システム及び表示装置並びにコンピユータ装置
WO2003091908A1 (fr) Procede de gestion d&#39;index, procede d&#39;affichage d&#39;index, dispositif d&#39;enregistrement/de reproduction ainsi que support d&#39;enregistrement
JP4117632B2 (ja) 編集システム及び編集方法
JP4117631B2 (ja) 編集装置及び編集方法
JPH10149673A (ja) 編集システム、編集方法及び表示装置
JP2006054911A (ja) 編集用ソフトウエア及びクリツプ編集方法
JP3918246B2 (ja) 画像処理方法および装置
JPH10149671A (ja) 編集システム、編集方法及び画像処理装置
JPH10149670A (ja) 編集システム、編集方法及びクリツプ管理方法
JPH10149672A (ja) 編集システム、編集方法及びコンピユータ装置
JP3906922B2 (ja) 編集システム
JP4245083B2 (ja) 加工再収録機能を有するノンリニア映像編集システム
JP4117617B2 (ja) 編集システム及びその制御方法
JP4051658B2 (ja) 編集装置及び編集方法
JP4039767B2 (ja) 動画像編集方法及び動画像編集装置
JP3994359B2 (ja) 編集リスト作成装置
JP4103197B2 (ja) 編集システム及び編集方法
JPH10162556A (ja) 編集システム

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): KR US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): DE FR GB

WWE Wipo information: entry into national phase

Ref document number: 1997940437

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 1019980703762

Country of ref document: KR

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWP Wipo information: published in national office

Ref document number: 1997940437

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 09068866

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 1019980703762

Country of ref document: KR

WWG Wipo information: grant in national office

Ref document number: 1019980703762

Country of ref document: KR